Universitätspublikationen
Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178)
Is part of the Bibliography
- no (178)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
- Alzheimer (1)
- Amphisphaeriales (1)
- Angiogenesis (1)
- Arbeitsbedingungen (1)
- Asian Tiger Mosquito (1)
- Asiatische Tigermücke (1)
- Außerschulisches Lernen (1)
- Batten disease (1)
- Beatmung (1)
- Biodiversität (1)
- Biomoleküle (1)
- Blockplay (1)
- Broken symmetry (1)
- CCLM (1)
- CORDEX-EAS (1)
- Call Center (1)
- Carotinoidbiosynthese (1)
- Computerkompetenz (1)
- Conformational Dynamics (1)
- DDX6 (1)
- DFT (1)
- DPOAE (1)
- Delegation (1)
- Density Functional Theory (1)
- Deutschland (1)
- ESD (1)
- Early Childhood (1)
- Emittanz (1)
- Enzymes and Biomimetic Systems (1)
- Epigenetik (1)
- Error Mitigation (1)
- Erythropoetin (1)
- Exercise (1)
- Exercise Metabolism (1)
- Eye Tracking (1)
- FPGA (1)
- FRANZ-Projekt (1)
- Familie (1)
- Family (1)
- Fault Tolerance (1)
- Fettsäuresynthase (1)
- Forschungsbohrung Sichenhausen (1)
- Fragmentierungsquerschnitte (1)
- Freiheit (1)
- Gas Chromatography (1)
- Geoelektrik (1)
- Geometrie (1)
- Geometry (1)
- Germanistik (1)
- Geschichte 1966-2001 (1)
- Geschlechterforschung (1)
- Gespräch (1)
- Gesundheitliche Ungleichheit (1)
- Gesundheitsverhalten (1)
- Grundschule (1)
- HIV (1)
- Halocarbons (1)
- Halogenated Trace Gases (1)
- Handlung (1)
- Hausarztpraxis (1)
- Hegel (1)
- HepG2 Zellen (1)
- Hodgkin-Lymphom (1)
- Holzklötzchen (1)
- Hydroxylation (1)
- Immigration (1)
- Integral Geometry (1)
- Intelligence (1)
- Interaction (1)
- Invariant object recognition (1)
- Inversion (1)
- Ionenquelle (1)
- Ionizing Radiation (1)
- Iran (1)
- Juvenile neuronal ceroid lipofuscinosis (1)
- Karotte (1)
- Kinzigtal (1)
- Konstruktvalidität (1)
- Kurdistan (1)
- LINE-1 (1)
- LU-102 (1)
- Lernen (1)
- Lungenkontusion (1)
- Lösungsprozess (1)
- Material Flow Analysis (1)
- Mathematics Learning (1)
- Mathematik (1)
- Medizinische Fachangestellte (1)
- Mehrsprachigkeit (1)
- Mitochondria (1)
- Mitochondrium (1)
- Modellorganismus (1)
- Moesia Superior (1)
- Molarenevolution (1)
- Monsun (1)
- Multikomponentenreaktion (1)
- Mycophenolat Mofetil (1)
- NMR shift calculation (1)
- Nahrungsmittelallergie (1)
- Namibia (1)
- Nok Culture (1)
- Oligonukleotide (1)
- Optical Spectroscopy (1)
- Ostasien (1)
- P-TEFb (1)
- Palladium-Katalyse (1)
- Participation (1)
- Partizipation (1)
- Pb-Ag (1)
- Pepperpot (1)
- Pestalotia (1)
- Pestalotiopsis (1)
- Phaeodactylum tricornutum (1)
- Pharmacology (1)
- Photodynamics (1)
- Primärversorgung (1)
- Proteine (1)
- Prozedurales Wissen (1)
- Qualifikation (1)
- RCM (1)
- RNAPII (1)
- Rainwater Harvesting (1)
- Reasoning (1)
- Republik Moldau (1)
- Retrotransposition (1)
- Ribonucleic Acids (1)
- Roman (1)
- Rotorest (1)
- SORN (1)
- STARS (1)
- STDP (1)
- Saccharomyces cerevisiae (1)
- Schlitz-Gitter (1)
- Scientific Materials Analysis (1)
- Sellerie (1)
- Single Event Effects (1)
- Single-particle (1)
- Skeletal muscle fiber-type switching (1)
- Soziolinguistik (1)
- Spiel (1)
- Sportunterricht (1)
- Sprachliche Minderheiten (1)
- Staatstheorie (1)
- Stahlenschäden (1)
- Strafrecht (1)
- Strukturwandel (1)
- Support (1)
- Sustainability Evaluation (1)
- Talk (1)
- Technologiebasiertes Problemlösen (1)
- Terracotta Figurines (1)
- Time-of-Flight Mass Spectrometry (1)
- Time-resolved Fluorescence (1)
- Trace Gas Analysis (1)
- Transfer learning (1)
- Transition Metals (1)
- Turkish immigrants (1)
- Türkisch (1)
- Universa feature extraxtion (1)
- Unternehmensstrafrecht (1)
- Unterstützung (1)
- Valuation Theory (1)
- Verankerung (1)
- Verbandsstrafrecht (1)
- Vogelsberg (1)
- Water Reuse (1)
- Wirtschaftsstrafrecht (1)
- Working Memory (1)
- Zelle (1)
- Zellfusion (1)
- Zurechnung (1)
- Zweiphotonen (1)
- archaeometallurgy (1)
- categorisation-elaboration model (1)
- cell biology (1)
- cryo-EM (1)
- drug discovery (1)
- enantioselektive Synthese (1)
- episodic team process model (1)
- frühkindliche Erziehung (1)
- fungi (1)
- global and virtual teams (1)
- high-content screening (1)
- ibrutinib (1)
- ionisierende Strahlung (1)
- kinetische Therapie (1)
- lattice (1)
- magnetic exchange coupling constants (1)
- magnon condensation (1)
- magnon-phonon interactions (1)
- medieval/early modern (1)
- microRNA (1)
- molecular phylogenetics (1)
- multiple myeloma (1)
- neural networks (1)
- phase transitions (1)
- photolabile Schutzgruppe (1)
- plasticity (1)
- proteasom inhibitor (1)
- quantum chromodynamics (1)
- regionale Klimasimulation (1)
- steroid (1)
- synaptic normalization (1)
- team innovation (1)
- unterrichtliche Vor- und Nachbereitung (1)
- variability (1)
- yttrium-iron garnet (1)
- Übergewicht und Adipositas im Kindesalter (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
Interactional niche in the development of geometrical and spatial thinking in the familial context
(2016)
In the analysis of mathematics education in early childhood it is necessary to consider the familial context, which has a significant influence on development in early childhood. Many reputable international research studies emphasize that the more children experience mathematical situations in their families, the more different emerging forms of participation occur for the children that enable them to learn mathematics in the early years. In this sense mathematical activities in the familial context are cornerstones of children’s mathematical development, which is also affected by the ethnic, cultural, educational and linguistic features of their families. Germany has a population of approximately 82 million, about 7.2 million of whom are immigrants (Statisches Bundesamt 2009, pp.28-32). Children in immigrant families grow up with multiculturalism and multilingualism, therefore these children are categorized as a risk group in Germany. “Early Steps in Mathematics Learning – Family Study” (erStMaL-FaSt) is the one of the first familial studies in Germany to deal with the impact of familial socialization on mathematics learning. The study enables us to observe children from different ethnic groups with their family members in different mathematical play situations. The family study (erStMaL-FaSt) is empirically performed within the framework of the erStMaL (Early Steps in Mathematics Learning) project, which relates to the investigation of longitudinal mathematical cognitive development in preschool and early primary-school ages from a socio-constructivist perspective. This study uses two selected mathematical domains, Geometry and Measurement, and four play situations within these two mathematical domains.
My PhD study is situated in erStMaL-FaSt. Therefore, in the beginning of this first chapter, I briefly touch upon IDeA Centre and the erStMaL project and then elaborate on erStMaL-FaSt. As parts of my research concepts, I specify two themes of erStMaL-FaSt: family and play. Thereafter I elaborate upon my research interest. The aim of my study is the research and development of theoretical insights in the functioning of familial interactions for the formation of geometrical (spatial) thinking and learning of children of Turkish ethnic background. Therefore, still in Chapter 1, I present some background on the Turkish people who live in Germany and the spatial development of the children.
This study is designed as a longitudinal study and constructed from interactionist and socio-constructivist perspectives. From a socio-constructivist perspective the cognitive development of an individual is constitutively bound to the participation of this individual in a variety of social interactions. In this regard the presence of each family member provides the child with some “learning opportunities” that are embedded in the interactive process of negotiation of meaning about mathematical play. During the interaction of such various mathematical learning situations, there occur different emerging forms of participation and support. For the purpose of analysing the spatial development of a child in interaction processes in play situations with family members, various statuses of participation are constructed and theoretically described in terms of the concept of the “interactional niche in the development of mathematical thinking in the familial context” (NMT-Family) (Acar & Krummheuer, 2011), which is adapted to the special needs of familial interaction processes. The concept of the “interactional niche in the development of mathematical thinking” (NMT) consists of the “learning offerings” provided by a group or society, which are specific to their culture and are categorized as aspects of “allocation”, and of the situationally emerging performance occurring in the process of meaning negotiation, both of which are subsumed under the aspect of the “situation”, and of the individual contribution of the particular child, which constitutes the aspect of “child’s contribution” (Krummheuer 2011a, 2011b, 2012, 2014; Krummheuer & Schütte 2014). Thereby NMT-Family is constructed as a subconcept of NMT, which offers the advantage of closer analyses and comparisons between familial mathematical learning occasions in early childhood and primary school ages.
Within the scope of NMT-Family, a “mathematics learning support system” (MLSS) is an interactional system which may emerge between the child and the family members in the course of the interaction process of concrete situations in play (Krummheuer & Acar Bayraktar, 2011). All these topics are addressed in Chapter 2 as theoretical approaches and in Chapter 3 as the research method of this study. In Chapter 4 the data collection and analysis is clarified in respect of these approaches...
In Belize, which is well known for the Belize Barrier Reef and its offshore atolls, coastal lagoons are frequent morphological features along the coast. They represent transitional environments between siliciclastic and carbonate settings. In order to shed light into the Holocene evolution of coastal lagoon environments, five localities along the central coast of Belize were selected as coring sites. These include four coastal lagoons and one marsh area, namely Mantatee Lagoon, Mullins River Beach, Colson Point Lagoon, Commerce Bight Lagoon and Sapodilla Lagoon. A total of 26 sediment cores with core lengths ranging from 109 cm to 500 cm, were drilled using a Lanesky-vibracorer. Overall, 73 m of Holocene sediments and Pleistocene soil were recovered. Together with 58 radiocarbon dates the sediments reveal details on the sediment architecture and depositional features of the localities.
Marine inundation of the mainland and coastal lagoon formation started around 6 kyrs cal BP.
As a response to sea-level rise during the Holocene transgression, facies retrograded towards the coast, as seen in marginal marine overlying brackish mollusk faunas. Evidence for late Holocene progradation of facies due to sea-level stagnation is largely lacking. The occurrence of landward thinning sand beds, hiatuses and marine fauna in lagoonal successions are indications of event (overwash) sedimentation. Sediments recovered are largely of Holocene age (<7980 cal BP), overlying Pleistocene sections. Analyses of sediment composition and texture, radiocarbon dating and mollusk shell identification were used to describe and correlate sedimentary facies.
XRD analyses have identified quartz as the dominant mineral, with the Maya Mountains as main source of coastal lagoon sediments. The most common sedimentary facies include peat and peaty sediment, mud, sand, and poorly sorted sediments. Pleistocene soil forms the basement of Holocene sediments. Holocene mud represents lagoon background permanent sedimentation.
Peats and peat-rich sequences were deposited in mangrove swamp environments, whereas sandy facies mainly occur in the shoreface, beach, barriers, bars, barrier spits and overwash deposits. Facies successions could be identified for each locality, but it has proven difficult to correlate the stratigraphic sequences, especially among localities. These differences among the five locations studied suggest that apart from regional influence such as sea-level rise, local environmental factors such as small-scale variation in geomorphology and resulting facies heterogeneity, connectivity of the lagoon with the sea, antecedent topography and river discharge, were responsible for coastal sedimentation and lagoon development in the Holocene of Belize.
Faunal composition and distribution patterns of mollusk assemblages from 20 shell concentrations in cores collected in coastal lagoons, a mangrove-fringed tidal inlet and the marginal marine area (shallow subtidal) show considerable variation due to environmental heterogeneity and the interplay of several environmental factors in the course of the mid-late Holocene (ca. 6000 cal BP to modern). The investigated fauna ≥2 mm comprises 2246 bivalve, gastropod and 11 scaphopod specimens. Fifty-three mollusk species, belonging to 42 families, were identified. The bivalve Anomalocardia cuneimeris and cerithid gastropods are the dominant species and account for 78% of the total fauna. Diversity indices are low in concentrations from lagoons and relatively high in the marginal marine and tidal inlet areas.
Based on cluster analysis and nonmetric multidimensional scaling (NMDS), seven lagoonal assemblages and three marginal marine/tidal inlet assemblages were defined. A separation between lagoonal and marginal marine/tidal inlet assemblages seen in ordination indicates a lagoon-onshore gradient. The statistical separation among lagoonal assemblages demonstrates environmental changes during the Holocene evolution of the coastal lagoons, which is probably related to the formation of barriers and spits. The controlling factors of species distribution patterns are difficult to figure out, probably due to the heterogeneity of the barrier-lagoon systems and the interaction of paleoecological and paleoenvironmental factors. In addition to the taxonomic analysis, a taphonomic analysis of 1827 valves of A. cuneimeris from coastal lagoons was carried out. There is no relationship between depth and age of shells and their taphonomic condition. Size-frequency distributions and right-left valve ratios of A. cuneimeris suggest that valves were not transported over long distances but were deposited parautochthonously in their original habitat. Shells from tidal inlet and marginal marine environments were also predominantly deposited in their original habitats.
Since the Belize coast was repeatedly affected by hurricanes and the paleohurricane record for this region is poor, the sediment cores have been examined in order to identify storm deposits.
The paleohurricane record presented in this study spans the past 8000 years and exhibits three periods with increased evidences of hurricane strikes occurring at 6000-4900 cal yr BP, 4200-3600 cal yr BP and 2200-1500 cal yr BP. Two earlier events around 7100 and 7900 cal yr BP and more recent events around 180 cal yr BP and during modern times have been detected. Sand layers, redeposited corals and lagoon shell concentrations have been used as proxies for storm deposition. Additionally, hiatuses and reversed ages may indicate storm influence. While sand layers and corals represent overwash deposits, the lagoon shell concentrations, which mainly comprise the bivalve Anomalocardia cuneimeris and cerithid gastropods, have been deposited due to changes in lagoon salinity during and after storm landfalls. Comparison with other studies reveals similarities with one record from Belize, but hardly any matches with other published records. The potential for paleotempestology reconstructions of the barrier-lagoon complexes along the central Belize coast differs depending on geomorphology, and deposition of washovers in the lagoon basins is limited, probably due to the interplay of biological, geological and geomorphological processes.
Geoelektrische Methoden sind weit verbreitet und werden häufig zur Erkundung des oberflächennahen Untergrundes eingesetzt. Angewendet werden standardmäßig meist nur linienhafte Anordnungen der Sender- und Empfängerelektroden, die nur wenige Zehner Meter lang sind. Hierdurch haben diese Methoden nur geringe Eindringtiefen. Um größere Eindringtiefen und 3-dimensionale Informationen über den Untergrund zu erhalten, sind in der vorgestellten Studie die Empfänger- und Senderdipole in mehr oder weniger regelmäßigen Abständen über das Untersuchungsgebiet verteilt worden. Mit jeder Empfängerstation sind kontinuierlich die elektrischen Spannungen in bis zu drei Richtungen aufgezeichnet worden. Für die Einspeisungen wurde ein Rechtecksignal verwendet, das sich gut von den Störfrequenzen und den natürlichen Spannungen abhebt. Die Richtungen der Einspeisedipole sind entsprechend den örtlichen Gegebenheiten, jedoch möglichst parallel zu den Messrichtungen, gewählt worden. Zur Auswertung der erhobenen Messdaten wurde ein Programmpaket entwickelt, das eine weitestgehend automatisierte Auswertung der Daten erlaubt. Die Bestimmung der scheinbaren spezifischen Widerstände und ihrer Messfehler wurde an den fouriertransformierten Datenzeitreihen durchgeführt. Hierdurch konnten Störeinflüsse minimiert werden und es wurde möglich selbst stark verrauschte Datensätze auszuwerten. Um die erhobenen Daten interpretieren zu können sind die berechneten scheinbaren spezifischen Widerstände als Grundlage für Inversionen und Modellstudien verwendet worden. Die oben beschriebene Methode wurde im Rahmen der vorliegenden Arbeit in zwei unterschiedlichen Messgebieten angewandt.
Messgebiet im Hohen Vogelsberg
Im Juli 2007 wurde damit begonnen, die Forschungsbohrung Sichenhausen-Eschwald im Hohen Vogelsberg abzuteufen. Ziel war es, Informationen über den strukturellen Aufbau des größten geschlossenen Vulkankomplexes Mitteleuropas zu gewinnen. Die Gesteinsansprache der Tiefbohrung lieferte bereits relativ früh Hinweise darauf, dass ein großer magmatischer Körper aufgeschlossen wurde.Aufgrund der begrenzten räumlichen Aussagekraft der Bohrung und fehlender Geländebefunde war es nicht möglich, den Mechanismus der Platznahme und die Größe des Körpers näher zu beschreiben. Die Kampagne hatte das Ziel diese Lücke zu schließen und ein 3-dimensionales Modell des Untergrundes zu erstellen.In dem annähernd quadratischen Untersuchungsgebiet, das eine Fläche von ca. 25 $km²$ aufweist, wurden 20 Datenlogger zur Aufzeichnung der elektrischen Spannungen aufgebaut. Die Empfängerdipole waren zwischen 20 m und 30 m lang. Insgesamt wurden 36 Stromeinspeisungen mit Stromstärken zwischen 28 A und 40 A an 16 unterschiedlichen Positionen für jeweils 2 bis 3 verschiedene Dipolrichtungen vorgenommen. Die Einspeisedipole waren zwischen 100 m und 300 m lang. Insgesamt konnten 1.439 scheinbare spezifische Widerstände berechnet werden.Die Ergebnisse der Modellierungen und der Inversion der Daten zeigen, dass mit der Forschungsbohrung ein domartiger Körper angebohrt wurde. Anhand der Ergebnisse kann die räumliche Ausdehnung des Körpers eingegrenzt und ein vorher noch nicht kartierter Gang nachgewiesen werden.
Messgebiet im Bereich der Kinzigtalsperre
Das etwa Ost-West verlaufende Kinzigtal bildet die naturräumliche und geologische Grenze zwischen dem vulkanischen Vogelsberg im Norden und dem, in diesem Bereich aus Sedimentgesteinen aufgebauten, Spessart im Süden.Die zwischen Steinau a. d. Str. und Bad Soden-Salmünster befindliche Kinzigtalsperre dient dem Hochwasserschutz und der Regulierung des Pegels der Kinzig bei Dürreperioden. Der aufgestaute See ist relativ flach und weist im Normalstau maximale Tiefen von ca. 6~m auf. Der Stausee ist jedoch über weite Teile etwa 4~m tief. In dieser Kampagne betrug der Abstand zwischen den einzelnen Empfängerstationen etwa 100 m bis 300 m. Es wurde aufgrund der beengten Platzverhältnisse eine Dipollänge von ca. 48 m für die Einspeise- und die Empfängerdipole im Messgebiet gewählt. Insgesamt wurden 14 Empfängerstationen im Messgebiet aufgebaut, von denen sich Neun auf dem Seegrund befanden. Das Messraster orientierte sich am vermuteten Verlauf der Kinzigtalstörung. An 8 Positionen sind in 21 Richtungen elektrische Ströme mit Stärken zwischen 2,2 A und 40 A in den Untergrund eingespeist worden. Es konnten 536 scheinbare spezifische Widerstände berechnet werden. Ziel war es, den Verlauf der Störung näher zu bestimmen und die Tiefe der im Untergrund vorhandenen salinären Grundwässer zu bestimmen. Die Bestimmung des Verlaufs der Kinzigtalstörung sowie die Tiefenbestimmung der salinären Grundwässer war mit den erhobenen Daten jedoch nicht möglich.
The development of the atrioventricular (AV) canal and the cardiac valves is tightly linked and a critically regulated process. Anomalies in components of the involved pathways can lead to congenital valve malformations, a leading cause of morbidity and mortality in neonates. Myocardial Bmp as well as endocardial Notch and Wnt signaling have been identified as critical factors for the induction of EMT during the formation of the endocardial cushions and cardiac valves. Of these, canonical Wnt signaling positively regulates endocardial proliferation and EMT but negatively regulates endocardial differentiation. Further, elevated Wnt signaling leads to the ectopic expression of myocardial Bmp ligands suggesting a high level of integration of the involved pathways and crosstalk amongst the different cardiac tissues.
Here we have identified a novel role for Id4 as a mediator between Bmp and Wnt signaling. Id4 belongs to the Id family of proteins and is known to be involved in bone and nervous system development. We found that in zebrafish, id4 is expressed in the endocardium of the AV canal at embryonic stages and throughout the atrial chamber in addition to AV canal, in adults. Using transcription activator-like effector nucleases (TALENs) we established an id4 mutant allele. Our analysis shows that id4 mutant larvae are susceptible to retrograde blood flow, and show aberrant expression of developmental valvular markers. These include expanded expression domains of markers like bmp4, cspg2a and Alcam. In contrast, valve maturation as assessed by the expression of spp1 is considerably reduced in id4 mutants. Using conditional transgenic systems, along with elegant in vivo imaging of transgenic reporter lines, we further found that id4 is a transcriptional target of Bmp signaling, and it is capable of dose dependently restricting Wnt signaling in the endocardium of the Atrioventricular Canal.
Taken together, our data identifies Id4 as a novel player in Atrioventricular Canal and valve development. We show that Id4 function is important in valve development acting downstream of Bmp signaling by restricting endocardial Wnt to allow valve maturation
Nearly 170 million people are chronically infected with HCV and thus at risk of developing liver cirrhosis and hepatocellular carcinoma. Although new and effective oral antiviral drugs are available, there is still the need for a preventive vaccine. In addition, in light of the high number of patients who are chronically infected with HCV the development of a therapeutic vaccine will present a support or even an alternative to the expensive medications.
To induce HCV-specific immune responses in a vaccine model, the HBV capsid is used as a carrier to deliver HCV antigens. Due to its icosahedral structure, the HBV capsid is highly immunogenic and helps to elicit a strong B cell response against the delivered antigens. In addition, the translocation motif (TLM) from the HBV surface protein is fused to the core protein. The TLM conveys membrane-permeability to the carrier capsid, enabling antigen transfer into the cytoplasm, and thus allows immunoproteasomal processing and MHC class I-mediated presentation of the antigen. To load the capsid with foreign antigens, a strep-Tag/streptavidin system is utilized. Recombinant capsids and antigens were purified from the E. coli production system. Detailed characterization of the carrier capsid demonstrated the proper assembly, adequate thermal stability and the successful loading of the foreign antigens onto the capsid surface.
As a further step, seven different HCV-derived proteins were produced and purified for the coupling on the surface of TLM-core particles. The characterization of their immunogenicity using this system is being performed.
Using ovalbumin as a model antigen, which is coupled to the carrier capsids via strep-Tag/streptavidin binding, shows that this system is suitable to efficiently deliver antigens into the cytoplasm of antigen-presenting cells (APCs), leading to the activation of APCs. This activation was assessed by measuring the secretion of IL-6 and TNF-α, in addition to the upregulation of activation markers (CD40, CD80, CD69, and MHC class I). Upon activation, the APCs were able to activate ova-specific CD8+ T cells measured by secreted IFN-γ, which was up to 20-folds more than IFN-γ secreted upon incubation with free ovalbumin. These data indicate that the TLM-capsid is suitable to serve as a carrier to deliver foreign antigens into the cytoplasm of APCs leading to MHC class I-mediated presentation and induction of an antigen-specific CTLs response.
Übergewicht und Adipositas im Kindesalter werden als gesellschaftliches Problem diskutiert. Dem Sportunterricht kommt im Umgang mit den Betroffenen eine besondere Bedeutung und Verantwortung zu. In der vorliegenden Forschungsarbeit wird die Annahme vertreten, dass der Sportunterricht seinem Auftrag nur dann gerecht werden kann, wenn es gelingt, dass auch die übergewichtigen und adipösen Kinder positive Anerkennungserfahrungen im Feld von Bewegung, Spiel und Sport sammeln können. Das Konstrukt der Anerkennung impliziert zwei Ebenen, die sich gegenseitig beeinflussen: Auf personaler Ebene bezieht sich das Streben nach Anerkennung auf den Selbstwert (sozialpsychologische Perspektive) und auf sozialer Ebene auf den Wunsch nach Anerkennung durch die Mitglieder der Gruppen, denen man angehört (soziologische Perspektive). Die vorliegende Untersuchung befasst sich mit den Anerkennungserfahrungen übergewichtiger (n = 105) und adipöser Kinder (n = 48) im Vergleich zu ihren normalgewichtigen Mitschülerinnen und Mitschülern (n = 447) als wesentlicher Indikator für freudvolle Teilnahme im schulischen Sportunterricht. Operationalisiert werden die Anerkennungsverhältnisse auf sozialer Ebene über das Maß der erhaltenen sozio-emotionalen Anerkennung der Betroffenen mit Hilfe soziometrischer Verfahren und auf personaler Ebene über die sportliche Selbstwahrnehmung mit Hilfe eines konzipierten und validierten Körperkonzept-Fragebogens. Zur Berechnung der Ergebnisse wird ein verteilungsfreies Verfahren – der Kruskal-Wallis-Test – eingesetzt. Die Ergebnisse legen insgesamt einige Unterschiede der Anerkennungsverhältnisse in Abhängigkeit vom Körpergewichtsstatus dar: Die soziometrische Analyse zeigt, dass das Ausmaß des Körpergewichts für die Wahl der Spielgefährten im Sportunterricht eine Rolle spielt (p = .002). Während normal- und übergewichtige Schülerinnen und Schüler sich in den erhaltenen Wahlen nicht statistisch relevant unterscheiden, sind die adipösen signifikant weniger anerkannt. Als besondere Risikogruppe stellen sich adipöse Mädchen mit Migrationshintergrund heraus (p = .010). Hinsichtlich des Körperkonzepts zeigen sich signifikante Unterschiede in der „Selbsteinschätzung der allgemeinen Sportlichkeit“ zugunsten der normalgewichtigen Kinder (p = .000). Im Faktor „Selbsteinschätzung der konditionellen Fähigkeit Kraft“ schätzen sich die Kinder mit dem höchsten Körpergewichtsstatus am positivsten ein (p = .004). Keinen Unterschied in Abhängigkeit vom Körpergewichtsstatus zeigt sich in der „Selbstakzeptanz der äußeren Erscheinung“ (p = .751).
Es bleibt festzuhalten, dass die übergewichtigen Kinder weitgehend diskriminierungsfrei am Sportunterricht teilnehmen, ihre Sportlichkeit realistisch einschätzen und mit ihrem Äußeren zufrieden sind. Eine ähnliche Selbsteinschätzung weisen die adipösen Kinder vor, jedoch ergibt sich auf dem extrem erhöhten Körpergewichtsstatus ein soziales Problem, dem aus pädagogischer Sicht entgegen zu wirken ist.
In der Experimentierhalle der Physik am Campus Riedberg der Goethe – Universität wird gegenwärtig die Beschleunigeranlage FRANZ aufgebaut. FRANZ steht für Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum. Die Anlage bietet vielfältige Experimentiermöglichkeiten in der Untersuchung intensiver, gepulster Protonenstrahlen. Ein Forschungsschwerpunkt an den sekundären Neutronenstrahlen sind Messungen zur nuklearen
Astrophysik. Die Neutronen werden durch einen 2 MeV Protonenstrahl mittels der Reaktion 7Li (p, n) 7Be erzeugt. Die geplanten Experimente erfordern sowohl eine hier weltweit erstmals realisierte Pulsrepetitionsrate von bis zu 250 kHz bei Pulsströmen im 100 mA – Bereich als auch eine extreme Pulskompression auf eine Nanosekunde bei dann auftretenden Pulsströmen im Ampere – Bereich. Daneben ist auch ein Dauerstrich – Strahlbetrieb im mA – Strombereich möglich. Auch viele einzelne Beschleunigerkomponenten wie die Ionenquelle, der Chopper zur Pulsformung, die hochfrequent gekoppelte RFQ-IH-Kombination, der Rebuncher in Form einer CH – Struktur und der Bunchkompressor sind Neuentwicklungen. Mittlere Strahlleistungen von bis zu 24 kW treten im Niederenergiestrahltransportbereich auf, da die Ionenquelle grundsätzlich im Dauerstrich zu betreiben ist, auch bei Hochstrom mit hohen Pulsrepetitionsraten. Der Personen- und Geräteschutz spielt damit auch eine wesentliche Rolle bei der Auslegung des Kontrollsystems für FRANZ. Der Aufbau von FRANZ und seine wesentlichen Komponenten werden in Kapitel 2 erläutert. Die vielen unterschiedlichen Komponenten wie Hochspannungsbereich, Magneten, Hochfrequenzbauteile und Kavitäten, Vakuumbauteile, Strahldiagnose und Detektoren machen plausibel, dass auch das Kontrollsystem für eine solche Anlage speziell ausgelegt werden muss. In Kapitel 4 werden zum Vergleich die Konzepte zur Steuerung und Regelung aktueller, großer Beschleunigerprojekte aufgezeigt, nämlich für die „European Spallation Source ESS“ und für die „Facility for Antiproton and Ion Research FAIR“. In der vorliegenden Arbeit wurde die Ionenquelle als komplexe Beschleunigerkomponente ausgewählt, um Entwicklungen zur Steuerung und Regelung durchzuführen und zu testen. Zum Anfahren und Betreiben der Ionenquelle wurde ein Flussdiagramm (Abb. 5.15) entwickelt und realisiert. Im Detail wurden Untersuchungen zur Abhängigkeit der Heizkathodenparameter von der Betriebsdauer gemacht. Daraus konnte ein Algorithmus zur Vorhersage eines rechtzeitigen Filamentaustausches abgeleitet werden. Weiterhin konnte die Nachregelung des Kathodenheizstromes automatisiert werden, um damit die Bogenentladungsspannung innerhalb eines Intervalls von ± 0.5 V zu stabilisieren. Das Anfahren des Filamentstroms wurde ebenfalls automatisiert. Dazu wird die Vakuumdruckänderung in Abhängigkeit der Filamentstromerhöhung gemessen, ausgewertet und daraus der nächste erlaubte Stromerhöhungsschritt abgeleitet. Auf diese Weise wird der Betriebszustand schneller und kontrollierter erreicht als bei manuellem Hochfahren. Das Ziel eines unbemannten Ionenquellenbetriebs ist damit näher gerückt. In einem ersten Test zur Komponentensteuerung und zur Datenaufnahme wurde ein Ionenstrahl extrahiert und durch den ersten Fokussierungsmagneten – einen Solenoiden – transportiert. Es wurde der Erregungsstrom des Solenoiden sowie die Strahlenergie automatisch durchgefahren, die Daten abgespeichert und daraus ein Kontourplot zum gemessenen Strahlstrom hinter der Fokussierlinse erstellt (Abb. 5). Die vorliegende Arbeit beschäftigt sich nur mit den „langsamen“ Steuerungs- und Regelungsprozessen, während die schnellen Prozesse im Hochfrequenzregelungssystem unabhängig geregelt werden. Neben der Überwachung des Betriebszustandes aller Komponenten werden auch alle für den Service und die Personensicherheit benötigten Daten weggeschrieben. Das System basiert auf MNDACS (Mesh Networked Data Acquisition and Control System) und ist in JAVA geschrieben. MNDACS besteht aus einem Kernel, welcher die Komponententreiber-Software sowie den Netzwerkserver und das graphische Netzwerkinterface (GUI) betreibt. Weterhin gehört dazu das Driver Abstraction Layer (DAL), welches den Zugang zu weiteren Computern oder zu lokalen Treibern ermöglicht. CORBA stellt die Middleware für Netzwerkkommunikation dar. Dadurch wird Kommunikation mit externer Software geregelt, weiterhin wird die Umlegung von Kommunikation im Fall von Leitungsunterbrechungen oder einem lokalen Computerabsturz festgelegt. Es gibt bei FRANZ zwei Kontrollebenen: Über Ethernet läuft die „High Level Control“ und die Datenverarbeitung. Über die „Low Level Control“ läuft das Interlock – und Sicherheitssystem. Die Netzwerkverbindungen laufen über 1 Gb Ethernet Links, womit ein schneller Austausch auch bei lokalen Netzwerkstörungen noch möglich ist. Um bei Stromausfällen das Computersystem am Laufen zu halten, wurde im Rahmen dieser Arbeit ein „Uninterruptable Power Supply“ UPS beschafft und erfolgreich am Hochspannungsterminal getestet.
One of the main things that we as humans do in our lifetime is the recognition and/or classification of all kind of visual objects. It is known that about fifty percentage of the neocortex is responsible for visual processing. This fact tells us that object recognition (OR) is a complex task in our and in the animal brain, but we do it in a fraction of a second.
The main question is: How does the brain exactly do it? Does the brain use some feature extraction algorithm for OR tasks? The hierarchical structure of the visual cortex and studies on a part of the visual cortex called V1 tell us that our brain uses feature extraction for OR tasks by Gabor filters. We also use our previous knowledge in object recognition to detect and recognize the objects which we never saw before. Also, as we grow up we learn new objects faster than before.
These facts imply that the visual cortex of human and other animals uses some common (universal) features at least in the first stages to distinguish between different objects. In this context, we might ask: Do universal features in images exist, such that by using them we are able to efficiently recognize any unknown object? Is it necessary to extract new special features for any new object? How about using existing features from other tasks for this? Is it possible to efficiently use extracted feature of a specific task for other tasks? Are there some general features in natural and non-natural images which can also be used for specific object recognition? For example, can we use extracted features of natural images also for handwritten digit classification?
In this context, our work proposes a new information-based approach and tries to give some answers to the questions above. As a result, in our case we found that we could indeed extract unique features which are valid in all three different kinds of tasks. They give classification results that are about as good as the results reported by the corresponding literature for the specialized systems, or even better ones.
Another problem of the OR task is the recognition of objects, independently of any perception changes. We as humans or also animals can recognize objects in spite of many deformations (e.g. changes in illumination, rotation in any direction or angles, distortion and scaling up or down) in a fraction of a second. When observing an object which we never saw, we can imagine the rotated or scaled up objectin our mind. Here, also the question arises: How does the brain solve this problem? To do this, does the brain learn some mapping algorithm (transformation), independent of the objects or their features?
There are many approaches to model the mapping task. One of the most versatile ones is the idea of dynamically changing mappings, the dynamic link mapping (DLM). Although the dynamic link mapping systems show interesting results, the DLM system has the problem of a high computational complexity. In addition, because it uses the least mean squared error as risk function, the performance for classification is also not optimal. For random values where outliers are present, this system may not work well because outliers influence the mean squared error classification much more than probability-based systems. Therefore, we would like to complete the DLM system by a modified approach.
In our contribution, we will introduce a new system which employs the information criteria (i.e. probabilities) to overcome the outlier problem of the DLM systems and has a smaller computational complexity. The new information based selforganised system can solve the problem of invariant object recognition, especially in the task of rotation in depth, and does not have the disadvantage of current DLM systems and has a smaller computational complexity.
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.
Mitochondrial membrane dynamics is increasingly implicated in various human diseases. Numerous studies show that the protein OPA1 plays a central role in determining mitochondrial ultrastructure and apoptotic remodeling of the inner mitochondrial membrane during Cytochrome c release and apoptosis. Crista junctions are crucial for the regulation of apoptotic Cytochrome c release. Previous publications suggest that OPA1 is required to maintain a normal structure of the inner mitochondrial membrane. The protein MIC60 (Mitofilin) appears to be an essential physical constituent of crista junctions and is also crucial for the general determination of mitochondrial ultrastructure. Furthermore, recent studies suggest that MIC60 is also implicated in Cytochrome c release during apoptosis.
In this regard, the question whether OPA1 is essential for crista junction formation was investigated. In addition to that, the interplay between OPA1 and MIC60 and its physiological role were analyzed. Electron microscopy of OPA1+/- and OPA1+/+ mice, as well as of OPA1-/- and OPA1+/+ MEFs clearly showed that OPA1 plays a role but is not essential for crista junction formation. In contrast to that, the results indicate that OPA1 is crucial to maintain a normal structure of the inner mitochondrial membrane. Immunogold experiments fit well to these observations as OPA1 was found equally distributed throughout the cristae membrane with only a minor part located at crista junctions. MIC60 localization studies showed a clear enrichment at crista junctions. Interaction studies revealed that endogenous OPA1 and MIC60 physically interact with each other. Analysis of protein levels upon OPA1 or MIC60 depletion indicate that both proteins play a dual role in cristae- and crista junction formation in which MIC60 is a physical constituent of crista junctions essential for their formation while OPA1 primarily has a regulatory impact on MIC60 function. Finally, apoptosis assays and cell viability measurements showed that knockout of OPA1 in MEFs leads to increased cellular resistance suggesting that the interplay of these proteins is important for the regulation of crista junction remodeling during apoptosis.
Besides its role in determining mitochondrial ultrastructure, OPA1 mediates inner membrane fusion of mitochondria thereby contributing to mitochondrial quality control. Additionally, proteolytic processing is crucial for the ability of OPA1 to distinguish between functional and dysfunctional mitochondria. Functional mitochondria are fused while dysfunctional mitochondria are not, a process termed selective mitochondrial fusion. Dysfunctional mitochondria were shown to be degraded by mitophagy in a fission-dependent manner. Numerous studies suggest that OPA1 and mitophagy are directly linked. However, this idea is still under debate. Mitophagy is also crucial for mitochondrial quality control, which directly impacts mitochondrial integrity. Furthermore, mitochondrial quality control has been linked to neurodegeneration as demonstrated by the observation that mutations in OPA1 cause the disorder ADOA-1.
In order to analyze a potential link between OPA1 and mitophagy, mitochondrial colocalization with LC3 was analyzed microscopically in primary adult skin fibroblasts isolated from OPA1+/- and OPA1+/+ mice in an age-dependent manner. Fibroblasts from young OPA1+/- mice showed increased colocalization of mitochondria with autophagosomes compared to fibroblasts from young wild type mice suggesting that OPA1 exerts an inhibitory role in mitophagy. This effect was even more pronounced in old mice, which also displayed higher mitophagy levels in general than young mice, consistent with the finding that old mice had higher Parkin levels than young mice. Mitochondrial fragmentation was elevated in fibroblasts from young and old OPA1+/- mice compared to control fibroblasts. However, extensive mitochondrial fusion, which occurred in fibroblasts from old wild type mice, was prevented in old OPA1+/- mice. Furthermore, old wild type mice had decreased numbers of crista junctions compared to young wild type mice, an effect that was not observed in OPA1+/- mice. Despite the observed age-dependent phenotypes in mitochondrial quality control and mitochondrial integrity, deletion of one allele of OPA1 had no influence on the life span in vivo. Analysis of the OPA1-dependent proteome of aging mice, which was performed in collaboration with Ansgar Poetsch and Carina Ramallo-Guevara from Bochum, showed that OPA1-dependent aging is accompanied by a reduction of proteins involved in autophagy. In contrast to that, a switch from glucose to fatty acid metabolism and alterations in apoptotic proteins were observed in both OPA1+/- and OPA1+/+ mice in an age-dependent manner indicating that the changes in proteins implicated in autophagy could be a compensatory response to the diminished inhibitory effect of OPA1 on mitophagy. On the other hand, increased mitochondrial degradation by mitophagy could be a cellular response to itself compensating for the loss of OPA1 mediated fusion thereby contributing to the observation that OPA1+/- and OPA1+/+ mice had no differences in life span. Furthermore, analysis of the OPA1-dependent proteome of aging mice revealed that OPA1, besides its role in mitochondrial fusion, could interact with the fission machinery: MFF and Neuronal pentraxin 1, two proteins involved in mitochondrial fission, were up-regulated in 12-month-old OPA1+/- mice suggesting that a reduced fission activity could contribute to mitochondrial hyperfusion in aged wild- type mice. Nonetheless, the exact nature of the possible interplays between OPA1 and these candidates remains to be investigated.
Panama, a small country between the major continents of North and South America, is one of the lesser studied regions in Central America, but is recognized for its mega-biodiversity. This is particularly true for Eastern Panama, which I am considering as the easternmost portion of the country, covering the area from the Chepo, which is also the beginning of the San Blas mountain range, towards east, up to the Darien Mountain range on the border with its neighboring country Colombia. In the lowland region I visited two physiographic areas: the Isthmian-Atlantic Moist Forests (IAMF) and the Chocó-Darién Moist Forests (CDMF). In the IAMF I worked at the localities of Río Mono, Wacuco, La Moneda, Arretí, Metetí, Filo del Tallo, and Laguna de Matusagaratí. In the CDMF I visited the localities of Cruce de Mono, Cana, Garachiné, Sambú, and Pavarandó. And I have worked in the highlands of Darién (DM), Majé (MM), Jingurudó-Sapo (JSM), Pirre (PM) and San Blas (SSM) in the highlands.
Before my research, 138 reptile and 104 amphibian species had been reported for EP. From 2008 to 2013, I collected specimens to evaluate the diversity of amphibians and reptiles for this region. I applied an integrative approach to evaluate the taxonomy, diversity, biogeography, and conservation of the herpetofauna of EP. I included analyses of morphometrics, molecular genetics (e.g. barcoding), biogeography, bioacoustics (in anurans), hemipenial morphology (in squamates), and ecology. This is the first regional evaluation of the biodiversity in EP applying integrative taxonomy. Aside from morphological and bioacoustic data, my work is based on the barcoding of 608 specimens, from which I obtained 16S mtDNA for 486 specimens and COI mtDNA for 455. In total I have got sequences for 69.2 %of the amphibian and 48.6 % of the reptile species present in EP. For the morphological analyses, I compared 1597 specimens, including my samples complemented by specimens obtained from various museums. The bioacoustic data were obtained from the analysis of 1504 calls of 27 species of frogs. Based on specimens collected in EP and according to external morphology, I could identify 65 species of amphibians and 72 reptiles, but after applying an integrative approach these numbers increased to 79 amphibians and 88 reptiles described species within my collected specimens. Additionally, I uncovered 33 taxonomic units that could not be assigned to any described species until now, 22 of them represent confirmed candidate species (CCS), and 11 were classified as Unconfirmed candidate species (UCS). Thus, increasing the known species of amphibian by 19.4 % and of reptiles by 4.8 %. Currently, there are 145 reptiles and 129 amphibians known to occur in EP. Based on my results, I have initiated several projects to solve taxonomic uncertanties, including the species of the genera Bolitoglossa, Diasporus, Dactyloa, Ecnomiohyla, Lepidoblepharis, and the taxonomic status of the species Pristimantis caryophyllaceus and Norops tropidogaster.
Out of the 22 CCS I found, I described nine species new to science with type locality in EP, six amphibians and four reptiles. Among these is a new species of Bolitoglossa described from Cerro Chucantí, Cordillera de Majé, Provincia de Darién, Panama. Additionally, I include comments on the other species of congeneric salamanders known to occur in the region. Among the tink frogs, only Diasporus quidditus was known to occur in EP. During my field work I collected six additional species of this genus, four of which are new to science, plus two species new for this region.
I also described one new species of Dactyloa (giant anole lizards) related to the former D. chocorum. I synonymized D. chocorum with D. purpurescens, and included information about the other species of the group from EP. The new species of Dactyloa resembles D. ibanezi, D. limon, and D. purpurescens in external morphology but differs from these species in dewlap coloration, dorsal color pattern, morphometrics, and scalation. I discovered one species of the genus Ecnomiohyla, which exhibits significant genetic distances (16S mtDNA gene) and morphological differences to all known Ecnomiohyla species. Along with the description of the new Ecnomiohyla species, I provide detailed comparisons of morphological and molecular characters of almost all members of the genus in Lower Central America, as well as an identification key for the entire genus. Two new species of the genus Lepidoblepharis from EP were described. In the corresponding work, I include an analysis of Lepidoblepharis spp. in the region, including phylogeography and taxonomy. One of the new species, Lepidoblepharis emberawoundule, can be differentiated from most species in the genus by its small size and its low number of lamellae under the fourth toe and finger. The other species described from EP, Lepidoblepharis rufigularis, can be differentiated from all species in the genus by its small size and the reddish throat in males.
Die vorliegende Arbeit beschäftigt sich mit der vergleichenden funktionalen Charakterisierung der E.coli Transporter LacY, FucP und XylE und des Glucose-Transporters GlcP aus Staphylococcus epidermidis sowie funktionsrelevanter Mutanten. Sie katalysieren in vivo den PMF-gekoppelten Zuckertransport und repräsentieren die major facilitator superfamily (MFS), einer der größten Transporter-Familien überhaupt. Die Studien wurden mithilfe einer elektrophysiologischen Methode auf Basis Festkörper-unterstützter Membranen (SSM) durchgeführt. Komplementär dazu wurden radioaktive Transportassays, fluorometrische Messungen, kinetische Simulationen und theoretische Berechnungen auf Basis der 3D-Strukturen durchgeführt. Experimentell bestimmte Zucker- und pH-Abhängigkeiten elektrogener steady-state und pre steady-state Reaktionen wurden verwendet, um ein allgemeingültiges kinetisches Modell aufzustellen.
Insgesamt konnten bei allen Transportern zwei elementare elektrogene Reaktionen identifiziert werden. Eine schnelle Zucker-induzierte Konformationsänderung wurde dem induced fit des Zuckermoleküls zugeordnet. Die Elektrogenität im steady-state wird dagegen durch den langsamen Transfer der negativ geladenen Protonenbindestelle bestimmt. Die für den Symport ratenlimitierende Reaktion ist abhängig von den äußeren Bedingungen wie pH-Werten, Zuckerkonzentrationen, Substrat-Spezies und Membranpotential meist die Konformationsänderung des leeren (P) oder des beladenen (PSH) Carriers, welche die Substratbindestellen im Zuge des Alternating Access über die Membran transferieren. Ein Wechsel zwischen hohen Protonenbindungs-pK-Werten und niedrigen Protonenfreisetzungs-pK-Werten durch weitere lokale Konformationsänderungen ist zentraler Bestandteil des Transportmechanismus. Ein weiterer wichtiger Aspekt ist die Kopplung zwischen Zucker- und Protonen-Translokation, die sich zwischen E.coli Transportern und GlcP strikt unterscheidet. In E.coli Transportern erfolgt eine kooperative Bindung von Zucker und Proton. Zudem erfolgt keine Konformationsänderung im Zucker-gebundenen, unprotonierten Carrier (PS). In GlcP ist die Kopplung erheblich reduziert. Der Transport-Modus selbst ist abhängig von den äußeren Bedingungen. So katalysiert GlcP abhängig vom pH-Gradienten Uniport, Symport oder Antiport.
Die vorliegende Arbeit leistet einen wichtigen Beitrag zum Verständnis des PMF-gekoppelten Zuckertransports und zeigt die Grenzen des für LacY formulierten 6-Zustands-Modells mit nur zwei Konformationsänderungen auf. Ein erweitertes 8-Zustands-Modell mit vier Konformationsänderungen, die unterschiedliche Ratenkonstanten aufweisen können, erklärt sowohl Symport, Antiport als auch Uniport und berücksichtigt zudem die zahlreichen Ergebnisse für LacY aus der Literatur.
Since 2009 has the central Nigerian Nok Culture – until then primarily known for its highly artistic terracotta figurines and early evidence of iron working in the first millennium BCE – been the focus of a research project by the Goethe University Frankfurt/Main, Germany. The analysis of Nok sculptures has so far been almost entirely restricted to their stylistic features which show such great similarities that one hypothesis of the Frankfurt project has been the possible central production of these artfully crafted figurines.
This volume, written within the scope of a dissertation project completed in 2015, challenges this hypothesis by using scientific materials analysis. Combining the results of the mineralogical and geochemical analyses as well as geographic and geological observations, an alternative model for the organisation and procedure of the manufacture of the famous Nok terracottas is suggested.
They were – as the domestic pottery that is used for comparison and differentiation in this study – manufactured with locally available raw materials (clay and temper) but in different manufacturing sequences with regard to temper and clay composition. The terracottas’ clay was obviously reserved for their production only, demonstrating – aside from stylistic similarities – the value these figurines had during the Nok Culture.
Lepton pairs emerging from decays of virtual photons represent promising probes of nuclear matter under extreme conditions of temperature and density. These etreme conditions can be reached in heavy-ion collisions in various facilities around the world. Hereby the collision energy in the center-of-mass system (√SNN) varies from few GeV (SIS) to the TeV (LHC). In the energy domain of 1 - 2 GeV per nucleon (GeV/u), the HADES experiment at GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt studies dielectrons and strangeness production.
Various reactions, for example collisions of pions, protons, deuterons and heavy-ions with nuclei have been studied since its installation in the year 2001. Hereby the so called DLS Puzzle was solved experimentally, with remeasuring C+C at 1 and 2 GeV/u and by careful studies of inclusive pp and pn reactions at 1.25 GeV. With these measurements the so-called reference spectrum was established. Measurements of e+ e− production Ar+KCl showed an enhancement on the dilepton spectrum above the trivial NN back-
ground. Theory predicts a strong enhancement of medium radiation with the system size, due to large production of fast decaying baryonic resonances like ∆ and N∗ . The heaviest system measured so far was Au+Au at a kinetic beam energy of 1.23 GeV/u. The precise determination of the medium radiation depends
on a precise knowledge of the underlying hadronic cocktail composed of various sources contributing to the measured dilepton spectrum. In general the medium radiation needs to be separated from contributions coming from long-lived particles, that decay after the freeze out of the system. For a more model independent
understanding of the dilepton cocktail the production cross sections of these particles need to measured independently. In the related energy regime the main contributers are π0 and η Dalitz decays. Both mesons have a dominant decay into two real photons and have been reconstructed successfully in this channel. Since HADES has no electromagnetic calorimeter the mesons can not be identified in this decay channel directly. In this thesis the capability of HADES to detect e+ e− pairs from conversions of real photons is demonstrated.
Therefore not only the conversion probability but also the resulting efficiencies are shown. Furthermore, the reconstruction method for neutral mesons will be explained and the resulting spectra are interpreted. The measurement of neutral pions is compared to the independent measured charged pion distribution, and
extrapolated to full phase space. An integrated approach is used to determine the η yield. Both measurement are compared to the world data and to theory model claculations. Finally, the measurements will be used together with the reconstructed dilepton spectra to determine the amount and the properties of in medium radiation in the Au+Au system.
Trotz einer fast 30-jährigen Forschungs- und Umsetzungshistorie stellen Projekte zum Aufbau integrierter Datenhaushalte (Data Warehouses) für Unternehmen immer noch eine große Herausforderung dar. Gerade in Data Warehouse-Projekten bei Finanzdienstleistern führt eine hohe semantische Komplexität häufig zu Projektverzögerungen oder zum Scheitern der Vorhaben. Dies zeigt die Arbeit anhand von explorativen Fallstudien auf und fragt nach den Gründen für diesen typischen Verlauf. Eine mögliche Ursache liegt in einer unzureichenden Kommunikation zwischen den Projektbeteiligten, was zu Missverständnissen in der Konzeption und somit zu Fehlimplementierungen führt, die – gerade wenn sie spät erkannt werden – deutliche Verzögerungen und Budgetüberschreitungen zur Folge haben. Ausgehend von diesen beobachteten Praxisproblemen sucht die vorliegende Arbeit auf der Grundlage des Design-Science-Research nach Lösungsansätzen: unter Übertragung der Erkenntnisse der Kommunikationstheorie wurden drei Artefakte entwickelt, sukzessive verbessert und validiert. Die Paper zeigen auf, dass sich durch den Einsatz formalisierter Templates, eines verbesserten Vorgehensmodells in Verbindung mit einem korrespondieren Softwaretool das Kommunikationsverhalten in den Projekten verbessern lässt und somit eine höhere Projekt-Performance erreicht wird. Hierzu wurden insgesamt sechs Projekte zum Aufbau von Data Warehouses im Finanzdienstleistungsumfeld in Fallstudien analysiert und zudem Experten-Interviews mit den Projektbeteiligten durchgeführt, die im Ergebnis die positive Wirkung der Artefakte unterstützen.
Entwicklung neuer Multikomponentenreaktionen zur Synthese von Amin- und α-Aminosäurederivaten
(2016)
Die Entwicklung neuer Synthesemethoden ist von enormer Bedeutung hinsichtlich der Darstellung von neuen Verbindungen mit speziellen, anwendungsorientierten Eigenschaften und in Bezug auf die Suche nach ökologisch verträglicheren und effizienteren Herstellungsmethoden. Multikomponentenreaktionen (MCRs) bieten hierbei eine gute Ansatzmöglichkeit. Gegenüber den klassischen, linear verlaufenden 2-Stufen-Reaktionen weisen MCRs eine hohe Atom-Ökonomie und effiziente Bindungsbildung auf, können zur Minimierung von Zeit-, Energie-, Material- und Kostenaufwand sowie zur geringeren Generierung von Abfallmengen beitragen und ermöglichen einen schnellen Aufbau diverser Molekülstrukturen. Vor diesem Hintergrund gelang im Rahmen der vorliegenden Arbeit die Entwicklung mehrerer 3-Komponentenreaktionen basierend auf der nukleophilen Addition von Arylboronsäuren an in situ gebildete N-Acyl- bzw. N-Sulfonylimine, womit die Synthese von diversen alpha-substituierten Amiden, chiralen, alpha-substituierten Sulfonamiden, chiralen alpha-Arylglycinen sowie von Arylmethylsulfonamiden erfolgte. Der Schlüssel zu einer erfolgreichen Umsetzung hinsichtlich der Methode mit Amiden war die Verwendung eines dualen Katalysatorsystems aus Lewis-Säure und Pd(II) sowie die Anwesenheit von Wasser. Die enantioselektiven Varianten konnten mittels Sulfonamide anstelle der Amide sowie unter Einsatz von Pd(II) und einem chiralen Oxazolin-Liganden erreicht werden. Die neuen Methoden sind einfach in der Durchführung, weisen einen breiten Substrat-bereich auf und im Falle der asymmetrischen Varianten hohe Enantioselektivitäten.
Allerdings besitzt die Reaktionsführung über Organoboronsäuren zwei entscheidende Nachteile: Zum einen bedarf es der Verwendung vorfunktionalisierter Boronsäuren und zum anderen werden stöchiometrische Mengen borhaltiger Abfälle erzeugt. Daher wurden im Rahmen dieser Arbeit auch Prozesse untersucht, bei denen hinsichtlich der Atom-Ökonomie keine unnötig vorfunktionalisierten Startmaterialien eingesetzt werden und bei denen keine oder nur ökologisch vollkommen unbedenkliche Nebenprodukte entstehen. Ein erster Ansatz in diese Richtung gelang dabei mit der Entwicklung einer neuen 3-Komponentenreaktion basierend auf einer Brønsted-Säurekatalysierten, benzylischen C–H-Bindungsfunktionalisierung von 2-Alkylazaarenen.
Historisch betrachtet wurde Krebspatienten durch das behandelnde Personal von physischer Belastungen oftmals abgeraten (Steins Bisschop et al., 2012). Mit der zunehmenden Zahl an Publikationen im Bereich onkologischer Rehabilitation wird deutlich, dass Krebspatienten oftmals eine stark reduzierte kardiorespiratorische Leistungsfähigkeit aufweisen, was wiederum Implikationen für akute wie auch längerfristige krebs-assoziierte Effekte und Outcomes haben kann (Jones et al., 2008). Somit steht dem bisherigen Verhaltens-Dogma der Ruhe und Schonung bei Krebspatienten eine Vielzahl an Evidenz der Effektivität und Notwendigkeit von regelmäßiger körperlicher Bewegung gegenüber (Jones et al., 2008; Klika et al., 2009; Steins Bisschop et al., 2012). Diese Arbeiten bieten fundierte Informationen bezüglich der zu Grunde liegenden Limitationen der Belastungstoleranz. Darauf aufbauend wird dieses Wissen genutzt, um effektive Trainings- und Rehabilitationsprogramme zu entwerfen sowie klinische Resultate zu verbessern (Jones et al., 2009).
Strukturierte und individualisierte Sport- und Bewegungstherapie gilt dabei als ein vielversprechender Ansatz, die nachlassende Fähigkeit der selbständigen Alltagsbewältigung, die krebsassoziierte Müdigkeitssymptomatik (fatigue), aber auch die allgemeine kardiorespiratorische Fitness (KRF) zu verbessern (Schmitz et al., 2010). Für onkologische Patienten von ebenso großer Bedeutung ist die Tatsache, dass durch regelmäßige körperliche Aktivität Begleiterscheinungen der eingesetzten Behandlungsmethoden (Hayes et al., 2009), das psychische Wohlbefinden als auch die Gesamtmortalität positiv beeinflusst werden können (Mishra et al., 2012b; Mishra et al., 2012a). Zusätzlich verspricht regelmäßige körperliche Bewegung, den Funktionsverlust in den drei wichtigsten physiologischen Bereichen (Muskulatur, Herz-Kreislauf-System und kardiopulmonales System) zu verringern oder sogar aufzuhalten (Hayes et al., 2009). Demzufolge nimmt die sporttherapeutische Sekundär- und Tertiärprävention bei Krebserkrankungen eine wichtige Rolle ein, und die Frage nach einer effektiven und zielgerichteten Belastungs- und Trainingssteuerung auf Basis valider und reliabler Messgrößen der körperlichen Leistungsfähigkeit gewinnt zunehmend an Bedeutung (Ulrich et al., 2013; Kirkham et al., 2013).
Aktuelle Empfehlungen zu körperlicher Aktivität bei onkologischen Patienten orientieren sich hinsichtlich der Ausgestaltung in punkto Häufigkeit, Umfang und Intensität im Allgemeinen an Bewegungs-Leitlinien für gesunde Gleichaltrige ohne chronische Erkrankungen. Eine Besonderheit bei onkologischen Patienten stellt jedoch oftmals die Berücksichtigung therapieassoziierter bzw. krankheitsbedingter Nebenwirkungen in der praktischen Umsetzung der Empfehlungen dar. Aktuelle Leitlinien sehen dafür ein aerobes Ausdauertraining an mindestens 3-5 Tagen/Woche bei einem Intensitätsspektrum moderater (150min) oder intensiver (75min) Beanspruchung (MVPA) bei 46-90% der maximalen Sauerstoffaufnahmefähigkeit vor.
Die in der Literatur beschriebenen Probleme einer Vielzahl an Verfahren zur Bestimmung der KRF und der darauf basierenden Ableitung von individualisierten Trainingsempfehlungen haben in den letzten Jahren vermehrt zu Ansätzen basierend auf der individuell physiologischen Belastungsreaktion in der Ausdauertrainingssteuerung und –bewertung geführt (Meyer et al., 2005c; Bentley et al., 2007b; Binder et al., 2008; Hofmann & Tschakert, 2011). Dabei kommen vor allem die in der sportmedizinischen Ausdauerleistungsdiagnostik etablierten Verfahren der Laktat-Leistungsdiagnostik und der spiroergometrischen Ermittlung ventilatorischer Schwellen zum Einsatz.
Kernziel der vorliegenden Arbeit war daher die Untersuchung von Leistungskennwerten an submaximalen Variablen aus Spiroergometrie und der Laktatdiagnostik im Kollektiv der onkologischen Patienten mit unterschiedlichen Krebsentitäten.
Das folgende Kapitel 2 fasst den aktuellen Forschungsstand zu Epidemiologie, Prävalenz sowie die Auswirkungen onkologischer Erkrankungen auf Aspekte der körperlichen Ausdauerleistungsfähigkeit und deren Diagnostik in der Sportmedizin zusammen. Resultierend aus dem Forschungsstand werden daraufhin Zielstellung und –fragen der vorliegenden Arbeit formuliert. Kapitel 4 umfasst die methodische Ablaufbeschreibung des Studiendesigns, die Probandenrekrutierung und -stichprobe, die eingesetzten diagnostischen Messverfahren, sowie die Darstellung der statistischen Auswertung. Nachfolgend auf die Darstellung der Ergebnisse in Kapitel 5 werden diese in Kapitel 6 vor dem Hintergrund des dargestellten Forschungstandes und aktueller relevanter Literatur diskutiert. Abschließend erfolgt eine Praxis-orientierte kritische Beleuchtung der Arbeit sowie ein eine perspektivische Einordnung der Ergebnisse mit Ausblick auf zukünftige Forschungsarbeiten.
Algorithms for the Maximum Cardinality Matching Problem which greedily add edges to the solution enjoy great popularity. We systematically study strengths and limitations of such algorithms, in particular of those which consider node degree information to select the next edge. Concentrating on nodes of small degree is a promising approach: it was shown, experimentally and analytically, that very good approximate solutions are obtained for restricted classes of random graphs. Results achieved under these idealized conditions, however, remained unsupported by statements which depend on less optimistic assumptions.
The KarpSipser algorithm and 1-2-Greedy, which is a simplified variant of the well-known MinGreedy algorithm, proceed as follows. In each step, if a node of degree one (resp. at most two) exists, then an edge incident with a minimum degree node is picked, otherwise an arbitrary edge is added to the solution.
We analyze the approximation ratio of both algorithms on graphs of degree at most D. Families of graphs are known for which the expected approximation ratio converges to 1/2 as D grows to infinity, even if randomization against the worst case is used. If randomization is not allowed, then we show the following convergence to 1/2: the 1-2-Greedy algorithm achieves approximation ratio (D-1)/(2D-3); if the graph is bipartite, then the more restricted KarpSipser algorithm achieves the even stronger factor D/(2D-2). These guarantees set both algorithms apart from other famous matching heuristics like e.g. Greedy or MRG: these algorithms depend on randomization to break the 1/2-barrier even for paths with D=2. Moreover, for any D our guarantees are strictly larger than the best known bounds on the expected performance of the randomized variants of Greedy and MRG.
To investigate whether KarpSipser or 1-2-Greedy can be refined to achieve better performance, or be simplified without loss of approximation quality, we systematically study entire classes of deterministic greedy-like algorithms for matching. Therefore we employ the adaptive priority algorithm framework by Borodin, Nielsen, and Rackoff: in each round, an adaptive priority algorithm requests one or more edges by formulating their properties---like e.g. "is incident with a node of minimum degree"---and adds the received edges to the solution. No constraints on time and space usage are imposed, hence an adaptive priority algorithm is restricted only by its nature of picking edges in a greedy-like fashion. If an adaptive priority algorithm requests edges by processing degree information, then we show that it does not surpass the performance of KarpSipser: our D/(2D-2)-guarantee for bipartite graphs is tight and KarpSipser is optimal among all such "degree-sensitive" algorithms even though it uses degree information merely to detect degree-1 nodes. Moreover, we show that if degrees of both nodes of an edge may be processed, like e.g. the Double-MinGreedy algorithm does, then the performance of KarpSipser can only be increased marginally, if at all. Of special interest is the capability of requesting edges not only by specifying the degree of a node but additionally its set of neighbors. This enables an adaptive priority algorithm to "traverse" the input graph. We show that on general degree-bounded graphs no such algorithm can beat factor (D-1)/(2D-3). Hence our bound for 1-2-Greedy is tight and this algorithm performs optimally even though it ignores neighbor information. Furthermore, we show that an adaptive priority algorithm deteriorates to approximation ratio exactly 1/2 if it does not request small degree nodes. This tremendous decline of approximation quality happens for graphs on which 1-2-Greedy and KarpSipser perform optimally, namely paths with D=2. Consequently, requesting small degree nodes is vital to beat factor 1/2.
Summarizing, our results show that 1-2-Greedy and KarpSipser stand out from known and hypothetical algorithms as an intriguing combination of both approximation quality and conceptual simplicity.
This thesis deals with the NMR characterization of the structure and the folding dynamics of DNA G quadruplexes as potential therapeutic target in cancer therapy and building block for DNA based nanotechnology.
The first part of this thesis (Chapters 1-5) introduces the reader to the world of G quadruplexes.
The main features of the classic Watson Crick double helix and alternative non B DNA structures are illustrated in Chapter 1. Many different base pairing schemes are possible, besides the canonical Watson Crick motif, thereby expanding the structural complexity of DNA. Non canonical base pairing, such as Hoogsteen hydrogen bonding, enables the assembly of triplets and quartets, which are the building blocks of triplex and quadruplex structures, respectively.
The structural characteristics of DNA G quadruplexes are delineated in detail in Chapter 2.
G quadruplex structures are extremely polymorphic, in terms of strands orientation, loops geometry, grooves width and arrangement of the glycosidic torsion angles. The various structural elements as well as the different cation coordination geometries are here presented, with a special emphasis on the diversity of conformations reported for the telomeric DNA G quadruplexes.
Chapter 3 describes the biological roles of G quadruplex structures in the genome. After introducing the architecture of the telomeric DNA and its interacting proteins, the mechanism of the telomeres elongation catalysed by the telomerase enzyme and its implications for cancer are discussed. The occurrence of G quadruplex structures in functional regions of the genome, such as promoter regions of oncogenes, and their possible roles in regulating the gene transcription are then outlined in the second part of the chapter.
The potential of G quadruplex as a novel anti cancer target is examined in Chapter 4 and the proposed anti cancer mechanisms for a ligand stabilizing G quadruplex structures are discussed.
RNA G quadruplexes and their putative role in gene regulation at the level of translation are briefly illustrated at the end of the chapter.
A general overview on the NMR methods to investigate the G quadruplex structures is presented in Chapter 5. The experimental set up used for the real time NMR studies of the G quadruplex folding is also described.
The second part of the thesis (Chapters 6-8), which is the cumulative part, comprises the original publications grouped in three Chapters according to the topic.
The state of the art on small molecules targeting G quadruplex structures is given at the beginning of Chapter 6, including a summary of the experimental structures of G quadruplexes in complex with ligands available up to date. The publications presented in Chapters 6.1-6.3 are concerned with the elucidation of the interaction modes between DNA G quadruplexes and selected ligands with potential therapeutic applications.
The binding ability of two natural alkaloids (berberine and sanguinarine) to telomeric G quadruplexes is examined in Chapter 6.1. The ability of carbazole and diguanosine derivatives (synthetized in the group of Prof. Dash, IISER, Kolkata) to interact with c-MYC G quadruplex and down regulate c-MYC expression is explored in Chapter 6.2 and Chapter 6.3, respectively.
The energy landscape of human telomeric G quadruplex structures is discussed in Chapter 7, in light of the experimental kinetic studies as well as molecular dynamics simulations reported in literature until now. Up to date there is no general consensus regarding the folding pathway of unimolecular human telomeric G quadruplex, in particular due to the lack of atomic resolution data on the species involved in the folding. Chapter 7.1 presents the first real time NMR study of the human telomeric G quadruplex folding kinetics.
The final chapter of this thesis (Chapter 8) outlines the potential of G-quadruplex structures as building blocks in nanotechnology. After illustrating briefly the additional possibilities offered by alternative non B DNA structures to programme nanomaterials, a number of applications employing G quadruplex structures in different fields of nanotechnology are described. The article presented in Chapter 8.1 investigates the structural and photoswitching properties of a novel intermolecular azobenzene containing G quadruplex synthetized in the group of Prof. Heckel (Goethe University, Frankfurt).
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
Im Rahmen dieser Arbeit wurden zum Vergleich die Strukturen der ATP-Synthasen von Arabidopsis thaliana, Asparagus officinalis, Allium cepa, Helianthus annus, Solanum tuberosum, Bos taurus und Saccharomyces cerevisiae gelöst. Die ATP-Synthase von S. cerevisiae konnte mit einer Auflösung von 19 Å gelöst werden. Der Winkel zwischen den zwei ATP-Synthase-Monomeren in dem ATP-Synthase-Dimer hatte für jede Spezies einen bestimmten Wert. Dieser Winkel änderte sich innerhalb einer Spezies nur wenig im Gegensatz zu Untersuchungen mit Einzelpartikelanalyse.
Die ATP-Synthase-Dimere aus den untersuchten Spezies besitzen unterschiedliche Winkel zwischen 78˚ und 122˚. Der Winkel des ATP-Synthase-Dimers aus S. tuberosum (122˚) viel größer als der in anderen Pflanzen (~98˚), B. taurus (105˚) und S. cerevisiae (78˚). Die Proben von S. tuberosum und B. taurus waren jedoch dünner, was den Winkel eventuell beeinflussen könnte. Um dies auszuschließen müssen in Zukunft weitere Untersuchungen durchgeführt werden.
Des Weiteren wurde im peripheren Stiel der ATP-Synthasen von allen Pflanzenspezies eine Dichte entdeckt, die in B. taurus und S. cerevisiae nicht vorhanden ist. Die Dichte könnte durch eine zusätzliche Untereinheit oder veränderte Untereinheit im Vergleich zu B. taurus und S. cerevisiae kommen.
Weiterhin wurde die Bildung von Reihen aus ATP-Synthase-Dimeren untersucht. Es wurden ATP-Synthase-Dimere von Polytomella sp. gereinigt und in Lipid rekonstituiert. Es wurde das ATP-Synthase-Dimer von Polytomella sp. verwendet, da dieses besonders stabil ist und während der Reinigung nicht zum ATP-Synthase-Monomer zerfällt. Zur Rekonstitution wurde die milde GRecon-Methode verwendet. Hierbei werden Membranproteine in einem Zuckergradienten gleichzeitig in Lipid rekonstituiert und nach ihrer Dichte getrennt. Abhängig von der Dichte der Proteoliposomen ist die Konzentration an Membranproteinen unterschiedlich. In Proteoliposomen mit einer hohen Konzentration bilden sich dünne Schichten in denen die ATP-Synthase-Dimeren Zickzack-Muster formen. Dies deutet darauf hin, dass das ATP-Synthase-Dimer die Membran verformt. In Proteoliposomen mit einer niedrigeren Konzentration an ATP-Synthase-Dimeren wurden runde Vesikel detektiert, in denen die ATP-Synthase-Dimere lange Reihen bilden und die Membran innerhalb jedes ATP-Synthase-Dimer ebenfalls verformt ist. Molekulare Simulationen bestätigen dieses Ergebnis.
Zudem wurde das ATP-Synthase-Dimer in zwei verschiedene Lipide ohne Cardiolipin rekonstituiert, da Cardiolipin ein Lipid ist welches in der bakteriellen und mitochondrialen Membran gefunden wurde und in hohen Konzentrationen in Membrankrümmungen lokalisiert ist (Huang et al., 2006), wie auch die ATP-Synthase-Dimere. Ohne Cardiolipin ist die Rekonstitution nicht geglückt beziehungsweise sind die ATP-Synthase-Dimere weniger gut zueinander angeordnet. Das deutet auf die Wichtigkeit von Cardiolipin in der Stabilisierung der Reihen von ATP-Synthase-Dimeren hin. Weitere Experimente mit verschiedenen ATP-Synthase-Dimeren in verschiedenen Lipiden sind nötig um dies zu untermauern.
Ein weiteres Ziel dieser Arbeit war es ein klonierbares Label zu etablieren, um ein bestimmtes Protein in Kryo-Elektronentomogramme zu identifizieren. Das Label sollte klein sein, um das zu identifizierbare Protein nicht zu beeinflussen und groß genug um in Kryo-Elektronentomogramme identifizierbar zu sein. In Einzelbildern wurde das 6 kDa große Metallothionein gebunden mit Gold identifiziert, wenn zwei Metallothioneine an dem gewünschten Protein kloniert wurden. Metallothionein besteht zu 33 % aus Cysteinen, welche Schwermetalle binden.
In meinen Studien habe ich bewiesen, dass drei Metallothioneine, gebunden mit Gold, in Kryo-Elektronentomogramme detektiert werden können. Jedoch tritt bei der Verwendung von Metallothionein durch die hohe Anzahl an Cysteinen vermehrt Aggregation auf. Bei meinen Untersuchungen fand ich heraus, dass auch das Maltose-Binde-Protein (MBP) ein Signal gleicher Intensität erzeugt. Durch Verwendung von MBP tritt aber keine Aggregation auf und man kann MBP auch zum Reinigen des Proteins verwenden.
Die Untersuchung befasst sich am Beispiel der fotografischen Arbeiten von Barbara Klemm mit einer aktuellen Entwicklung in der Fotografie. Der Lebens- und Berufsweg der Fotografin steht dabei stellvertretend für eine Generation von Reportage- und Dokumentarfotografen, die in der zweiten Hälfte des 20. Jahrhunderts nicht nur erfolgreich in ihrem Beruf gearbeitet, sondern darüber hinaus auch im musealen Kontext Beachtung erfahren haben. Durch die wachsende öffentliche Aufmerksamkeit und das damit verbundene Ansehen entwickelten sich die Arbeiten von Barbara Klemm von dokumentarischen Zeitungsbildern zu künstlerischen Fotografien. Wie dieser Prozess vom Zeitungsbild zum Museumsbild im Einzelnen abgelaufen ist, wird in der vorliegenden Arbeit untersucht.
Zu Beginn wird der gegenwärtige Umgang mit Fotografie in der Gesellschaft und in der Kunst thematisiert. Es wird die Entwicklung des fotografischen Mediums seit 1960 parallel zu den Wirkjahren von Barbara Klemm untersucht und gezeigt, welchen Einfluss diese Veränderungen auf ihr Werk und dessen Wahrnehmung hatten.
Dies ist im Allgemeinen die Frage nach der Wahrnehmung von Fotografie und im Speziellen nach der Veränderung von Wahrnehmung oder besser nach der Veränderung der Umwelt, die dem Betrachter eine andere Sicht auf die Fotografie ermöglicht. Das Thema ist aus der Sicht der Kunstwissenschaft und Kunstpädagogik bedeutsam, denn es zeigt, wie sich gesellschaftliche Kategorisierungen nicht unmittelbar, sondern im Laufe eines jahrzehntelangen Prozesses verändern. Eine Veränderung, deren Ursachen in einer engen Vernetzung von Wahrnehmung, Kommunikation, gesellschaftlicher Faktoren und ganz unterschiedlicher Entwicklungen innerhalb verschiedener einflussnehmender Systeme in einer gemeinsamen Umwelt zu suchen sind. Die analoge Schwarzweißfotografie ist die Technik in der Barbara Klemm arbeitet. Dies stellt heutzutage eine Besonderheit dar, denn die Sehgewohnheiten der Betrachter sind durch sehr verschiedene Bildarten geprägt. Diese reichen von Schnappschüssen und Amateuraufnahmen mit Kleinbild- oder handykameras bis hin zu professionellen Fotografien in der Werbung oder in Hochglanzmagazinen. Aufgrund der digitalen Technik, bei der mehr Aufnahmen in kurzer Zeit gemacht werden können, treten Komposition, Bildaufbau und Beleuchtung oft in den Hintergrund. Die Unterschiede zwischen analoger und digitaler Fotografie werden zudem in einer geschichtlichen Entwicklung der Reportagefotografie der vergangenen Jahrzehnte vertieft. Barbara Klemm arbeitete den größten Teil ihres Berufslebens als Bildjournalistin bei der Frankfurter Allgemeinen Zeitung. Von 1970 bis 2004 war sie zuständig für die Bereiche Politik und Feuilleton. In diesen Jahren entstanden Bilder, die heute zum kollektiven Gedächtnis vieler Deutscher zählen. Ausgehend von ihrer Arbeit wird dargestellt, wie die Fotografien einem Publikum zugänglich gemacht wurden und im Laufe der Zeit über das Medium der Zeitung hinaus in andere Bereiche der Öffentlichkeit gelangten, vor allem in die Kunst, aber auch in die Bereiche der Geschichte und Erinnerungsarbeit. Unter Verwendung der theoretischen Grundlage und Kategorisierung von Niklas Luhmann werden Arbeiten der Fotografin im System Journalismus und im System Kunst untersucht. An dieser Stelle waren Operatoren notwendig, die ihre Bilder aus dem System des Zeitungswesens in das System der Kunst transferierten. Diese Aufgabe konnten nur bestimmte Schlüsselfiguren (Schlüsselpersonen) erfüllen, denn Barbara Klemm hatte zu keiner Zeit intendiert, künstlerisch zu arbeiten. Das bedeutet, nur ein anerkannter Museumsdirektor oder ein erfahrener Ausstellungskurator konnte ihre Position in das „System Kunst“ einführen.
Nach einer kurzen biografischen Vorstellung der Arbeits- und Lebensstationen werden der Stil, die Technik und die Komposition Barbara Klemms Fotografien analysiert, um anschließend einen Versuch zu unternehmen, die besondere Ästhetisierung der Bilder zu erklären. So besitzt eine gelungene Fotografie von Barbara Klemm einen Mehrwert gegenüber den reinen Reportagebildern. Was der Betrachter vor Barbara Klemms Bildern empfindet und assoziiert, ist zum Teil individuell, zum Teil aber auch sozial, gesellschaftlich und kulturell – also intersubjektiv bestimmt. All seine Erfahrungen prägen die Beziehung zu jedem einzelnen Bild. Dass die Fotografien von Barbara Klemm heute eine breite Akzeptanz erfahren, hängt auch mit gesellschaftlichen Abläufen zusammen. Wissen und Meinungen festigen sich durch Wiederholung, die zur Gewohnheit werden. Vertrautem begegnet man folglich eher mit Sympathie und Wohlwollen, nicht zuletzt vermittelt es eine gewisse Sicherheit. Die langjährige Präsenz als Fotografin bei der Frankfurter Allgemeinen Zeitung stellt demnach eine fruchtbare Basis dar. Symbolisch gesprochen ist ihre Anstellung bei der Tageszeitung das stabile Fundament, auf dem ihr späterer Erfolg als künstlerische Fotografin aufbaut.
Klinische Frühergebnisse nach endoskopischer Lobektomie (VATS-Lobektomie versus daVinci-Lobektomie)
(2016)
In der vorliegenden Untersuchung wurden zwei operative Techniken zur endoskopischen Lobektomie miteinander hinsichtlich der Frühergebnisse verglichen. In die Untersuchung wurden alle Patienten einbezogen, die an der Abteilung für Thoraxchirurgie der Goethe Universität Frankfurt am Main zwischen April 2010 und Dezember 2012 wegen pulmonaler Karzinome minimal-invasiv lobektomiert wurden. Dabei wurden 34 Patienten einer Roboter-unterstützten Lobektomie sowie 25 Patienten einer VATS-Lobektomie unterzogen.
Es fanden sich keine signifikanten Differenzen in den präoperativen Daten und dem Risikoprofil der Patienten. Auch die intraoperativen Ergebnisse zeigten keine statistisch signifikanten Unterschiede. Postoperativ fand sich eine Tendenz zu höheren Tumorstadien sowie eine geringere Schmerzintensität bei den RATS-Patienten. Die Nachblutungsmenge war bei beiden Verfahren gering. Das klinische Outcome war vergleichbar, ebenso die geringe Morbidität und Komplikationsrate bei den beiden Verfahren.
Weitere Untersuchungen mit höheren Patientenzahlen sind erforderlich, um die Unterschiede zwischen den Verfahren zu untersuchen. Prinzipiell sind beide Verfahren geeignet um Patienten mit nicht-kleinzelligen Lungenkarzinomen in niedrigen Tumorstadien zu operieren.
Zur weiteren Verbesserung der Ergebnisse müssten für die RATS-Lobektomien spezielle Instrumente angefertigt werden. Die derzeit verwendeten Instrumente wurden ursprünglich für Koronargefäße oder urologische Operationen entwickelt, die sich in der Thoraxchirurgie oft als unzureichend erweisen. Zudem ist das Robotersystem stets in Entwicklung. Es sind kürzlich neue Instrumente eingeführt worden wie z.B. Klammernahtgeräte oder Instrumente, die für die automatische Durchtrennung kleinerer Gefäße zuständig sind. Manche Autoren beschreiben den Stapler, der eingesetzt wurde, noch als „mangelhaft“. Aus technischer Sicht fehlt immer noch das taktile Feedback, was jedoch teils durch die Erfahrung des Operateurs und mit Hilfe des 3-Dimensionalen Sehens kompensiert wird.
Diese Arbeit soll den ersten Grundbaustein bezüglich des postoperativen Schmerzmittelverbrauches nach einer videoassistierten- und roboterassoziierten Lobektomie legen. Wir sind uns sicher, dass dieses Thema in Zukunft weiter und noch detaillierter ausgearbeitet wird.
Nach den Studien von Flores und Alam wurden am Ende die Fragen gestellt:
➢ „Kann der Eingriff rein robotisch durchgeführt werden?
➢ Sind Op-Zeiten und Krankenhausaufenthalt kürzer?
➢ Sind die Inzisionen kleiner?
➢ Sind die postoperativen Schmerzen geringer?
➢ Ist das Verfahren billiger?“
Mit dieser vorliegenden Arbeit können die ersten vier Punkte aus der oben erwähnten Studie positiv bestätigt werden. Die Zugangswege sind kleiner bzw. gleich groß. In der Studie Kumar et al. wird ausdrücklich erwähnt, dass jedes Verfahren, welches durch die VATS geführt wird, mit dem Roboter noch besser auszuführen sei. Ein Problem stellen die Kosten dar. Wenn diese ebenfalls gesenkt werden können, würde einer flächendeckenden Verbreitung des Roboterverfahren nichts im Wege stehen. Die daVinci-Lobektomie ist zumindest eine geeignete Alternative im Vergleich zu der VATS-Lobektomie.
The Large Hadron Collider (LHC) is the biggest and most powerful particle accelerator in the world, designed to collide two proton beams with particle momentum of 7 TeV/c each. The stored energy of 362MJ in each beam is sufficient to melt 500 kg of copper or to evaporate about 300 litre of water. An accidental release of even a small fraction of the beam energy can cause severe damage to accelerator equipment. Reliable machine protection systems are necessary to safely operate the accelerator complex. To design a machine protection system, it is essential to know the damage potential of the stored beam and the consequences in case of a failure. One (catastrophic) failure would be, if the entire beam is lost in the aperture due to a problem with the beam dumping system.
This thesis presents the simulation studies, results of a benchmarking experiment, and detailed target investigation, for this failure case. In the experiment, solid copper cylinders were irradiated with the 440GeV proton beam delivered by the Super Proton Synchrotron (SPS) at the High Radiation to Materials (HiRadMat) facility at CERN. The experiment confirmed the existence of the so-called hydrodynamic tunneling phenomenon for the first time. Detailed numerical simulations for particle-matter interaction with FLUKA, and with the two-dimensional hydrodynamic code, BIG2, were carried out. Excellent agreement was found between the experimental and the simulation results that validate predictions for the 7TeV beam of the LHC. The hydrodynamic tunneling effect is of considerable importance for the design of machine protection systems for accelerators with high stored beam energy. In addition, this thesis presents the first studies of the damage potential with beam parameters of the Future Circular Collider (FCC).
To detect beam losses due to fast failures it is essential to have fast beam instrumentation. Diamond based particle detectors are able to detect beam losses within a nanosecond time scale. Specially designed diamond detectors were used in the experiment mentioned above. Their efficiency and response has been studied for the first time over 5 orders of bunch intensity with electrons at the Beam Test Facility (BTF) at INFN, Frascati, Italy. The results of these measurements are discussed in this thesis. Furthermore an overview of the applications of diamond based particle detectors in damage experiments and for LHC operation is presented.
Anankastic relatives
(2016)
This dissertation investigates a semantic puzzle in German concerning certain sentences with an intensional transitive verb and a modalized relative clause modifying its indefinite object. In their unspecific reading, the modal inside the relative clause seems to lack a semantic contribution and the construal of the relative clause appears spuriously ambiguous between a restrictive and an appositive reading. However, as a thorough discussion of a wide range of data reveals, the embedded modal is actually anaphoric to the matrix attitude and does contribute to the sentence meaning. But then, precisely due to its anaphoricity, this semantic contribution is restricted and in some cases very subtle; in particular, the semantic phenomenon under scrutiny cannot be analyzed as an instance of modal concord. Rather, previous observations on related data involving epistmic anaphoric modals and anankastic conditionals turn out to indicate the direction for an adequate analysis of the relevant semantic observations. For the restrictive construal, a conservative account is developed containing a fine-grained Lewis-Kratzer-style modal semantics, but with a twist: the anaphoricity of the modal is taken care of by restricting the anaphoricity of the modal to the ordering source of the matrix verb; moreover, the embedded modal receives a historical modal base. In this way compositionality issues and problems of cross-identification are avoided. Finally, the non-restrictive construal is analyzed as an instance of modal subordination, exploiting the well-studied parallel between appositive relatives and discourse anaphora.
Saccharomyces cerevisiae is a natural producer of isobutanol, which has more advantages as biofuel than ethanol, i.e. superior combustion energy, weaker corrosive action and reduced aqueous miscibility. Isobutanol is produced by the combination of the valine biosynthesis and the Ehrlich pathway. In this work, an industrial strain was employed for isobutanol production, in which the valine pathway was relocated into the cytosol. The valine pathway in yeast has a cofactor imbalance, since the glycolysis produces NADH, while Ilv5 employs NADPH for the reaction. Therefore, the cofactor specificity of the pathway was rebalanced with exchange of Ilv5 by an NADH-consuming mutant, IlvC6E6. Furthermore, Ilv6, which regulates the feed-back inhibition of the valine biosynthesis, was tested to boost isobutanol production; however, none of these Ilv6 alternatives could greatly enhance isobutanol production. Therefore, due to a still low production yield, the bottlenecks of the isobutanol pathway were deeper studied.
The major observed bottleneck concerned the conversion of DIV into KIV, since high concentrations of acetoin, 2,3-butandiol and, specially, DIV were observed in the fermentation supernatant, while neither KIV nor isobutyraldehyde were detected. This step is performed by the dihydroxy-acid dehydratase, Ilv3, which needs iron-sulfur clusters for its activity. Therefore, the first approach to circumvent this limitation was to increase the FeS assembly and its transference into the cytoplasm; however, Ilv3Δ19 activity was not improvement. Afterwards, Ilv3 alternatives were screened for substitution of Ilv3Δ19. Heterologous ILV3 orthologous with possible advantages were investigated, but Ilv3Δ19 was still the most promising alternative. Furthermore, sugar-acid enolases were tested as Ilv3Δ19 substitutes. These enolases also catalyze the dehydration of the substrate in the same way as Ilv3, but uses Mg2+ as cofactor. One of the employed enolases could complement valine auxotrophy; however, it allowed just a very slow growth of the Δilv3 strain and its activity could not be enhanced by mutagenesis studies.
Interestingly, we observed that once DIV is secreted out of the cell, it cannot be re-uptaken from the medium and this possibly further aggravates the pathway flux and Ilv3Δ19 activity. In order to suppress DIV waste, two strategies were formulated: the deletion of the possible DIV transporter, and the substrate channeling of DIV from IlvC6E6 to Ilv3Δ19. In order to find possible DIV export proteins, a transcriptome analysis of a strain producing high amounts of DIV against a strain producing no detected DIV were compared. Several transporters were found upregulated in the DIV producing strain, but, alone, none of these were responsible for the DIV efflux. For the substrate channeling, an artificial enzymatic net was constructed by the fusion of IlvC6E6 and Ilv319 with synthetic zippers, which have high affinity to each other, and as both enzymes are alone organized as oligomers. The use of this enzymatic net enhanced not only the isobutanol production in about 17%, but also 3-methyl-butanol production yield was 25% increased.
Nevertheless, together with bottlenecks arising from Ilv3 activity, the isobutanol production is limited by the ethanol production, which is the main product of S. cerevisiae. Therefore, in order to abolish ethanol production, PDC1 and PDC5 were deleted. Moreover, BDH1 and BDH2 were also deleted to create an NADH-driving force towards isobutanol production. However, the isobutanol yield of this mutant was even lower than that of the strain without the mentioned deletions. As a high production of isobutyric acid was observed, and it could be produced directly from KIV, different KIV decarboxylases and isobutanol dehydrogenases were investigated; but without improvement. Then, alternative pathways were abolished in other to favor isobutanol production, e.g. valine, leucine, isoleucine and panthotenate biosyntheses. Nevertheless, isobutanol yields were still low and the main byproducts were glycerol, acetoin, DIV and isobutyric acid. Despite the outcomes were not enough to enhance isobutanol production up to commercially required yields, these results help in the comprehension of the bottlenecks surrounding the isobutanol production pathway and serve as basis for further studies within the branched-chain amino acids biosynthesis and Ehrlich pathway.
Cells perform a wide range of functions such as signalling, transportation, immunoprotection and metabolism. Unravelling the molecular mechanism behind those processes will provide a platform for more targeted and rational drug design. This is achieved by discerning the structural and functional aspects of the biological macromolecules involved. This thesis discusses about the biophysical characterization of protein structures and the biological importance of protein dynamics. Membrane receptors and enzymes which are ubiquitously present in our biological systems and regulate wide variety of functions are excellent choice for such study. From a pharmaceutical point of view, receptor and enzymes are exceptionally important drug targets as they represent the major share (receptor, 30% and enzymes, 47%) of all marketed drugs. Therefore, apart from biological insights, the detailed study of receptors and enzymes will provide the basis for new pharmaceutical applications. Most information about receptor activation and enzyme activity come from the structural and functional analysis of target members of the above mentioned systems.
In “Chapter 1 – General Introduction” the readers are introduced to the world of proteins with special focus on G-protein coupled receptors (GPCRs) and methyltransferases. The first part of this chapter discusses about GPCRs with emphasis on their classification, structural features and functions. GPCRs are the most abundant membrane receptors present in mammalian cells, accounting for almost 15% of all membrane proteins. The GPCR superfamily consists of ~800 members and can be subdivided into six classes (A-F). Class A containing rhodopsin, peptide hormones, olfactory GPCRs, is the most abundant with a large share of 85% of GPCR protein family. GPCRs share a common architecture of 7 transmembrane a-helices, with different ligand binding sites. Although a variety of ligands ranging from subatomic particles (a photon) to large proteins can activate a GPCR, their mechanism of signal transduction is almost similar. There are two major signal transduction pathways identified for GPCRs: the cAMP pathway and the phosphatidylinositol pathway. The therapeutic relevance of GPCRs has also been pointed out here since a large share (30%) of modern marketed drugs target GPCRs.
In the second part of this chapter, the structural and functional characterizations of methyltransferases (MTs) are discussed in detail. Several important biological processes in cells e.g. drug metabolism, gene transcription, epigenetic regulations are modulated by methylation of targets ranging from small biomolecules to large proteins. MTs are the proteins which catalyze this methylation reaction and transfer the methyl group to an acceptor molecule through SN2 like nucleophilic substitution reaction. The MTs can be classified on the basis of the substrate atoms they methylate: O (54% of all MTs), N (23%), C (18%), S (3%) and other acceptors (such as halides; 2%). They can also be categorized into five different classes (Class I-V) depending upon distinctive structural features facilitating substrate binding or catalytic activity. Rossmann fold and SET (acronym acquired from the Drosophila Su(var)3-9 and 'Enhancer of zeste' proteins) domain are the two characteristic structural motifs commonly found in MTs. Similar to GPCRs, MTs dysfunction has been shown to be involved in various diseases including neuropsychiatric diseases and cancer. Therefore they are also interesting targets for drug development. The final part of this chapter discusses the importance of structural biology in gathering information related to structure and conformational dynamics of proteins. The two prominent biophysical techniques used in structural biology, X-ray crystallography and NMR, are discussed with focus on their advantages and limitation. The importance of NMR spectroscopic techniques to investigate different dynamic processes of protein at atomic resolution under physiological conditions is also discussed. Real time NMR spectroscopy required for the analysis of slow protein dynamic processes (protein folding, enzyme catalysis, domain rearrangement) has been explained in detail.
The second part of the thesis (Chapters 3-4), which is the cumulative part, comprises the original publications grouped into 2 chapters according to their topic:
• NMR-spectroscopic characterization of the transiently populated photointermediates of bovine rhodopsin and it’s interaction with arrestin (Chapter 3)
• Structural and biophysical characterization of PaMTH1, a putative SAM dependent O-methyltransferase from filamentous fungi Podospora anserina (Chapter 4)
Each chapter is initiated by a detailed introduction to the topic, providing the framework for the following papers. The personal contribution of this thesis’ author to each publication is stated in the introduction to the respective article.
This thesis reports on the results obtained by expression photoactivatable adenylyl cyclase from Beggiatoa spp. (bPAC) in cholinergic neurons from Caenorhabditis elegans (C. elegans) and the characterization of the role of a single neuron, RIS, during locomotion in the adult animal.
Pharmacological activation of adenylyl cyclases through Forskolin is known to induce increased neuronal output in diverse model organisms through a protein kinase A (PKA) dependent mechanism. Nevertheless, pharmacological assays are not spatially restricted, do not allow for precise and acute activation nor to cessation of the signal. Thus, an optogenetic approach for was selected trough the expression of photoactivatable adenylyl cyclase from Beggiatoa spp. (bPAC) in cholinergic neurons of Caenorhabditis elegans (C. elegans). This model organism was chosen due to its transparency, ease of maintenance, fast generation cycles as well as for being an eutelic animal. Further, its genome has been fully sequenced and the connectome of the neuronal network is known, thus allowing for precise analysis of neuronal function. Furthermore, the molecular mechanisms governing neuronal functions are well conserved up to primates. Mainly two optogenetical tools were applied, bPAC and the light gated cation channel channelrhodopsin 2 (ChR2).
Behavioral assays of bPAC photostimulation in cholinergic neurons recapitulated previous work performed with the photoactivatable adenylyl cyclase from Euglena gracilis (EuPACa), in which swimming frequency and speed on solid substrate were increased. Electrophysiological recordings of body wall muscle (BWM) cells by Dr. Jana F. Liewald showed that bPAC photoactivation led to an increase in miniature postsynaptic current (mPSC) rate and, in contrast to ChR2 invoked depolarization, also amplitude. Analysis of mutants deficient in neuropeptidergic signaling (UNC- 31) via electrophysiology performed by Dr. Jana F. Liewald showed that the increase in mPSC amplitude due to bPAC photoactivation requires neuropeptide release. This was confirmed by co-expression of bPAC with the neuropeptide marker NLP-21::Venus and subsequent fluorescence analysis of release, exploiting the fact that released neuropeptides are ultimately degraded by scavenger cells (coelomocytes). These were enriched with NLP-21::Venus after bPAC photostimulation, but no fluorescence could be observed in the UNC-31 mutants.
Additional analysis of the electrophysiological data performed by myself showed no modulation of mPSC kinetics dues to neuropeptidergic release induced by bPAC. Hence, neuropeptide release and action sites were in the cholinergic neurons, the latter including cholinergic motoneurons.
Dr. Szi-chieh Yu provided electron microscopy images of high pressure frozen, bPAC or ChR2 expressing animals. These were tagged by myself for automatic analysis of ultrastructural properties of the cholinergic presynapse, also during photoactivation of both optogenetic tools. Photoactivation of both induced a reduction of synaptic vesicles, with ChR2 showing a more severe effect. In contrast to ChR2, though, bPAC also reduced the amount of dense core vesicles (DCV), the neuropeptide transporters. Additionally, long bPAC photoactivation as well as ChR2 photoactivation led to the appearance of large vesicles (LV), presumably in response to the increased SV fusion rate. bPAC photostimulation also induced an increase in SV size, not observed after ChR2 photostimulation. In UNC-31 mutants, bPAC photostimulation could not lead to the SV size increase, a further argument for the presynaptic effect of the released neuropeptide. Additional analysis of electrophysiology paired with pharmacology, performed by Dr. Jana F. Liewald, showed that mPSC amplitude increase requires the function of the vesicular acetylcholine transporter.
A further effect observed in the ultrastructure of bPAC photostimulated cholinergic presynapses was a shift in the distribution of SV regarding the dense projection. An analysis of cAMP pathway mutants showed that synapsin is required for bPAC induced behavior effects. Synapsin is known to mediate SV tethering to the cytoskeleton. Here, I show evidence for a new role of synapsin in controlling the availability of DCVs for fusion and thus, in neuropeptidergic signaling.
In the second part of my thesis I characterized the function of the GABAergic interneuron RIS in the neuronal network of C. elegans. RIS was shown to induce lethargus, a sleep-like state, during all larval molts, but its function in the adult animal was not yet described. Specific RIS expression of ChR2 achieved by a recombinase based system allowed to acutely depolarize the neuron during locomotion, which led to an acute behavioral stop. Diverse signal transduction pathway mutants were analyzed showing that the phenotype was induced by neuropeptidergic signaling. Through mutagenesis followed by whole genome sequencing data analysis as well as analysis of RIS specific RNA sequencing data further narrowed the signal transduction pathway to mediate the locomotion stop behavior. Since the neuropeptide and, to some extent, the neuron are conserved across nematodes, an argument is outlined in favor of the conservation of this sleep-like state.
In addition, since ChR2 could induce neuropeptidergic signaling from RIS, secretion of vesicles is regulated by variable pathways depending on the neuronal identity. Nevertheless, expression of bPAC in RIS allowed to optogenetically increase the probability of short stops, as observed by expression of a calcium sensor (GCaMP) in RIS and analysis of its intrinsic activity in the adult animal.
Tulasnella species (Tulasnellaceae, Cantharellales, Basidiomycota) form inconspicuous basidiomata on rotten branches or trunks of trees, difficult to find and recognize in nature. However, according to ultrastrucural and molecular data, species of Tulasnellaceae are the most frequent mycorrhriza forming fungi (mycobionts) of green, photosynthetic orchids worldwide. Species of Tulasnellaceae were also found as prominent mycobionts of the extraordinary diverse orchids in tropical montane rainforest of Southern Ecuador. Orchids obligately depend on mycobionts during the juvenile stage when the fungi have to deliver carbon to the non-photosynthetic protocorm and thus the fungi substantially influence the establishment of orchids in the wild. Species of Tulasnellaceae can acquire carbon from decaying bark or wood by specific saprotrophic capabilities as was recently proven through comparative genomics that included data on decay enzymes from Tulasnella cf. calospora isolated from orchid mycorrhizae (Anacamptis laxiflora, Italy). Thus, species of Tulasnellaceae can be saprotrophs and symbionts simultaneously.
It is currently under discussion, whether specific species of Tulasnella are required for seed germination and establishment of distinct terrestrial and epiphytic orchids in nature or if species of Tulasnella are generalists concerning their association with orchids. The inconsistences in species concepts and taxonomy of Tulasnella spp., however, strongly impede progress in this field of research. The aim of the present study was, therefore, to revise the species concepts by combining, for the first time, morphological and molecular data from basidiomata.
Specimens were collected in tropical Andean forest in Southern Ecuador and in temperate forests in Germany. Additional specimens were loaned from fungaria. In total, 205 specimens, corresponding to 16 own samples and 189 specimens from fungaria were analyzed. The mycobiont relationships of Tulasnella spp. with orchids from the sampling area in Ecuador were studied in populations of Epidendrum rhopalostele. The basis for molecular-phylogenetic analysis was completed by data obtained from own previous investigations on mycobionts from the investigation area and Tulasnella isolates from Australia.
30 morphospecies are illustrated and delimited by a morphological key based on traditional species concepts. Tulasnella andina from Ecuador and Tulasnella kirschneri from China are presented as species new to science. Tulasnella cruciata is described from herbarium material for the first time. Tulasnella aff. eichleriana and T. violea are reported for the first time from Ecuador. Molecular sequences of two Tulasnella spp. isolated from mycobionts of Epidendrum rhopalostele cannot be related to any morphological species concept. Statistical analyses suggest that conventional diagnostic using morphological characteristics is ambiguous for delimiting morphologically similar species.
For the first time sequences of the ITS-5.8S rDNA region were obtained after cloning from fresh basidiomata. Extraction of DNA from herbarium specimens was, however, unsuccessful. Sequences from 16 fresh basidiomata, six pure cultures, and sequences of orchids mycorrhizae (e.g. from Epidendrum rhopalostele) available in the database GenBank were analyzed. Proportional
variability of ITS-5.8S rDNA sequences within and among cultures and within and among specimens were used to designate morphospecies. Results suggest an intragenomic variation of less than 2 %, an intraspecific variation of up to 4 % and an interspecific divergence of more than 9 % for Tulasnella spp.
Four percent of intraspecific divergence was defined as a minimum threshold for delimiting phylogenetic species. This threshold corroborates the so far used 3 % to 5 % divergence in delimitation of operational taxonomic units of Tulasnella mycobionts.
Quite a number of sequences of Tulasnella are available in GenBank, mostly obtained from direct PCR amplification from orchid mycorrhizae. By including closely related sequences in the phylogenetic analysis, several morphological cryptic species of Tulasnella, mostly from Ecuador, were found. Arguments are given for molecular support of the new species Tulasnella andina and the established species Tulasnella albida, T. asymmetrica, T. eichleriana, T. tomaculum, and T. violea. Thus, by combining molecular and morphological data species concepts in Tulasnella are improved. The definitions of Tulasnella calospora and T. deliquescens, however, remain phylogenetically inconsistent.
The present investigation is a first step to expand our knowledge on the intraand interspecific morphological and molecular variability of Tulasnella spp. and to delimit species relevant for studies on ecology and communities of orchids and Tulasnellaceae.
Ziel. Lokoregionäre Rezidive sind der Hauptgrund für ein Therapieversagen nach primärer multimodaler Behandlung von Plattenepithelkarzinomen der Kopf-Hals-Region (SCCHN). Wir verglichen die Effektivität und Toxizität von Cisplatin oder Cetuximab simultan zur Re-Bestrahlung (ReRT) bei inoperablen SCCHN-Rezidiven. Ein prognostischer Score sollte auf Grundlage verschiedener klinischer und pathologischer Faktoren etabliert werden.
Patienten und Methoden. 66 Patienten mit in vorbestrahlten Regionen rezidivierten SCCHN wurden von 2007 bis 2014 simultan mit Cetuximab (n=33) oder cisplatin-basierter Chemotherapie (n=33) re-bestrahlt. Die Toxizität wurde wöchentlich sowie bei jedem Nachsorgetermin erfasst. Klinische Untersuchung, Endoskopie, CT- oder MRT-Untersuchungen wurden zur Beurteilung des Therapieansprechens und der Krankheitskontrolle eingesetzt.
Ergebnisse. Nach einer mittleren Nachbeobachtungszeit von 18,3 Monaten betrug das 1-Jahres-Überleben (OS) für ReRT mit Cetuximab 44,4% und mit cisplatin-basierter Chemotherapie 45,5% (p=0.352). Die lokalen Kontollraten nach einem Jahr waren jeweils 46,4% und 54,2% (p=0.625); die Raten an Metastasenfreiheit 73,6% und 81% (p=0.842). Hämatologische Toxizität ≥ Grad 3 kam in der Cisplatin-Gruppe häufiger vor (p<0.001), dagegen trat Schmerz ≥ Grad 3 in der Cetuximab-Gruppe häufiger auf (p=0.034). Ein physiologischer Hb-Wert und ein längeres Intervall zwischen primärer RT und ReRT erwiesen sich als signifikante prognostische Faktoren für das OS (multivariat: p=0.003 und p=0.002). Die Rezidivlokalisation sowie das GTV zeigten keinen signifikanten Einfluss auf das OS in der multivariaten Analyse (p=0.160 und p=0.167). Ein auf Grundlage dieser Variablen konstruierter Prognose-Score (0 bis 4 Punkte) zeigte signifikante Überlebensunterschiede: 1-Jahres-OS für 0/1/2/3/4 Prognosepunkte: 10%, 38%, 76%, 80% und 100% (p<0.001).
Schlussfolgerung. Sowohl Cetuximab- als auch Cisplatin-basierte ReRT für SCCHN-Rezidive sind gut durchführbare und effektive Behandlungsoptionen mit vergleichbaren Ergebnissen bezüglich Tumorkontrolle und Überleben. Die akuten Nebenwirkungen könnten gering variieren. Unser Prognose-Score könnte zur Identifizierung der für ReRT geeigneten Patienten sowie zur Stratifizierung in künftigen klinischen Studien dienen.
The Standard Model is one of the greatest successes of modern theoretical physics. Itl describes the physics of elementary particles by means of three forces, the electro-magnetisc, the weak and the strong interactions. The electro-magnetic and the weak interaction are rather well understood in comparison to the strong interaction.
The latest is as fundamental as the others, it is responsible for the formation of all hadrons which are classified into mesons and baryons. Well-known examples of the former is the pion and of the latter is the proton and the neutron, which form the nucleus of every atom. This fundamental force is believed to be described by the Quantum Chromodynamics (QCD) theory. According to this theory, hadrons are not elementary particles but are composed of quarks and gluons. The latter are the vector particles of the force and so are bosons of spin 1 and the former constitute the matter and are fermions with spin 1/2. To describe the interaction a new quantum number had to be introduced: the color charge which exists in three different types (blue, green and red). The name has not been chosen arbitrary as elements created from three quarks of different colors are colorless in the same way that mixing the three primary colors leads to white. However, experimentally no colored structure has ever been observed. The quarks and the gluons seem to be confined in colorless hadrons. This property of QCD is called confinement and results from a large coupling constant at low energy (or large distance). For high energy (or small distance), the perturbative analysis of QCD permits to establish the coupling constant to be small and quarks and gluons are almost free. This property is called asymptotic freedom. The possibility for QCD to describe both behaviors is one of its amazing characteristics. However, both phenomena are not well understood and one needs a method to study both the pertubative and the confining regime.
The only known method which fulfills the above criteria is Lattice QCD and more generally Lattice Quantum Field Theory (LQFT). It consists of a discretization of the spacetime and a formulation of QCD on a four-dimensional Euclidean spacetime grid of spacing a. In this way, the theory is naturally regularized and mathematically well-defined. On the other hand, the path integral formalism allows the theory to be treated as a Statistical Mechanics system which can be evaluated via a Markov chain Monte-Carlo algorithm. This method was first suggested by Wilson in 1974 [1] and shortly after Creutz performed the first numerical simulations of Yang-Mills theory [2] using a heath-bath Monte-Carlo algorithm. It appears that this method is extremely demanding in computational power. In its early days the method was criticized as the only feasible simulations involved non-physical values such as extremely large quark masses, large lattice spacing a and no dynamical quarks. With the progress of the computers and the appearance of the super-computer, the studies have come close to the physical point. But one still needs to deal with discrete space time and finite volume. Several techniques have been developed to estimate the infinite volume limit and the continuum limit. The smaller the lattice spacing and the larger the volume, the better the extrapolation to continuum and infinite volume limits is. The simulations are still very expensive and for the moment a typical length of the box is L ≈ 4fm and a ≈ 0.08fm. However, it has been realized simulating pure Yang-Mills theory and other lower dimensional models that the topology is freezing at small a [3]. It was also observed recently on full QCD simulations [4,5].
The typical lattice spacing for which this problem appears in QCD is a ≈ 0.05fm but this value depends on the quark mass used and on the algorithm. The freezing of topology leads to results which differ from physical results. Solving this issue is important for the future of LQCD [6]. Recently several methods to overcome the problem have been suggested, one of the most popular is the used of open boundary conditions [7] but this promising method has still its own issues, mainly the breaking of translation invariance.
Entwicklung und Test einer supraleitenden 217 MHz CH-Kavität für das Demonstrator-Projekt an der GSI
(2016)
In den letzten Jahrzehnten vergrößerten sich die Anwendungsgebiete von Linearbeschleunigern für Protonen und schwere Ionen, insbesondere im Nieder- und Mittelenergiebereich, stetig. Der überwiegende Teil dieser mittlerweile bewährten Anwendungen lag im Bereich der Synchrotroninjektion oder der Nachbeschleunigung von radioaktiven Ionenstrahlen. Darüber hinaus wird seit einiger Zeit die Entwicklung neuartiger, supraleitender Hochleistungslinearbeschleunigerkavitäten stark vorangetrieben, welche vor allem bei der Forschung an Spallationsneutronenquellen, in der Isotopenproduktion oder bei der Transmutation langlebiger Abfälle aus Spaltreaktoren Anwendung finden sollen. Die am Institut für Angewandte Physik der Goethe-Universität Frankfurt entwickelte CH-Kavität ist optimal für den Einsatz in derartigen Hochleistungsapplikationen geeignet. Sie ist die erste Vielzellenstruktur für den Nieder- und Mittelenergiebereich und kann sowohl normal- als auch supraleitend verwendet werden. Bislang konnten in der Vergangenheit ein supraleitender 360 MHz CH-Prototyp sowie eine für hohe Leistungen optimierte supraleitende 325 MHz CH-Struktur erfolgreich bei kryogenen Temperaturen ohne Strahl getestet werden. Um die Forschung im Bereich der Kernphysik, der Kernchemie und vor allem im Bereich der superschweren Elemente auch in Zukunft weiter fortzusetzen, ist der Bau eines neuen supraleitenden, dauerstrichbetriebenen Linearbeschleunigers an der GSI geplant. Das Kernstück des zukünftigen cw-LINAC basiert auf dem Einsatz supraleitender 217 MHz CH-Kavitäten, mit deren Hilfe ein adäquater Teilchenstrahl mit
maximal 7,5 MeV/u für die SHE-Synthese bereitgestellt werden soll. Auf dem Weg zur Realisierung des geplanten cw-LINACs wurde im Zuge des Demonstrator-Projektes die Umsetzung der ersten Sektion des gesamten Beschleunigers beschlossen. Der Fokus des Projektes liegt auf der Demonstration der Betriebstauglichkeit innerhalb einer realistischen Beschleunigerumgebung sowie insbesondere auf der erstmaligen Inbetriebnahme einer supraleitenden CH-Kavität mit Strahl. Im Rahmen der vorliegenden Arbeit wurde die erste supraleitende 217 MHz CH-Kavität für das Demonstrator-Projekt entwickelt, produziert und ihre Hochleistungseigenschaften in einem vertikalen Kryostaten bei 4,2 K getestet. Hierbei lag das Hauptaugenmerk auf der HF-Auslegung der Kavität, den begleitenden Tuningmaßnahmen während der Produktion sowie den ersten Leistungstests unter kryogenen Bedingungen. Weitere Schwerpunkte lagen auf der kompakten Bauweise, dem effektiven Tuning, der Oberflächenpräparation sowie auf dem Strahlbetrieb der Kavität mit einem dauerstrichfähigem 5 kW Hochleistungskoppler. Die Umsetzung
der Kavität beruhte auf dem geometrischen Konzept der supraleitenden, siebenzelligen 325 MHz CH-Struktur.
Ihre elektromagnetische und strukturmechanische Auslegung erfolgte mittels der Simulationsprogramme ANSYS Multiphysics und CST Studio Suite. Um während des Test- bzw. Strahlbetriebs mit der entsprechend notwendigen Kopplungsstärke die HF-Leistung in die Kavität einzuspeisen, wurden unterschiedliche Kopplerantennen für den jeweiligen Fall ausgelegt. Zum Erreichen der geforderten Zielfrequenz wurde ein Verfahren erarbeitet, welches die hierfür notwendigen Mess- und Arbeitsschritte während der einzelnen
Produktionsphasen beinhaltet. Diesbezüglich wurden während der Produktion der Kavität eine Reihe von Zwischenmessungen beim Hersteller durchgeführt, um den Frequenzverlauf innerhalb der jeweiligen Fertigungsschritte entsprechend beeinflussen zu können
und um vorangegangene Simulationswerte zu validieren. Alle untersuchten Parameter konnten während der Messungen in guter Übereinstimmung zu den Simulationen reproduziert und die Zielfrequenz der Kavität schließlich erreicht werden. Nach Abschluss der letzten Oberflächenpräparationen wurde die Kavität in einer neuen kryogenen Testumgebung innerhalb der Experimentierhalle des IAP für einen vertikalen Kalttest vorbereitet.
Daraufhin erfolgte das Evakuieren der Kavität, das Abkühlen auf 4,2 K sowie ihre Konditionierung. Anschließend erfolgte die Bestimmung der intrinsischen Güte der Kavität.
Sie betrug 1,44 x 10E9 und besitzt somit den bisher höchsten Gütewert, der jemals bei einer supraleitenden CH-Struktur erreicht wurde. Es konnte ein maximaler Beschleunigungsgradient von 7 MV/m im Dauerstrichbetrieb erreicht werden, was einer effektiven Spannung von 4,2 MV entspricht. Die zugehörigen magnetischen und elektrischen Oberflächenfelder lagen bei 39,3 mT bzw. 43,5 MV/m. Ein thermaler Zusammenbruch konnte während des gesamten Leistungstests nicht festgestellt werden, was auf eine gute thermische Eigenschaft der Kavität hindeutet. Allerdings zeigte der gemessene Verlauf ein frühes Abfallen der Güte ab 2,5 MV/m, was durch anormale Leistungsverluste aufgrund von Feldemission hervorgerufen wurde. Dies war aufgrund der unzureichenden Oberflächenbehandlung der Kavität zu erwarten, da die Hochdruckspülung aus technischen Gründen nur entlang der Strahlachse erfolgte. Dennoch konnte die Designvorgabe des geplanten cw-LINACs hinsichtlich der Güte bei 5,5 MV/m um einen Faktor 2 übertroffen werden.
Die positiven Ergebnisse der Simulationsrechnungen und der Messungen zeigen, dass die Anforderungen des Demonstrator-Projekts, insbesondere hinsichtlich des benötigten Beschleunigungsgradienten, mittels der entwickelten supraleitenden 217 MHz CH-Kavität erfüllt werden. Somit wurde im Rahmen dieser Arbeit maßgeblich an der Umsetzung des Demonstrator-Projekts bzw. an der Realisierung des geplanten cw-LINACs beigetragen und der Weg für einen Strahlbetrieb der Kavität vorbereitet.
Different approaches are possible when it comes to modeling the brain. Given its biological nature, models can be constructed out of the chemical and biological building blocks known to be at play in the brain, formulating a given mechanism in terms of the basic interactions underlying it. On the other hand, the functions of the brain can be described in a more general or macroscopic way, in terms of desirable goals. This goals may include reducing metabolic costs, being stable or robust, or being efficient in computational terms. Synaptic plasticity, that is, the study of how the connections between neurons evolve in time, is no exception to this. In the following work we formulate (and study the properties of) synaptic plasticity models, employing two complementary approaches: a top-down approach, deriving a learning rule from a guiding principle for rate-encoding neurons, and a bottom-up approach, where a simple yet biophysical rule for time-dependent plasticity is constructed.
We begin this thesis with a general overview, in Chapter 1, of the properties of neurons and their connections, clarifying notations and the jargon of the field. These will be our building blocks and will also determine the constrains we need to respect when formulating our models. We will discuss the present challenges of computational neuroscience, as well as the role of physicists in this line of research.
In Chapters 2 and 3, we develop and study a local online Hebbian self-limiting synaptic plasticity rule, employing the mentioned top-down approach. Firstly, in Chapter 2 we formulate the stationarity principle of statistical learning, in terms of the Fisher information of the output probability distribution with respect to the synaptic weights. To ensure that the learning rules are formulated in terms of information locally available to a synapse, we employ the local synapse extension to the one dimensional Fisher information. Once the objective function has been defined, we derive an online synaptic plasticity rule via stochastic gradient descent.
In order to test the computational capabilities of a neuron evolving according to this rule (combined with a preexisting intrinsic plasticity rule), we perform a series of numerical experiments, training the neuron with different input distributions.
We observe that, for input distributions closely resembling a multivariate normal distribution, the neuron robustly selects the first principal component of the distribution, showing otherwise a strong preference for directions of large negative excess kurtosis.
In Chapter 3 we study the robustness of the learning rule derived in Chapter 2 with respect to variations in the neural model’s transfer function. In particular, we find an equivalent cubic form of the rule which, given its functional simplicity, permits to analytically compute the attractors (stationary solutions) of the learning procedure, as a function of the statistical moments of the input distribution. In this way, we manage to explain the numerical findings of Chapter 2 analytically, and formulate a prediction: if the neuron is selective to non-Gaussian input directions, it should be suitable for applications to independent component analysis. We close this section by showing how indeed, a neuron operating under these rules can learn the independent components in the non-linear bars problem.
A simple biophysical model for time-dependent plasticity (STDP) is developed in Chapter 4. The model is formulated in terms of two decaying traces present in the synapse, namely the fraction of activated NMDA receptors and the calcium concentration, which serve as clocks, measuring the time of pre- and postsynaptic spikes. While constructed in terms of the key biological elements thought to be involved in the process, we have kept the functional dependencies of the variables as simple as possible to allow for analytic tractability. Despite its simplicity, the model is able to reproduce several experimental results, including the typical pairwise STDP curve and triplet results, in both hippocampal culture and layer 2/3 cortical neurons. Thanks to the model’s functional simplicity, we are able to compute these results analytically, establishing a direct and transparent connection between the model’s internal parameters and the qualitative features of the results.
Finally, in order to make a connection to synaptic plasticity for rate encoding neural models, we train the synapse with Poisson uncorrelated pre- and postsynaptic spike trains and compute the expected synaptic weight change as a function of the frequencies of these spike trains. Interestingly, a Hebbian (in the rate encoding sense of the word) BCM-like behavior is recovered in this setup for hippocampal neurons, while dominating depression seems unavoidable for parameter configurations reproducing experimentally observed triplet nonlinearities in layer 2/3 cortical neurons. Potentiation can however be recovered in these neurons when correlations between pre- and postsynaptic spikes are present. We end this chapter by discussing the relation to existing experimental results, leaving open questions and predictions for future experiments.
A set of summary cards of the models employed, together with listings of the relevant variables and parameters, are presented at the end of the thesis, for easier access and permanent reference for the reader.
To understand neurodegenerative diseases is one of the major challenges of the 21st century. This also includes Alzheimer´s disease (AD), which represents a chronic neurodegenerative disorder, with long preclinical and prodromal phases (approx. 20 years) and an average clinical duration of 8–10 years. In the early phase of this disease, patients show deterioration of memory, difficulties in finding the right words for everyday objects or mood swings. The risk of AD grows exponentially with age, doubling approximately every 5 to 6 years. AD may contribute to 60–70% of all dementia cases, being the most common cause of this disease. Dementia is one of the major causes of disability and dependency among older people worldwide. The causes of the sporadic form of AD with late onset (LOAD) are not yet known, but it seems to be a result of multiple factors. Neuropathological features are extracellular senile plaques, containing beta-amyloid peptides (Aβ) and intracellular neurofibrillary tangles, containing paired helical tau proteins, which have been associated with neuronal loss and atrophy of the cerebral cortex. Thus, misfolded proteins seem to contribute to the pathogenesis, but are not the only players in the disease process. Developing feasible therapies is difficult due to the multifactorial pathology of AD. Currently approved drugs only attenuate symptoms, but do not cure the disease. Research into AD also has had several failures in terms of developing disease-modifying therapies. Thus, new therapeutic targets in order to develop a causal therapy are desperately needed. Since AD starts many years far before the first symptoms occur, new scientific approaches focus on the early stage, which are discussed to be important in aging and the onset of AD. Today, the hypothesis of the advanced mitochondrial cascade becomes more and more the leading model for LOAD, integrating physiological aging as the main risk factor. Thus, new interventions targeting mitochondrial dysfunction are of substantial interest. Accordingly, the efficacy of Dimebon and TRO19622 to ameliorate mitochondrial dysfunction in cellular and murine models of AD were investigated. Dimebon (Latrepirdine) was, originally developed in Russia as an H1-antiallergic drug. It might specifically interfere with mechanisms relevant for the cognitive decline, especially by improving impaired mitochondrial function and/or dynamics in AD. TRO19622 (Olesoxim) has been identified in a phenotypic screening approach to promote the survival of primary motor neurons. Olesoxim is easily absorbed by cells and accumulates in mitochondria. Olesoxim’s mode of action is not fully understood, however it has been shown to modulate mitochondrial membranes and interact with the voltage-dependent anion channel (VDAC) and the translocator protein (TSPO; also known as PBR). Thereby it inhibits mitochondrial permeability transition. In this study, the effects of Aβ overproduction on mitochondrial function were investigated. The effects of Dimebon and Olesoxim were examined, using a HEK cell line stably transfected with the Swedish APP double mutation (HEKsw) and un-transfected control cells (HEKut). Mitochondrial membrane potential, ATP concentrations, and respirometry were measured. Western Blot analysis of marker proteins for fission & fusion, autophagy, mitogenesis and mPTP formation were performed. Confocal laser scanning microscopy was introduced as a novel method to visualize mitochondrial dynamics. Olesoxim was also tested in Thy-1-C57BJ/6-APPSL mice representing a murine model of AD. For the in vivo model mitochondria from brain tissue were isolated and dissociated brain cells were prepared to determine respiration, lipid peroxidation, MMP, and ATP-levels. Both, the in vitro and in vivo models were compared and discussed in relation to human post-mortem data. The research was conducted in frame of the EU-project entitled „MITOTARGET“ (Mitochondrial dysfunction in neurodegenerative diseases: towards new therapeutics) funded under FP7-Health (http://cordis.europa.eu/result/rcn/54471_en.html). HEKsw cells showed an overall reduction in the mitochondrial respiration, a significant lower MMP, and significantly reduced ATP levels compared to HEKut cells. Mitochondrial mass was equal in both cell lines. In addition most mitochondria in HEKsw cells showed truncated morphology, followed by punctuated mitochondria. Levels of the fission related protein Drp were significantly elevated in HEKsw cells whereas protein levels of fusion related OPA were strongly reduced, leading to a shift in the distribution pattern towards shorter mitochondria. Moreover, HEKsw cells showed reduced mitochondrial density. Protein levels of the translocase of the inner mitochondrial membrane (TIMM50) were strongly diminished in HEKsw cells. The OXPHOS machinery is located in the inner membrane, where the MMP is build up and ATP is generated. Reduced TIMM50 levels in HEKsw indicated a reduction of the inner mitochondrial membrane, which could explain the described deficits in OXPHOS, MMP, ATP and mitochondrial morphology and density. Concentration of both mPTP markers, the voltage-depended anion channel (VDAC) and the peripheral benzodiazepine receptor (PBR), were broadly increased in HEKsw cells. Thy1-APPSL transgenic mice were characterized as in vivo model of AD. Those mice are modified to express the human form of APP, containing both, the Swedish (KM670/671NL) and the London (V717L) double mutations under the murine Thy1 promotor. Beginning at the age of 3 months, Thy1-APPSL mice develop elevated Aβ levels and mitochondrial dysfunction. Mitochondria isolated from brains of Thy-1-C57BJ/6-APPSL mice showed significant impaired respiration, resulting in a reduced MMP. However, ATP levels in dissociated brain cells did not differ compared to controls. Protein levels of FIS were unchanged, whereas Drp levels were significantly increased. Levels of the mitochondrial fusion marker optic atrophie-1 (Opa) protein were significantly reduced. Peroxisome proliferation-activated receptor gamma coactivator 1-alpha (PGC1) is a transcription factor, which represents a master regulator of mitochondrial biogenesis. PGC1 expression was significantly elevated in brains of Thy-1-C57BJ/6-APPSL mice. However, mitochondrial mass seemed to be equal in both mouse lines. Both LC3-Isoforms, the cytosolic and the autophagosomal form, were not changed in brains of Thy-1-C57BJ/6-APPSL mice, which indicates equal mitophagic activity. In brain homogenates, isolated from Thy-1-C57BJ/6-APPSL mice, both mPTP marker, VDAC and PBR, were considerably increased, which is in accordance with the findings in HEKsw cells. In conclusion, both, the cellular (HEKsw) and the animal model of AD (Thy1-APPSL) broadly match pathophysiological features, which have been found in post-mortem samples from AD patients. Thus, HEKsw cells and Thy1-APPSL mice seem to be suitable models to study new treatments against AD. Incubation of HEKsw cells with Dimebon resulted in a remarkable increase in respiratory activity and restored the MMP after impairing the cells with rotenon. Dimebon had no effects on ATP levels in both cell lines, neither after challenging cells with rotenon, nor under basal conditions. By adding Dimebon, citrate synthase (CS) activity in HEKsw cells was increased and mitochondrial morphology was shifted to a tubular shape. Dimebon further enhanced protein levels of Drp and resulted in the compensation of reduced OPA levels. Moreover, Dimebon restored the increased expression levels of the mPTP markers VDAC and PBR. Aβ1-40 levels were significantly decreased in HEKsw cells. However, changes in Aβ1-40 levels seemed to be too small, to solely explain the much larger effects of Dimebon on impaired mitochondrial function. In conclusion, Dimebon treatment restored diverse defects in Aβ overexpressing cells: Aβ levels were reduced, autophagy marker were increased, mitophagy as repair and renewal mechanism was elevated, mitochondrial mass and density were increased, OXPHOS capacity was restored, mitochondrial dynamics were balanced, mitochondrial shape showed a normal distribution, expression levels of the mPTP constituents were reduced, TIMM50 levels augmented to control levels and stress induced MMP and ROS levels were reduced. All these effects were observed after incubation of cells with a rather low concentration of 100 nmol/L. Based on these findings and in addition to already existing literature, Dimebon presents a potential therapeutic option for diseases with accompanied mitochondrial dysfunction. Although, clinical findings published so far are inconsistent. Olesoxim induced a general increase in respiratory activity and enhanced the electron transport (ETS) capacity in HEKsw cells. In addition it normalized the OXPHOS activity almost to control levels. However, incubation using different Olesoxim concentrations led to a dose independent decline in the MMP and decreased ATP levels. Adding Olesoxim caused a dose-dependent change in the length of mitochondria strongly shifting the pattern towards longer mitochondria. In HEKsw cells a reduced mitochondrial density was observed which was reversed by Olesoxim dose-dependently. Olesoxim completely compensated the severely reduced expression levels of TIMM50, but had no effects on TOMM22 levels. An unexpected finding was that 10 µM Olesoxim significantly increased Aβ1-40 levels. Effects of Olesoxim were also tested in vivo. Treatment of Thy-1-C57BJ/6-APPSL mice with Olesoxim restored the impaired MMP in dissociated brain cells, but had no effects on ATP-levels. Olesoxim increased the respiratory activity in isolated brain mitochondria and restored impaired respiration complex activities almost to control levels, without having an effect on CS activity. However, treatment with Olesoxim caused an increase of PGC1 protein levels in brains of Thy-1-C57BJ/6-APPSL mice,beyond basal levels of littermate controls. The mPTP marker proteins voltage-depended anion channel (VDAC) and peripheral benzodiazepine receptor (PBR) were significantly reduced. As well as in the cell models, treatment of Thy-1-C57 BJ/6-APPSL mice with Olesoxim significantly enhanced total human, soluble human and soluble mouse Aβ1-40 levels. Further investigation needs the observation that Olesoxim caused partly negative effects in controls. For instance, Olesoxim reduced the OXPHOS capacity and enhanced protein levels of VADAC and PBR in brains of C57BJ/6 littermate control mice, which could limit the applicability of Olesoxim in further preclinical studies.
Mikroalgen wird aufgrund ihrer photoautotrophen Lebensweise, ihrer meist einfachen Anzucht und ihres schnellen Wachstums ein großes Potential als Produzenten verschiedener Stoffe, wie beispielsweise den Sekundärmetaboliten der Carotinoidbiosynthese, zugesprochen. Zur Produktion solcher Stoffe bedarf es der Aufklärung der in einem Biosyntheseweg operierenden Enzyme und ihrer zugehörigen Gene.
In dieser Arbeit sollte einerseits durch genetische Modifikation der Carotinoidbiosynthese der Fucoxanthingehalt erhöht und andererseits die Produktion von Astaxanthin in P. tricornutum erreicht werden. Bisher fehlen experimentelle Nachweise über die Funktion, Regulation und die limitierenden Eigenschaften daran beteiligter Gene und deren Enzyme. Um dem Ziel der Arbeit näher zu kommen, wurden zuerst potentiell an der Regulation der Carotinoidbiosynthese beteiligte Gene ausgewählt und deren Enzyme funktionell charakterisiert. Eines dieser Enzyme ist das Eingangsenzym der Carotinoidbiosynthese, die Phytoen-Synthase. Die entsprechend annotierte putative Sequenz (psy #Pt56881) wurde zur Analyse herangezogen. Nachdem im Rahmen dieser Arbeit über die Komplementation in einem dafür ausgerichteten E. coli Stamm der funktionelle Nachweis der Phytoen-Synthase erbracht werden konnte, wurde untersucht, ob die Phytoen-Synthase einer lichtabhängigen Expression unterliegt und somit die Carotinoidsynthese im WT von P. tricornutum limitiert. Durch die Inhibierung der Phytoen-Desaturase mittels Norflurazon konnte die verstärkte Akkumulation des Produktes der Phytoen-Synthase, Phytoen, bei einem Transfer der P. tricornutum-Kulturen von Schwach- in Starklicht gezeigt werden. Die Expression der Phytoen-Synthase von P. tricornutum wird demnach durch die Lichtbedingungen reguliert und limitiert auch die Carotinoidsynthese. Ein weiteres an der Carotinoidsynthese beteiligtes Enzym ist die Zeaxanthin-Epoxidase. Sie bietet zugleich eine Möglichkeit, an dieser Stelle die Carotinoidsynthese in Richtung Astaxanthinproduktion umzulenken. Für P. tricornutum sind drei potentielle Genkandidaten (zep1: #Pt45845; zep2: #Pt56488; zep3: #Pt56792) annotiert, welche ebenfalls im Rahmen dieser Arbeit funktionell charakterisiert wurden. Der funktionelle Nachweis erfolgte dabei ebenfalls mittels eines Komplementationsansatzes in einem damit neu etablierten Expressionssystem mit npq2-Mutanten aus der Modellpflanze A. thaliana. Die Analyse der Transformanden zeigte eine Epoxidase-Aktivität des Produktes aus zep2 und zep3. Das Enzym Zeaxanthin-Epoxidase 2 weist dabei eine andere Spezifität auf als die Zeaxanthin-Epoxidase 3, welche funktionell betrachtet der Zeaxanthin-Epoxidase aus A. thaliana am nächsten kommt. Die Zeaxanthin-Epoxidase 2 akzeptiert im Unterschied zu Zeaxanthin-Epoxidase 3 neben Zeaxanthin auch andere Substrate wie Lutein mit nur einem 3 Hydroxy-β-Iononring und stellt damit einen validen Kandidaten für die Umwandlung von Diatoxanthin in Diadinoxanthin in P. tricornutum dar. Obwohl die Transkriptanalysen ausreichende Mengen an RNA von zep1 in A. thaliana zeigen und anhand eines zusätzlichen mit der Sequenz für GFP markierten zep1-Konstruktes in WT-Protoplasten von A. thaliana der Import in den Chloroplasten und die Expression nachgewiesen werden konnte, weist die Zeaxanthin-Epoxidase 1 zumindest in den A. thaliana-Transformanden keine Epoxidase-Aktivität auf. Des Weiteren zeigt die diurnale Expression in P. tricornutum, dass die Regulation der Zeaxanthin-Epoxidasen an den Bedarf photoprotektiver Pigmente angepasst wird. Während die Regulation des Transkript-Levels von zep2 und zep3 nahezu parallel laufen und ein gemeinsames Maximum aufweisen, zeigt das Transkript-Level von zep1 ein anderes Maximum.
Die gewonnenen Erkenntnisse wurden dann zur Steigerung der Synthesekapazität mittels genetischer Modifikation des Carotinoidsyntheseweges in P. tricornutum angewendet. Durch das Einbringen zusätzlicher Genkopien der Phytoen-Synthase in P. tricornutum konnte dabei eine deutliche Steigerung des Fucoxanthingehalts unter Schwachlichtbedingungen erreicht werden. Gleichzeitig konnte durch weitere inhibitorische Versuche mittels Norflurazon beim Transfer von Schwach- zu Starklicht demonstriert werden, dass die Carotinoidsynthese durch die Kombination der genetischen Modifikation mit der Phytoen-Synthase und Starklicht per se weiterhin gesteigert werden kann. Zusammen mit den Transkriptanalysen zeigen die Pigmentanalysen, dass es einen nicht-linearen Zusammenhang zwischen RNA-Menge und gebildeter Phytoenmenge gibt, welcher durch eine zusätzliche Substratlimitierung der Phytoen-Synthase erklärt werden kann.
Bevor das Herunterregulieren der Zeaxanthin-Epoxidasen in P. tricornutum durchgeführt und damit ein verstärkter Fluss zur Astaxanthinbildung erreicht werden sollte, wurde das Potential von P. tricornutum zur Astaxanthinproduktion überprüft. Hierfür wurde die β-Carotin-Ketolase (bkt #CrAEA35045.1) aus C. reinhardtii einmal ohne und zusätzlich mit verschiedenen Präsequenzen fusioniert separat in P. tricornutum eingebracht. Astaxanthin konnte trotz Nutzung funktionell bestätigter Präsequenzen aus der Literatur nicht nachgewiesen werden. Die Versuche zeigen damit, dass hier noch weitere Untersuchungen nötig sind, um mittels eines geeigneten Transportsystems Fremd-Proteine in den Chloroplasten von P. tricornutum einzubringen. Das Ausbleiben der Astaxanthinproduktion konnte an dieser Stelle nicht hinreichend geklärt werden.
Insgesamt schaffen die Ergebnisse dieser Arbeit eine weitere Grundlage, um die Carotinoidbiosynthese in P. tricornutum besser zu verstehen und diese mittels genetischer Modifikationen biotechnologisch nutzbar zu machen.
Die letzten Jahrzehnte brachten einen enormen Zuwachs des Wissens und Verständnisses über die molekularen Prozesse des Lebens.Möglich wurde dieser Zuwachs durch die Entwicklung diverser Methoden, mit denen beispielsweise gezielt die Konzentration einzelner Stoffe gemessen werden kann oder gar alle anwesenden Metaboliten eines biologischen Systems erfasst werden können. Die großflächige Anwendung dieser Methoden führte zur Ansammlung vieler unterschiedlicher -om-Daten, wie zum Beispiel Metabolom-, Proteom- oder Transkriptoms-Datensätzen. Die Systembiologie greift auf solche Daten zurück, um mathematische Modelle biologischer Systeme zu erstellen, und ermöglicht so ein Studium biologischer Systeme auch außerhalb des Labors.
Für größere biologische Systeme stehen jedoch meistens nicht alle Informationen über Stoffkonzentrationen oder Reaktionsgeschwindigkeiten zur Verfügung, um eine quantitative Modellierung, also die Beschreibung von Änderungsraten kontinuierlicher Variablen, durchführen zu können. In einem solchen Fall wird auf Methoden der qualitativen Modellierung zurückgegriffen. Eine dieser Methoden sind die Petrinetze (PN), welche in den 1960er Jahren von Carl Adam Petri entwickelt wurden, um nebenläufige Prozesse im technischen Umfeld zu beschreiben. Seit Anfang der 1990er Jahre finden PN auch Anwendung in der Systembiologie, um zum Beispiel metabolische Systeme oder Signaltransduktionswege zu modellieren. Einer der Vorteile dieser Methode ist zudem, dass Modelle als qualitative Beschreibung des Systems begonnen werden können und im Laufe der Zeit um quantitative Beschreibungen ergänzt werden können.
Zur Modellierung und Analyse von PN existieren bereits viele Anwendungen. Da das Konzept der PN jedoch ursprünglich nicht für die Systembiologie entwickelt wurde und meist im technischen Bereich verwendet wird, existierten kaum Anwendungen, die für den Einsatz in der Systembiologie entwickelt wurden. Daher ist auch die Durchführung der für die Systembiologie entwickelten Analysemethoden für PN nicht mit diesen Anwendungen möglich. Die Motivation des ersten Teiles dieser Arbeit war daher, eine Anwendung zu schaffen, die speziell für die PN-Modellierung und Analyse in der Systembiologie gedacht ist, also in ihren Analysemethoden und ihrer Terminologie sich an den Bedürfnissen der Systembiologie orientiert. Zudem sollte die Anwendung den Anwender bei der Auswertung der Resultate der Analysemethoden visuell unterstützen, indem diese direkt visuell im Kontext des PN gesetzt werden. Da bei komplexeren PN die Resultate der Analysemethoden in ihrer Zahl drastisch anwachsen, wird eine solche Auswertung dieser notwendig. Aus dieser Motivation heraus entstand die Anwendung MonaLisa, dessen Implementierung und Funktionen im ersten Teil der vorliegenden Arbeit beschrieben werden. Neben den klassischen Analysemethoden für PN, wie den Transitions- und Platz-Invarianten, mit denen grundlegende funktionale Module innerhalb eines PN gefunden werden können, wurden weitere, meist durch die Systembiologie entwickelte, Analysemethoden implementiert. Dazu zählen zum Beispiel die Minimal Cut Sets, die Maximal Common Transitions Sets oder Knock-out-Analysen. Mit MonaLisa ist aber auch die Simulation des dynamischen Verhaltens des modellierten biologischen Systems möglich. Hierzu stehen sowohl deterministische als auch stochastische Verfahren, beispielsweise der Algorithmus von Gillespie zur Simulation chemischer Systeme, zur Verfügung. Für alle zur Verfügung gestellten Analysemethoden wird ebenfalls eine visuelle Repräsentation ihrer Resultate bereitgestellt. Im Falle der Invarianten werden deren Elemente beispielsweise in der Visualisierung des PN eingefärbt. Die Resultate der Simulationen oder der topologischen Analyse können durch verschiedene Graphen ausgewertet werden. Um eine Schnittstelle zu anderen Anwendungen zu schaffen, wurde für MonaLisa eine Unterstützung einiger gängiger Dateiformate der Systembiologie geschaffen, so z.B. für SBML und KGML.
Der zweite Teil der Arbeit beschäftigt sich mit der topologischen Analyse eines Datensatzes von 2641 Gesamtgenom Modellen aus der path2models-Datenbank. Diese Modelle wurden automatisiert aus dem vorhandenen Wissen der KEGG- und der MetaCyc-Datenbank erstellt. Die Analyse der topologischen Eigenschaften eines Graphen ermöglicht es, grundlegende Aussagen über die globalen Eigenschaften des modellierten Systems und dessen Entstehungsprozesses zu treffen. Daher ist eine solche Analyse oft der erste Schritt für das Verständnis eines komplexen biologischen Systems. Für die Analyse der Knotengrade aller Reaktionen und Metaboliten dieser Modelle wurden sie in einem ersten Schritt in PN transformiert. Die topologischen Eigenschaften von metabolischen Systemen werden in der Literatur schon sehr gut beschrieben, wobei die Untersuchungen meist auf einem Netzwerk der Metaboliten oder der Reaktionen basieren. Durch die Verwendung von PN wird es möglich, die topologischen Eigenschaften von Metaboliten und Reaktionen in einem gemeinsamen Netzwerk zu untersuchen. Die Motivation hinter diesen Untersuchungen war, zu überprüfen, ob die schon beschriebenen Eigenschaften auch für eine Darstellung als PN zutreffen und welche neuen Eigenschaften gefunden werden können. Untersucht wurden der Knotengrad und der Clusterkoeffizient der Modelle. Es wird gezeigt, dass einige wenige Metaboliten mit sehr hohem Knotengrad für eine ganze Reihe von Effekten verantwortlich sind, wie beispielsweise dass die Verteilung des Knotengrades und des Clusterkoeffizienten, im Bezug auf Metaboliten, skalenfrei sind und dass sie für die Vernetzung der Nachbarschaft von Reaktionen verantwortlich sind. Weiter wird gezeigt, dass die Größe eines Modelles Einfluss auf dessen topologische Eigenschaften hat. So steigt die Vernetzung der Nachbarschaft eines Metaboliten, je mehr Metaboliten in einem biologischen System vorhanden sind, gleiches gilt für den durchschnittlichen Knotengrad der Metaboliten.
Weltweit sind ca. 130–180 Millionen Menschen mit HCV infiziert und jährlich sterben etwa 500.000 Menschen an dessen Folgen. Die neuartigen Therapien versprechen zwar eine sehr hohe Heilungsrate, sind aber aufgrund ihrer enorm hohen Kosten nur in Industrieländern verfügbar. Noch immer gibt es keine prophylaktische Vakzinierung gegen HCV. Deshalb ist es wichtig, den HCV-Lebenszyklus und die Interaktion zwischen Wirtszelle und Virus detailliert zu verstehen, um die Entwicklung von Therapien und Impfungen zu ermöglichen. Außerdem kann ein fundiertes Wissen von HCV translatiert werden und auf neuartige Erreger der Familie der Flaviviridae, wie Denguevirus und Zikavirus, angewendet werden. Während der Zelleintritt und die Replikation von HCV relativ gut charakterisiert sind, bleiben die Assemblierung und Freisetzung der viralen Partikel schlecht verstandene Schritte des HCV-Lebenszyklus. In dieser Arbeit sollte die Rolle des zellulären Proteins α-Taxilin im Lebenszyklus von HCV untersucht werden. In einer späteren Phase der Arbeit wurde der endosomale Freisetzungsweg von HCV untersucht. Dazu wurden HCV Varianten generiert und charakterisiert, die Fluoreszenz-Proteine im NS5A- und E1-Protein enthalten, durch die es möglich ist, den Replikationskomplex und die Viruspartikel zu visualisieren und zu quantifizieren und den viralen Lebenszyklus dadurch besser untersuchen zu können...
Heutzutage unterliegen insbesondere aquatische Ökosysteme durch den permanenten Anstieg nicht-heimischer Arten einem folgenreichen Wandel. Dabei stellt der Biodiversitätsverlust nur den Endpunkt einer biologischen Invasion dar. Dazwischen wirken sich Faktoren wie Konkurrenz-, Prädationsdruck oder die Übertragung von Krankheitserregern wie z.B. Parasiten auf den Rückgang der Arten aus. Als integraler Bestandteil eines jeden Ökosystems spielen Parasiten bei Invasionsprozessen eine entscheidende Rolle und können durch ihren Einfluss auf heimische und nicht-heimischen Arten Invasionen begünstigen. Fische übernehmen aufgrund ihrer vielseitigen Bedeutung im Nahrungsnetz eine Schlüsselfunktion als Wirte diverser Parasitenarten und sind deshalb ausgezeichnete Untersuchungsobjekte, um durch nicht-heimische Arten verursachte Veränderungen in Nahrungsnetzstrukturen oder Parasitenfaunen aquatischer Ökosysteme aufzudecken.
Vor diesem Hintergrund wurde die vorliegende kumulative Dissertation angefertigt, welche auf drei (ISI-) Einzelpublikationen basiert. Die Arbeit beschäftigte sich unter Verwendung morphologischer und molekularbiologischer Methoden schwerpunktmäßig mit der Parasitendiversität und Nahrungsökologie zweier eingeschleppter Fischarten in stark anthropogen beeinflussten deutschen Fließgewässern. Dabei handelte es sich um die hauptsächlich durch das Ballastwasser von Schiffen verbreitete invasive Schwarzmundgrundel Neogobius melanostomus aus den Flüssen Rhein und Main sowie den von Hobby-Aquarianern in den durch Industrieabwässer thermisch belasteten Gillbach ausgesetzten Zebrabuntbarsch Amatitlania nigrofasciata. Unter Berücksichtigung nahrungsökologischer und räumlich-zeitlicher Aspekte sollten die parasitologischen Risiken und Konsequenzen, welche durch das Einschleppen nicht-heimischer Fischarten auftreten, aufgezeigt werden, um übergeordnet die Folgenabschätzung auf dem Gebiet der Invasionsbiologie zu verbessern. Das Nahrungsspektrum beider Fischarten wies sowohl räumliche (zwischen den Flüssen und Standorten), als auch zeitliche (monatlich) Variationen auf, was die Anpassungsfähigkeit bzw. die optimale Nutzung zur Verfügung stehender Ressourcen von invasiven Arten verdeutlicht. Ebenso wurden Unterschiede in der Parasitierung nachgewiesen, was die Notwendigkeit räumlicher und zeitlicher Analysen zur Erfassung der vollständigen Parasitenfauna einer invasiven Art, inklusive aller Variationen der Befallszahlen, unterstreicht. Beide Fischarten bilden zudem Zwischenwirte für heimische, als auch nicht-heimische Parasitenarten, wobei die direkte Einschleppung von nicht-heimischen Parasiten aus dem ursprünglichen Verbreitungsgebiet der Fische auszuschießen ist und somit die Enemy-Release-Hypothese (Verlust ursprünglicher Gegenspieler wie Prädatoren oder Parasiten) unterstützt. Dies könnte zusammen mit der opportunistischen Ernährungsweise ein Grund für die starke Ausbreitung sowie die anhaltend hohen Individuenzahlen dieser Arten im jeweils betrachteten Verbreitungsgebiet (Rhein, Main sowie Gillbach) sein.
Besonders hervorzuheben ist der Nachweis der nicht-heimischen Nematoden Anguillicoloides crassus und Camallanus cotti. Durch die Aufdeckung einer besonderen Form von Hyperparasitismus konnten erstmalig hohe Befallszahlen von A. crassus in N. melanostomus dokumentiert werden. Die hoch abundante Grundelart gilt somit potentiell als entscheidender Überträger des invasiven Parasiten auf den Europäischen Aal. Der durch seine hohe Virulenz in der Aquaristik bekannte C. cotti gelangte durch das Aussetzen von Zierfischen in den Gillbach und trat mit hohen Befallszahlen in A. nigrofasciata auf und wird bereits auf die heimische Fischfauna übertragen (z.B. auf den Gründling Gobio gobio und den Döbel Squalius cephalus). Ebenso ist der starke Befall der heimischen Parasiten Pomphorhynchus sp. (Acanthocephala) und Raphidascaris acus (Nematoda) bei N. melanostomus sowie A. anguillae (Acanthocephala) bei A. nigrofasciata zu nennen. Durch die zusätzliche Wirtfunktion der Neozoen und die hohen Befallsintensitäten ist mit einem verstärkten Spillback-Effekt (Rückinfizierung) auf heimische Fischarten zu rechnen.
Die stetig steigende Anzahl biologischer Invasionen führt zu immer weitreichenderen Veränderungen heimischer Ökosysteme. Für den Erhalt der Biodiversität sowie einhergehender Ökosystemfunktionen rückt auch die Forschung über Neobiota immer mehr in den Mittelpunkt. In diesem Zusammenhang gewinnen auch Pathogene wie Parasiten immer mehr an Bedeutung, welche durch gebietsfremde Arten eingeschleppt werden und die bestehende Biodiversität gefährden können. Die Ergebnisse der durchgeführten Studien haben gezeigt, dass die Verknüpfung von parasitologischen und nahrungsökologischen Untersuchungen Einblicke in die hoch dynamischen Prozesse der Invasionsbiologie geben können, was ein Vorantreiben der Forschung und Folgenabschätzungen auf diesem Gebiet ermöglicht.
Diese Dissertation geht der Frage nach, wie die Literacy-Förderung der Kinder im Kindergartenalter in türkischstämmigen Familien in Deutschland stattfindet. Es wird der Frage nachgegangen, wie sich sozioökonomische und soziokulturelle Verhältnisse der Familien die Literacy-Förderung beeinflussen. Es wurden zwei qualitative Untersuchungen durchgeführt. Im ersten Teil der Arbeit wurden zwölf Mütter anhand halbstrukturierter Interviews befragt. Die Daten wurden anhand der qualitativen Inhaltsanalyse ausgewertet. Im zweiten Teil wurde als nichtteilnehmende, offene Beobachtung der Vorlesesituation durchgeführt. Anhand der Sequenzanalyse wurde die Vorgehensweise der Mütter während des Vorleseprozesses ausgewertet.
Es wurde untersucht, inwieweit der ökonomische Status und das kulturelle Kapital der Eltern für die Literacy-Förderung prägend sind. In den untersuchten Familien sind sowohl die literacy-bezogenen Aktivitäten als auch die Erziehung insgesamt stark an den Normen der Mehrheitsgesellschaft orientiert. Entscheidend sind nicht auf Ethnizität bezogene Zuschreibungen, sondern die sozioökonomische Stellung und das kulturelle Kapital der Eltern bei der Literacy-Förderung in den türkischstämmigen Familien.
Die Untersuchung zeigt im ersten Teil, dass die untersuchten Familien bei der Literacy-Förderung mit zahlreichen Hindernissen konfrontiert sind, die nicht primär ethnisch begründet sind, sondern vielmehr auf sozioökonomische und soziokulturelle Faktoren zurückgeführt werden müssen. Die berufliche Situation und Arbeitsbedingungen der Eltern erschweren die Durchführung der literacy-bezogenen Aktivitäten. Der ökonomische Status und der Bildungsstand sowie das kulturelle Kapital der Eltern ist der Grund für Hindernisse. Das macht sich bemerkbar in drei Gesichtspunkten: (i) Bei der direkten Anregung des Kindes zu Literacy, wenn das Kind zum Schreiben initiiert wird, sein Interesse für Bücher geweckt oder bei alltäglichen Aktivitäten zum Schriftentdecken herangeführt wird. Die Mütter, die über kulturelles Kapital verfügen, führen diese Aktivitäten regelmäßig und effizient durch. (ii) Bei der Gestaltung der Literacy-Umgebung, wenn diese vielfältig gestaltet wird (z.B. die Auswahl elektronischer Medien). Hierbei macht sich der sozioökonomische Status am deutlichsten bemerkbar. (iii) Auch bei der die Vorbildfunktion der Eltern als indirekte Anregung macht sich kulturelles Kapital bemerkbar. Im zweiten Teil der empirischen Untersuchung zur Vorlesesituation sind zwei Handlungsmuster festgestellt worden, die dem Vorleseverhalten der Mütter zugrundeliegen. Dabei ist das kulturelle Kapital entscheidend. Die Mütter mit niedrigem Kulturkapital führen den Vorleseprozess monologisch und einseitig, sodass die Kinder nicht oder nicht hinreichend einbezogen werden. Die Mütter mit höherem Kulturkapital dagegen gestalten den Vorleseprozess dialogisch, sodass das Kind eingebunden wird. Der wichtigste Unterschied zwischen den beiden Handlungsmustern ist die Vermittlung der Erzählung. Im dialogischen Handlungsmuster wird der Vorleseprozess interaktiv gestaltet und die Haupthandlung der Geschichte im Blick behalten. Im monologischen Handlungsmuster aber hoffen die Vorlesenden, dass die Kinder durch bloßes Zuhören die Geschichte begreifen. Hier dominiert die Fokussierung auf die Einzelhandlungen. Während die Mütter höherem Kulturkapital die Vermittlung der Erzählung als ein zu erreichendes Ziel begreifen, tritt dies bei denen mit geringem Kulturkapital in den Hintergrund.
Recently, two of the most common types of bone cancers in children and young adults have been proven to exhibit vulnerability to poly(ADP)-ribose polymerase, (PARP) inhibitors (e.g. olaparib, talazoparib). Ewing’s sarcoma (ES) are reported to harbor a fusion gene EWS-FLI1 (85%), inducing tumorigenesis. Additional, as the fusion gene acts as aberrant transcription factor, it similarly induces elevated PARP expression levels sensitizing ES to PARP inhibition. Second, by an exome sequencing approach in a set of primary osteosarcomas (OS) we identified mutation signatures being reminiscent of BRCA deficiency. Therefore, the sensitivity of a panel of OS cell lines to either talazoparib single treatment or in combination with several chemotherapeutic drugs was investigated.
To screen ES tumor cell lines against PARP inhibitors we applied four different PARP inhibitors (talazoparib, olaparib, niraparib and veliparib) that are frequently being used for clinical studies. We combined those PARP inhibitors with a set of chemotherapeutics (temozolomide (TMZ), SN-38, etoposide, ifosfamide, doxorubicin, vincristine and actinomycin D) that are part of the first-line therapy of ES patients. Here, we demonstrate how PARP inhibitors synergize with TMZ or SN-38 to induce apoptosis, whereas the combination of PARP inhibitors with the other drugs are not favorable. By investigation of key checkpoints in the molecular mechanisms of cell death, the pivotal role of the mitochondrial pathway of apoptosis mediating the synergy between olaparib and TMZ was revealed.
Employing talazoparib monotherapy in combination with or without several chemotherapeutic drugs (TMZ, SN-38, cisplatin, doxorubicin, methotrexate and etoposide/carboplatin), the correlation between homologous recombination (HR) repair deficiency (BRCAness) and the response to talazoparib as prototypical PARP inhibitor was validated in different OS cell lines. By calculation of combination indices (CI) and fraction affected (Fa) values, we identified TMZ as the most potent chemotherapeutic drug in combination with talazoparib inducing the mitochondrial apoptotic pathway in OS.
In our studies of two independent tumor entities with contrary genetic background we identified the combination of PARP inhibitor and TMZ as being most effective. Our studies point out that after TMZ induced DNA methylation and concomitant PARP trapping, DNA damage-imposed checkpoint kinase activation consequently induces G2-cell cycle arrest. Subsequent, PARP inhibitor/TMZ causes MCL-1 degradation, followed by activation of BAK and BAX, succeeding in loss of mitochondrial outer membrane potential (LMMP) and activation of downstream effector-caspases in mitochondrial apoptosis. Our findings emphasize the importance of PARP inhibition in order to chemosensitize ES, which express high PARP levels, or OS that bear features of BRCAness.
Already today modern driver assistance systems contribute more and more to make individual mobility in road traffic safer and more comfortable. For this purpose, modern vehicles are equipped with a multitude of sensors and actuators which perceive, interpret and react to the environment of the vehicle. In order to reach the next set of goals along this path, for example to be able to assist the driver in increasingly complex situations or to reach a higher degree of autonomy of driver assistance systems, a detailed understanding of the vehicle environment and especially of other moving traffic participants is necessary.
It is known that motion information plays a key role for human object recognition [Spelke, 1990]. However, full 3D motion information is mostly not taken into account for Stereo Vision-based object segmentation in literature. In this thesis, novel approaches for motion-based object segmentation of stereo image sequences are proposed from which a generic environmental model is derived that contributes to a more precise analysis and understanding of the respective traffic scene. The aim of the environmental model is to yield a minimal scene description in terms of a few moving objects and stationary background such as houses, crash barriers or parking vehicles. A minimal scene description aggregates as much information as possible and it is characterized by its stability, precision and efficiency.
Instead of dense stereo and optical flow information, the proposed object segmentation builds on the so-called Stixel World, an efficient superpixel-like representation of space-time stereo data. As it turns out this step substantially increases stability of the segmentation and it reduces the computational time by several orders of magnitude, thus enabling real-time automotive use in the first place. Besides the efficient, real-time capable optimization, the object segmentation has to be able to cope with significant noise which is due to the measurement principle of the used stereo camera system. For that reason, in order to obtain an optimal solution under the given extreme conditions, the segmentation task is formulated as a Bayesian optimization problem which allows to incorporate regularizing prior knowledge and redundancies into the object segmentation.
Object segmentation as it is discussed here means unsupervised segmentation since typically the number of objects in the scene and their individual object parameters are not known in advance. This information has to be estimated from the input data as well.
For inference, two approaches with their individual pros and cons are proposed, evaluated and compared. The first approach is based on dynamic programming. The key advantage of this approach is the possibility to take into account non-local priors such as shape or object size information which is impossible or which is prohibitively expensive with more local, conventional graph optimization approaches such as graphcut or belief propagation.
In the first instance, the Dynamic Programming approach is limited to one-dimensional data structures, in this case to the first Stixel row. A possible extension to capture multiple Stixel rows is discussed at the end of this thesis.
Further novel contributions include a special outlier concept to handle gross stereo errors associated with so-called stereo tear-off edges. Additionally, object-object interactions are taken into account by explicitly modeling object occlusions. These extensions prove to be dramatic improvements in practice.
This first approach is compared with a second approach that is based on an alternating optimization of the Stixel segmentation and of the relevant object parameters in an expectation maximization (EM) sense. The labeling step is performed by means of the _−expansion graphcut algorithm, the parameter estimation step is done via one-dimensional sampling and multidimensional gradient descent. By using the Stixel World and due to an efficient implementation, one step of the optimization only takes about one millisecond on a standard single CPU core. To the knowledge of the author, at the time of development there was no faster global optimization in a demonstrator car.
For both approaches, various testing scenarios have been carefully selected and allow to examine the proposed methods thoroughly under different real-world conditions with limited groundtruth at hand. As an additional innovative application, the first approach was successfully implemented in a demonstrator car that drove the so-called Bertha Benz Memorial Route from Mannheim to Pforzheim autonomously in real traffic.
At the end of this thesis, the limits of the proposed systems are discussed and a prospect on possible future work is given.
Die mitochondriale Innenmembran (IM) besteht aus zwei Subkompartimenten. Der
Cristae Membran (CM) und der inneren Grenzmembran (IBM), welche durch die runden und
schlitzartige Strukturen der Christa Junctions (CJs) verbunden werden Der MICOS-Komplex
ist an den CJs lokalisiert und besteht aus mindestens 6 Komponenten, Mic60, Mic27, Mic26,
Mic19, Mic12 und Mic10. Es ist bekannt, dass der MICOS-Komplex essentiell für die Stabilität der CJs ist. Die in dieser Arbeit gezeigten Ergebnisse, geben Aufschluss darüber, wie sich
einzelne MICOS-Komponenten auf die Stabilität von Cristae und CJs im Modellsystem Hefe (S
cerevisiae) auswirken. Zu Beginn dieser Arbeit war zum einen bekannt, dass die MICOSKomponente
Mic60 essentiell für die Bildung von CJs ist. Zum Anderen wurden im Vorfeld
dieser Arbeit Interaktionen von Mic60 mit Proteinen in der mitochondrialen Außenmembran,
vor allem Proteinkomplexe mit ȕ-barrel-Proteinen identifiziert. Diese Interaktionen werden
über den evolutionär, konservierten C-Terminus von Mic60 vermittelt.
ȕ-barrel Proteine besitzen eine charakteristische Peptidsequenz, die ȕ-Sequenz. Diese
dient nach dem Import der ȕ-barrel Proteine in die Mitochondrien als Signalpeptid für den
SAM-/TOB-Komplex, welcher daraufhin die Proteine in die Außenmembran insertiert. In
dieser Arbeit wurde ebenfalls eine ȕ-Sequenz im C-Terminus von Mic60 identifiziert, diese
zeigte einen Einfluss auf die Cristae-Stabilität. Zellen die eine Mic60-Variante mit einer
Deletion oder Punktmutation der ȕ- Domäne exprimieren, zeigten eine reduzierte Anzahl an
CJs. Auch das Verkürzen des C-Terminus von Mic60 hatte diesen Effekt auf die mitochondriale
Ultrastruktur. So konnte gezeigt werden, dass die ȕ-Domäne und die Integrität des C-Terminus
essentiell für die Stabilität von CJs sind.
Der Fokus dieser Arbeit lag in der Charakterisierung der MICOS-Komponenten Mic26
und Mic27. Es konnte bewiesen werden, dass beide Proteine genetisch mit der MICOSKernkomponente
Mic60 interagieren. Die Untersuchung der mitochondrialen Ultrastruktur von
Δmicβ6- und Δmicβ7-Zellen zeigte, dass eine Deletion vom Mic26 keinen Einfluss auf die
Organisation der mitochondrialen Innenmembran hat. Im Gegensatz dazu, ist im Vergleich zum
Wildtyp die Anzahl an CJs in Δmicβ7-Zellen um zwei Drittel reduziert. Auch die
Innenmembranoberfläche ist in diesen Zellen stark vergrößert. Die Untersuchung der
Morphologie der mitochondrialen Innenmembran in Zellen ohne Mic27 durch KryoElektronentomographie
isolierter Mitochondrien, veranschaulichte die Struktur der CJs in
diesen Zellen genauer. Es zeigten sich hier breitere CJs, und der Übergang von der
Cristaemembran in den Bereich der inneren Grenzmembran ist sehr flach und undefiniert. In
Wildtyp-Mitochondrien waren die CJs schmal und schlitzartig und haben einen scharfkantigen
Übergang von der Cristaemembran zur inneren Grenzmembran. Des Weiteren wies die
Cristaemembran in Δmicβ7-Zellen unregelmäßige zackige Strukturelemente auf, was auf eine
Anhäufung an Dimeren der F1FO-ATP Synthase hinweist.
Diese Beobachtungen in den Kryo-Tomogrammen, wurde durch Analysen des sich deutlich weniger höhere Oligomere und vermehrt Dimere. So kann aus diesen Befunden
geschlossen werden, dass Mic27 die Oligomere der F1FO-ATP Synthase stabilisiert.
Um zu untersuchen, wie der MICOS-Komplex mit der F1FO-ATP Synthase in
Verbindung steht, wurde mittels 2D-BNE-Analysen und einem Complexome Profiling die
Komplexierung der nativen Komplexe in Wildtyp- und Δmicβ7-Mitochondrien analysiert. Zum
einen konnte durch diese Untersuchungen gezeigt werden, dass Mic27 neben der F1FO-ATP
Synthase auch stabilisierend auf den MICOS-Komplex wirkt. Die Komplexe im
hochmolekularen Bereich der MICOS-Komponenten zerfielen in Δmicβ7-Zellen, was darauf
hinweist, dass die anderen MICOS-Komponenten hier nicht mehr assemblieren können. Mic10
war die einzige MICOS-Komponente die in Δmicβ7-Zellen noch stabile Komplexe im hohen
Massenbereich ausbildete. Mic10 findet sich zudem nicht nur in Klustern mit anderen MICOSKomponenten
sondern auch mit der F1FO-ATP Synthase.
Die Interaktion von Mic10 und der F1FO-ATP Synthase wurde auch biochemisch,
mittels chemischer Quervernetzern und Ko-Immunpräzipitationsexperimenten bestätigt. Dies
legt nahe, dass Mic10 die CJs mit hoher Wahrscheinlichkeit, durch die Verbindung mit der
F1FO-ATP Synthase, mit der Cristaemembran verbindet und so stabilisiert.
Aufgrund der Erkenntnisse dieser Arbeit konnte ein neuartiges Modell postuliert
werden. Die MICOS-Komponente Mic60 stabilisiert die CJs durch eine Interaktion seines CTerminus
mit Proteinen in der Außenmembran. Mic27 vermittelt über Mic10 die Interaktion
zur F1FO-ATP Synthase. Somit ist diese neu identifizierte Interaktion des MICOS-Komplex zur
F1FO-ATP Synthase essentiell für die Stabilität von CJs ist, indem es den MICOS-Komplex mit
den Oligomeren der F1FO-ATP Synthase verbindet.
Oligomerisierungszustands der F1FO-ATP Synthase in Δmicβ7-Zellen, bestätigt. Hier fanden
sich deutlich weniger höhere Oligomere und vermehrt Dimere. So kann aus diesen Befunden
geschlossen werden, dass Mic27 die Oligomere der F1FO-ATP Synthase stabilisiert.
Um zu untersuchen, wie der MICOS-Komplex mit der F1FO-ATP Synthase in
Verbindung steht, wurde mittels 2D-BNE-Analysen und einem Complexome Profiling die
Komplexierung der nativen Komplexe in Wildtyp- und Δmicβ7-Mitochondrien analysiert. Zum
einen konnte durch diese Untersuchungen gezeigt werden, dass Mic27 neben der F1FO-ATP
Synthase auch stabilisierend auf den MICOS-Komplex wirkt. Die Komplexe im
hochmolekularen Bereich der MICOS-Komponenten zerfielen in Δmicβ7-Zellen, was darauf
hinweist, dass die anderen MICOS-Komponenten hier nicht mehr assemblieren können. Mic10
war die einzige MICOS-Komponente die in Δmicβ7-Zellen noch stabile Komplexe im hohen
Massenbereich ausbildete. Mic10 findet sich zudem nicht nur in Klustern mit anderen MICOSKomponenten
sondern auch mit der F1FO-ATP Synthase.
Die Interaktion von Mic10 und der F1FO-ATP Synthase wurde auch biochemisch,
mittels chemischer Quervernetzern und Ko-Immunpräzipitationsexperimenten bestätigt. Dies
legt nahe, dass Mic10 die CJs mit hoher Wahrscheinlichkeit, durch die Verbindung mit der
F1FO-ATP Synthase, mit der Cristaemembran verbindet und so stabilisiert.
Aufgrund der Erkenntnisse dieser Arbeit konnte ein neuartiges Modell postuliert
werden. Die MICOS-Komponente Mic60 stabilisiert die CJs durch eine Interaktion seines CTerminus
mit Proteinen in der Außenmembran. Mic27 vermittelt über Mic10 die Interaktion
zur F1FO-ATP Synthase. Somit ist diese neu identifizierte Interaktion des MICOS-Komplex zur
F1FO-ATP Synthase essentiell für die Stabilität von CJs ist, indem es den MICOS-Komplex mit
den Oligomeren der F1FO-ATP Synthase verbindet.
Die mitochondriale Innenmembran (IM) besteht aus zwei Subkompartimenten. Der Cristae Membran (CM) und der inneren Grenzmembran (IBM), welche durch die runden und schlitzartige Strukturen der Christa Junctions (CJs) verbunden werden Der MICOS-Komplex ist an den CJs lokalisiert und besteht aus mindestens 6 Komponenten, Mic60, Mic27, Mic26, Mic19, Mic12 und Mic10. Es ist bekannt, dass der MICOS-Komplex essentiell für die Stabilität der CJs ist. Die in dieser Arbeit gezeigten Ergebnisse, geben Aufschluss darüber, wie sich einzelne MICOS-Komponenten auf die Stabilität von Cristae und CJs im Modellsystem Hefe (S cerevisiae) auswirken. Zu Beginn dieser Arbeit war zum einen bekannt, dass die MICOS-Komponente Mic60 essentiell für die Bildung von CJs ist. Zum Anderen wurden im Vorfeld dieser Arbeit Interaktionen von Mic60 mit Proteinen in der mitochondrialen Außenmembran, vor allem Proteinkomplexe mit β-barrel-Proteinen identifiziert. Diese Interaktionen werden über den evolutionär, konservierten C-Terminus von Mic60 vermittelt.
β-barrel Proteine besitzen eine charakteristische Peptidsequenz, die β-Sequenz. Diese dient nach dem Import der β-barrel Proteine in die Mitochondrien als Signalpeptid für den SAM-/TOB-Komplex, welcher daraufhin die Proteine in die Außenmembran insertiert. In dieser Arbeit wurde ebenfalls eine β-Sequenz im C-Terminus von Mic60 identifiziert, diese zeigte einen Einfluss auf die Cristae-Stabilität. Zellen die eine Mic60-Variante mit einer Deletion oder Punktmutation der β- Domäne exprimieren, zeigten eine reduzierte Anzahl an CJs. Auch das Verkürzen des C-Terminus von Mic60 hatte diesen Effekt auf die mitochondriale Ultrastruktur. So konnte gezeigt werden, dass die β-Domäne und die Integrität des C-Terminus essentiell für die Stabilität von CJs sind.
Der Fokus dieser Arbeit lag in der Charakterisierung der MICOS-Komponenten Mic26 und Mic27. Es konnte bewiesen werden, dass beide Proteine genetisch mit der MICOS-Kernkomponente Mic60 interagieren. Die Untersuchung der mitochondrialen Ultrastruktur von Δmic26- und Δmic27-Zellen zeigte, dass eine Deletion vom Mic26 keinen Einfluss auf die Organisation der mitochondrialen Innenmembran hat. Im Gegensatz dazu, ist im Vergleich zum Wildtyp die Anzahl an CJs in Δmic27-Zellen um zwei Drittel reduziert. Auch die Innenmembranoberfläche ist in diesen Zellen stark vergrößert. Die Untersuchung der Morphologie der mitochondrialen Innenmembran in Zellen ohne Mic27 durch Kryo-Elektronentomographie isolierter Mitochondrien, veranschaulichte die Struktur der CJs in diesen Zellen genauer. Es zeigten sich hier breitere CJs, und der Übergang von der Cristaemembran in den Bereich der inneren Grenzmembran ist sehr flach und undefiniert. In Wildtyp-Mitochondrien waren die CJs schmal und schlitzartig und haben einen scharfkantigen Übergang von der Cristaemembran zur inneren Grenzmembran. Des Weiteren wies die Cristaemembran in Δmic27-Zellen unregelmäßige zackige Strukturelemente auf, was auf eine Anhäufung an Dimeren der F1FO-ATP Synthase hinweist.
Diese Beobachtungen in den Kryo-Tomogrammen, wurde durch Analysen des Oligomerisierungszustands der F1FO-ATP Synthase in Δmic27-Zellen, bestätigt. Hier fanden sich deutlich weniger höhere Oligomere und vermehrt Dimere. So kann aus diesen Befunden geschlossen werden, dass Mic27 die Oligomere der F1FO-ATP Synthase stabilisiert.
Um zu untersuchen, wie der MICOS-Komplex mit der F1FO-ATP Synthase in Verbindung steht, wurde mittels 2D-BNE-Analysen und einem Complexome Profiling die Komplexierung der nativen Komplexe in Wildtyp- und Δmic27-Mitochondrien analysiert. Zum einen konnte durch diese Untersuchungen gezeigt werden, dass Mic27 neben der F1FO-ATP Synthase auch stabilisierend auf den MICOS-Komplex wirkt. Die Komplexe im hochmolekularen Bereich der MICOS-Komponenten zerfielen in Δmic27-Zellen, was darauf hinweist, dass die anderen MICOS-Komponenten hier nicht mehr assemblieren können. Mic10 war die einzige MICOS-Komponente die in Δmic27-Zellen noch stabile Komplexe im hohen Massenbereich ausbildete. Mic10 findet sich zudem nicht nur in Klustern mit anderen MICOS-Komponenten sondern auch mit der F1FO-ATP Synthase.
Die Interaktion von Mic10 und der F1FO-ATP Synthase wurde auch biochemisch, mittels chemischer Quervernetzern und Ko-Immunpräzipitationsexperimenten bestätigt. Dies legt nahe, dass Mic10 die CJs mit hoher Wahrscheinlichkeit, durch die Verbindung mit der F1FO-ATP Synthase, mit der Cristaemembran verbindet und so stabilisiert.
Aufgrund der Erkenntnisse dieser Arbeit konnte ein neuartiges Modell postuliert werden. Die MICOS-Komponente Mic60 stabilisiert die CJs durch eine Interaktion seines C-Terminus mit Proteinen in der Außenmembran. Mic27 vermittelt über Mic10 die Interaktion zur F1FO-ATP Synthase. Somit ist diese neu identifizierte Interaktion des MICOS-Komplex zur F1FO-ATP Synthase essentiell für die Stabilität von CJs ist, indem es den MICOS-Komplex mit den Oligomeren der F1FO-ATP Synthase verbindet.
Um die Funktionsweise von biologischen Prozessen zu untersuchen, werden Trigger-Signale benötigt, die die Prozesse initiieren können, ohne dabei dem Organismus zu schaden oder Nebenreaktionen hervorzurufen. Ein geeignetes Trigger-Signal stellt Licht dar, da es bei geeigneter Wellenlänge nichtinvasiv ist und nur wenige biologische Prozesse durch Licht gesteuert werden. Um einen Prozess mit Licht aktivierbar zu machen, benötigt man eine lichtsensitive Einheit, beispielsweise eine photolabile Schutzgruppe, die durch die Bestrahlung mit Licht einen zuvor blockierten Bereich freisetzt.
Hauptziel dieser Arbeit war es die Zweiphotonen-Technik für die Photolyse von photolabil geschützten Oligonukleotiden nutzbar zu machen und das Photolyseergebnis zu visualisieren.
Dazu wurden zunächst verschiedene mit Zweiphotonen-sensitiven Schutzgruppen modifizierte Phosphoramidite synthetisiert und über Festphasensynthese in Oligonukleotide eingebaut. Die Oligonukleotide mit den erstmals neu eingebauten Schutzgruppen ANBP und hNDBF wurden zunächst auf ihre Einphotonen-Eigenschaften, wie Schmelzpunkt, Absorptionsverhalten und Quantenausbeute untersucht. Weiterhin wurden erste Versuche zur wellenlängenselektiven Photolyse von hNDBF- und ANBP-geschützten Oligonukleotiden durchgeführt.
Die Existenz eines Zweiphotonen-induzierten Effekts kann durch die quadratische Abhängigkeit des erzeugten Effekts von der eingestrahlten Leistung nachgewiesen werden. Dazu wurde ein Verdrängungs-Assay entwickelt, dessen Doppelstrang-Sonde aus einem FRET-Paar besteht. Der Fluorophor-markierte Strang dient dabei als Gegenstrang zum photolabil geschützten Strang. Durch einen Thiol-Linker am photolabil geschützten Oligonukleotid konnte dieses erfolgreich in Maleimid-Hydrogele immobilisiert werden und der Verdrängungs-Assay im Gel durchgeführt werden. Die immobilisierten Stränge enthielten DEACM bzw. ANBP Schutzgruppen. Neben der quadratischen Abhängigkeit der Photolyse von der eingestrahlten Leistung konnten in diesen Hydrogelen auch 3D-aufgelöste Photolysen realisiert werden, die eindeutig die Zwei-Photonen-Photolyse belegen. Diese 3D-Experimente wurden zusammen mit Dr. Stephan Junek am MPI für Hirnforschung durchgeführt. Durch die Wahl zweier unterschiedlicher Sequenzen für die dTDEACM und dGANBP modifizierten Stränge und zwei unterschiedlicher Fluorophore für die Doppelstrang-Sonden, konnte die orthogonale Zweiphotonen-Photolyse gezeigt werden. Um zu zeigen, dass die Zweiphotonen-Photolyse von Oligonukleotiden auch in Organismen realisiert werden kann ohne das biologische System zu schädigen, wurde versucht den Verdrängungs-Assay auch in Zellen durchzuführen. Durch die Verwendung der Patch-Clamp-Technik in Zusammenarbeit mit Dr. Stephan Junek am MPI für Hirnforschung konnten die Stränge über die Elektrolyt-Lösung in Hippocampus-Neuronen eingebracht werden und durch Zweiphotonen-Bestrahlung dort photolysiert werden, was zu einem deutlichen Fluoreszenzanstieg führte. Durch die angeschlossene Patch-Clamp-Pipette konnten so zusätzlich elektrophysiologische Messungen durchgeführt werden, die zeigten, dass die durchgeführte Zweiphotonen-Bestrahlung nicht invasiv für die Zellen ist.
Die durchgeführten Experimente beweisen, dass Zweiphotonen-sensitive Schutzgruppen auf Oligonukleotiden photolysiert werden können und dass ihr Einsatz auch in biologischen Systemen möglich ist. Der entwickelte Verdrängungs-Assay ermöglicht es weiterhin neue photolabile Schutzgruppen auf Oligonukleotiden auf ihre Zweiphotonen-Sensitivität zu untersuchen.
Ein weiteres Projekt beschäftigte sich mit der Synthese der neuen Schutzgruppe DMA-NDBF-OH, die in-silico von der Arbeitsgruppe von Prof. Andreas Dreuw aus Heidelberg als effiziente Zweiphotonen-sensitive Schutzgruppe beschrieben wird. Es wurde versucht DMA-NDBF-OH über zwei Syntheserouten herzustellen. Eine Route basierte auf der Einführung der Funktionalitäten an einem unmodifizierten Dibenzofuran, die leider an der Bromierung der Seitenkette scheiterte. Die zweite Syntheseroute wurde in Anlehnung an die NDBF-Synthese von Deiters et al., bei der das Dibenzofuran durch eine Kondensation zweier modifizierter Benzolringe und einem Pd-katalysierten Ringschluss aufgebaut wird, durchgeführt. Mit dieser Syntheseroute konnte das DMA-NDBF-OH erfolgreich synthetisiert werden. Aufgrund ihrer starken bathochromen Verschiebung sollte sich diese Schutzgruppe hervorragend für die wellenlängenselektive Photolyse auf Ein- und Zweiphotonenebene eignen.
Fettsäuresynthasen vom Typ I (FAS I), hier bezeichnet als Fettsäuremegasynthasen,sind Multienzymkomplexe, in denen sämtliche funktionellen Domänen für die de-novo-Synthese von Fettsäuren einen strukturellen Verbund eingehen. Auch das für den Transport von Edukten und Intermediaten nötige Acyl Carrier Protein (ACP) ist kovalent gebundener Teil dieses Komplexes, der so zu einer hocheffizienten molekularen Maschine zur Massenproduktion dieser grundlegend essentiellen Zellbausteine wird. Die FAS I aus Pilzen (fFAS), als Gegenstand dieser Arbeit, mit einer Masse von bis zu 2,7 MDa ist heute in ihrer Struktur durch Röntgenkristallographische sowie elektronenmikroskopische Methoden gut charakterisiert. 48 funktionelle Domänen sind zu einem geschlossenen Reaktionskörper angeordnet, indem sie in einer strukturgebenden Matrix aus Expansionen und Insertionen bzgl. der enzymatischen Kerndomänen eingebettet sind, die 50% des gesamten Proteins ausmacht. Neben den zahlreichen strukturellen Informationen über fFAS ist jedoch noch wenig über ihre Assemblierung verstanden. Dabei ist sie nicht nur als ein Beispiel für das generelle Verständnis von Assemblierungsmechanismen von Multienzymkomplexen interessant, sondern wird hier auch als Ziel eines inhibitorischen Eingriffs betrachtet, um eine neue antimykotische Wirkstrategie abseits des Ausschaltens aktiver Zentren zu evaluieren. Nur wenn die Mechanismen und Wechselwirkungen im Assemblierungsprozess offen gelegt sind, lassen sie sich später gezielt attackieren. Essentielle Sekundärstrukturmotive müssen identifiziert und bewertet werden, um sie einer weiteren Evaluation als Drug-Target-Kandidaten zugänglich zu machen. In dieser Arbeit werden Resultate aus in-vivo-Experimenten an rational mutierten fFAS-Konstrukten unter Zuhilfenahme einer evolutionären Betrachtung der fFAS gemeinsam mit Erkenntnissen aus andernorts geleisteten in-vitro-Experimenten an fFAS-Fragmenten zu einem geordneten Assemblierungsweg der fFAS zusammengeführt. Dabei werden Evidenzen aus den Kausaltäten zentraler Anforderungen an einen Assemblierungsmechanismus der fFAS zu drei konsequenten Schlüsselschritten verdichtet, die (i) eine frühe Interaktion zweier komplementärer Polypeptidketten zu einer Pseudo-Einzelkette, (ii) eine posttranslationale Modifikation von ACP und (iii) die geordnete Reifung zum fertigen Komplex durch Selbstassemblierung der beteiligten Domänen umfassen. Durch rationale Mutationen an den Schnittstellenmotiven für die Pseudo-Einzelkettenbildung, werden diese als Schwachstelle der Assemblierung unterschiedlicher fFAS-Typen charakterisiert, wobei für S. cerevisiae nicht weniger als zwei gezielte Punktmutationen ausreichen, um die Assemblierung des gesamten Komplexes zu verhindern. Darüber hinaus zeigen Experimente mit fFAS-Konstrukten, deren Schnittstellenmotive einer intramolekular kompetitiven Wechselwirkung ausgesetzt sind, prinzipiell die Möglichkeit zur Inhibierung der fFAS-Assemblierung durch Störung der Pseudo-Einzelkettenbildung.
In den vergangen Jahren wurde erkannt, dass eine Quantenfeldtheorie (QFT) namens Quantenchromodynamik (QCD) die richtige Theorie der starken Wechselwirkungen ist. QCD beschreibt erfolgreich die starken Wechselwirkungen, die Quarks zu Nukleonen und Nukleonen zu Atomkernen zusammenbinden. Jedoch ist die theoretische Beschreibung vieler Phänomene der starken Wechselwirkung aufgrund des starken Kopplungsverhaltens bei niedrigen Energien schwierig. Stoßexperimente mit Schwerionen sind ein möglicher Weg, um die charakteristischen Phänomene und Eigenschaften der QCD-Materie zu untersuchen. In Stoßexperimenten mit Schwerionen werden schwere (d.h. große) Atomkerne aufeinander geschossen, beispielsweise Gold (am RHIC) oder Blei (am CERN, LHC), mit einer ultrarelativistischen Energie √s im Schwerpunktsystem. Auf diese Art ist es möglich, eine große Menge von Materie mit hoher Energiedichte hervorzubringen. Das Ziel von Schwerionenkollisionen ist die Erzeugung und Charakterisierung einer makroskopischen Phase von freien Quarks und Gluonen im lokalen thermischen Gleichgewicht. Ein solcher Aggregatzustand kann neue Informationen über das QCD-Phasendiagramm und den QCD-Phasenübergang liefern. Man nimmt an, dass ein solcher Übergang stattfand, als sich die Materie des frühen Universums von einem Plasma aus Quarks und Gluonen (QGP) in ein Gas von Hadronen umwandelte...
The constantly increasing memory density and performance of recent Field Programmable Gate Arrays (FPGA) has boosted a usage in many technical applications such as particle accelerators, automotive industry as well as defense and space. Some of these fields of interest are characterized by the presence of ionizing radiation as caused by natural decay or artificial excitation processes. Unfortunately, this type of radiation affects various digital circuits, including transistors forming Static Random Access Memory (SRAM) storage cells that constitute the technology node for high performance FPGAs. Various digital misbehavior in temporal or permanent manner as well as physical destruction of transistors are the consequence. Therefore, the mitigation of such effects becomes an essential design rule when using SRAM FPGAs in ionizing radiation environments. Tolerance against soft errors can be handled across various layers of modern FPGA design, starting with the most basic silicon manufacturing process, towards configuration, firmware, and system design, until finally ending up with application and software engineering. But only a highly optimized, joint concept of system-wide fault tolerance provides sufficient resilience against ionizing radiation effects without losing too much valuable device resources to the safety approach. This concept is introduced, analyzed, improved and validated in the present work. It includes, but is not limited to, static configuration scrubbing, various firmware redundancy approaches, dynamic memory conservation as well as state machine protection. Guidelines are given to improve manual design practices concerning fault tolerance and tools are shown to reduce necessary efforts. Finally, the SysCore development platform has been maintained to support the recommended design methods and act as Device Under Test (DUT) for all particle irradiation experiments that prove the efficiency of the proposed concept of system-wide fault tolerance for SRAM FPGAs in ionizing radiation environments.
In etwa 40% der Fälle erleiden Patienten bei einem Polytrauma eine Verletzung des Thorax. Diese Patienten haben im Verlau ein erhöhtes Pneumonierisiko, eine längere Beatmungs-, Intensiv- und Krankenhausverweildauer sowie ein erhöhtes Letalitätsrisiko. Um eine optimierte Versorgung dieser Patienten zu erreichen wurde seit 2003 im Universitätsklinikum Frankfurt ein standardisiertes Behandlungsverfahren durchgeführt und über die Jahre weiterentwickelt. Grundlage dieses Konzepts ist die Behandlung des Patienten mittels kinetischer Therapie im Rotorest®Bett sowie den drei Kern-Maßnahmen: Beatmung mit einem PEEP von 15mbar, frühzeitige assistierte Spontanatmung und frühzeitige enterale Ernährung. Ziel der Arbeit war die Weiterentwicklung des Behandlungsstandards wissenschaftlich unter besonderem Fokus auf die Entwicklung einer Pneumonie aufzuarbeiten. Das Konzept sah 2003 eine Beatmung, mit einem an die Oxygenierung adaptierten PEEP vor. Die Dauer der Therapie im Rotorest®Bett wurde nach Klinik entschieden. 2006 wurde standardmäßig die Therapie im Rotorest®Bett für mindestens 72h mit einem PEEP von 15mbar durchgeführt. Eine assistierte Beatmungsform sollte zeitnah etabliert werden. Im Jahr 2009, wurde das Behandlungsschema verkürzt, die Therapiedauer mit einem PEEP von 15mbar wurde auf 40 bis 48 Stunden reduziert sowie der PEEP danach initial um 4mbar reduziert. Im Anschluss erfolgte alle 8 Stunden eine weitere Reduktion des PEEP um 2mbar. Weiterhin wurde in diesem Zeitraum auf eine Antiinfektivaprophylaxe verzichtet. 108 Patienten (61,7%; ISS 37±13 Punkte) konnten in diese retrospektive Studie eingeschlossen werden. 38,3% der Patienten mussten ausgeschlossen werden, einerseits auf Grund fehlender Krankenakten oder anderseits auf Grund des Beginns der Therapie im RotoRest®Bett erst nach >48h. Durch die Anpassung des Therapiestandards über die Jahre reduzierte sich die Beatmungszeit von 17±15 Tage auf 8±8 Tage (p<0,001), die Verweildauer auf ITS von 17±9 auf 10±9 Tage (p<0,001), während die Krankenhausverweildauer unverändert blieb. Dies war begleitet von einer Reduktion der Therapiedauer im Rotorest®Bett von im Median 5 auf 3 Tage (p=0,017) sowie einer Reduktion des Anteils an Patienten mit mandatorischer Beatmung in den ersten drei Behandlungstagen von 87% (95% CI 78-96%) im Jahr 2003 auf 38,6% (95% CI 29-49%) im Jahr 2009. Die Rate an Pneumonien konnte von 25% in 2003 über 37% in 2006 auf 17% in 2009 gesenkt werden, der Unterschied war jedoch nicht signifikant. Das Risiko zu versterben war bei Entwicklung einer Pneumonie signifikant erhöht (24% vs. 4,5%, p=0,006). In der univariaten Analyse waren relevante Faktoren für die Entwicklung einer Pneumonie ein höheres Alter der Patienten (48 Jahre vs. 36 Jahre; p = 0,018), die zunehmende Höhe des Beatmungsspitzendruckes (p<0,01) sowie der Hämoglobinwert bei Aufnahme (Rs -0,28; p=0,004). Umgekehrt war eine Transfusion von Blutprodukten am ersten Behandlungstag mit einem erhöhten Pneumonierisiko verbunden (p<0,05), dies galt auch für die Verabreichung der einzelnen Komponenten, EKs (p=0,027), FFP (p=0,037) sowie von TKs (p=0,046). Keine signifikante Korrelation zur Entwicklung einer Pneumonie hatte die Verletzungsschwere (ISS) sowie die Höhe des PEEP oder der Grad der Oxygenierungsstörung (paO2/FiO2) in den ersten fünf Behandlungstagen. In der multivariaten Analyse, mit der Entwicklung einer Pneumonie als abhängigen Faktor, adjustiert auf ISS und Alter der Patienten zeigte sich als unabhängige Risikofaktoren die Gabe von EKs (OR 3,646 95%CI 1,074-12,383), die Ernährung mit >5000kcal in den ersten fünf Behandlungstagen (OR 3,219 95%CI 1,033-10,034) sowie die Höhe des Beatmungsspitzendruckes (OR 1,135 95%CI 1,010-1,275).
In Zusammenschau war ein primärer Erfolg des Konzeptes, dass kein Patient im Verlauf ein moderates oder schweres ARDS entwickelt hat. Es konnte durch die Anpassung des Behandlungsstandards sowohl die Beatmungszeit als auch die Verweildauer auf der ITS signifikant reduziert werden. Auch die Pneumonierate konnte nach einem Anstieg im Jahr 2006 bis 2009 deutlich reduziert werden. Als Risikofaktoren für die Entwicklung einer Pneumonie zeigten sich aus der Literatur bekannte Parameter wie das Alter der Patienten und die Invasivität der Beatmung sowie die Transfusion von Blutprodukten. In der multivariaten Analyse bestätigte sich dies für die Gabe von EKs, die Invasivität der Beatmung sowie der Ernährung mit kumulativ > 5000 kcal in den ersten fünf Tagen.
Patienten, die mit dem in dieser Arbeit beschrieben Protokoll behandelt wurden, zeigten aber kein signifikant erhöhtes Pneumonierisiko in Abhängigkeit zur Verletzungsschwere als Polytrauma (ISS) oder zum Grad der Oxygenierungsstörung in den ersten Tagen.
In this thesis we explore the characteristics of strongly interacting matter, described by Quantum Chromodynamics (QCD). In particular, we investigate the properties of QCD at extreme densities, a region yet to be explored by first principle methods. We base the study on lattice gauge theory with Wilson fermions in the strong coupling, heavy quark regime. We expand the lattice action around this limit, and carry out analytic integrals over the gauge links to obtain an effective, dimensionally reduced, theory of Polyakov loop interactions.
The 3D effective theory suffers only from a mild sign problem, and we briefly outline how it can be simulated using either Monte Carlo techniques with reweighting, or the Complex Langevin flow. We then continue to the main topic of the thesis, namely the analytic treatment of the effective theory. We introduce the linked cluster expansion, a method ideal for studying thermodynamic expansions. The complex nature of the effective theory action requires the development of a generalisation of the linked cluster expansion. We find a mapping between generalised linked cluster expansion and our effective theory, and use this to compute the thermodynamic quantities.
Lastly, various resummation techniques are explored, and a chain resummation is implemented on the level of the effective theory itself. The resummed effective theory describes not only nearest neighbour, next to nearest neighbour, and so on, interactions, but couplings at all distances, making it well suited for describing macroscopic effects. We compute the equation of state for cold and dense heavy QCD, and find a correspondence with that of non-relativistic free fermions, indicating a shift of the dynamics in the continuum.
We conclude this thesis by presenting two possible extensions to new physics using the techniques outlined within. First is the application of the effective theory in the large-$N_c$ limit, of particular interest to the study of conformal field theory. Second is the computation of analytic Yang Lee zeros, which can be applied in the search for real phase transitions.
Die Dissertation greift das innerhalb der Verkehrs- und Mobilitätsforschung populär diskutierte Thema rund um einen Übergang von der automobilen hin zur multimodalen Gesellschaft auf. Mit Blick auf den individuellen Mobilitätsalltag geht es in dieser Diskussion um eine mögliche Abwendung von der tendenziell exklusiven Autonutzung für alle Wege hin zur flexiblen Nutzung unterschiedlicher Verkehrsmittel. Dabei wird der übergeordneten Frage nachgegangen, inwiefern sich ein potentieller Übergang in individuellen Voraussetzungen für multimodales Verhalten widerspiegelt. Ausgang ist die Annahme, dass multimodales Verhalten stets von einer materiellen und mentalen Multioptionalität bei den Verkehrsteilnehmenden abhängt, d.h. einerseits dem ‚materiellen‘ Zugang zu mehreren Mobilitätsressourcen (Führerschein, Auto, ÖV-Zeitkarte, Fahrrad usw.) und andererseits eine ‚mentale‘ Offenheit gegenüber der Nutzung mehrerer Verkehrsmittel. Zur Überprüfung dieser These wurde im Frühjahr 2013 in Kooperation mit der sozialwissenschaftlichen und ökologischen Begleitforschung der Allianz Elektromobilität Rhein-Main eine Personenbefragung in der Großstadt Offenbach a.M. (rd. 115.000 EW) durchgeführt, bei der insgesamt 620 Personen zu ihrem Mobilitätsverhalten sowie ihren materiellen und mentalen Mobilitätsoptionen befragt wurden. Die Auswertungen ermöglichen die Aufstellung einer Reihe von neuen Thesen, mit denen der potentielle Übergang hin zur multimodalen Gesellschaft kritischer eingeordnet werden muss.
The ability of endothelial cells to properly adapt to changes in a dynamic blood perfused environment is essential to maintain the physiological function of the vascular system and of the organs. Epigenetic control of gene expression is believed to be the mechanism controlling cell-fate determination and cell-phenotype maintenance. In the thesis, two JmjC demethylases were screened for their function in endothelial biology. Both of them were proved to play a central role in angiogenesis.
The histone 3 lysine 4 demethylase JARID1B was identified as the most highly expressed demethylase in endothelial cell. Knockdown of JARID1B in human umbilical vein endothelial cells (HUVEC) attenuated cell migration, angiogenic sprouting and tube formation. Jarid1b null mice exhibited attenuated retinal angiogenesis and reduced endothelial sprout outgrowth from aortic segments. Microarray data identified that the antiangiogenic transcription factor HOXA5 was suppressed by JARID1B. Consistently, chromatin immunoprecipitation experiment revealed that JARID1B occupies and reduces the histone 3 lysine 4 methylation levels at the HOXA5 promoter, demonstrating a direct function of JARID1B in endothelial HOXA5 gene regulation. Hence, as a highly expressed JmjC protein in endothelial cells, JARID1B fundamentally maintains endothelial angiogenic phenotypes perhaps through suppression of HOXA5.
As second enzyme it was identified that the histone plant homeodomain finger protein 8 (PHF8) plays a role in endothelial angiogenic sprouting as well as tube formation and cell migration. Overexpression of PHF8 catalyzed the removal of methyl-groups from histone 3 lysine 9 (H3K9) and H4K20, whereas knockdown of the enzyme increased H3K9 methylation. Knockdown of PHF8 by RNAi also attenuated endothelial proliferation and survival. To characterize the underlying mechanism, E2F transcription factors were screened, which led to the identification of the gene repressor E2F4 to be controlled by PHF8. Importantly, PHF8 maintains E2F4, but not E2F1, expression in endothelial cells. Likewise, chromatin immunoprecipitation revealed that PHF8 reduces the H3K9me2 level at the E2F4 transcriptional start site, demonstrating a direct function of PHF8 in endothelial E2F4 gene regulation. Thus, it is proposed that PHF8 maintains endothelial function by controlling E2F4 expression. On the other hand, microarray and subsequent qPCR validation revealed that the expressions of small nuclear RNAs (snRNAs) were regulated by PHF8. Co-immunoprecipitation experiment demonstrated that PHF8 interacts with spliceosome related proteins SNRP70 and SRPK1 as well as snRNA. Indeed, PHF8 contributed to splicing: GLS and VEGF-A displayed alternative splicing in PHF8 depleted cells. In addition, c-FOS introns were showed to be retained after knockdown of PHF8 in endothelial cells. These results demonstrated that, by controlling angiogenic mRNA splicing, PHF8 could affect endothelial properties.
Collectively, the results uncover the important roles of JARID1B and PHF8 in endothelial cells in the control of angiogenesis. Changing histone modifiers appears as an attractive concept for pro- and antiangiogenic therapy. The present work adds JARID1B and PHF8 as novel potential targets to this emerging field.
The high selectivity of biological transformations taking place in Nature have long inspired synthetic chemists to develop analogous chemical processes. Similarly, transient intermediates identified in chemical transformations often provide a basis to understand biological processes. Therefore, new insights gained in biological studies are often useful for chemistry and vice versa.
Proteins, and catalytically active enzymes, are among the most essential units of living cells. Metalloproteins or -enzymes, i.e., proteins or enzymes that contain transition metal ions such as copper, nickel, iron or zinc are often involved in processes like (1) metal-ion storage and transport, (2) exchange of electrons with the environment in catalysis and electron transfer reactions, and (3) dioxygen storage, transport, and metabolization.
For decades, copper-mediated biological oxidations have spurred a great deal of interest among synthetic and catalytic chemists. Copper enzymes such as dopamine β-monooxygenase (DβM), peptidylglycine α-hydroxylating monooxygenase (PHM),particulate methane monooxygenase (pMMO) and tyrosinase activate molecular oxygen (O2) and incorporate one of the oxygen atoms selectively into C−H bonds yielding hydroxylated organic substrates. Remarkable progress in bioinorganic research has led to the development of a large number of copper-based model systems supported by various nitrogen donor ligands that bind O2, cleave the O−O bond, and/or afford hydroxylation reactions similar to copper enzymes. These synthetic model systems have helped to understand the structureactivity relationships of their biological role models and supporting theoretical studies have contributed substantially to the development of the field. Specifically, several density functional theory (DFT) studies have provided detailed mechanistic insights into coppermediated aliphatic and aromatic hydroxylation reactions. Until to date, however, pertinent quantum chemical research still suffers from severe problems as to identify sufficiently accurate and efficient methods for mechanistic studies, and conflicting literature reports have created confusions within the scientific community. Therefore, the first aim of this thesis is to identify a DFT method well suited to describe copper-mediated hydroxylation reactions. With this method at hand a number of interesting hydroxylation reactions is investigated aiming at a detailed understanding of the underlying reaction mechanisms.
The thesis is divided into four chapters of which the first, the introductory chapter, is further divided into three sections (1) copper proteins and enzymes, (2) copper-O2 reactivity in enzymes and (3) biomimetic Cu/O2 chemistry. The first section gives a brief overview of a number of copper enzymes. The second section provides a concise introduction to the biochemical transformations brought about by those copper enzymes that perform aliphatic and aromatic hydroxylation reactions. It is shown that such copper enzymes carry different types of active sites which are responsible for their specific biological functions. These copper enzymes with their biological function are the role models for synthetic chemistry. In the third section, biomimetic Cu/O2 chemistry, the insights gathered in the past 35 years of extensive research on copper-based synthetic model systems that mimic various aspects of copper-enzyme reactivity are reviewed. Various types of active copper sites have been realized in these synthetic model systems and a brief introduction to the respective reactivities towards C−H bonds is presented. We will specifically focus on isomerization processes of dinuclear active Cu2O2 sites and the specific reactivity aspects of these isomers, as these phenomena have been the subject of enormous research efforts aiming at the understanding of the function of the enzyme tyrosinase.
Theory has been integral part of this research and density functional theory (DFT) has effectively taken over the role as a working horse in most studies. Therefore, the second chapter is devoted to an exposition of earlier DFT applications in mechanistic studies of Cu/O2 chemistry. We specifically highlight the problems related to the use of DFT in this field and illustrate the present state of knowledge.
The third chapter of this thesis provides results and discussion of (1) DFT benchmark studies and (2) mechanistic studies. In the first section, the results of a careful benchmark study on the performance of various DFT methods to study the μ-η2:η2-peroxodicopper(II)/bis(μ-oxo)dicopper(III) core isomerization and the C–H hydroxylation processes are compared with available experimental reference data. We provide an assessment of the effects of relativity, counteranions, and dispersion on the reference reactions. The most suitable DFT method evolving from this study, BLYP-D/def2-TZVP including solvent and relativistic corrections, is applied in the next sections to investigate the mechanistic scenario underlying three copper-dioxygen mediated hydroxylation reactions of aliphatic and aromatic C–H bonds. Our mechanistic studies show that bis(μ-oxo)dicopper(III) complexes are capable of achieving selective aliphatic and aromatic C–H hydroxylations. The study of substituent effects in these reactions has further shown that the bis(μ-oxo)dicopper complex acts as an electrophile in hydroxylation.
The fourth chapter presents the conclusions of our investigations. Part of the work presented in this thesis has been published in a peer reviewed journal and enclosed in appendix 1. Further research work, not presented in chapters 1-4, was conducted during my PhD time. This has led to two publications which are added in the appendix.
The term superconductivity describes the phenomenon of vanishing electrical resistivity in a certain material, then called a superconductor, below a critical typically very low temperature. Since the discovery of superconductivity in mercury in 1911 many other superconductors have been found and the critical temperature below which superconductivity occurs could recently be raised to the temperatures encountered in a cold antarctic winter.
Superconductors are promising materials for applications. They can serve as nearly loss-free cables for energy transmission, in coils for the generation of high magnetic fields or in various electronic devices, such as detectors for magnetic fields. Despite their obvious advantages, the cost for using superconductors, however, depends a lot on the cooling effort needed to realize the superconducting state. Therefore, the search for a superconductor with critical temperature above room-temperature, which would avoid the need for any specialized cooling system, is one of the main projects of contemporary research in condensed matter physics.
While a theory of superconductivity in simple metals has already been developed in the 1950s, it has meanwhile been recognized that many superconductors are unconventional in the sense that their behavior does not follow the aforementioned theory. Unconventional superconductors differ from conventional superconductors mainly by the momentum- and real-space symmetry of the order parameter, which is associated with the superconducting state. While conventional superconductors have a uniform order parameter, unconventional superconductors can have an order parameter that bears structure. Of course, alternative theoretical descriptions have been suggested, but the discussion on the right theory for unconventional superconductivity has not yet been settled. Ultimately, this lack of a general theory of superconductivity prevents a targeted search for the room-temperature superconductor. Any new theoretical approach must, however, prove its value by correctly predicting the structure of the superconducting order parameter and further material properties.
In this work we participate in the search for a theory of unconventional superconductivity. We discuss the theory of superconductivity mediated by electron-electron interactions, which has been popular in the last few decades due to its success in explaining various properties of the copper-based superconductors that emerged in the 1980s. We give a detailed derivation of the so-called random phase approximation for the Hubbard model in terms of a diagrammatic many-body theory and apply it in conjunction with low-energy kinetic Hamiltonians, which we construct from first principles calculations in the framework of density functional theory. Density functional theory is an established technique for calculating the electronic and magnetic properties of materials solely based on their crystal structure. Its practical implementations in computer codes, however, do for example not describe complicated many-electron phenomena like the superconducting state that we are interested in here. Nevertheless, it can provide important information about the properties of the normal state of the material, which superconductivity emerges from. In our theory we use these information and approach the superconducting state from the normal state.
Such an interfacing of different calculational techniques requires a lot of implementation work in the form of computer code. Inclusion of the computer code into this work would consume by far too much space, but since some of the decisions on approximations in the calculational formalism are guided by the feasibility of the associated computer calculations, we discuss the numerical implementation in great detail.
We apply the developed methods to quasi-two-dimensional organic charge transfer salts and iron-based superconductors. Finally, we discuss implications of our findings for the interpretation of various experiments.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
The brain is a highly dynamic and variable system: when the same stimulus is presented to the same animal on the same day multiple times, the neural responses show high trial-to-trial variability. In addition, even in the absence of sensory stimulation neural recordings spontaneously show seemingly random activity patterns. Evoked and spontaneous neural variability is not restricted to activity but is also found in structure: most synapses do not survive for longer than two weeks and even those that do show high fluctuations in their efficacy.
Both forms of variability are further affected by stochastic components of neural processing such as frequent transmission failure. At present it is unclear how these observations relate to each other and how they arise in cortical circuits.
Here, we will investigate how the self-organizational processes of neural circuits affect the high variability in two different directions: First, we will show that recurrent dynamics of self-organizing neural networks can account for key features of neural variability. This is achieved in the absence of any intrinsic noise sources by the neural network models learning a predictive model of their environment with sampling-like dynamics. Second, we will show that the same self-organizational processes can compensate for intrinsic noise sources. For this, an analytical model and more biologically plausible models are established to explain the alignment of parallel synapses in the presence of synaptic failure.
Both modeling studies predict properties of neural variability, of which two are subsequently tested on a synapse database from a dense electron microscopy reconstruction from mouse somatosensory cortex and on multi-unit recordings from the visual cortex of macaque monkeys during a passive viewing task. While both analyses yield interesting results, the predicted properties were not confirmed, guiding the next iteration of experiments and modeling studies.
FUSE Binding Protein 1 (FUBP1) is a transcriptional regulator, which is overexpressed in various cancer entities, including hepatocellular carcinoma (HCC) and colorectal cancer (CRC). It fulfills pro-proliferative and anti-apoptotic functions in cancer cells, resulting in increased proliferation and reduced sensitivity towards apoptotic stimuli.
Previously, camptothecin (CPT) and its clinically used analog 7-ethyl 10hydroxycamptothecin (SN-38) were shown to inhibit FUBP1 in biophysical interaction displacement assays (AlphaScreen; surface plasmon resonance, SPR), and first insights into the cellular effects of FUBP1 inhibition were obtained. CPT and SN-38 are known to potently inhibit topoisomerase 1 (TOP 1), and until today, these inhibitors were thought to be specific for this target. This could be disproved by our FUBP1 binding studies. An open issue, which is addressed in this thesis, was the contribution of FUBP1 inhibition to SN-38-mediated apoptosis apoptosis.
During this thesis, a low micromolar efficacy of CPT/SN-38-induced inhibition of FUBP1 binding to the Far Upstream Sequence Element (FUSE) oligonucleotide of p21 was determined. Furthermore, FUBP1 was for the first time shown to directly interact with a potential FUSE sequence upstream of the transcription start in pro-apoptotic gene BIK. In proof of-principle experiments, an effective inhibition of the binding of FUBP1 to the FUSE BIK DNA by CPT/SN-38 was verified.
One of the main goals of this thesis was to further elucidate the contribution of cellular FUBP1-inhibition by CPT/SN-38 to the anti-cancer potential of these substances. For this purpose, the TOP 1 mutant and TOP 1 wild type colorectal cancer sub-cell lines HCT116 G7 and HCT116 S were used. CPT/SN-38 was shown to induce apoptosis in single and combinatorial treatments with mitomycin c (MMC), independently of the TOP 1 mutation status of the cells. Furthermore, a prominent induction of a FUBP1 target gene signature was observed upon treatment of both cell lines with CPT/SN-38. Consequently, CPT/SN-38 was able to fulfill its anticancer effects in these cells, although TOP 1 could not be the main target in the mutant cell line.
In a second approach to gain indirect evidence for FUBP1 dependent effects of CPT/SN-38, the TOP 1-specific inhibitors topotecan (TTN) and β lapachone (BL) were used for the treatment of HCC and CRC cell lines. Interestingly, the TOP 1 inhibitors TTN and BL exhibited a reduced potency in apoptosis induction compared to the dual (FUBP1 and TOP 1) inhibitor SN-38.
Finally, two independent screens for a specific FUBP1 inhibitor were performed. In the first approach, a small number of structural and functional CPT-derivatives that exhibited a reduced inhibitory potential against TOP 1, were tested for their ability to interfere with the FUBP1/FUSE binding. Two particular indenoisoquinoline derivatives revealed potent in vitro inhibition of FUBP1 with low micromolar IC50 values.
In a second approach, previously identified candidate FUBP1 inhibitors that had been isolated from the Maybridge Hit Finder library served as lead structures for a structure activity relationship (SAR) study of the inhibition of FUBP1 binding to the FUSE oligonucleotide. After two cycles of optimization, a medium-potent FUBP1 inhibitor was obtained that induced effective deregulation of FUBP1 target genes in cell culture experiments.
Many natural minerals exist in the form of a solid solution. The systematic changes in structural and physical properties of oxide solid solutions are of geological importance and allow for wide applications. In order to understand the composition-structureproperty relations, substitutional solid solutions of CuxZn2−xTiO4, ZnxMg1−xTi2O5 and CuxMg1−xTi2O5 have been synthesised by mechanochemical activation assisted solid state synthesis. Self-propagating high-temperature synthesis has been employed to achieve the interstitial solid solutions of Ti5Si3Zx (Z refers to the element boron or oxygen).
The changes in the crystal structure and physical properties due to the formation of solid solutions are investigated by employing X-ray diffraction, neutron diffraction, Raman spectroscopy, low-temperature heat capacity, thermal expansion, scanning electron microscopy, UV-vis spectroscopy, plane-wave ultrasound spectroscopy and density functional theory calculations.
Das Hören hat für den Menschen eine maßgebliche Bedeutung hinsichtlich Kommunikation und Orientierung. Auch wenn sich der Mensch stark auf seinen visuellen Sinn verlässt, wird mit dem Ausfall des Hörvermögens deutlich, wie viele Informationen oft unterbewusst über die Analyse von Schallsignalen gezogen werden. Trotz dieser grundlegenden Relevanz sind bis heute noch nicht alle Komponenten, die dem Hörprozess zugrunde liegen, entschlüsselt.
Um sich diesen offenen Fragestellungen anzunähern, müssen Forscher oft auf Tiermodelle zurückgreifen. Auf Grund ihres exzellenten Gehörs haben sich hier in den letzten Jahrzehnten Fledermäuse als taugliche Versuchstiere qualifiziert. Diese Tiere sind in der Lage sich ohne Verwendung des visuellen Systems in absoluter Dunkelheit zu orientieren, indem sie mit Hilfe der wiederkehrenden Echos ihrer ausgesendeten Ultraschalllaute die Umgebungsstrukturen analysieren. Weiterhin umfasst der zur Kommunikation und Ortung verwendete Frequenzbereich bei Fledermäusen ein Vielfaches von dem des menschlichen, was ebenfalls verschiedene Aspekte der Hörforschung begünstigt. Die in dieser Studie verwendete fruchtfressende Fledermausart Carollia perspicillata eignet sich hervorragend für akustische Untersuchungen, da ihr Innenohr keine speziellen morphologischen Spezialisierungen aufweist.
Anhand der Fledermausart C. perspicillata sollen innerhalb der vorliegenden Studie verschiedene offene Fragestellungen bezüglich der Innenohrmechanik näher beleuchtet werden. Um sich diesen Fragestellungen anzunähern, wurde eine Kombination aus zwei etablierten Methoden verwendet. Zum einen die Messung von Distortions-Produkt otoakustischen Emissionen (DPOAEs), welche auf Grund ihrer Generierung durch aktive Prozesse innerhalb der Kochlea die Möglichkeit bietet, Veränderungen im Innenohr festzustellen und zum anderen kontralaterale akustische Stimulation (KAS), welche eine erprobte Methode zur Aktivierung des efferenten Systems darstellt. Dadurch, dass die äußeren Haarsinneszellen in der Kochlea direkte synaptische Kontakte mit efferenten Fasern der absteigenden Hörbahn eingehen, kann eine Aktivierung des efferenten Systems Modulationen des kochleären Verstärkers bewirken, wodurch sich wiederum die Antworteigenschaften der Kochlea verändern. Mit einer Kombination dieser beiden Methoden lassen sich demnach zum einen höhere Zentren der Hörbahn aktivieren, die über efferente Fasern einen direkten Einfluss auf das Innenohr nehmen, zum anderen die induzierten Modulationen in Form von DPOAEs mit Hilfe eines sensitiven Mikrofons aufnehmen. Die Grundvoraussetzung für die Funktionalität dieser Methodenkombination ist das Vorhandensein von efferenten Fasern innerhalb der Kochlea. Da das efferente System verschiedener Säuger eine große Diversität aufweist, wurden innerhalb dieser Arbeit zusätzlich zu den akustischen Untersuchungen histologische Schnittserien der Kochlea von C. perspicillata angefertigt. Hierbei lag das Hauptaugenmerk auf dem Verlauf der efferenten Fasern innerhalb der Kochlea. Mit Hilfe der Thiocholinmethode wurde der Ort der Umsetzung des Achetylcholinabbauenden Enzyms Achetylcholin-esterase angefärbt. Achetylcholin ist der vorranig vorkommende Transmitter an den efferenten Synapsen.
Diese Studie untersucht weiter den Einfluss der Narkose auf das Innenohr. In zahlreichen Studien, die Innenohrmechanik betreffend, wurden die Untersuchungen an narkotisierten Tieren durchgeführt. Oftmals wird zwar die Problematik der möglichen Beeinflussung des Innenohres durch das verwendete Narkosemittel diskutiert, aber meisthin als unumgänglich eingestuft. Innerhalb der vorliegenden Studie wurde ein Großteil der Experimente an narkotisierten und auch wachen Tieren durchgeführt, um die Auswirkungen der häufig verwendeten Ketamin-Xylazin-Narkose auf die Innenohr-aktivität zu verdeutlichen.
In der Literatur lässt sich eine Vielzahl von akustischen Untersuchungen finden, in denen artifizielle Stimuli wie Reintöne oder Rauschen verwendet werden. Die Problematik dahinter ergibt sich daraus, dass diese Art der Töne in der Natur selten zu finden sind. Derartige Studien werfen daher die Frage auf, ob das Innenohr beispielsweise Rauschstimuli auf die gleiche Weise verarbeitet wie natürliche, komplexere Stimuli. Innerhalb der vorliegenden Studie wurden demzufolge im Vergleich zu artifiziellen Stimuli arteigene Rufe der Fledermausspezies C. perspicillata aufgenommen und als akustische Stimuli während der Messungen verwendet.
Im Zuge dieser Fragestellung wurde in einem weiteren Teilprojekt versucht ein neues Verfahren zur Messung von OAEs zu etablieren, mit dem es möglich ist das Ohr nicht ausschließlich mit den herkömmlich verwendeten Reintönen zu stimulieren, sondern ebenfalls mit komplexen Lauten, wie arteigenen Kommunikations- und Echo-ortungsrufen. Hierfür wurde ein von Douglas Keefe vorgestelltes Paradigma zur Messung von OAE-Residualen herangezogen, welches die am Trommelfell gemessenen akustischen Signale von den Trommelfellantworten auf einzelne Komponenten dieser Signale subtrahiert.
Anhand der in dieser Studie gewonnenen Ergebnisse kann deutlich gezeigt werden, dass eine akustische Stimulation der kontralateralen Kochlea mit verschiedenen artifiziellen sowie arteigenen Stimuli zuverlässig eine Änderung des Pegels der 2f1-f2 DPOAE von bis zu 37,3 dB in der ipsilateralen Kochlea bei wachen Tieren bewirkt. Dabei unterscheidet sich die Art der Beeinflussung deutlich je nach verwendetem kontralateralem Stimulus. Die Stimulation mit artifiziellem Breitbandrauschen supprimiert den Emissionspegel über den gesamten getesteten Frequenzbereich um etwa 11,6 dB, während die verwendeten arteigenen Laute eine vergleichbare Beeinflussung des DPOAE-Pegels ausschließlich in einem Frequenzbereich zwischen 50 und 70 kHz bewirken. Im Frequenzbereich von 20 bis 30 kHz verursachen die arteigenen Laute nahezu keine Pegelabsenkung, was im deutlichen Kontrast zu den Ergebnissen unter KAS mit Breitbandrauschen steht. Unter Narkoseeinfluss konnte, unabhängig vom verwendeten Stimulus, keine Beeinflussung des DPOAE-Pegels festgestellt werden, was die Annahme bestätigt, dass die verwendete Ketamin-Xylazin-Narkose einen drastischen Einfluss auf den Hörprozess und insbesondere auf das efferente System nimmt. Die Ursache dafür, dass arteigene Stimuli anders verarbeitet werden als artifizielle Stimuli (wie z. B. Breitbandrauschen) konnte zwar nicht abschließend geklärt werden, aber die Vermutung liegt nahe, dass in diesem Verarbeitungsprozess höhere Zentren der Hörbahn involviert sind und selektiven Einfluss auf die ablaufenden Prozesse nehmen.
Die Etablierung des OAE-Residual-Messparadigmas auf der Basis der Methode von Keefe und Ling (1998) sollte die Möglichkeit bieten sowohl Reintöne als auch komplexe, arteigene Stimuli zu verwenden und so eine Erweiterung des herkömmlich verwendeten Messverfahrens darstellen. Über verschiedene Vorversuche unter Anwendung einer Zweitonreizung konnte gezeigt werden, dass die Ergebnisse des neu entwickelten Paradigmas mit denen der herkömmlichen DPOAE-Messungen hinsichtlich Reintonstimuli vergleichbar sind. Anhand der gewonnenen Ergebnisse mit einer Stimulation mit komplexen Signalen zeigen sich allerdings die Schwierigkeiten der neuen Methode. Die bisher erhobenen Daten zeigen keine klaren, reproduzierbare Ergebnisse, sollten aber die Grundbedingungen für die weiterführenden Versuche ebnen.
The humanized non-depleting anti-CD4 monoclonal antibody Tregalizumab (BT-061) is able to selectively activate the suppressive function of regulatory T cells and has been investigated up to phase 2b in clinical trials in patients suffering from rheumatoid arthritis (RA).
A pharmacokinetic-pharmacodynamic model, which is based on clinical data from RA and healthy subjects, used the cell surface CD4-down-modulation as marker of the antibodies' activity. This model surprisingly revealed a stronger effect of Tregalizumab in healthy subjects compared to RA patients. This thesis presents a series of experiments performed to understand this phenomenon.
To counteract oxidative stress, which is strongly associated with RA pathophysiology, the organism employs the small oxidoreductase thioredoxin-1 (Trx1). Therefore, augmented expression and secretion of Trx1 was seen in many studies the synovial fluid and plasma of RA patients. Moreover, the binding site of Tregalizumab is in close proximity to a disulfide bond in domain 2 (D2) of CD4, which is a known target for a reduction by Trx1. So, this thesis also evaluated the influence of Trx1 on binding of Tregalizumab to its target CD4.
With the experiments reported herein, it was possible to demonstrate that specific reduction of the D2 disulfide bond of CD4 by Trx1 led to diminished binding of Tregalizumab to recombinant human soluble CD4 (rh sCD4) and membrane-bound CD4 on T cells from a human leukemia cell line and peripheral blood mononuclear cells (PBMC). Moreover, the experiments revealed that this caused changes in the Tregalizumab-induced CD4 signalling pathway via the lymphocyte-specific protein tyrosine kinase p56Lck.
In summary, this thesis provides evidence that high Trx1 levels in RA patients compared to healthy subjects are a potential valid reason for diminished binding of Tregalizumab to CD4-positive T cells and offers an explanation for the observed decreased CD4 down-modulation in RA patients in comparison with healthy subjects. It emphasizes that binding of Tregalizumab is impaired in a particular way in RA patients.
Random constraint satisfaction problems have been on the agenda of various sciences such as discrete mathematics, computer science, statistical physics and a whole series of additional areas of application since the 1990s at least. The objective is to find a state of a system, for instance an assignment of a set of variables, satisfying a bunch of constraints. To understand the computational hardness as well as the underlying random discrete structures of these problems analytically and to develop efficient algorithms that find optimal solutions has triggered a huge amount of work on random constraint satisfaction problems up to this day. Referring to this context in this thesis we present three results for two random constraint satisfaction problems. ...
Ziel der vorliegenden Arbeit war es, vor- und nachbereitenden Unterricht zu Biodiversitätsführungen an den vier außerschulischen Lernorten Palmengarten, Senckenbergmuseum, Stadtwaldhaus und Zoo Frankfurt zu evaluieren. Durch den Unterricht mithilfe neu entwickelter Arbeitsmaterialien sollte die aktuelle Motivation der Schüler und weitere pädagogisch-psychologische Lernvariablen gefördert werden. Es stellte sich die Frage, ob so eine erhöhte Auseinandersetzung mit dem Themenkomplex Biodiversität erreicht werden kann und welche Einflussfaktoren dabei eine Rolle spielen.
Theoretische Grundlage war dabei das Risikowahlmodell der Leistungsmotivation nach Atkinson, das von Rheinberg zum handlungstheoretischen Modell der Motivation erweitert wurde (Rheinberg & Vollmeyer, 2012). Auf dieses bezieht sich der von Rheinberg et al. (2001) entwickelte und hier eingesetzte Fragebogen zur aktuellen Motivation (FAM).
Die Stichprobe setzte sich aus insgesamt 523 Schülern der Klassen 5 bis 9 zusammen. Davon nahm jeweils die Hälfte mit (Versuchsgruppe) und die andere ohne (Kontrollgruppe) vor- und nachbereitendem Unterricht an den Biodiversitätsführungen teil. Die Erhebung der aktuellen Motivation, des erworbenen Fachwissens und weiterer Variablen erfolgte in einem Pre/Post/Follow-Up-Design mit Fragebögen, deren Auswertung analytisch statistisch durgeführt wurde.
Es zeigte sich, dass in der Gesamtstichprobe die Teilnahme an der Biodiversitätsführung die aktuelle Motivation der Schüler erhöhte. Dauerhafte Lernparameter wie die Biologieeinstellung und die Interessenshandlung wurden jedoch nicht signifikant verändert. Ein eindeutiger Effekt der unterrichtlichen Vorbereitung konnte jedoch nicht ermittelt werden. Einzig beim gemessen Fachwissen zu den Führungsinhalten schnitt die Versuchsgruppe signifikant besser ab. Insgesamt wird angenommen, dass der Effekt des Besuchs des außerschulischen Lernortes an sich den Effekt der Vor- und Nachbereitung überdeckt oder vom Einfluss anderer Parameter beeinflusst wird. Hier stach besonders das Alter der Jugendlichen hervor, das vor allem in der hier evaluierten Schülergruppe bedingt durch die Pubertät eine große Rolle spielt. Weitere Einflussfaktoren waren die Biologieeinstellung und die Unterrichtsvariablen der Führung. In den Stichproben der einzelnen außerschulischen Lernorte zeigten sich leichte Abweichungen von der Gesamtstichprobe. Diese waren meist auf die leicht unterschiedliche Zusammensetzung der Stichproben zurückzuführen. Aber auch Besonderheiten der Lernorte hatten dabei ein bedeutendes Gewicht.
Bezüglich der Lernbedingungen für die Lernorte ließen sich aus den Ergebnissen vor allem zwei Komponenten ermitteln: Zum einen die Architektur/räumliche Struktur der Lernorte. Hier können Faktoren wie drinnen/ draußen, Größe und die räumliche Orientierung unterschieden werden. All dies hat Auswirkungen auf das physische Wohlbefinden der Schüler, was wiederum eine Voraussetzung für eine hohe Lernmotivation ist. Die andere Hauptkomponente ist das am Lernort behandelte Thema. Hier kann grob zwischen Pflanzen und Tieren unterschieden werden. Pflanzen wurden dabei in mehreren Studien von den Schülern als weniger attraktiv eingeschätzt. Trotzdem sollten aber die Möglichkeiten, auch botanische Themen außerhalb der Schule zu behandeln, von den Lehrkräften zur Vermittlung biologischer Vielfalt genutzt werden.
Als Konsequenz der Ergebnisse kann der Besuch eines außerschulischen Lernrotes im Biologieunterricht bezüglich der Förderung der Lernmotivation unbedingt empfohlen werden. Da kein klarer Effekt des vor- und nachbereitenden Unterrichts der Biodiversitätsführungen erkennbar war, wären hier weitere Untersuchungen vonnöten, um genauere Aussagen machen zu können. Hier böten sich Studien mit Schülern anderer Altersgruppen und der Vergleich nur zweier außerschulischer Lernorte an.
Phenology is the study of periodic life cycle events of living organisms and how these are influenced by environmental factors. Late phenological phases such as the timing of seed release and subsequent seed dispersal considerably affect ecology and evolution in plants. Since plants are mostly sessile organisms, seed dispersal is a crucial life cycle event for the ecology and evolution of plants. In fact, long-distance seed dispersal (LDD) is a very complex process in plant biology and significantly shapes the spatial and temporal dynamics of plant populations. For example, wind dispersal in plants is influenced by a variety of factors such as plant traits, habitat type and environmental conditions (e.g. wind speed). Considering the variability of wind conditions throughout the year, the timing of seed release and dispersal is known to have considerable effects on LDD. Even though late phenologies such as ripening duration and timing of seed release and subsequent dispersal are vital in estimating ecologically highly relevant LDD, these phenologies are not appropriately addressed in ecological research. The aim of this thesis is to gain insights into the factors that shape late plant phenologies. In particular, we address the following questions: which ecologically or evolutionary parameters drive the ripening process of plant species? How does the seasonal variability of wind affect the seed release phenology of plant species? How do these factors interact for plant species in different habitat types?
In order to address these questions, we applied different methodological approaches, ranging from fieldwork and monitoring phenology to computational simulation studies and statistical modeling. To study the ripening process of species, we monitored the flowering, ripening and seed release phenology of more than 100 Central European plant species. We conducted computational simulation studies for estimating LDD by wind to study the phenology of seed release and the parameters determining LDD by wind. In conjunction with phenological data from literature, we used the obtained simulation results to investigate evidence for the existence of phenological adaptations towards LDD in 165 plant species. Further, we used the results from simulation studies of LDD by wind to disentangle the effects of species, habitat types and meteorological conditions and their interactions on the spatial spread of plant species.
The results of the relationship between plant traits, phylogeny, the ripening process and climatic factors provide insights into the basic understanding of the ripening process of plants. We identified ecological factors that shape species’ ripening phenology and seed release timing. In particular, we suggest that the species’ seed weight, life form and phylogeny shapes ripening and seed release phenology. With the statistical models on species’ temperature demands for reproduction, we introduce data that that are well suitable for parametrization and further development of plant dispersal models. The results from the simulation study based on a seasonal perspective showed that heavier seeded tree species with medium wind dispersal potential (including genera Abies, Acer, Fraxinus and Larix) have a clear synchronisation of seed abscission with periods favouring LDD. These species, which are both ecologically and economically important, showed significant synchronisation of the highest rate of seed release with high wind-speed that promoted LDD by wind in wintertime. For the tree species mentioned, we suggest strong seasonal synchronisation as evidence for phenological adaptations in order to match favourable conditions during seed release. With a closer look at the wind conditions that promote LDD by wind, our results showed considerable differences in how specific wind conditions affect LDD in different species and habitat types. We suggest that LDD by wind in species from open habitats with high wind dispersal potential is likely to be driven by thermal updrafts that are mainly driven by the sun providing energy to the ground. By contrast, LDD of heavier-seeded species from open and forested habitats is more likely to be driven by storms that produce shear-driven turbulence. The results from this thesis contribute to an increased understanding of the complete dispersal process of plants and to making more realistic projections of (future) plant distribution.
The results obtained on factors driving ripening and release phenology provide valuable insights into their ecological and phylogenetic factor constraints. The implementation of more realistic assumptions in assessing species’ dispersal potential throughout the year could help considerably in improving landscape management (e.g. timing of mowing) and in the conservation of plant populations. The evidence found for phenological adaptations towards LDD in plants is an important step in understanding the evolutionary basis of LDD in these species.
Die paravertebralen Grenzstränge entwickeln sich aus Neuralleistenzellen des Rumpf- und Lendenbereichs. Diese sammeln sich im Hühnerembryo an Embryonaltag 2,5-3 an der dorsalen Aorta und formen die primären sympathischen Ganglien. Die dorsale Aorta sezerniert Morphogene, welche einen Teil der Vorläuferzellen zur Differenzierung zu Neuroblasten anregt. Die sympathischen Neuroblasten sind, obgleich sie bereits neurale und noradrenerge Marker exprimieren, zur Zellteilung fähig. Sie unterscheiden sich darin von anderen Neuralleistenderivaten wie beispielsweise den Neuronen der parasympathischen Ziliarganglien und der sensorischen Hinterwurzelganglien. Schließlich wandern die primären sympathischen Ganglien weiter und bilden lateral zum Notochord die paravertebralen Grenzstränge (Rohrer, 2011).
Der Homöodomänen-Transkriptionsfaktor PROX1 wird im Laufe der Entwicklung höherer Vertebraten in vielen Geweben exprimiert. Welche Wirkung PROX1 dabei auf Überleben, Migration, Proliferation und Differenzierung hat, hängt davon ab, in welchem Zelltyp er aktiv ist (Dyer et al., 2003; Lavado et al., 2010). Im peripheren Nervensystem konnte PROX1 embryonal in den Hinterwurzelganglien und den sympathischen Ganglien nachgewiesen werden (Becker et al., 2009; Diplomarbeit Julia Holzmann, 2010). Zielsetzung dieser Dissertation war es, die Expression und die Funktion von PROX1 in sympathischen Ganglien von Hühnerembryonen zu analysieren.
Die Expressionsanalyse von PROX1 zeigte, dass der Anteil der PROX1-positiven Neurone an Embryonaltag 5 (E5) ein Maximum erreicht und danach im Laufe der Entwicklung stetig abnimmt. Dies gilt ebenso für die Population der proliferierenden Neuroblasten, welche ebenfalls im Laufe der Hühnerentwicklung erstmals detailliert untersucht wurde. Diese Korrelation führte zu der Vermutung, dass PROX1 hauptsächlich in proliferierenden Zellen exprimiert wird, welche anschließend experimentell bestätigt werden konnte. Die Population der PROX1-positiven und die der p27-negativen Neuroblasten haben in allen untersuchten Hamburger Hamilton-Stadien (HH-St 21-37) eine vergleichbare Größe. Dennoch ist PROX1 durchgehend in einem kleinen Teil der p27-positiven Neurone enthalten. Diese Population verändert sich im Laufe der Entwicklung kaum und das Fluoreszenzsignal eines oder beider Proteine ist bei doppelpositiven Zellen deutlich schwächer. Diese und andere Daten dieser Arbeit weisen darauf hin, dass es sich um Neuroblasten handelt, welche gerade aus dem Zellzyklus austreten. In postmitotischen Neuronen geht PROX1 verloren. Obwohl PROX1 in allen untersuchten HH-Stadien stark in der Population proliferierender Neurone exprimiert wird, zeichnet sich ab E7 eine kleinere Population von Neuroblasten in S-Phase ab, welche kein PROX1 enthalten.
Die Vorläuferzellen von Ziliarganglien werden, ähnlich wie die der sympathischen Ganglien, durch BMP-Proteine zur Differenzierung angeregt (Müller und Rohrer, 2002). Aufgrund der Ähnlichkeiten in der Entwicklung beider Neuralleistenderivate wurde die Expression von PROX1 in dieser Dissertation auch in Ziliarganglien untersucht: Der Transkriptionsfaktor wird dort nur an E4 und E5 vereinzelt in Neuronen exprimiert und nahezu gar nicht in Vorläuferzellen. In späteren HH-Stadien ist PROX1 in Ziliarganglien nicht mehr nachweisbar.
Ebenfalls konnte hier gezeigt werden, dass PROX1 in primären sympathischen Ganglien an E3 (HH-St 21) in Vorläuferzellen exprimiert wird, welche bereits begonnen haben, sich zu Neuroblasten zu differenzieren. Noch bevor die Differenzierung dieser Zellen jedoch abgeschlossen ist, wird PROX1 transient herunterreguliert. Die entstehenden Neuroblasten treten in dieser Phase kurzzeitig aus dem Zellzyklus aus. Da sich die Größe der p27-negativen und der PROX1-positiven Population auch an E3 stark ähnelt, kann man schließen, dass die Zellteilung in den Neuroblasten erst bei erneuter PROX1-Expression wieder aufgenommen wird. Ab E5 ist PROX1 fast ausschließlich in Neuroblasten nachweisbar.
Eine Funktionsanalyse von PROX1 unter Kulturbedingungen und im Hühnerembryo sollte durch Knockdown und Überexpression zeigen, welchen Einfluss der Transkriptionsfaktor auf die Proliferation der Neuroblasten nimmt. Die Manipulation der PROX1-Expression hatte in vitro einen proproliferativen Effekt. In vivo unterschieden sich Knockdown und Überexpression aber nicht von der Kontrolle.
Zusammenfassend wurde in dieser Doktorarbeit die Expression von PROX1 in sympathischen Ganglien von Hühnerembryonen im Detail analysiert. Der Transkriptionsfaktor ist sowohl in Vorläuferzellen als auch in Neuroblasten nur transient vorhanden. Zwar konnte eine klare Korrelation zwischen der Expression von PROX1 und der Proliferation der sympathischen Neuroblasten festgestellt werden, allerdings konnte eine Wirkung von PROX1 auf die Proliferation durch Funktionsanalysen nur teilweise bestätigt werden. Zusammen weisen die Daten darauf hin, dass PROX1 eine Rolle in der Feinregulation der Proliferation spielt.
Das Ziel dieser Arbeit ist die Entwicklung von neuen, experimentellen Ansätzen zur Thematisierung von Siliciumverbindungen im Chemieunterricht, die einen deutlichen lebensweltlichen Bezug aufweisen und moderne Entwicklungen berücksichtigen.
Die Bandbreite der Siliciumverbindungen reicht von den Silicaten im Bereich der Anorganik über elementares Silicium bis hin zu den polymeren Siliconen im Grenzbereich zu der Organik. Diese
große Vielfalt an Verbindungen hat eine Vielzahl von Anwendungen in tagtäglichen Produkten zur Folge. Dies sind einerseits relativ bekannte anorganische Baustoffe, wie Zement oder Sand, die schon seit der Antike von der Menschheit genutzt werden. Andererseits werden kontinuierlich neue Anwendungsmöglichkeiten in Alltag und Industrie für Siliciumverbindungen entwickelt, die in der modernen Lebenswelt der SchülerInnen einen festen Platz haben.
Oft ist das Vorhandensein der Siliciumverbindung gar nicht auf den ersten Blick erkennbar, obwohl sie die Eigenschaften eines Alltagsprodukts maßgeblich beeinflussen kann. Dies ist beispielsweise bei Silica-Verbindungen in der Zahncreme der Fall.
Im Chemieunterricht werden, wenn überhaupt, die „traditionellen“ Verwendungszwecke, wie in der Baustoffchemie, thematisiert, weniger dagegen die Funktion von Siliciumverbindungen in innovativen Produkten neueren Datums. Nur zögerlich werden Ansätze zur Thematisierung von Verbindungen, wie Siliconen, im Chemieunterricht etabliert.
Im Rahmen dieser Forschungsarbeit wurden daher auf der Grundlage einer fachdidaktischen Analyse und Diskussion Experimente zu ausgewählten Siliciumverbindungen entwickelt. Dies sind die Silicone, die Silica-Verbindungen und elementares Silicium. Die Experimente lassen sich größtenteils in der Sekundarstufe II in Anlehnung an verbindlich im Lehrplan thematisierte Inhalte in den Unterricht einbinden. Einige Experimente können nach einer angemessenen didaktischen Reduktion auch bereits in der Sekundarstufe I eingesetzt werden.
Die im Rahmen dieser Arbeit entwickelten Experimente wurden von LehrerInnen und SchülerInnen gleichermaßen erprobt. Es wurden Rückmeldungen zur Versuchen und Versuchsvorschriften eingeholt. Die Ergebnisse der Auswertung wurden zur Optimierung herangezogen.
At sufficiently high temperatures and baryon densities, nuclear matter is expected to undergo a transition into the Quark-Gluon-Plasma (QGP) consisting of deconfined quarks and gluons and accompanied by chiral symmetry restoration. Signals of these two fundamental characteristics of Quantum-Chromo-Dynamics (QCD) can be studied in ultra-relativistic heavy-ion collisions producing a relatively large volume of high energy and nucleon densities as existent in the early universe. Dileptons are unique bulk-penetrating sources for this purpose since they penetrate through the surrounding medium with negligible interaction and are created throughout the entire evolution of the initially created fireball. A multitude of experiments at SIS18, SPS and RHIC have taken on the challenging task to measure these rare probes in a heavy-ion environment. NA60's results from high-quality dimuon measurements have identified the broadened ρ spectral function as favorable scenario to explain the low-mass dilepton excess, and partonic sources as dominant at intermediate dilepton masses.
Enabled by the addition of a TOF detector system in 2010, the first phase of the Beam Energy Scan (BES-I) at RHIC allows STAR to conduct an unprecedented energy-dependent study of dielectron production within a homogeneous experimental environment, and hence close the wide gap in the QCD phase diagram between SPS and top RHIC energies. This thesis concentrates on the understanding of the LMR enhancement regarding its invariant mass, transverse momentum and energy dependence. It studies dielectron production in Au+Au collisions at beam energies of 19.6, 27, 39, and 62.4 GeV with sufficient statistics. In conjunction with the published STAR results at top RHIC energy, this thesis presents results on the first comprehensive energy-dependent study of dielectron production.
This includes invariant mass- and transverse momenta-spectra for the four beam energies measured in 0-80% minimum-bias Au+Au collisions with high statistics up to 3.5 GeV/c² and 2.2 GeV/c, respectively. Their comparison with cocktail simulations of hadronic sources reveals a sizeable and steadily increasing excess yield in the LMR at all beam energies. The scenario of broadened in-medium ρ spectral functions proves to not only serve well as dominating underlying source but also to be universal in nature since it quantitatively and qualitatively explains the LMR enhancements measured over the wide range from SPS to top RHIC energies. It shows that most of the enhancement is governed by interactions of the ρ meson with thermal resonance excitations in the late(r)-stage hot and dense hadronic phase. This conclusion is supported by the energy-dependent measurement of integrated LMR excess yields and enhancement factors. The former do not exhibit a strong dependence on beam energy as expected from the approximately constant total baryon density above 20 GeV, and the latter show agreement with the CERES measurement at SPS energy. The consistency in excess yields and agreement with model calculations over the wide RHIC energy regime makes a strong case for LMR enhancements on the order of a factor 2-3.
The extent of the results presented here enables a more solid discussion of its relation to chiral symmetry restoration from a theoretical point of view. High-statistics measurements at BES-II hold the promise to confirm these conclusions along with the LMR enhancment's relation to total baryon density with decreasing beam energy.
Basierend auf den Daten der Erhebung „Gesundheit in Deutschland Aktuell“ von 2010 (GEDA2010)vom Robert Koch-Institut wird in dieser Dissertation der Frage nachgegangen, wie sich
Arbeitsbedingungen auf die Gesundheit und das Gesundheitsverhalten auswirken und eine systematische Analyse für Deutschland durchgeführt. Dabei werden sowohl Aspekte der Geschlechterforschung als auch der Erforschung sozialer Ungleichheiten mitbetrachtet. Die Ergebnisse liefern unteranderem Hinweise darauf, dass Gesundheitsverhalten als Coping-Strategie in stressreichen Arbeitssituationen, die beispielsweise durch Leistungsdruck oder Schichtarbeit gekennzeichnet sind, genutzt wird.
In light of the global sea-level rise and climate change of the 21th century, it is important to look back into the recent past in order to understand what the future might hold. A multi-proxy data set was compiled to evaluate the influence of geomorphological and environmental factors, such as antecedent topography, subsidence, sea level and climate, on reef, sand apron and lagoon development in modern carbonate platforms through the Holocene. Therefore, a combination of remote sensing and morphological data from 122 modern carbonate platforms and atolls in the Atlantic, Indian and Pacific Oceans were conducted, along with a case study from the oceanic (Darwinian) barrier-reef system of Bora Bora, French Polynesia, South Pacific.
The influence of antecedent topography and platform size as factors controlling Holocene sand apron development and extension in modern atolls and carbonate platforms is hypothesized. Antecedent topography describes the elevation and relief of the underlying Pleistocene topography (karst) and determines the distance from the sea floor to the rising postglacial sea level. Maximum lagoon depth and marginal reef thickness, when available in literature, were used as proxies for antecedent topography. Sand apron proportions of 122 atolls and carbonate platforms from the Atlantic, Indian and Pacific Oceans were quantified and correlated to maximum lagoon depth, total platform area and marginal reef thickness. This study shows that sand apron proportions increase with decreasing lagoon depths. Sand apron proportions also increase with decreasing platform area. The interaction of antecedent topography and Holocene sea-level rise is responsible for variations in accommodation space and at least determines the extension of the lateral expansion of sand aprons. In general, sand apron formation started when marginal reefs approached relative sea level. Spatial and regional variations in sea-level history let sand apron formation start earlier in the Indo-Pacific region (transgressive-regressive) than in the Western Atlantic Ocean (transgressive).
The influence of sea level, antecedent topography and subsidence of a volcanic island on late Quaternary reef development was evaluated based on six rotary core transects on the barrier and fringing reefs of Bora Bora. This study was designed to revalue the Darwinian model, the subsidence theory of reef development, which genetically connects fringing reef, barrier reef and atoll development by continuous subsidence of the volcanic basement. Postglacial sea-level rise, and to a minor degree subsidence, were identified as major factors controlling Holocene reef development in that they have created accommodation space and controlled reef architecture. Antecedent topography was also an important factor because the Holocene barrier reef is located on a Pleistocene barrier reef forming a topographic high. Pleistocene soil and basalt formed the pedestal of the fringing reef. Uranium-Thorium dating shows that barrier and fringing reefs developed contemporaneously during the Holocene.
In the barrier–reef lagoon of Bora Bora, the influence of environmental factors, such as sea level and climate, tsunamis and tropical cyclones controlling Holocene sediment dynamics was evaluated based on sedimentological, paleontological, geochronological and geochemical data. The lagoonal succession comprises mixed carbonate-siliciclastic sediments overlying peat and Pleistocene soil. The multi-proxy data set shows variations in grain-size, total organic carbon (proxy for primary productivity), Ca and Cl element intensities (proxies for carbonate availability and lagoonal salinity) during the mid-late Holocene. These patterns could result from event sedimentation during storms and correlate to event deposits found in nearby Tahaa, probably induced by elevated cyclone activity. Accordingly, elevated erosion and runoff from the volcanic island and lower lagoonal salinity would be a result of rainfall during repeated cyclone landfall. However, Ti/Ca and Fe/Ca ratios as proxies for terrigenous sediment delivery peaked out in the early Holocene and declined since the mid-Holocene. Benthic foraminifera assemblages do not indicate reef-to-lagoon transport. Alternatively, higher and sustained hydrodynamic energy is probably induced by stronger trade winds and a higher-than-present sea level during the mid-late Holocene. The increase in mid-late Holocene sediment dynamics within the back-reef lagoon is supposed to display sediment-load shedding of sand aprons due to the oversteepening of slopes at sand apron/lagoon edges during their progradation rather than an increase in tropical storm activity during that time.
The influence of sea-level and climate changes on sediment import, composition and distribution in the Bora Bora lagoon during the Holocene is validated. Lagoonal facies succession comprises siderite-rich marly wackestones, foraminifera-siderite wackestones, mollusk-foraminifera marly packstones and mollusk-rich wackestones during the early-mid Holocene, and mudstones since the mid-late Holocene. During the early Holocene, enhanced weathering and iron input from the volcanic island due to wetter climate conditions led to the formation of siderite within the lagoonal sediments. The geochemical composition of these siderites shows that precipitation was driven by microbial activity and iron reduction in the presence of dissolved bicarbonate. Chemical substitutions at grain margins illustrate changes in the oxidation state and probably reflect changes in pore water chemistry due to sea-level rise and climate change (rainfall). In the late Holocene, sediment transport into the lagoon is hampered by motus on the windward side of the lagoon, which led to early submarine lithification within the lagoon.
The lung comprises more than 40 different cell types, from epithelial cells to resident mesenchymal cells. These cells arise from the foregut endoderm and differentiate into specialized cell types that form the respiratory and conducting airways, and the trachea. However, the molecular pathways underlying these differentiation processes are poorly understood, and may be relevant to pathological conditions. According to the World Health Organization (WHO), while the respiratory disease rate is increasing, limited treatment and therapies are available. Thus, there is a growing need for new treatment strategies and alternative therapies. Various in vivo and in vitro studies in the model organism mus musculus have already provided valuable information on lung cell lineages and their differentiation and/ or dedifferentiation during development and pathological conditions. However, there remain many questions regarding the key regulators and molecular machinery driving lung cell differentiation and underlying lung progenitor/stem cell biology.
Aiming to develop new animal models for lung diseases, we used a forward genetic careening approach, which provides an unbiased method for identifying genes with important roles in lung cell differentiation, and thus probable contributors to pathological conditions. We conducted an N-ethyl-N-nitrosourea (ENU) mutagenesis screen in mice and used several histological and immunohistochemical approaches to identify and isolate mutants, focusing on mutations associated with cell differentiation rather than those affecting early development and patterning of the respiratory system. Thus, we screened for phenotypes in the respiratory system of pups from the F2 generation at postnatal day 7 and 0 (P7; P0). I specifically screened 114 families. Each F1 male animal is the founder of 5 to 6 F2 female daughters. For each family, at least 4 F2 females per male founder were analyzed. In total, I screened 630 litters at P7 and P0 with 7 pups on average for each litter. As a result of this extensive screening, 11 different phenotypes in 42 different F2s were discovered at primary screen and later just 2 phenotypes recovered in F3 generation of identified carriers. To identify the causative genes for each of these phenotypes, whole exome sequencing will be conducted in the future to identify recurring SNPs; these can subsequently be linked causatively to the resultant phenotype(s) via complementation studies. In turn, these linkages would enable the creation of mutant mice using CRISPR/Cas9 genomic engineering, which would be invaluable to the further study of respiratory development and disease.
Da HRS-Zellen im cHL nur eine Minderheit und CD4+ T-Zellen die Mehrheit im Begleitinfiltrat ausmachen, wurde innerhalb der vorliegenden Dissertation das Begleitinfiltrat und der Tumorzellgehalt von 24 HIV-assoziierten cHL-Fällen mit 15 HIV-negativen cHL-Fällen immunhistochemisch verglichen. Das reaktive Begleitinfiltrat im HIV-assoziierten cHL zeigte eine deutlich geringere Anzahl an CD4+ T-Zellen und einen höheren Gehalt an CD163+ Makrophagen als das HIV-negative cHL. Es konnte kein Unterschied in der Anzahl der CD30+ HRS-Zellen und S100+ dendritischen Zellen zwischen beiden Gruppen festgestellt werden. Mit Kokultur-Versuchen im Labor und darauf folgenden Zellausstrichen dieser Kokulturen konnte bestätigt werden, dass sich CD14+ Monozyten ebenso gut wie CD4+ T-Zellen als Rosetten um HRS-Zellen anordnen können. Im immunkomprimierten HIV-Patienten ersetzen die langlebigen CD163+ Makrophagen die CD4+ T-Zellen. Die Makrophagen werden vermutlich ebenso wie CD4+ T-Zellen mittels Zytokine/Chemokine (z. B. CCL5) zum Tumorgewebe rekrutiert, bilden Rosetten um die Tumorzellen und unterstützen diese in ihrer Proliferation.
Aufgrund der besonderen Zusammensetzung des Begleitinfiltrats sollte das HIV-assoziierte cHL von Pathologen als eigenständiger Subtyp des cHL betrachtet werden.
Des Weiteren wurde das Begleitinfiltrat der typisch knotigen NLPHL Typen A und C mit dem des diffusen NLPHL Typen E (THRLBCL-like NLPHL) und dem THRLBCL immunhistochemisch verglichen. Aufgrund histologischer und klinischer Ähnlichkeiten zwischen dem diffusen NLPHL und dem THRLBCL fällt eine Differenzierung dieser Entitäten schwer. Es konnte festgestellt werden, dass das Begleitinfiltrat im THRLBCL-like NLPHL dem Begleitinfiltrat im THRLBCL mehr ähnelt als dem typischen NLPHL und zwar in Bezug auf Makrophagengehalt und Anzahl der follikulären TFH-Zellen. Es konnten Rosetten im Begleitinfiltrat von THRLBCL nachgewiesen werden, obwohl Rosettenformationen um Tumorzellen im THRLBCL in der Literatur kein charakteristisches Merkmal darstellen. Es ist naheliegend, dass das THRLBCL-like NLPHL und das THRLBCL ein und dieselbe Krankheit ist und möglicherweise eine aggressivere Variante des NLPHL darstellt.
Im Anbetracht aller Ergebnisse kommt dem Immunstatus eines Patienten eine ausschlaggebende Rolle auf das Begleitinfiltrat im Tumorgewebe zu und dieser beeinflusst so auch den klinischen Verlauf der Lymphomerkrankung.
Nach der Revolution 1917 schlossen sich mehrere russische Avantgardekünstler den kollektiven geistigen Anstrengungen ein, um ein revolutionäres Gesamtkunstwerk der neuen Menschheit zu gestalten. Sie nutzten alle Medien der Kunst, um ihre innovativen Ideen in diesem Experimentierfeld zu verwirklichen. Die Keramik wurde von ihnen als eines der bedeutenden Experimentierfelder und eine zukunftsweisende Kunstgattung gesehen, die durch den alltäglichen Gebrauch das Bewusstsein und die Wahrnehmung der Menschen entscheidend revolutionieren sollte.
Die vorliegende Dissertation untersucht erstmals die Keramik der russischen Avantgarde als eigenständiges künstlerisches Phänomen. Alle dokumentarisch belegten Entwürfe und Keramiken der russischen Avantgardisten werden zusammengefasst sowie alle bekannten Marken der Keramik aufgeführt. Die Autorin systematisiert die Formensprache und Dekormotive der avantgardistischen Keramikwerke und hebt Hintergrunde sowie theoretische Grundlagen der jeweiligen avantgardistischen Gruppen im Bereich Keramik hervor.
Die vorliegende vergleichende Analyse der russischen und westeuropäischen Keramikkunst des ersten Drittels des 20. Jahrhunderts deckt zum ersten Mal in der kunsthistorischen Forschung ihre Gemeinsamkeiten sowie die gegenseitigen Einflüsse auf, dabei werden die Unterschiede der russischen und europäischen avantgardistischen Keramikkunst deutlich reflektiert.
Die neuronalen Mechanismen, welche den meisten kognitiven Prozessen zu Grunde liegen, bestehen aus dem Zusammenspiel verschiedener Neuronen-Typen und deren spezifischen Funktionsmechanismen, sowohl in lokalen, als auch in globalen neuronalen Netzwerken. Eine funktionelle Interaktion mit diesen Netzwerken ist unumgänglich um das „kognitive“ Gehirn zu studieren, da neuronale Gruppen in einer hierarchischen, nicht linearen Weise miteinander interagieren, und dabei charakteristische raum-zeitliche Muster aufweisen. In dieser Arbeit untersuchten wir die Struktur und Funktion eines wichtigen Merkmals kortikaler Prozesse: Die neuronale gamma-Band Oszillation.
One of the most important shifts in mathematics learning and instruction in the last decades has taken place in the conception of the subject matter, changing from a perspective of mathematics as composed of concepts and skills to be learned, to a new one emphasizing the mathematical modelling of the reality (De Corte, 2004). This shift has had, as it is to be expected, an impact on classroom processes, and changed instructional settings and practices.
Instructional explanations, the object of study in the present work, are an interesting topic in that landscape, since they continue to be a typical form of classroom discourse, especially −but no exclusively−when new contents are introduced to the students (e.g. Leinhardt, 2001; Perry, 2000; Wittwer & Renkl, 2008). Consequently, good teachers are also supposed to be good explainers, independently whether they are the main speaker, or play the role of moderator in exchange between students (e.g. Charalambous, Hill, & Ball, 2011; Danielson, 1996; Inoue, 2009).
Despite the central role that instructional explanations play in classroom practices, current instructional quality models, which describe how effective teaching practices should look like, do not consider instructional explanations as a key element (Danielson, 1996; Klieme, Lipowsky, Rakoczy, & Ratzka, 2006; Pianta & Hamre, 2009). Moreover, aside from a few notable exceptions (Duffy, Roehler, Meloth, & Vavrus, 1986; Leinhardt & Steele, 2005; Perry, 2000), instructional explanations have not been investigated empirically within other traditions either. Thus, there is scarce of empirical work about instructional explanations and their potential contribution to promote students’ learning.
The purpose of the present work is to examine instructional explanations from a theoretical perspective as well as empirically, in order to characterize them and investigate their association with students’ learning outcomes. The underlying theoretical framework chosen to organize the study is the one proposed by Leinhardt (2001) with some adaptations according to pertinent complementary literature (Drollinger-Vetter & Lipowsky, 2006; Leinhardt & Steele, 2005).
The empirical work of this dissertation was carried out in the context of the project “Analysis of mathematic lessons” (FONIDE 209) funded by the Chilean Ministry of Education during 2007. This study, in turn, was embedded in the international extension of the research project the ‘‘Quality of instruction, learning, and mathematical understanding’’ carried out between 2000 and 2006 by the German Institute for International Educational Research (DIPF) in Frankfurt, Germany, and the University of Zurich in Switzerland (e.g. Klieme & Reusser, 2003; Klieme et al., 2006). According to the design of the original project, the study considers the inclusion of different perspectives, namely, teachers, students and external observers, by means of questionnaires, tests and classroom observation protocols.
The examination of instructional explanations in this dissertation begins in chapter 2 with the review of relevant literature and introduction of the theoretical background underpinning the study of instructional explanations. This theoretical review comprises three subsections, the first one describing the evolution of the process-product-paradigm into the actual instructional quality models that are presented in a next step. The second subsection includes a detailed theoretical presentation of explanations and instructional explanations, addressing the main theoretical issues and giving examples of the few empirical works about instructional explanations found in the literature. Finally, the third subsection with the description of Chilean teaching practices in order to contextualize the study.
Chapter 3 presents the research questions and lists the associated work hypotheses that are investigated throughout this work. Chapter 4 includes the methodological aspects of the work, indicating the description of the sample, design of the study, the methods used the gather the data and the analyses chosen to answer the proposed research questions.
Chapter 5 contains the presentation of results, which are organized by research question, starting with the results from quantitative analyses and continuing with the results from qualitative analyses. This chapter closes with a general summary of the results organized according to the central themes of the study. Finally, chapter 6 concludes with a discussion of the link between the results and the instructional explanations literature and research, or lack thereof, that originally motivated the research questions addressed in this study. This chapter finishes with a discussion of the limitations of the study and the implications of its results, as well as an examination of areas where the research on instructional explanations can be fruitfully expanded in the future.
Invasive non-native species are key components of human-induced global environmen-tal change and lead to a loss of biodiversity, alterations of species interactions and changes of ecosystem services. Freshwater ecosystems in particular are strongly affect-ed by biological invasions, since they are spatially restricted environments and often already heavily impacted by anthropogenic activities. Recent human-induced species invasions are often characterized by long-distance dispersal, with many species having extended their native distribution range within a very short time frame. However, a long term view into the past shows that biological invasions are common phenomena in nature—representing the arrival of a species into a location in which it did not originally evolve—as a result of climatic changes, geotectonic activity or other natural events. Once a species arrives in a new habitat, it may experience an array of novel selection pressures resulting from abiotic and biotic environmental factors and simultaneously act as a novel selective agent on the native fauna. Consequences of species invasions are manifold. My thesis, which combines seven studies on different aspects of biological invasions, aims to explore the influence of abiotic stressors and biotic interactions during species introductions and range expansions, as well as the consequences of biological invasions on evolutionary and ecosystem processes.
The first part of my thesis examines human-induced biological invasions, dealing with basic ecological characteristics of invaded ecosystems, novel predator-prey interactions, functional consequences of species invasions and certain behavioral traits that may contribute to the invasiveness of some species. The second part of my thesis examined distribution patterns and phenotypic trait divergence in species that historically invaded new geographical areas. I investigated variation of abiotic and biotic selection factors along a stream gradient as well as ecological and evolutionary consequences of species invasions to extreme habitats. The results highlight the importance of simultaneously considering processes involved in natural invasions and during human-induced invasions to understand the success of invading species.
We often lack detailed information on the impacts of historical biological inva-sions. Also, we are currently lacking crucial knowledge about the time scales during which different mechanisms (behavioral flexibility, plastic phenotypic changes, and ge-netic adaptation) play a role during biological invasions and affect species exchange and establishment. Comparative analyses of historical, natural invasion and recent (man-made) invasions can provide insights into the relative importance of the processes governing adaptation to abiotic stressors and selection resulting from biotic interactions. Beyond their negative effects, the establishment of invasive species and the subsequent range expansion represent “natural experiments” to investigate fundamental questions in ecology and evolution. My comparison of natural and human-induced biological invasions revealed that in many cases preadaptation to altered abiotic conditions plays a key role during early stages of invasions and range expansions. Considering the evolutionary history of invasive species and the evolutionary history of the recipient native fauna might therefore help predict the consequences of biological invasions for the ecosystem under consideration and the future success of the invading species. This knowledge can also be implemented when formulating conservation strategies, including methods to mitigate and manage human-induced biological invasions.
The fungal genus Pestalotiopsis s.l. contains approximately 300 described species and is globally distributed. The monotypic genus Pestalotia is considered the closest relative of Pestalotiopsis s.l. This study aims to investigate the diversity and systematics within Pestalotiopsis s.l. and its relation to Pestalotia. Therefore, an integrative approach is used considering molecular phylogeny methods as well as examination of morphological characters.
Recently, Pestalotiopsis s.l. was split into three genera with the addition of the newly erected Neopestalotiopsis and Pseudopestalotiopsis. The species of these genera are usually saprotrophic, phytoparasitic, or endophytic, and have been isolated from soil, air, and many kinds of anorganic material. The asexual fruiting bodies appear on infected plant material as black acervuli that release conidia. The conidia are important to examine for morphological taxon recognition. The number of conidial cells is the feature that distinguishes Pestalotiopsis s.l. spp. with five celled conidia, from Pestalotia pezizoides with six celled conidia. However, the significance of morphological characters is controversially discussed among mycologists. In recent years, 55 new species were described based on minor genetic distances and marginal or no morphological differences. Thus, the value of certain morphological characters and genetic markers need to be reconsidered.
In this study, 102 herbarium specimens of 26 described species, with an emphasis on plant pathogenic species from North America, have been morphologically examined and documented through drawings and photographs. Morphological examination was complemented with a comprehensive molecular dataset obtained from 191 cultures representing the genera Neopestalotiopsis, Pestalotia, Pestalotiopsis, Pseudopestalotiopsis, and Truncatella. One novelty of this work is that, besides the well-established markers ITS, TEF1, and ß-tubulin, the protein-coding genes MCM7 and TSR1 were successfully sequenced and included in the analyses. Phylogenies using Maximum Likelihood and Bayesian inference methods of single loci and the combined dataset were calculated. By comparison of these phylogenies, MCM7 was identified as the most powerful one in terms of phylogenetic resolution and statistical support of nodes and is proposed as an additional barcoding marker in Pestalotiopsis s.l.
In Pestalotiopsis, species delimitation was tested using the Baysian Phylogenetics and Phylogeography (BP&P) program that tests an existing species scenario against Bayesian inference methods under a multispecies coalescent model. The program supported only ten species out of the predetermined 19 species scenario. Measurements of conidia for species detected by BP&P were explored using a TukeyHSD-Test in the program R to find means that are significantly different from each other. This test revealed that combinations of morphological characters are required to distinguish between the ten species found by BP&P.
Another purpose of this work was to clarify the status of Pestalotia with regard to Pestalotiopsis s.l. Therefore, fresh epitypic material of Pestalotia pezizoides, was collected, isolated, and cultivated. The molecular analysis of a combined dataset of the gene regions ITS and LSU for species of Amphisphaeriales nested P. pezizoides in the genus Seiridium. Thus, synonymy of Pestalotia with Seiridium is proposed here. This is supported by morphology of the conidia. Further, an epitype is proposed for the type species of Pestalotiopsis, P. maculans. On the other hand, the recently proposed epitype of P. adusta is rejected here as it conflicts with the taxonomic hypothesis obtained in this study and its introduction is inconsistent with the formal requirements for epitypification. A new topotypic specimen is proposed instead. Additionally, several nomenclatural changes become necessary in many species examined. These include three new combinations and six synonyms of species of Pestalotiopsis s.l.
The conclusion of this work is that morphological data have potential as a valuable, inexpensive and easy way to recognize species. However, it is not the best method for species discovery and delimitation bearing in mind that in microfungi and many other organisms, individual plasticity and analogous structures are inadequately investigated. By phylogenetic analyses of molecular sequence data, it is possible to compare a great amount of equivalent characters and to delimit species that are morphologically cryptic. This is especially important since species of Pestalotiopsis s.l. mostly lack sexual structures that are helpful for morphological species delimitation in other groups of fungi. Thus, the Genealogical Concordance Species Concept (GCSC) finds its application in many fungal taxa. Conflicts in the genealogy between phylogenetic trees of different markers are interpreted as recombination of the genetic material within a linage. Accordingly, the change from conflict to congruence in a set of different phylogenetic trees can be seen as the species limit. It can be expected that increased application of the GCSC will lead to further approximation of described species numbers to the real number of species, especially in complicated groups like asexual microfungi.
Kardiovaskuläre Erkrankungen stellen in Deutschland die häufigste Todesursache dar [1]. Eine Schlüsselrolle wird hierbei der koronaren Herzkrankheit (KHK) auf dem Boden einer Atherosklerose zuteil. Die Prävalenz der koronaren Herzkrankheit in Deutschland lag 2012 laut Zahlen des Robert Koch-Instituts bei 8,3 %; dies entspricht 6,64 Millionen Menschen. Die Spitzengruppe bilden die über 65-Jährigen mit einer Erkrankungshäufigkeit von 18,3 % bei Frauen und 27,8 % bei Männern. Oberstes Therapieziel bei der Behandlung der KHK ist die Prävention von Myokardinfarkten und Herzinsuffizienz. Wegweisend für das therapeutische Procedere sind die klinische Situation des Patienten und die Ergebnisse der kardialen Diagnostik. Sind mehrere Koronargefäße betroffen oder bestehen komplizierte Gefäßverengungen ist die Indikation zur operativen Myokardrevaskularisierung gegeben. Im Jahr 2015 unterzogen sich in Deutschland 51.941 Patienten einem solchen Eingriff [2]; weltweit erhalten jährlich fast eine Millionen Patienten eine Bypass-Operation [3]. Für den Therapieerfolg ist postoperativ eine suffiziente Thrombozytenaggregationshemmung von essentieller Bedeutung. Daher wird zur Sekundärprophylaxe eine lebenslange antiaggregatorische Medikation empfohlen; das am häufigsten hierfür genutzte Medikament ist Acetylsalicylsäure (ASS) [4]....
Ziel der vorliegenden Studie war, mittels MEA, die Prävalenz und mögliche Prädiktoren einer ASS-Nonresponse in einer Kohorte kardiochirurgischer Patienten zu analysieren.
Es wurden folgende Nullhypothesen aufgestellt:
- Die tägliche Einnahme von 100 mg ASS ist ausreichend, um bei allen Patienten eine therapeutische Thrombozytenaggregationshemmung zu erreichen.
- Es existieren keine Prädiktoren für die mittels MEA detektierte ASSNonresponse.
Melt segregation inside the earth consists of two different processes: 1) Generation of partially molten rock and 2) separation of melt, produced from partially molten rock, from the solid residual matrix. This thesis focuses on the later process. The 2 phase flow dynamics combines the study of flow dynamics of melt and matrix. Several studies have given the background theoretical frameworks for the flow dynamics of melt inside the earth. [McKenzie, 1984] summarizes the studies of [Ahern and Turcotte, 1979; Frank, 1968; Sleep, 1975] and gives a complete set of governing equations for the 2-phase flow problem.
[Bercovici et al., 2001] gives a general formulation considering the univariate system of equations related to matrix and melt flow which includes the interfacial surface force. The assumption of melt having negligible viscosity compare to the matrix has been abandoned. Therefore, based on these formulations, we have constructed our numerical model and thereafter a fortran code PERCOL2D to get an insight of melt percolation process through porous media. Additionally, we have used the Helmhotz decomposition, which splits a smooth and rapidly decaying vector field into an irrotational vector field and an incompressible vector field [Srámek, 2007], for matrix and fluid viscosity in order to lower the number of linearly independent variables to minimize the computational complications. The melt residing at inter-granular areas of lithosphere, forms an interconnected network even at low porosity. Therefore, being less dense than the matrix, melt moves up through porous media due to its buoyancy. Compaction of matrix, which occurs to compensate the melt separation, is considered in this thesis, where the effective bulk and shear viscosity of matrix are function of melt fraction. We have effective bulk viscosity of matrix as inversely proportional to melt fraction. Porosity dependence of effective bulk and shear viscosity leads to stronger melt focusing in highly porous region like mid ocean ridges [Katz, 2008] since the ratio of bulk and shear viscosity is smaller (< 10) than the constant viscosity case for the porous waves having non dimensional amplitude 5% or higher. Moreover, it is observed in [Richard et al., 2012] that the solitary wave formed in porosity dependent viscous matrix settings are steeper than the one formed in the constant matrix viscosity setting.
Firstly some 1D numerical experiments with PERCOL2D have been carried out using fixed and periodic boundary conditions for zero source term (i.e. no melting or no freezing) and negligible surface tension.
3 series of model setups with different initial conditions have been carried out varying the width, non-dimensional amplitude and the background porosity value of the initial input of porous wave.
A mathematical derivation for 1D solitary wave solution for the two phase flow through porosity dependent compacting media, is obtained in this thesis which is different than the study of [Barcilon and Lovera, 1989; Barcilon and Richter, 1986; Scott and Stevenson, 1984; Spiegelman, 1993a,b] as the effective viscosity of matrix is constant there.
Although [Simpson and Spiegelman, 2011] gives the solitary wave solutions in 1D, 2D and 3D considering the porosity dependent effective viscosity of the matrix, but using the small background porosity approximation, they neglect the background porosity (i.e φ0) and therefore the effect of variation of compaction lengths, which causes variation in the shape and dynamics of the solitary wave. Therefore, the study [This thesis, Richard et al., 2012] can be used for more general purpose. Solitary waves in varying viscous medium, are steeper (cf fig.5.1) compared to the one in constant viscous medium and their speed decreases as an inverse function of the background porosity. Additionally, this analytical solution is used in our code PERCOL2D and also in FDCON for numerical benchmarking (1D) of PERCOL2D.
The role of melt grain contiguity is considered in the revised viscosity formulation [Schmeling et al., 2012] based on elastic moduli theory of a fluid filled poro-elastic medium. This formulation is used in this thesis to produce a comparative dispersion relationship between speed of the wave and the non dimensional amplitude of porous wave, based on both the viscosity formulations (fig. 6.20) where one can see that the model based on [Bercovici et al., 2001] formulation, converges to the same dispersion relationship obtained from [Simpson and Spiegelman, 2011]. Whereas, the dispersion relationship using [Schmeling et al., 2012] formulations, shows time-dependent decrease of phase velocity with increasing amplitude and it is not yet clear that whether these solutions converge to steady state porosity waves before the porosity becomes 1.
Development of the flash-heating method for measuring melting temperatures in the diamond anvil cell
(2016)
A new ‘laser flash-heating’ method has been developed for measuring melting temperatures above 2000 K in a diamond anvil cell at gigapascals of pressure. It overcomes the general difficulties in detecting an onset of melting in a diamond anvil cell. It also circumvents the notorious experimental difficulties associated with the long heating durations of the CW laser-heating and the short timescales in the pulsed laser-heating and shock-compression experiments.
In this method, the duration of heating a sample is tuned to avoid chemical reactions of the sample with the diamond anvils and the surrounding pressure medium, while maintaining the accuracy of the temperature measurements. The absence of chemical reactions is confirmed by the EDS technique. Melt detection is now unambiguous from the analysis of textures on the surface and in depth of the recovered samples using the SEM and FIBM techniques, respectively. Using this method, the following has been achieved.
1. The melting curve of hcp-Re has been measured to 48 GPa, 4200 K for the first time. It has a significantly steeper slope than those observed for other transition metals like W and Mo with bcc structures. Above 20 GPa, Re becomes the most refractory metal surpassing W.
2. The melting curve of bcc-Mo has been measured to 45 GPa, 3100 K. It agrees with previous melt-slopes approaching zero value with pressure as reported in the LHDAC experiments using ADXRD and visual observation techniques for inferring the onset of melting. Flash-heating experiments at pressures higher than 50 GPa are required to further corroborate the flat melt-slope and resolve the long standing controversy about melting of Mo.
3. The melting curve of bcc-Ta has been measured to 85 GPa, 4300 K. Unlike in previous experiments using ADXRD and visual observation as probes, it has been tightly bracketed with an unambiguous detection of the onset of melting, without any chemical reaction. The present melting curve cannot be reconciled with shock measurements and theoretical predictions, and the precision of measurements calls for a reevaluation of theoretical, shock compression, and other DAC approaches to determine melting at high pressures. A further analysis with TEM technique for investigating the structure of the heated portion below and above melting temperatures of Ta may benefit in resolving various phase transitions predicted to explain the vast discrepancies in the reported melt-slopes.
When extrapolated to one atmosphere pressure, all the measured flashmelting curves agree with the known melting points.
Protein synthesis is a central process within every living cell, where information embodied in the nucleotide sequence of the mRNA is translated into the primary sequence of proteins. The translation procedure comprises four steps: initiation, elongation, termination, and recycling. Ribosome recycling orchestrated by the ATP‐binding cassette (ABC) protein ABCE1, renders mRNA translation into a cyclic process, connecting termination with re initiation. In Archaea and Eukarya, the ABC protein ABCE1 catalyzes ribosome recycling by splitting the ribosome (80S/70S) into the small 40S/30S and large 60S/50S subunits, providing them for the next translation round.
The ABC‐type ATPase one of the most conserved proteins, present in all Archaea and Eukarya, but not in Bacteria, is essential for life in all organisms examined so far. ABCE1 was initially identified as RNase L inhibitor (Rli1), involved in the antiviral RNA immunity, and as host protein 68 (HP68) playing a role in HIV capsid assembly. However, the strong sequence conservation of ABCE1 points towards a more fundamental function within cell homeostasis, which was found by its involvement in various translation processes. ABCE1 turned out to be the major ribosome recycling factor indispensable for life in Eukarya and Archaea, being involved in canonical translation, mRNA surveillance, ribosome biogenesis, and translation initiation.
Recent functional and structural data provided first insights into the mechanism of ABCE1 in ribosome recycling. The nucleotide‐binding domains (NBDs) sandwich two ATP molecules in the NBD1‐NBD2 interface causing an NBD engagement, which is released upon ATP hydrolysis. In case of ABCE1, this ATP‐dependent tweezer‐like motion of the NBDs transfers mechanical energy to the ribosome and tears the subunits apart. The FeS‐cluster domain may swing out of the NBD cleft into the inter‐subunit space of the ribosome, which drives the subunits apart either directly or via the bound a/eRF1. Hence, the subunits are released and the post‐splitting complex (PSC, 40S/30S∙ABCE1∙ATP) is available for re‐initiation events, presumably occurring via the known interactions of ABCE1with initiation factors.
One of the most crucial aspects of this model is the nucleotide‐dependent conformational switch of ABCE1, which drives ribosomal subunit splitting. However, the conformational states, which ABCE1 undergoes during ribosome recycling, including their mechanistic importance for its diverse functions, remain unknown. Further, the exact role and movement of the essential FeScluster domain during ribosome recycling are not yet understood. Additional, it remains elusive where ABCE1 is bound in the post‐splitting complex and how the splitting mechanism is regulated concerning the asymmetric NBDs and the coupling of nucleotide binding with NBD closing and ATP hydrolysis.
Thus, in order to monitor the conformational dynamics of the ribosome recycling factor ABCE1 two complementing methods in structural biology, namely single‐molecule based Förster resonance energy transfer (smFRET) and pulsed electron‐electron double resonance (PELDOR) spectroscopy were applied.
Single‐molecule FRET as an integrated biophysical approach based on Förster resonance energy transfer and single‐molecule detection was used to understand the fundamental molecular principles of ABCE1. Contrary to the anticipated two‐state model of ABC proteins, it was shown in this thesis that both nucleotide‐binding sites of ABCE1 are always in a dynamic equilibrium between conformational states with distinct properties: open, intermediate, and closed. The equilibrium in the two nucleotide‐binding sites is distinctly affected when ABCE1 interacts with ribosomal subunits and nucleotides. While ABCE1 can adopt all three conformational states in its free or 30S bound situation, the closed state has the highest affinity for 30S subunit. Further, dissociation of ABCE1 from the small ribosomal subunit, a step that completes the recycling process, is followed by the opening of the NBSs. Hence, the current findings have important implications not only for ribosome recycling but represent a new paradigm for the molecular mechanisms of twin‐ATPases.
The complementing PELDOR measurements provide the advantage of high distance precision and reliability studying macromolecular complexes. Distance distributions of a number of ABCE1 variants even bound to the 1‐MDa post‐splitting complex (30S∙ABCE1∙AMP‐PNP), composed of the 16S rRNA, 28 ribosomal proteins, and ABCE1, was analyzed. Thus, the available crystal structures of ABCE1 in the open state were validated, since all distances of ABCE1 measured in this study perfectly correspond to this crystallized state. Unfortunately, ABCE1 could not be trapped in the closed state under the experimental conditions applied, although plenty different approaches to stabilize this state were performed.
In the second part of this study the architecture yet unknown of the 1‐MDa post splitting complex (40S/30S∙ABCE1∙ATP), concerning especially the ABCE1 binding site and its interactions with translational proteins, was probed by a method, which combines chemical cross linking with mass‐spectrometry (XL‐MS). Following this approach, it was demonstrated that ABCE1 remains bound at the translational GTPase‐binding site after ribosome splitting, contacting the S24e protein of the small subunit. The platform for the intensive contacts to the small ribosomal subunit is thereby provided by the unique helix‐loop‐helix motif of ABCE1. Notably, the FeScluster domain of ABCE1 undergoes a large rotational and translational rearrangement towards the small ribosomal subunit S12 upon nucleotide‐dependent closure of the NBDs. Thus, a key complex in the translational cycle, resembling the link between translation initiation and ribosome recycling processes, was reconstituted and structurally analyzed.
This thesis is concerned with protein structures determined by nuclear magnetic resonance (NMR), and the text focuses on their analysis in terms of accuracy, gauged by the correspondence between the structural model and the experimental data it was calculated from, and in terms of precision, i.e. the degree of uncertainty of the atomic positions. Additionally, two protein structure calculation projects are described...
Zur vollständigen Charakterisierung der Hochstrom-Protonenquelle im Rahmen des FRANZ-Projektes war es notwendig, die Emittanz dieser zu bestimmen. Die vorliegende Arbeit befasst sich mit der Entwicklung zweier unterschiedlicher Emittanz-Messsysteme, welche in der Lage sind, im kritischen Einsatzbereich hinter der Ionenquelle die Emittanz zu bestimmen.
Die grundsätzliche Problematik der Emittanzmessung an Hochstrom-Ionenquellen liegt in den besonderen Anforderungen, die an diese Messsysteme gestellt werden. Zum einen müssen diese extrem hohe Strahlleistungsdichten und Strahlströme verarbeiten können, ohne Schaden zu nehmen. Zum anderen, was die besondere Herausforderung darstellt, ist es notwendig, dass sie unempfindlich gegenüber Hochspannungsüberschläge sind, da es naturgemäß an einer Ionenquelle zu Hochspannungsüberschlägen kommen kann, welche die sensible und teure Messelektronik schädigen können.
Aus diesem Grund wurde eine Pepperpot-Emittanz-Messanlage weiterentwickelt, welche komplett ohne hochspannungsempfindliche Elektronik auskommt. Diese besteht aus einem effizient wassergekühlten Messkopf mit einer Lochblende aus einer Wolframlegierung. Die Lochgeometrie wurde an die zu vermessende Ionenquelle angepasst. Anstelle einer Multichannelplate und / oder eines Leuchtschirms kommt eine mit Öl vorbehandelte Aluminiumplatte als Schirm zum Einsatz. Aufgrund der Wechselwirkung der, durch die Lochblende hindurch driftenden, Teilstrahlen mit der Oberfläche des Schirms, bilden sich auf diesem, mit bloÿem Auge sichtbare, Kohlenstoffabdrücke aus. Aus der Lage im Ortsraum und der Intensitätsverteilung der einzelnen Abdrücke kann die Phasenraum-Verteilung berechnet werden. Der Nachweis, dass die Intensitätsverteilung der Kohlenstoffabdrücke proportional zur Strahlstromdichtenverteilung eines jeden Abdrucks ist, wurde im Rahmen der Grundlagenuntersuchungen erbracht. Parallel wurde eine zweite, konventionelle Schlitz-Gitter-Emittanz-Messanlage entwickelt und aufgebaut.
Für die Auswertung der Rohdaten wurde eine Analysesoftware entwickelt, welche kompatibel zu beiden Messsystemen ist. Mittels dieser kann aus den Rohdaten die Phasenraum-Verteilung, die Emittanzen (Lage und Fläche) berechnet und in verschiedenen Schnittebenen graphisch dargestellt werden. Ein Hauptaspekt lag in der notwendigen Untergrundreduktion. Insbesondere bei der Analyse der Pepperpot-Schirme tritt bei der Digitalisierung derselben eine nicht physikalische Veränderung der Intensitätsverteilung der Kohlenstoffabdrücke auf. Die erfolgreiche Separation der Abdrücke vom Hintergrund war von entscheidender Bedeutung.
Mit beiden Emittanzmesssystemen konnte im Rahmen dieser Arbeit die Emittanz der FRANZ-Hochstrom-Protonenquelle bestimmt und Abhängigkeiten diverser Strahlparameter untersucht werden. Dabei zeigen die Ergebnisse beider Messsysteme eine sehr gute Übereinstimmung, was die Leistungsfähigkeit des Pepperpot-Messsystems in diesem Einsatzbereich bestätigt.
Für die Erzeugung der, im Rahmen verschiedener Emittanzmessungen, benötigten Plasmadichten wurde die eingespeiste Bogenleistung um 265% von 2.85kW auf 7.56kW erhöht. Die geringe Varianz der gemessenen Emittanzen lässt den Schluss zu, dass sich die Ionentemperatur im Rahmen der Messgenauigkeit in dem untersuchten Bereich nicht merklich ändert. Dies ist insofern bemerkenswert, da dies bedeutet, dass sich die Ionentemperatur nicht signifikant verändert hat, obwohl die Leistung im Plasma stark erhöht wurde.
Im Laufe der Grundlagenuntersuchungen des Pepperpot-Systems wurde festgestellt, dass es unter bestimmten Voraussetzungen zur Bildung von zwei Kohlenstoffabdrücken pro Blendenloch kommen kann. Mit Hilfe von Strahlsimulationen mittels dem Code IGUN sowie vergleichenden Emittanzmessungen konnte nachgewiesen werden, dass bei der Extraktion im sogenannten angepassten Fall zwei Teilstrahlen extrahiert werden. Durch eine geringfügige Erhöhung der Perveanz können diese beiden Teilstrahlen in einen laminaren Ionenstrahl überführt werden.
Im Hinblick auf die Konditionierung der FRANZ-LEBT wurde erstmals im Institut der Transport eines Hochstrom-Ionenstrahls durch einen Solenoiden sowie die Auswirkungen dessen auf die Strahlemittanz untersucht. Aufgrund des projektierten Protonenstroms von Ip = 50mA wurden diese Untersuchungen mit einem vergleichbaren Protonenstrom und einer Strahlenergie von E = 55keV durchgeführt.
Darüber hinaus wurde die zeitliche Entwicklung der Emittanz innerhalb eines Strahlpulses (80Hz,1ms,Ip = 56mA,It = 70mA) hinter dem Solenoiden untersucht. Eine Analyse zeigt, dass die Strahlemittanz innerhalb der Messgenauigkeit entlang des Pulsplateus nahezu konstant bleibt. Jedoch ändert sich die Divergenz des Strahlkerns innerhalb des Zeitraumes des Pulsanstiegs, aufgrund der Raumladungskompensation sowie des ansteigenden Stroms.
This thesis contributes to the field of machine learning with a specific focus on the methods for learning relations between the inputs. Learning relationships between images is the most common primitive in vision. There are many vision tasks in which relationships across images play an important role. Some of them are motion estimation, activity recognition, stereo vision, multi-view geometry and visual odometry. Many of such tasks mainly depend on motion and disparity cues, which are inferred based on the relations across multiple image pairs. The approaches presented in this thesis mainly deal with, but are not limited to, learning of the representations for motion and depth. This thesis by articles consists of five articles which present relational feature learning models along with their applications in computer vision. In the first article, we present an approach for encoding motion in videos. To this end, we show that the detection of spatial transformations can be viewed as detection of coincidence or synchrony between the given sequence of frames and a sequence of features which are related by the transformation we wish to detect. Learning to detect synchrony is possible by introducing "multiplicative interactions'' into the hidden units of single layered sparse coding models.
We show that the learned motion representations employed for the task of activity recognition achieve competitive performance on multiple benchmarks. Stereo vision is an important challenge in computer vision and useful for many applications in that field. In the second article, we extend the energy based learning models, which were previously used for motion encoding, to the context of depth perception. Given the common architecture of the models for encoding motion and depth, we show that it is possible to define a single model for learning a unified representation for both the cues. Our experimental results show that learning a combined representation for depth and motion makes it possible to achieve state-of-the-art performance at the task of 3-D activity analysis, and to perform better than the existing hand-engineered 3-D motion features. Autoencoder is a popular unsupervised learning method for learning efficient encoding for a given set of data samples. Typically, regularized autoencoders which are used to learn over-complete and sparse representations for the input data, were shown to fail on intrinsically high dimensional data like videos. In the third article, we investigate the reason for such a behavior. It can be observed that the regularized autoencoders typically learn negative hidden unit biases. We show that the learning of negative biases is the result of hidden units being responsible for both the sparsity and the representation of the input data. It is shown that, as a result, the behavior of the model resembles clustering methods which would require exponentially large number of features to model intrinsically high dimensional data. Based on this understanding, we propose a new activation function which decouples the roles of hidden layer and uses linear encoding. This allows to learn representations on data with very high intrinsic dimensionality. We also show that gating connections in the bi-linear models and the single layer models from articles one and two of this thesis can be thought of as a way to attain a linear encoding scheme which allows them to learn good representations on videos. Visual odometry is the task of inferring egomotion of a moving object from visual information such as images and videos. It can primarily be used for the task of localization and has many applications in the fields of robotics and navigation. The work in article four was motivated by the idea of using deep learning techniques, which are successful methods for many vision tasks, for visual odometry. The visual odometry task mainly requires inference of motion and depth information from visual input which can then be mapped to velocity and change in direction. We use relational feature models presented in the articles one and two for inferring a combined motion and depth representation from stereo video sequences. The combined representation is then mapped to discrete velocity and change in direction labels using convolutional neural networks. Our approach is an end-to-end deep learning-based architecture which uses a single type of computational model and learning rule. Preliminary results show that the architecture is capable of learning the mapping from input video to egomotion. Activity recognition is a challenging computer vision task with many real world applications. It is well know that it is a hard task to use computer vision research for real-time applications. In the fifth article of this thesis, we present a real-time activity recognition system based on deep learning based methods. Our approach uses energy based relational feature learning models for the computation of local motion features directly from videos. A bag-of-words over the local motion features is used for the analysis of activity in a given video sequence. We implement this system on a distributed computational platform and demonstrate its performance on the iCub robot. Using GPUs we demonstrate real time performance which makes the deployment of activity recognition systems in real world scenarios possible.
Das Multiple Myelom (MM) macht ungefähr 15 % aller hämatologischen Neoplasien aus. Die Einführung neuer Therapieoptionen wie der Hochdosis-Chemotherapie, der immunmodulatorischen Medikamente und der Proteasominhibitoren (PI) haben die Behandlung des MM revolutioniert. Der PI Bortezomib (BTZ) ist zu einem Grundstein der Therapie des MM geworden, aber auch der neu zugelassene PI Carfilzomib (CFZ) wird inzwischen eingesetzt. Trotz dieser Fortschritte treten Resistenzen gegen PIs zu Therapiebeginn, beziehungsweise fast unweigerlich im Verlauf der Therapie auf und das MM bleibt größtenteils unheilbar. Gegenüber PIs resistente Myelomzellen zeigen Merkmale von Pre-Plasmablasten, welche die Proteasominhibition überleben. Um mit einer Therapie auch diese resistenten Zellen zu erreichen, ist es notwendig, die PIs mit Substanzen zu kombinieren, die sich gegen die gesamte B-Zell-Linie richten. Ein neuer Hoffnungsträger in der Behandlung von B-Zell-Leukämien ist der Bruton’s Tyrosinkinase Inhibitor Ibrutinib (IBR). IBR greift die in der gesamten B-Zell-Linie exprimierte Bruton’s Tyrosinkinase an, die als Teil des B-Zell-Rezeptor Signalweges eine Schlüsselrolle bei der Entwicklung und Funktionalität normaler B-Zellen einnimmt. Die zytotoxische Aktivität von IBR in MM korreliert speziell mit der Hemmung des nachgeschalteten Signalwegs NF-κB. Die Kombination von PIs mit IBR wird bereits in klinischen Studien getestet. Allerdings fehlen zurzeit die molekularen Grundlagen für den therapeutischen Erfolg dieser Kombination. Zielsetzung dieser Dissertation war es deshalb die drei PIs BTZ, CFZ und das experimentelle, β2-selektive LU-102 hinsichtlich deren Wirkung auf den NF-κB Signalweg und in Kombination mit IBR zu untersuchen. Der präklinisch erprobte PI LU-102 wurde hier für den Vergleich mit den aktuell in der MM Therapie verwendeten Inhibitoren BTZ und CFZ hinzugezogen, da er im Gegensatz zu diesen sehr selektiv die β2-Untereinheit des Proteasom hemmt und damit einen alternativen Ansatz verfolgt. Es konnte gezeigt werden, dass der β2-selektive PI LU-102 den NF-κB Signalweg hemmt und so die Wirkung von IBR unterstützt. Im Gegensatz dazu aktivierten BTZ und CFZ diesen Signalweg und antagonisierten in diesem Punkt die Wirkung von IBR. Weiterhin konnte veranschaulicht werden, dass BTZ in Kombination mit IBR antagonistisch auf die Zytotoxizität in MM Zelllinien wirkt, während CFZ einen grenzwertigen Synergismus mit IBR bei MM Zelllinien zeigt. Den deutlich stärksten Synergismus in Kombination mit IBR zeigte sich bei LU-102. Übereinstimmend mit diesen Ergebnissen konnte für die Kombination von IBR mit LU-102 im Vergleich zu den Kombinationen mit BTZ oder CFZ eine deutlich stärkere Hemmung des NF-κB Signalweges, eine deutlichere Hemmung des Proliferationsmarkers p-STAT3 und eine robustere Aktivierung der Apoptose-Kaskade beobachtet werden. Zudem konnte nachgewiesen werden, dass LU-102 in Kombination mit IBR in vitro die Resistenz gegenüber BTZ oder CFZ überwindet; dieses Ergebnis ließ sich auch an primären Myelomzellen dreier BTZ-refraktären Patienten reproduzieren. In der Diskussion wurden Hypothesen zum unterschiedlichen Wirkverhalten von BTZ und CFZ sowie LU-102 auf den NF-κB Signalweg entwickelt: BTZ und CFZ aktivieren den NF-κB Signalweg, da diese durch Hemmung der für die Proteolyse des Proteasoms geschwindigkeitsbestimmenden β5-Untereinheit den Abbau von IκB im kompensatorisch aktivierten lysosomalen System fördern. Das β2-selektive LU-102 hingegen lässt die proteasomale Proteolyse quantitativ weitgehend unangetastet und führt somit nicht zum lysosomalen Abbau von IκB. Zudem sorgt LU-102 über einen bisher unbekannten Mechanismus für eine Hemmung des NF-κB Signalweges.
Zusammenfassend ist durch die vorliegenden Ergebnisse eine weitere klinische Entwicklung der Kombination von β2-inhibierenden Proteasominhibitoren, wie LU-102 oder Carfilzomib, mit Ibrutinib im Gegensatz zur Kombination von Bortezomib, welches die β2-Aktivität nicht inhibiert, mit Ibrutinib für das Multiple Myelom zu empfehlen.
Technology integration in physical education : examining the physical education teachers' domain
(2016)
Physical education (PE), in the meantime, has evolved as school subject that willingly adapts to technology trends to foster student learning. Several efforts to nurture and facilitate technology integration in PE indicate the growth in interest in this topic over the past years: multiple physical education teacher education (PETE) programs, textbooks, and journal papers have adopted technology issues as a regular topic in the realm of PE research and practice. Although there are plenty of conceptual papers and technology teaching tips available in common publication outputs, empirical evidence on technology integration in PE is still a rare sight. Empirical evidence on technology integration in PE is still limited. However, available studies reported vastly positive findings, favorably of a mutual linking of technology and PE Scanning through the various articles that described pedagogical scenarios for technology integration in PE, five pedagogical scenarios that stand for a typical and most beneficiary use of technology integration in PE classes in regard to student learning: a) homework and theory, b) informational Input, c) learning stations, d) feedback, and e) physical activity tracking. Focusing on the PE teachers? perspective, two empirical studies were carried out. The theoretical framework consists of three building blocks: the a) significance of technology in everyday life and school, b) organizational development and agents of school development and change, and c) determinants of technology integration in schools and in the classroom ? emphasizing the teacher as an agent of change. The first study examined PE teachers? subjective theories toward technology integration in PE. Findings indicated that a) computer literacy, b) household computer ownership, c) professional experience, as well as d) gender had an effect on PE teachers? subjective theories toward technology integration in PE. The second study surveyed PE teachers? computer literacy, and instructional technology and media use in PE. The majority of the PE teachers seldom used technology in PE classes. PE teachers? computer literacy had a statistically significant effect on their technology use in PE class for information and communications technology (ICT) such as laptops, Internet, and digital cameras. PE teachers who showed higher levels of computer literacy were more likely to use technology in the classroom. However, the sample tended to consist of PE teachers that do not use technology often. No statistical relation was found for the link of PE teachers? computer literacy and the use of traditional media (e.g., printed images, chalkboard) in the classroom. Conclusively summing up the discussion, the following developmental areas in the field of technology can be posited: a) curriculum development, b) media database, c) documentation, d) empirical research, e) PE environment, f) dissemination, g) implementation strategies, and g) professional development and PETE. Nonetheless, several concerns against technology integration in PE can be stated: a) Physical activity levels and physical activity time, b) sedentary lifestyle, c) empirical evidence, d) unfiltered experience and alienation, and e) preparation time and budget.
Es wird davon ausgegangen, dass das ehemalige Larven-Mikrohabitat der Asiatische Tigermücke Aedes albopictus (synonym: Stegomyia albopicta) die Phytotelmata in den Waldgebieten von Südostasien darstellte. In den letzten vier Jahrzehnten adaptierte sich die Art jedoch an urbanere Regionen und ihre Antrotelmata. Dank ihrer Eigenschaft, Eier mit einer gewissen Trocken- und Kältetoleranz zu produzieren, verbreitete sich die Art zusammen mit den international gehandelten Waren weltweit. Zudem ist Ae. albopictus ein theoretischer Vektor für mindestens 27 Viren sowie Parasiten und spielt eine Hauptrolle bei der Übertragung von Dengue-Viren und Chikungunya-Viren und Zika-Vieren. Daher wird die Art als große Gefahr für die öffentliche Gesundheit betrachtet.
Die vorliegende Arbeit thematisiert drei Untersuchungen zum Anpassungs- und Etablierungs-potential der invasiven Asiatischen Tigermücke.
In einem ersten Ansatz wurde das Problem behandelt, dass es lediglich zwei standardisierte toxikologische Testverfahren für Culicidae gab. Daher wurde ein Dosis-Wirkungs-Testsystem entwickelt, das den Weg für weitere biologische Endpunkte und ihre integrativen Parameter freimachte und dadurch ein besseres Verständnis für die Wirkweisen von Insektiziden ermöglicht. Hierdurch konnte nun der Frage nachgegangen werden, ob es Unterschiede in der ökotoxikologischen Reaktion zwischen der invasiven tropisch-subtropischen Asiatischen Tigermücke und der einheimischen nördlichen Hausstechmücke Culex pipiens auf das Insektizid λ-Cyhalothrin gibt. Weiter wurde der Einfluss von Temperatur und die Verfügbarkeit von Nahrung auf die Insektizidsensitivitäten der Arten getestet. Schließlich konnte in einer Risikobewertung festgestellt werden, dass bei falsch angewendeten Bekämpfungsmaßnahmen höhere Temperaturen sowie der Ausfall von aquatischen Top-Prädatoren zu Fitnessvorteilen für die Art führen können.
In einer zweiten Untersuchung wurde der Mechanismus der Kältetoleranz der Eier (Kälteakklimatisierung und Diapause) näher untersucht, da dieser für die erfolgreiche Invasion in gemäßigten Breitengraden verantwortlich gemacht wird. Nachdem eine lang vorherrschende Hypothese verworfen wurde, dass die Einlagerung von Polyolen die Frosttoleranz bewirken würde, war der aktuelle Stand der Wissenschaft, dass eine Verdickung der Wachsschicht des Chorions dafür verantwortlich sei. Jedoch lag keine detaillierte Evaluierung von Stechmücken-Eihüllen vor. Mittels einer transmissionselektronenmikroskopischen Studie konnte gezeigt werden, dass nicht nur die Wachsschicht nicht in der Serosa-Cuticula zu verorten ist, sondern im Endochorion und sie zudem im Zuge der Diapause in der Mächtigkeit schrumpft. Daher wird auf Basis der gewonnenen Erkenntnisse auf eine Kompaktierung der Schicht geschlossen.
Die dritte Untersuchung schließlich hatte das hohe Adaptationspotential in gemäßigten Breiten zum Gegenstand. Eine Adaptation auf genetischen Level gilt als unwahrscheinlich, da Gründerpopulationen in den neu besiedelten Gebieten eine niedrige genetische Diversität aufwiesen und ein regelmäßiger Neueintrag von Allelen unwahrscheinlich ist. Jedoch bietet das Konzept der epigenetischen Temperatur-Adaptation einen Erklärungsansatz für dieses Phänomen. Daher wurde die Frage gestellt, ob es möglich ist, eine vererbbare Diversifizierung dieses kältetoleranten Phänotyps nach einer randomisierten epigenetischen Behandlung der DNA zu detektieren. Es wurde eine transgenerationale Untersuchung der Effekte von zwei epigenetischen Agenzien (und einem Lösemittel) auf die Kältetoleranz der Eier durchgeführt. Die Ergebnisse zeigten ein Korrelationsmuster, das den durch die Agenzien veränderten Methylierungsgrad der DNA mit der Forsttoleranz verband, was die gestellte Hypothese unterstützte.
In Folge dieser drei Untersuchungen wurde festgestellt, dass Ae. albopictus ein hohes Potential hat, in weiteren Ländern – vor allem in gemäßigten Breiten – ein Gesundheitsrisiko darzustellen. Da die Art einerseits Fitnessvorteile durch falsche Bekämpfungsmaßnahmen und andererseits möglicherweise eine hohes epigenetisches Adaptationspotential besitzt, kann zusammenfassend empfohlen werden, dass der Fokus für weitere Forschung maßgeblich auf der Entwicklung von Impfstoffen für die übertragenen Viren und Pathogene liegen sollte. Dadurch kann die Bevölkerung geschützt werden, ohne Ökosysteme und ihre Dienstleistungen zu gefährden, und dies wäre zudem ökonomisch gesehen die effektivere Lösung.
Bei Cryptochromen handelt es sich um Blaulichtrezeptoren der Cryptochrom-Photolyase-Proteinfamilie (CPF). Mitglieder dieser Proteinfamilie sind in allen Domänen des Lebens zu finden und haben eine essentielle Rolle in der Reparatur der DNA sowie der lichtgesteuerten Regulation der Expression. Cryptochrome sind in der Regel keine DNA-reparierenden Proteine. Sie sind regulativ an der Steuerung der inneren Uhr und des Zellzyklus der Organismen beteiligt. In der Kieselalge Phaeodactylum tricornutum konnten bisher sechs phylogenetisch unterschiedliche Mitglieder der CPF identifiziert werden. Bei CryP handelt es sich um das einzige pflanzenähnliche Cryptochrom der photoautotrophen Diatomee. Für das Protein CryP konnte bereits ein blaulichtinduzierter Photozyklus durch die Absorption der Chromophore 5-Methenlytetrahydrofolat (MTHF) und Flavinadenindinukleotid (FAD) gezeigt werden. Außerdem ist eine regulative Wirkung des Proteins auf die Lichtsammelkomplexe (Lhc) der Diatomee bekannt. Für eine weitere Charakterisierung des CryPs wurde in dieser Arbeit zunächst das Absorptionsverhalten unter verschiedenen Wellenlängen beobachtet, um so einen Einblick in eine mögliche Aktivierung und Deaktivierung des Proteins durch Licht unterschiedlicher Wellenlängen zu erlangen. Es zeigte sich hierbei eine mit pflanzlichen Cryptochromen vergleichbare Anreicherung verschiedener Redoxzustände des FADs in Abhängigkeit von der Wellenlänge.
Für eine Aufklärung der Wirkungsweise des CryP-Proteins wurden verschiedene Hypothesen untersucht: Die phylogenetische Nähe und ein ähnliches Absorptionsverhalten des CryPs zu Cryptochromen mit Reparaturfähigkeit für einzelsträngige DNA (Cry-DASH) führte zu einer Untersuchung des Proteins als möglicher Transkriptionsfaktor. Hierfür konnte eine Kernlokalisation des Proteins nachgewiesen werden, was Rückschlüsse auf eine potentielle Regulation der Expression mittels DNA-Bindung zulässt. Außerdem wurde gezeigt, dass CryP DNA-Bindefähigkeit besitzt. Die bisher nachgewiesenen Bindungen waren jedoch unspezifischer Art. Dies konnte auch für die Promotersequenz eines der durch CryP regulierten Gene lhcf1 festgestellt werden. Auf Grund der unspezifischen DNA-Bindung wurde eine zweite Hypothese für CryP untersucht: CryP wirkt regulativ auf die Expression verschiedener Gene durch Protein-Protein-Interaktionen und ist Teil einer Reaktionskaskade zur Signalweiterleitung in P. tricornutum.
Durch die Untersuchung der zweiten Hypothese konnten drei Interaktionspartner für CryP identifiziert und eine Interaktion verifiziert werden. Hierbei handelt es sich um das Protein AAA mit einer bisher unbekannten Funktion und das Protein BolA, welches Teil der zuerst in Escherichia coli identifizierten BolA-like-Proteinfamilie ist. Außerdem konnte eine Interaktion mit dem Cold-Shock-Domänen-Protein CSDP gezeigt werden. Bei den Proteinen BolA und CSDP handelt es sich um potentiell regulierende Faktoren der Transkription und Translation, was Teil einer Reaktionskaskade sein kann. Die aus anderen Organismen bekannten Funktionen des BolA-Proteins überschneiden sich mit den in CryP-Knockdown-Mutanten beobachteten Effekten. Sie zeigen eine erhöhte Sensitivität für Stresssituationen wie abweichende Nährstoffkonzentration, Osmolaritäten und Temperaturen. Diese Beobachtungen stellen einen Zusammenhang der durch einen CryP-Knockdown beobachteten Effekte und der CryP-BolA-Interaktion her. Durch Homologien zu Cold-Shock-Proteinen aus Chlamydomonas reinhardtii gibt die CryP-Interaktion mit dem Protein CSDP Hinweise auf einen potentiellen Mechanismus zur Regulation der Lhc-Proteine, für welche zuvor ein CryP-abhängiger Effekt beschrieben war.
Über die Protein-Protein-Interaktionen hinaus wurde die Phosphorylierung des CryPs als Möglichkeit der Signalweiterleitung untersucht. Es konnte eine reversible Phosphorylierung des heterolog aus E. coli isolierten CryPs gezeigt werden. Diese zeigt Ähnlichkeiten zu bekannten Phosphorylierungen pflanzlicher Cryptochrome und gibt Hinweise auf einen Mechanismus der Signalweiterleitung.
Durch die Untersuchung der CryP-regulierten Transkription mit P. tricornutum CryP-Knockdown-Mutanten durch Next-Generation-Sequencing (NGS) konnte die Hypothese der regulativen Proteinkaskade und der Signalweiterleitung weiter bestätigt werden. Die Auswirkungen des CryPs auf die Transkription erwiesen sich als nicht auf einen Teilbereich des Metabolismus begrenzt, sondern sind in einem großen Teil der funktionellen Gengruppen in P. tricornutum zu sehen. Außerdem konnten drei Klassen CryP-regulierter Gene festgestellt werden. Kategorie 1: die ausschließlich unter Blaulicht regulierten Gene; Kategorie 2: die sowohl unter Blaulicht als auch im Dunkeln regulierten Gene und Kategorie 3: die ausschließlich im Dunkeln regulierten Gene. Ein im Dunkeln und unter Blaulicht jeweils unterschiedlicher regulativer Effekt deutet auf eine Doppelfunktion des CryPs hin. Möglicherweise hat das Cryptochrom unterschiedliche lichtabhängige und lichtunabhängige Funktionen.
Durch die Analyse der CryP-regulierten Genexpression konnte außerdem ein Zusammenhang zwischen CryP und weiteren Photorezeptoren gezeigt werden. Der CryP-Proteingehalt in der Zelle hat einen regulativen Einfluss auf das CPF1-Protein, eine Photolyase mit dualer Funktion aus der gleichen Proteinfamilie. Zusätzlich konnte auch ein Einfluss auf die Lichtsensitivität der Genexpression des Rotlichtrezeptors Phytochrom (DPH) durch CryP gezeigt werden. Vergleichbar mit höheren Pflanzen scheint ein regulatives Netzwerk der Photorezeptoren auch in der Diatomee P. tricornutum vorhanden zu sein.
To survive and thrive in nature, animals need to adapt their behavior to their environment. Behavioral adaptation is primarily due to changes within the brain and involves changes in the brain proteome (the collection of proteins in the brain). However, thus far very few studies have examined the proteomic changes during behavioral adaptation. Hence, with this work I set out to determine the proteomic changes induced in the brain of zebrafish larvae undergoing behavioral adaptation. Specifically, I examined the changes induced by adaptation to the natural challenge of strong water currents. To this end I took advantage of an assay developed by my collaborators Luis Castillo and Soojin Ryu. In this assay 5 days old zebrafish larvae were exposed to strong water currents. Subsequently they exhibited a reduction in cortisol response and initial locomotion, and increased rheotaxis, as defined by increased swimming directly against the water current when re-exposed to the water current. I employed this assay to investigate the changes to the larval zebrafish brain proteome during behavioral adaptation. Furthermore, I developed a method for extracting larval brains and prepare them for mass-spectrometric analysis. This work not only allowed the comparison of the brain proteome of naïve and behaviorally-adapted larvae, but also resulted in the most comprehensive proteome of the zebrafish brain observed to date and the first proteome of the larval zebrafish brain. In total 4309 proteins were identified in the brain. When the proteome of naïve and behaviorally adapted larvae were compared 41 proteins were found to be more abundant and 16 to be less abundant in the pre-exposed larvae. Of these 57 proteins, 28 have previously been found to have functions in the brain, 17 with functions identified in other tissues, and 12 proteins that have yet to be described. From examining the most relevant function of each protein I propose a speculative model in which the larval brain undergoes behavioral adaptation and becomes less susceptible to stress (reduction in mecp2 and hsp90 protein), form new neuronal connections (regulation of arid1b, fmn2b, ptpra, mycbp2, and pcyt2), modulate existing connections (regulation of asic1b, calsenilin, ptpra, aplp2, dag1, olfm1b, mycbp2, smad3a, and acvr2a abundance), undergo spatial learning in form of navigating the water vortex (increases in calsenilin, ptpra, and pcyt2), show an elevation in protein turnover (increases in lamp2, Ublcp1, larp4b, and ublcp1), have increased and regulated energy production (increases or reduction in rpia, ldhbb, and mitochondrial proteins; nfs1, eci1, MRPS2B, MRPL4, and mrps2), and a decrease in neurogenesis (reduction in smad3a, and ric8a).
To further investigate proteomic changes during behavioral adaptation, I investigated the translational response by metabolically labeling the larval forebrain with ANL and visualizing the labeled proteins using the fluorescent non-canonical amino acid tagging (FUNCAT). I detected a general increase in translation within the forebrain as a result of the water vortex adaptation, which correlated well with the range of changes observed in the brain proteome. Specifically, a region within the forebrain correlated with a region in the adult zebrafish that is homologous to the mammalian limbic region.
Taken together these results show that during behavioral adaptation, protein synthesis is significantly increased in the larval forebrain, and that throughout the brain regulation of the proteome includes proteins that could support the following functions: changes or modifications in neuronal connectivity, the stress response, spatial learning, changes in energy metabolism and changes in neurogenesis.
Lastly, I set out to provide a new tool for zebrafish researchers. Together with Güney Akbalik I introduced metabolic labeling of newly synthesized RNA using 5-ethynyluridine (EU) and subsequent visualization with a copper catalyzed clickreaction to the zebrafish larvae. With 5 hours of EU incubation I was able to visualize newly synthesized RNA and identify pentylenetetrazole-induced transcriptional increases. With this I showed that EU labeling could be implemented to examining transcriptional changes within the brain of zebrafish larvae.
The human Long Interspersed Nuclear Element-1 (LINE-1, L1) is a member of the group of autonomous non-LTR retrotransposons found in almost every eukaryotic genome. L1 elements generate copies of themselves by reverse transcription of an RNA intermediate and integrate into the host genome by a process called Target Primed Reverse Transcription (TPRT). They are responsible for the generation of approximately 35% of the human genome, cover about 17% of the genome and represent the only group of active autonomous transposable elements in humans. L1 activity bears several risks for the integrity of the human genome, since the L1-encoded protein machinery generates DNA double-strand breaks (DSBs) and is capable of conducting numerous genome-destabilizing effects, e.g. causing deletions at insertion sites, disrupting or rearranging coding sequences and deregulating transcription of functional host genes. On the other side, L1 elements have had and still exert a great impact on human genome structure and evolution by increasing the genome size and rearranging and modulating gene expression. Furthermore, due to its endogenous and generally non-pathogenic nature, L1 is a promising candidate as vector for gene delivery in somatic gene therapy. The structure of the flanking regions between de novo L1 integrants and the genomic sequence suggests an involvement of cellular DSB repair pathways in L1 mobilization. To elucidate the role of DSB repair proteins in L1 retrotransposition, I disabled DSB repair factors ATM, ATR, DNA-PK, p53 and Ku70 by knock down (KD) using short hairpin RNA (shRNA) expression constructs. To inhibit the function of DSB repair factors PARP and Rad51, I used dominant negative (DN) PARP and Rad51 mutants. Applying a well established L1-retrotransposition reporter assay in HeLa cells, de novo retrotransposition events were launched in order to test L1 for its retrotransposition activity in the context of altered DSB repair conditions. I could show that L1 retrotransposition frequency after ATM KD had increased by 3-fold, while ATR and p53 KD reduced L1 retrotransposition by approximately one third. Unfortunately, the cytotoxic effects of the DNA-PK and Ku70 shRNA expression constructs were too strong to determine potential effects of DNA-PK and Ku70 KD on L1 retrotransposition. Inhibition of PARP function by expression of the DN mutant and overexpression of wild type PARP were found to increase L1 retrotransposition by 1.8 and 1.5, respectively, while Rad51 DN had no detectable effect. Interestingly, overexpression of wild type Rad51 seemed to roughly double L1 retrotransposition frequencies. Since in my experiments KD or expression of DN mutants was time-delayed to the onset of L1 retrotransposition after transfection into the cells, I developed a temporally controllable, tetracyclin transactivator (tTA)-dependent L1 retrotransposition reporter assay which will be of great value for future L1 retrotransposition studies that rely on temporally controllable retrotransposition. Due to a previously published hypothesis of L1 playing a role in brain development by contributing to somatic mosaicism in neuronal precursor cells, I generated a transgenic mouse (LORFUS) using the tTA-dependent L1 construct to further test this hypothesis. LORFUS harbors a bidirectional cassette driving simultaneous expression of a GFP-tagged L1 retrotransposition reporter and beta-galactosidase. It was bred to another transgenic mouse line expressing tTA in the forebrain. The double transgenic offspring was used to characterize L1 expression and retrotransposition patterns in the brain at postnatal day 15 (P15). General transgene expression indicated by beta-galactosidase activity was found in hippocampus, cortex and striatum, while retrotransposition events revealed by GFP expression were found in hippocampus, cortex, striatum, olfactory bulb and brainstem. These results suggested L1 retrotransposition in the granule layer of the dentate gyrus earlier than P15 and migration of cells carrying these events along the rostral migratory stream into the olfactory bulb. To facilitate the use of L1 as gene delivery tool in gene therapy or genetic engineering, I furthermore intended to manipulate the L1 target site recognition to allow the site-specific integration into defined genomic locations. To this end, I performed crystal structure-guided mutational analysis exchanging single amino acid residues within the endonuclease (EN) domain of L1 to identify residues influencing target site recognition. However, individual point mutations did not change the nicking pattern of L1-EN, but resulted in a reduction of endonucleolytic activity reflected by a reduced retrotransposition frequency. This suggests that additional factors other than the DNA nicking specificity of L1-EN contribute to the targeted integration of non-LTR retrotransposons in the host genomes.
Das idiopathische Parkinsonsyndrom (IPS) wurde durch James Parkinson im Jahr 18171 vornehmlich als neurologische Bewegungsstörung beschrieben. Durch die Verdienste umfassender Forschung und klinischer Diagnostik der letzten Jahrzehnte wird das IPS heute als Syndrom aufgefasst, das neben motorischen auch durch neuropsychiatrische, vegetative und sensible Symptome charakterisiert ist. Eines dieser sogenannten „nicht-motorischen Symptome“ bildet die (milde) kognitive Beeinträchtigung, die jeden vierten nicht-dementen Parkinsonpatienten betrifft2 und die im oft langjährigen Krankheitsverlauf in eine Parkinsondemenz münden kann, an der 8 Jahre nach Krankheitsbeginn bis zu 78% der Parkinsonpatienten leiden.3 Durch die steigende Lebenserwartung der Patienten und die besseren Therapieoptionen der motorischen Komponente eines IPS finden derzeit gerade die nicht-motorischen Symptome sowohl in der Forschung als auch der Klinik zunehmend stärkere Beachtung.
Die motorische Symptomatik des IPS wird vorrangig durch die Degeneration dopaminerger Neuronen in bestimmten Strukturen des Hirnstamms hervorgerufen.4 Die Entwicklung kognitiver Symptome ist komplexer und umfasst vermutlich neben der (genannten) dopaminergen Degeneration die Beeinträchtigung weiterer Neurotransmitter sowie degenerative Prozesse an anderer Stelle des ZNS.5 Insbesondere die Atrophie von frontalem, parietalem und (medio-) temporalem Cortex scheint mit der Parkinsondemenz assoziiert.6–8 Auch gleichzeitig auftretende histopathologische Prozesse, die für die Alzheimer-Demenz charakteristisch sind, werden diskutiert.9
Der Hippocampus, eine Struktur des Mediotemporallappens, leistet einen bedeutenden Beitrag zum deklarativen räumlichen Gedächtnis und zum Arbeitsgedächtnis sowie zur Verarbeitung von Emotionen, sodass er beim normalen Altern, aber auch vielen Erkrankungen, eine wichtige Rolle einnimmt.10–12 Vor allem bei der Alzheimer-Demenz ist der Hippocampus eine sehr früh von der Atrophie betroffene Struktur.13 In den letzten Jahren mehren sich die Hinweise, dass dies auch bei der Parkinsondemenz der Fall ist.14–16 Aus diesem Grund wird im Folgenden ein besonderes Augenmerk auf diese Struktur gelegt.
Die vorliegende Studie setzt sich mit der Fragestellung auseinander, ob und inwiefern sich Parkinsonpatienten mit unterschiedlich ausgeprägten kognitiven Einschränkungen in den Volumina ausgewählter Hirnstrukturen – darunter die corticale graue und weiße 8 Substanz, der Hippocampus und die Hirnventrikel – sowie in den neuropsychologischen Domänen Gedächtnis, Exekutivfunktionen und Aufmerksamkeit, Sprache und visuell-räumliche Funktionen unterscheiden. Außerdem wird untersucht, ob zwischen den Hirnvolumina und dem Grad der kognitiven Einschränkung ein Zusammenhang besteht. Hierzu werden Parkinsonpatienten ohne Demenz (PD), Parkinsonpatienten mit milder kognitiver Beeinträchtigung (PD-MCI) und Patienten mit Parkinsondemenz (PDD) neuropsychologisch untersucht und magnetresonanztomographische Aufnahmen des Gehirns erstellt. Die mit einem automatisierten Messprogramm ermittelten Hirnvolumina werden in Korrelation zu Testungen des Gedächtnisses, der Exekutive und Aufmerksamkeit, der Sprache und visuell-räumlicher Funktionen gesetzt.
Die Arbeit gliedert sich wie folgt: Zum besseren Verständnis der kognitiven Symptomatik werden im ersten Kapitel die nicht-kognitiven Symptome des IPS charakterisiert sowie der aktuelle Wissensstand über Kognition beim IPS wiedergegeben. Anschließend werden die technischen Grundlagen der Magnetresonanztomographie und Methoden zur Auswertung struktureller MRT-Bilder erläutert. Darauf aufbauend wird die Fragestellung konkretisiert, bevor im zweiten Teil der Arbeit die Vorstellung des Studiendesigns, die Präsentation der Ergebnisse und im letzten Teil die Diskussion erfolgen.
The transporter associated with antigen processing (TAP) is a heterodimeric ATP-binding cassette (ABC) transport complex, which selects peptides for export into the endoplasmic reticulum (ER) and subsequent loading onto major histocompatibility complex class I (MHC I) molecules to trigger adaptive immune responses against virally or malignantly transformed cells. Due to its pivotal role in adaptive immunity, TAP is a target for infectious diseases and malignant disorders, such as bare lymphocyte syndrome type I and cancer. A detailed knowledge about the TAP structure and transport mechanism is fundamental for the development of therapies or drugs against such diseases, but numerous aspects are insufficiently determined to date. The aim of this PhD thesis was to elucidate several structural details of TAP using powerful biochemical and biophysical methods and thereby to contribute to the understanding of the translocation machinery functionality.
High protein yields, an efficient isolation from the lipid environment and subsequent purification of a stoichiometric, stable, and functional TAP complex are prerequisites to get detailed insights into TAP functionality. The natural product digitonin is typically used as detergent to isolate TAP, but suffered from fluctuating purity and high costs. The novel detergent GDN was selected from a number of potential detergents upon their ability to isolate and purify TAP overcoming the limitations of digitonin without compromising on functional integrity. State-of-the-art biophysical techniques, such as solid-state nuclear magnetic resonance (NMR), require highly concentrated protein samples. A new and mild procedure to concentrate TAP was established within this thesis. Freeze drying is superior to conventional concentration techniques, such as ultrafiltration, resulting in TAP inactivation and aggregation already at concentrations of 10 mg/mL. This new procedure enables stabilizing TAP in a condensed glycerol matrix and to concentrate the transport complex up to 30 mg/mL active transporter. The functional integrity of the freeze-dried TAP complex was verified by determining equilibrium dissociation constants, peptide dissociation and ATP-hydrolysis rates as well as long-term stabilities identical to untreated TAP. The combined application of the detergent GDN and the freeze drying procedure facilitates the cost-efficient isolation of functional and highly concentrated TAP and enables to study the structure and mechanism of the peptide transporter TAP using modern analyses methods.
Information on peptide-TAP interactions at atomic level have not been obtained so far. This lack of knowledge hampered the mechanistic understanding of the initial steps of substrate translocation catalyzed by TAP. Dynamic nuclear polarization (DNP) enhanced magic angle spinning (MAS) solid-state NMR on highly concentrated TAP samples prepared with the freeze-drying procedure was used within this thesis to study this challenging membrane protein-substrate complex. The affinity and specificity of peptide binding by TAP are mediated by multiple recognition sites in the N- and C-terminal regions. Side-chains of positions 1, 3, and 9 are most substantially affected upon binding to TAP, revealing recognition principles of the translocation machinery. The nonamer peptide binds to TAP in an extended conformation with an N-to-C terminus distance of ~2.5 nm. Molecular docking revealed that the peptide substrate is locked with its N and C termini between TAP1 and TAP2 and adopts a tilted pose with respect to the membrane plane. The identified contact sites of TAP are consistent with results from earlier crosslinking and mutational analyses on the TAP complex.
The inadequate structure determination and insufficient knowledge about the dynamics of substrate translocation impedes a detailed comprehension of the TAP transport mechanism. Advanced biophysical methods, such as pulsed electron paramagnetic resonance (EPR) or single-molecule Förster resonance energy transfer (FRET), enable to locate the peptide-binding pocket and to elucidate dwell-times, conformational states and dynamics within the translocation cycle of TAP. The specific introduction of spin or fluorescent labels via single cysteines for such studies requires a cysteine-less TAP complex. The endogenous cysteine 213 in TAP2 remained to create a pseudo Cys-less TAP complex within this thesis due to its altered substrate repertoire when mutated to serine as shown in previous studies. Latter complex was used to introduce single-Cys mutations in the cytosolic extensions of transmembrane helices of TAP1. Their functional integrity with respect to peptide binding and translocation was comparable to pseudo Cys-less TAP. All pseudo single cysteines were efficiently labeled, but unintentionally C213TAP2 was labeled as well and TAP concomitantly inactivated. These unsatisfactory initial experiments required the generation of a functional, entirely Cys-less TAP transporter within this thesis. Therefore, C213TAP2 was replaced by all 19 proteinogenic amino acids. All analyzed mutants were capable to bind a high-affinity peptide of TAP, but with varying affinities and binding capacities. The replacement of C213 by isoleucine enabled the generation of a cysteine-less TAP complex with functional characteristics similar to the wild-type transporter and will promote the elucidation of the translocation mechanism of the peptide transporter TAP in future studies using pulsed EPR and single-molecule FRET.
Human MSCs are currently deployed in a wide range of clinical applications and disease models, because of their regenerative and immune modulatory potential. Unfortunately, the fate of MSCs after systemic administration and the related interactions within the blood circulation are still not fully understood. The majority of i.v. or i.a administered MSCs accumulate in the lungs and loose traceability after 3-4 days in vivo144. Since engraftment rate and long term persistence of injected MSCs seems rather low, we tried to improve in vivo kinetics by using hyperosmolaric injection media (HyperHAES) in order to describe the impact on biodistribution, cell morphology and survival rate. In vitro culture related changes in morphology and surface expression patterns were analysed using flow cytometry and brightfield morphology scan in correlation with calibrated microbeads. In vivo tracking of male PKH67 labeled human MSCs in an immunecompetent mouse model were achieved using SRY-gene qRT-PCR analysis and flow cytometry/fluorescence microscopy at different time points. Kinetics, viability and cell-cell interaction of HyperHAES coinjected MSCs in comparison to NaCl 0.9% injection media were assessed with a combination of altering mitochondrial membrane potential (MMP), caspase 3/7-activity, additional survival and surface markers. Incubation of human MSCs in hyperosmolaric injection media (HyperHAES) shortly before i.v. injection decreased average diameter of culture expanded MSCs about 30% (from 48.7±2.29μm to 34.6±2.04μm) and improved viability and retrieval rate of injected MSCs within 24h. HyperHAES decreased significantly the loss of MMP and the signal intensity of the dead cell marker PI in comparison to isotonic control. HyperHAES treated MSCs are detected at higher frequencies in most murine tissues but didn`t result in alterations of interaction with the host immune system or caspase activation. Additionally, HyperHAES seemed to enable MSCs to reach organs with smaller microcirculation like the spleen. Functional impairment of MSC in HyperHAES was analysed with Phalloidin A staining for cytoskeletal activation and showed no signs of disturbed actin polymerization, whereas nuisance of migration and immunemodulatory characteristics were not addressed. PKH67 labeled MSCs decrease in size after i.v. injection in mice, acquire apoptotic and phagocytic cell markers, and accumulate in lungs and liver. This process could be delayed but not reverted by preincubation of MSCs in HyperHAES. Our findings help to explain the rapid loss of traceable MSCs after systemic delivery.
Die Populationsgenetik beschäftigt sich mit dem Einfluss von zufälliger Reproduktion, Rekombination, Migration, Mutation und Selektion auf die genetische Struktur einer Population.
In dieser Arbeit mit dem englischen Titel "Ancestral lines under mutation and selection" wird das Zusammenspiel von zufälliger Reproduktion, gerichteter Selektion und Zweiwegmutation untersucht.
Dazu betrachten wir eine haploide Population in der jedes Individuum zu jedem Zeitpunkt genau einen von zwei Typen aus S:={0,1} trägt. Dabei sei 1 der neutrale und 0 der selektiv bevorzugte Typ. Im Diffusionslimes sehr großer Populationen modellieren wir den Prozess der Frequenz der Typ-0-Individuen durch eine Wright-Fisher-Diffusion X:=(X_t) mit Mutation und gerichteter Selektion.
Zu jedem Zeitpunkt s gibt es genau ein Individuum, dessen Nachkommen ab einem bestimmten zukünftigen Zeitpunkt t>s die gesamte Population ausmachen werden. Wir nennen dieses Individuum den gemeinsamen Vorfahren zum Zeitpunkt s, da alle Individuen zu allen Zeitpunkten r>t von ihm abstammen. Sei R_{s} dessen Typ zum Zeitpunkt s. Wir nehmen an, dass der Prozess X zum Zeitpunkt 0 im Gleichgewicht ist und definieren die Wahrscheinlichkeit, dass der gemeinsame Vorfahre zum Zeitpunkt 0 Typ 0 hat, durch h(x):= P(R_{0}=0|X_{0}=x). Eine Darstellung von h(x) wurde bereits von Fearnhead (2002) und Taylor (2007) gefunden und dort mit vorwiegend analytischen Methoden bewiesen. In dieser Arbeit entwickeln wir in Kapitel 3 ein neues Teilchenbild, den pruned lookdown ancestral selection graph (pruned LD-ASG), der für sich selbst genommen interessant ist und eine neue probabilistische Interpretation der Darstellung von h(x) liefert.
Durch Erweiterung des Teilchenbildes auf Nachkommenverteilungen mit schweren Tails und mit Hilfe einer Siegmund Dualität gelingt es uns in Kapitel 4 das Resultat für h(x) von klassischen Wright-Fisher-Diffusionen auf Lambda-Wright-Fisher-Diffuison zu erweitern.
Eine Verbindung zwischen Ideen von Taylor (2007), der den gemeinsamen Prozess (X,R) untersucht hat, und einem von Fearnhead (2002) betrachteten Prozess (R,V), der die Entwicklung des Typs R des gemeinsamen Vorfahren in einer Umgebung von V sogenannten virtuellen Linien beschreibt, stellen wir in Kapitel 6 her. Wir bestimmen die gemeinsame Dynamik des Tripels (X,R,V). In Kapitel 7 betrachten wir ein diskretes Bild mit endlicher Populationsgröße N und schlagen dort eine Brücke zu Resultaten von Kluth, Hustedt und Baake (2013).
Des Weiteren entwickeln wir in Kapitel 5 dieser Arbeit einen Algorithmus zur Simulation der Typen einer Stichprobe von m Individuen, die aus einer Wright-Fisher-Population mit Mutation und Selektion im Gleichgewicht gezogen wird. Mittels dieses Algorithmus illustrieren wir die Typenverteilung für verschiedene Parameterwerte und Stichprobengrößen.
Great interest has emerged recently in the search for Kitaev spin liquid states in real materials. Such states rely on strongly anisotropic magnetic interactions, which have been suggested to exist in a number of candidate materials based on Ir and Ru. This thesis concentrates on two priority purposes. The first is the investigation of electronic and magnetic properties of candidate materials Na2IrO3, α-Li2IrO3, α-RuCl3, γ-Li2IrO3, and Ba3YIr2O9 for Kitaev physics where both spin-orbit coupling and correlation effects are important. The second is the method development for the microscopic description of correlated materials combining many-body methods and density functional theory (DFT). ...
Die Dissertation befasst sich mit den kognitiven Prozessen die Intelligenz ausmachen und ist in drei Teile aufgeteilt. Der erste Teil rezensiert den Beitrag kognitiver und nicht-kognitiver Variablen zur Vorhersage von Hochbegabung in einer Altersspanne die von der Geburt bis zur Einschulung reicht. Aus dem nicht-kognitiven Bereich stammen Konstrukte wie Schlafverhalten, motivationale Faktoren wie Neugier und Interesse, und deren Interaktion mit dem sozialen Umfeld. Kognitive Variablen stellen frühe, außergewöhnliche Sprach-, Lese-, Schreib- und Rechenfähigkeiten dar, sowie Intelligenzquotienten, die mit den gängigsten testpsychologischen Verfahren ermittelt werden, und Komponenten der Informationsverarbeitung wie Habituation und Arbeitsgedächtnis. Trotz der Berichte über mittlere Korrelation ist die aktuelle Datenlage kritisch zu betrachten und weist eine niedrige Vorhersagevalidität der Frühprognose von Hochbegabung auf. Es wird mit dem dynamischen Modell der Intelligenz argumentiert, nach dem die mangelnde prognostische Validität und die Unzuverlässigkeit der kognitiven Vorhersageindikatoren auf die Annahme zurückzuführen sind, dass kognitive Prozesse unabhängig voneinander sind. Erst im Laufe des Lebens werden diese immer häufiger miteinander verknüpft und korreliert (Mutualismus). Das bedeutet, es findet eine zunehmende Integration kognitiver Prozesse statt und daraus resultiert der g-Faktor.
Doch das Arbeitsgedächtnis spielt weiterhin eine zentrale Rolle in Bezug auf Intelligenz, wenn nicht im Säuglingsalter, dann zumindest ab dem Vorschulalter und besonders im Erwachsenenalter. Arbeitsgedächtniskapazität stellt das Ausmaß an Fähigkeit dar, Informationen simultan zu speichern und zu verarbeiten, ohne die Notwendigkeit auf Vorwissen zurückzugreifen. Es kann damit als eng umschriebener kognitiver Prozess aufgefasst werden. Vorherige Forschungsarbeiten haben bereits deutlich gezeigt, dass Arbeitsgedächtnis und Intelligenz korrelativ stark zusammenhängen. Das ist durchaus überraschend, denn die Aufgaben und Tests mit denen die Konstrukte jeweils erfasst werden können sich oberflächlich stark unterscheiden. Um fluide Intelligenz valide erfassen zu können, sind Aufgaben zum induktiven Denken, wie zum Beispiel Matrix-Aufgaben, sehr beliebt. Im Rahmen der zweiten Arbeit hat man sich dem Einfluss der Prozesse Zielmanagement und Regel-Induktion auf den Zusammenhang zwischen Arbeitsgedächtnis und Problemlösung der Matrix-Aufgaben gewidmet. Zielmanagement wurde bereits zuvor mit dem Arbeitsgedächtnis in Verbindung gebracht jedoch war die Befundlage hinsichtlich der Regel-Induktion unklar. Daher sollte die Hypothese ob Regel-Induktion unabhängig vom Arbeitsgedächtnis ist, in einem kritischen Experiment überprüft werden. Bei Neutralisierung der Notwendigkeit für Regelinduktion, indem den Probanden die Regeln im Voraus erklärt wurden, konnte man einen erhöhten Zusammenhang zwischen dem Arbeitsgedächtnis und der Leistung in der Matrix-Aufgabe erkennen. Das deutete in der Tat darauf hin, dass Regel-Induktion nicht vom Arbeitsgedächtnis abhängig ist, zumindest nicht im gleichen Maße wie Zielmanagement. Darüber hinaus zeigte sich: Die Kenntnis der Regeln beeinflusst den Problemlöseprozess. Eye-Tracking-Messungen weisen auf eine konstruktive Anpassungsstrategie in der Experimentalbedingung (mit Regelwissen) hin. Basierend auf den Erkenntnissen aus vier Experimenten, wird mit zwei möglichen Mechanismen argumentiert, die die Steigerung des Zusammenhangs zwischen Arbeitsgedächtnis und Matrix-Problemlösen in der Experimentalgruppe erklären könnten.
Alternativ zur zuvor angenommenen Unabhängigkeit von Regel-Induktion und Arbeitsgedächtnis, könnte die erhöhte Korrelation bei bekannten Regeln auch mit der beobachteten Strategieänderung erklärbar sein. Die dritte und letzte Arbeit widmete sich deshalb erneut dieser Fragestellung. Erneut kamen Matrix-Aufgaben zum Einsatz und es wurden Testleistung, Augenbewegung und Reaktionszeiten erhoben, um den Einfluss von Regelwissen zu erfassen. Es zeigte sich die Anwendung einer effektiveren Lösungsstrategie in der Experimentalbedingung. Anhand der Eye-Tracking Messung wurde gezeigt, dass Probanden mit Regelwissen über einen längeren Zeitraum das problemrelevante Areal der Matrix-Aufgabe fixieren, und eine niedrigere Frequenz an Sakkaden zwischen diesem Areal und den Antwortalternativen aufwiesen.
Weitere Einflussvariablen auf die Lösestrategie stellen Schwierigkeit der Aufgabe und Fähigkeiten des Probanden dar. Diese weisen einen differenziellen Einfluss auf zwei Subgruppen von Indikatoren der Augenbewegungsmessung auf, die in Relation zu den Reaktionszeiten gesetzt wurden um ein besseres Verständnis dieser Variablen zu erzielen. Es wird vermutet, dass Variablen wie Augenbewegungen und Reaktionszeiten das Ausmaß des Entstehens von mentalen Modellen während des logischen Denkens widerspiegeln. Unter der Annahme dass die Komplexität von Mentalen Modellen mit einer gewissen Belastung für das Arbeitsgedächtnis einhergeht, lassen sich auch vorherige Ergebnisse mit dieser Hypothese in Einklang bringen. Abschließend werden die grundlegenden kognitiven Prozesse des induktiven Denkens diskutiert und ein Ausblick auf zukünftige Intelligenzmessung angeboten.
In Anbetracht der wachsenden soziokulturellen Vielfalt in Deutschland und in anderen europäischen Ländern wächst die Relevanz pädagogischer Ansätze zur kulturellen Verständigung und somit auch der soziokulturellen Kommunikation und Sozialisationsforschung.
D. Kumbier und F. Schulz von Thun beschreiben diese Situation in folgender Weise: "Wenn Menschen miteinander in Kontakt treten, prallen Welten aufeinander. Das ist schon innerhalb einer Kultur der Fall, weil jeder mit einem persönlichen mentalen System ausgestattet ist, das ihn zu einem einmaligen und einsamen Inselbewohner macht. Unsere ganze Kommunikationspsychologie legt es darauf an, für diesen Prozess der Bewegung von Welten ein Bewusstsein zu schaffen und auf diese Grundlage kompetente Umgangsformen aufzubauen" (Kumbier/Schulz von Thun 2008, S. 9).
Hier begegnen sich zwei Welten, die auf zwei verschiedenen Kontinenten liegen, deren Werteorientierungen und kulturelle Normen und Gebräuche auf verschiedenen Weltreligionen basieren, die sich im Laufe der Jahrhunderte anders entwickelt haben. Hier ist die Rede von Asien und Europa, vom Christentum und Islam, von einem Entwicklungsland und einem Industrieland, nämlich von Afghanistan und Deutschland.
Eine nähere Betrachtung zeigt, dass das Christentum, das Judentum und der Islam eine gemeinsame Wurzel haben und sich von dem gemeinsamen Stammvater Abraham herleiten. Der große Unterschied besteht darin, dass Europa die Aufklärung erlebt hat und Religion heute überwiegend als eine Option empfunden wird. ...
Die Beobachtung, dass Tumorzellen häufig eine Abhängigkeit gegenüber einer einzelnen und treibenden Mutation entwickeln, obwohl sie zahlreiche Mutationen aufweisen, bildet die Grundlage der mittlerweile etablierten, zielgerichteten Tumortherapie (Weinstein, 2002). Mit der Identifikation verantwortlicher Signalwege sowie beteiligter Signalkomponenten, sind Ansatzpunkte für diese Therapieform geschaffen worden, die bereits zu einigen Erfolgen in der Leukämie-, Brustkrebs- oder Lungenkrebsbehandlung geführt haben (Druker et al., 2001; Slamon et al., 2001; Kwak et al., 2010) . In vielen Fällen stellt sich jedoch ein Rückfall aufgrund der Ausbildung von Resistenzen ein oder auch das Nichtanschlagen der Therapien wird beobachtet (Ramos & Bentires-Alj, 2015).
Verschiedenste Mechanismen kommen dabei in Frage, doch häufig werden kompensatorische Veränderungen in den Signalwegen beobachtet, die schließlich zur Umgehung der Inhibition führen (Holohan et al., 2013). Grundlage hierfür ist die Redundanz und Verknüpfung der Signalwege mit- und untereinander, die es der Zelle im Sinne der Homöostase ermöglichen sich flexibel an ihre Umgebung anzupassen (Rosell et al., 2013; Sun & Bernards, 2014) . Daher ist es von äußerster Wichtigkeit, die Mechanismen der Inhibition im Hinblick auf die Signalwege der Zellen genauer zu verstehen, und dabei nicht nur die direkten, sondern auch die indirekten Effekte der Inhibition zu analysieren. So lassen sich Rückschlüsse auf den Einsatz zielgerichteter Medikamenten ziehen, die in besseren Therapiekombinationen resultieren und dadurch die Entstehung von Resistenzen verhindern.
Eine Hyper-Aktivierung von STAT3 sowie das dadurch induzierte Genmuster sind als starkes onkogenes Signal identifiziert worden, und spielen darüber hinaus an der Vermittlung von Resistenzen gegenüber Tumortherapien eine entscheidende Rolle. Durch seine Rolle in diversen zellulären Prozessen, beeinflusst STAT3 die Proliferation und das Überleben von Tumorzellen, ihr migratorisches und invasives Verhalten sowie ihre Kommunikation mit Stroma- und Immunzellen. (Bromberg et al., 1999; Wake & Watson, 2015) Sehr selten ist die aberrante Aktivierung des Transkriptionsfaktors auf eigene Mutationen zurückzuführen, vielmehr sorgen Treiber überhalb für diese (Johnston & Grandis, 2011; Kucuk et al., 2015).
In der vorliegenden Arbeit wurden verschiedene STAT3-Inhibitionen in unterschiedlichen Modellen verglichen um darüber Rückschlüsse auf Kriterien einer Therapie zu ziehen. In einem Gliommodell aus der Maus, dem eine v-SRC-Expression als Treiber zu Grunde liegt (Smilowitz et al., 2007), wurde eine indirekte, BMX-vermittelte STAT3-Inhibition mit einer zielgerichteten STAT3-Hemmung verglichen. BMX, die zur TEC-Kinase-Familie gehört, wird als STAT3-aktivierende Kinase beschrieben. In letzter Zeit wurde ihr Einfluss bei der Tumorentwicklung immer deutlicher (Dai et al., 2006; Hart et al., 2011; Holopainen et al., 2012). Unter anderem konnte in Glioblastom-Stammzellen eine BMX-vermittelte STAT3-Aktivierung als Treiber für die Selbsterneurungskapazität und das tumorigene Potential identifiziert werden (Guryanova et al., 2011). Mit dem Tyrosinkinase-Inhibitor Canertinib ist es gelungen, in den murinen Tu-2449-Gliomzellen eine BMX-vermittelte STAT3-Aktivierung nachzuweisen und zu inhibieren. Dies ist damit die erste Arbeit, in der Canertinib als BMX-Inhibitor in einem endogenen Zellsystem getestet wurde. Die einmalige Canertinib-Gabe resultierte in einem Zellzyklusarrest der G1-Phase und die Aufrechterhaltung der Inhibitorwirkung im Zelltod. Im Vergleich dazu konnte eine RNAivermittelte STAT3-Stilllegung nicht das Absterben dieser Zellen induzieren. Mit der Suche weiterer Zielstrukturen von Canertinib, die die Grundlage dieser unterschiedlichen Phänotypen bilden, konnte eine zusätzliche AKT-Inhibition identifiziert werden. Sehr wahrscheinlich wird die AKT-Inhibition ebenfalls durch BMX vermittelt, da keine Inhibition der ERBB-Familie bestätigt werden konnte. Um die Effekte weiter abzugleichen wurden Canertinib-Versuche mit einem humanen Brustkrebsmodell durchgeführt, das als Treiber eine Überexpression des EGFR aufweist.
In MDA-MB-468-Zellen, in denen keine BMX-Aktivierung vorliegt, resultierte eine Canertinib-Behandlung in der sehr prominenten Inhibition des ERK-Signalweges und in einer weniger ausgeprägten Verminderung der STAT3- und AKT-Aktivierung. Auch in diesen Zellen führte die Canertinib-Behandlung zum Zelltod. Diese Effekte werden sehr wahrscheinlich durch die Inhibition des EGFR induziert, da Canertinib als pan-ERBBInhibitor beschrieben ist (Slichenmyer et al., 2001; Djerf Severinsson et al., 2011) .
Resultate die früher in der Arbeitsgruppe gewonnen wurden, beweisen, dass eine Herunterregulation von STAT3 in der Brustkrebszelllinie MDA-MB-468 ausreicht um ein Absterben der Zellen zu induzieren (Groner et al., 2008).
Die Ergebnisse dieser Arbeit zeigen, dass eine Canertinib-Behandlung über die Inhibition unterschiedlicher Signalwege den Zelltod in beiden Zelllinien induziert. Obwohl beide Zelllinien Treiber-vermitteltes, konstitutiv aktives STAT3 aufweisen, stellt nur in den Brustkrebszellen seine Inhibition eine ausreichende Therapiebedingung dar. Somit sind die Unterschiede zwischen den beiden Zelllinien essentiell für ein Überleben der Zellen nach einer STAT3-Inhibition. In Zukunft ist es wichtig, diese Unterschiede zu identifizieren um damit zu definieren, in welchen Patientengruppen eine STAT3-Inhibition zum Erfolg führt.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von regionalen Klimasimulationen für die Region Ostasien. Hierfür werden zwei verschiedene Modellierungsansätze verwendet. Der dynamische Regionalmodellierungsansatz, vertreten durch COSMO CLM (CCLM), und der statistische Modellierungsansatz, vertreten durch STARS. Die Simulationen erfolgten unter den Rahmenbedingungen des Coordinated Regional Climate Downscaling Experiment (CORDEX). Beide Regionalmodelle wurden im Rahmen dieser Arbeit umfassend für die Region CORDEX-Ostasien kalibriert und evaluiert. Das statistische Modell STARS wurde hierbei erstmals auf kontinentaler Ebene angewendet. Auf Basis der kalibrierten Modelle wurden Projektionen der zukünftigen klimatischen Entwicklung der Region durchgeführt.
Zur Auswertung der einzelnen Kalibrierungsläufe wurde ein komplexes Evaluierungsschema, mit einem Gütekennzahlensystem basierend auf einer linearisierten Form der relativen Modelldifferenz, entwickelt. Neben den etablierten univariaten statistischen Kennwerten (Mittelwert, Varianz, Trend) enthält das Gütekennzahlensystem auch ein bivariates statistisches Maß, welches die zweidimensionalen Stichprobenverteilungen zweier Variablen (beispielsweise Temperatur und Niederschlag) bewertet.
Im Rahmen der Kalibrierung konnte ein Großteil des Parameterraums des statistischen Modells STARS systematisch untersucht werden. Es zeigte sich, dass nur wenige Parameter einen Einfluss auf die Simulationen haben. Die meisten Parameter zeigten eine geringe und teilweise unsystematische Beeinflussung. Es konnte zudem eine Schwachstelle des Modells in Bezug auf die Variablenkorrelationen identifiziert werden. Bei der Kalibrierung des dynamischen Regionalmodells CCLM zeigte sich, dass aufgrund der groben horizontalen Auflösung des Modells eine signifikante Verbesserung der Simulationen durch eine Anpassung der physikalischen Parametrisierungen erfolgen kann.
Im Rahmen einer abschließenden Evaluierung wurden beide Modelle hinsichtlich ihres räumlichen Bias, des simulierten Jahresgangs und der Abbildung des asiatischen Monsunphänomens untersucht. Im ersten Punkt ergab sich kein qualitativer Unterschied zwischen CCLM und STARS. Beide Modelle zeigen eine deutliche Überschätzung der 2m-Temperatur im Winter über dem nördlichen Teil CORDEX-Ostasiens und eine Überschätzung des Luftdrucks über dem Hochland von Tibet im Sommer. Unterschiede zwischen beiden Modellen ergaben sich hingegen beim simulierten Jahresgang.
In Bezug auf die Modellierung des Monsunphänomens zeigt CCLM eine Unterschätzung der Intensität des indischen Sommermonsuns und eine Überschätzung des Sommermonsuns über dem westlichen Nordpazifik. Das statistische Modell STARS zeigte eine Auffälligkeit bei der Simulation des Jahresgangs sowie der räumlichen und zeitlichen Entwicklung des Sommermonsuns. Aufgrund der Konzeption des Modells ergab sich in einzelnen Regionen eine systematische Deformation des Jahresgangs. Trotz der identifizierten Schwachstellen von CCLM und STARS, bilden beide Modelle das Klima über der Region CORDEX-Ostasien qualitativ ähnlich gut ab wie aktuelle Reanalysen (ERA-Interim).
Auf Basis der kalibrierten und evaluierten Modelle wurden Klimaprojektionen für einen nahen (2020-2046), mittleren (2041-2070), und späten (2071-2100) Projektionszeitraum unter den Emissionsszenarien RCP2.6, RCP4.5 und RCP8.5 durchgeführt. Aufgrund von Modellbeschränkungen begrenzen sich die Rechnungen des Modells STARS auf den nahen Projektionszeitraum und die Emissionsszenarien RCP2.6 und RCP4.5. Die Projektionen beider Modelle zeigen eine deutliche und statistisch signifikante Erhöhung der 2m-Temperatur über der gesamten Region mit einer stärkeren Erwärmung über dem Kontinent gegenüber dem Meer. Aufgrund der relativ großen interannulären Variabilität des Niederschlags und des Luftdrucks werden statistisch nicht signifikante Änderungssignale und teils widersprüchliche Änderungen für den nahen Projektionszeitraum simuliert. Für den späten Projektionszeitraum ergeben sich jedoch deutliche Änderungssignale in den Simulationen des Modells CCLM. Insbesondere über dem Hochland von Tibet wird für den Zeitraum von 2071-2100 eine Temperaturerhöhung von über 7.0°C simuliert. Der Luftdruck und der Niederschlag zeigen räumlich heterogene Änderungssignale. Die spezifische Ausprägung der Luftdruckänderungen deutet auf eine Abschwächung der indischen Sommermonsunzirkulation und eine deutlichen Intensivierung des Sommermonsun über dem westlichen Nordpazifik hin. Die Niederschlagsänderungen über dem ostasiatischen Monsungebiet lassen auf eine Entkopplung der östlichen Monsunsysteme schließen. Trotz der heterogenen Änderungssignale im Niederschlag wird in den meisten Regionen eine Zunahme der Intensität von Extremniederschlägen simuliert. Dies gilt selbst für Regionen mit einer simulierten Abnahme der jährlichen Niederschlagssumme wie Westindonesien.