Doctoral Thesis
Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178)
Is part of the Bibliography
- no (178)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
Im Rahmen dieser Arbeit wurde die humane Leukotrien A4-Hydrolase untersucht.
Die hLTA4H ist ein bifunktionelles Enzym, welches neben der Hydrolaseaktivität, welche für die Umwandlung des instabilen LTA4 zu LTB4 verantwortlich ist, auch eine Peptidaseaktivität aufweist. Beide Enzymaktivitäten spielen bei Entzündungsprozessen eine wichtige Rolle, weshalb die LTA4H ein interessantes pharmakologisches Target darstellt. Aufgrund der gegensätzlichen Eigenschaften der beiden Aktivitäten der LTA4H (Produktion des proinflammatorischen LTB4 durch die Hydrolase-Aktivität, sowie der Abbau des PGP-Tripeptids durch die Peptidase-Aktivität) wird deutlich, dass die Entwicklung selektiver Hydrolase-Inhibitoren von Vorteil ist.
Das Protein der humanen LTA4H konnte erfolgreich kloniert werden und in E. coli-Zellen exprimiert werden. Zur Gewinnung des reinen rekombinanten Proteins konnte ein Aufreinigungsprotokoll mittels Nickel-Affinitätschromatographie sowie anschließender Größenausschlusschromatographie etabliert werden. Durch die Testung unterschiedlicher Lysemethoden konnte die Ausbeute deutlich erhöht werden.
Um herauszufinden, ob es durch den potentiellen Inhibitor zu einer Hemmung der Enzymaktivität kommt, muss diese detektiert werden können. Hierfür wurde ein geeignetes fluoreszenzbasiertes Testsystem zur Detektion der Enzymaktivität der hLTA4H entwickelt. Dies lässt auch die Quantifizierung der Wirksamkeit der möglichen Inhibitoren zu. Mit Hilfe eines pharmakophorbasierten Ansatzes wurden 22 Testsubstanzen für die in vitro Testung ausgewählt. Nach der Evaluierung dieser Substanzen wurden weitere 14 Derivate der besten Verbindung ausgewählt und ihre inhibitorischen Eigenschaften an rekombinanter LTA4H getestet. Die Ergebnisse wurden mittels Differential Scanning Fluorimetrie validiert, wofür ein einfaches Protokoll etabliert werden konnte.
Im Rahmen dieser Arbeit wurden weiterhin 5 bereits bekannte Inhibitoren der LTA4H ausgewählt, um sie hinsichtlich ihres thermodynamischen Profils zu untersuchen. Hierzu wurden die ausgewählten Inhibitoren mittels Isothermer Titrationskalorimetrie vermessen. Die Dissoziationskonstanten der untersuchten Inhibitoren wurden ebenfalls mittels Differential Scanning Fluorimetrie bestimmt, wobei sich zeigte, dass diese Methode nicht zur präzisen Messung von Protein/Ligand Interaktionen herangezogen werden kann. Mittels eines in silico Ansatzes zur Vorhersage von stabilisierten und destabilisierten Wassermolekülen in der Bindetasche konnten die thermodynamischen Daten im strukturellen Kontext interpretiert werden. Durch diese Kombination konnten neue Erkenntnisse zum Design neuer Inhibitoren der LTA4H gewonnen werden.
Die NADPH-Oxidasen stellen eine wichtige Quelle für reaktive Sauerstoffspezies (Reactive oxygen species; ROS) im Organismus dar. Hierbei dienen die NADPH-Oxidasen nicht nur der Pathogenabwehr, sondern haben einen Einfluss auf eine Vielzahl an oxidativen, physiologischen Prozessen. Unter den NADPH-Oxidasen ist NOX4 einzigartig, da es hauptsächlich im endoplasmatischen Retikulum (ER) lokalisiert ist, konstitutiv aktiv ist und Wasserstoffperoxid (H2O2) produziert. Wir vermuten, dass diese besonderen Eigenschaften eine Konsequenz aus der Interaktion mit bislang unentdeckten NOX4-interagiereden Proteinen ist.
Zweidimensionale blau-native Polyacrylamid-Gelelektrophorese (BN-PAGE) kombiniert mit SDS-PAGE zeigte NOX4 in makromolekularen Komplexen. Interagierende Proteine wurden durch eine quantitative SILAC (stable isotope labeling of amino acids in cell culture)-Co-immunopräzipitation (Co-IP) in NOX4-überexprimierenden HEK293-Zellen gescreent. Hierdurch konnten verschiedene interagierende Proteine identifiziert werden, wobei Calnexin die robusteste Interaktion aufwies. Calnexin konnte zudem in NOX4-haltigen Komplexen durch Complexome Profiling der BN-PAGE oder gleichzeitiger Antikörperfärbung nachgewiesen werden. Die Calnexin-NOX4-Interaktion konnte mittels reverser Co-IP und Proximity ligation assay bestätigt werden, während NOX1, NOX2 und NOX5 nicht mit Calnexin interagierten. Calnexin-Defizienz, untersucht in embryonalen Mausfibroblasten oder durch shRNA gegen Calnexin, reduzierte die NOX4-Proteinexpression und ROS-Bildung, wobei die mRNA-Expression unverändert blieb. Des Weiteren wurde untersucht, ob der bekannte Interaktionspartner von NADPH-Oxidasen, p22phox, wirklich essentiell für die Expression oder Aktivität von NOX4 ist, da es nur in manchen der NOX4-Co-IPs nachgewiesen wurde. Um den Einfluss von p22phox für NOX4 aufzuklären wurde ein CRISPR/Cas9 Knockdown in NOX4-überexprimierenden HEK293 Zellen etabliert. p22phox zeigte keinen Einfluss auf die NOX4-Expression, jedoch war die NOX4-abhängige ROS-Produktion in p22phox-Knockout Zellen verschwunden.
Unsere Ergebnisse deuten darauf hin, dass endogenes NOX4 makromolekulare Komplexe mit Calnexin ausbildet, welches für die korrekte Reifung, Prozessierung und Funktion von NOX4 im ER nötig ist. Darüber hinaus ist p22phox nicht für die Reifung von NOX4, aber für dessen Aktivität nötig. Diese Ergebnisse zeigen eine vielfältige Regulation von NOX4 auf Proteinebene.
Cells perform a wide range of functions such as signalling, transportation, immunoprotection and metabolism. Unravelling the molecular mechanism behind those processes will provide a platform for more targeted and rational drug design. This is achieved by discerning the structural and functional aspects of the biological macromolecules involved. This thesis discusses about the biophysical characterization of protein structures and the biological importance of protein dynamics. Membrane receptors and enzymes which are ubiquitously present in our biological systems and regulate wide variety of functions are excellent choice for such study. From a pharmaceutical point of view, receptor and enzymes are exceptionally important drug targets as they represent the major share (receptor, 30% and enzymes, 47%) of all marketed drugs. Therefore, apart from biological insights, the detailed study of receptors and enzymes will provide the basis for new pharmaceutical applications. Most information about receptor activation and enzyme activity come from the structural and functional analysis of target members of the above mentioned systems.
In “Chapter 1 – General Introduction” the readers are introduced to the world of proteins with special focus on G-protein coupled receptors (GPCRs) and methyltransferases. The first part of this chapter discusses about GPCRs with emphasis on their classification, structural features and functions. GPCRs are the most abundant membrane receptors present in mammalian cells, accounting for almost 15% of all membrane proteins. The GPCR superfamily consists of ~800 members and can be subdivided into six classes (A-F). Class A containing rhodopsin, peptide hormones, olfactory GPCRs, is the most abundant with a large share of 85% of GPCR protein family. GPCRs share a common architecture of 7 transmembrane a-helices, with different ligand binding sites. Although a variety of ligands ranging from subatomic particles (a photon) to large proteins can activate a GPCR, their mechanism of signal transduction is almost similar. There are two major signal transduction pathways identified for GPCRs: the cAMP pathway and the phosphatidylinositol pathway. The therapeutic relevance of GPCRs has also been pointed out here since a large share (30%) of modern marketed drugs target GPCRs.
In the second part of this chapter, the structural and functional characterizations of methyltransferases (MTs) are discussed in detail. Several important biological processes in cells e.g. drug metabolism, gene transcription, epigenetic regulations are modulated by methylation of targets ranging from small biomolecules to large proteins. MTs are the proteins which catalyze this methylation reaction and transfer the methyl group to an acceptor molecule through SN2 like nucleophilic substitution reaction. The MTs can be classified on the basis of the substrate atoms they methylate: O (54% of all MTs), N (23%), C (18%), S (3%) and other acceptors (such as halides; 2%). They can also be categorized into five different classes (Class I-V) depending upon distinctive structural features facilitating substrate binding or catalytic activity. Rossmann fold and SET (acronym acquired from the Drosophila Su(var)3-9 and 'Enhancer of zeste' proteins) domain are the two characteristic structural motifs commonly found in MTs. Similar to GPCRs, MTs dysfunction has been shown to be involved in various diseases including neuropsychiatric diseases and cancer. Therefore they are also interesting targets for drug development. The final part of this chapter discusses the importance of structural biology in gathering information related to structure and conformational dynamics of proteins. The two prominent biophysical techniques used in structural biology, X-ray crystallography and NMR, are discussed with focus on their advantages and limitation. The importance of NMR spectroscopic techniques to investigate different dynamic processes of protein at atomic resolution under physiological conditions is also discussed. Real time NMR spectroscopy required for the analysis of slow protein dynamic processes (protein folding, enzyme catalysis, domain rearrangement) has been explained in detail.
The second part of the thesis (Chapters 3-4), which is the cumulative part, comprises the original publications grouped into 2 chapters according to their topic:
• NMR-spectroscopic characterization of the transiently populated photointermediates of bovine rhodopsin and it’s interaction with arrestin (Chapter 3)
• Structural and biophysical characterization of PaMTH1, a putative SAM dependent O-methyltransferase from filamentous fungi Podospora anserina (Chapter 4)
Each chapter is initiated by a detailed introduction to the topic, providing the framework for the following papers. The personal contribution of this thesis’ author to each publication is stated in the introduction to the respective article.
The Large Hadron Collider (LHC) is the biggest and most powerful particle accelerator in the world, designed to collide two proton beams with particle momentum of 7 TeV/c each. The stored energy of 362MJ in each beam is sufficient to melt 500 kg of copper or to evaporate about 300 litre of water. An accidental release of even a small fraction of the beam energy can cause severe damage to accelerator equipment. Reliable machine protection systems are necessary to safely operate the accelerator complex. To design a machine protection system, it is essential to know the damage potential of the stored beam and the consequences in case of a failure. One (catastrophic) failure would be, if the entire beam is lost in the aperture due to a problem with the beam dumping system.
This thesis presents the simulation studies, results of a benchmarking experiment, and detailed target investigation, for this failure case. In the experiment, solid copper cylinders were irradiated with the 440GeV proton beam delivered by the Super Proton Synchrotron (SPS) at the High Radiation to Materials (HiRadMat) facility at CERN. The experiment confirmed the existence of the so-called hydrodynamic tunneling phenomenon for the first time. Detailed numerical simulations for particle-matter interaction with FLUKA, and with the two-dimensional hydrodynamic code, BIG2, were carried out. Excellent agreement was found between the experimental and the simulation results that validate predictions for the 7TeV beam of the LHC. The hydrodynamic tunneling effect is of considerable importance for the design of machine protection systems for accelerators with high stored beam energy. In addition, this thesis presents the first studies of the damage potential with beam parameters of the Future Circular Collider (FCC).
To detect beam losses due to fast failures it is essential to have fast beam instrumentation. Diamond based particle detectors are able to detect beam losses within a nanosecond time scale. Specially designed diamond detectors were used in the experiment mentioned above. Their efficiency and response has been studied for the first time over 5 orders of bunch intensity with electrons at the Beam Test Facility (BTF) at INFN, Frascati, Italy. The results of these measurements are discussed in this thesis. Furthermore an overview of the applications of diamond based particle detectors in damage experiments and for LHC operation is presented.
Already today modern driver assistance systems contribute more and more to make individual mobility in road traffic safer and more comfortable. For this purpose, modern vehicles are equipped with a multitude of sensors and actuators which perceive, interpret and react to the environment of the vehicle. In order to reach the next set of goals along this path, for example to be able to assist the driver in increasingly complex situations or to reach a higher degree of autonomy of driver assistance systems, a detailed understanding of the vehicle environment and especially of other moving traffic participants is necessary.
It is known that motion information plays a key role for human object recognition [Spelke, 1990]. However, full 3D motion information is mostly not taken into account for Stereo Vision-based object segmentation in literature. In this thesis, novel approaches for motion-based object segmentation of stereo image sequences are proposed from which a generic environmental model is derived that contributes to a more precise analysis and understanding of the respective traffic scene. The aim of the environmental model is to yield a minimal scene description in terms of a few moving objects and stationary background such as houses, crash barriers or parking vehicles. A minimal scene description aggregates as much information as possible and it is characterized by its stability, precision and efficiency.
Instead of dense stereo and optical flow information, the proposed object segmentation builds on the so-called Stixel World, an efficient superpixel-like representation of space-time stereo data. As it turns out this step substantially increases stability of the segmentation and it reduces the computational time by several orders of magnitude, thus enabling real-time automotive use in the first place. Besides the efficient, real-time capable optimization, the object segmentation has to be able to cope with significant noise which is due to the measurement principle of the used stereo camera system. For that reason, in order to obtain an optimal solution under the given extreme conditions, the segmentation task is formulated as a Bayesian optimization problem which allows to incorporate regularizing prior knowledge and redundancies into the object segmentation.
Object segmentation as it is discussed here means unsupervised segmentation since typically the number of objects in the scene and their individual object parameters are not known in advance. This information has to be estimated from the input data as well.
For inference, two approaches with their individual pros and cons are proposed, evaluated and compared. The first approach is based on dynamic programming. The key advantage of this approach is the possibility to take into account non-local priors such as shape or object size information which is impossible or which is prohibitively expensive with more local, conventional graph optimization approaches such as graphcut or belief propagation.
In the first instance, the Dynamic Programming approach is limited to one-dimensional data structures, in this case to the first Stixel row. A possible extension to capture multiple Stixel rows is discussed at the end of this thesis.
Further novel contributions include a special outlier concept to handle gross stereo errors associated with so-called stereo tear-off edges. Additionally, object-object interactions are taken into account by explicitly modeling object occlusions. These extensions prove to be dramatic improvements in practice.
This first approach is compared with a second approach that is based on an alternating optimization of the Stixel segmentation and of the relevant object parameters in an expectation maximization (EM) sense. The labeling step is performed by means of the _−expansion graphcut algorithm, the parameter estimation step is done via one-dimensional sampling and multidimensional gradient descent. By using the Stixel World and due to an efficient implementation, one step of the optimization only takes about one millisecond on a standard single CPU core. To the knowledge of the author, at the time of development there was no faster global optimization in a demonstrator car.
For both approaches, various testing scenarios have been carefully selected and allow to examine the proposed methods thoroughly under different real-world conditions with limited groundtruth at hand. As an additional innovative application, the first approach was successfully implemented in a demonstrator car that drove the so-called Bertha Benz Memorial Route from Mannheim to Pforzheim autonomously in real traffic.
At the end of this thesis, the limits of the proposed systems are discussed and a prospect on possible future work is given.
Die vorliegende Dissertation untersucht wie Hegel nicht nur den Begriff der Freiheit, aber auch das Subjekt der Freiheit verstanden hat. Sie versucht diese Idee Hegels durch die gegenwärtige Philosophie, insbesondere die analytische Philosophie, und auch die Soziologie, insbesondere die Soziologie von Talcott Parsons, umzudenken.
Im ersten Kapitel wird die Idee der Freiheit als private Sphäre analysiert, die durch eine ganze Gruppe von subjektiven Rechten gesichert oder sogar geschaffen ist, die ohne Hilfe anderer Struktur existierte und von den meisten Naturrechttheoretiker verteidigt wurden, den alten sowie den neuen. Hegel nannte diese Ideen abstraktes Recht. Er wirft diese Vorstellung als noch funktional unvollständig oder metaphysisch inkohärent vor.
Im zweiten Kapitel wird das andere große Modell der Freiheit in der Moderne, nämlich, die Freiheit als Autonomie analysiert. Hegel untersucht diese Idee durch die Konzepte der Verantwortlichkeit und Handelns, die sich in der Praxis des Strafrechts befinden. Nach Hegel ist Verantwortlichkeit das Ergebnis einer gesamten sozialen Beziehung der Anerkennung. Daher ist ein Verbrechen, erstens, die Verletzung einer Norm und diese Normverletzung ist zugleich Anerkennungsverletzung. Zweitens, ein Verbrechen ist die Negation des objektiven Rechts, die dem Akteur zurechnen werden kann, und das ist, warum ein Verbrechen eine Anerkennungsverletzung ist. Ein zentraler Begriff für die Verantwortlichkeit ist der Vorsatz. In dem Konzept von Vorsatz finden wir sowohl die Absicht wie das Wissen, d. i. wenn jemand vorsätzlich handelt, nicht nur wünscht er etwas, sondern er denkt auch, wie er handeln sollte, um zu erreichen, was sie will. Man findet im Vorsatz auch die Idee des Grundes. Dies öffnet wiederum die Idee der moralischen Standards und auch die Möglichkeit eines moralischen Gewissens. Hegel sieht Kant als der größte Befürworter dieser Theorie. Hegel kritisiert Kant, dass er eine Art solipsistischer Methode hat. Die Gewissheit des Guten in die eigene Handlung könnte das Böse verbreiten. Hegel argumentiert, dass ohne eine soziale Basis dafür, die Sittlichkeit, solche moralischen Standards und moralisches Gewissen nicht möglich sind.
Im letzten Kapitel wird analysiert, wie jemand in der hegelschen Lehre frei sein könnte. Nach Hegel gibt es mindestens drei Bedingungen, sodass jemand tatsächlich als frei betrachtet werden könnte: eine metaphysische Bedingung, eine psychologische Bedingung, und eine soziale Bedingung. Diese drei Bedingungen entsprechen den Hauptkritiken gegen die Möglichkeit des freien Willens. Die erste der Kritik besagt, dass es in einer durch mechanische Gesetze geregelten Welt keinen Raum für die Freiheit gibt. Nach Hegel sei die Möglichkeit der teleologischen Erklärung zugleich die Möglichkeit für die Freiheit. In der psychologischen Bedingung argumentiert Hegel, dass das hedonistische oder Wunsch-Überzeugung-Handlung Modell in der Tat fast eine mechanische Erklärung wäre. In einem systemischen Selbstbewusstsein Vorstellung der individuellen Persönlichkeit, in dem alle Teile des Akteurs systemisch artikuliert sind, könnte das Individuum wirklich frei handeln, da das Individuum nicht mehr in seinen Wünschen oder anderen Trieben verschwunden wäre. Am Ende argumentiert noch Hegel, dass die Gary Strawson‘ Kritik an der Idee des freien Willens, dass wir nicht den ersten Umstand unseres Lebens, unsere Sozialisierung und Erziehung ändern könnten, nicht korrekt wäre. Freiheit bedeutet nicht, jeden Aspekt unseres Lebens zu bestimmen, sondern uns selbst und unser Handeln zu bestimmen. Hegel zufolge können wir in der Tat unseren Anfang ändern, indem wir uns selbst neu interpretieren. Diese Art der Selbstbestimmung setzt die Teilnahme an der Gesellschaft voraus. Wenn wir die semantische in unserer Kultur ändern, ändern wir uns selbst und solches aktive Engagement mit unserer Gesellschaft wäre auch eine Bedingung, um ein freies Leben zu führen.
Identification of disease modulating compounds in juvenile neuronal ceroid lipofuscinosis (JNCL)
(2016)
Mutationen im CLN3 Gen verursachen die neurodegenerative Erkrankung juvenile neuronale Zeroidlipofuszinose (JNCL). Bei dieser Erkrankung sind die Autophagie, der lysosomale pH Wert und der mitochondriale Metabolismus beeinträchtigt. Störungen dieser Prozesse führen zu einer erhöhten Verletzlichkeit neuronaler Zellen gegenüber alters- und umweltbedingten Schäden, einer Anhäufung von Autophagosomen und lysosomalem Speichermaterial, Zelltod und Neurodegeneration. Um die JNCL zu erforschen bedienen wir uns eines Zellmodels aus der Maus, welches die häufigste krankheitsauslösende CLN3 Mutation im Menschen, die Deletion der Exons 7 und 8, nachbildet. Die aus dem Kleinhirn dieser Mäuse stammenden cerebellaren Körnerstammzellen werden als CbCln3Δex7/8/Δex7/8 Zellen, solche aus wild-typ Mäusen als CbCln3+/+ Zellen bezeichnet. Die JNCL ist nicht heilbar und die Entwicklung von Wirkstoffen steht noch am Anfang.
Die vorliegende Arbeit befasst sich mit der Durchführung eines Hochdursatzscreenings um Wirkstoffe zu identifizieren, welche eine Anhäufung von Autophagosomen in CbCln3Δex7/8/Δex7/8 Zellen verhindern können. Unter 1750 verschiedenen untersuchten Wirkstoffen konnten wir 28 aktive „Hits“ identifizieren und stellten fest, dass Kalziumkanalblocker, Östrogene und HMG-CoA-Reduktase Inhibitoren gehäuft vertreten waren. Eine sorgfältige Untersuchung die möglichen Interaktionen der aktiven Wirkstoffe mit zellulären Signalwegen und die Analyse ihrer Dosis-Wirkungskurven unterstützte uns bei der Auswahl von Verapamil, Nicardipin und Fluspirilen zur näheren Untersuchung. Diese Wirkstoffe sind Kalziumkanalblocker und Fluspirilen blockt auch D2 Dopaminrezeptoren.
Außerdem untersuchten und quantifizierten wir mitochondriale Phänotypen in CbCln3Δex7/8/Δex7/8 Zellen. Unsere Untersuchungen ergaben, dass Mitochondrien in CbCln3Δex7/8/Δex7/8 Zellen einer signifikanten Hyperfusion unterliegen und ein schwächeres Membranpotenzial aufweisen. Weiterhin fanden wir eine Verringerung der maximalen der mitochondrialen Elektronentransportkapazität und eine verringerte Aktivität des Enzyms Zitratsynthase, welches die Effizienz des Zitratzyklus bestimmt.
Fluspirilen, Verapamil und, in geringerem Ausmaß, Nicardipin, verbesserten einige krankheitsbedingte lysosomale und mitochondriale Phänotypen. Des Weiteren konnten Verapamil und Nicardipin, nicht aber Fluspirilen, den erhöhten zellulären Kalziumspiegel in CbCln3Δex7/8/Δex7/8 Zellen absenken. Erniedrigungen im Kalziumgehalt können durch die Inhibition der kalziumabhängigen Protease Calpain 1 zu einer Induktion der Autophagie führen. Wir untersuchten, ob eine chemische Inhibition der Calpain 1-Protease die Anzahl der Autophagosomen in CbCln3Δex7/8/Δex7/8 Zellen senkt, und stellten fest, dass dies nicht der Fall ist. Eine Inhibition von Calpain 1 führte lediglich zu einem Anstieg der Zahl zellulärer Autophagosomen. Als Nächstes untersuchten wir die Auswirkung der Wirkstoffbehandlung auf den Autophagiefluss. Verapamil und Nicardipin hatten keinen Einfluss auf den Autophagiefluss in der getesteten Konzentration in CbCln3Δex7/8/Δex7/8 Zellen während Fluspirilen die Autophagie induzierte. Gleichzeitig stellten wir fest, dass hohe Dosen von Nicardipin und Verapamil teilweise vor einem Verlust des lysosomalen pH-Werts durch eine Behandlung mit Bafilomycin A1 schützen konnten. Da Fluspirilen auch ein Dopaminrezeptorblocker ist, untersuchten wir die Auswirkung einer erhöhten Dosis von Dopamin auf die Zahl der Autophagosomen. Wir fanden, dass eine mittlere Dosierung von Dopamin einen Trend zu einer leichten Verringerung von Autophagosomen in CbCln3Δex7/8/Δex7/8 Zellen zur Folge hat.
Wir vermuten, dass die Kalziumkanalblocker Verapamil und Nicardipin und der Dopaminrezeptorblocker Fluspirilen unterschiedliche zelluläre Signalwege benutzen, aber letztendlich um ähnliche Botenstoffe verwenden, um die Funktion der Lysosomen in CbCln3Δex7/8/Δex7/8 Zellen zu verbessern. Die Verringerung des intrazellulären Kalziumgehalts durch Verapamil und Nicardipin führt zu einer Aktivierung von Adenylatzyklasen, welche eine Erhöhung des intrazellulären cAMP Spiegels herbeiführen. Fluspirilen inhibiert Dopaminrezeptoren vom Typ D2 (D2DR), was zu einer selektiven Aktivierung von Dopaminrezeptoren des Typs D5 (D5DR) führen könnte. Im Gegensatz zu D2 führen D5D Rezeptoren zu einer Aktivierung von Adenylatzyklasen und einer Erhöhung des cAMP Spiegels. cAMP aktiviert die Protein Kinase A (PKA), welche durch eine Proteinphosphorylierung von lysosomalen Chloridkanälen und Protonenpumpen die lysosomale Aktivität erhöht. Dies führt zu einer Verbesserung des Abbaus von Autophagosomen und lysosomalem Speichermaterial und zu einer verbesserten Zellgesundheit in CbCln3Δex7/8/Δex7/8 Zellen.
Eine Verbesserung der lysosomalen Funktion in der JNCL kann einen wirksamen Therapieansatz ergeben. Wir hoffen, dass die hier vorgestellten Methoden und Ergebnisse einen ersten Schritt in diese Richtung darstellen.
Der Nucleus suprachiasmaticus (SCN) ist ein Kerngebiet des Hypothalamus mit der Funktion des zentralen Taktgebers für die Generierung der circadianen Rhythmik. Zahlreiche petale Verbindungen zum SCN dienen der Synchronisierung der circadianen Uhr mit der tatsächlichen Tagesphase. Fugale Verbindungen des SCN dienen der Verteilung der Tageszeiteninformation über das Gehirn, insbesondere in vegetativen Zentren. So werden beispielsweise die physiologischen Vorgänge des Kreislaufsystems, Hormonausschüttung, der Schlaf-Wach-Zyklus etc. kontrolliert und mit Tag-Nacht-Wechsel synchronisiert. Obwohl viele dieser Verbindungen verstanden und beschrieben sind, sind die nahen Verbindungen in der unmittelbaren Nähe des SCN und des-sen intrinsische Verbindung nicht genau untersucht. Zur Darstellung dieser nahen Verbindungen wurden DiI-Tracer-Studien an Gehirnschnitten von Mäusen durchgeführt. Untersucht wurde parallel zu der DiI-Färbung das Neuropeptid Vasopressin innerhalb und außerhalb des SCN bei Mäusen von zwei verschiedenen Mäusestämmen (C3H und C57BL); C57BL ist defizient für das photoperiodische sezernierte Epiphysenhormon Melatonin, C3H-Mäuse er-blinden im frühen Lebensalter. Die immunzytochemische Untersuchung des Vasopressin-Systems belegte einen Unterschied in der Zytoarchitektur des SCN zwischen den C3H und C57BL Mäusen. Obwohl einige Elemente ähnliche Lokalisations- und Reaktivitätscharakteristika aufwiesen z.B. die dorsomediale Verteilung der Vasopressin-Perikaryen im Kerngebiet, so zeigte sich bei den C57BL-Mäusen eine deutlich schwächere Reaktivität des Neuropeptids AVP in diesem Bereich und ferner eine deutliche inhomogenere Verteilung der Vasopressin-Elemente im gesamten Kerngebiet. Die Tracing Untersuchung zeigte bei beiden Mäuse-Stämmen die gleichen Verbindungswege des SCN mit der nahen Periphere. Zum einen zeigen die Ergebnisse, dass der Hauptpassage des SCN im dorsomedialen, also im periventrikulären Bereich lokalisiert ist und das der SCN multiple Zugänge an seiner dorsalen und lateralen Grenze zur subparaventrikulären Zone besitzt. Ferner konnte auch gezeigt werden, dass beide bilateralen SCN-Kerne direkt über ausgeprägte Kommissurfaserverbindungen miteinander kommunizieren. Diese Kommissuren dürften dafür verantwortlich sein, den SCN einer Seite mit dem SCN der kontralateralen Seite zu synchronisieren. Obwohl in der vorliegenden Arbeit der Tracer nur einseitig appliziert wurde, ist dennoch von einer gekreuzten kontralateralen Verbindung auszugehen. Hier liegen Ansätze für weitere Un-tersuchungen. Ein weiterer Aspekt der Untersuchungen zeigen Faserverbin-dungen in die Area hypothalamica lateralis (AHL), die eine wichtige Rolle in der Kontrolle der zentralen Nahrungsaufnahme besitzt. Diese Faserverbin-dungen haben ihren Ursprung im SCN bzw. Nucl. paraventricularis und dem Nucl. arcuatus. Diese Verbindungen dienen am ehesten der Modulation der zentralen Regulation der Nahrungsaufnahme und spielen daher eine besondere Rolle in der Krankheitsentstehung wie Adipositas, Diabetes und Herz-Kreislauf-Erkrankung bei gestörter circadianen Rhythmik. Neu ist der Befund einer beachtlichen Anzahl von suprachiasmaticopetalen Fasern aus der sub-paraventrikulären Zone. Diese könnten die Einbindung des limbischen Systems in die Modulation der inneren Uhr erklären, die darüber hinaus ursächlich für zahlreiche Pathologien sein könnten.
Anhand ausgewählter Materialien – insbesondere anhand von Vorträgen, die zwischen 1966/68 und 2001 auf den vom Deutschen Germanistenverband (DGV) veranstalteten sog. Deutschen Germanistentagen gehalten wurden – wird gezeigt, dass sich das Fach in seinem expliziten bzw. impliziten Diskurs über das Verhältnis der Germanistik zur Politik nach – den für den fachhistorischen Diskurs einschneidenden Daten – 1966/68 auf mehreren relevanten Ebenen auf der Suche nach einer neuen Identität befindet.
Zugleich führen Spezialisierungs-, Ausdifferenzierungs- sowie Entdifferenzierungsprozesse der Disziplin als wissenschaftssysteminhärente Prozesse das Fach an seine Grenzen bis hin zur (Selbst-)Auflösung. Diese Auflösung ist systemtheoretisch als Prozess der Szientifizierung und der Entkoppelung von Wissenschaft und Politik zu beschreiben – eine Koppelung, die für die Entstehung des Faches wesentlich war. Gleichzeitig zeigen sich – gegen den sog. Elfenbeinturm gerichtete – Diskurse, diese Abkoppelung zu kompensieren (z.B. Sprachenpolitik).
Die eukaryotische RNA-Polymerase II (RNAPII) ist der zentrale Faktor für die Umsetzung des genetischen Codes in funktionelle Proteine. Durch die Transkription wird die statische Information der DNA in ein transient nutzbares RNA-Molekül umgewandelt. Bei diesem fundamentalen Prozess der Genexpression wird ein spezifischer DNA-Abschnitt des Genoms abgelesen und in die komplementäre RNA transkribiert, die entweder direkt regulatorische bzw. funktionelle Aufgaben in der Zelle übernimmt oder als Matrize für die Proteinbiosynthese dient. Zur Erhaltung der Funktionalität eines Organismus und zur schnellen und gezielten Reaktion auf exogene Reize ist eine strikte Regulation der Transkription und der zahlreichen beteiligten Faktoren notwendig. Aufgrund der zentralen Rolle in der Genexpression ist diese Regulation äußerst vielschichtig und erfordert eine feinabgestimmte Maschinerie an Enzymen und Transkriptionsfaktoren, deren genaue Wirkungsweise und Abhängigkeit noch nicht vollständig verstanden sind. Fehler in der Transkriptionsregulation werden mit einer Reihe von schwerwiegenden metabolischen Störungen und der möglichen malignen Transformation der betroffenen Zelle in Verbindung gebracht.
Während einige Regulationsmechanismen der RNAPII bereits seit längerer Zeit beschrieben sind, ist eine besondere Form der RNAPII-abhängigen Regulation erst in den letzten Jahren Gegenstand genauerer Untersuchungen geworden. So erfährt die RNAPII bei einer Vielzahl von Genen unmittelbar nach der Transkriptionsinitiation einen Arrest, der das Enzym nicht weiter über die DNA prozessieren lässt und somit die produktive Elongation des Gens blockiert. Die Aufhebung dieses promotornahen Arrests wird durch den positiven Transkriptions-Elongationsfaktor b (P-TEFb) dominiert, der durch distinkte post-translationale Modifikationen der C-terminalen Domäne der RNAPII und assoziierter Faktoren den Übergang in die produktive Transkriptionselongation ermöglicht. P-TEFb selbst unterliegt dabei einer strengen Regulation durch die Inkorporation in inhibierende Speicherkomplexe (7SK snRNPs), bestehend aus der 7SK snRNA und mehrerer assoziierter Proteine. Abseits des 7SK snRNP wurde P-TEFb als Bestandteil großer Multiproteinkomplexe identifiziert, die einen positiven Einfluss auf die Transkriptionselongation besitzen. Die Transition von P-TEFb aus dem 7SK snRNP in diese sogenannten Superelongationskomplexe (SECs) stellt einen der zentralen Regulationsmechanismen der eukaryotischen Transkription dar, ist jedoch noch nicht ausreichend verstanden.
Ein zentrales Element aller SECs bilden die Mitglieder der AF4/FMR2-Proteinfamilie, darunter das AF4 Protein, dem neben der Erhaltung der strukturellen Integrität mittlerweile auch eine Funktion in der Rekrutierung von P-TEFb zugeschrieben wird. Dabei scheint AF4 jedoch auf die Hilfe bislang noch nicht charakterisierter Faktoren angewiesen zu sein. AF4 ist über diese Rolle hinaus als Bestandteil des Fusionsproteins AF4-MLL eng mit der onkogenen Zelltransformation im Falle einer durch die Translokation t(4;11)(q21;q23) bedingten, akuten lymphoblastischen Leukämie assoziiert.
Das zentrale Thema dieser Arbeit stellen Untersuchungen zum Transfer von P-TEFb aus dem 7SK snRNP zum AF4-Protein dar. Dabei konnte zunächst die DEAD-Box RNA-Helikase DDX6 als Integraler Bestandteil der AF4-SECs identifiziert werden, der bereits eine Funktion in der Kontrolle des microRNA- wie auch des mRNA-Metabolismus zugeschrieben werden konnte. Aus diesem Grund wurde von uns eine mögliche Beteiligung von DDX6 an der Rekrutierung von P-TEFb zum AF4-SEC durch Modulationen der 7SK snRNA postuliert. Des Weiteren konnte eine Bindefähigkeit von DDX6 gegenüber der 7SK snRNA sowie eine direkte Korrelation zwischen des zellulären DDX6-Proteinlevel und der Akkumulation von P-TEFb im AF4-SEC nachgewiesen werden. Sowohl die Überexpression von DDX6 als auch die von AF4 resultierten in einer gesteigerten mRNA-Produktion, wobei die Ergebnisse auf einen kooperativen Mechanismus zwischen den beiden Proteinen in der Aktivierung der Transkription hindeuteten. Außerdem konnte die These einer DDX6-vermittelten Aktivierung von P-TEFb anhand von Expressionsanalysen des bekannten P-TEFb Zielgens HEXIM1, dessen Expression im Zusammenhang eines negativen Rückkopplungsmechanismus gesteigert wird, bestätigt werden. Damit konnte der DEAD-Box RNA-Helikase DDX6 in dieser Arbeit das erste Mal eine entscheidende Funktion in der Rekrutierung von P-TEFb aus dem 7SK snRNP in den AF4-SEC, und somit an der Kontrolle der eukaryotischen Transkription, zugeschrieben werden.
Juvenile neuronal ceroid-lipofuscinosis (JNCL) is a rare lysosomal storage disease in children with lethal outcome and no therapy. The origin of JNCL has been traced to autosomal recessive mutations in the CLN3 gene, and ~85% of the JNCL patients harbor a 1.02 kb deletion that removes the exons 7 and 8 and the surrounding intronic DNA (CLN3Δex7/8). So far, structure, function and localization of the CLN3 protein remain elusive. However, there is strong evidence that CLN3 modulates a process or condition that is essential in many cellular pathways. Lipid metabolism and antero-/retrograde transport, two mechanisms CLN3 was previously implicated in, fulfill these requirements. Notably, also a bioactive group of glycosphingolipids referred to as gangliosides is tightly interrelated with these functions. Furthermore, a-series gangliosides have been shown to be involved in the development and sustenance of the brain, where they are essential for neurite outgrowth and cell survival. Defects in ganglioside metabolism were shown to play a crucial role in many lysosomal storage disorders. However, the contribution of gangliosides to NCL pathology is largely unknown.
The present study analyzed central enzymes and metabolites of the a-series ganglioside pathway in a JNCL cell model. The core finding was, thereby, the reduced amount of the neuroprotective ganglioside GM1 in homozygous CbCln3Δex7/8 cells. This was caused by the enhanced action of the GM1-degrading multimeric enzyme complex and in particular, by the upregulation of protein levels and increased enzyme activity of β-galactosidase (Glb1).
Improved binding of Glb1 to substrate-carrying membranes was provided by an increase in LBPA levels. In combination with other smaller alterations in the ganglioside pattern, a shift towards less complex gangliosides became present. The resulting loss of neuroprotection may be the reason for the multifocal pathology in homozygous CbCln3Δex7/8 cells.
The second part of the present study investigated the cellular mechanisms behind the altered ganglioside profile with regard to the potential role of CLN3. Here, the anterograde transport of GM1 to the plasma membrane presented a positive correlation with the amount of full-length CLN3. In case of the truncated protein this correlation was missing, resulting in reduced PM staining with CTxB-FITC. However, transfection of full-length CLN3 in these cells restored the CTxB-FITC intensity. Based on the neuroprotective role of GM1, the corresponding increase in GM1 levels may be the cause for the restoration effects observed in previous studies using full-length CLN3. Hence, administration of GM1 was expected to improve cell viability of homozygous CbCln3Δex7/8 cells and beyond that to rescue potentially some disease phenotypes. However, no effect could be observed. The reason for this may be reduced caveolar uptake and the mislocalization of ganglioside GM1 to the trans-Golgi network (TGN) and redirection towards degradative compartments.
Both are in line with the idea of an impaired endocytic flux in CLN3 deficiency. The observed localization of CLN3 in the TGN suggests a potential role for CLN3 in the lipid sorting machinery, subsequently altering membrane composition and its regulatory functions. The resulting imbalance may affect many of the cellular processes impaired in JNCL.
The elliptic flow of heavy-flavour decay electrons is measured at midrapidity |eta| < 0.8 in three centrality classes (0-10%, 10-20% and 20-40%) of Pb-Pb collisions at sqrt(sNN) = 2.76TeV with ALICE at LHC. The collective motion of the particles inside the medium which is created in the heavy-ion collisions can be analyzed by a Fourier decomposition of the azimuthal anisotropic particle distribution with respect to the event plane. Elliptic flow is the component of the collective motion characterized by the second harmonic moment of this decomposition. It is a direct consequence of the initial geometry of the collision which is translated to a particle number anisotropy due to the strong interactions inside the medium. The amount of elliptic flow of low-momentum heavy quarks is related to their thermalization with the medium, while high-momentum heavy quarks provide a way to assess the path-length dependence of the energy loss induced by the interaction with the medium.
The heavy-quark elliptic flow is measured using a three-step procedure.
First the v2 coefficient of the inclusive electrons is measured using the event-plane and scalar-product methods. The electron background from light flavours and direct photons is then simulated, calculating the decay kinematics of the electron sources which are initialised by their respective measured spectra. The final result of this work emerges by subtracting the background from the inclusive measurement. A significant elliptic flow is observed after this subtraction. Its value is decreasing from low to intermediate pT and from semi-central to central collisions.
The results are described by model calculations with significant elastic interactions of the heavy quarks with the expanding strongly-interacting medium.
Recently, two of the most common types of bone cancers in children and young adults have been proven to exhibit vulnerability to poly(ADP)-ribose polymerase, (PARP) inhibitors (e.g. olaparib, talazoparib). Ewing’s sarcoma (ES) are reported to harbor a fusion gene EWS-FLI1 (85%), inducing tumorigenesis. Additional, as the fusion gene acts as aberrant transcription factor, it similarly induces elevated PARP expression levels sensitizing ES to PARP inhibition. Second, by an exome sequencing approach in a set of primary osteosarcomas (OS) we identified mutation signatures being reminiscent of BRCA deficiency. Therefore, the sensitivity of a panel of OS cell lines to either talazoparib single treatment or in combination with several chemotherapeutic drugs was investigated.
To screen ES tumor cell lines against PARP inhibitors we applied four different PARP inhibitors (talazoparib, olaparib, niraparib and veliparib) that are frequently being used for clinical studies. We combined those PARP inhibitors with a set of chemotherapeutics (temozolomide (TMZ), SN-38, etoposide, ifosfamide, doxorubicin, vincristine and actinomycin D) that are part of the first-line therapy of ES patients. Here, we demonstrate how PARP inhibitors synergize with TMZ or SN-38 to induce apoptosis, whereas the combination of PARP inhibitors with the other drugs are not favorable. By investigation of key checkpoints in the molecular mechanisms of cell death, the pivotal role of the mitochondrial pathway of apoptosis mediating the synergy between olaparib and TMZ was revealed.
Employing talazoparib monotherapy in combination with or without several chemotherapeutic drugs (TMZ, SN-38, cisplatin, doxorubicin, methotrexate and etoposide/carboplatin), the correlation between homologous recombination (HR) repair deficiency (BRCAness) and the response to talazoparib as prototypical PARP inhibitor was validated in different OS cell lines. By calculation of combination indices (CI) and fraction affected (Fa) values, we identified TMZ as the most potent chemotherapeutic drug in combination with talazoparib inducing the mitochondrial apoptotic pathway in OS.
In our studies of two independent tumor entities with contrary genetic background we identified the combination of PARP inhibitor and TMZ as being most effective. Our studies point out that after TMZ induced DNA methylation and concomitant PARP trapping, DNA damage-imposed checkpoint kinase activation consequently induces G2-cell cycle arrest. Subsequent, PARP inhibitor/TMZ causes MCL-1 degradation, followed by activation of BAK and BAX, succeeding in loss of mitochondrial outer membrane potential (LMMP) and activation of downstream effector-caspases in mitochondrial apoptosis. Our findings emphasize the importance of PARP inhibition in order to chemosensitize ES, which express high PARP levels, or OS that bear features of BRCAness.
Weltweit sind ca. 130–180 Millionen Menschen mit HCV infiziert und jährlich sterben etwa 500.000 Menschen an dessen Folgen. Die neuartigen Therapien versprechen zwar eine sehr hohe Heilungsrate, sind aber aufgrund ihrer enorm hohen Kosten nur in Industrieländern verfügbar. Noch immer gibt es keine prophylaktische Vakzinierung gegen HCV. Deshalb ist es wichtig, den HCV-Lebenszyklus und die Interaktion zwischen Wirtszelle und Virus detailliert zu verstehen, um die Entwicklung von Therapien und Impfungen zu ermöglichen. Außerdem kann ein fundiertes Wissen von HCV translatiert werden und auf neuartige Erreger der Familie der Flaviviridae, wie Denguevirus und Zikavirus, angewendet werden. Während der Zelleintritt und die Replikation von HCV relativ gut charakterisiert sind, bleiben die Assemblierung und Freisetzung der viralen Partikel schlecht verstandene Schritte des HCV-Lebenszyklus. In dieser Arbeit sollte die Rolle des zellulären Proteins α-Taxilin im Lebenszyklus von HCV untersucht werden. In einer späteren Phase der Arbeit wurde der endosomale Freisetzungsweg von HCV untersucht. Dazu wurden HCV Varianten generiert und charakterisiert, die Fluoreszenz-Proteine im NS5A- und E1-Protein enthalten, durch die es möglich ist, den Replikationskomplex und die Viruspartikel zu visualisieren und zu quantifizieren und den viralen Lebenszyklus dadurch besser untersuchen zu können...
Ziel der vorliegenden Arbeit war es, vor- und nachbereitenden Unterricht zu Biodiversitätsführungen an den vier außerschulischen Lernorten Palmengarten, Senckenbergmuseum, Stadtwaldhaus und Zoo Frankfurt zu evaluieren. Durch den Unterricht mithilfe neu entwickelter Arbeitsmaterialien sollte die aktuelle Motivation der Schüler und weitere pädagogisch-psychologische Lernvariablen gefördert werden. Es stellte sich die Frage, ob so eine erhöhte Auseinandersetzung mit dem Themenkomplex Biodiversität erreicht werden kann und welche Einflussfaktoren dabei eine Rolle spielen.
Theoretische Grundlage war dabei das Risikowahlmodell der Leistungsmotivation nach Atkinson, das von Rheinberg zum handlungstheoretischen Modell der Motivation erweitert wurde (Rheinberg & Vollmeyer, 2012). Auf dieses bezieht sich der von Rheinberg et al. (2001) entwickelte und hier eingesetzte Fragebogen zur aktuellen Motivation (FAM).
Die Stichprobe setzte sich aus insgesamt 523 Schülern der Klassen 5 bis 9 zusammen. Davon nahm jeweils die Hälfte mit (Versuchsgruppe) und die andere ohne (Kontrollgruppe) vor- und nachbereitendem Unterricht an den Biodiversitätsführungen teil. Die Erhebung der aktuellen Motivation, des erworbenen Fachwissens und weiterer Variablen erfolgte in einem Pre/Post/Follow-Up-Design mit Fragebögen, deren Auswertung analytisch statistisch durgeführt wurde.
Es zeigte sich, dass in der Gesamtstichprobe die Teilnahme an der Biodiversitätsführung die aktuelle Motivation der Schüler erhöhte. Dauerhafte Lernparameter wie die Biologieeinstellung und die Interessenshandlung wurden jedoch nicht signifikant verändert. Ein eindeutiger Effekt der unterrichtlichen Vorbereitung konnte jedoch nicht ermittelt werden. Einzig beim gemessen Fachwissen zu den Führungsinhalten schnitt die Versuchsgruppe signifikant besser ab. Insgesamt wird angenommen, dass der Effekt des Besuchs des außerschulischen Lernortes an sich den Effekt der Vor- und Nachbereitung überdeckt oder vom Einfluss anderer Parameter beeinflusst wird. Hier stach besonders das Alter der Jugendlichen hervor, das vor allem in der hier evaluierten Schülergruppe bedingt durch die Pubertät eine große Rolle spielt. Weitere Einflussfaktoren waren die Biologieeinstellung und die Unterrichtsvariablen der Führung. In den Stichproben der einzelnen außerschulischen Lernorte zeigten sich leichte Abweichungen von der Gesamtstichprobe. Diese waren meist auf die leicht unterschiedliche Zusammensetzung der Stichproben zurückzuführen. Aber auch Besonderheiten der Lernorte hatten dabei ein bedeutendes Gewicht.
Bezüglich der Lernbedingungen für die Lernorte ließen sich aus den Ergebnissen vor allem zwei Komponenten ermitteln: Zum einen die Architektur/räumliche Struktur der Lernorte. Hier können Faktoren wie drinnen/ draußen, Größe und die räumliche Orientierung unterschieden werden. All dies hat Auswirkungen auf das physische Wohlbefinden der Schüler, was wiederum eine Voraussetzung für eine hohe Lernmotivation ist. Die andere Hauptkomponente ist das am Lernort behandelte Thema. Hier kann grob zwischen Pflanzen und Tieren unterschieden werden. Pflanzen wurden dabei in mehreren Studien von den Schülern als weniger attraktiv eingeschätzt. Trotzdem sollten aber die Möglichkeiten, auch botanische Themen außerhalb der Schule zu behandeln, von den Lehrkräften zur Vermittlung biologischer Vielfalt genutzt werden.
Als Konsequenz der Ergebnisse kann der Besuch eines außerschulischen Lernrotes im Biologieunterricht bezüglich der Förderung der Lernmotivation unbedingt empfohlen werden. Da kein klarer Effekt des vor- und nachbereitenden Unterrichts der Biodiversitätsführungen erkennbar war, wären hier weitere Untersuchungen vonnöten, um genauere Aussagen machen zu können. Hier böten sich Studien mit Schülern anderer Altersgruppen und der Vergleich nur zweier außerschulischer Lernorte an.
Im Rahmen dieser Arbeit wurden Anaylsenmethoden zur Quantifizierung von Ceramiden und Prostanoiden in verschiedenen biologischen Matrices unter Verwendung von Nano-LC gekoppelt mit Tandemmassenspektrometrie entwickelt und bei diversen biologischen Fragestellungen angewendet.
Die analytische Methode zu Quantifizierung der Ceramide ermöglichte deren Bestimmung in einem Probenvolumen von 2 μL CSF. Diese neu entwickelte Methode ist die erste publizierte Nano-LC-MS/MS-Methode zur Quantifizierung der Ceramide in biologischen Proben, gleichzeitig ist es auch diejenige analytische Methode mit der höchsten Empfindlichkeit [171]. Die beschriebene Methode umfasste die Substanzen C8:0, C16:0, C18:1, C18:0, C20:0, C24:1 und C24:0 Ceramid, als interner Standard wurde C17:0 Ce-ramid verwendet. Die Probenaufarbeitung bestand in einer einfachen Proteinfällung und Verdünnung mit Methanol, die chromatografische Trennung der Analyten erfolgte mit einer RP-C8 Säule unter Verwendung eines Gradientenprogramms. Die Methode wurde anhand von FDA-Richtlinien bezüglich Linearität, Bestimmungsgrenze, Präzision, Richtigkeit und Autosampler-Stabilität validiert. Die erreichten Bestimmungsgrenzen betrugen 0,225 pg auf der Säule (2,25 pg/μL CSF) für alle Ceramide außer C24:0 Ceramid, für das der Wert von 0,75 pg auf der Säule (7,5 pg/μL CSF) ermittelt wurde. Mit der durchgeführten Validierung wurde die Zuverlässigkeit der Methode für die Quantifizierung der Ceramide in CSF gezeigt. Mit einem Standardadditionsexperiment konnte belegt werden, dass PBS als Ersatzmatrix für CSF geeignet ist und somit die Ergebnisse der Validierung mit dotierten PBS-Proben auf CSF-Proben übertragbar sind. Das entwickelte Verfahren wurde für die Quantifizierung der Analyten in murinen CSF-Proben im Rahmen eines Projekts zur Erforschung der Rolle der Ceramide bei Multipler Sklerose angewendet. Anhand der Ergebnisse wurde die Hypothese bestätigt, dass die Konzentration von C16:0 Ceramid in CSF von EAE-Mäusen erhöht ist.
Die zweite entwickelte Nano-LC-MS/MS-Methode ermöglichte die Quantifizierung der Prostanoide PGE2, PGD2, 6-keto PGF1α, PGF2α und TXB2 in einer geringen Anzahl Immunzellen. Für eine erfolgreiche Bestimmung der Analyt-Konzentrationen waren nur 5.000 T-Zellen oder 40.000 Mastzellen erforderlich. Damit ist die beschriebene Methode geeignet für die Quantifizierung in Zellen, die durch Isolation aus tierischen Geweben oder Organen erhalten werden, ohne dass das Vereinigen mehrerer Proben erforderlich ist. Durch die Messung dieser bestimmten Zellpopulationen kann, im Unterschied zur Vermessung des gesamten Organs, eine differenziertere Analyse der Lokalisation der gemessenen Analyten erfolgen. Mittels der entwickelten Methode konnten die Prostanoide PGE2, PGD2, 6-keto PGF1α, PGF2α und TXB2 quantifiziert werden. Als interner Standard stand für jedes dieser Prostanoide ein vierfach deuteriertes Strukturanalogon zur Verfügung. Die Aufarbeitung der Immunzell-Proben erfolgte durch Flüssig-Flüssig-Extraktion mit Ethylacetat, die Chromatografie wurde mit einer RP-C8-Säule und einem Gradientenprogramm durchgeführt. Eine Validierung erfolgte für die Quantifizierung in T-Lymphozyten und Mastzellen für die Parameter Linearität, Bestimmungsgrenze, Präzision, Richtigkeit, Wiederfindung, Selektivität und Stabilität. Auch ein Standardadditionsexperiment mit beiden Matrices wurde durchgeführt. Die Bestimmungsgrenzen betrugen 75 fg auf der Säule für PGE2 und PGD2 sowie 112,5 fg für 6-keto PGF1α, PGF2α und TXB2, damit zeichnet sich die Methode durch höchste Empfindlichkeit aus. Die Me-thode wurde zur Messung der Prostanoid-Konzentration in T-Zellen, die im Rahmen eines Kontaktallergie-Modells aus dem Blut von unterschiedlich behandelten Mäusen isoliert worden waren, angewendet. Es konnte kein Unterschied in den Prostanoid-Konzentrationen in den T-Zellen sensibilisierter und nicht-sensibilisierter bzw. provozierter und nicht-provozierter Mäuse festgestellt werden. Bei einer zweiten Anwendung wurden die Prostanoide in murinen Mastzellen, die nach Zymosan-Injektion in die Hinterpfote zu verschiedenen Zeitpunkten nach dem Auslösen der Entzündung aus dem entstandenen Ödem isoliert worden waren, gemessen. Zusätzlich für diese Anwendung wurden einige Leukotriene in die Methode integriert. Es wurde festgestellt, dass die Konzentrationen von PGE2, PGD2 und PGF2α in Mastzellen nach der Injektion von Zymosan-Injektion ansteigen, wobei die gemessenen Konzentrationen für PGE2 48 Stunden nach der Injektion verglichen mit denen nach 24 Stunden, bezogen auf die anderen beiden Prostaglandine, am stärksten ansteigen. Außerdem wurde mittels der für die Immunzellen entwickelten Methode die Prostanoide in murinem Urin, humanem Plasma und humaner Tränenflüssigkeit quantifiziert.
Zusammenfassend ermöglichen die entwickelten Methoden die Analyse geringer Ana-lytkonzentrationen in sehr kleinen Probenmengen und damit eine Reduktion von Versuchstierzahlen und Kosten.
The humanized non-depleting anti-CD4 monoclonal antibody Tregalizumab (BT-061) is able to selectively activate the suppressive function of regulatory T cells and has been investigated up to phase 2b in clinical trials in patients suffering from rheumatoid arthritis (RA).
A pharmacokinetic-pharmacodynamic model, which is based on clinical data from RA and healthy subjects, used the cell surface CD4-down-modulation as marker of the antibodies' activity. This model surprisingly revealed a stronger effect of Tregalizumab in healthy subjects compared to RA patients. This thesis presents a series of experiments performed to understand this phenomenon.
To counteract oxidative stress, which is strongly associated with RA pathophysiology, the organism employs the small oxidoreductase thioredoxin-1 (Trx1). Therefore, augmented expression and secretion of Trx1 was seen in many studies the synovial fluid and plasma of RA patients. Moreover, the binding site of Tregalizumab is in close proximity to a disulfide bond in domain 2 (D2) of CD4, which is a known target for a reduction by Trx1. So, this thesis also evaluated the influence of Trx1 on binding of Tregalizumab to its target CD4.
With the experiments reported herein, it was possible to demonstrate that specific reduction of the D2 disulfide bond of CD4 by Trx1 led to diminished binding of Tregalizumab to recombinant human soluble CD4 (rh sCD4) and membrane-bound CD4 on T cells from a human leukemia cell line and peripheral blood mononuclear cells (PBMC). Moreover, the experiments revealed that this caused changes in the Tregalizumab-induced CD4 signalling pathway via the lymphocyte-specific protein tyrosine kinase p56Lck.
In summary, this thesis provides evidence that high Trx1 levels in RA patients compared to healthy subjects are a potential valid reason for diminished binding of Tregalizumab to CD4-positive T cells and offers an explanation for the observed decreased CD4 down-modulation in RA patients in comparison with healthy subjects. It emphasizes that binding of Tregalizumab is impaired in a particular way in RA patients.
Ziel. Lokoregionäre Rezidive sind der Hauptgrund für ein Therapieversagen nach primärer multimodaler Behandlung von Plattenepithelkarzinomen der Kopf-Hals-Region (SCCHN). Wir verglichen die Effektivität und Toxizität von Cisplatin oder Cetuximab simultan zur Re-Bestrahlung (ReRT) bei inoperablen SCCHN-Rezidiven. Ein prognostischer Score sollte auf Grundlage verschiedener klinischer und pathologischer Faktoren etabliert werden.
Patienten und Methoden. 66 Patienten mit in vorbestrahlten Regionen rezidivierten SCCHN wurden von 2007 bis 2014 simultan mit Cetuximab (n=33) oder cisplatin-basierter Chemotherapie (n=33) re-bestrahlt. Die Toxizität wurde wöchentlich sowie bei jedem Nachsorgetermin erfasst. Klinische Untersuchung, Endoskopie, CT- oder MRT-Untersuchungen wurden zur Beurteilung des Therapieansprechens und der Krankheitskontrolle eingesetzt.
Ergebnisse. Nach einer mittleren Nachbeobachtungszeit von 18,3 Monaten betrug das 1-Jahres-Überleben (OS) für ReRT mit Cetuximab 44,4% und mit cisplatin-basierter Chemotherapie 45,5% (p=0.352). Die lokalen Kontollraten nach einem Jahr waren jeweils 46,4% und 54,2% (p=0.625); die Raten an Metastasenfreiheit 73,6% und 81% (p=0.842). Hämatologische Toxizität ≥ Grad 3 kam in der Cisplatin-Gruppe häufiger vor (p<0.001), dagegen trat Schmerz ≥ Grad 3 in der Cetuximab-Gruppe häufiger auf (p=0.034). Ein physiologischer Hb-Wert und ein längeres Intervall zwischen primärer RT und ReRT erwiesen sich als signifikante prognostische Faktoren für das OS (multivariat: p=0.003 und p=0.002). Die Rezidivlokalisation sowie das GTV zeigten keinen signifikanten Einfluss auf das OS in der multivariaten Analyse (p=0.160 und p=0.167). Ein auf Grundlage dieser Variablen konstruierter Prognose-Score (0 bis 4 Punkte) zeigte signifikante Überlebensunterschiede: 1-Jahres-OS für 0/1/2/3/4 Prognosepunkte: 10%, 38%, 76%, 80% und 100% (p<0.001).
Schlussfolgerung. Sowohl Cetuximab- als auch Cisplatin-basierte ReRT für SCCHN-Rezidive sind gut durchführbare und effektive Behandlungsoptionen mit vergleichbaren Ergebnissen bezüglich Tumorkontrolle und Überleben. Die akuten Nebenwirkungen könnten gering variieren. Unser Prognose-Score könnte zur Identifizierung der für ReRT geeigneten Patienten sowie zur Stratifizierung in künftigen klinischen Studien dienen.
The brain is a highly dynamic and variable system: when the same stimulus is presented to the same animal on the same day multiple times, the neural responses show high trial-to-trial variability. In addition, even in the absence of sensory stimulation neural recordings spontaneously show seemingly random activity patterns. Evoked and spontaneous neural variability is not restricted to activity but is also found in structure: most synapses do not survive for longer than two weeks and even those that do show high fluctuations in their efficacy.
Both forms of variability are further affected by stochastic components of neural processing such as frequent transmission failure. At present it is unclear how these observations relate to each other and how they arise in cortical circuits.
Here, we will investigate how the self-organizational processes of neural circuits affect the high variability in two different directions: First, we will show that recurrent dynamics of self-organizing neural networks can account for key features of neural variability. This is achieved in the absence of any intrinsic noise sources by the neural network models learning a predictive model of their environment with sampling-like dynamics. Second, we will show that the same self-organizational processes can compensate for intrinsic noise sources. For this, an analytical model and more biologically plausible models are established to explain the alignment of parallel synapses in the presence of synaptic failure.
Both modeling studies predict properties of neural variability, of which two are subsequently tested on a synapse database from a dense electron microscopy reconstruction from mouse somatosensory cortex and on multi-unit recordings from the visual cortex of macaque monkeys during a passive viewing task. While both analyses yield interesting results, the predicted properties were not confirmed, guiding the next iteration of experiments and modeling studies.
Since 2009 has the central Nigerian Nok Culture – until then primarily known for its highly artistic terracotta figurines and early evidence of iron working in the first millennium BCE – been the focus of a research project by the Goethe University Frankfurt/Main, Germany. The analysis of Nok sculptures has so far been almost entirely restricted to their stylistic features which show such great similarities that one hypothesis of the Frankfurt project has been the possible central production of these artfully crafted figurines.
This volume, written within the scope of a dissertation project completed in 2015, challenges this hypothesis by using scientific materials analysis. Combining the results of the mineralogical and geochemical analyses as well as geographic and geological observations, an alternative model for the organisation and procedure of the manufacture of the famous Nok terracottas is suggested.
They were – as the domestic pottery that is used for comparison and differentiation in this study – manufactured with locally available raw materials (clay and temper) but in different manufacturing sequences with regard to temper and clay composition. The terracottas’ clay was obviously reserved for their production only, demonstrating – aside from stylistic similarities – the value these figurines had during the Nok Culture.
Metal-organic frameworks (MOFs) have emerged as a promising class of crystalline porous inorganic-organic hybrid materials showing a wide range of applications. In order to realize the integration of MOFs into specific devices, this thesis mainly focuses on the controlled growth and the properties of highly oriented surface-mounted metal-organic frameworks (SURMOFs).
The stepwise layer-by-layer (LbL) growth method exhibits vast advantages for the controllable growth of SURMOFs regarding the crystallite orientation, film thickness and homogeneity. However, up to date, only a few MOFs have been demonstrated to be suited for this protocol. So the first project of this thesis was designed to extend the applicability of the LbL growth. To this end, a semi-rigid linker based [Cu2(sdb)2(bipy)] (sdb = 4,4’-sulfonylbiphenyl dicarboxylate; bipy = 4,4’-bipyridine) MOF was chosen. Employing the LbL growth, [Cu2(sdb)2(bipy)] SURMOFs were successfully grown onto both pyridyl- and carboxyl-terminated surfaces at the temperature range of 15-65 °C. Interestingly, the orientation of the SURMOFs largely depends on temperature on both surfaces. At low temperatures (below 40 °C), SURMOFs with exclusive [010] orientation are obtained. In contrast, at high temperatures (40-65 °C), [001] oriented SURMOF growth is favored. A novel growth mode was demonstrated, which is, instead of surface chemistry, the temperature-induced ripening processes and the tendency to minimize surface energies can dominate the SURMOF growth.
Inspired by the advantages of LbL deposition of isoreticular SURMOFs, the second project was conceived to grow multivariate SURMOFs (MTV-SURMOFs) using mixed dicarboxylate linkers. We advance a hypothesis that linker acidity (expressed by the pKa values) may have an influence on the oriented growth of MTV-SURMOFs. To test the hypothesis, seven isoreticular [Cu2L2(dabco)] (L = single kind of dicarboxylate linker; dabco = 1,4-diazabicyclo[2.2.2]octane) SURMOFs were grown onto pyridyl-terminated surfaces at 60 °C. The quality of [001] orientation is greatly affected by the acidity of the linkers. With this observation, we deposited a series of [Cu2Lm2(dabco)] (Lm = mixed dicarboxylate linkers) SURMOFs under the same conditions. [Cu2Lm2(dabco)] SURMOFs with exclusive [001] orientation are obtained when the growth solution contains two linkers of relatively high pKa value or more than two kinds of linkers (independent of the pKa values), while the mixtures of ligands with relatively low pKa values or a high content of low pKa valued linkers can result in mis-oriented growth of SURMOFs with unexpected [100] orientation.
Moreover, the LbL growth shows enormous potential in the rational construction of functional SURMOFs. Therefore, the third project of this thesis was devised to deposit SURMOFs containing redox-active species. For this, the 4,4’-biphenyldicarboxylic acid (H2(bpdc)) linker was functionalized with ferrocene (Fc) and dimethyl ferrocene (Me2Fc) moieties. [Cu2(bpdc-amide-Fc)2(dabco)] SURMOF (Fc-SURMOF) is perfectly grown along the [100] direction, while mis-oriented growth of [Cu2(bpdc-amide-Me2Fc)2(dabco)] SURMOF (Me2Fc-SURMOF) was observed. Surprisingly, Fc-SURMOF shows excellent electrochemical properties due to the reversible oxidation and reduction of the ferrocene moieties in the oriented pores, while the Me2Fc-SURMOF was found to be a closely packed insulating layer since no extensive charge transfer is observed. A diffusion controlled mechanism of redox reaction is proposed, where the diffusion of the counter anions in the pores limits the current.
Besides the LbL growth protocol, the spin-coating technique is also promising for the oriented growth of SURMOFs. Driven by the specific applications, the fourth project of this thesis was planned to grow functional SURMOFs containing catalytically active units. The Keggin-type polyoxometalates (POMs) with high catalytic activities were chosen to functionalize the HKUST-1 SURMOFs. Combining the technique with methanol vapor induced growth, a series of POM functionalized HKUST-1 SURMOFs (denoted as POM@HKUST-1 SURMOFs) were controllably deposited onto pyridyl-terminated surfaces. The SURMOFs exhibit great potential as electrocatalysts in electrochemical devices due to the excellent redox properties of POMs. In addition, the PTA@HKUST-1 (PTA = phosphotungstic acid) SURMOF can be employed as an ideal platform for the selective loading of methylene blue (MB) dye with high efficiency. Owing to the strong binding between the dye molecules and the framework, the MB dye cannot be desorbed by ion exchange and MB loaded PTA@HKUST-1 SURMOF shows reliable redox properties under inert conditions, further confirming the application potential in electrochemical devices.
Melt segregation inside the earth consists of two different processes: 1) Generation of partially molten rock and 2) separation of melt, produced from partially molten rock, from the solid residual matrix. This thesis focuses on the later process. The 2 phase flow dynamics combines the study of flow dynamics of melt and matrix. Several studies have given the background theoretical frameworks for the flow dynamics of melt inside the earth. [McKenzie, 1984] summarizes the studies of [Ahern and Turcotte, 1979; Frank, 1968; Sleep, 1975] and gives a complete set of governing equations for the 2-phase flow problem.
[Bercovici et al., 2001] gives a general formulation considering the univariate system of equations related to matrix and melt flow which includes the interfacial surface force. The assumption of melt having negligible viscosity compare to the matrix has been abandoned. Therefore, based on these formulations, we have constructed our numerical model and thereafter a fortran code PERCOL2D to get an insight of melt percolation process through porous media. Additionally, we have used the Helmhotz decomposition, which splits a smooth and rapidly decaying vector field into an irrotational vector field and an incompressible vector field [Srámek, 2007], for matrix and fluid viscosity in order to lower the number of linearly independent variables to minimize the computational complications. The melt residing at inter-granular areas of lithosphere, forms an interconnected network even at low porosity. Therefore, being less dense than the matrix, melt moves up through porous media due to its buoyancy. Compaction of matrix, which occurs to compensate the melt separation, is considered in this thesis, where the effective bulk and shear viscosity of matrix are function of melt fraction. We have effective bulk viscosity of matrix as inversely proportional to melt fraction. Porosity dependence of effective bulk and shear viscosity leads to stronger melt focusing in highly porous region like mid ocean ridges [Katz, 2008] since the ratio of bulk and shear viscosity is smaller (< 10) than the constant viscosity case for the porous waves having non dimensional amplitude 5% or higher. Moreover, it is observed in [Richard et al., 2012] that the solitary wave formed in porosity dependent viscous matrix settings are steeper than the one formed in the constant matrix viscosity setting.
Firstly some 1D numerical experiments with PERCOL2D have been carried out using fixed and periodic boundary conditions for zero source term (i.e. no melting or no freezing) and negligible surface tension.
3 series of model setups with different initial conditions have been carried out varying the width, non-dimensional amplitude and the background porosity value of the initial input of porous wave.
A mathematical derivation for 1D solitary wave solution for the two phase flow through porosity dependent compacting media, is obtained in this thesis which is different than the study of [Barcilon and Lovera, 1989; Barcilon and Richter, 1986; Scott and Stevenson, 1984; Spiegelman, 1993a,b] as the effective viscosity of matrix is constant there.
Although [Simpson and Spiegelman, 2011] gives the solitary wave solutions in 1D, 2D and 3D considering the porosity dependent effective viscosity of the matrix, but using the small background porosity approximation, they neglect the background porosity (i.e φ0) and therefore the effect of variation of compaction lengths, which causes variation in the shape and dynamics of the solitary wave. Therefore, the study [This thesis, Richard et al., 2012] can be used for more general purpose. Solitary waves in varying viscous medium, are steeper (cf fig.5.1) compared to the one in constant viscous medium and their speed decreases as an inverse function of the background porosity. Additionally, this analytical solution is used in our code PERCOL2D and also in FDCON for numerical benchmarking (1D) of PERCOL2D.
The role of melt grain contiguity is considered in the revised viscosity formulation [Schmeling et al., 2012] based on elastic moduli theory of a fluid filled poro-elastic medium. This formulation is used in this thesis to produce a comparative dispersion relationship between speed of the wave and the non dimensional amplitude of porous wave, based on both the viscosity formulations (fig. 6.20) where one can see that the model based on [Bercovici et al., 2001] formulation, converges to the same dispersion relationship obtained from [Simpson and Spiegelman, 2011]. Whereas, the dispersion relationship using [Schmeling et al., 2012] formulations, shows time-dependent decrease of phase velocity with increasing amplitude and it is not yet clear that whether these solutions converge to steady state porosity waves before the porosity becomes 1.
Um die Funktionsweise von biologischen Prozessen zu untersuchen, werden Trigger-Signale benötigt, die die Prozesse initiieren können, ohne dabei dem Organismus zu schaden oder Nebenreaktionen hervorzurufen. Ein geeignetes Trigger-Signal stellt Licht dar, da es bei geeigneter Wellenlänge nichtinvasiv ist und nur wenige biologische Prozesse durch Licht gesteuert werden. Um einen Prozess mit Licht aktivierbar zu machen, benötigt man eine lichtsensitive Einheit, beispielsweise eine photolabile Schutzgruppe, die durch die Bestrahlung mit Licht einen zuvor blockierten Bereich freisetzt.
Hauptziel dieser Arbeit war es die Zweiphotonen-Technik für die Photolyse von photolabil geschützten Oligonukleotiden nutzbar zu machen und das Photolyseergebnis zu visualisieren.
Dazu wurden zunächst verschiedene mit Zweiphotonen-sensitiven Schutzgruppen modifizierte Phosphoramidite synthetisiert und über Festphasensynthese in Oligonukleotide eingebaut. Die Oligonukleotide mit den erstmals neu eingebauten Schutzgruppen ANBP und hNDBF wurden zunächst auf ihre Einphotonen-Eigenschaften, wie Schmelzpunkt, Absorptionsverhalten und Quantenausbeute untersucht. Weiterhin wurden erste Versuche zur wellenlängenselektiven Photolyse von hNDBF- und ANBP-geschützten Oligonukleotiden durchgeführt.
Die Existenz eines Zweiphotonen-induzierten Effekts kann durch die quadratische Abhängigkeit des erzeugten Effekts von der eingestrahlten Leistung nachgewiesen werden. Dazu wurde ein Verdrängungs-Assay entwickelt, dessen Doppelstrang-Sonde aus einem FRET-Paar besteht. Der Fluorophor-markierte Strang dient dabei als Gegenstrang zum photolabil geschützten Strang. Durch einen Thiol-Linker am photolabil geschützten Oligonukleotid konnte dieses erfolgreich in Maleimid-Hydrogele immobilisiert werden und der Verdrängungs-Assay im Gel durchgeführt werden. Die immobilisierten Stränge enthielten DEACM bzw. ANBP Schutzgruppen. Neben der quadratischen Abhängigkeit der Photolyse von der eingestrahlten Leistung konnten in diesen Hydrogelen auch 3D-aufgelöste Photolysen realisiert werden, die eindeutig die Zwei-Photonen-Photolyse belegen. Diese 3D-Experimente wurden zusammen mit Dr. Stephan Junek am MPI für Hirnforschung durchgeführt. Durch die Wahl zweier unterschiedlicher Sequenzen für die dTDEACM und dGANBP modifizierten Stränge und zwei unterschiedlicher Fluorophore für die Doppelstrang-Sonden, konnte die orthogonale Zweiphotonen-Photolyse gezeigt werden. Um zu zeigen, dass die Zweiphotonen-Photolyse von Oligonukleotiden auch in Organismen realisiert werden kann ohne das biologische System zu schädigen, wurde versucht den Verdrängungs-Assay auch in Zellen durchzuführen. Durch die Verwendung der Patch-Clamp-Technik in Zusammenarbeit mit Dr. Stephan Junek am MPI für Hirnforschung konnten die Stränge über die Elektrolyt-Lösung in Hippocampus-Neuronen eingebracht werden und durch Zweiphotonen-Bestrahlung dort photolysiert werden, was zu einem deutlichen Fluoreszenzanstieg führte. Durch die angeschlossene Patch-Clamp-Pipette konnten so zusätzlich elektrophysiologische Messungen durchgeführt werden, die zeigten, dass die durchgeführte Zweiphotonen-Bestrahlung nicht invasiv für die Zellen ist.
Die durchgeführten Experimente beweisen, dass Zweiphotonen-sensitive Schutzgruppen auf Oligonukleotiden photolysiert werden können und dass ihr Einsatz auch in biologischen Systemen möglich ist. Der entwickelte Verdrängungs-Assay ermöglicht es weiterhin neue photolabile Schutzgruppen auf Oligonukleotiden auf ihre Zweiphotonen-Sensitivität zu untersuchen.
Ein weiteres Projekt beschäftigte sich mit der Synthese der neuen Schutzgruppe DMA-NDBF-OH, die in-silico von der Arbeitsgruppe von Prof. Andreas Dreuw aus Heidelberg als effiziente Zweiphotonen-sensitive Schutzgruppe beschrieben wird. Es wurde versucht DMA-NDBF-OH über zwei Syntheserouten herzustellen. Eine Route basierte auf der Einführung der Funktionalitäten an einem unmodifizierten Dibenzofuran, die leider an der Bromierung der Seitenkette scheiterte. Die zweite Syntheseroute wurde in Anlehnung an die NDBF-Synthese von Deiters et al., bei der das Dibenzofuran durch eine Kondensation zweier modifizierter Benzolringe und einem Pd-katalysierten Ringschluss aufgebaut wird, durchgeführt. Mit dieser Syntheseroute konnte das DMA-NDBF-OH erfolgreich synthetisiert werden. Aufgrund ihrer starken bathochromen Verschiebung sollte sich diese Schutzgruppe hervorragend für die wellenlängenselektive Photolyse auf Ein- und Zweiphotonenebene eignen.
In this thesis, the production of charged kaons and Φ mesons in Au+Au collisions at sqrt sAuAu = 2.4 GeV is studied. At this energy, all particles carrying open and hidden strangeness are produced below their respective free nucleon-nucleon threshold with the corresponding so-called excess energies: sqrt sK+ exc = -0.15 GeV, sqrt sK- exc = -0.46 GeV, sqrt sΦ exc = -0.49 GeVGeV. As a consequence, the production cross sections are very sensitive to medium effects like momentum distributions, two- or multistep collisions, and modification of the in-medium spectral distribution of the produced states [1]. K+ and K- mesons exhibit different properties in baryon dominated matter, since only K- can be resonantly absorbed by nucleons. Although strangeness exchange reactions have been proposed to be the dominant channel for K- production in the analyzed energy regime, the production yield and kinematic distributions could also be explained in smaller systems based on statistical hadronization model fits to the measured particle yields, including a canonical strangeness suppression radius RC, and taking the Φ feed-down to kaons into account [2, 3]. For the first time in central Au+Au collisions at such low energies, it is possible to reconstruct and do a multi differential analysis of K- and Φ mesons. In principle, this should be the ideal environment for strangeness exchange reactions to occur, as the particles are produced deeply sub-threshold in a large and long-living system. Therefore, it is the ultimate test to differentiate between the different sources for K- production in HIC.
In total 7.3x10exp9 of the 40% most central Au(1.23 GeV per nucleon)+Au collisions are analyzed. The data has been recorded with the High Acceptance DiElectron Spectrometer HADES located at Helmholtzzentrum für Schwerionenforschung GSI in April/May 2012. A substantially improved reconstruction method has been employed to reconstruct the hadrons with high purity in a wide phase space region.
The estimated particle multiplicities follow a clear hierarchy of the excess energy: 41.5 ± 2.1|sys protons at mid-rapidity per unit in rapidity, 11.1 ± 0.6|sys ± 0.4|extrapol π-, (3.01 ± 0.03|stat ± 0.15|sys ± 0.30|extrapól) x10 exp -2 K+, (1.94 ± 0.09|stat ± 0.10|sys ± 0.10|extrapol)x10 exp -4 K- and (0.99 ± 0.24|stat ± 0.10|sys ± 0.05|extrapol)x10 exp -4 Φ per event. The multiplicities of the strange hadrons increase more than linear with the mean number of participating nucleons hAparti, supporting the assumption that the necessary energy to overcome the elementary production threshold is accumulated in multi-particle interactions. Transport models predict such an increase, but are overestimating the measured particle yield and are not able to describe the kinematic distributions of K+ mesons perfectly. However, the best description is given by the IQMD model with a density dependent kaonnucleon potential of 40 MeV at nuclear ground state density.
The K-=K+ multiplicity ratio is constant as a function of centrality and follows with (6.45 ± 0.77)x10 exp -3 the trend of increasing with beam energy indicated from previous experiments [4]. The effective temperature of K- TK+eff = (84 ± 6) MeV is found to be systematically lower than the one of K+ TK+eff = (104 ± 1) MeV, which has also been observed by the other experiments.
The Φ=K- ratio is with a value of 0.52 ± 0.16 higher than the one obtained at higher center-of-mass energies and smaller systems. This behavior is predicted from a tuned version of the UrQMD transport model [5], when including higher mass baryonic resonances which can decay into Φ mesons and from statistical hadronization models when suppressing open strangeness canonically. The found ratio is constant as a function of centrality and results with a branching ratio of 48.9%, that ~ 25% of all measured K- originate from Φ feed-down decays. A two component PLUTO simulation, consisting of a pure thermal and a K- contribution originating from Φ decays, can fully explain the observed lower effective temperature in comparison to K+ and the shape of the measured rapidity distribution of K-. As a result, we find no indication for strangeness exchange reactions being the dominant mechanism for K- production in the SIS18 energy regime, if taking the contribution from Φ feed-down decays into account.
The hadron yields for the 20% most central collisions can be described by a statistical hadronization model fit with the chemical freeze-out temperature of Tchem = (68 ± 2) MeV and baryochemical potential of μB = (883 ± 25) MeV, which is higher than expected from previous parameterizations. The analysis of the transverse mass spectra of protons indicate a kinetic freeze-out temperature of Tkin = (70 ± 4) MeV and radial flow velocity of βr = 0.43 ± 0.01, which is in agreement with the parameters obtained from the linear dependence of the effective temperatures on the particle mass Tkin = (71.5 ± 4.2) MeV and βr = 0.28 ± 0.09.
The Hepatitis C virus (HCV) infects more than 170 million individuals worldwide and causes challenging HCV-related diseases. Unfortunately, there is no vaccine available. Therefore, a better understanding of the HCV life cycle is urgently needed to develop more effective and better tolerated therapies.
It has been reported that the secretory pathway plays an essential role for the release of HCV, and the SNARE complexes are a central factor controlling intracellular vesicular trafficking. Recently, our group observed that α-taxilin that binds to free syntaxin 4 prevents the SNARE complex formation and exerts an inhibitory effect on the release of HCV particles. Therefore, it was analyzed whether the t-SNARE protein syntaxin 4 is involved in the HCV life cycle.
An increased intracellular amount of syntaxin 4 was found in HCV-positive cells, while the level of syntaxin 4-specific transcripts was decreased as observed in HCV-positive Huh7.5 cells and in HCV-infected primary human hepatocytes (PHH). Since in HCV-positive cells a significant longer half-life of syntaxin 4 was found, the decreased expression is overcompensated, leading to the elevated amount of syntaxin 4. Overexpression of syntaxin 4 increases the amount of secreted infectious viral particles, while silencing of syntaxin 4 expression decreases the number of released viral particles, which indicates that HCV could use the SNARE-dependent secretory pathway for viral release. Confocal immunofluorescence microscopy and co-immunoprecipitation experiments revealed that syntaxin 4 interacts with HCV core and NS5A. To identify the binding domain, various mutants of syntaxin 4 were generated. Based on these mutants, it was found that the H3 domain of syntaxin 4 interacts with core. These data show that the t-SNARE protein syntaxin 4 is an essential cellular factor for HCV morphogenesis and secretion.
HCV induces autophagy, and in HCV-infected cells a major fraction of the de novo synthesized viral particles is not released but intracellularly degraded. Syntaxin 17 is an autophagosomal SNARE required for the fusion of autophagosomes with lysosomes to form autolysosomes and thereby to deliver the enclosed contents for degradation. Therefore, we aim to investigate whether syntaxin 17 is a relevant factor for the HCV life cycle by regulating the fusion between autophagosomes and lysosomes. It was found that HCV-positive cells possess a decreased amount of syntaxin 17, and HCV reduces the intracellular level of syntaxin 17 by NS5A-mediated interruption of c-Raf signaling, which triggers the syntaxin 17 transcription, and by HCV-dependently induced autophagy. Overexpression of syntaxin 17 decreases the intracellular amount of viral particles and reduces the number of released infectious viral particles by favoring the formation of autolysosomes, in which HCV particles can be degraded. Vice versa, inhibition of syntaxin 17 expression by specific siRNAs results in an elevated amount of intracellular viral particles and increases the number of released viral particles by impaired autophagosome-lysosome fusion. Confocal immunofluorescence microscopy analyses show a fraction of core protein in autophagosomes as stained by lysotracker and the autophagy maker p62. These data identify syntaxin 17 as a novel factor controlling the release of HCV and reveal the autophagosome-autolysosome fusion as an essential step affecting the equilibrium between the release of infectious viral particles and lysosomal degradation of intracellular viral particles.
Taken together, these data identify the t-SNARE proteins syntaxin 4 and syntaxin 17 as essential cellular factors for HCV morphogenesis and secretion.
For the transport of high-intensity hadron beams in low-energy beam lines of linear accelerators, the compensation of space charge forces by the accumulation of particles of opposite charge is an important effect, reducing the required focusing strength and potentially the emittance growth due to space charge forces. In this thesis, space charge compensation was studied by including the secondary particles in particle-in-cell simulations.
For this purpose, a new electrostatic particle-in-cell code named bender was developed. The software was tested using known self-consistent solutions for an electron plasma confined in an external potential as well as for a KV distributed beam in a periodic focusing lattice. For the simulation of compensation, models for residual gas ionisation by proton and electron impact were implemented.
The compensation process was studied for a 120 keV, 100 mA proton beam transported through a short drift section. Various features in the particle distributions were identified, which can not explained by a uniform reduction in the electric field of the beam. These were tied to the presence of thermal electrons confined within the beam potential. Using the Poisson-Boltzmann equation, their distribution could be reproduced and their influence on the beam for a wider range of parameters studied. However, the observed temperatures show a significant numerical influence. The hypothesis was formed, that stochastical heating present in particle-in-cell simulations is the mechanism leading to the formation of the observed (partial) thermal equilibrium.
For the low-energy beam transport line of the Frankfurt neutron source FRANZ, bender was used to predict the pulse shaping in the novel ExB chopper system. The code was also used for the design and the study of an electron lens for the Integrable Optics Test Accelerator at Fermi National Accelerator Laboratory. Aberrations due to guiding center drifts and the strong electric field of the electron beam as well as the current limits in such a system were investigated.
The transition from the marine to the terrestrial realm is one of the most fascinating issues in evolutionary biology for it required the appearance, in different organisms, of several novel adaptations to deal with the demands of the new realm. Adaptations include, for instance, modifications in different metabolic pathways, development of body structures to facilitate movement and respiration, or tolerance to new conditions of stress. The transition to the land also gives an extraordinary opportunity to study whether evolution used similar changes at the genomic level to produce parallel adaptations in different taxa. Mollusks are among taxa that were successful in the conquest of the land. For instance, several lineages of the molluscan clade Panpulmonata (Gastropoda, Heterobranchia) invaded the intertidal, freshwater and land zones from the marine realm. In my dissertation, using tools from bioinformatics, phylogenetics, and molecular evolution, I used panpulmonates as a suitable model group to study the independent invasions into the terrestrial realm and the adaptive signatures in genes that may have favored the realm transitions. My work includes two peer-reviewed published papers and one manuscript under review. In Publication 1 (Romero et al., 2016a), I used mitochondrial and nuclear molecular markers to resolve the phylogeny of the Ellobiidae, a family that possesses intertidal and terrestrial species. The phylogeny provided an improved resolution of the relationships within inner clades and a framework to study the tempo and mode of the land transitions. I showed that the terrestrialization events occurred independently, in different lineages (Carychiinae, Pythiinae) and in different geological periods (Mesozoic, Cenozoic). In addition, the diversification in this group may not have been affected by past geological or climate changes as the Cretaceous-Paleogene (K-Pg) event or the sea-level decrease during the Oligocene. In Publication 2 (Romero et al., 2016b), I generated new mitochondrial genomes from terrestrial species and compared them with other panpulmonates. I used the branch-site test of positive selection and detected significant nonsynonymous changes in the terrestrial lineages from Ellobioidea and Stylommatophora. Two genes appeared under positive selection: cob (Cytochrome b) and nad5 (NADH dehydrogenase 5). Surprisingly, I found that the same amino acid positions in the proteins encoded by these genes were also under positive selection in several vertebrate lineages that transitioned between different habitats (whales, bats and subterranean rodents). This result suggested an adaptation pattern that required parallel genetic modifications to cope with novel metabolic demands in the new realms. In Manuscript 1 (Romero et al., under review), I de novo assembled transcriptomes from several panpulmonate specimens resulting in thousands of genes that were clustered in 702 orthologous groups. Again, I applied the branch-site test of positive selection in the terrestrial lineages from Ellobioidea and Stylommatophora and in the freshwater lineages from Hygrophila and Acochlidia. Different sets of genes appeared under positive selection in land and freshwater snails, supporting independent adaptation events. I identified adaptive signatures in genes involved in gas-exchange surface development and energy metabolism in land snails, and genes involved in the response to abiotic stress factors (radiation, desiccation, xenobiotics) in freshwater snails. My work provided evidence that supported multiple land invasions within Panpulmonata and provided new insights towards understanding the genomic basis of the adaptation during sea-to-land transitions. The results of my work are the first reports on the adaptive signatures at the codon level in genes that may have facilitated metabolic and developmental changes during the terrestrialization in the phylum Mollusca. Moreover, they contribute to the current debate on the conquest of land from the marine habitat, a discussion that has been only based in vertebrate taxa. Future comparative genome-wide analyses would increase the number of genes that may have played a key role during the realm transitions.
Prognostische Faktoren und das Outcome von Patienten mit einem primären Glioblastom sind in der Fachliteratur gut beschrieben. Im Gegensatz dazu gibt es wenige vergleichbare Informationen zu Patienten mit einem sekundären Glioblastom. Das Ziel dieser Arbeit war es, das Outcome von Patienten mit einem sekundären Glioblastom zu beurteilen und prognostische Faktoren in Be-zug auf das Gesamtüberleben zu identifizieren.
Dazu wurde die interne Datenbank des Universitätsklinikums Frankfurt/Main von Patienten mit Hirntumoren retrospektiv nach klinischen Daten durchsucht. Alle Patienten hatten ein histologisch gesichertes WHO Grad II oder III Gliom und anschließend ein WHO Grad IV sekundäres Glioblastom. Paraffiniertes Hirntumorgewebe wurde auf Mutationen der Isocitrat Dehydrogenase-1 (IDH1) mittels einer immunhistochemischen Färbung mit einem R132H (clone H09) spezifischen Antikörper untersucht. Eine uni- und multivariate statistische Analyse wurde durchgeführt, um Faktoren zu ermitteln, die potentiell das Gesamt-überleben beeinflussen könnten.
Es wurden 45 Patienten mit einem histologisch gesicherten sekundären Glioblastom untersucht. Das mediane Alter betrug 41 Jahre. 14 Patienten unterzogen sich einer radiologisch kompletten Resektion des sekundären Glioblastoms, 31 Patienten wurden subtotal reseziert oder biopsiert. Initial ist bei 37 Patienten ein astrozytärer Tumor nachgewiesen worden und die restlichen Patienten litten an Oligodendrogliomen oder gemischten Gliomen; bei der initialen Diagnose wurden 17 WHO Grad II und 28 WHO Grad III Tumoren fest-gestellt. Die mediane Zeit zwischen Ursprungstumor und dem Auftreten des sekundären Glioblastoms betrug 158,9 Wochen. Das mediane Gesamtüberleben betrug 445 Tage nach der Diagnose eines sekundären Glioblastoms. Mutationen des IDH1 (R132H) Proteins wurden bei 24 Patienten festgestellt und fehlten bei 17 Patienten; bei 4 Patienten konnte keine IDH1 immunhistochemische Färbung durchgeführt werden.
In der univariaten Analyse konnte der Zeitraum zwischen initialer Läsion und dem Progress zu einem sekundären Glioblastom als statistisch signifikanter Einflussfaktor identifiziert werden- Patienten mit einem Zeitraum von mehr als 2 Jahren hatten ein besseres Gesamtüberleben (460 vs. 327 Tage, p = 0,011). Außerdem konnte bei Patienten, die eine kombinierte Radiochemotherapie bekamen, ein besseres Gesamtüberleben nachgewiesen werden als bei Patienten, welche ausschließlich eine Therapieform erhielten (611 vs. 380 Tage, p < 0,001). Weiterhin konnten ein WHO Grad II Ursprungstumor (472 vs. 421 Tage, p = 0,05) und eine Frontalllappenlokalisation des Glioblastoms (472 vs. 425 Ta-ge, p = 0,031) das Überleben steigern.
In der multivariaten Analyse konnte gezeigt werden, dass die Mutation des IDH1 (R132H) Proteins in statistisch signifikanter Weise mit einem längeren Gesamtüberleben assoziiert war (p = 0,012); statistische Signifikanz für ein län-geres Gesamtüberleben bei Patienten mit initial einem WHO Grad II (p = 0,047) und einer Frontallappenlokalisation des Glioblastoms (p = 0,042) stellte sich auch ein. In Bezug auf die Patienten spezifischen Daten wurden zwei Prognosegruppen erstellt; Patienten in der guten Prognosegruppe scheinen einen Benefit von einer totalen Tumorresektion zu haben (p = 0,02), während eine Resektion für die andere Prognosegruppe keine große Rolle spielte (p = 0,926).
Trotz des relativ geringen Erkrankungsalters haben sekundäre Glioblastom Patienten eine schlechte Prognose. Die Ergebnisse dieser Arbeit unterstreichen die Wichtigkeit und den prognostischen Wert der IDH1 Diagnostik, die Notwendigkeit einer kombinierten Radiochemotherapie und eine Risikostratifizierung für eine Prognoseabschätzung anhand der Patienten spezifischen Einflussfaktoren.
Die Populationsgenetik beschäftigt sich mit dem Einfluss von zufälliger Reproduktion, Rekombination, Migration, Mutation und Selektion auf die genetische Struktur einer Population.
In dieser Arbeit mit dem englischen Titel "Ancestral lines under mutation and selection" wird das Zusammenspiel von zufälliger Reproduktion, gerichteter Selektion und Zweiwegmutation untersucht.
Dazu betrachten wir eine haploide Population in der jedes Individuum zu jedem Zeitpunkt genau einen von zwei Typen aus S:={0,1} trägt. Dabei sei 1 der neutrale und 0 der selektiv bevorzugte Typ. Im Diffusionslimes sehr großer Populationen modellieren wir den Prozess der Frequenz der Typ-0-Individuen durch eine Wright-Fisher-Diffusion X:=(X_t) mit Mutation und gerichteter Selektion.
Zu jedem Zeitpunkt s gibt es genau ein Individuum, dessen Nachkommen ab einem bestimmten zukünftigen Zeitpunkt t>s die gesamte Population ausmachen werden. Wir nennen dieses Individuum den gemeinsamen Vorfahren zum Zeitpunkt s, da alle Individuen zu allen Zeitpunkten r>t von ihm abstammen. Sei R_{s} dessen Typ zum Zeitpunkt s. Wir nehmen an, dass der Prozess X zum Zeitpunkt 0 im Gleichgewicht ist und definieren die Wahrscheinlichkeit, dass der gemeinsame Vorfahre zum Zeitpunkt 0 Typ 0 hat, durch h(x):= P(R_{0}=0|X_{0}=x). Eine Darstellung von h(x) wurde bereits von Fearnhead (2002) und Taylor (2007) gefunden und dort mit vorwiegend analytischen Methoden bewiesen. In dieser Arbeit entwickeln wir in Kapitel 3 ein neues Teilchenbild, den pruned lookdown ancestral selection graph (pruned LD-ASG), der für sich selbst genommen interessant ist und eine neue probabilistische Interpretation der Darstellung von h(x) liefert.
Durch Erweiterung des Teilchenbildes auf Nachkommenverteilungen mit schweren Tails und mit Hilfe einer Siegmund Dualität gelingt es uns in Kapitel 4 das Resultat für h(x) von klassischen Wright-Fisher-Diffusionen auf Lambda-Wright-Fisher-Diffuison zu erweitern.
Eine Verbindung zwischen Ideen von Taylor (2007), der den gemeinsamen Prozess (X,R) untersucht hat, und einem von Fearnhead (2002) betrachteten Prozess (R,V), der die Entwicklung des Typs R des gemeinsamen Vorfahren in einer Umgebung von V sogenannten virtuellen Linien beschreibt, stellen wir in Kapitel 6 her. Wir bestimmen die gemeinsame Dynamik des Tripels (X,R,V). In Kapitel 7 betrachten wir ein diskretes Bild mit endlicher Populationsgröße N und schlagen dort eine Brücke zu Resultaten von Kluth, Hustedt und Baake (2013).
Des Weiteren entwickeln wir in Kapitel 5 dieser Arbeit einen Algorithmus zur Simulation der Typen einer Stichprobe von m Individuen, die aus einer Wright-Fisher-Population mit Mutation und Selektion im Gleichgewicht gezogen wird. Mittels dieses Algorithmus illustrieren wir die Typenverteilung für verschiedene Parameterwerte und Stichprobengrößen.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
One of the most important shifts in mathematics learning and instruction in the last decades has taken place in the conception of the subject matter, changing from a perspective of mathematics as composed of concepts and skills to be learned, to a new one emphasizing the mathematical modelling of the reality (De Corte, 2004). This shift has had, as it is to be expected, an impact on classroom processes, and changed instructional settings and practices.
Instructional explanations, the object of study in the present work, are an interesting topic in that landscape, since they continue to be a typical form of classroom discourse, especially −but no exclusively−when new contents are introduced to the students (e.g. Leinhardt, 2001; Perry, 2000; Wittwer & Renkl, 2008). Consequently, good teachers are also supposed to be good explainers, independently whether they are the main speaker, or play the role of moderator in exchange between students (e.g. Charalambous, Hill, & Ball, 2011; Danielson, 1996; Inoue, 2009).
Despite the central role that instructional explanations play in classroom practices, current instructional quality models, which describe how effective teaching practices should look like, do not consider instructional explanations as a key element (Danielson, 1996; Klieme, Lipowsky, Rakoczy, & Ratzka, 2006; Pianta & Hamre, 2009). Moreover, aside from a few notable exceptions (Duffy, Roehler, Meloth, & Vavrus, 1986; Leinhardt & Steele, 2005; Perry, 2000), instructional explanations have not been investigated empirically within other traditions either. Thus, there is scarce of empirical work about instructional explanations and their potential contribution to promote students’ learning.
The purpose of the present work is to examine instructional explanations from a theoretical perspective as well as empirically, in order to characterize them and investigate their association with students’ learning outcomes. The underlying theoretical framework chosen to organize the study is the one proposed by Leinhardt (2001) with some adaptations according to pertinent complementary literature (Drollinger-Vetter & Lipowsky, 2006; Leinhardt & Steele, 2005).
The empirical work of this dissertation was carried out in the context of the project “Analysis of mathematic lessons” (FONIDE 209) funded by the Chilean Ministry of Education during 2007. This study, in turn, was embedded in the international extension of the research project the ‘‘Quality of instruction, learning, and mathematical understanding’’ carried out between 2000 and 2006 by the German Institute for International Educational Research (DIPF) in Frankfurt, Germany, and the University of Zurich in Switzerland (e.g. Klieme & Reusser, 2003; Klieme et al., 2006). According to the design of the original project, the study considers the inclusion of different perspectives, namely, teachers, students and external observers, by means of questionnaires, tests and classroom observation protocols.
The examination of instructional explanations in this dissertation begins in chapter 2 with the review of relevant literature and introduction of the theoretical background underpinning the study of instructional explanations. This theoretical review comprises three subsections, the first one describing the evolution of the process-product-paradigm into the actual instructional quality models that are presented in a next step. The second subsection includes a detailed theoretical presentation of explanations and instructional explanations, addressing the main theoretical issues and giving examples of the few empirical works about instructional explanations found in the literature. Finally, the third subsection with the description of Chilean teaching practices in order to contextualize the study.
Chapter 3 presents the research questions and lists the associated work hypotheses that are investigated throughout this work. Chapter 4 includes the methodological aspects of the work, indicating the description of the sample, design of the study, the methods used the gather the data and the analyses chosen to answer the proposed research questions.
Chapter 5 contains the presentation of results, which are organized by research question, starting with the results from quantitative analyses and continuing with the results from qualitative analyses. This chapter closes with a general summary of the results organized according to the central themes of the study. Finally, chapter 6 concludes with a discussion of the link between the results and the instructional explanations literature and research, or lack thereof, that originally motivated the research questions addressed in this study. This chapter finishes with a discussion of the limitations of the study and the implications of its results, as well as an examination of areas where the research on instructional explanations can be fruitfully expanded in the future.
Die vorliegende Arbeit lässt sich in den Bereich Data Science einordnen. Data Science verwendet Verfahren aus dem Bereich Computer Science, Algorithmen aus der Mathematik und Statistik sowie Domänenwissen, um große Datenmengen zu analysieren und neue Erkenntnisse zu gewinnen. In dieser Arbeit werden verschiedene Forschungsbereiche aus diesen verwendet. Diese umfassen die Datenanalyse im Bereich von Big Data (soziale Netzwerke, Kurznachrichten von Twitter), Opinion Mining (Analyse von Meinungen auf Basis eines Lexikons mit meinungstragenden Phrasen) sowie Topic Detection (Themenerkennung)....
Ergebnis 1: Sentiment Phrase List (SePL)
Im Forschungsbereich Opinion Mining spielen Listen meinungstragender Wörter eine wesentliche Rolle bei der Analyse von Meinungsäußerungen. Das im Rahmen dieser Arbeit entwickelte Vorgehen zur automatisierten Generierung einer solchen Liste leistet einen wichtigen Forschungsbeitrag in diesem Gebiet. Der neuartige Ansatz ermöglicht es einerseits, dass auch Phrasen aus mehreren Wörtern (inkl. Negationen, Verstärkungs- und Abschwächungspartikeln) sowie Redewendungen enthalten sind, andererseits werden die Meinungswerte aller Phrasen auf Basis eines entsprechenden Korpus automatisiert berechnet. Die Sentiment Phrase List sowie das Vorgehen wurden veröffentlicht und können von der Forschungsgemeinde genutzt werden [121, 123]. Die Erstellung basiert auf einer textuellen sowie zusätzlich numerischen Bewertung, welche typischerweise in Kundenrezensionen verwendet werden (beispielsweise der Titel und die Sternebewertung bei Amazon Kundenrezensionen). Es können weitere Datenquellen verwendet werden, die eine derartige Bewertung aufweisen. Auf Basis von ca. 1,5 Millionen deutschen Kundenrezensionen wurden verschiedene Versionen der SePL erstellt und veröffentlicht [120].
Ergebnis 2: Algorithmus auf Basis der SePL
Mit Hilfe der SePL und den darin enthaltenen meinungstragenden Phrasen ergeben sich Verbesserungen für lexikonbasierte Verfahren bei der Analyse von Meinungsäußerungen. Phrasen werden im Text häufig durch andere Wörter getrennt, wodurch eine Identifizierung der Phrasen erforderlich ist. Der Algorithmus für eine lexikonbasierte Meinungsanalyse wurde veröffentlicht [176]. Er basiert auf meinungstragenden Phrasen bestehend aus einem oder mehreren Wörtern. Da für einzelne Phrasen unterschiedliche Meinungswerte vorliegen, ist eine genauere Bewertung als mit bisherigen Ansätzen möglich. Dies ermöglicht, dass meinungstragende Phrasen aus dem Text extrahiert und anhand der in der SePL enthaltenen Einträge differenziert bewertet werden können. Bisherige Ansätze nutzen häufig einzelne meinungstragende Wörter. Der Meinungswert für beispielsweise eine Verneinung muss nicht anhand eines generellen Vorgehens erfolgen. In aktuellen Verfahren wird der Wert eines meinungstragenden Wortes bei Vorhandensein einer Verneinung bisher meist invertiert, was häufig falsche Ergebnisse liefert. Die Liste enthält im besten Fall sowohl einen Meinungswert für das einzelne Wort und seine Verneinung (z.B. „schön“ und „nicht schön“).
1.3 übersicht der hauptergebnisse 5
Ergebnis 3: Evaluierung der Anwendung der SePL
Der Algorithmus aus Ergebnis 2 wurde mit Rezensionen der Bewertungsplattform CiaoausdemBereichderAutomobilversicherunge valuiert.Dabei wurden wesentliche Fehlerquellen aufgezeigt [176], die entsprechende Verbesserungen ermöglichen. Weiterhin wurde mit der SePL eine Evaluation anhand eines Maschinenlernverfahrens auf Basis einer Support Vector Machine durchgeführt. Hierbei wurden verschiedene bestehende lexikalische Ressourcen mit der SePL verglichen sowie deren Einsatz in verschiedenen Domänen untersucht. Die Ergebnisse wurden in [115] veröffentlicht.
Ergebnis 4: Forschungsprojekt PoliTwi - Themenerkennung politischer Top-Themen
Mit dem Forschungsprojekt PoliTwi wurden einerseits die erforderlichen Daten von Twitter gesammelt. Andererseits werden der breiten Öffentlichkeit fortlaufend aktuelle politische Top-Themen über verschiedene Kanäle zur Verfügung gestellt. Für die Evaluation der angestrebten Verbesserungen im Bereich der Themenerkennung in Verbindung mit einer Meinungsanalyse liegen die erforderlichen Daten über einen Zeitraum von bisher drei Jahren aus der Domäne Politik vor. Auf Basis dieser Daten konnte die Themenerkennung durchgeführt werden. Die berechneten Themen wurden mit anderen Systemen wie Google Trends oder Tagesschau Meta verglichen (siehe Kapitel 5.3). Es konnte gezeigt werden, dass die Meinungsanalyse die Themenerkennung verbessern kann. Die Ergebnisse des Projekts wurden in [124] veröffentlicht. Der Öffentlichkeit und insbesondere Journalisten und Politikern wird zudem ein Service (u.a. anhand des Twitter-Kanals unter https://twitter.com/politwi) zur Verfügung gestellt, anhand dessen sie über aktuelle Top-Themen informiert werden. Nachrichtenportale wie FOCUS Online nutzten diesen Service bei ihrer Berichterstattung (siehe Kapitel 4.3.6.1). Die Top-Themen werden seit Mitte 2013 ermittelt und können zudem auf der Projektwebseite [119] abgerufen werden.
Ergebnis 5: Erweiterung lexikalischer Ressourcen auf Konzeptebene
Das noch junge Forschungsgebiet des Concept-level Sentiment Analysis versucht bisherige Ansätze der Meinungsanalyse dadurch zu verbessern, dass Meinungsäußerungen auf Konzeptebene analysiert werden. Eine Voraussetzung sind Listen meinungstragender Wörter, welche differenzierte Betrachtungen anhand unterschiedlicher Kontexte ermöglichen. Anhand der Top-Themen und deren Kontext wurde ein Vorgehen entwickelt, welches die Erstellung bzw. Ergänzung dieser Listen ermöglicht. Es wurde gezeigt, wie Meinungen in unterschiedlichen Kontexten differenziert bewertet werden und diese Information in lexikalischen Ressourcen aufgenommen werden können, was im Bereich der Concept-level Sentiment Analysis genutzt werden kann. Das Vorgehen wurde in [124] veröffentlicht.
Alle lebenden Organismen sind in der Lage, sich an den re-gelmäßigen Wechsel von Licht und Dunkelheit und den zeitli-che Veränderungen im Takt der Jahreszeiten anzupassen. Die-se Synchronisierung der Aktivitäts- und Ruhephasen, sowie von physiologischen Stoffwechselprozessen an die vorgegebe-nen tageszeitlichen und saisonalen Zyklen findet beim Säu-getier in der inneren Uhr im Nucleus Suprachiasmaticus (SCN) statt. Das Licht, als wichtigster Zeitgeber für die Synchronisation der inneren Uhr, findet Eingang zum SCN über die Retina und den retinohypothalamischen Trakt (RTH), der Glutamat als Neurotransmitter nutzt. Ist dieses System fehlerhaft, führt dies zu Störung der oben beschriebenen Anpassungsprozesse. Dies hat eine gestörte Homöostase des Organismus zu Folge, aus denen sich wiederum Veränderungen im Tag/Nacht- Rhythmus, Schlafstörungen und depressive Ver-stimmungen ergeben können. Die genannten Symptome decken sich mit den Frühsymptomen den neurodegenerativen Erkran-kung Morbus Parkinson.
Ziel der vorliegenden Arbeit war es, Störungen im photoneu-roendokrinen System, insbesondere Veränderungen in der Re-tina an den photosensitiven Ganglienzellen mit dem Photo-pigment Melanopsin und dem SCN bei transgene Mäuse mit dem humanen alpha-Synuclein zu untersuchen. Hierbei wurden transgene Mäuse mit dem gesunden humanen alpha-Synuclein (Wildtyp) und transgene Mäuse mit der für Parkinson spezi-fischen Mutation im alpha-Synuclein Ala53Thr (A53T) vergli-chen.
Die immunochemischen Untersuchungen an Retina und SCN zei-gen einen signifikanten Anstieg der alpha-Synuclein Immun-reaktion bei der A53T Maus im Vergleich zum Wildtyp.
Parallel dazu wurden Unterschiede in Bezug auf das Photo-pigment Melanopsin zwischen den beiden Gruppen untersucht. Melanopsin ist lichtsensitiv und trägt, durch Übermittlung der aktuellen Lichtverhältnisse über den retinohypothalami-schen Trakt zum SCN, zur Synchronisation der circadianen Rhythmik bei. Durch den in dieser Arbeit nachgewiesene Me-lanopsindefizit und des deutlich reduzierten Vglut2 im hy-pothalamischen Trakt der A53T Maus lässt sich die Hypothese ableiten, dass möglicherweise die Überexpression des mu-tierten alpha-Synuclein in der Retina einen Untergang von melanopsinhaltigen Ganglienzellen herbeiführt und dadurch die Synchronisation der inneren Uhr durch Licht gestört ist. Diese Hypothese wird durch die Aktivitätsprofile ge-stützt, die durch die Aufzeichnung der lokomotorischen Ak-tivität der Tiere erstellt wurden.
Da in beiden Gruppen unter Dauerdunkel (DD) ein endogener zirkadianer Rhythmus beobachtet werden konnte, lässt dies auf die Funktionstüchtigkeit der inneren Uhr im SCN schlie-ßen. Im anschließenden Versuch die endogene Rhythmik an exogenen Reize anzupassen, zeigte sich bei dem A53T Stamm eine fehlende Synchronisierung an vorgegebene Lichtverhält-nisse mit gesteigerter Tagaktivität und reduzierten Schlaf-phasen. Somit trägt der fehlerhaft verarbeitete Lichtreiz bei A53T Mutanten zur Destabilisierung des zirkadianen Rhythmus der Lokomotion bei. Trotz des gestörten glutama-tergen Signalweges im retinohypothalamischen Trakt konnten keine Unterschiede in der Expression der Homerproteine zwi-schen Wildtyp und A53T unter Standard-Photoperiode und nach Schlafdeprivation nachgewiesen werden.
Die vorliegenden Befunde liefern Erkenntnisse zur Entste-hung der Frühsymptome bei Morbus Parkinson. Dies könnte neue Ansatzpunkte für die Therapie und Linderung von Schlafstörungen sowie Veränderungen im Tag/Nachtrhythmus liefern.
In view of the diverse functionalities of RNA, the search for tools suitable for regulating and understanding RNA grows continuously. Dysfunction of RNA controlled processes can lead to diseases, calling for external regulation mechanisms – a difficult task in view of the complexity of biological systems. One of the recently developed methods that aim to systematically control RNA relates to photoregulation. Here, the RNA functions are triggered by photochromic molecules – for example, azobenzene or spiropyran – which are bound either covalently or non-covalently to the target RNA. This is a flexible approach, which can be improved by using suitably substituted chromophores. However, many issues regarding the details of photocontrol are still open. A detailed understanding of the mechanism of photocontrol is therefore of crucial importance.
The present thesis explores theoretical approaches to the photocontrol of RNA, focussing upon azobenzene chromophores covalently bound to RNA. The aim of the thesis is to characterize, at a molecular level, the effect of trans-to-cis isomerization of the azobenzene chromophore on RNA, and thus understand the mechanism of RNA unfolding triggered by azobenzene isomerization. In particular, we attempt to answer the following questions:
How does azobenzene isomerization happen in an RNA environment, i.e., how is
the isomerization influenced by the local RNA environment?
Conversely, how is RNA dynamics, on a longer time scale, affected by azobenzene attachment and photoisomerization?
Further, can regulation be enhanced by substituted azobenzenes? And, does simulation yield a picture that is consistent with experiment?
Due to the very different times scales of azobenzene isomerization (femtoseconds to picoseconds) and the much slower RNA response (nanoseconds to milliseconds), complementary techniques have been chosen: (i) hybrid quantum-classical approaches, i.e., on-the-fly Quantum Mechanics/Molecular Mechanics (QM/MM), to characterize the isomerization and RNA response on an ultrafast time scale, and (ii) molecular dynamics with enhanced sampling techniques, in particular, Replica Exchange MD (REMD), to explore longer time scales where the effect of RNA unfolding becomes manifest. Furthermore, substituent effects on azobenzene were separately investigated, in collaboration with two experimental groups.
The first part of this thesis is focused on the conformational influence of azobenzene on a small RNA hairpin on longer time scales using REMD simulations. In accordance with experiment, it is found that both the trans and cis form of azobenzene destabilize the RNA system. Trans azobenzene stays stacked in the double strand, whereas the cis form flips out of the RNA. These stacking interactions are the main reason why a trans azobenzene-RNA-complex is more stable than a cis-azobenzene-RNA-complex. Furthermore, the loop region of the RNA hairpin is highly destabilized by the intercalation of azobenzene.
In the second part, on-the-fly QM/MM simulations of the same azobenzene substituted hairpin are undertaken. These simulations use a surface hopping (SH) algorithm in conjunction with hybrid QM/MM electronic structure calculations to give a complete picture of the isomerization process on a picosecond time scale. It is shown that, due to the constraints of the RNA environment, the isomerization time of the azobenzene chromophore is significantly increased (from 300 femtoseconds in the gas phase to around 20 picoseconds in the RNA environment), and the isomerization yield is low. To the best of our knowledge, these are the first QM/MM simulations reported for azobenzene in a nucleic acid environment.
In the third and final part of this thesis, the properties of substituted azobenzenes have been explored, in collaboration with two experimental groups at the department. In particular, para- and meta-hydroxy substituted azobenzenes were suggested as improved photoswitches for the photoregulation of RNA, but spectroscopic investigations showed that isomerization was inefficient in some of the investigated species. Therefore, we investigated the photoisomerisation pathway of the keto/enol-form of para- and meta-hydroxy-azobenzenes by Time-Dependent Density Functional Theory (TDDFT) calculations. These calculations show that the competing keto/enol-tautomerism can result in an unstable cis form, making these substituted chromophores unsuitable as photoswitches.
Overall, the present thesis has contributed to obtaining a molecular-level understanding of photocontrol in azobenzene substituted RNAs, showing that theory and simulations can provide useful guidance for new experiments.
Photoinduzierte Energietransferprozesse und -reaktionen spielen in vielen Gebieten von Chemie, Physik und Biologie eine wichtige Rolle. Zu den prominentesten Beispielen zählen der Lichtsammelprozess in der Photosynthese und der Anregungsenergietransfer in funktionellen Materialien. Der Fokus dieser Arbeit liegt auf letzterem Bereich, genauer auf organischer Elektronik und flexiblen Donor-Akzeptor-Bausteinen und Schaltern. Im Besonderen werden hier zwei verschiedene Typen von funktionellen organischen Systemen betrachtet: zum einen oligomere Fragmente organischer halbleitender Polymere wie Oligo-p-Phenylen-Vinylen (OPV) und Oligo-Thiophen (OT), welche als Bausteine für neuartige organische Solarzellen dienen, und zum anderen kleine funktionelle Donor-Akzeptor-Einheiten wie Dithienylethen-Bordipyrromethen (DTE-BODIPY). Letzteres wurde in Kooperation mit den experimentellen Gruppen von K. Rück-Braun (TU Berlin) und J. Wachtveitl (Goethe Universität) untersucht. Um die relevanten Energietransfermechanismen genauer zu verstehen, wurden an diesen Systemen elektronische Strukturrechnungen und quantendynamische Untersuchungen durchgeführt. Hierzu wurden mittels ab initio-Methoden Modell-Hamiltonians parametrisiert und mit hochdimensionalen quantendynamischen oder semiklassischen Methoden kombiniert. Während die Parametrisierung für kleinere Fragmente durchgeführt wurde, lässt sich der so parametrisierte Hamiltonian ohne Weiteres auf größere Systeme erweitern. Die dynamischen Studien der betreffenden Systeme wurden mittels der Multikonfigurationellen Zeitabhängigen Hartree (MCTDH) Methode durchgeführt, welche eine vollständige quantendynamische Beschreibung des Systems zulässt. Für größere Systeme wurde die semiklassische Ehrenfest Methode in Verbindung mit dem Langevin-Ansatz zur Beschreibung von Umgebungseffekten genutzt. Hierzu wurde ein eigens für diese Methode und Systeme geschriebenes Programm eingesetzt. Im Falle der OT- und OPV-Oligomere wurde die Dynamik bei Vorliegen eines strukturellen Defekts untersucht. Ziel war es hierbei, die dynamischen Phänomene, welche durch die Photoanregung induziert werden, zu untersuchen. Des Weiteren wurde untersucht, ob das Konzept von „spektroskopischen Einheiten“, welche die Lokalisierung der Anregung durch strukturelle Defekte beschreibt, in diesen Systemen zutrifft. Hierzu wurden die Systeme in einer Frenkel-Basis definiert, welche ein auf einem Monomer lokalisiertes Elektron-Loch-Paar beschreibt. Delokalisierte elektronische Anregungen können somit als Superposition solcher Frenkel-Zustände beschrieben werden. Neben der Frenkel-Basis wurde aber auch eine verallgemeinerte Elektron-Loch-Basis verwendet, welche über zusätzliche Ladungstransferzustände eine räumliche Separation von Elektronen und Löchern erlaubt.Die Parametrisierung des OPV- und OT-Hamiltonians erfolgte mittels der Algebraischen Diagrammatischen Konstruktions (ADC(2))-Methode, welche in Kombination mit einer Übergangs-Dichte-Matrix-Analyse eine sehr akkurate Beschreibung der Frenkel- und Ladungstransferzustände basierend auf den supermolekularen Zuständen erlaubt. Um vibronische Effekte auf die Dynamik miteinzubeziehen,wurden nieder- und hochfrequente Torsions- und alternierende Bindungslängenmoden des Systems im Hamiltonian berücksichtigt. Hierzu wurden eindimensionale Schnitte der Potentialflächen entlang dieser Koordinaten berechnet und mittels einer Transformation in diabatische Potentialflächen überführt. Mit diesem Setup wurden die quantendynamischen und semiklassischen Simulationen für ein OPV/OT-Hexamer und ein 20-mer durchgeführt. Die Ergebnisse dieser Simulationen zeigen, dass der Energietransfer auf einer Subpikosekunden-Zeitskala stattfindet und eine starke Abhängigkeit vom Vorliegen eines strukturellen Defekts aufweist. Des Weiteren konnte auf einer Zeitskala von 100 Femtosekunden eine Lokalisierung des Exzitons beobachtet werden. Fluktuationseffekte werden zudem über Quantenfluktuationen im Falle von MCTDH bzw. über thermische Fluktuationen im Falle des Ehrenfest-/Langevin-Ansatzes berücksichtigt. Letzterer ist jedoch nicht in der Lage, die kohärente Charakteristik der mit den Schwingungsmoden gekoppelten Exziton- und Lokalisierungsdynamik wiederzugeben. Dagegen kann dieser Ansatz erfolgreich genutzt werden, um eine fluktuationsgetriebene „Hopping“-Dynamik des quasi- stationären Zustandes auf einer längeren Zeitskala in Abhängigkeit von der Temperatur zu beschreiben. Die Beschreibung der Photodynamik der DTE-BODIPY-Dyade zielt darauf ab, experimentell beobachtete vibrationelle Schwingungen des BODIPY-Fragments zu erklären, die ohne eine direkte Anregung dieses Fragments zustande kommen. Diese wurden nach einer selektiven Anregung des DTE-Fragments in zeitaufgelösten UV/Vis Anreg-Abtast-Experimenten beobachtet. Der Fokus der Untersuchung liegt daher auf der Beschreibung der photoinduzierten intramolekulare Energieumverteilung (IVR) auf einer Subpikosekunden-Zeitskala. Die DTE-BODIPY Dyade wurde mittels eines Hamiltonians, welcher durch TDDFT Rechnungen parametrisiert wurde, dargestellt. Basierend auf den Normalmoden des Systems, wurden lokale DTE- und BODIPY-Moden konstruiert, wobei einige dieser Moden miteinander gekoppelt sind und die Photoanregung des DTE auf das BODIPY-Fragment übertragen. Hierbei zeigte sich, dass die Zeitskala und die charakteristischen Frequenzen des Experiments mittels der hochdimensionalen MCTDH-Methode gut reproduziert wurden. Aus den Simulationen ergab sich zudem, dass der beobachtete Energietransfer stark von einem Reservoir von vibrationell angeregten lokalen DTE-Moden beeinflusst wird. Der untersuchte IVR- Prozess zeigt zudem eine ausgeprägte Abhängigkeit von lokalen Kopplungen und der Kopplung an eine Umgebung.
The Standard Model is one of the greatest successes of modern theoretical physics. Itl describes the physics of elementary particles by means of three forces, the electro-magnetisc, the weak and the strong interactions. The electro-magnetic and the weak interaction are rather well understood in comparison to the strong interaction.
The latest is as fundamental as the others, it is responsible for the formation of all hadrons which are classified into mesons and baryons. Well-known examples of the former is the pion and of the latter is the proton and the neutron, which form the nucleus of every atom. This fundamental force is believed to be described by the Quantum Chromodynamics (QCD) theory. According to this theory, hadrons are not elementary particles but are composed of quarks and gluons. The latter are the vector particles of the force and so are bosons of spin 1 and the former constitute the matter and are fermions with spin 1/2. To describe the interaction a new quantum number had to be introduced: the color charge which exists in three different types (blue, green and red). The name has not been chosen arbitrary as elements created from three quarks of different colors are colorless in the same way that mixing the three primary colors leads to white. However, experimentally no colored structure has ever been observed. The quarks and the gluons seem to be confined in colorless hadrons. This property of QCD is called confinement and results from a large coupling constant at low energy (or large distance). For high energy (or small distance), the perturbative analysis of QCD permits to establish the coupling constant to be small and quarks and gluons are almost free. This property is called asymptotic freedom. The possibility for QCD to describe both behaviors is one of its amazing characteristics. However, both phenomena are not well understood and one needs a method to study both the pertubative and the confining regime.
The only known method which fulfills the above criteria is Lattice QCD and more generally Lattice Quantum Field Theory (LQFT). It consists of a discretization of the spacetime and a formulation of QCD on a four-dimensional Euclidean spacetime grid of spacing a. In this way, the theory is naturally regularized and mathematically well-defined. On the other hand, the path integral formalism allows the theory to be treated as a Statistical Mechanics system which can be evaluated via a Markov chain Monte-Carlo algorithm. This method was first suggested by Wilson in 1974 [1] and shortly after Creutz performed the first numerical simulations of Yang-Mills theory [2] using a heath-bath Monte-Carlo algorithm. It appears that this method is extremely demanding in computational power. In its early days the method was criticized as the only feasible simulations involved non-physical values such as extremely large quark masses, large lattice spacing a and no dynamical quarks. With the progress of the computers and the appearance of the super-computer, the studies have come close to the physical point. But one still needs to deal with discrete space time and finite volume. Several techniques have been developed to estimate the infinite volume limit and the continuum limit. The smaller the lattice spacing and the larger the volume, the better the extrapolation to continuum and infinite volume limits is. The simulations are still very expensive and for the moment a typical length of the box is L ≈ 4fm and a ≈ 0.08fm. However, it has been realized simulating pure Yang-Mills theory and other lower dimensional models that the topology is freezing at small a [3]. It was also observed recently on full QCD simulations [4,5].
The typical lattice spacing for which this problem appears in QCD is a ≈ 0.05fm but this value depends on the quark mass used and on the algorithm. The freezing of topology leads to results which differ from physical results. Solving this issue is important for the future of LQCD [6]. Recently several methods to overcome the problem have been suggested, one of the most popular is the used of open boundary conditions [7] but this promising method has still its own issues, mainly the breaking of translation invariance.
Primäre Tumore werden nach ihrem Entstehungsort benannt. Selbst Metastasen zeigen eine gewisse Ähnlichkeit mit ihrem ursprünglichen Gewebe. Somit gehören alle Geschwülste, die ursprünglich der Harnblase entstammen, zu den Harnblasenkarzinomen.
Das Harnblasenkarzinom geht meist (90-95%) von der Schleimhaut der ableitenden Harnwege aus und wird als Urothel bezeichnet. Dementsprechend haben die meisten Patienten mit der Diagnose Blasenkarzinom ein Urothel-Blasenkarzinom. Die restlichen Blasenkarzinome entfallen auf Adenokarzinome, Plattenepithelkarzinome, kleinzellige Karzinome, Sarkome, Paragangliome, Melanome oder Lymphome (Humphrey A. et al. 2016, Moch H. et al 2016).
Die Urothel-Blasenkarzinome können sowohl flach, als auch warzenförmig wachsen. Je nach Diagnostik „oberflächlich“ oder „muskelinvasiv“ lassen sich die Urothel-Blasenkarzinome in zwei Hauptgruppen unterteilen;
Etwa 70% der Erkrankten haben dabei ein oberflächliches Urothel-Blasenkarzinom, das auf die Blasenschleimhaut begrenzt ist und durch eine Basistherapie, sog. Transurethrale Resektion (TUR-B) behandelt wird. Dabei werden die in der Schleimhaut gewachsenen Tumore getrennt reseziert. Therapieergänzend und/oder prophylaktisch wird die Blase danach mit einem Chemotherapeutikum gespült (intravesikale Instillation). Diese Zytostatika-Behandlung soll das Wiederauftreten eines Rezidivs verhindern bzw. eventuell verlangsamen (Iida K. et al. 2016, Celik O. et al. 2016).
RNA modifications are widespread in the RNA world. Nevertheless, their functions remain enigmatic. Recent analysis in tRNAs, mRNAs and rRNAs have revealed that apart from enriching their topological potential, these chemical modifications provide an added significant regulatory level to gene expression...
The lung comprises more than 40 different cell types, from epithelial cells to resident mesenchymal cells. These cells arise from the foregut endoderm and differentiate into specialized cell types that form the respiratory and conducting airways, and the trachea. However, the molecular pathways underlying these differentiation processes are poorly understood, and may be relevant to pathological conditions. According to the World Health Organization (WHO), while the respiratory disease rate is increasing, limited treatment and therapies are available. Thus, there is a growing need for new treatment strategies and alternative therapies. Various in vivo and in vitro studies in the model organism mus musculus have already provided valuable information on lung cell lineages and their differentiation and/ or dedifferentiation during development and pathological conditions. However, there remain many questions regarding the key regulators and molecular machinery driving lung cell differentiation and underlying lung progenitor/stem cell biology.
Aiming to develop new animal models for lung diseases, we used a forward genetic careening approach, which provides an unbiased method for identifying genes with important roles in lung cell differentiation, and thus probable contributors to pathological conditions. We conducted an N-ethyl-N-nitrosourea (ENU) mutagenesis screen in mice and used several histological and immunohistochemical approaches to identify and isolate mutants, focusing on mutations associated with cell differentiation rather than those affecting early development and patterning of the respiratory system. Thus, we screened for phenotypes in the respiratory system of pups from the F2 generation at postnatal day 7 and 0 (P7; P0). I specifically screened 114 families. Each F1 male animal is the founder of 5 to 6 F2 female daughters. For each family, at least 4 F2 females per male founder were analyzed. In total, I screened 630 litters at P7 and P0 with 7 pups on average for each litter. As a result of this extensive screening, 11 different phenotypes in 42 different F2s were discovered at primary screen and later just 2 phenotypes recovered in F3 generation of identified carriers. To identify the causative genes for each of these phenotypes, whole exome sequencing will be conducted in the future to identify recurring SNPs; these can subsequently be linked causatively to the resultant phenotype(s) via complementation studies. In turn, these linkages would enable the creation of mutant mice using CRISPR/Cas9 genomic engineering, which would be invaluable to the further study of respiratory development and disease.
The development of the atrioventricular (AV) canal and the cardiac valves is tightly linked and a critically regulated process. Anomalies in components of the involved pathways can lead to congenital valve malformations, a leading cause of morbidity and mortality in neonates. Myocardial Bmp as well as endocardial Notch and Wnt signaling have been identified as critical factors for the induction of EMT during the formation of the endocardial cushions and cardiac valves. Of these, canonical Wnt signaling positively regulates endocardial proliferation and EMT but negatively regulates endocardial differentiation. Further, elevated Wnt signaling leads to the ectopic expression of myocardial Bmp ligands suggesting a high level of integration of the involved pathways and crosstalk amongst the different cardiac tissues.
Here we have identified a novel role for Id4 as a mediator between Bmp and Wnt signaling. Id4 belongs to the Id family of proteins and is known to be involved in bone and nervous system development. We found that in zebrafish, id4 is expressed in the endocardium of the AV canal at embryonic stages and throughout the atrial chamber in addition to AV canal, in adults. Using transcription activator-like effector nucleases (TALENs) we established an id4 mutant allele. Our analysis shows that id4 mutant larvae are susceptible to retrograde blood flow, and show aberrant expression of developmental valvular markers. These include expanded expression domains of markers like bmp4, cspg2a and Alcam. In contrast, valve maturation as assessed by the expression of spp1 is considerably reduced in id4 mutants. Using conditional transgenic systems, along with elegant in vivo imaging of transgenic reporter lines, we further found that id4 is a transcriptional target of Bmp signaling, and it is capable of dose dependently restricting Wnt signaling in the endocardium of the Atrioventricular Canal.
Taken together, our data identifies Id4 as a novel player in Atrioventricular Canal and valve development. We show that Id4 function is important in valve development acting downstream of Bmp signaling by restricting endocardial Wnt to allow valve maturation
Nach der Revolution 1917 schlossen sich mehrere russische Avantgardekünstler den kollektiven geistigen Anstrengungen ein, um ein revolutionäres Gesamtkunstwerk der neuen Menschheit zu gestalten. Sie nutzten alle Medien der Kunst, um ihre innovativen Ideen in diesem Experimentierfeld zu verwirklichen. Die Keramik wurde von ihnen als eines der bedeutenden Experimentierfelder und eine zukunftsweisende Kunstgattung gesehen, die durch den alltäglichen Gebrauch das Bewusstsein und die Wahrnehmung der Menschen entscheidend revolutionieren sollte.
Die vorliegende Dissertation untersucht erstmals die Keramik der russischen Avantgarde als eigenständiges künstlerisches Phänomen. Alle dokumentarisch belegten Entwürfe und Keramiken der russischen Avantgardisten werden zusammengefasst sowie alle bekannten Marken der Keramik aufgeführt. Die Autorin systematisiert die Formensprache und Dekormotive der avantgardistischen Keramikwerke und hebt Hintergrunde sowie theoretische Grundlagen der jeweiligen avantgardistischen Gruppen im Bereich Keramik hervor.
Die vorliegende vergleichende Analyse der russischen und westeuropäischen Keramikkunst des ersten Drittels des 20. Jahrhunderts deckt zum ersten Mal in der kunsthistorischen Forschung ihre Gemeinsamkeiten sowie die gegenseitigen Einflüsse auf, dabei werden die Unterschiede der russischen und europäischen avantgardistischen Keramikkunst deutlich reflektiert.
Fungi are an important component of every ecosystem but hardly considered in biodiversity monitoring projects. This thesis aims at characterizing fungal diversity, with an emphasis on epigeous fungi, encompassing different biogeographic zones and points in time. A main sampling area was established in the Taunus mountain range in Germany, which was sampled monthly over three years.
For testing species richness on spatial scale, the Taunus transect was compared with four other areas, which were assessed with lower sampling effort. One of these areas was Bulau in Germany, in which four excursions were made. Furthermore, two sampling events were performed in Somiedo in Spain and one sampling event in Kleinwalsertal in Austria. Already existing data of a two-year monitoring project in Panama next to the river Majagua were additionally used for comparison.
All these areas were investigated with a standardized sampling protocol focusing on macroscopically evident fungi and vascular plants using a time-restricted transect design. The transects consisted of strips, which were 500 m long and about 20 m broad, and were sampled for 2 hours at each single sampling event....
Xenorhabdus and Photorhabdus bacteria are gaining more and more attention as a subject of research because of their unique yet similar life cycle with nematodes and insects. This work focused on the secondary metabolites that are produced by Xenorhabdus and Photorhabdus. With the help of modern HPLC-MS methodologies and increasingly available bacterial genome sequences, the structures of unknown secondary metabolites could be elucidated and thus their biosynthesis pathways could be proposed, too.
The first paper reported 17 depsipeptides termed xentrivalpeptides produced by the bacterium Xenorhabdus sp. 85816. Xentrivalpeptide A could be isolated from the bacterial culture as the main component. The structure of xentrivalpeptide A was elucidated by NMR and the Marfey´s method. The remaining xentrivalpeptides were exclusively identified by feeding experiments and MS fragmentation patterns.
The second paper described the discovery and isolation of xenoamicin A from Xenorhabdus mauleonii DSM17908. Additionally, other xenoamicin derivatives from Xenorhabdus doucetiae DSM17909 were analyzed by means of feeding experiments and MS fragmentation patterns. The xenoamicin biosynthesis gene cluster was identified in Xenorhabdus doucetiae DSM17909.
The manuscript for publication focused on the biosynthesis of anthraquinones in Photorhabdus luminescens. The Type II polyketide synthase for the biosynthesis of anthraquinone derivatives was discovered in P. luminescens in a previous publication by the Bode group,1 in which a partial reaction mechanism for the biosynthesis has been proposed. The manuscript reported in this thesis however elucidated the biosynthetic mechanisms in a greater detail as compared to the previous publication. Particularly, the biosynthetic mechanism was deciphered through heterologous expression of anthraquinone biosynthesis (ant) genes in E. coli. Additionally, deactivation of the genes antG encoding a putative CoA ligase and antI encoding a putative hydrolase, was performed in P. luminescens. Selected ant genes were over-expressed in E. coli as well as the corresponding proteins purified for in vitro assays. Model compounds were chemically synthesized as possible substrates of AntI and were used for in vitro assays. Here, it was revealed that the CoA ligase AntG played an essential role in the activation of the ACP AntF. Furthermore, a chain shortening mechanism by the hydrolase AntI was identified and was further confirmed by in vitro assays using model compounds. Additionally, this chain shortening mechanism was supported by homology based structural modeling of AntI.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von regionalen Klimasimulationen für die Region Ostasien. Hierfür werden zwei verschiedene Modellierungsansätze verwendet. Der dynamische Regionalmodellierungsansatz, vertreten durch COSMO CLM (CCLM), und der statistische Modellierungsansatz, vertreten durch STARS. Die Simulationen erfolgten unter den Rahmenbedingungen des Coordinated Regional Climate Downscaling Experiment (CORDEX). Beide Regionalmodelle wurden im Rahmen dieser Arbeit umfassend für die Region CORDEX-Ostasien kalibriert und evaluiert. Das statistische Modell STARS wurde hierbei erstmals auf kontinentaler Ebene angewendet. Auf Basis der kalibrierten Modelle wurden Projektionen der zukünftigen klimatischen Entwicklung der Region durchgeführt.
Zur Auswertung der einzelnen Kalibrierungsläufe wurde ein komplexes Evaluierungsschema, mit einem Gütekennzahlensystem basierend auf einer linearisierten Form der relativen Modelldifferenz, entwickelt. Neben den etablierten univariaten statistischen Kennwerten (Mittelwert, Varianz, Trend) enthält das Gütekennzahlensystem auch ein bivariates statistisches Maß, welches die zweidimensionalen Stichprobenverteilungen zweier Variablen (beispielsweise Temperatur und Niederschlag) bewertet.
Im Rahmen der Kalibrierung konnte ein Großteil des Parameterraums des statistischen Modells STARS systematisch untersucht werden. Es zeigte sich, dass nur wenige Parameter einen Einfluss auf die Simulationen haben. Die meisten Parameter zeigten eine geringe und teilweise unsystematische Beeinflussung. Es konnte zudem eine Schwachstelle des Modells in Bezug auf die Variablenkorrelationen identifiziert werden. Bei der Kalibrierung des dynamischen Regionalmodells CCLM zeigte sich, dass aufgrund der groben horizontalen Auflösung des Modells eine signifikante Verbesserung der Simulationen durch eine Anpassung der physikalischen Parametrisierungen erfolgen kann.
Im Rahmen einer abschließenden Evaluierung wurden beide Modelle hinsichtlich ihres räumlichen Bias, des simulierten Jahresgangs und der Abbildung des asiatischen Monsunphänomens untersucht. Im ersten Punkt ergab sich kein qualitativer Unterschied zwischen CCLM und STARS. Beide Modelle zeigen eine deutliche Überschätzung der 2m-Temperatur im Winter über dem nördlichen Teil CORDEX-Ostasiens und eine Überschätzung des Luftdrucks über dem Hochland von Tibet im Sommer. Unterschiede zwischen beiden Modellen ergaben sich hingegen beim simulierten Jahresgang.
In Bezug auf die Modellierung des Monsunphänomens zeigt CCLM eine Unterschätzung der Intensität des indischen Sommermonsuns und eine Überschätzung des Sommermonsuns über dem westlichen Nordpazifik. Das statistische Modell STARS zeigte eine Auffälligkeit bei der Simulation des Jahresgangs sowie der räumlichen und zeitlichen Entwicklung des Sommermonsuns. Aufgrund der Konzeption des Modells ergab sich in einzelnen Regionen eine systematische Deformation des Jahresgangs. Trotz der identifizierten Schwachstellen von CCLM und STARS, bilden beide Modelle das Klima über der Region CORDEX-Ostasien qualitativ ähnlich gut ab wie aktuelle Reanalysen (ERA-Interim).
Auf Basis der kalibrierten und evaluierten Modelle wurden Klimaprojektionen für einen nahen (2020-2046), mittleren (2041-2070), und späten (2071-2100) Projektionszeitraum unter den Emissionsszenarien RCP2.6, RCP4.5 und RCP8.5 durchgeführt. Aufgrund von Modellbeschränkungen begrenzen sich die Rechnungen des Modells STARS auf den nahen Projektionszeitraum und die Emissionsszenarien RCP2.6 und RCP4.5. Die Projektionen beider Modelle zeigen eine deutliche und statistisch signifikante Erhöhung der 2m-Temperatur über der gesamten Region mit einer stärkeren Erwärmung über dem Kontinent gegenüber dem Meer. Aufgrund der relativ großen interannulären Variabilität des Niederschlags und des Luftdrucks werden statistisch nicht signifikante Änderungssignale und teils widersprüchliche Änderungen für den nahen Projektionszeitraum simuliert. Für den späten Projektionszeitraum ergeben sich jedoch deutliche Änderungssignale in den Simulationen des Modells CCLM. Insbesondere über dem Hochland von Tibet wird für den Zeitraum von 2071-2100 eine Temperaturerhöhung von über 7.0°C simuliert. Der Luftdruck und der Niederschlag zeigen räumlich heterogene Änderungssignale. Die spezifische Ausprägung der Luftdruckänderungen deutet auf eine Abschwächung der indischen Sommermonsunzirkulation und eine deutlichen Intensivierung des Sommermonsun über dem westlichen Nordpazifik hin. Die Niederschlagsänderungen über dem ostasiatischen Monsungebiet lassen auf eine Entkopplung der östlichen Monsunsysteme schließen. Trotz der heterogenen Änderungssignale im Niederschlag wird in den meisten Regionen eine Zunahme der Intensität von Extremniederschlägen simuliert. Dies gilt selbst für Regionen mit einer simulierten Abnahme der jährlichen Niederschlagssumme wie Westindonesien.
Tulasnella species (Tulasnellaceae, Cantharellales, Basidiomycota) form inconspicuous basidiomata on rotten branches or trunks of trees, difficult to find and recognize in nature. However, according to ultrastrucural and molecular data, species of Tulasnellaceae are the most frequent mycorrhriza forming fungi (mycobionts) of green, photosynthetic orchids worldwide. Species of Tulasnellaceae were also found as prominent mycobionts of the extraordinary diverse orchids in tropical montane rainforest of Southern Ecuador. Orchids obligately depend on mycobionts during the juvenile stage when the fungi have to deliver carbon to the non-photosynthetic protocorm and thus the fungi substantially influence the establishment of orchids in the wild. Species of Tulasnellaceae can acquire carbon from decaying bark or wood by specific saprotrophic capabilities as was recently proven through comparative genomics that included data on decay enzymes from Tulasnella cf. calospora isolated from orchid mycorrhizae (Anacamptis laxiflora, Italy). Thus, species of Tulasnellaceae can be saprotrophs and symbionts simultaneously.
It is currently under discussion, whether specific species of Tulasnella are required for seed germination and establishment of distinct terrestrial and epiphytic orchids in nature or if species of Tulasnella are generalists concerning their association with orchids. The inconsistences in species concepts and taxonomy of Tulasnella spp., however, strongly impede progress in this field of research. The aim of the present study was, therefore, to revise the species concepts by combining, for the first time, morphological and molecular data from basidiomata.
Specimens were collected in tropical Andean forest in Southern Ecuador and in temperate forests in Germany. Additional specimens were loaned from fungaria. In total, 205 specimens, corresponding to 16 own samples and 189 specimens from fungaria were analyzed. The mycobiont relationships of Tulasnella spp. with orchids from the sampling area in Ecuador were studied in populations of Epidendrum rhopalostele. The basis for molecular-phylogenetic analysis was completed by data obtained from own previous investigations on mycobionts from the investigation area and Tulasnella isolates from Australia.
30 morphospecies are illustrated and delimited by a morphological key based on traditional species concepts. Tulasnella andina from Ecuador and Tulasnella kirschneri from China are presented as species new to science. Tulasnella cruciata is described from herbarium material for the first time. Tulasnella aff. eichleriana and T. violea are reported for the first time from Ecuador. Molecular sequences of two Tulasnella spp. isolated from mycobionts of Epidendrum rhopalostele cannot be related to any morphological species concept. Statistical analyses suggest that conventional diagnostic using morphological characteristics is ambiguous for delimiting morphologically similar species.
For the first time sequences of the ITS-5.8S rDNA region were obtained after cloning from fresh basidiomata. Extraction of DNA from herbarium specimens was, however, unsuccessful. Sequences from 16 fresh basidiomata, six pure cultures, and sequences of orchids mycorrhizae (e.g. from Epidendrum rhopalostele) available in the database GenBank were analyzed. Proportional
variability of ITS-5.8S rDNA sequences within and among cultures and within and among specimens were used to designate morphospecies. Results suggest an intragenomic variation of less than 2 %, an intraspecific variation of up to 4 % and an interspecific divergence of more than 9 % for Tulasnella spp.
Four percent of intraspecific divergence was defined as a minimum threshold for delimiting phylogenetic species. This threshold corroborates the so far used 3 % to 5 % divergence in delimitation of operational taxonomic units of Tulasnella mycobionts.
Quite a number of sequences of Tulasnella are available in GenBank, mostly obtained from direct PCR amplification from orchid mycorrhizae. By including closely related sequences in the phylogenetic analysis, several morphological cryptic species of Tulasnella, mostly from Ecuador, were found. Arguments are given for molecular support of the new species Tulasnella andina and the established species Tulasnella albida, T. asymmetrica, T. eichleriana, T. tomaculum, and T. violea. Thus, by combining molecular and morphological data species concepts in Tulasnella are improved. The definitions of Tulasnella calospora and T. deliquescens, however, remain phylogenetically inconsistent.
The present investigation is a first step to expand our knowledge on the intraand interspecific morphological and molecular variability of Tulasnella spp. and to delimit species relevant for studies on ecology and communities of orchids and Tulasnellaceae.
The human Long Interspersed Nuclear Element-1 (LINE-1, L1) is a member of the group of autonomous non-LTR retrotransposons found in almost every eukaryotic genome. L1 elements generate copies of themselves by reverse transcription of an RNA intermediate and integrate into the host genome by a process called Target Primed Reverse Transcription (TPRT). They are responsible for the generation of approximately 35% of the human genome, cover about 17% of the genome and represent the only group of active autonomous transposable elements in humans. L1 activity bears several risks for the integrity of the human genome, since the L1-encoded protein machinery generates DNA double-strand breaks (DSBs) and is capable of conducting numerous genome-destabilizing effects, e.g. causing deletions at insertion sites, disrupting or rearranging coding sequences and deregulating transcription of functional host genes. On the other side, L1 elements have had and still exert a great impact on human genome structure and evolution by increasing the genome size and rearranging and modulating gene expression. Furthermore, due to its endogenous and generally non-pathogenic nature, L1 is a promising candidate as vector for gene delivery in somatic gene therapy. The structure of the flanking regions between de novo L1 integrants and the genomic sequence suggests an involvement of cellular DSB repair pathways in L1 mobilization. To elucidate the role of DSB repair proteins in L1 retrotransposition, I disabled DSB repair factors ATM, ATR, DNA-PK, p53 and Ku70 by knock down (KD) using short hairpin RNA (shRNA) expression constructs. To inhibit the function of DSB repair factors PARP and Rad51, I used dominant negative (DN) PARP and Rad51 mutants. Applying a well established L1-retrotransposition reporter assay in HeLa cells, de novo retrotransposition events were launched in order to test L1 for its retrotransposition activity in the context of altered DSB repair conditions. I could show that L1 retrotransposition frequency after ATM KD had increased by 3-fold, while ATR and p53 KD reduced L1 retrotransposition by approximately one third. Unfortunately, the cytotoxic effects of the DNA-PK and Ku70 shRNA expression constructs were too strong to determine potential effects of DNA-PK and Ku70 KD on L1 retrotransposition. Inhibition of PARP function by expression of the DN mutant and overexpression of wild type PARP were found to increase L1 retrotransposition by 1.8 and 1.5, respectively, while Rad51 DN had no detectable effect. Interestingly, overexpression of wild type Rad51 seemed to roughly double L1 retrotransposition frequencies. Since in my experiments KD or expression of DN mutants was time-delayed to the onset of L1 retrotransposition after transfection into the cells, I developed a temporally controllable, tetracyclin transactivator (tTA)-dependent L1 retrotransposition reporter assay which will be of great value for future L1 retrotransposition studies that rely on temporally controllable retrotransposition. Due to a previously published hypothesis of L1 playing a role in brain development by contributing to somatic mosaicism in neuronal precursor cells, I generated a transgenic mouse (LORFUS) using the tTA-dependent L1 construct to further test this hypothesis. LORFUS harbors a bidirectional cassette driving simultaneous expression of a GFP-tagged L1 retrotransposition reporter and beta-galactosidase. It was bred to another transgenic mouse line expressing tTA in the forebrain. The double transgenic offspring was used to characterize L1 expression and retrotransposition patterns in the brain at postnatal day 15 (P15). General transgene expression indicated by beta-galactosidase activity was found in hippocampus, cortex and striatum, while retrotransposition events revealed by GFP expression were found in hippocampus, cortex, striatum, olfactory bulb and brainstem. These results suggested L1 retrotransposition in the granule layer of the dentate gyrus earlier than P15 and migration of cells carrying these events along the rostral migratory stream into the olfactory bulb. To facilitate the use of L1 as gene delivery tool in gene therapy or genetic engineering, I furthermore intended to manipulate the L1 target site recognition to allow the site-specific integration into defined genomic locations. To this end, I performed crystal structure-guided mutational analysis exchanging single amino acid residues within the endonuclease (EN) domain of L1 to identify residues influencing target site recognition. However, individual point mutations did not change the nicking pattern of L1-EN, but resulted in a reduction of endonucleolytic activity reflected by a reduced retrotransposition frequency. This suggests that additional factors other than the DNA nicking specificity of L1-EN contribute to the targeted integration of non-LTR retrotransposons in the host genomes.
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
In etwa 40% der Fälle erleiden Patienten bei einem Polytrauma eine Verletzung des Thorax. Diese Patienten haben im Verlau ein erhöhtes Pneumonierisiko, eine längere Beatmungs-, Intensiv- und Krankenhausverweildauer sowie ein erhöhtes Letalitätsrisiko. Um eine optimierte Versorgung dieser Patienten zu erreichen wurde seit 2003 im Universitätsklinikum Frankfurt ein standardisiertes Behandlungsverfahren durchgeführt und über die Jahre weiterentwickelt. Grundlage dieses Konzepts ist die Behandlung des Patienten mittels kinetischer Therapie im Rotorest®Bett sowie den drei Kern-Maßnahmen: Beatmung mit einem PEEP von 15mbar, frühzeitige assistierte Spontanatmung und frühzeitige enterale Ernährung. Ziel der Arbeit war die Weiterentwicklung des Behandlungsstandards wissenschaftlich unter besonderem Fokus auf die Entwicklung einer Pneumonie aufzuarbeiten. Das Konzept sah 2003 eine Beatmung, mit einem an die Oxygenierung adaptierten PEEP vor. Die Dauer der Therapie im Rotorest®Bett wurde nach Klinik entschieden. 2006 wurde standardmäßig die Therapie im Rotorest®Bett für mindestens 72h mit einem PEEP von 15mbar durchgeführt. Eine assistierte Beatmungsform sollte zeitnah etabliert werden. Im Jahr 2009, wurde das Behandlungsschema verkürzt, die Therapiedauer mit einem PEEP von 15mbar wurde auf 40 bis 48 Stunden reduziert sowie der PEEP danach initial um 4mbar reduziert. Im Anschluss erfolgte alle 8 Stunden eine weitere Reduktion des PEEP um 2mbar. Weiterhin wurde in diesem Zeitraum auf eine Antiinfektivaprophylaxe verzichtet. 108 Patienten (61,7%; ISS 37±13 Punkte) konnten in diese retrospektive Studie eingeschlossen werden. 38,3% der Patienten mussten ausgeschlossen werden, einerseits auf Grund fehlender Krankenakten oder anderseits auf Grund des Beginns der Therapie im RotoRest®Bett erst nach >48h. Durch die Anpassung des Therapiestandards über die Jahre reduzierte sich die Beatmungszeit von 17±15 Tage auf 8±8 Tage (p<0,001), die Verweildauer auf ITS von 17±9 auf 10±9 Tage (p<0,001), während die Krankenhausverweildauer unverändert blieb. Dies war begleitet von einer Reduktion der Therapiedauer im Rotorest®Bett von im Median 5 auf 3 Tage (p=0,017) sowie einer Reduktion des Anteils an Patienten mit mandatorischer Beatmung in den ersten drei Behandlungstagen von 87% (95% CI 78-96%) im Jahr 2003 auf 38,6% (95% CI 29-49%) im Jahr 2009. Die Rate an Pneumonien konnte von 25% in 2003 über 37% in 2006 auf 17% in 2009 gesenkt werden, der Unterschied war jedoch nicht signifikant. Das Risiko zu versterben war bei Entwicklung einer Pneumonie signifikant erhöht (24% vs. 4,5%, p=0,006). In der univariaten Analyse waren relevante Faktoren für die Entwicklung einer Pneumonie ein höheres Alter der Patienten (48 Jahre vs. 36 Jahre; p = 0,018), die zunehmende Höhe des Beatmungsspitzendruckes (p<0,01) sowie der Hämoglobinwert bei Aufnahme (Rs -0,28; p=0,004). Umgekehrt war eine Transfusion von Blutprodukten am ersten Behandlungstag mit einem erhöhten Pneumonierisiko verbunden (p<0,05), dies galt auch für die Verabreichung der einzelnen Komponenten, EKs (p=0,027), FFP (p=0,037) sowie von TKs (p=0,046). Keine signifikante Korrelation zur Entwicklung einer Pneumonie hatte die Verletzungsschwere (ISS) sowie die Höhe des PEEP oder der Grad der Oxygenierungsstörung (paO2/FiO2) in den ersten fünf Behandlungstagen. In der multivariaten Analyse, mit der Entwicklung einer Pneumonie als abhängigen Faktor, adjustiert auf ISS und Alter der Patienten zeigte sich als unabhängige Risikofaktoren die Gabe von EKs (OR 3,646 95%CI 1,074-12,383), die Ernährung mit >5000kcal in den ersten fünf Behandlungstagen (OR 3,219 95%CI 1,033-10,034) sowie die Höhe des Beatmungsspitzendruckes (OR 1,135 95%CI 1,010-1,275).
In Zusammenschau war ein primärer Erfolg des Konzeptes, dass kein Patient im Verlauf ein moderates oder schweres ARDS entwickelt hat. Es konnte durch die Anpassung des Behandlungsstandards sowohl die Beatmungszeit als auch die Verweildauer auf der ITS signifikant reduziert werden. Auch die Pneumonierate konnte nach einem Anstieg im Jahr 2006 bis 2009 deutlich reduziert werden. Als Risikofaktoren für die Entwicklung einer Pneumonie zeigten sich aus der Literatur bekannte Parameter wie das Alter der Patienten und die Invasivität der Beatmung sowie die Transfusion von Blutprodukten. In der multivariaten Analyse bestätigte sich dies für die Gabe von EKs, die Invasivität der Beatmung sowie der Ernährung mit kumulativ > 5000 kcal in den ersten fünf Tagen.
Patienten, die mit dem in dieser Arbeit beschrieben Protokoll behandelt wurden, zeigten aber kein signifikant erhöhtes Pneumonierisiko in Abhängigkeit zur Verletzungsschwere als Polytrauma (ISS) oder zum Grad der Oxygenierungsstörung in den ersten Tagen.
In this thesis, we study some features of the quantum chromodynamics (QCD) phase diagram at purely imaginary chemical potential using lattice techniques. This is one of the possible methodologies to get insights about the situation at finite density, where the sign problem prevents direct investigations from first principles.
We focus, in particular, on the Roberge-Weiss plane, where the phase structure with two degenerate flavours is studied both in the light and in the heavy quark mass limit. On the lattice, any result is affected by cut-off effects and so are the positions of the two tricritical points m_{tric}^{1,2} separating the second-order intermediate mass region from the first-order triple light and heavy mass regions. Therefore, changing the lattice spacing 'a', the values of m_{tric}^1 and m_{tric}^2 will change. In order to find their position in the continuum limit – i.e. for 'a' going to 0 – they have to be located on finer and finer lattices. Typically, in lattice QCD (LQCD) simulations, the temperature T is tuned through the bare coupling β, on which 'a' depends, while keeping Nt fixed. Hence, it is common to implicitly refer to how fine the lattice is just mentioning its temporal extent.
Using both Wilson and staggered fermions, we simulate Nf=2 QCD on Nt=6 lattices, varying the quark bare mass from the chiral (m_{u,d} going to 0) to the quenched (m_{u,d} going to infinity) limit. For each quark mass, a thorough finite scaling analysis is carried out, taking advantage of two different but consistent methods. In this way we identify the order of the phase transition locating, then, the position of the tricritical points. In order to convert our measurements to physical units we fix the scale measuring the lattice spacing as well as the pion mass corresponding to the quark bare mass used. This allows a comparison between different discretisation, getting a first idea of how serious are cut-off effects.
To be able to make a comparison between two different discretisations, we added an RHMC algorithm with staggered fermions to the CL2QCD software, a GPU code based on OpenCL, which we released in 2014. A considerable part of our work has been invested in ameliorating and optimising CL2QCD, as well as in developing new analysis tools regularly used next to it. Just to mention one, the multiple histogram method has been implemented in a completely general way and we took advantage of it in order to obtain more precise results. Finally, in order to efficiently handle and monitor the hundreds of simulations that are typically concurrently run in finite temperature LQCD, a completely new Bash library of tools has been developed. We plan to release it as a byproduct of CL2QCD in the near future.
Für die Optimierung sowie Entwicklung lichtsteuerbarer Systeme für biologische Anwendungen oder neue Materialien ist ein detailliertes Verständnis der zugrunde liegenden komplexen, lichtinduzierten Prozesse eine Voraussetzung. Die Verwendung von Photoschaltern in Makromolekülen ermöglicht eine zeitliche und örtliche Kontrolle über strukturelle Änderungen sowie die entsprechend folgenden (biologischen) Funktionen durch die Verwendung von Licht als externem Auslöser.
Ein wichtiger Bestandteil dieser Arbeit befasst sich mit der Entwicklung eines auf Licht reagierenden Riboschalters, welcher die gezielte Kontrolle über Genexpression ermöglicht. Hierzu wurde eine spektroskopische Charakterisierung von verschiedenen Photoschaltern bezüglich einer Verwendung als biologischer Ligand sowie der Wechselwirkungen zwischen Azobenzolen und RNA, auch hinsichtlich ihrer Bindungsdynamiken durchgeführt. Zunächst wurde die hohe Abhängigkeit der (photo-)chemischen Eigenschaften der Azobenzole von der Wahl der Substituenten untersucht, wobei besonders die Anwendung in wässrigem Milieu betrachtet wurde. In einer detaillierten (zeitaufgelösten) Studie wurde der positionsabhängige Einfluss der Hydroxy-Substitution von Azobenzolen auf die Photoisomerisierung in wässriger Lösung untersucht. Für eine ortho-Substitution ergab sich hierbei ein alternativer Deaktivierungskanal nach Photoanregung, welcher stärker ausgeprägt ist als die Isomerisierung. Hierbei wird ein intramolekularer Protontransfer im angeregten Zustand (ESIPT) beobachtet, welcher mit einer Zeitkonstante von 0.3 ps beschrieben werden kann und in einer Keto-Spezies resultiert. Eine Keto-Enol-Tautomerie konnte für die para-Hydroxy-Substitution schon im Grundzustand beobachtet werden. Somit können beide Spezies gezielt adressiert werden. Durch Acetylierung der Hydroxygruppe verlangsamt sich die thermische Relaxation des cis-Isomer zu dem entsprechenden trans-Isomer signifikant ohne die Isomerisierung zu beeinträchtigen. Dementsprechend ermöglicht eine solche Acetylierung die Verwendung von bekannten Azobenzolderivaten als Photoschalter.
Zudem werden in dieser Arbeit zwei verschiedene Herangehensweisen in der Entwicklung eines Riboschalters beschrieben, welcher sich durch Licht regulieren lässt.
Diese sind durch kovalentes bzw. nicht-kovalentes Einbringen eines Azobenzolderivats in die RNA Struktur charakterisiert. Ein neuer Linker, welcher auf einer Desoxyribose-Struktur beruht, wird für die kovalente Anbindung des Azobenzols an den RNA Strang präsentiert, welcher eine licht-induzierte Dehybridisierung ermöglichen soll. Eine außergewöhnlich hohe Schaltamplitude mit einem cis-Gehalt von etwa 90% konnte für das Azobenzol im RNA Einzelstrang schon bei Raumtemperatur ermittelt werden. Zudem wurde der Einfluss des Photoschalters sowie der benachbarten Nukleotide in der RNA auf die Stabilität der RNA Doppelhelix untersucht. Die zweite Vorgehensweise beruht auf einer nicht-kovalenten Bindung zwischen einem Azobenzolderivat und einem RNA-Aptamer, welche lediglich für eines der Photoisomere ermöglicht wird, wodurch eine örtliche und zeitliche Kontrolle der Ligandenbindung der RNA erfolgt. Im Rahmen dieser Arbeit war es möglich zwei verschiedene photoschaltbare RNA Aptamere zu identifizieren und zu untersuchen, welche eine hohe Spezifität und Affinität aufweisen. Zudem wurde die Photoisomerisierung des Azobenzols innerhalb der RNA-Struktur sowie daraus resultierende lichtinduzierte Konformationsänderungen der RNA mittels zeitaufgelöster Anreg-/Abtastspektroskopie untersucht. Die daraus resultierende Dynamik der photoinduzierten Ligandenbindung sollte eine weitere gezielte Optimierung lichtschaltbarer biologischer Systeme erlauben.
Der zweite Teil dieser Arbeit beschäftigt sich mit der zeitaufgelösten Untersuchung eines photoschaltbaren Foldamers. Speziell wurde der strukturelle Übergang des OmPE-Foldamers 10-5 zwischen einer definierten helikalen und einer ungefalteten Konformation auf Grund der Photoisomerisierung der, in das Rückgrat integrierten, Azobenzole untersucht.
Dabei konnten die frühen (Ent-)Faltungsmechanismen des Foldamers im sub-Nanosekunden-Zeitbereich beobachtet werden, welche durch quantenmechanische Rechnungen unterstützt werden konnten. Darüberhinaus, war es möglich einen Anregungsenergietransfer vom PE-Rückgrat des Foldamers auf die Azobenzole nachzuweisen, welcher die Lebensdauer der angeregten Zustände des Systems signifikant verkürzt.
Diese Arbeit liefert wichtige Informationen zu den Reaktionspfaden, den gezielten Wechselwirkungen zwischen Photoschaltern und größeren organischen Molekülen, sowie den daraus resultierenden lichtinduzierten strukturellen Änderungen durch die Anwendung einer Vielzahl an (zeitaufgelösten) spektroskopischen Methoden. Diese Ergebnisse tragen zum weiteren Verständnis komplexer Prozesse in biologischem sowie nicht-biologischem Zusammenhang und somit zu einer weiterführenden Entwicklung neuer Systeme bei.
The fungal genus Pestalotiopsis s.l. contains approximately 300 described species and is globally distributed. The monotypic genus Pestalotia is considered the closest relative of Pestalotiopsis s.l. This study aims to investigate the diversity and systematics within Pestalotiopsis s.l. and its relation to Pestalotia. Therefore, an integrative approach is used considering molecular phylogeny methods as well as examination of morphological characters.
Recently, Pestalotiopsis s.l. was split into three genera with the addition of the newly erected Neopestalotiopsis and Pseudopestalotiopsis. The species of these genera are usually saprotrophic, phytoparasitic, or endophytic, and have been isolated from soil, air, and many kinds of anorganic material. The asexual fruiting bodies appear on infected plant material as black acervuli that release conidia. The conidia are important to examine for morphological taxon recognition. The number of conidial cells is the feature that distinguishes Pestalotiopsis s.l. spp. with five celled conidia, from Pestalotia pezizoides with six celled conidia. However, the significance of morphological characters is controversially discussed among mycologists. In recent years, 55 new species were described based on minor genetic distances and marginal or no morphological differences. Thus, the value of certain morphological characters and genetic markers need to be reconsidered.
In this study, 102 herbarium specimens of 26 described species, with an emphasis on plant pathogenic species from North America, have been morphologically examined and documented through drawings and photographs. Morphological examination was complemented with a comprehensive molecular dataset obtained from 191 cultures representing the genera Neopestalotiopsis, Pestalotia, Pestalotiopsis, Pseudopestalotiopsis, and Truncatella. One novelty of this work is that, besides the well-established markers ITS, TEF1, and ß-tubulin, the protein-coding genes MCM7 and TSR1 were successfully sequenced and included in the analyses. Phylogenies using Maximum Likelihood and Bayesian inference methods of single loci and the combined dataset were calculated. By comparison of these phylogenies, MCM7 was identified as the most powerful one in terms of phylogenetic resolution and statistical support of nodes and is proposed as an additional barcoding marker in Pestalotiopsis s.l.
In Pestalotiopsis, species delimitation was tested using the Baysian Phylogenetics and Phylogeography (BP&P) program that tests an existing species scenario against Bayesian inference methods under a multispecies coalescent model. The program supported only ten species out of the predetermined 19 species scenario. Measurements of conidia for species detected by BP&P were explored using a TukeyHSD-Test in the program R to find means that are significantly different from each other. This test revealed that combinations of morphological characters are required to distinguish between the ten species found by BP&P.
Another purpose of this work was to clarify the status of Pestalotia with regard to Pestalotiopsis s.l. Therefore, fresh epitypic material of Pestalotia pezizoides, was collected, isolated, and cultivated. The molecular analysis of a combined dataset of the gene regions ITS and LSU for species of Amphisphaeriales nested P. pezizoides in the genus Seiridium. Thus, synonymy of Pestalotia with Seiridium is proposed here. This is supported by morphology of the conidia. Further, an epitype is proposed for the type species of Pestalotiopsis, P. maculans. On the other hand, the recently proposed epitype of P. adusta is rejected here as it conflicts with the taxonomic hypothesis obtained in this study and its introduction is inconsistent with the formal requirements for epitypification. A new topotypic specimen is proposed instead. Additionally, several nomenclatural changes become necessary in many species examined. These include three new combinations and six synonyms of species of Pestalotiopsis s.l.
The conclusion of this work is that morphological data have potential as a valuable, inexpensive and easy way to recognize species. However, it is not the best method for species discovery and delimitation bearing in mind that in microfungi and many other organisms, individual plasticity and analogous structures are inadequately investigated. By phylogenetic analyses of molecular sequence data, it is possible to compare a great amount of equivalent characters and to delimit species that are morphologically cryptic. This is especially important since species of Pestalotiopsis s.l. mostly lack sexual structures that are helpful for morphological species delimitation in other groups of fungi. Thus, the Genealogical Concordance Species Concept (GCSC) finds its application in many fungal taxa. Conflicts in the genealogy between phylogenetic trees of different markers are interpreted as recombination of the genetic material within a linage. Accordingly, the change from conflict to congruence in a set of different phylogenetic trees can be seen as the species limit. It can be expected that increased application of the GCSC will lead to further approximation of described species numbers to the real number of species, especially in complicated groups like asexual microfungi.
Identifizierung des vertebraten-spezifischen Proteins C7orf43 als neue TRAPPII Komplexuntereinheit
(2016)
Bei den transport protein particle (TRAPP) Komplexen handelt es sich um eine Familie von Protein Komplexen, die jeweils aus mehreren Untereinheiten bestehen. In der vorliegenden Arbeit konnte das Protein C7orf43 als neue potenzielle TRAPPII Untereinheit identifiziert werden, die - wie auch die beiden anderen TRAPPII-spezifischen Komponenten TRAPPC9 und TRAPPC10 - sowohl für die Erhaltung von ERGIC, Golgi-Apparat und COPI Vesikel als für den ER zu Golgi Transportweg benötigt wird.
Klinische Frühergebnisse nach endoskopischer Lobektomie (VATS-Lobektomie versus daVinci-Lobektomie)
(2016)
In der vorliegenden Untersuchung wurden zwei operative Techniken zur endoskopischen Lobektomie miteinander hinsichtlich der Frühergebnisse verglichen. In die Untersuchung wurden alle Patienten einbezogen, die an der Abteilung für Thoraxchirurgie der Goethe Universität Frankfurt am Main zwischen April 2010 und Dezember 2012 wegen pulmonaler Karzinome minimal-invasiv lobektomiert wurden. Dabei wurden 34 Patienten einer Roboter-unterstützten Lobektomie sowie 25 Patienten einer VATS-Lobektomie unterzogen.
Es fanden sich keine signifikanten Differenzen in den präoperativen Daten und dem Risikoprofil der Patienten. Auch die intraoperativen Ergebnisse zeigten keine statistisch signifikanten Unterschiede. Postoperativ fand sich eine Tendenz zu höheren Tumorstadien sowie eine geringere Schmerzintensität bei den RATS-Patienten. Die Nachblutungsmenge war bei beiden Verfahren gering. Das klinische Outcome war vergleichbar, ebenso die geringe Morbidität und Komplikationsrate bei den beiden Verfahren.
Weitere Untersuchungen mit höheren Patientenzahlen sind erforderlich, um die Unterschiede zwischen den Verfahren zu untersuchen. Prinzipiell sind beide Verfahren geeignet um Patienten mit nicht-kleinzelligen Lungenkarzinomen in niedrigen Tumorstadien zu operieren.
Zur weiteren Verbesserung der Ergebnisse müssten für die RATS-Lobektomien spezielle Instrumente angefertigt werden. Die derzeit verwendeten Instrumente wurden ursprünglich für Koronargefäße oder urologische Operationen entwickelt, die sich in der Thoraxchirurgie oft als unzureichend erweisen. Zudem ist das Robotersystem stets in Entwicklung. Es sind kürzlich neue Instrumente eingeführt worden wie z.B. Klammernahtgeräte oder Instrumente, die für die automatische Durchtrennung kleinerer Gefäße zuständig sind. Manche Autoren beschreiben den Stapler, der eingesetzt wurde, noch als „mangelhaft“. Aus technischer Sicht fehlt immer noch das taktile Feedback, was jedoch teils durch die Erfahrung des Operateurs und mit Hilfe des 3-Dimensionalen Sehens kompensiert wird.
Diese Arbeit soll den ersten Grundbaustein bezüglich des postoperativen Schmerzmittelverbrauches nach einer videoassistierten- und roboterassoziierten Lobektomie legen. Wir sind uns sicher, dass dieses Thema in Zukunft weiter und noch detaillierter ausgearbeitet wird.
Nach den Studien von Flores und Alam wurden am Ende die Fragen gestellt:
➢ „Kann der Eingriff rein robotisch durchgeführt werden?
➢ Sind Op-Zeiten und Krankenhausaufenthalt kürzer?
➢ Sind die Inzisionen kleiner?
➢ Sind die postoperativen Schmerzen geringer?
➢ Ist das Verfahren billiger?“
Mit dieser vorliegenden Arbeit können die ersten vier Punkte aus der oben erwähnten Studie positiv bestätigt werden. Die Zugangswege sind kleiner bzw. gleich groß. In der Studie Kumar et al. wird ausdrücklich erwähnt, dass jedes Verfahren, welches durch die VATS geführt wird, mit dem Roboter noch besser auszuführen sei. Ein Problem stellen die Kosten dar. Wenn diese ebenfalls gesenkt werden können, würde einer flächendeckenden Verbreitung des Roboterverfahren nichts im Wege stehen. Die daVinci-Lobektomie ist zumindest eine geeignete Alternative im Vergleich zu der VATS-Lobektomie.
Positive Effekte körperliche Aktivität als komplementäre Therapie in der Onkologie wurden in den letzten Jahren in zahlreichen Studien aufgezeigt. Hierbei zeigte sich ein Anstieg der körperlichen Fitness und Muskelmasse, eine Steigerung der Lebensqualität, eine Reduktion des Fatigue-Syndroms, aber auch eine verbesserte Therapieverträglichkeit sowie einer Rezidiv-Prophylaxe (Backman et al., 2014; Meyerhardt et al., 2006; Segal et al., 2001). Daraufhin wurden Empfehlungen für körperliche Aktivität im Rahmen der onkologischen Therapie ausgesprochen, welche 150 Minuten moderate körperliche Aktivität pro Woche umfassen. Diese Empfehlungen basieren auf entitätsunspezifische Studienkollektive mit meist Tumorstadium I und II. Eine Vielzahl an Studien verdeutlichen, dass gerade Patienten in fortgeschrittenen Tumorstadien mit zahlreichen therapie- sowie tumorbedingten Nebenwirkungen zu kämpfen haben und dadurch ein stärkerer Abbau der körperlichen Fitness, der Muskulatur, aber auch der funktionellen Eigenschaften vorzufinden ist. Hierbei stellen Patienten mit fortgeschrittenen gastrointestinalen Tumoren (GIT) ein stark belastetes Kollektiv dar, da 80 Prozent dieser Patienten eine Tumorkachexie erleiden. Zusätzliche wurde in einer Querschnittsuntersuchung aufgezeigt, dass Patienten mit fortgeschrittenen GIT bereits vor Therapiestart einen deutlich verminderten körperlichen und funktionellen Status im Vergleich zu Mammakarzinom-Patientinnen und Gesunden aufweisen (Stuecher et al., 2016). In der vorliegenden randomisiert kontrollierten Untersuchung wurde erstmals ein heimbasiertes Training ohne Supervision zur Steigerung der körperlichen Aktivität bei Patienten mit fortgeschrittenen GIT durchgeführt und dieses mit einer leitliniengetreuen onkologischen Therapie ohne komplementäre Bewegungstherapie verglichen. Dabei wurden der körperliche und funktionelle Status sowie die Aktivitäten des täglichen Lebens verglichen.
Zweiundvierzig Patienten mit fortgeschrittenen GIT (UICC ≥ III, 67,1 ± 6,8 Jahre, 45,2 % weiblich) wurden vor ihrer geplanten first-line Chemotherapie (CT) in die zweiarmige randomisiert kontrollierte Studie eingeschlossen. Eine der Gruppen (I) erhielt, entsprechend der ACSM-Guidelines für onkologische Patienten, die Vorgabe ein wöchentliches Laufprogramm mit einem Umfang von 150 Minuten moderater Intensität pro Woche. Die zweite Gruppe diente als Kontrollgruppe (K) und erhielt am Ende der Studiendauer entsprechende Empfehlungen. Die Interventionsdurchführung wurde mittels Trainingstagebuch und Pedometer begleitet. Vor Beginn (T0), nach zwei CT-zyklen (T1) sowie nach zwölf Wochen (T2) wurde der funktionelle und körperliche Status sowie die Alltagsbewältigung der Patienten erfasst.
Bei einer Dropoutrate von 36 Prozent konnten 28 (K: 15; I; 13) Patienten die Studie komplett durchlaufen. Die mittlere Adhärenzrate lag bei 81,3 Prozent. Im Untersuchungszeitraum konnten die folgenden sign. Veränderungen (p< 0,05) der einzelnen Parameter gezeigt werden. Die posturale Stabilität (COPLänge) konnte sowohl ein Gruppeneffekt, als auch ein Zeiteffekt nachgewiesen werden. Die Interventionsgruppe verbesserte sich im Zeitraum T0-T1 (-71,47mm) sowie im Gesamtzeitraum T0-T2 (-74,13 mm), wohingegen die Kontrollgruppe sich im Gesamtzeitraum T0-T2 (+72,83) verschlechterte. Die Gruppen unterschieden sich daher sowohl in den Zeiträumen T0-T1 ((K)+38,61; (I)-71,47 mm) sowie T0-T2 ((K)+72,83; (I) -74,13mm). Bezüglich des körperlichen Status konnte sich die Interventionsgruppe von T1-T2 (+4,03 kg) sowie von T0-T2 (+4,04 kg) verbessern, sodass sich die Gruppen zwischen den Zeitpunkten T1-T2 ((K) -0,49; (I)+4,03 kg) und T0-T2 ((K) 0,19; 4,04 kg) unterschieden. Der iADL-Fragebogen erbrachte eine Verbesserung der Interventionsgruppe im Gesamtmesszeitraum T0-T2 (+0,12), daraus resultierte ein zusätzlicher Gruppenunterschied in diesem Zeitraum ((K) -0,89; (I) +0,12). Der Ernährungszustand zeigte auch einen unterschiedlichen Verlauf der beiden Gruppen. Zwischen T1-T2 ((K) -0,59; + 1,74) sowie T0-T2 ((K) -0,55; (I) +2,39) unterschieden sich die Gruppen.
Obgleich es für einige Patienten schwierig war die Laufintervention gemäß den Empfehlungen durchzuführen, weisen die Teilnehmer der Interventionsgruppe sowohl in den Parametern des körperlichen, als auch des funktionellen Status Verbesserungen auf. Demnach scheint ein durchschnittlicher Umfang von zwei Stunden moderater körperlicher Aktivität während einer Tumortherapie ausreichend zu sein. Es veranschaulicht, dass eine komplementäre Bewegungstherapie in der onkologischen Therapie bei Patienten mit fortgeschrittenen GIT sinnvoll ist und sowohl einen Benefit in der Körperzusammensetzung, als auch der funktionellen Eigenschaften mitsichbringt. Dies hat wiederum einen positiven Einfluss auf die Alltagsbewältigung. Da einige Barrieren das Laufprogramm der Patienten einschränkten oder gar zum Laufabbruch führten, sollte versucht werden diese zu mindern. Hierbei sind vor allem klima- und wetterbedingte Barrieren ein möglicher Ansatzpunkt, da Nebenwirkungen kaum vermeidbar sind. Dennoch sollten die Patienten auch nach nebenwirkungsbedingten Laufpausen motiviert werden das Programm weiterzuführen. Diese Studie gibt zudem erste Hinweise, dass durch eine komplementäre Bewegungstherapie mit moderater körperlicher Aktivität die Toxizität der CT bei Patienten mit fortgeschrittenen GIT vermindert werden kann. Da der klinische Benefit, welcher in einigen Studien anderer Tumorentitäten postuliert wurde, in dieser Untersuchung nicht objektiv erfasst wurde, wäre dies ein möglicher Ansatzpunkt für Folgestudien.
Saccharomyces cerevisiae is a natural producer of isobutanol, which has more advantages as biofuel than ethanol, i.e. superior combustion energy, weaker corrosive action and reduced aqueous miscibility. Isobutanol is produced by the combination of the valine biosynthesis and the Ehrlich pathway. In this work, an industrial strain was employed for isobutanol production, in which the valine pathway was relocated into the cytosol. The valine pathway in yeast has a cofactor imbalance, since the glycolysis produces NADH, while Ilv5 employs NADPH for the reaction. Therefore, the cofactor specificity of the pathway was rebalanced with exchange of Ilv5 by an NADH-consuming mutant, IlvC6E6. Furthermore, Ilv6, which regulates the feed-back inhibition of the valine biosynthesis, was tested to boost isobutanol production; however, none of these Ilv6 alternatives could greatly enhance isobutanol production. Therefore, due to a still low production yield, the bottlenecks of the isobutanol pathway were deeper studied.
The major observed bottleneck concerned the conversion of DIV into KIV, since high concentrations of acetoin, 2,3-butandiol and, specially, DIV were observed in the fermentation supernatant, while neither KIV nor isobutyraldehyde were detected. This step is performed by the dihydroxy-acid dehydratase, Ilv3, which needs iron-sulfur clusters for its activity. Therefore, the first approach to circumvent this limitation was to increase the FeS assembly and its transference into the cytoplasm; however, Ilv3Δ19 activity was not improvement. Afterwards, Ilv3 alternatives were screened for substitution of Ilv3Δ19. Heterologous ILV3 orthologous with possible advantages were investigated, but Ilv3Δ19 was still the most promising alternative. Furthermore, sugar-acid enolases were tested as Ilv3Δ19 substitutes. These enolases also catalyze the dehydration of the substrate in the same way as Ilv3, but uses Mg2+ as cofactor. One of the employed enolases could complement valine auxotrophy; however, it allowed just a very slow growth of the Δilv3 strain and its activity could not be enhanced by mutagenesis studies.
Interestingly, we observed that once DIV is secreted out of the cell, it cannot be re-uptaken from the medium and this possibly further aggravates the pathway flux and Ilv3Δ19 activity. In order to suppress DIV waste, two strategies were formulated: the deletion of the possible DIV transporter, and the substrate channeling of DIV from IlvC6E6 to Ilv3Δ19. In order to find possible DIV export proteins, a transcriptome analysis of a strain producing high amounts of DIV against a strain producing no detected DIV were compared. Several transporters were found upregulated in the DIV producing strain, but, alone, none of these were responsible for the DIV efflux. For the substrate channeling, an artificial enzymatic net was constructed by the fusion of IlvC6E6 and Ilv319 with synthetic zippers, which have high affinity to each other, and as both enzymes are alone organized as oligomers. The use of this enzymatic net enhanced not only the isobutanol production in about 17%, but also 3-methyl-butanol production yield was 25% increased.
Nevertheless, together with bottlenecks arising from Ilv3 activity, the isobutanol production is limited by the ethanol production, which is the main product of S. cerevisiae. Therefore, in order to abolish ethanol production, PDC1 and PDC5 were deleted. Moreover, BDH1 and BDH2 were also deleted to create an NADH-driving force towards isobutanol production. However, the isobutanol yield of this mutant was even lower than that of the strain without the mentioned deletions. As a high production of isobutyric acid was observed, and it could be produced directly from KIV, different KIV decarboxylases and isobutanol dehydrogenases were investigated; but without improvement. Then, alternative pathways were abolished in other to favor isobutanol production, e.g. valine, leucine, isoleucine and panthotenate biosyntheses. Nevertheless, isobutanol yields were still low and the main byproducts were glycerol, acetoin, DIV and isobutyric acid. Despite the outcomes were not enough to enhance isobutanol production up to commercially required yields, these results help in the comprehension of the bottlenecks surrounding the isobutanol production pathway and serve as basis for further studies within the branched-chain amino acids biosynthesis and Ehrlich pathway.
Nearly 170 million people are chronically infected with HCV and thus at risk of developing liver cirrhosis and hepatocellular carcinoma. Although new and effective oral antiviral drugs are available, there is still the need for a preventive vaccine. In addition, in light of the high number of patients who are chronically infected with HCV the development of a therapeutic vaccine will present a support or even an alternative to the expensive medications.
To induce HCV-specific immune responses in a vaccine model, the HBV capsid is used as a carrier to deliver HCV antigens. Due to its icosahedral structure, the HBV capsid is highly immunogenic and helps to elicit a strong B cell response against the delivered antigens. In addition, the translocation motif (TLM) from the HBV surface protein is fused to the core protein. The TLM conveys membrane-permeability to the carrier capsid, enabling antigen transfer into the cytoplasm, and thus allows immunoproteasomal processing and MHC class I-mediated presentation of the antigen. To load the capsid with foreign antigens, a strep-Tag/streptavidin system is utilized. Recombinant capsids and antigens were purified from the E. coli production system. Detailed characterization of the carrier capsid demonstrated the proper assembly, adequate thermal stability and the successful loading of the foreign antigens onto the capsid surface.
As a further step, seven different HCV-derived proteins were produced and purified for the coupling on the surface of TLM-core particles. The characterization of their immunogenicity using this system is being performed.
Using ovalbumin as a model antigen, which is coupled to the carrier capsids via strep-Tag/streptavidin binding, shows that this system is suitable to efficiently deliver antigens into the cytoplasm of antigen-presenting cells (APCs), leading to the activation of APCs. This activation was assessed by measuring the secretion of IL-6 and TNF-α, in addition to the upregulation of activation markers (CD40, CD80, CD69, and MHC class I). Upon activation, the APCs were able to activate ova-specific CD8+ T cells measured by secreted IFN-γ, which was up to 20-folds more than IFN-γ secreted upon incubation with free ovalbumin. These data indicate that the TLM-capsid is suitable to serve as a carrier to deliver foreign antigens into the cytoplasm of APCs leading to MHC class I-mediated presentation and induction of an antigen-specific CTLs response.
Soil fungal communities are an essential element in the terrestrial ecosystem, however their response to ongoing anthropogenic climate change is currently poorly understood. Fungi are one of the most abundant groups of microbes in soil, they are mainly responsible for the decomposition of organic matter (Baldrian et al., 2012; Buée et al., 2009). By binding carbon in soil, fungi thus maintain an important role in the global carbon cycle (Bardgett et al., 2008). Future climates are likely to influence the communities of belowground microbial organisms (Castro et al., 2010; Deacon et al., 2006). However, how these communities are affected in their diversity, composition, and function after environmental perturbation is insufficiently known.
Molecular techniques using high-throughput sequencing are presently revolutionizing the analysis of complex communities, such as soil fungi. High-throughput metabarcoding enables the recovery of DNA sequence data directly from environmental samples, and DNA sequences from entire communities present in these samples can be simultaneously recovered through massively parallel sequencing reactions (Bik et al., 2012; Taberlet et al., 2012b). This results in more accurate estimation of diversity and community composition and thus provides unprecedented insight into cryptic communities (Lindahl and Kuske, 2014). Yet, challenges associated with these novel techniques include the bioinformatic processing, and the ecological analyses of the large amount of sequence data generated. Most biologists without explicit training in bioinformatics spend a fair amount of time learning how to filter raw sequence data, and customize bioinformatics pipelines specific to their project. To improve the quality of data treatment, and decrease the time needed for the analyses, it is desirable to have bioinformatics pipelines that are easy to use, well explained to researchers not trained in bioinformatics, and adaptable to individual research needs...
One of the main things that we as humans do in our lifetime is the recognition and/or classification of all kind of visual objects. It is known that about fifty percentage of the neocortex is responsible for visual processing. This fact tells us that object recognition (OR) is a complex task in our and in the animal brain, but we do it in a fraction of a second.
The main question is: How does the brain exactly do it? Does the brain use some feature extraction algorithm for OR tasks? The hierarchical structure of the visual cortex and studies on a part of the visual cortex called V1 tell us that our brain uses feature extraction for OR tasks by Gabor filters. We also use our previous knowledge in object recognition to detect and recognize the objects which we never saw before. Also, as we grow up we learn new objects faster than before.
These facts imply that the visual cortex of human and other animals uses some common (universal) features at least in the first stages to distinguish between different objects. In this context, we might ask: Do universal features in images exist, such that by using them we are able to efficiently recognize any unknown object? Is it necessary to extract new special features for any new object? How about using existing features from other tasks for this? Is it possible to efficiently use extracted feature of a specific task for other tasks? Are there some general features in natural and non-natural images which can also be used for specific object recognition? For example, can we use extracted features of natural images also for handwritten digit classification?
In this context, our work proposes a new information-based approach and tries to give some answers to the questions above. As a result, in our case we found that we could indeed extract unique features which are valid in all three different kinds of tasks. They give classification results that are about as good as the results reported by the corresponding literature for the specialized systems, or even better ones.
Another problem of the OR task is the recognition of objects, independently of any perception changes. We as humans or also animals can recognize objects in spite of many deformations (e.g. changes in illumination, rotation in any direction or angles, distortion and scaling up or down) in a fraction of a second. When observing an object which we never saw, we can imagine the rotated or scaled up objectin our mind. Here, also the question arises: How does the brain solve this problem? To do this, does the brain learn some mapping algorithm (transformation), independent of the objects or their features?
There are many approaches to model the mapping task. One of the most versatile ones is the idea of dynamically changing mappings, the dynamic link mapping (DLM). Although the dynamic link mapping systems show interesting results, the DLM system has the problem of a high computational complexity. In addition, because it uses the least mean squared error as risk function, the performance for classification is also not optimal. For random values where outliers are present, this system may not work well because outliers influence the mean squared error classification much more than probability-based systems. Therefore, we would like to complete the DLM system by a modified approach.
In our contribution, we will introduce a new system which employs the information criteria (i.e. probabilities) to overcome the outlier problem of the DLM systems and has a smaller computational complexity. The new information based selforganised system can solve the problem of invariant object recognition, especially in the task of rotation in depth, and does not have the disadvantage of current DLM systems and has a smaller computational complexity.
This thesis describes the adaptation of Acinetobacter species to dry environments with the soil bacterium A. baylyi and the opportunistic hospital pathogen A. baumanii in its focus. The adaptation of A. baylyi and A. baumannii to osmotic stress was investigated. Compatible solutes that were uptaken from the environment or synthesized de novo to cope with the loss of water at high salinity were identified. The corresponding transporters and enzymes involved were characzerized. In addition, the desiccation resistance of A. baumannii was analyzed to elucidate its survival in hospital environments. The usage of compatible solutes during desiccation stress was analyzed and proteins that were produced were identified.
The availability of water is essential for bacterial life and if environmental conditions are awkward, bacteria have to cope with high salinitiy to prevent loss of water. In this thesis it was shown that A. baylyi synthesizes glutamate and mannitol de novo as compatible solutes in response to osmotic stress to balance the osmotic potential. The pathway for mannitol biosynthesis from Fructose-6-Phosphate (F-6-P) via Mannitol-1-Phosphate (Mtl-1-P) was elucidated and the isolation and characterization of a novel type of biofunctional enzyme was described. Interestingly, the unique bifunctional enzyme MtlD, acting as dehydrogenase and phosphatase, mediates both steps of the mannitol biosynthesis pathway. This enzyme catalyzes the reduction of F-6-P to Mtl-1-P with NADPH as reducing equivalent. The dehydrogenase activity of MtlD was salt dependent and the phosphatase activity was dependent on Mg2+ as cofactor. Phylogenetic analyses revealed that MtlD is broadly distributed among other Acinetobacter strains but not in other phylogenetic tribes.
In this thesis it is also described that, besides de novo synthesis of compatible solutes, A. baylyi takes up glycine betaine (GB) or its precursor choline by different transport systems and uses this solutes as osmoprotectants. The uptake of GB occurs via a secondary transporter (ACIAD3460) of the BCCT family. Choline is taken up as precursor and oxidized to GB by two dehydrogenases. The uptake and use of choline as GB precursor involves two transporters, whose genes are encoded in the bet cluster (BetT1, BetT2), two dehydrogenases (BetA, BetB) and a regulatory protein (BetI). Both transporters differ from each other in structure and function: BetT1 is osmo-independent and active independently of osmotic stress. BetT2 contains - in contrast to BetT1 - a long C-terminal domain for osmo-sensing and its activity highly increases in the presence of high osmolarity. The oxidation of choline occurs independently of the osmolarity of the medium but in the absence of salt stress, GB is exported. In contrast, in the presence of high salinity, GB is accumulated in the cytoplasm to balance the osmotic potential in order to prevent loss of water. The regulation of both transporters, the uptake of choline independently of the osmolarity and the export of GB under isoosmotic conditions are regulated by the transcriptional regulator BetI.
A. baumannii ATCC 19606 was also shown to cope with high salinity. Analogously to A. baylyi, A. baumannii ATCC19606 synthesizes glutamate and mannitol de novo in response to osmotic stress. The genes for the synthesis of these compatible solutes are identical to those found in A. baylyi. This suggests that the solute biosynthesis pathways of A. baumannii and A. baylyi are identical. A. baumannii was also able to take up GB and choline in response to osmotic stress and growth at high salinity was restored upon addition of GB and its precursor choline. The bet cluster was also present in the genome A. baumannii and also contains the two different choline transporters BetT1 and BetT2.
Our suggestion that choline or GB or the utilization of phosphatidylcholine as carbon source led to an increase in the survival under desiccation stress was not confirmed. However, 2D analysis of proteins produced during desiccation stress in A. baumannii led to elevated amounts of proteins implicated in biofilm formation, regulation, cell morphology and general stress response, such as Hsp60 or superoxide dismutase, both might play a role in general stress protection.
Die Dissertation greift das innerhalb der Verkehrs- und Mobilitätsforschung populär diskutierte Thema rund um einen Übergang von der automobilen hin zur multimodalen Gesellschaft auf. Mit Blick auf den individuellen Mobilitätsalltag geht es in dieser Diskussion um eine mögliche Abwendung von der tendenziell exklusiven Autonutzung für alle Wege hin zur flexiblen Nutzung unterschiedlicher Verkehrsmittel. Dabei wird der übergeordneten Frage nachgegangen, inwiefern sich ein potentieller Übergang in individuellen Voraussetzungen für multimodales Verhalten widerspiegelt. Ausgang ist die Annahme, dass multimodales Verhalten stets von einer materiellen und mentalen Multioptionalität bei den Verkehrsteilnehmenden abhängt, d.h. einerseits dem ‚materiellen‘ Zugang zu mehreren Mobilitätsressourcen (Führerschein, Auto, ÖV-Zeitkarte, Fahrrad usw.) und andererseits eine ‚mentale‘ Offenheit gegenüber der Nutzung mehrerer Verkehrsmittel. Zur Überprüfung dieser These wurde im Frühjahr 2013 in Kooperation mit der sozialwissenschaftlichen und ökologischen Begleitforschung der Allianz Elektromobilität Rhein-Main eine Personenbefragung in der Großstadt Offenbach a.M. (rd. 115.000 EW) durchgeführt, bei der insgesamt 620 Personen zu ihrem Mobilitätsverhalten sowie ihren materiellen und mentalen Mobilitätsoptionen befragt wurden. Die Auswertungen ermöglichen die Aufstellung einer Reihe von neuen Thesen, mit denen der potentielle Übergang hin zur multimodalen Gesellschaft kritischer eingeordnet werden muss.
Bartonella Adhäsin A (BadA), das zur Gruppe der TAAs gehört, ist ein essentieller Pathogenitätsfaktor von B. henselae und übernimmt während des Infektionsverlaufs wichtige Funktion wie Autoagglutination, Adhärenz an ECM-Proteine und Endothelzellen. BadA weist die für die für die Proteinklasse der TAAs charakteristische modulare Architektur bestehend aus N-terminaler Kopf-Domäne, Stiel-Domäne, Hals-Domäne und C-terminaler Membrananker-Domäne auf. Der modulare Aufbau des Proteins deutet daraufhin, dass bestimmte Domänen mit bestimmten biologischen Funktionen des Proteins verknüpft sind. Zur Untersuchung dieser Hypothese wurden Deletionsmutanten des BadA generiert.
Die Generierung weiterer BadA-Deletionsmutanten wird durch das langsame Wachstum des Erregers und die geringe Auswahl an molekularbiologischen Werkzeugen zur genetischen Manipulation von B. henselae erschwert. Daher sollte in ersten Teil dieser Arbeit ein Expressionsmodell für Deletionsmutanten des BadA etabliert und charakterisiert werden. Dies sollte am Beispiel des trunkierten BadA, BadA HN23, durchgeführt werden. Hierzu sollten drei Hybrid-Varianten des BadA HN23 erstellt werden: (i) Austausch der BadA-Signalsequenz gegen die E. coli OmpA-Signalsequenz, (ii) Austausch der BadA-Membrananker-Domäne gegen die YadA-Membrananker-Domäne sowie (iii) Austausch von sowohl der BadA-Signalsequenz als auch der BadA-Membrananker-Domäne gegen die bereits genannten Elemente. Danach sollten die konstruierten BadA HN23 Hybride und das BadA HN23 in induzierbare Expressionsvektoren kloniert und spezielle E. coli-Expressionsstämme mit diesen Plasmiden transformiert werden. Bei erfolgreicher Expression sollten die optimalen Bedingungen für die Expression (Temperatur, Induktorkonzentration) ermittelt werden und an-schließend die biologische Funktion der heterolog exprimierten BadA HN23 Hybride überprüft werden.
Der erste Abschnitt der hier vorliegenden Arbeit zeigte folgende Ergebnisse:
1) Die beschrieben BadA HN23 Hybrid Konstrukte wurden durch Austausch von: (i) BadA-Signalsequenz gegen E. coli OmpA-Signalsequenz im BadA HN23,
(ii) BadA-Membrananker-Domäne gegen YadA-Membrananker-Domäne im BadA HN23 und
(iii) Austausch von BadA-Signalsequenz und BadA-Membrananker-Domäne gegen E. coli OmpA-Signalsequenz und YadA-Membrananker-Domäne im BadA HN23 generiert.
Die BadA HN23 Hybride und BadA HN23 wurden in Expressionsvektoren kloniert und E. coli Omp2, E. coli Omp8 und E. coli Omp8ΔdegP transformiert.
2) Alle BadA HN23 Hybrid-Konstrukte und BadA HN23 lagen in einer monomeren und trimeren Form vor.
3) Durch IFT und - Durchflusszytometrie-Untersuchungen wurde die Oberflächenexpression der einzelnen Konstrukte quantifiziert. Es zeigte sich, dass es deutliche Unterschiede in der Menge des auf der Zelloberfläche befindlichen jeweiligen BadA HN23 Proteins gab. Dabei wiesen die Konstrukte, die die YadA-Membrananker-Domäne besaßen (BadA HN23 Hybrid 2 und 3), die stärkste Oberflächenexpression auf.
4) Die biologische Funktion des BadA HN23 wurde mittels des E. coli Omp2 BadA HN23 Hybrid 3 charakterisiert. Heterolog exprimiertes BadA HN23 vermittelt Autoagglutination, die Adhärenz des Expressionsstammes an Kollagen G und Endothelzellen.
5) Die Expression des BadA HN23 führt zur signifikant verstärkten in-vivo-Pathogenität im Galleria mellonella-Infektionsmodell.
6) Das E. coli-Expressionsmodell lieferte keine Aussage über eventuelle immunodominate Funktionen des heterolog exprimierten BadA HN23, da auch mit im IFT als anti- B. henselae negativ eingestuften Patientenseren im WB ein BadA HN23 spezifisches Bandensignal detektiert wurde. Dot Blot-Experimente ermöglichten ebenfalls keine Aussage über eventuelle immunodominate Funktion des nativen BadA HN23, da das verwendete anti-B. henselae-positive Patientenserum unspezifische Reaktion gegenüber dem Kontrollstamm zeigte.
Für verschiedene TAAs ist beschrieben worden, dass sie die Serumresistenz der exprimierenden Spezies vermitteln. Daher sollte im zweiten Teil dieser Arbeit der Einfluss von BadA auf eventuelle Serumresistenz zweier B. henselae-Isolate untersucht werden. Dieser Teil lieferte folgende Ergebnisse:
1) B. henselae zeigte Sensitivität gegenüber normalem humanem Serum.
2) Sowohl BadA-positive als auch BadA-negative B. henselae-Isolate können Komplementinhibitoren wie Faktor H binden. Die dabei gebundene Menge ist relativ klein.
Die Expression von Deletionsmutanten des BadA in E. coli ist ein vielversprechendes Modell zur Analyse der Domänen-Funktionsbeziehung des BadA, da die meisten biologischen Funktionen einer homolog exprimierten BadA-Deletionsmutante reproduziert werden konnten und es sich bei E. coli um ein schnell wachsendes Bakterium, das sich leicht genetisch manipulieren lässt, handelt. Allerdings stellt das zytotoxische LPS des E. coli sowie das schnelle Wachstums der Bakterien eine Limitation des Expressionssystems dar, indem es Untersuchungen zum Einfluss der jeweiligen BadA-Deletionsmutante auf die Induktion der proangiogenetischen Wirtszellantwort verhindert oder Untersuchungen zum Einfluss der jeweiligen BadA-Deletionsmutante auf die Adhärenz an Endothelzellen deutlich erschwert. Außerdem kann eine mögliche Interaktion zwischen BadA bzw. BadA-Deletionsmutanten und dem TIVSS und zwischen BadA bzw. BadA-Deletionsmutanten und weiteren Adhäsinen (wie z.B. dem FHA) mit Hilfe dieses Expressionssystems nicht untersucht werden. Dies wäre nur im B. henselae Wildtyp-Stamm möglich.
In Anbetracht der wachsenden soziokulturellen Vielfalt in Deutschland und in anderen europäischen Ländern wächst die Relevanz pädagogischer Ansätze zur kulturellen Verständigung und somit auch der soziokulturellen Kommunikation und Sozialisationsforschung.
D. Kumbier und F. Schulz von Thun beschreiben diese Situation in folgender Weise: "Wenn Menschen miteinander in Kontakt treten, prallen Welten aufeinander. Das ist schon innerhalb einer Kultur der Fall, weil jeder mit einem persönlichen mentalen System ausgestattet ist, das ihn zu einem einmaligen und einsamen Inselbewohner macht. Unsere ganze Kommunikationspsychologie legt es darauf an, für diesen Prozess der Bewegung von Welten ein Bewusstsein zu schaffen und auf diese Grundlage kompetente Umgangsformen aufzubauen" (Kumbier/Schulz von Thun 2008, S. 9).
Hier begegnen sich zwei Welten, die auf zwei verschiedenen Kontinenten liegen, deren Werteorientierungen und kulturelle Normen und Gebräuche auf verschiedenen Weltreligionen basieren, die sich im Laufe der Jahrhunderte anders entwickelt haben. Hier ist die Rede von Asien und Europa, vom Christentum und Islam, von einem Entwicklungsland und einem Industrieland, nämlich von Afghanistan und Deutschland.
Eine nähere Betrachtung zeigt, dass das Christentum, das Judentum und der Islam eine gemeinsame Wurzel haben und sich von dem gemeinsamen Stammvater Abraham herleiten. Der große Unterschied besteht darin, dass Europa die Aufklärung erlebt hat und Religion heute überwiegend als eine Option empfunden wird. ...
Diese Dissertation geht der Frage nach, wie die Literacy-Förderung der Kinder im Kindergartenalter in türkischstämmigen Familien in Deutschland stattfindet. Es wird der Frage nachgegangen, wie sich sozioökonomische und soziokulturelle Verhältnisse der Familien die Literacy-Förderung beeinflussen. Es wurden zwei qualitative Untersuchungen durchgeführt. Im ersten Teil der Arbeit wurden zwölf Mütter anhand halbstrukturierter Interviews befragt. Die Daten wurden anhand der qualitativen Inhaltsanalyse ausgewertet. Im zweiten Teil wurde als nichtteilnehmende, offene Beobachtung der Vorlesesituation durchgeführt. Anhand der Sequenzanalyse wurde die Vorgehensweise der Mütter während des Vorleseprozesses ausgewertet.
Es wurde untersucht, inwieweit der ökonomische Status und das kulturelle Kapital der Eltern für die Literacy-Förderung prägend sind. In den untersuchten Familien sind sowohl die literacy-bezogenen Aktivitäten als auch die Erziehung insgesamt stark an den Normen der Mehrheitsgesellschaft orientiert. Entscheidend sind nicht auf Ethnizität bezogene Zuschreibungen, sondern die sozioökonomische Stellung und das kulturelle Kapital der Eltern bei der Literacy-Förderung in den türkischstämmigen Familien.
Die Untersuchung zeigt im ersten Teil, dass die untersuchten Familien bei der Literacy-Förderung mit zahlreichen Hindernissen konfrontiert sind, die nicht primär ethnisch begründet sind, sondern vielmehr auf sozioökonomische und soziokulturelle Faktoren zurückgeführt werden müssen. Die berufliche Situation und Arbeitsbedingungen der Eltern erschweren die Durchführung der literacy-bezogenen Aktivitäten. Der ökonomische Status und der Bildungsstand sowie das kulturelle Kapital der Eltern ist der Grund für Hindernisse. Das macht sich bemerkbar in drei Gesichtspunkten: (i) Bei der direkten Anregung des Kindes zu Literacy, wenn das Kind zum Schreiben initiiert wird, sein Interesse für Bücher geweckt oder bei alltäglichen Aktivitäten zum Schriftentdecken herangeführt wird. Die Mütter, die über kulturelles Kapital verfügen, führen diese Aktivitäten regelmäßig und effizient durch. (ii) Bei der Gestaltung der Literacy-Umgebung, wenn diese vielfältig gestaltet wird (z.B. die Auswahl elektronischer Medien). Hierbei macht sich der sozioökonomische Status am deutlichsten bemerkbar. (iii) Auch bei der die Vorbildfunktion der Eltern als indirekte Anregung macht sich kulturelles Kapital bemerkbar. Im zweiten Teil der empirischen Untersuchung zur Vorlesesituation sind zwei Handlungsmuster festgestellt worden, die dem Vorleseverhalten der Mütter zugrundeliegen. Dabei ist das kulturelle Kapital entscheidend. Die Mütter mit niedrigem Kulturkapital führen den Vorleseprozess monologisch und einseitig, sodass die Kinder nicht oder nicht hinreichend einbezogen werden. Die Mütter mit höherem Kulturkapital dagegen gestalten den Vorleseprozess dialogisch, sodass das Kind eingebunden wird. Der wichtigste Unterschied zwischen den beiden Handlungsmustern ist die Vermittlung der Erzählung. Im dialogischen Handlungsmuster wird der Vorleseprozess interaktiv gestaltet und die Haupthandlung der Geschichte im Blick behalten. Im monologischen Handlungsmuster aber hoffen die Vorlesenden, dass die Kinder durch bloßes Zuhören die Geschichte begreifen. Hier dominiert die Fokussierung auf die Einzelhandlungen. Während die Mütter höherem Kulturkapital die Vermittlung der Erzählung als ein zu erreichendes Ziel begreifen, tritt dies bei denen mit geringem Kulturkapital in den Hintergrund.
The condensation phase transition and the number of solutions in random graph and hypergraph models
(2016)
This PhD thesis deals with two different types of questions on random graph and random hypergraph structures.
One part is about the proof of the existence and the determination of the location of the condensation phase transition. This transition will be investigated for large values of $k$ in the problem of $k$-colouring random graphs and in the problem of 2-colouring random $k$-uniform hypergraphs, where in the latter case we investigate a more general model with finite inverse temperature.
The other part deals with establishing the limiting distribution of the number of solutions in these structures in density regimes below the condensation threshold.
Random constraint satisfaction problems have been on the agenda of various sciences such as discrete mathematics, computer science, statistical physics and a whole series of additional areas of application since the 1990s at least. The objective is to find a state of a system, for instance an assignment of a set of variables, satisfying a bunch of constraints. To understand the computational hardness as well as the underlying random discrete structures of these problems analytically and to develop efficient algorithms that find optimal solutions has triggered a huge amount of work on random constraint satisfaction problems up to this day. Referring to this context in this thesis we present three results for two random constraint satisfaction problems. ...
Die letzten Jahrzehnte brachten einen enormen Zuwachs des Wissens und Verständnisses über die molekularen Prozesse des Lebens.Möglich wurde dieser Zuwachs durch die Entwicklung diverser Methoden, mit denen beispielsweise gezielt die Konzentration einzelner Stoffe gemessen werden kann oder gar alle anwesenden Metaboliten eines biologischen Systems erfasst werden können. Die großflächige Anwendung dieser Methoden führte zur Ansammlung vieler unterschiedlicher -om-Daten, wie zum Beispiel Metabolom-, Proteom- oder Transkriptoms-Datensätzen. Die Systembiologie greift auf solche Daten zurück, um mathematische Modelle biologischer Systeme zu erstellen, und ermöglicht so ein Studium biologischer Systeme auch außerhalb des Labors.
Für größere biologische Systeme stehen jedoch meistens nicht alle Informationen über Stoffkonzentrationen oder Reaktionsgeschwindigkeiten zur Verfügung, um eine quantitative Modellierung, also die Beschreibung von Änderungsraten kontinuierlicher Variablen, durchführen zu können. In einem solchen Fall wird auf Methoden der qualitativen Modellierung zurückgegriffen. Eine dieser Methoden sind die Petrinetze (PN), welche in den 1960er Jahren von Carl Adam Petri entwickelt wurden, um nebenläufige Prozesse im technischen Umfeld zu beschreiben. Seit Anfang der 1990er Jahre finden PN auch Anwendung in der Systembiologie, um zum Beispiel metabolische Systeme oder Signaltransduktionswege zu modellieren. Einer der Vorteile dieser Methode ist zudem, dass Modelle als qualitative Beschreibung des Systems begonnen werden können und im Laufe der Zeit um quantitative Beschreibungen ergänzt werden können.
Zur Modellierung und Analyse von PN existieren bereits viele Anwendungen. Da das Konzept der PN jedoch ursprünglich nicht für die Systembiologie entwickelt wurde und meist im technischen Bereich verwendet wird, existierten kaum Anwendungen, die für den Einsatz in der Systembiologie entwickelt wurden. Daher ist auch die Durchführung der für die Systembiologie entwickelten Analysemethoden für PN nicht mit diesen Anwendungen möglich. Die Motivation des ersten Teiles dieser Arbeit war daher, eine Anwendung zu schaffen, die speziell für die PN-Modellierung und Analyse in der Systembiologie gedacht ist, also in ihren Analysemethoden und ihrer Terminologie sich an den Bedürfnissen der Systembiologie orientiert. Zudem sollte die Anwendung den Anwender bei der Auswertung der Resultate der Analysemethoden visuell unterstützen, indem diese direkt visuell im Kontext des PN gesetzt werden. Da bei komplexeren PN die Resultate der Analysemethoden in ihrer Zahl drastisch anwachsen, wird eine solche Auswertung dieser notwendig. Aus dieser Motivation heraus entstand die Anwendung MonaLisa, dessen Implementierung und Funktionen im ersten Teil der vorliegenden Arbeit beschrieben werden. Neben den klassischen Analysemethoden für PN, wie den Transitions- und Platz-Invarianten, mit denen grundlegende funktionale Module innerhalb eines PN gefunden werden können, wurden weitere, meist durch die Systembiologie entwickelte, Analysemethoden implementiert. Dazu zählen zum Beispiel die Minimal Cut Sets, die Maximal Common Transitions Sets oder Knock-out-Analysen. Mit MonaLisa ist aber auch die Simulation des dynamischen Verhaltens des modellierten biologischen Systems möglich. Hierzu stehen sowohl deterministische als auch stochastische Verfahren, beispielsweise der Algorithmus von Gillespie zur Simulation chemischer Systeme, zur Verfügung. Für alle zur Verfügung gestellten Analysemethoden wird ebenfalls eine visuelle Repräsentation ihrer Resultate bereitgestellt. Im Falle der Invarianten werden deren Elemente beispielsweise in der Visualisierung des PN eingefärbt. Die Resultate der Simulationen oder der topologischen Analyse können durch verschiedene Graphen ausgewertet werden. Um eine Schnittstelle zu anderen Anwendungen zu schaffen, wurde für MonaLisa eine Unterstützung einiger gängiger Dateiformate der Systembiologie geschaffen, so z.B. für SBML und KGML.
Der zweite Teil der Arbeit beschäftigt sich mit der topologischen Analyse eines Datensatzes von 2641 Gesamtgenom Modellen aus der path2models-Datenbank. Diese Modelle wurden automatisiert aus dem vorhandenen Wissen der KEGG- und der MetaCyc-Datenbank erstellt. Die Analyse der topologischen Eigenschaften eines Graphen ermöglicht es, grundlegende Aussagen über die globalen Eigenschaften des modellierten Systems und dessen Entstehungsprozesses zu treffen. Daher ist eine solche Analyse oft der erste Schritt für das Verständnis eines komplexen biologischen Systems. Für die Analyse der Knotengrade aller Reaktionen und Metaboliten dieser Modelle wurden sie in einem ersten Schritt in PN transformiert. Die topologischen Eigenschaften von metabolischen Systemen werden in der Literatur schon sehr gut beschrieben, wobei die Untersuchungen meist auf einem Netzwerk der Metaboliten oder der Reaktionen basieren. Durch die Verwendung von PN wird es möglich, die topologischen Eigenschaften von Metaboliten und Reaktionen in einem gemeinsamen Netzwerk zu untersuchen. Die Motivation hinter diesen Untersuchungen war, zu überprüfen, ob die schon beschriebenen Eigenschaften auch für eine Darstellung als PN zutreffen und welche neuen Eigenschaften gefunden werden können. Untersucht wurden der Knotengrad und der Clusterkoeffizient der Modelle. Es wird gezeigt, dass einige wenige Metaboliten mit sehr hohem Knotengrad für eine ganze Reihe von Effekten verantwortlich sind, wie beispielsweise dass die Verteilung des Knotengrades und des Clusterkoeffizienten, im Bezug auf Metaboliten, skalenfrei sind und dass sie für die Vernetzung der Nachbarschaft von Reaktionen verantwortlich sind. Weiter wird gezeigt, dass die Größe eines Modelles Einfluss auf dessen topologische Eigenschaften hat. So steigt die Vernetzung der Nachbarschaft eines Metaboliten, je mehr Metaboliten in einem biologischen System vorhanden sind, gleiches gilt für den durchschnittlichen Knotengrad der Metaboliten.
Das Ziel dieser Arbeit ist die Entwicklung von neuen, experimentellen Ansätzen zur Thematisierung von Siliciumverbindungen im Chemieunterricht, die einen deutlichen lebensweltlichen Bezug aufweisen und moderne Entwicklungen berücksichtigen.
Die Bandbreite der Siliciumverbindungen reicht von den Silicaten im Bereich der Anorganik über elementares Silicium bis hin zu den polymeren Siliconen im Grenzbereich zu der Organik. Diese
große Vielfalt an Verbindungen hat eine Vielzahl von Anwendungen in tagtäglichen Produkten zur Folge. Dies sind einerseits relativ bekannte anorganische Baustoffe, wie Zement oder Sand, die schon seit der Antike von der Menschheit genutzt werden. Andererseits werden kontinuierlich neue Anwendungsmöglichkeiten in Alltag und Industrie für Siliciumverbindungen entwickelt, die in der modernen Lebenswelt der SchülerInnen einen festen Platz haben.
Oft ist das Vorhandensein der Siliciumverbindung gar nicht auf den ersten Blick erkennbar, obwohl sie die Eigenschaften eines Alltagsprodukts maßgeblich beeinflussen kann. Dies ist beispielsweise bei Silica-Verbindungen in der Zahncreme der Fall.
Im Chemieunterricht werden, wenn überhaupt, die „traditionellen“ Verwendungszwecke, wie in der Baustoffchemie, thematisiert, weniger dagegen die Funktion von Siliciumverbindungen in innovativen Produkten neueren Datums. Nur zögerlich werden Ansätze zur Thematisierung von Verbindungen, wie Siliconen, im Chemieunterricht etabliert.
Im Rahmen dieser Forschungsarbeit wurden daher auf der Grundlage einer fachdidaktischen Analyse und Diskussion Experimente zu ausgewählten Siliciumverbindungen entwickelt. Dies sind die Silicone, die Silica-Verbindungen und elementares Silicium. Die Experimente lassen sich größtenteils in der Sekundarstufe II in Anlehnung an verbindlich im Lehrplan thematisierte Inhalte in den Unterricht einbinden. Einige Experimente können nach einer angemessenen didaktischen Reduktion auch bereits in der Sekundarstufe I eingesetzt werden.
Die im Rahmen dieser Arbeit entwickelten Experimente wurden von LehrerInnen und SchülerInnen gleichermaßen erprobt. Es wurden Rückmeldungen zur Versuchen und Versuchsvorschriften eingeholt. Die Ergebnisse der Auswertung wurden zur Optimierung herangezogen.
Das Hören hat für den Menschen eine maßgebliche Bedeutung hinsichtlich Kommunikation und Orientierung. Auch wenn sich der Mensch stark auf seinen visuellen Sinn verlässt, wird mit dem Ausfall des Hörvermögens deutlich, wie viele Informationen oft unterbewusst über die Analyse von Schallsignalen gezogen werden. Trotz dieser grundlegenden Relevanz sind bis heute noch nicht alle Komponenten, die dem Hörprozess zugrunde liegen, entschlüsselt.
Um sich diesen offenen Fragestellungen anzunähern, müssen Forscher oft auf Tiermodelle zurückgreifen. Auf Grund ihres exzellenten Gehörs haben sich hier in den letzten Jahrzehnten Fledermäuse als taugliche Versuchstiere qualifiziert. Diese Tiere sind in der Lage sich ohne Verwendung des visuellen Systems in absoluter Dunkelheit zu orientieren, indem sie mit Hilfe der wiederkehrenden Echos ihrer ausgesendeten Ultraschalllaute die Umgebungsstrukturen analysieren. Weiterhin umfasst der zur Kommunikation und Ortung verwendete Frequenzbereich bei Fledermäusen ein Vielfaches von dem des menschlichen, was ebenfalls verschiedene Aspekte der Hörforschung begünstigt. Die in dieser Studie verwendete fruchtfressende Fledermausart Carollia perspicillata eignet sich hervorragend für akustische Untersuchungen, da ihr Innenohr keine speziellen morphologischen Spezialisierungen aufweist.
Anhand der Fledermausart C. perspicillata sollen innerhalb der vorliegenden Studie verschiedene offene Fragestellungen bezüglich der Innenohrmechanik näher beleuchtet werden. Um sich diesen Fragestellungen anzunähern, wurde eine Kombination aus zwei etablierten Methoden verwendet. Zum einen die Messung von Distortions-Produkt otoakustischen Emissionen (DPOAEs), welche auf Grund ihrer Generierung durch aktive Prozesse innerhalb der Kochlea die Möglichkeit bietet, Veränderungen im Innenohr festzustellen und zum anderen kontralaterale akustische Stimulation (KAS), welche eine erprobte Methode zur Aktivierung des efferenten Systems darstellt. Dadurch, dass die äußeren Haarsinneszellen in der Kochlea direkte synaptische Kontakte mit efferenten Fasern der absteigenden Hörbahn eingehen, kann eine Aktivierung des efferenten Systems Modulationen des kochleären Verstärkers bewirken, wodurch sich wiederum die Antworteigenschaften der Kochlea verändern. Mit einer Kombination dieser beiden Methoden lassen sich demnach zum einen höhere Zentren der Hörbahn aktivieren, die über efferente Fasern einen direkten Einfluss auf das Innenohr nehmen, zum anderen die induzierten Modulationen in Form von DPOAEs mit Hilfe eines sensitiven Mikrofons aufnehmen. Die Grundvoraussetzung für die Funktionalität dieser Methodenkombination ist das Vorhandensein von efferenten Fasern innerhalb der Kochlea. Da das efferente System verschiedener Säuger eine große Diversität aufweist, wurden innerhalb dieser Arbeit zusätzlich zu den akustischen Untersuchungen histologische Schnittserien der Kochlea von C. perspicillata angefertigt. Hierbei lag das Hauptaugenmerk auf dem Verlauf der efferenten Fasern innerhalb der Kochlea. Mit Hilfe der Thiocholinmethode wurde der Ort der Umsetzung des Achetylcholinabbauenden Enzyms Achetylcholin-esterase angefärbt. Achetylcholin ist der vorranig vorkommende Transmitter an den efferenten Synapsen.
Diese Studie untersucht weiter den Einfluss der Narkose auf das Innenohr. In zahlreichen Studien, die Innenohrmechanik betreffend, wurden die Untersuchungen an narkotisierten Tieren durchgeführt. Oftmals wird zwar die Problematik der möglichen Beeinflussung des Innenohres durch das verwendete Narkosemittel diskutiert, aber meisthin als unumgänglich eingestuft. Innerhalb der vorliegenden Studie wurde ein Großteil der Experimente an narkotisierten und auch wachen Tieren durchgeführt, um die Auswirkungen der häufig verwendeten Ketamin-Xylazin-Narkose auf die Innenohr-aktivität zu verdeutlichen.
In der Literatur lässt sich eine Vielzahl von akustischen Untersuchungen finden, in denen artifizielle Stimuli wie Reintöne oder Rauschen verwendet werden. Die Problematik dahinter ergibt sich daraus, dass diese Art der Töne in der Natur selten zu finden sind. Derartige Studien werfen daher die Frage auf, ob das Innenohr beispielsweise Rauschstimuli auf die gleiche Weise verarbeitet wie natürliche, komplexere Stimuli. Innerhalb der vorliegenden Studie wurden demzufolge im Vergleich zu artifiziellen Stimuli arteigene Rufe der Fledermausspezies C. perspicillata aufgenommen und als akustische Stimuli während der Messungen verwendet.
Im Zuge dieser Fragestellung wurde in einem weiteren Teilprojekt versucht ein neues Verfahren zur Messung von OAEs zu etablieren, mit dem es möglich ist das Ohr nicht ausschließlich mit den herkömmlich verwendeten Reintönen zu stimulieren, sondern ebenfalls mit komplexen Lauten, wie arteigenen Kommunikations- und Echo-ortungsrufen. Hierfür wurde ein von Douglas Keefe vorgestelltes Paradigma zur Messung von OAE-Residualen herangezogen, welches die am Trommelfell gemessenen akustischen Signale von den Trommelfellantworten auf einzelne Komponenten dieser Signale subtrahiert.
Anhand der in dieser Studie gewonnenen Ergebnisse kann deutlich gezeigt werden, dass eine akustische Stimulation der kontralateralen Kochlea mit verschiedenen artifiziellen sowie arteigenen Stimuli zuverlässig eine Änderung des Pegels der 2f1-f2 DPOAE von bis zu 37,3 dB in der ipsilateralen Kochlea bei wachen Tieren bewirkt. Dabei unterscheidet sich die Art der Beeinflussung deutlich je nach verwendetem kontralateralem Stimulus. Die Stimulation mit artifiziellem Breitbandrauschen supprimiert den Emissionspegel über den gesamten getesteten Frequenzbereich um etwa 11,6 dB, während die verwendeten arteigenen Laute eine vergleichbare Beeinflussung des DPOAE-Pegels ausschließlich in einem Frequenzbereich zwischen 50 und 70 kHz bewirken. Im Frequenzbereich von 20 bis 30 kHz verursachen die arteigenen Laute nahezu keine Pegelabsenkung, was im deutlichen Kontrast zu den Ergebnissen unter KAS mit Breitbandrauschen steht. Unter Narkoseeinfluss konnte, unabhängig vom verwendeten Stimulus, keine Beeinflussung des DPOAE-Pegels festgestellt werden, was die Annahme bestätigt, dass die verwendete Ketamin-Xylazin-Narkose einen drastischen Einfluss auf den Hörprozess und insbesondere auf das efferente System nimmt. Die Ursache dafür, dass arteigene Stimuli anders verarbeitet werden als artifizielle Stimuli (wie z. B. Breitbandrauschen) konnte zwar nicht abschließend geklärt werden, aber die Vermutung liegt nahe, dass in diesem Verarbeitungsprozess höhere Zentren der Hörbahn involviert sind und selektiven Einfluss auf die ablaufenden Prozesse nehmen.
Die Etablierung des OAE-Residual-Messparadigmas auf der Basis der Methode von Keefe und Ling (1998) sollte die Möglichkeit bieten sowohl Reintöne als auch komplexe, arteigene Stimuli zu verwenden und so eine Erweiterung des herkömmlich verwendeten Messverfahrens darstellen. Über verschiedene Vorversuche unter Anwendung einer Zweitonreizung konnte gezeigt werden, dass die Ergebnisse des neu entwickelten Paradigmas mit denen der herkömmlichen DPOAE-Messungen hinsichtlich Reintonstimuli vergleichbar sind. Anhand der gewonnenen Ergebnisse mit einer Stimulation mit komplexen Signalen zeigen sich allerdings die Schwierigkeiten der neuen Methode. Die bisher erhobenen Daten zeigen keine klaren, reproduzierbare Ergebnisse, sollten aber die Grundbedingungen für die weiterführenden Versuche ebnen.
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.
The behaviour of electronic circuits is influenced by ageing effects. Modelling the behaviour of circuits is a standard approach for the design of faster, smaller, more reliable and more robust systems. In this thesis, we propose a formalization of robustness that is derived from a failure model, which is based purely on the behavioural specification of a system. For a given specification, simulation can reveal if a system does not comply with a specification, and thus provide a failure model. Ageing usually works against the specified properties, and ageing models can be incorporated to quantify the impact on specification violations, failures and robustness. We study ageing effects in the context of analogue circuits. Here, models must factor in infinitely many circuit states. Ageing effects have a cause and an impact that require models. On both these ends, the circuit state is highly relevant, an must be factored in. For example, static empirical models for ageing effects are not valid in many cases, because the assumed operating states do not agree with the circuit simulation results. This thesis identifies essential properties of ageing effects and we argue that they need to be taken into account for modelling the interrelation of cause and impact. These properties include frequency dependence, monotonicity, memory and relaxation mechanisms as well as control by arbitrary shaped stress levels. Starting from decay processes, we define a class of ageing models that fits these requirements well while remaining arithmetically accessible by means of a simple structure.
Modeling ageing effects in semiconductor circuits becomes more relevant with higher integration and smaller structure sizes. With respect to miniaturization, digital systems are ahead of analogue systems, and similarly ageing models predominantly focus on digital applications. In the digital domain, the signal levels are either on or off or switching in between. Given an ageing model as a physical effect bound to signal levels, ageing models for components and whole systems can be inferred by means of average operation modes and cycle counts. Functional and faithful ageing effect models for analogue components often require a more fine-grained characterization for physical processes. Here, signal levels can take arbitrary values, to begin with. Such fine-grained, physically inspired ageing models do not scale for larger applications and are hard to simulate in reasonable time. To close the gap between physical processes and system level ageing simulation, we propose a data based modelling strategy, according to which measurement data is turned into ageing models for analogue applications. Ageing data is a set of pairs of stress patterns and the corresponding parameter deviations. Assuming additional properties, such as monotonicity or frequency independence, learning algorithm can find a complete model that is consistent with the data set. These ageing effect models decompose into a controlling stress level, an ageing process, and a parameter that depends on the state of this process. Using this representation, we are able to embed a wide range of ageing effects into behavioural models for circuit components. Based on the developed modelling techniques, we introduce a novel model for the BTI effect, an ageing effect that permits relaxation. In the following, a transistor level ageing model for BTI that targets analogue circuits is proposed. Similarly, we demonstrate how ageing data from analogue transistor level circuit models lift to purely behavioural block models. With this, we are the first to present a data based hierarchical ageing modeling scheme. An ageing simulator for circuits or system level models computes long term transients, solutions of a differential equation. Long term transients are often close to quasi-periodic, in some sense repetitive. If the evaluation of ageing models under quasi-periodic conditions can be done efficiently, long term simulation becomes practical. We describe an adaptive two-time simulation algorithm that basically skips periods during simulation, advancing faster on a second time axis. The bottleneck of two-time simulation is the extrapolation through skipped frames. This involves both the evaluation of the ageing models and the consistency of the boundary conditions. We propose a simulator that computes long term transients exploiting the structure of the proposed ageing models. These models permit extrapolation of the ageing state by means of a locally equivalent stress, a sort of average stress level. This level can be computed efficiently and also gives rise to a dynamic step control mechanism. Ageing simulation has a wide range of applications. This thesis vastly improves the applicability of ageing simulation for analogue circuits in terms of modelling and efficiency. An ageing effect model that is a part of a circuit component model accounts for parametric drift that is directly related to the operation mode. For example asymmetric load on a comparator or power-stage may lead to offset drift, which is not an empiric effect. Monitor circuits can report such effects during operation, when they become significant. Simulating the behaviour of these monitors is important during their development. Ageing effects can be compensated using redundant parts, and annealing can revert broken components to functional. We show that such mechanisms can be simulated in place using our models and algorithms. The aim of automatized circuit synthesis is to create a circuit that implements a specification for a certain use case. Ageing simulation can identify candidates that are more reliable. Efficient ageing simulation allows to factor in various operation modes and helps refining the selection. Using long term ageing simulation, we have analysed the fitness of a set of synthesized operational amplifiers with similar properties concerning various use cases. This procedure enables the selection of the most ageing resilient implementation automatically.
At sufficiently high temperatures and baryon densities, nuclear matter is expected to undergo a transition into the Quark-Gluon-Plasma (QGP) consisting of deconfined quarks and gluons and accompanied by chiral symmetry restoration. Signals of these two fundamental characteristics of Quantum-Chromo-Dynamics (QCD) can be studied in ultra-relativistic heavy-ion collisions producing a relatively large volume of high energy and nucleon densities as existent in the early universe. Dileptons are unique bulk-penetrating sources for this purpose since they penetrate through the surrounding medium with negligible interaction and are created throughout the entire evolution of the initially created fireball. A multitude of experiments at SIS18, SPS and RHIC have taken on the challenging task to measure these rare probes in a heavy-ion environment. NA60's results from high-quality dimuon measurements have identified the broadened ρ spectral function as favorable scenario to explain the low-mass dilepton excess, and partonic sources as dominant at intermediate dilepton masses.
Enabled by the addition of a TOF detector system in 2010, the first phase of the Beam Energy Scan (BES-I) at RHIC allows STAR to conduct an unprecedented energy-dependent study of dielectron production within a homogeneous experimental environment, and hence close the wide gap in the QCD phase diagram between SPS and top RHIC energies. This thesis concentrates on the understanding of the LMR enhancement regarding its invariant mass, transverse momentum and energy dependence. It studies dielectron production in Au+Au collisions at beam energies of 19.6, 27, 39, and 62.4 GeV with sufficient statistics. In conjunction with the published STAR results at top RHIC energy, this thesis presents results on the first comprehensive energy-dependent study of dielectron production.
This includes invariant mass- and transverse momenta-spectra for the four beam energies measured in 0-80% minimum-bias Au+Au collisions with high statistics up to 3.5 GeV/c² and 2.2 GeV/c, respectively. Their comparison with cocktail simulations of hadronic sources reveals a sizeable and steadily increasing excess yield in the LMR at all beam energies. The scenario of broadened in-medium ρ spectral functions proves to not only serve well as dominating underlying source but also to be universal in nature since it quantitatively and qualitatively explains the LMR enhancements measured over the wide range from SPS to top RHIC energies. It shows that most of the enhancement is governed by interactions of the ρ meson with thermal resonance excitations in the late(r)-stage hot and dense hadronic phase. This conclusion is supported by the energy-dependent measurement of integrated LMR excess yields and enhancement factors. The former do not exhibit a strong dependence on beam energy as expected from the approximately constant total baryon density above 20 GeV, and the latter show agreement with the CERES measurement at SPS energy. The consistency in excess yields and agreement with model calculations over the wide RHIC energy regime makes a strong case for LMR enhancements on the order of a factor 2-3.
The extent of the results presented here enables a more solid discussion of its relation to chiral symmetry restoration from a theoretical point of view. High-statistics measurements at BES-II hold the promise to confirm these conclusions along with the LMR enhancment's relation to total baryon density with decreasing beam energy.
Different approaches are possible when it comes to modeling the brain. Given its biological nature, models can be constructed out of the chemical and biological building blocks known to be at play in the brain, formulating a given mechanism in terms of the basic interactions underlying it. On the other hand, the functions of the brain can be described in a more general or macroscopic way, in terms of desirable goals. This goals may include reducing metabolic costs, being stable or robust, or being efficient in computational terms. Synaptic plasticity, that is, the study of how the connections between neurons evolve in time, is no exception to this. In the following work we formulate (and study the properties of) synaptic plasticity models, employing two complementary approaches: a top-down approach, deriving a learning rule from a guiding principle for rate-encoding neurons, and a bottom-up approach, where a simple yet biophysical rule for time-dependent plasticity is constructed.
We begin this thesis with a general overview, in Chapter 1, of the properties of neurons and their connections, clarifying notations and the jargon of the field. These will be our building blocks and will also determine the constrains we need to respect when formulating our models. We will discuss the present challenges of computational neuroscience, as well as the role of physicists in this line of research.
In Chapters 2 and 3, we develop and study a local online Hebbian self-limiting synaptic plasticity rule, employing the mentioned top-down approach. Firstly, in Chapter 2 we formulate the stationarity principle of statistical learning, in terms of the Fisher information of the output probability distribution with respect to the synaptic weights. To ensure that the learning rules are formulated in terms of information locally available to a synapse, we employ the local synapse extension to the one dimensional Fisher information. Once the objective function has been defined, we derive an online synaptic plasticity rule via stochastic gradient descent.
In order to test the computational capabilities of a neuron evolving according to this rule (combined with a preexisting intrinsic plasticity rule), we perform a series of numerical experiments, training the neuron with different input distributions.
We observe that, for input distributions closely resembling a multivariate normal distribution, the neuron robustly selects the first principal component of the distribution, showing otherwise a strong preference for directions of large negative excess kurtosis.
In Chapter 3 we study the robustness of the learning rule derived in Chapter 2 with respect to variations in the neural model’s transfer function. In particular, we find an equivalent cubic form of the rule which, given its functional simplicity, permits to analytically compute the attractors (stationary solutions) of the learning procedure, as a function of the statistical moments of the input distribution. In this way, we manage to explain the numerical findings of Chapter 2 analytically, and formulate a prediction: if the neuron is selective to non-Gaussian input directions, it should be suitable for applications to independent component analysis. We close this section by showing how indeed, a neuron operating under these rules can learn the independent components in the non-linear bars problem.
A simple biophysical model for time-dependent plasticity (STDP) is developed in Chapter 4. The model is formulated in terms of two decaying traces present in the synapse, namely the fraction of activated NMDA receptors and the calcium concentration, which serve as clocks, measuring the time of pre- and postsynaptic spikes. While constructed in terms of the key biological elements thought to be involved in the process, we have kept the functional dependencies of the variables as simple as possible to allow for analytic tractability. Despite its simplicity, the model is able to reproduce several experimental results, including the typical pairwise STDP curve and triplet results, in both hippocampal culture and layer 2/3 cortical neurons. Thanks to the model’s functional simplicity, we are able to compute these results analytically, establishing a direct and transparent connection between the model’s internal parameters and the qualitative features of the results.
Finally, in order to make a connection to synaptic plasticity for rate encoding neural models, we train the synapse with Poisson uncorrelated pre- and postsynaptic spike trains and compute the expected synaptic weight change as a function of the frequencies of these spike trains. Interestingly, a Hebbian (in the rate encoding sense of the word) BCM-like behavior is recovered in this setup for hippocampal neurons, while dominating depression seems unavoidable for parameter configurations reproducing experimentally observed triplet nonlinearities in layer 2/3 cortical neurons. Potentiation can however be recovered in these neurons when correlations between pre- and postsynaptic spikes are present. We end this chapter by discussing the relation to existing experimental results, leaving open questions and predictions for future experiments.
A set of summary cards of the models employed, together with listings of the relevant variables and parameters, are presented at the end of the thesis, for easier access and permanent reference for the reader.
This thesis contributes to the field of machine learning with a specific focus on the methods for learning relations between the inputs. Learning relationships between images is the most common primitive in vision. There are many vision tasks in which relationships across images play an important role. Some of them are motion estimation, activity recognition, stereo vision, multi-view geometry and visual odometry. Many of such tasks mainly depend on motion and disparity cues, which are inferred based on the relations across multiple image pairs. The approaches presented in this thesis mainly deal with, but are not limited to, learning of the representations for motion and depth. This thesis by articles consists of five articles which present relational feature learning models along with their applications in computer vision. In the first article, we present an approach for encoding motion in videos. To this end, we show that the detection of spatial transformations can be viewed as detection of coincidence or synchrony between the given sequence of frames and a sequence of features which are related by the transformation we wish to detect. Learning to detect synchrony is possible by introducing "multiplicative interactions'' into the hidden units of single layered sparse coding models.
We show that the learned motion representations employed for the task of activity recognition achieve competitive performance on multiple benchmarks. Stereo vision is an important challenge in computer vision and useful for many applications in that field. In the second article, we extend the energy based learning models, which were previously used for motion encoding, to the context of depth perception. Given the common architecture of the models for encoding motion and depth, we show that it is possible to define a single model for learning a unified representation for both the cues. Our experimental results show that learning a combined representation for depth and motion makes it possible to achieve state-of-the-art performance at the task of 3-D activity analysis, and to perform better than the existing hand-engineered 3-D motion features. Autoencoder is a popular unsupervised learning method for learning efficient encoding for a given set of data samples. Typically, regularized autoencoders which are used to learn over-complete and sparse representations for the input data, were shown to fail on intrinsically high dimensional data like videos. In the third article, we investigate the reason for such a behavior. It can be observed that the regularized autoencoders typically learn negative hidden unit biases. We show that the learning of negative biases is the result of hidden units being responsible for both the sparsity and the representation of the input data. It is shown that, as a result, the behavior of the model resembles clustering methods which would require exponentially large number of features to model intrinsically high dimensional data. Based on this understanding, we propose a new activation function which decouples the roles of hidden layer and uses linear encoding. This allows to learn representations on data with very high intrinsic dimensionality. We also show that gating connections in the bi-linear models and the single layer models from articles one and two of this thesis can be thought of as a way to attain a linear encoding scheme which allows them to learn good representations on videos. Visual odometry is the task of inferring egomotion of a moving object from visual information such as images and videos. It can primarily be used for the task of localization and has many applications in the fields of robotics and navigation. The work in article four was motivated by the idea of using deep learning techniques, which are successful methods for many vision tasks, for visual odometry. The visual odometry task mainly requires inference of motion and depth information from visual input which can then be mapped to velocity and change in direction. We use relational feature models presented in the articles one and two for inferring a combined motion and depth representation from stereo video sequences. The combined representation is then mapped to discrete velocity and change in direction labels using convolutional neural networks. Our approach is an end-to-end deep learning-based architecture which uses a single type of computational model and learning rule. Preliminary results show that the architecture is capable of learning the mapping from input video to egomotion. Activity recognition is a challenging computer vision task with many real world applications. It is well know that it is a hard task to use computer vision research for real-time applications. In the fifth article of this thesis, we present a real-time activity recognition system based on deep learning based methods. Our approach uses energy based relational feature learning models for the computation of local motion features directly from videos. A bag-of-words over the local motion features is used for the analysis of activity in a given video sequence. We implement this system on a distributed computational platform and demonstrate its performance on the iCub robot. Using GPUs we demonstrate real time performance which makes the deployment of activity recognition systems in real world scenarios possible.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
Lepton pairs emerging from decays of virtual photons represent promising probes of nuclear matter under extreme conditions of temperature and density. These etreme conditions can be reached in heavy-ion collisions in various facilities around the world. Hereby the collision energy in the center-of-mass system (√SNN) varies from few GeV (SIS) to the TeV (LHC). In the energy domain of 1 - 2 GeV per nucleon (GeV/u), the HADES experiment at GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt studies dielectrons and strangeness production.
Various reactions, for example collisions of pions, protons, deuterons and heavy-ions with nuclei have been studied since its installation in the year 2001. Hereby the so called DLS Puzzle was solved experimentally, with remeasuring C+C at 1 and 2 GeV/u and by careful studies of inclusive pp and pn reactions at 1.25 GeV. With these measurements the so-called reference spectrum was established. Measurements of e+ e− production Ar+KCl showed an enhancement on the dilepton spectrum above the trivial NN back-
ground. Theory predicts a strong enhancement of medium radiation with the system size, due to large production of fast decaying baryonic resonances like ∆ and N∗ . The heaviest system measured so far was Au+Au at a kinetic beam energy of 1.23 GeV/u. The precise determination of the medium radiation depends
on a precise knowledge of the underlying hadronic cocktail composed of various sources contributing to the measured dilepton spectrum. In general the medium radiation needs to be separated from contributions coming from long-lived particles, that decay after the freeze out of the system. For a more model independent
understanding of the dilepton cocktail the production cross sections of these particles need to measured independently. In the related energy regime the main contributers are π0 and η Dalitz decays. Both mesons have a dominant decay into two real photons and have been reconstructed successfully in this channel. Since HADES has no electromagnetic calorimeter the mesons can not be identified in this decay channel directly. In this thesis the capability of HADES to detect e+ e− pairs from conversions of real photons is demonstrated.
Therefore not only the conversion probability but also the resulting efficiencies are shown. Furthermore, the reconstruction method for neutral mesons will be explained and the resulting spectra are interpreted. The measurement of neutral pions is compared to the independent measured charged pion distribution, and
extrapolated to full phase space. An integrated approach is used to determine the η yield. Both measurement are compared to the world data and to theory model claculations. Finally, the measurements will be used together with the reconstructed dilepton spectra to determine the amount and the properties of in medium radiation in the Au+Au system.
In this thesis we explore the characteristics of strongly interacting matter, described by Quantum Chromodynamics (QCD). In particular, we investigate the properties of QCD at extreme densities, a region yet to be explored by first principle methods. We base the study on lattice gauge theory with Wilson fermions in the strong coupling, heavy quark regime. We expand the lattice action around this limit, and carry out analytic integrals over the gauge links to obtain an effective, dimensionally reduced, theory of Polyakov loop interactions.
The 3D effective theory suffers only from a mild sign problem, and we briefly outline how it can be simulated using either Monte Carlo techniques with reweighting, or the Complex Langevin flow. We then continue to the main topic of the thesis, namely the analytic treatment of the effective theory. We introduce the linked cluster expansion, a method ideal for studying thermodynamic expansions. The complex nature of the effective theory action requires the development of a generalisation of the linked cluster expansion. We find a mapping between generalised linked cluster expansion and our effective theory, and use this to compute the thermodynamic quantities.
Lastly, various resummation techniques are explored, and a chain resummation is implemented on the level of the effective theory itself. The resummed effective theory describes not only nearest neighbour, next to nearest neighbour, and so on, interactions, but couplings at all distances, making it well suited for describing macroscopic effects. We compute the equation of state for cold and dense heavy QCD, and find a correspondence with that of non-relativistic free fermions, indicating a shift of the dynamics in the continuum.
We conclude this thesis by presenting two possible extensions to new physics using the techniques outlined within. First is the application of the effective theory in the large-$N_c$ limit, of particular interest to the study of conformal field theory. Second is the computation of analytic Yang Lee zeros, which can be applied in the search for real phase transitions.
Invasive non-native species are key components of human-induced global environmen-tal change and lead to a loss of biodiversity, alterations of species interactions and changes of ecosystem services. Freshwater ecosystems in particular are strongly affect-ed by biological invasions, since they are spatially restricted environments and often already heavily impacted by anthropogenic activities. Recent human-induced species invasions are often characterized by long-distance dispersal, with many species having extended their native distribution range within a very short time frame. However, a long term view into the past shows that biological invasions are common phenomena in nature—representing the arrival of a species into a location in which it did not originally evolve—as a result of climatic changes, geotectonic activity or other natural events. Once a species arrives in a new habitat, it may experience an array of novel selection pressures resulting from abiotic and biotic environmental factors and simultaneously act as a novel selective agent on the native fauna. Consequences of species invasions are manifold. My thesis, which combines seven studies on different aspects of biological invasions, aims to explore the influence of abiotic stressors and biotic interactions during species introductions and range expansions, as well as the consequences of biological invasions on evolutionary and ecosystem processes.
The first part of my thesis examines human-induced biological invasions, dealing with basic ecological characteristics of invaded ecosystems, novel predator-prey interactions, functional consequences of species invasions and certain behavioral traits that may contribute to the invasiveness of some species. The second part of my thesis examined distribution patterns and phenotypic trait divergence in species that historically invaded new geographical areas. I investigated variation of abiotic and biotic selection factors along a stream gradient as well as ecological and evolutionary consequences of species invasions to extreme habitats. The results highlight the importance of simultaneously considering processes involved in natural invasions and during human-induced invasions to understand the success of invading species.
We often lack detailed information on the impacts of historical biological inva-sions. Also, we are currently lacking crucial knowledge about the time scales during which different mechanisms (behavioral flexibility, plastic phenotypic changes, and ge-netic adaptation) play a role during biological invasions and affect species exchange and establishment. Comparative analyses of historical, natural invasion and recent (man-made) invasions can provide insights into the relative importance of the processes governing adaptation to abiotic stressors and selection resulting from biotic interactions. Beyond their negative effects, the establishment of invasive species and the subsequent range expansion represent “natural experiments” to investigate fundamental questions in ecology and evolution. My comparison of natural and human-induced biological invasions revealed that in many cases preadaptation to altered abiotic conditions plays a key role during early stages of invasions and range expansions. Considering the evolutionary history of invasive species and the evolutionary history of the recipient native fauna might therefore help predict the consequences of biological invasions for the ecosystem under consideration and the future success of the invading species. This knowledge can also be implemented when formulating conservation strategies, including methods to mitigate and manage human-induced biological invasions.
Individuelle sprachliche Repertoires und gesellschaftliche Mehrsprachigkeit in der Republik Moldova
(2016)
Die sprachlichen Verhältnisse in der Republik Moldau befinden sich seit der Unabhängigkeit von der Sowjetunion in Veränderung. Maßgeblich hierfür sind eine neue offizielle Sprache, die Förderung der Minderheitensprachen und die Arbeitsmigration. Die Autorin untersucht die Frage, wie Sprecher*innen mit unterschiedlichen sprachlichen Repertoires mit diesen Veränderungen umge-hen. Sie zeigt dies am Beispiel ausgewählter Sprach- und Berufsbiographien in zwei exemplarischen Fallstudien: einem russisch-ukrainisches Lyzeum und einem italienischsprachigen Call-Center.Mit den Begriffen Erreichbarkeit und Reichweite leistet das Buch einen theo-retischen Beitrag zur Diskussion um sprachliche Repertoires und sprachlichen Ausbau, indem sie den Zusammenhang zwischen gesellschaftlichen Verände-rungen und den individuellen Aneignungsprozessen von Sprecher*innen zu begreifen helfen.
Rhythms, i.e. periodic sequences of events or states, are a ubiquitous feature of physiological systems such as the heart, the lungs or the brain. For the brain in particular, the diversity of rhythms is remarkable, ranging from low frequency rhythms in the slow/delta band (0.5-4 Hz) during sleep to gamma band oscillations (30-120 Hz) rhythms during alert behavior, all expressed in various brain areas and at various spatial scales. To understand whether these rhythms subserve a function for the organism it is important to also understand the underlying mechanisms that generate them. While the generation of some rhythms appear to be well-understood, e.g. sleep spindles, others such as the cortical beta rhythm (13-30 Hz) have remained elusive.
Understanding the generation of a brain rhythm involves multiple spatial scales, from identifying intracellular mechanisms such as the contribution of individual transmembrane currents to studying how specific neuronal populations or areas affect the full physiological rhythm present in the intact, highly interconnected brain. The aim of this work has been to delineate the mechanistic contributions of individual brain areas to the in vivo generation of two particular rhythms present in efferent areas: (1) The first part of this work studies the influence of thalamocortical neurons on cortical slow/delta waves (0.5-4 Hz) of sleep that are sometimes also present in awake animals. (2) The second part is about the contribution of primary visual cortex to the beta rhythm (13-30 Hz) in extrastriate cortex of awake behaving animals.
In light of the global sea-level rise and climate change of the 21th century, it is important to look back into the recent past in order to understand what the future might hold. A multi-proxy data set was compiled to evaluate the influence of geomorphological and environmental factors, such as antecedent topography, subsidence, sea level and climate, on reef, sand apron and lagoon development in modern carbonate platforms through the Holocene. Therefore, a combination of remote sensing and morphological data from 122 modern carbonate platforms and atolls in the Atlantic, Indian and Pacific Oceans were conducted, along with a case study from the oceanic (Darwinian) barrier-reef system of Bora Bora, French Polynesia, South Pacific.
The influence of antecedent topography and platform size as factors controlling Holocene sand apron development and extension in modern atolls and carbonate platforms is hypothesized. Antecedent topography describes the elevation and relief of the underlying Pleistocene topography (karst) and determines the distance from the sea floor to the rising postglacial sea level. Maximum lagoon depth and marginal reef thickness, when available in literature, were used as proxies for antecedent topography. Sand apron proportions of 122 atolls and carbonate platforms from the Atlantic, Indian and Pacific Oceans were quantified and correlated to maximum lagoon depth, total platform area and marginal reef thickness. This study shows that sand apron proportions increase with decreasing lagoon depths. Sand apron proportions also increase with decreasing platform area. The interaction of antecedent topography and Holocene sea-level rise is responsible for variations in accommodation space and at least determines the extension of the lateral expansion of sand aprons. In general, sand apron formation started when marginal reefs approached relative sea level. Spatial and regional variations in sea-level history let sand apron formation start earlier in the Indo-Pacific region (transgressive-regressive) than in the Western Atlantic Ocean (transgressive).
The influence of sea level, antecedent topography and subsidence of a volcanic island on late Quaternary reef development was evaluated based on six rotary core transects on the barrier and fringing reefs of Bora Bora. This study was designed to revalue the Darwinian model, the subsidence theory of reef development, which genetically connects fringing reef, barrier reef and atoll development by continuous subsidence of the volcanic basement. Postglacial sea-level rise, and to a minor degree subsidence, were identified as major factors controlling Holocene reef development in that they have created accommodation space and controlled reef architecture. Antecedent topography was also an important factor because the Holocene barrier reef is located on a Pleistocene barrier reef forming a topographic high. Pleistocene soil and basalt formed the pedestal of the fringing reef. Uranium-Thorium dating shows that barrier and fringing reefs developed contemporaneously during the Holocene.
In the barrier–reef lagoon of Bora Bora, the influence of environmental factors, such as sea level and climate, tsunamis and tropical cyclones controlling Holocene sediment dynamics was evaluated based on sedimentological, paleontological, geochronological and geochemical data. The lagoonal succession comprises mixed carbonate-siliciclastic sediments overlying peat and Pleistocene soil. The multi-proxy data set shows variations in grain-size, total organic carbon (proxy for primary productivity), Ca and Cl element intensities (proxies for carbonate availability and lagoonal salinity) during the mid-late Holocene. These patterns could result from event sedimentation during storms and correlate to event deposits found in nearby Tahaa, probably induced by elevated cyclone activity. Accordingly, elevated erosion and runoff from the volcanic island and lower lagoonal salinity would be a result of rainfall during repeated cyclone landfall. However, Ti/Ca and Fe/Ca ratios as proxies for terrigenous sediment delivery peaked out in the early Holocene and declined since the mid-Holocene. Benthic foraminifera assemblages do not indicate reef-to-lagoon transport. Alternatively, higher and sustained hydrodynamic energy is probably induced by stronger trade winds and a higher-than-present sea level during the mid-late Holocene. The increase in mid-late Holocene sediment dynamics within the back-reef lagoon is supposed to display sediment-load shedding of sand aprons due to the oversteepening of slopes at sand apron/lagoon edges during their progradation rather than an increase in tropical storm activity during that time.
The influence of sea-level and climate changes on sediment import, composition and distribution in the Bora Bora lagoon during the Holocene is validated. Lagoonal facies succession comprises siderite-rich marly wackestones, foraminifera-siderite wackestones, mollusk-foraminifera marly packstones and mollusk-rich wackestones during the early-mid Holocene, and mudstones since the mid-late Holocene. During the early Holocene, enhanced weathering and iron input from the volcanic island due to wetter climate conditions led to the formation of siderite within the lagoonal sediments. The geochemical composition of these siderites shows that precipitation was driven by microbial activity and iron reduction in the presence of dissolved bicarbonate. Chemical substitutions at grain margins illustrate changes in the oxidation state and probably reflect changes in pore water chemistry due to sea-level rise and climate change (rainfall). In the late Holocene, sediment transport into the lagoon is hampered by motus on the windward side of the lagoon, which led to early submarine lithification within the lagoon.
Bewegung und sportliche Aktivität fördern die Gesundheit des Organismus und senken das Risiko chronischer Krankheiten. Sie bewirken dabei eine Vielzahl von physiologischen und biochemischen Veränderungen in der Skelettmuskulatur, insbesondere Muskelfasertyp-Transformation, Änderungen des Muskelmetabolismus und der Angiogenese. Unter basalen Bedingungen spielen reactive oxygen species (ROS) eine essentielle Rolle für die normale Muskelfunktion. Die Sport-induzierte Produktion von ROS erweist sich als wichtige physiologische Funktion für die Regulierung der Muskelkraft und der Anpassungsreaktion der Muskelfasern auf das Training. Eine der wichtigsten Quellen von ROS im kardiovaskulären System sowie in der Skelettmuskulatur ist die Familie der NADPH-Oxidasen (Nox). Im Unterschied zu anderen NADPHOxidasen ist Nox4 konstitutiv aktiv und produziert Wasserstoffperoxid (H2O2), welches in diversen zellulären Signalkaskaden involviert ist. Gleichzeitig gibt es zahlreiche Hinweise, dass Nox4 über die ROS-Produktion an Sport-induzierten Anpassungsprozessen in Skelettmuskeln beteiligt ist. Vor diesem Hintergrund wurde die Hypothese aufgestellt, dass Nox4 die Sport-induzierte Transformation von langsam- zu schnellkontrahierenden Muskelfasern, die Änderungen des Muskelstoffwechsels sowie die Sport-induzierte und die retinale Angiogenese beeinflusst. Die Untersuchung der Sportinduzierten Fasertyptransformation zeigte, dass die relative Zusammensetzung der Muskelfasern in Nox4-Knockout- und Wildtyp-Mäusen sehr ähnlich und somit von Nox4 unabhängig war. Obwohl das Training die Expression von PGC1α und GLUT4 sowie die AMPK-Aktivierung steigerte, hatte Nox4 nur eine geringe, nicht konstitutive Auswirkung auf den Muskelmetabolismus. Außerdem zeigte die vorliegende Studie, dass Nox4 die Sport-induzierte Angiogenese fördert. Nox4 führte zu einer erhöhten Stretch- und Hypoxie-induzierten Expression von VEGF in Myoblasten, die aus C2C12-Zellen und Satellitenzellen differenziert wurden. Als Folge des Nox4-Knockouts wurde nicht nur eine Reduktion der VEGF-Expression, sondern auch eine Steigerung der Expression von Angiopoietin 1 (Ang1) nachgewiesen, welches die Sport-induzierte Angiogenese hemmte. Das Fehlen von Nox4 schützte außerdem vor der retinalen Neoangiogenese und trug zu einer schnelleren Heilung nach der Oxygen-inducedretinopathy (OIR) bei, indem das Netzwerk neuer Gefäße mittels Ang1 stabilisiert wurde. Somit führt Nox4 zur Sport- und Hypoxie-induzierten Angiogenese durch einen Doppelmechanismus der Induktion und Aufrechterhaltung der VEGF Expression und der Hemmung von Ang1.
Water is scarce in semi-arid and arid regions. Using alternative water sources (i.e. non-conventional water sources), such as municipal reuse water and harvested rain, contributes to using existing water resources more efficiently and productively. The aim of this study is to evaluate the two alternative water sources reuse water and harvested rain for the irrigation of small-holder agriculture from a system perspective. This helps decision and policy makers to have proper information about which system and technology to adopt under local conditions. For this, the evaluation included ecologic, societal, economic, institutional and political as well as technical aspects. For the evaluation, the study area in central-northern Namibia was chosen in the frame of the research and development project CuveWaters. The main methods used include a mathematical material flow analysis, the computation and modelling of crop requirements, a multi-criteria decision analysis using the Analytical Hierarchy Process (AHP) method and a financial cost-benefit analysis. From a systemic perspective, the proposed novel systems were compared to the exciting conventional infrastructure. The results showed that both water reuse and rainwater harvesting systems for the irrigation of small-holder horticulture offer numerous technological, ecologic, economic, societal, institutional and political benefits. Rainwater harvesting based gardens have a positive benefit-cost ratio under favorable conditions. Government programs could fund the infrastructure investment costs, while the micro-entrepreneur can assume a micro-credit to finance operation and maintenance costs. Installing sanitation in informal settlements and reusing municipal water for irrigation reduces the overall water demand of households and agriculture by 39%, compared to improving sanitation facilities in informal settlements without reusing the water for agriculture. Given that water is the limiting factor for crop fertigation, the generated nutrient-rich reuse water is sufficient to annually irrigate about 10 m2 to 13 m2 per sanitation user. Compared to crop nutrient requirements, there are too many nutrients in the reuse water. Thus when using nutrient-rich reuse water, no use of fertilizers and a careful salt management is necessary. When comparing this novel system with improved sanitation, advanced wastewater treatment and nutrient-rich water reuse to the conventional and to two adapted systems, results showed that the novel CuveWaters system is the best option for the given context in a semi-arid developing country. Therefore, the results of this study suggest a further roll-out of the novel CuveWaters system. The methodology developed and the results of this study demonstrated that taking sanitation users into consideration plays a major role for the planning of an integrated water reuse infrastructure because they are the determinant factor for the amount of available nutrient-rich reuse water. In addition, it could be shown that water reuse and rainwater harvesting systems for the irrigation of small-scale gardens provide a wide range of benefits and can be key to using scarce water resources more efficiently and to contributing to the Sustainable Development Goals.
FUSE Binding Protein 1 (FUBP1) is a transcriptional regulator, which is overexpressed in various cancer entities, including hepatocellular carcinoma (HCC) and colorectal cancer (CRC). It fulfills pro-proliferative and anti-apoptotic functions in cancer cells, resulting in increased proliferation and reduced sensitivity towards apoptotic stimuli.
Previously, camptothecin (CPT) and its clinically used analog 7-ethyl 10hydroxycamptothecin (SN-38) were shown to inhibit FUBP1 in biophysical interaction displacement assays (AlphaScreen; surface plasmon resonance, SPR), and first insights into the cellular effects of FUBP1 inhibition were obtained. CPT and SN-38 are known to potently inhibit topoisomerase 1 (TOP 1), and until today, these inhibitors were thought to be specific for this target. This could be disproved by our FUBP1 binding studies. An open issue, which is addressed in this thesis, was the contribution of FUBP1 inhibition to SN-38-mediated apoptosis apoptosis.
During this thesis, a low micromolar efficacy of CPT/SN-38-induced inhibition of FUBP1 binding to the Far Upstream Sequence Element (FUSE) oligonucleotide of p21 was determined. Furthermore, FUBP1 was for the first time shown to directly interact with a potential FUSE sequence upstream of the transcription start in pro-apoptotic gene BIK. In proof of-principle experiments, an effective inhibition of the binding of FUBP1 to the FUSE BIK DNA by CPT/SN-38 was verified.
One of the main goals of this thesis was to further elucidate the contribution of cellular FUBP1-inhibition by CPT/SN-38 to the anti-cancer potential of these substances. For this purpose, the TOP 1 mutant and TOP 1 wild type colorectal cancer sub-cell lines HCT116 G7 and HCT116 S were used. CPT/SN-38 was shown to induce apoptosis in single and combinatorial treatments with mitomycin c (MMC), independently of the TOP 1 mutation status of the cells. Furthermore, a prominent induction of a FUBP1 target gene signature was observed upon treatment of both cell lines with CPT/SN-38. Consequently, CPT/SN-38 was able to fulfill its anticancer effects in these cells, although TOP 1 could not be the main target in the mutant cell line.
In a second approach to gain indirect evidence for FUBP1 dependent effects of CPT/SN-38, the TOP 1-specific inhibitors topotecan (TTN) and β lapachone (BL) were used for the treatment of HCC and CRC cell lines. Interestingly, the TOP 1 inhibitors TTN and BL exhibited a reduced potency in apoptosis induction compared to the dual (FUBP1 and TOP 1) inhibitor SN-38.
Finally, two independent screens for a specific FUBP1 inhibitor were performed. In the first approach, a small number of structural and functional CPT-derivatives that exhibited a reduced inhibitory potential against TOP 1, were tested for their ability to interfere with the FUBP1/FUSE binding. Two particular indenoisoquinoline derivatives revealed potent in vitro inhibition of FUBP1 with low micromolar IC50 values.
In a second approach, previously identified candidate FUBP1 inhibitors that had been isolated from the Maybridge Hit Finder library served as lead structures for a structure activity relationship (SAR) study of the inhibition of FUBP1 binding to the FUSE oligonucleotide. After two cycles of optimization, a medium-potent FUBP1 inhibitor was obtained that induced effective deregulation of FUBP1 target genes in cell culture experiments.
Embryonale Stammzellen (ESCs) sind ein wichtiges Werkzeug zur Untersuchung der frühen embryonalen Entwicklung. ESCs können mit Hilfe neuer Technologien zur Modifikation von Genen (z.B. mit dem CRISPR/Cas9 System) genetisch manipuliert werden. Daraus resultierende „knockout“ ES Zelllinien können helfen, die physiologische Rolle von Proteinen während der Differenzierung zu verstehen.
Transkriptionsfaktoren, die schnell und spezifisch Signalwege regulieren, spielen während der Embryonalentwicklung und während der Differenzierung von ESCs in vielen verschiedenen Zelltypen eine essentielle Rolle. Der Transkriptionsregulator „Far Upstream Binding Protein 1“ (FUBP1) ist ein Protein, welches eine ganz bestimmte einzelsträngige DNA Sequenz, das „Far Upstream Sequenz Element“, erkennt, bindet, und dadurch Gene wie z.B c-myc oder p21 reguliert. Mit der Entwicklung zweier Fubp1 Genfallen Mausstämme (Fubp1 GT) sollte die Frage nach der physiologischen Funktion von FUBP1 beantwortet werden. Die homozygoten FUBP1-defizienten GT Embryonen sterben im Mutterleib ungefähr am Tag E15.5 der Embryonalentwicklung. Sie sind kleiner als Wildtypembryonen und zeigen ein anämisches Aussehen. Daher wurden diese Mausmodelle hinsichtlich der Hämatopoese untersucht, die zu diesem Zeitpunkt vor allem in der Leber stattfindet. Es konnte eine signifikante Reduktion der hämatopoetischen Stammzellen (HSCs) festgestellt werden und zusätzlich war die langfristige Repopulation der FUBP1-/--Stammzellen im Knochenmark in Transplantationsexperimenten reduziert.
In der vorliegenden Arbeit wurde die Rolle von FUBP1 in einem weiteren Stammzellsystem analysiert und gleichzeitig seine Bedeutung in anderen Zelltypen der frühen Embryonalentwicklung untersucht.
Die Quantifizierung der FUBP1 Expression in den ESCs und während der Differenzierung zu sogenannten `embryoid bodies` (EBs) zeigten eine starke Expression auf mRNA- und auf Proteinebene. Nach der erfolgreichen Optimierung der Differenzierung von murinen ESCs wurden Fubp1 „knockout“ (KO) ESC Klone mit Hilfe der CRISPR/Cas9 Technologie etabliert. Die molekularbiologische Analyse der ESCs zeigte eine signifikante Erhöhung der Oct4 mRNA-Expression, während Nanog und die Differenzierungsmarker Brachyury, Nestin und Sox17 unverändert und in vergleichbarer Menge zu den Kontrollen vorhanden waren. Während der Differenzierung der Fubp1 KO Klone zu EBs zeigte sich eine signifikante Reduktion mesodermaler Marker wie Flk-1, SnaiI, Snai2, Bmp4 und FgfR2. Mit Hilfe durchflusszytometrischer Analysen bestätigte sich die verzögerte Bildung mesodermaler Zellen (Brachyury- und Flk-1-exprimierender Zellen) in den Fubp1 KO Klonen der EBs an den Tagen 3, 4 und 5 nach Beginn der Differenzierung.
Die Anwendung einer Ko-Kultivierung auf OP9 Zellen zur Differenzierung der ESCs in hämatopoetische Linien sollte zeigen, ob der Fubp1 KO ESCs ein Defekt in der frühen Entwicklung hämatopoetischer Stammzellen zu beobachten ist. Erneut konnte am Tag 5 der ESC-Differenzierung in der OP9 Ko-Kultur eine signifikante Reduktion der mesodermalen (Flk-1+) Zellen festgestellt werden. Die weitere Differenzierung zu hämatopoetischen CD45+ Zellen zeigte jedoch keinen Unterschied im prozentualen Anteil CD45+ Zellen am Tag 12 der Differenzierung. Auch die gezielte Differenzierung zu erythroiden Zellen durch Zugabe des Zytokins EPO zum Medium zeigte keinen signifikanten Unterschied im Differenzierungsgrad der erythroiden Zellen zwischen Kontroll- und Fubp1 KO Klonen.
In weiteren Experimenten habe ich in dieser Arbeit die Expression von FUBP1 in WT Embryos an den Tagen E9.5 und E13.5 der Embryonalentwicklung untersucht. Hierbei zeigte sich in beiden Entwicklungsstadien eine immunhistochemische Anfärbung von FUBP1 in den meisten Zellen des Embryos. Die Annahme, dass die Abwesenheit von FUBP1 in der Embryonalentwicklung zu verstärkten apoptotischen Vorgängen führen könnte und gleichzeitig die massive Expansion von Zellen gestört sein könnte wurde mit Hilfe immunhistochemischer Färbung von „cleaved Caspase 3“ (Apoptosemarker) und „Ki-67“ (Proliferationsmarker) in den homozygoten Fubp1 GT Embryos an den Tagen E9.5 und E13.5 nicht bestätigt.
Die Ergebnisse dieser Arbeit lassen darauf schließen, dass die Regulation von Apoptose und Proliferation durch FUBP1 während der Embryonalentwicklung nicht die Hauptrolle von FUBP1 darstellt. Es zeigte sich jedoch, dass FUBP1 als Transkriptionsregulator wichtig für die mesodermale Differenzierung von ESCs ist. Zu beobachten war, dass es in den FUBP1-defizienten ESCs zu einer Verzögerung der mesodermalen Differenzierung kommt. Es konnte bereits gezeigt werden, dass FUBP1 essenziell für die Selbsterneuerung von HSCs ist. Dies macht deutlich, dass FUBP1 neben der Proliferation und Apoptose ein breiteres Spektrum an Signalwegen reguliert, die für Stammzellen und deren Differenzierung von Bedeutung sind.
Ziel:
Vergleich der Veränderung der mütterlichen Einstellung zur Geburt anhand von Hebammen geführten Geburtsvorbereitungskursen oder hypnoreflexogenem Training zur Geburtsvorbereitung.
Methode:
Zu Beginn und nach Beendigung der Kurse wurde die mütterliche Einstellung zur Geburt unter Zuhilfenahme des Osgood-Ertel-Eindrucksdifferenzials gemessen. Der Gießen-Test zur Persönlichkeitsbeurteilung wurde einmalig angewendet.
Ergebnisse:
213 Frauen waren in die Studie eingeschlossen. 155 davon nahmen an, von Hebammen geführten, Geburtsvorbereitungskursen teil. 58 Frauen absolvierten ein hypnoreflexogenes Training. Es waren zu Beginn der Kurse keine statistisch signifikanten Unterschiede feststellbar in Bezug auf die Charakteristiken der Teilnehmerinnen sowie im Gießen-Test und in den Ergebnissen des Osgood-Ertel-Eindrucksdifferenzials. Nach der von Hebammen geführten Geburtsvorbereitung wurde die Geburt negativer wahrgenommen(Freudlosigkeit und Trübung in der Valenz-Dimension [p < 0,05]), während die Geburt nach dem Hypnosetraining emotional positiver bewertet wurde (Freude
und Harmonie in der Valenz-Dimension [p < 0,01] sowie Helligkeit [p < 0,05]).
Zusammenfassung:
Hypnoreflexogenes Selbsthypnosetraining zur Geburtsvorbereitung scheint stärkere und positivere mütterliche emotionale Veränderungen in Bezug auf die
Einstellung zur Geburt auszulösen als konventionelle, von Hebammen geführte Geburtsvorbereitungskurse. Weitere retrospektive randomisierte Studien sind nötig, um diese Ergebnisse zu überprüfen.
Zur vollständigen Charakterisierung der Hochstrom-Protonenquelle im Rahmen des FRANZ-Projektes war es notwendig, die Emittanz dieser zu bestimmen. Die vorliegende Arbeit befasst sich mit der Entwicklung zweier unterschiedlicher Emittanz-Messsysteme, welche in der Lage sind, im kritischen Einsatzbereich hinter der Ionenquelle die Emittanz zu bestimmen.
Die grundsätzliche Problematik der Emittanzmessung an Hochstrom-Ionenquellen liegt in den besonderen Anforderungen, die an diese Messsysteme gestellt werden. Zum einen müssen diese extrem hohe Strahlleistungsdichten und Strahlströme verarbeiten können, ohne Schaden zu nehmen. Zum anderen, was die besondere Herausforderung darstellt, ist es notwendig, dass sie unempfindlich gegenüber Hochspannungsüberschläge sind, da es naturgemäß an einer Ionenquelle zu Hochspannungsüberschlägen kommen kann, welche die sensible und teure Messelektronik schädigen können.
Aus diesem Grund wurde eine Pepperpot-Emittanz-Messanlage weiterentwickelt, welche komplett ohne hochspannungsempfindliche Elektronik auskommt. Diese besteht aus einem effizient wassergekühlten Messkopf mit einer Lochblende aus einer Wolframlegierung. Die Lochgeometrie wurde an die zu vermessende Ionenquelle angepasst. Anstelle einer Multichannelplate und / oder eines Leuchtschirms kommt eine mit Öl vorbehandelte Aluminiumplatte als Schirm zum Einsatz. Aufgrund der Wechselwirkung der, durch die Lochblende hindurch driftenden, Teilstrahlen mit der Oberfläche des Schirms, bilden sich auf diesem, mit bloÿem Auge sichtbare, Kohlenstoffabdrücke aus. Aus der Lage im Ortsraum und der Intensitätsverteilung der einzelnen Abdrücke kann die Phasenraum-Verteilung berechnet werden. Der Nachweis, dass die Intensitätsverteilung der Kohlenstoffabdrücke proportional zur Strahlstromdichtenverteilung eines jeden Abdrucks ist, wurde im Rahmen der Grundlagenuntersuchungen erbracht. Parallel wurde eine zweite, konventionelle Schlitz-Gitter-Emittanz-Messanlage entwickelt und aufgebaut.
Für die Auswertung der Rohdaten wurde eine Analysesoftware entwickelt, welche kompatibel zu beiden Messsystemen ist. Mittels dieser kann aus den Rohdaten die Phasenraum-Verteilung, die Emittanzen (Lage und Fläche) berechnet und in verschiedenen Schnittebenen graphisch dargestellt werden. Ein Hauptaspekt lag in der notwendigen Untergrundreduktion. Insbesondere bei der Analyse der Pepperpot-Schirme tritt bei der Digitalisierung derselben eine nicht physikalische Veränderung der Intensitätsverteilung der Kohlenstoffabdrücke auf. Die erfolgreiche Separation der Abdrücke vom Hintergrund war von entscheidender Bedeutung.
Mit beiden Emittanzmesssystemen konnte im Rahmen dieser Arbeit die Emittanz der FRANZ-Hochstrom-Protonenquelle bestimmt und Abhängigkeiten diverser Strahlparameter untersucht werden. Dabei zeigen die Ergebnisse beider Messsysteme eine sehr gute Übereinstimmung, was die Leistungsfähigkeit des Pepperpot-Messsystems in diesem Einsatzbereich bestätigt.
Für die Erzeugung der, im Rahmen verschiedener Emittanzmessungen, benötigten Plasmadichten wurde die eingespeiste Bogenleistung um 265% von 2.85kW auf 7.56kW erhöht. Die geringe Varianz der gemessenen Emittanzen lässt den Schluss zu, dass sich die Ionentemperatur im Rahmen der Messgenauigkeit in dem untersuchten Bereich nicht merklich ändert. Dies ist insofern bemerkenswert, da dies bedeutet, dass sich die Ionentemperatur nicht signifikant verändert hat, obwohl die Leistung im Plasma stark erhöht wurde.
Im Laufe der Grundlagenuntersuchungen des Pepperpot-Systems wurde festgestellt, dass es unter bestimmten Voraussetzungen zur Bildung von zwei Kohlenstoffabdrücken pro Blendenloch kommen kann. Mit Hilfe von Strahlsimulationen mittels dem Code IGUN sowie vergleichenden Emittanzmessungen konnte nachgewiesen werden, dass bei der Extraktion im sogenannten angepassten Fall zwei Teilstrahlen extrahiert werden. Durch eine geringfügige Erhöhung der Perveanz können diese beiden Teilstrahlen in einen laminaren Ionenstrahl überführt werden.
Im Hinblick auf die Konditionierung der FRANZ-LEBT wurde erstmals im Institut der Transport eines Hochstrom-Ionenstrahls durch einen Solenoiden sowie die Auswirkungen dessen auf die Strahlemittanz untersucht. Aufgrund des projektierten Protonenstroms von Ip = 50mA wurden diese Untersuchungen mit einem vergleichbaren Protonenstrom und einer Strahlenergie von E = 55keV durchgeführt.
Darüber hinaus wurde die zeitliche Entwicklung der Emittanz innerhalb eines Strahlpulses (80Hz,1ms,Ip = 56mA,It = 70mA) hinter dem Solenoiden untersucht. Eine Analyse zeigt, dass die Strahlemittanz innerhalb der Messgenauigkeit entlang des Pulsplateus nahezu konstant bleibt. Jedoch ändert sich die Divergenz des Strahlkerns innerhalb des Zeitraumes des Pulsanstiegs, aufgrund der Raumladungskompensation sowie des ansteigenden Stroms.
In der Experimentierhalle der Physik am Campus Riedberg der Goethe – Universität wird gegenwärtig die Beschleunigeranlage FRANZ aufgebaut. FRANZ steht für Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum. Die Anlage bietet vielfältige Experimentiermöglichkeiten in der Untersuchung intensiver, gepulster Protonenstrahlen. Ein Forschungsschwerpunkt an den sekundären Neutronenstrahlen sind Messungen zur nuklearen
Astrophysik. Die Neutronen werden durch einen 2 MeV Protonenstrahl mittels der Reaktion 7Li (p, n) 7Be erzeugt. Die geplanten Experimente erfordern sowohl eine hier weltweit erstmals realisierte Pulsrepetitionsrate von bis zu 250 kHz bei Pulsströmen im 100 mA – Bereich als auch eine extreme Pulskompression auf eine Nanosekunde bei dann auftretenden Pulsströmen im Ampere – Bereich. Daneben ist auch ein Dauerstrich – Strahlbetrieb im mA – Strombereich möglich. Auch viele einzelne Beschleunigerkomponenten wie die Ionenquelle, der Chopper zur Pulsformung, die hochfrequent gekoppelte RFQ-IH-Kombination, der Rebuncher in Form einer CH – Struktur und der Bunchkompressor sind Neuentwicklungen. Mittlere Strahlleistungen von bis zu 24 kW treten im Niederenergiestrahltransportbereich auf, da die Ionenquelle grundsätzlich im Dauerstrich zu betreiben ist, auch bei Hochstrom mit hohen Pulsrepetitionsraten. Der Personen- und Geräteschutz spielt damit auch eine wesentliche Rolle bei der Auslegung des Kontrollsystems für FRANZ. Der Aufbau von FRANZ und seine wesentlichen Komponenten werden in Kapitel 2 erläutert. Die vielen unterschiedlichen Komponenten wie Hochspannungsbereich, Magneten, Hochfrequenzbauteile und Kavitäten, Vakuumbauteile, Strahldiagnose und Detektoren machen plausibel, dass auch das Kontrollsystem für eine solche Anlage speziell ausgelegt werden muss. In Kapitel 4 werden zum Vergleich die Konzepte zur Steuerung und Regelung aktueller, großer Beschleunigerprojekte aufgezeigt, nämlich für die „European Spallation Source ESS“ und für die „Facility for Antiproton and Ion Research FAIR“. In der vorliegenden Arbeit wurde die Ionenquelle als komplexe Beschleunigerkomponente ausgewählt, um Entwicklungen zur Steuerung und Regelung durchzuführen und zu testen. Zum Anfahren und Betreiben der Ionenquelle wurde ein Flussdiagramm (Abb. 5.15) entwickelt und realisiert. Im Detail wurden Untersuchungen zur Abhängigkeit der Heizkathodenparameter von der Betriebsdauer gemacht. Daraus konnte ein Algorithmus zur Vorhersage eines rechtzeitigen Filamentaustausches abgeleitet werden. Weiterhin konnte die Nachregelung des Kathodenheizstromes automatisiert werden, um damit die Bogenentladungsspannung innerhalb eines Intervalls von ± 0.5 V zu stabilisieren. Das Anfahren des Filamentstroms wurde ebenfalls automatisiert. Dazu wird die Vakuumdruckänderung in Abhängigkeit der Filamentstromerhöhung gemessen, ausgewertet und daraus der nächste erlaubte Stromerhöhungsschritt abgeleitet. Auf diese Weise wird der Betriebszustand schneller und kontrollierter erreicht als bei manuellem Hochfahren. Das Ziel eines unbemannten Ionenquellenbetriebs ist damit näher gerückt. In einem ersten Test zur Komponentensteuerung und zur Datenaufnahme wurde ein Ionenstrahl extrahiert und durch den ersten Fokussierungsmagneten – einen Solenoiden – transportiert. Es wurde der Erregungsstrom des Solenoiden sowie die Strahlenergie automatisch durchgefahren, die Daten abgespeichert und daraus ein Kontourplot zum gemessenen Strahlstrom hinter der Fokussierlinse erstellt (Abb. 5). Die vorliegende Arbeit beschäftigt sich nur mit den „langsamen“ Steuerungs- und Regelungsprozessen, während die schnellen Prozesse im Hochfrequenzregelungssystem unabhängig geregelt werden. Neben der Überwachung des Betriebszustandes aller Komponenten werden auch alle für den Service und die Personensicherheit benötigten Daten weggeschrieben. Das System basiert auf MNDACS (Mesh Networked Data Acquisition and Control System) und ist in JAVA geschrieben. MNDACS besteht aus einem Kernel, welcher die Komponententreiber-Software sowie den Netzwerkserver und das graphische Netzwerkinterface (GUI) betreibt. Weterhin gehört dazu das Driver Abstraction Layer (DAL), welches den Zugang zu weiteren Computern oder zu lokalen Treibern ermöglicht. CORBA stellt die Middleware für Netzwerkkommunikation dar. Dadurch wird Kommunikation mit externer Software geregelt, weiterhin wird die Umlegung von Kommunikation im Fall von Leitungsunterbrechungen oder einem lokalen Computerabsturz festgelegt. Es gibt bei FRANZ zwei Kontrollebenen: Über Ethernet läuft die „High Level Control“ und die Datenverarbeitung. Über die „Low Level Control“ läuft das Interlock – und Sicherheitssystem. Die Netzwerkverbindungen laufen über 1 Gb Ethernet Links, womit ein schneller Austausch auch bei lokalen Netzwerkstörungen noch möglich ist. Um bei Stromausfällen das Computersystem am Laufen zu halten, wurde im Rahmen dieser Arbeit ein „Uninterruptable Power Supply“ UPS beschafft und erfolgreich am Hochspannungsterminal getestet.
Basierend auf den Daten der Erhebung „Gesundheit in Deutschland Aktuell“ von 2010 (GEDA2010)vom Robert Koch-Institut wird in dieser Dissertation der Frage nachgegangen, wie sich
Arbeitsbedingungen auf die Gesundheit und das Gesundheitsverhalten auswirken und eine systematische Analyse für Deutschland durchgeführt. Dabei werden sowohl Aspekte der Geschlechterforschung als auch der Erforschung sozialer Ungleichheiten mitbetrachtet. Die Ergebnisse liefern unteranderem Hinweise darauf, dass Gesundheitsverhalten als Coping-Strategie in stressreichen Arbeitssituationen, die beispielsweise durch Leistungsdruck oder Schichtarbeit gekennzeichnet sind, genutzt wird.
Die vorliegende Studie vermittelt einen epidemiologischen Überblick über das mit Haut- und Nagelläsionen assoziierte Pilzspektrum im Westen Panamas. Hierzu wurden Proben von vermutlich durch Pilzinfektionen verursachten Haut- sowie Nagelläsionen gesammelt und zum Anlegen von Kulturen verwendet. Die isolierten Pilze wurden basierend auf dem D-H-S System (Rieth), anhand morphologischer Merkmale, rDNA Sequenzdaten sowie phylogenetischen Analysen klassifiziert und mit Hilfe von Literaturdaten sowie physiologischen Eigenschaften als saprotrophe, opportunistische oder pathogene Organismen beurteilt. In Panama wurden 52 Proben von 51 Personen gesammelt, wobei das Material von 42 Haut- und Nagelläsionen der Füße, vier Läsionen der Fingernägel, zwei Chromomykosen, einer Tinea nigra und drei sonstigen Hautläsionen stammt. Bei 75 Prozent (n = 39) der Proben konnten Pilze kultiviert und insgesamt 201 Pilzstämme isoliert und subkultiviert werden. Hiervon wurden 50 Isolate (24,9 %) als Dermatophyten, 24 Stämme (11,9 %) als Hefen und 127 Isolate (63,2 %) als Schimmelpilze klassifiziert. Bei 19 Probanden (48,7 %) konnten Dermatophyten isoliert werden, wobei aus dem Probenmaterial von 12 Personen (63,2 %) ebenfalls andere Pilzarten nachgewiesen wurden. Von zwei Läsionen (5,1 %) wurden nur Hefen isoliert, wobei einmal eine Schwarze Hefe kultiviert wurde. In dem Material acht weiterer Proben (20,5 %) wurden Schimmelpilze und Hefestämme nachgewiesen und bei zehn Probanden (25,6 %) konnten aus dem Probenmaterial nur Schimmelpilze kultiviert werden. 172 Isolate wurden taxonomisch klassifiziert und 44 Arten aus 25 Gattungen, 17 Familien, 15 Ordnungen, sechs Klassen sowie den Abteilungen Ascomycota oder Basidiomycota zugeordnet. Die Ascomyceten stellen mit 164 Stämmen 40 verschiedener Arten aus 23 Gattungen, 15 Familien, 11 Ordnungen und vier Klassen die am häufigsten isolierte und vielfältigste Gruppe dar, während die Basidiomycota nur mit acht Isolaten vier verschiedener Arten zwei unterschiedlicher Gattungen, Familien, Ordnungen und Klassen nachgewiesen wurden. Im Rahmen dieser Arbeit wurden in Panama die anthropophilen Dermatophyten Trichophyton rubrum und T. interdigitale dokumentiert, wobei T. rubrum die am häufigsten isolierte Art darstellt. Kultivierte Hefen waren Candida albicans, C. duobushaemulonii, C. tropicalis, Hortaea werneckii, Sporobolomyces sp., Trichosporon asahii, T. japonicum und T. montevideense. Die Schimmelpilze stellen die größte und ökologisch diverseste Organismengruppe der kultivierten Pilze dar. So wurden von den untersuchten Läsionen sowohl humanpathogene Erreger, als auch opportunistische Arten und rein saprotrophe Pilze sowie mehrere Vertreter wahrscheinlich bisher nicht wissenschaftlich beschriebener Arten bzw. Gattungen nachgewiesen. Aus dem Probenmaterial wurden die Pilze Acremonium collariferum, Aspergillus awamori, A. clavatus, A. flavus, A. giganteus, A. heteromorphus, A. niger, A. ochraceus, A. sclerotiorum, A. versicolor, Chaetomium globosum, Chrysosporium tuberculatum, Cladosporium sphaerospermum, C. tenuissimum, Curvularia geniculata, C. lunata, Fonsecaea pedrosoi, Fusarium oxysporum, F. solani, Lophotrichus bartlettii, Microascus cinereus, Neoscytalidium dimidiatum, Penicillium commune, Scolecobasidium sp., Scopulariopsis carbonaria, S. croci, Verticillium cf. epiphytum und Wardomycopsis litoralis isoliert. Zudem wurden vier Isolate von zwei vermutlich neuen Arten der Gattung Acremonium (Bionectriaceae, Hypocreales), zwei Stämme mit einer genetischen Affinität zu der Gattung Cryptendoxyla (Cephalothecaceae, Sordariales) und jeweils ein mit den Gattungen Fusicladium (Venturiaceae, Venturiales), Knufia (Trichomeriaceae, Chaetothyriales) bzw. Rhexothecium (Eremomycetaceae, Dothideomycetidae) assoziierter Stamm kultiviert. Im Rahmen dieser Studie wurden A. giganteus, C. tenuissimum, L. bartlettii, S. carbonaria, S. croci, V. epiphytum und W. litoralis erstmalig von Mykosen des Menschen dokumentiert und die in der Literatur als Verursacher sowie Besiedler von Haut- und Nagelläsionen beschriebenen Organismen A. clavatus, A. flavus, A. niger, A. ochraceus, C. tropicalis, C. globosum, C. sphaerospermum, C. lunata, F. oxysporum, M. cinereus, P. commune, T. asahii, T. japonicum und T. montevideense wurden das erste Mal in klinischem Probenmaterial aus Panama nachgewiesen. Die Arten A. awamori, A. heteromorphus, C. globosum, C. tenuissimum, L. bartlettii, M. cinereus, P. commune, S. croci, T. asahii, T. japonicum, T. montevideense, V. epiphytum, W. litoralis und die Gattung Scolecobasidium wurden zudem erstmalig für Panama dokumentiert. Die Isolation von W. litoralis ist ebenfalls der erste Nachweis dieses Pilzes außerhalb von Spanien und auf dem amerikanischen Kontinent. Die große Anzahl im Rahmen dieser Arbeit beschriebener, bisher für die Wissenschaft unbekannter bzw. nicht in Panama dokumentierter Pilzarten lässt auf eine große mykologische Biodiversität in Panama schließen und zeigt den Bedarf weiterer Forschung.
Anankastic relatives
(2016)
This dissertation investigates a semantic puzzle in German concerning certain sentences with an intensional transitive verb and a modalized relative clause modifying its indefinite object. In their unspecific reading, the modal inside the relative clause seems to lack a semantic contribution and the construal of the relative clause appears spuriously ambiguous between a restrictive and an appositive reading. However, as a thorough discussion of a wide range of data reveals, the embedded modal is actually anaphoric to the matrix attitude and does contribute to the sentence meaning. But then, precisely due to its anaphoricity, this semantic contribution is restricted and in some cases very subtle; in particular, the semantic phenomenon under scrutiny cannot be analyzed as an instance of modal concord. Rather, previous observations on related data involving epistmic anaphoric modals and anankastic conditionals turn out to indicate the direction for an adequate analysis of the relevant semantic observations. For the restrictive construal, a conservative account is developed containing a fine-grained Lewis-Kratzer-style modal semantics, but with a twist: the anaphoricity of the modal is taken care of by restricting the anaphoricity of the modal to the ordering source of the matrix verb; moreover, the embedded modal receives a historical modal base. In this way compositionality issues and problems of cross-identification are avoided. Finally, the non-restrictive construal is analyzed as an instance of modal subordination, exploiting the well-studied parallel between appositive relatives and discourse anaphora.
In dieser Arbeit wurde YM155 anhand eines Neuroblastom-Zellmodells bezüglich seiner antitumoralen Wirkung, sowie möglicher Resistenzmechanismen untersucht. Mit Hilfe eines Viabilitäts-‚Screenings‘ wurde eine Auswahl von 113 chemosensitiven und chemoresistenten Neuroblastomzellen auf mögliche Kreuzresistenzen gegen YM155 untersucht. Hinsichtlich der IC50 Werte gegen YM155, lagen insgesamt 74 % der untersuchten Zelllinien im therapeutisch erreichbaren Bereich von unter 50 nM. Zusätzlich wurden Neuroblastom-, Mammakarzinom- und Prostatakarzinomzellen an eine klinisch relevante YM155 Konzentration adaptiert. Diese zeigten wiederum, dass durch die Adaptierung hervorgerufene Expressionsänderung des ABC-Transporters ABCB1 und des ‚solute carrier‘ Protein SLC35F2 eine bedeutsame Rolle hinsichtlich des Resistenzmechanismus gegen YM155 spielen. Durch den Einsatz von spezifischen ABCB1-Inhibitoren, als auch durch siRNA-vermittelte Reduzierung von ABCB1 konnte eine Abhängigkeit für die Wirksamkeit YM155 von ABCB1 in Neuroblastomzellen bestätigt werden. Des Weiteren wurde in den untersuchten Zelllinien ein Zusammenhang zwischen der Wirkung von YM155 und der Expression des ‚solute carrier‘ Proteins SLC35F2 hergestellt. Dazu wurden Zellen mit verminderter SLC35F2 Expression verwendet, welche durch Transduktion mit einem für eine SLC35F2 spezifische shRNA kodierenden Vektor etabliert wurden. Dabei führte eine verminderte SLC35F2 Expression zu einer starken Minderung der Sensitivität gegen YM155. Das Zusammenspiel dieser beiden Transporter und der damit verbundene Resistenzmechanismus gegen YM155, konnte in fast allen etablierten YM155-resistenten Zelllinien (UKF-NB-3rYM15520, 22RV1rYM155300, PC-3rYM15520, HCC-1806rYM15520 und MDA-MB-231rYM15520) gezeigt werden. Wobei diese Zellen unabhängig von der Tumorentität als Resistenzmechanismus gegen YM155 entweder eine signifikant induzierte ABCB1 Expression (verstärkter YM155 Efflux) und/oder eine verminderte SLC35F2 Expression (verringerter YM155 Influx) entwickelten. Außerdem konnte mit Hilfe der p53-depletierten Zelllinie UKF-NB-3pc-p53 eine Abhängigkeit der YM155 Wirkung vom Tumorsuppressor p53 nachgewiesen werden, wobei es durch die Depletierung von p53 zu einer verminderten Sensitivität der Zellen gegen YM155 kam. Zudem kam es durch die Nutlin-3 hervorgerufene p53 Aktivierung und Akkumulierung zu einer Verstärkung der YM155 Wirkung in den untersuchten Zellen. Diese Ergebnisse deuten darauf hin, dass der p53 Status von Zellen einen Einfluss auf deren YM155 Resistenz haben kann. Da in der Behandlung von Neuroblastomen neben der Chemotherapie auch Bestrahlung eingesetzt wird, wurde zusätzlich untersucht ob eine Adaptierung von Neuroblastomzellen an YM155 zu einer verminderten Sensitivität gegen Bestrahlung führen kann. Da die im Rahmen dieser Arbeit untersuchten UKF-NB-3 Zelllinien (UKF-NB-3 und UKF-NB-3rYM15520) eine ähnliche Sensitivität gegenüber der Bestrahlung aufwiesen, konnte kein Zusammenhang zwischen einer Adaptierung an YM155 und der Ausbildung einer Bestrahlungsresistenz gezeigt werden.
Ein weiterer wichtiger Teil dieser Arbeit war es, den primären Wirkmechanismus von YM155 in Neuroblastomzellen zu untersuchen. In vorangegangenen Studien wurde die vom Hersteller beschriebene Wirkung von YM155 als Survivin-Inhibitor in Frage gestellt. Stattdessen soll der primäre Apoptose-induzierende Effekt in erster Linie durch DNA-Schäden hervorgerufen werden, während die Survivin Inhibierung lediglich darauf folgen soll. In einer zeitlichen und konzentrationsabhängigen Kinetik der YM155 Behandlung konnte in UKF-NB-3 Zellen der genaue Zeitpunkt der Survivin-Inhibierung und der Induktion der DNA-Schadensantwort ermittelt werden. Dabei konnte in der vorliegenden Arbeit gezeigt werden, dass in Neuroblastomzellen als Antwort auf die YM155 Behandlung zuerst eine Survivin-Inhibierung erfolgt, und die DNA-Schadensantwort als Folge dieser induziert wird. Darüber hinaus belegte die siRNA-vermittelte Survivin-Inhibierung in UKF-NB-3 und UKF-NB-6, dass eine fehlende Survivin Expression die DNA-Schadensantwort induziert.
Zusammenfassend konnte in dieser Arbeit erstmals in YM155 adaptierten Neuroblastomzellen der Resistenzmechanismus gegen YM155 näher untersucht werden und darüber hinaus wurde demonstriert, dass die Wirkung von YM155 in Neuroblastomzellen nicht auf die Induktion der DNA-Schadensantwort beruht, sondern primär auf die Survivin-Inhibierung zurückzuführen ist.
Algorithms for the Maximum Cardinality Matching Problem which greedily add edges to the solution enjoy great popularity. We systematically study strengths and limitations of such algorithms, in particular of those which consider node degree information to select the next edge. Concentrating on nodes of small degree is a promising approach: it was shown, experimentally and analytically, that very good approximate solutions are obtained for restricted classes of random graphs. Results achieved under these idealized conditions, however, remained unsupported by statements which depend on less optimistic assumptions.
The KarpSipser algorithm and 1-2-Greedy, which is a simplified variant of the well-known MinGreedy algorithm, proceed as follows. In each step, if a node of degree one (resp. at most two) exists, then an edge incident with a minimum degree node is picked, otherwise an arbitrary edge is added to the solution.
We analyze the approximation ratio of both algorithms on graphs of degree at most D. Families of graphs are known for which the expected approximation ratio converges to 1/2 as D grows to infinity, even if randomization against the worst case is used. If randomization is not allowed, then we show the following convergence to 1/2: the 1-2-Greedy algorithm achieves approximation ratio (D-1)/(2D-3); if the graph is bipartite, then the more restricted KarpSipser algorithm achieves the even stronger factor D/(2D-2). These guarantees set both algorithms apart from other famous matching heuristics like e.g. Greedy or MRG: these algorithms depend on randomization to break the 1/2-barrier even for paths with D=2. Moreover, for any D our guarantees are strictly larger than the best known bounds on the expected performance of the randomized variants of Greedy and MRG.
To investigate whether KarpSipser or 1-2-Greedy can be refined to achieve better performance, or be simplified without loss of approximation quality, we systematically study entire classes of deterministic greedy-like algorithms for matching. Therefore we employ the adaptive priority algorithm framework by Borodin, Nielsen, and Rackoff: in each round, an adaptive priority algorithm requests one or more edges by formulating their properties---like e.g. "is incident with a node of minimum degree"---and adds the received edges to the solution. No constraints on time and space usage are imposed, hence an adaptive priority algorithm is restricted only by its nature of picking edges in a greedy-like fashion. If an adaptive priority algorithm requests edges by processing degree information, then we show that it does not surpass the performance of KarpSipser: our D/(2D-2)-guarantee for bipartite graphs is tight and KarpSipser is optimal among all such "degree-sensitive" algorithms even though it uses degree information merely to detect degree-1 nodes. Moreover, we show that if degrees of both nodes of an edge may be processed, like e.g. the Double-MinGreedy algorithm does, then the performance of KarpSipser can only be increased marginally, if at all. Of special interest is the capability of requesting edges not only by specifying the degree of a node but additionally its set of neighbors. This enables an adaptive priority algorithm to "traverse" the input graph. We show that on general degree-bounded graphs no such algorithm can beat factor (D-1)/(2D-3). Hence our bound for 1-2-Greedy is tight and this algorithm performs optimally even though it ignores neighbor information. Furthermore, we show that an adaptive priority algorithm deteriorates to approximation ratio exactly 1/2 if it does not request small degree nodes. This tremendous decline of approximation quality happens for graphs on which 1-2-Greedy and KarpSipser perform optimally, namely paths with D=2. Consequently, requesting small degree nodes is vital to beat factor 1/2.
Summarizing, our results show that 1-2-Greedy and KarpSipser stand out from known and hypothetical algorithms as an intriguing combination of both approximation quality and conceptual simplicity.
To understand neurodegenerative diseases is one of the major challenges of the 21st century. This also includes Alzheimer´s disease (AD), which represents a chronic neurodegenerative disorder, with long preclinical and prodromal phases (approx. 20 years) and an average clinical duration of 8–10 years. In the early phase of this disease, patients show deterioration of memory, difficulties in finding the right words for everyday objects or mood swings. The risk of AD grows exponentially with age, doubling approximately every 5 to 6 years. AD may contribute to 60–70% of all dementia cases, being the most common cause of this disease. Dementia is one of the major causes of disability and dependency among older people worldwide. The causes of the sporadic form of AD with late onset (LOAD) are not yet known, but it seems to be a result of multiple factors. Neuropathological features are extracellular senile plaques, containing beta-amyloid peptides (Aβ) and intracellular neurofibrillary tangles, containing paired helical tau proteins, which have been associated with neuronal loss and atrophy of the cerebral cortex. Thus, misfolded proteins seem to contribute to the pathogenesis, but are not the only players in the disease process. Developing feasible therapies is difficult due to the multifactorial pathology of AD. Currently approved drugs only attenuate symptoms, but do not cure the disease. Research into AD also has had several failures in terms of developing disease-modifying therapies. Thus, new therapeutic targets in order to develop a causal therapy are desperately needed. Since AD starts many years far before the first symptoms occur, new scientific approaches focus on the early stage, which are discussed to be important in aging and the onset of AD. Today, the hypothesis of the advanced mitochondrial cascade becomes more and more the leading model for LOAD, integrating physiological aging as the main risk factor. Thus, new interventions targeting mitochondrial dysfunction are of substantial interest. Accordingly, the efficacy of Dimebon and TRO19622 to ameliorate mitochondrial dysfunction in cellular and murine models of AD were investigated. Dimebon (Latrepirdine) was, originally developed in Russia as an H1-antiallergic drug. It might specifically interfere with mechanisms relevant for the cognitive decline, especially by improving impaired mitochondrial function and/or dynamics in AD. TRO19622 (Olesoxim) has been identified in a phenotypic screening approach to promote the survival of primary motor neurons. Olesoxim is easily absorbed by cells and accumulates in mitochondria. Olesoxim’s mode of action is not fully understood, however it has been shown to modulate mitochondrial membranes and interact with the voltage-dependent anion channel (VDAC) and the translocator protein (TSPO; also known as PBR). Thereby it inhibits mitochondrial permeability transition. In this study, the effects of Aβ overproduction on mitochondrial function were investigated. The effects of Dimebon and Olesoxim were examined, using a HEK cell line stably transfected with the Swedish APP double mutation (HEKsw) and un-transfected control cells (HEKut). Mitochondrial membrane potential, ATP concentrations, and respirometry were measured. Western Blot analysis of marker proteins for fission & fusion, autophagy, mitogenesis and mPTP formation were performed. Confocal laser scanning microscopy was introduced as a novel method to visualize mitochondrial dynamics. Olesoxim was also tested in Thy-1-C57BJ/6-APPSL mice representing a murine model of AD. For the in vivo model mitochondria from brain tissue were isolated and dissociated brain cells were prepared to determine respiration, lipid peroxidation, MMP, and ATP-levels. Both, the in vitro and in vivo models were compared and discussed in relation to human post-mortem data. The research was conducted in frame of the EU-project entitled „MITOTARGET“ (Mitochondrial dysfunction in neurodegenerative diseases: towards new therapeutics) funded under FP7-Health (http://cordis.europa.eu/result/rcn/54471_en.html). HEKsw cells showed an overall reduction in the mitochondrial respiration, a significant lower MMP, and significantly reduced ATP levels compared to HEKut cells. Mitochondrial mass was equal in both cell lines. In addition most mitochondria in HEKsw cells showed truncated morphology, followed by punctuated mitochondria. Levels of the fission related protein Drp were significantly elevated in HEKsw cells whereas protein levels of fusion related OPA were strongly reduced, leading to a shift in the distribution pattern towards shorter mitochondria. Moreover, HEKsw cells showed reduced mitochondrial density. Protein levels of the translocase of the inner mitochondrial membrane (TIMM50) were strongly diminished in HEKsw cells. The OXPHOS machinery is located in the inner membrane, where the MMP is build up and ATP is generated. Reduced TIMM50 levels in HEKsw indicated a reduction of the inner mitochondrial membrane, which could explain the described deficits in OXPHOS, MMP, ATP and mitochondrial morphology and density. Concentration of both mPTP markers, the voltage-depended anion channel (VDAC) and the peripheral benzodiazepine receptor (PBR), were broadly increased in HEKsw cells. Thy1-APPSL transgenic mice were characterized as in vivo model of AD. Those mice are modified to express the human form of APP, containing both, the Swedish (KM670/671NL) and the London (V717L) double mutations under the murine Thy1 promotor. Beginning at the age of 3 months, Thy1-APPSL mice develop elevated Aβ levels and mitochondrial dysfunction. Mitochondria isolated from brains of Thy-1-C57BJ/6-APPSL mice showed significant impaired respiration, resulting in a reduced MMP. However, ATP levels in dissociated brain cells did not differ compared to controls. Protein levels of FIS were unchanged, whereas Drp levels were significantly increased. Levels of the mitochondrial fusion marker optic atrophie-1 (Opa) protein were significantly reduced. Peroxisome proliferation-activated receptor gamma coactivator 1-alpha (PGC1) is a transcription factor, which represents a master regulator of mitochondrial biogenesis. PGC1 expression was significantly elevated in brains of Thy-1-C57BJ/6-APPSL mice. However, mitochondrial mass seemed to be equal in both mouse lines. Both LC3-Isoforms, the cytosolic and the autophagosomal form, were not changed in brains of Thy-1-C57BJ/6-APPSL mice, which indicates equal mitophagic activity. In brain homogenates, isolated from Thy-1-C57BJ/6-APPSL mice, both mPTP marker, VDAC and PBR, were considerably increased, which is in accordance with the findings in HEKsw cells. In conclusion, both, the cellular (HEKsw) and the animal model of AD (Thy1-APPSL) broadly match pathophysiological features, which have been found in post-mortem samples from AD patients. Thus, HEKsw cells and Thy1-APPSL mice seem to be suitable models to study new treatments against AD. Incubation of HEKsw cells with Dimebon resulted in a remarkable increase in respiratory activity and restored the MMP after impairing the cells with rotenon. Dimebon had no effects on ATP levels in both cell lines, neither after challenging cells with rotenon, nor under basal conditions. By adding Dimebon, citrate synthase (CS) activity in HEKsw cells was increased and mitochondrial morphology was shifted to a tubular shape. Dimebon further enhanced protein levels of Drp and resulted in the compensation of reduced OPA levels. Moreover, Dimebon restored the increased expression levels of the mPTP markers VDAC and PBR. Aβ1-40 levels were significantly decreased in HEKsw cells. However, changes in Aβ1-40 levels seemed to be too small, to solely explain the much larger effects of Dimebon on impaired mitochondrial function. In conclusion, Dimebon treatment restored diverse defects in Aβ overexpressing cells: Aβ levels were reduced, autophagy marker were increased, mitophagy as repair and renewal mechanism was elevated, mitochondrial mass and density were increased, OXPHOS capacity was restored, mitochondrial dynamics were balanced, mitochondrial shape showed a normal distribution, expression levels of the mPTP constituents were reduced, TIMM50 levels augmented to control levels and stress induced MMP and ROS levels were reduced. All these effects were observed after incubation of cells with a rather low concentration of 100 nmol/L. Based on these findings and in addition to already existing literature, Dimebon presents a potential therapeutic option for diseases with accompanied mitochondrial dysfunction. Although, clinical findings published so far are inconsistent. Olesoxim induced a general increase in respiratory activity and enhanced the electron transport (ETS) capacity in HEKsw cells. In addition it normalized the OXPHOS activity almost to control levels. However, incubation using different Olesoxim concentrations led to a dose independent decline in the MMP and decreased ATP levels. Adding Olesoxim caused a dose-dependent change in the length of mitochondria strongly shifting the pattern towards longer mitochondria. In HEKsw cells a reduced mitochondrial density was observed which was reversed by Olesoxim dose-dependently. Olesoxim completely compensated the severely reduced expression levels of TIMM50, but had no effects on TOMM22 levels. An unexpected finding was that 10 µM Olesoxim significantly increased Aβ1-40 levels. Effects of Olesoxim were also tested in vivo. Treatment of Thy-1-C57BJ/6-APPSL mice with Olesoxim restored the impaired MMP in dissociated brain cells, but had no effects on ATP-levels. Olesoxim increased the respiratory activity in isolated brain mitochondria and restored impaired respiration complex activities almost to control levels, without having an effect on CS activity. However, treatment with Olesoxim caused an increase of PGC1 protein levels in brains of Thy-1-C57BJ/6-APPSL mice,beyond basal levels of littermate controls. The mPTP marker proteins voltage-depended anion channel (VDAC) and peripheral benzodiazepine receptor (PBR) were significantly reduced. As well as in the cell models, treatment of Thy-1-C57 BJ/6-APPSL mice with Olesoxim significantly enhanced total human, soluble human and soluble mouse Aβ1-40 levels. Further investigation needs the observation that Olesoxim caused partly negative effects in controls. For instance, Olesoxim reduced the OXPHOS capacity and enhanced protein levels of VADAC and PBR in brains of C57BJ/6 littermate control mice, which could limit the applicability of Olesoxim in further preclinical studies.
Mikroalgen wird aufgrund ihrer photoautotrophen Lebensweise, ihrer meist einfachen Anzucht und ihres schnellen Wachstums ein großes Potential als Produzenten verschiedener Stoffe, wie beispielsweise den Sekundärmetaboliten der Carotinoidbiosynthese, zugesprochen. Zur Produktion solcher Stoffe bedarf es der Aufklärung der in einem Biosyntheseweg operierenden Enzyme und ihrer zugehörigen Gene.
In dieser Arbeit sollte einerseits durch genetische Modifikation der Carotinoidbiosynthese der Fucoxanthingehalt erhöht und andererseits die Produktion von Astaxanthin in P. tricornutum erreicht werden. Bisher fehlen experimentelle Nachweise über die Funktion, Regulation und die limitierenden Eigenschaften daran beteiligter Gene und deren Enzyme. Um dem Ziel der Arbeit näher zu kommen, wurden zuerst potentiell an der Regulation der Carotinoidbiosynthese beteiligte Gene ausgewählt und deren Enzyme funktionell charakterisiert. Eines dieser Enzyme ist das Eingangsenzym der Carotinoidbiosynthese, die Phytoen-Synthase. Die entsprechend annotierte putative Sequenz (psy #Pt56881) wurde zur Analyse herangezogen. Nachdem im Rahmen dieser Arbeit über die Komplementation in einem dafür ausgerichteten E. coli Stamm der funktionelle Nachweis der Phytoen-Synthase erbracht werden konnte, wurde untersucht, ob die Phytoen-Synthase einer lichtabhängigen Expression unterliegt und somit die Carotinoidsynthese im WT von P. tricornutum limitiert. Durch die Inhibierung der Phytoen-Desaturase mittels Norflurazon konnte die verstärkte Akkumulation des Produktes der Phytoen-Synthase, Phytoen, bei einem Transfer der P. tricornutum-Kulturen von Schwach- in Starklicht gezeigt werden. Die Expression der Phytoen-Synthase von P. tricornutum wird demnach durch die Lichtbedingungen reguliert und limitiert auch die Carotinoidsynthese. Ein weiteres an der Carotinoidsynthese beteiligtes Enzym ist die Zeaxanthin-Epoxidase. Sie bietet zugleich eine Möglichkeit, an dieser Stelle die Carotinoidsynthese in Richtung Astaxanthinproduktion umzulenken. Für P. tricornutum sind drei potentielle Genkandidaten (zep1: #Pt45845; zep2: #Pt56488; zep3: #Pt56792) annotiert, welche ebenfalls im Rahmen dieser Arbeit funktionell charakterisiert wurden. Der funktionelle Nachweis erfolgte dabei ebenfalls mittels eines Komplementationsansatzes in einem damit neu etablierten Expressionssystem mit npq2-Mutanten aus der Modellpflanze A. thaliana. Die Analyse der Transformanden zeigte eine Epoxidase-Aktivität des Produktes aus zep2 und zep3. Das Enzym Zeaxanthin-Epoxidase 2 weist dabei eine andere Spezifität auf als die Zeaxanthin-Epoxidase 3, welche funktionell betrachtet der Zeaxanthin-Epoxidase aus A. thaliana am nächsten kommt. Die Zeaxanthin-Epoxidase 2 akzeptiert im Unterschied zu Zeaxanthin-Epoxidase 3 neben Zeaxanthin auch andere Substrate wie Lutein mit nur einem 3 Hydroxy-β-Iononring und stellt damit einen validen Kandidaten für die Umwandlung von Diatoxanthin in Diadinoxanthin in P. tricornutum dar. Obwohl die Transkriptanalysen ausreichende Mengen an RNA von zep1 in A. thaliana zeigen und anhand eines zusätzlichen mit der Sequenz für GFP markierten zep1-Konstruktes in WT-Protoplasten von A. thaliana der Import in den Chloroplasten und die Expression nachgewiesen werden konnte, weist die Zeaxanthin-Epoxidase 1 zumindest in den A. thaliana-Transformanden keine Epoxidase-Aktivität auf. Des Weiteren zeigt die diurnale Expression in P. tricornutum, dass die Regulation der Zeaxanthin-Epoxidasen an den Bedarf photoprotektiver Pigmente angepasst wird. Während die Regulation des Transkript-Levels von zep2 und zep3 nahezu parallel laufen und ein gemeinsames Maximum aufweisen, zeigt das Transkript-Level von zep1 ein anderes Maximum.
Die gewonnenen Erkenntnisse wurden dann zur Steigerung der Synthesekapazität mittels genetischer Modifikation des Carotinoidsyntheseweges in P. tricornutum angewendet. Durch das Einbringen zusätzlicher Genkopien der Phytoen-Synthase in P. tricornutum konnte dabei eine deutliche Steigerung des Fucoxanthingehalts unter Schwachlichtbedingungen erreicht werden. Gleichzeitig konnte durch weitere inhibitorische Versuche mittels Norflurazon beim Transfer von Schwach- zu Starklicht demonstriert werden, dass die Carotinoidsynthese durch die Kombination der genetischen Modifikation mit der Phytoen-Synthase und Starklicht per se weiterhin gesteigert werden kann. Zusammen mit den Transkriptanalysen zeigen die Pigmentanalysen, dass es einen nicht-linearen Zusammenhang zwischen RNA-Menge und gebildeter Phytoenmenge gibt, welcher durch eine zusätzliche Substratlimitierung der Phytoen-Synthase erklärt werden kann.
Bevor das Herunterregulieren der Zeaxanthin-Epoxidasen in P. tricornutum durchgeführt und damit ein verstärkter Fluss zur Astaxanthinbildung erreicht werden sollte, wurde das Potential von P. tricornutum zur Astaxanthinproduktion überprüft. Hierfür wurde die β-Carotin-Ketolase (bkt #CrAEA35045.1) aus C. reinhardtii einmal ohne und zusätzlich mit verschiedenen Präsequenzen fusioniert separat in P. tricornutum eingebracht. Astaxanthin konnte trotz Nutzung funktionell bestätigter Präsequenzen aus der Literatur nicht nachgewiesen werden. Die Versuche zeigen damit, dass hier noch weitere Untersuchungen nötig sind, um mittels eines geeigneten Transportsystems Fremd-Proteine in den Chloroplasten von P. tricornutum einzubringen. Das Ausbleiben der Astaxanthinproduktion konnte an dieser Stelle nicht hinreichend geklärt werden.
Insgesamt schaffen die Ergebnisse dieser Arbeit eine weitere Grundlage, um die Carotinoidbiosynthese in P. tricornutum besser zu verstehen und diese mittels genetischer Modifikationen biotechnologisch nutzbar zu machen.
Die Beobachtung, dass Tumorzellen häufig eine Abhängigkeit gegenüber einer einzelnen und treibenden Mutation entwickeln, obwohl sie zahlreiche Mutationen aufweisen, bildet die Grundlage der mittlerweile etablierten, zielgerichteten Tumortherapie (Weinstein, 2002). Mit der Identifikation verantwortlicher Signalwege sowie beteiligter Signalkomponenten, sind Ansatzpunkte für diese Therapieform geschaffen worden, die bereits zu einigen Erfolgen in der Leukämie-, Brustkrebs- oder Lungenkrebsbehandlung geführt haben (Druker et al., 2001; Slamon et al., 2001; Kwak et al., 2010) . In vielen Fällen stellt sich jedoch ein Rückfall aufgrund der Ausbildung von Resistenzen ein oder auch das Nichtanschlagen der Therapien wird beobachtet (Ramos & Bentires-Alj, 2015).
Verschiedenste Mechanismen kommen dabei in Frage, doch häufig werden kompensatorische Veränderungen in den Signalwegen beobachtet, die schließlich zur Umgehung der Inhibition führen (Holohan et al., 2013). Grundlage hierfür ist die Redundanz und Verknüpfung der Signalwege mit- und untereinander, die es der Zelle im Sinne der Homöostase ermöglichen sich flexibel an ihre Umgebung anzupassen (Rosell et al., 2013; Sun & Bernards, 2014) . Daher ist es von äußerster Wichtigkeit, die Mechanismen der Inhibition im Hinblick auf die Signalwege der Zellen genauer zu verstehen, und dabei nicht nur die direkten, sondern auch die indirekten Effekte der Inhibition zu analysieren. So lassen sich Rückschlüsse auf den Einsatz zielgerichteter Medikamenten ziehen, die in besseren Therapiekombinationen resultieren und dadurch die Entstehung von Resistenzen verhindern.
Eine Hyper-Aktivierung von STAT3 sowie das dadurch induzierte Genmuster sind als starkes onkogenes Signal identifiziert worden, und spielen darüber hinaus an der Vermittlung von Resistenzen gegenüber Tumortherapien eine entscheidende Rolle. Durch seine Rolle in diversen zellulären Prozessen, beeinflusst STAT3 die Proliferation und das Überleben von Tumorzellen, ihr migratorisches und invasives Verhalten sowie ihre Kommunikation mit Stroma- und Immunzellen. (Bromberg et al., 1999; Wake & Watson, 2015) Sehr selten ist die aberrante Aktivierung des Transkriptionsfaktors auf eigene Mutationen zurückzuführen, vielmehr sorgen Treiber überhalb für diese (Johnston & Grandis, 2011; Kucuk et al., 2015).
In der vorliegenden Arbeit wurden verschiedene STAT3-Inhibitionen in unterschiedlichen Modellen verglichen um darüber Rückschlüsse auf Kriterien einer Therapie zu ziehen. In einem Gliommodell aus der Maus, dem eine v-SRC-Expression als Treiber zu Grunde liegt (Smilowitz et al., 2007), wurde eine indirekte, BMX-vermittelte STAT3-Inhibition mit einer zielgerichteten STAT3-Hemmung verglichen. BMX, die zur TEC-Kinase-Familie gehört, wird als STAT3-aktivierende Kinase beschrieben. In letzter Zeit wurde ihr Einfluss bei der Tumorentwicklung immer deutlicher (Dai et al., 2006; Hart et al., 2011; Holopainen et al., 2012). Unter anderem konnte in Glioblastom-Stammzellen eine BMX-vermittelte STAT3-Aktivierung als Treiber für die Selbsterneurungskapazität und das tumorigene Potential identifiziert werden (Guryanova et al., 2011). Mit dem Tyrosinkinase-Inhibitor Canertinib ist es gelungen, in den murinen Tu-2449-Gliomzellen eine BMX-vermittelte STAT3-Aktivierung nachzuweisen und zu inhibieren. Dies ist damit die erste Arbeit, in der Canertinib als BMX-Inhibitor in einem endogenen Zellsystem getestet wurde. Die einmalige Canertinib-Gabe resultierte in einem Zellzyklusarrest der G1-Phase und die Aufrechterhaltung der Inhibitorwirkung im Zelltod. Im Vergleich dazu konnte eine RNAivermittelte STAT3-Stilllegung nicht das Absterben dieser Zellen induzieren. Mit der Suche weiterer Zielstrukturen von Canertinib, die die Grundlage dieser unterschiedlichen Phänotypen bilden, konnte eine zusätzliche AKT-Inhibition identifiziert werden. Sehr wahrscheinlich wird die AKT-Inhibition ebenfalls durch BMX vermittelt, da keine Inhibition der ERBB-Familie bestätigt werden konnte. Um die Effekte weiter abzugleichen wurden Canertinib-Versuche mit einem humanen Brustkrebsmodell durchgeführt, das als Treiber eine Überexpression des EGFR aufweist.
In MDA-MB-468-Zellen, in denen keine BMX-Aktivierung vorliegt, resultierte eine Canertinib-Behandlung in der sehr prominenten Inhibition des ERK-Signalweges und in einer weniger ausgeprägten Verminderung der STAT3- und AKT-Aktivierung. Auch in diesen Zellen führte die Canertinib-Behandlung zum Zelltod. Diese Effekte werden sehr wahrscheinlich durch die Inhibition des EGFR induziert, da Canertinib als pan-ERBBInhibitor beschrieben ist (Slichenmyer et al., 2001; Djerf Severinsson et al., 2011) .
Resultate die früher in der Arbeitsgruppe gewonnen wurden, beweisen, dass eine Herunterregulation von STAT3 in der Brustkrebszelllinie MDA-MB-468 ausreicht um ein Absterben der Zellen zu induzieren (Groner et al., 2008).
Die Ergebnisse dieser Arbeit zeigen, dass eine Canertinib-Behandlung über die Inhibition unterschiedlicher Signalwege den Zelltod in beiden Zelllinien induziert. Obwohl beide Zelllinien Treiber-vermitteltes, konstitutiv aktives STAT3 aufweisen, stellt nur in den Brustkrebszellen seine Inhibition eine ausreichende Therapiebedingung dar. Somit sind die Unterschiede zwischen den beiden Zelllinien essentiell für ein Überleben der Zellen nach einer STAT3-Inhibition. In Zukunft ist es wichtig, diese Unterschiede zu identifizieren um damit zu definieren, in welchen Patientengruppen eine STAT3-Inhibition zum Erfolg führt.
To survive and thrive in nature, animals need to adapt their behavior to their environment. Behavioral adaptation is primarily due to changes within the brain and involves changes in the brain proteome (the collection of proteins in the brain). However, thus far very few studies have examined the proteomic changes during behavioral adaptation. Hence, with this work I set out to determine the proteomic changes induced in the brain of zebrafish larvae undergoing behavioral adaptation. Specifically, I examined the changes induced by adaptation to the natural challenge of strong water currents. To this end I took advantage of an assay developed by my collaborators Luis Castillo and Soojin Ryu. In this assay 5 days old zebrafish larvae were exposed to strong water currents. Subsequently they exhibited a reduction in cortisol response and initial locomotion, and increased rheotaxis, as defined by increased swimming directly against the water current when re-exposed to the water current. I employed this assay to investigate the changes to the larval zebrafish brain proteome during behavioral adaptation. Furthermore, I developed a method for extracting larval brains and prepare them for mass-spectrometric analysis. This work not only allowed the comparison of the brain proteome of naïve and behaviorally-adapted larvae, but also resulted in the most comprehensive proteome of the zebrafish brain observed to date and the first proteome of the larval zebrafish brain. In total 4309 proteins were identified in the brain. When the proteome of naïve and behaviorally adapted larvae were compared 41 proteins were found to be more abundant and 16 to be less abundant in the pre-exposed larvae. Of these 57 proteins, 28 have previously been found to have functions in the brain, 17 with functions identified in other tissues, and 12 proteins that have yet to be described. From examining the most relevant function of each protein I propose a speculative model in which the larval brain undergoes behavioral adaptation and becomes less susceptible to stress (reduction in mecp2 and hsp90 protein), form new neuronal connections (regulation of arid1b, fmn2b, ptpra, mycbp2, and pcyt2), modulate existing connections (regulation of asic1b, calsenilin, ptpra, aplp2, dag1, olfm1b, mycbp2, smad3a, and acvr2a abundance), undergo spatial learning in form of navigating the water vortex (increases in calsenilin, ptpra, and pcyt2), show an elevation in protein turnover (increases in lamp2, Ublcp1, larp4b, and ublcp1), have increased and regulated energy production (increases or reduction in rpia, ldhbb, and mitochondrial proteins; nfs1, eci1, MRPS2B, MRPL4, and mrps2), and a decrease in neurogenesis (reduction in smad3a, and ric8a).
To further investigate proteomic changes during behavioral adaptation, I investigated the translational response by metabolically labeling the larval forebrain with ANL and visualizing the labeled proteins using the fluorescent non-canonical amino acid tagging (FUNCAT). I detected a general increase in translation within the forebrain as a result of the water vortex adaptation, which correlated well with the range of changes observed in the brain proteome. Specifically, a region within the forebrain correlated with a region in the adult zebrafish that is homologous to the mammalian limbic region.
Taken together these results show that during behavioral adaptation, protein synthesis is significantly increased in the larval forebrain, and that throughout the brain regulation of the proteome includes proteins that could support the following functions: changes or modifications in neuronal connectivity, the stress response, spatial learning, changes in energy metabolism and changes in neurogenesis.
Lastly, I set out to provide a new tool for zebrafish researchers. Together with Güney Akbalik I introduced metabolic labeling of newly synthesized RNA using 5-ethynyluridine (EU) and subsequent visualization with a copper catalyzed clickreaction to the zebrafish larvae. With 5 hours of EU incubation I was able to visualize newly synthesized RNA and identify pentylenetetrazole-induced transcriptional increases. With this I showed that EU labeling could be implemented to examining transcriptional changes within the brain of zebrafish larvae.