Universitätspublikationen
Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178)
Is part of the Bibliography
- no (178)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
Im Rahmen dieser Arbeit wurden zum Vergleich die Strukturen der ATP-Synthasen von Arabidopsis thaliana, Asparagus officinalis, Allium cepa, Helianthus annus, Solanum tuberosum, Bos taurus und Saccharomyces cerevisiae gelöst. Die ATP-Synthase von S. cerevisiae konnte mit einer Auflösung von 19 Å gelöst werden. Der Winkel zwischen den zwei ATP-Synthase-Monomeren in dem ATP-Synthase-Dimer hatte für jede Spezies einen bestimmten Wert. Dieser Winkel änderte sich innerhalb einer Spezies nur wenig im Gegensatz zu Untersuchungen mit Einzelpartikelanalyse.
Die ATP-Synthase-Dimere aus den untersuchten Spezies besitzen unterschiedliche Winkel zwischen 78˚ und 122˚. Der Winkel des ATP-Synthase-Dimers aus S. tuberosum (122˚) viel größer als der in anderen Pflanzen (~98˚), B. taurus (105˚) und S. cerevisiae (78˚). Die Proben von S. tuberosum und B. taurus waren jedoch dünner, was den Winkel eventuell beeinflussen könnte. Um dies auszuschließen müssen in Zukunft weitere Untersuchungen durchgeführt werden.
Des Weiteren wurde im peripheren Stiel der ATP-Synthasen von allen Pflanzenspezies eine Dichte entdeckt, die in B. taurus und S. cerevisiae nicht vorhanden ist. Die Dichte könnte durch eine zusätzliche Untereinheit oder veränderte Untereinheit im Vergleich zu B. taurus und S. cerevisiae kommen.
Weiterhin wurde die Bildung von Reihen aus ATP-Synthase-Dimeren untersucht. Es wurden ATP-Synthase-Dimere von Polytomella sp. gereinigt und in Lipid rekonstituiert. Es wurde das ATP-Synthase-Dimer von Polytomella sp. verwendet, da dieses besonders stabil ist und während der Reinigung nicht zum ATP-Synthase-Monomer zerfällt. Zur Rekonstitution wurde die milde GRecon-Methode verwendet. Hierbei werden Membranproteine in einem Zuckergradienten gleichzeitig in Lipid rekonstituiert und nach ihrer Dichte getrennt. Abhängig von der Dichte der Proteoliposomen ist die Konzentration an Membranproteinen unterschiedlich. In Proteoliposomen mit einer hohen Konzentration bilden sich dünne Schichten in denen die ATP-Synthase-Dimeren Zickzack-Muster formen. Dies deutet darauf hin, dass das ATP-Synthase-Dimer die Membran verformt. In Proteoliposomen mit einer niedrigeren Konzentration an ATP-Synthase-Dimeren wurden runde Vesikel detektiert, in denen die ATP-Synthase-Dimere lange Reihen bilden und die Membran innerhalb jedes ATP-Synthase-Dimer ebenfalls verformt ist. Molekulare Simulationen bestätigen dieses Ergebnis.
Zudem wurde das ATP-Synthase-Dimer in zwei verschiedene Lipide ohne Cardiolipin rekonstituiert, da Cardiolipin ein Lipid ist welches in der bakteriellen und mitochondrialen Membran gefunden wurde und in hohen Konzentrationen in Membrankrümmungen lokalisiert ist (Huang et al., 2006), wie auch die ATP-Synthase-Dimere. Ohne Cardiolipin ist die Rekonstitution nicht geglückt beziehungsweise sind die ATP-Synthase-Dimere weniger gut zueinander angeordnet. Das deutet auf die Wichtigkeit von Cardiolipin in der Stabilisierung der Reihen von ATP-Synthase-Dimeren hin. Weitere Experimente mit verschiedenen ATP-Synthase-Dimeren in verschiedenen Lipiden sind nötig um dies zu untermauern.
Ein weiteres Ziel dieser Arbeit war es ein klonierbares Label zu etablieren, um ein bestimmtes Protein in Kryo-Elektronentomogramme zu identifizieren. Das Label sollte klein sein, um das zu identifizierbare Protein nicht zu beeinflussen und groß genug um in Kryo-Elektronentomogramme identifizierbar zu sein. In Einzelbildern wurde das 6 kDa große Metallothionein gebunden mit Gold identifiziert, wenn zwei Metallothioneine an dem gewünschten Protein kloniert wurden. Metallothionein besteht zu 33 % aus Cysteinen, welche Schwermetalle binden.
In meinen Studien habe ich bewiesen, dass drei Metallothioneine, gebunden mit Gold, in Kryo-Elektronentomogramme detektiert werden können. Jedoch tritt bei der Verwendung von Metallothionein durch die hohe Anzahl an Cysteinen vermehrt Aggregation auf. Bei meinen Untersuchungen fand ich heraus, dass auch das Maltose-Binde-Protein (MBP) ein Signal gleicher Intensität erzeugt. Durch Verwendung von MBP tritt aber keine Aggregation auf und man kann MBP auch zum Reinigen des Proteins verwenden.
Die Untersuchung befasst sich am Beispiel der fotografischen Arbeiten von Barbara Klemm mit einer aktuellen Entwicklung in der Fotografie. Der Lebens- und Berufsweg der Fotografin steht dabei stellvertretend für eine Generation von Reportage- und Dokumentarfotografen, die in der zweiten Hälfte des 20. Jahrhunderts nicht nur erfolgreich in ihrem Beruf gearbeitet, sondern darüber hinaus auch im musealen Kontext Beachtung erfahren haben. Durch die wachsende öffentliche Aufmerksamkeit und das damit verbundene Ansehen entwickelten sich die Arbeiten von Barbara Klemm von dokumentarischen Zeitungsbildern zu künstlerischen Fotografien. Wie dieser Prozess vom Zeitungsbild zum Museumsbild im Einzelnen abgelaufen ist, wird in der vorliegenden Arbeit untersucht.
Zu Beginn wird der gegenwärtige Umgang mit Fotografie in der Gesellschaft und in der Kunst thematisiert. Es wird die Entwicklung des fotografischen Mediums seit 1960 parallel zu den Wirkjahren von Barbara Klemm untersucht und gezeigt, welchen Einfluss diese Veränderungen auf ihr Werk und dessen Wahrnehmung hatten.
Dies ist im Allgemeinen die Frage nach der Wahrnehmung von Fotografie und im Speziellen nach der Veränderung von Wahrnehmung oder besser nach der Veränderung der Umwelt, die dem Betrachter eine andere Sicht auf die Fotografie ermöglicht. Das Thema ist aus der Sicht der Kunstwissenschaft und Kunstpädagogik bedeutsam, denn es zeigt, wie sich gesellschaftliche Kategorisierungen nicht unmittelbar, sondern im Laufe eines jahrzehntelangen Prozesses verändern. Eine Veränderung, deren Ursachen in einer engen Vernetzung von Wahrnehmung, Kommunikation, gesellschaftlicher Faktoren und ganz unterschiedlicher Entwicklungen innerhalb verschiedener einflussnehmender Systeme in einer gemeinsamen Umwelt zu suchen sind. Die analoge Schwarzweißfotografie ist die Technik in der Barbara Klemm arbeitet. Dies stellt heutzutage eine Besonderheit dar, denn die Sehgewohnheiten der Betrachter sind durch sehr verschiedene Bildarten geprägt. Diese reichen von Schnappschüssen und Amateuraufnahmen mit Kleinbild- oder handykameras bis hin zu professionellen Fotografien in der Werbung oder in Hochglanzmagazinen. Aufgrund der digitalen Technik, bei der mehr Aufnahmen in kurzer Zeit gemacht werden können, treten Komposition, Bildaufbau und Beleuchtung oft in den Hintergrund. Die Unterschiede zwischen analoger und digitaler Fotografie werden zudem in einer geschichtlichen Entwicklung der Reportagefotografie der vergangenen Jahrzehnte vertieft. Barbara Klemm arbeitete den größten Teil ihres Berufslebens als Bildjournalistin bei der Frankfurter Allgemeinen Zeitung. Von 1970 bis 2004 war sie zuständig für die Bereiche Politik und Feuilleton. In diesen Jahren entstanden Bilder, die heute zum kollektiven Gedächtnis vieler Deutscher zählen. Ausgehend von ihrer Arbeit wird dargestellt, wie die Fotografien einem Publikum zugänglich gemacht wurden und im Laufe der Zeit über das Medium der Zeitung hinaus in andere Bereiche der Öffentlichkeit gelangten, vor allem in die Kunst, aber auch in die Bereiche der Geschichte und Erinnerungsarbeit. Unter Verwendung der theoretischen Grundlage und Kategorisierung von Niklas Luhmann werden Arbeiten der Fotografin im System Journalismus und im System Kunst untersucht. An dieser Stelle waren Operatoren notwendig, die ihre Bilder aus dem System des Zeitungswesens in das System der Kunst transferierten. Diese Aufgabe konnten nur bestimmte Schlüsselfiguren (Schlüsselpersonen) erfüllen, denn Barbara Klemm hatte zu keiner Zeit intendiert, künstlerisch zu arbeiten. Das bedeutet, nur ein anerkannter Museumsdirektor oder ein erfahrener Ausstellungskurator konnte ihre Position in das „System Kunst“ einführen.
Nach einer kurzen biografischen Vorstellung der Arbeits- und Lebensstationen werden der Stil, die Technik und die Komposition Barbara Klemms Fotografien analysiert, um anschließend einen Versuch zu unternehmen, die besondere Ästhetisierung der Bilder zu erklären. So besitzt eine gelungene Fotografie von Barbara Klemm einen Mehrwert gegenüber den reinen Reportagebildern. Was der Betrachter vor Barbara Klemms Bildern empfindet und assoziiert, ist zum Teil individuell, zum Teil aber auch sozial, gesellschaftlich und kulturell – also intersubjektiv bestimmt. All seine Erfahrungen prägen die Beziehung zu jedem einzelnen Bild. Dass die Fotografien von Barbara Klemm heute eine breite Akzeptanz erfahren, hängt auch mit gesellschaftlichen Abläufen zusammen. Wissen und Meinungen festigen sich durch Wiederholung, die zur Gewohnheit werden. Vertrautem begegnet man folglich eher mit Sympathie und Wohlwollen, nicht zuletzt vermittelt es eine gewisse Sicherheit. Die langjährige Präsenz als Fotografin bei der Frankfurter Allgemeinen Zeitung stellt demnach eine fruchtbare Basis dar. Symbolisch gesprochen ist ihre Anstellung bei der Tageszeitung das stabile Fundament, auf dem ihr späterer Erfolg als künstlerische Fotografin aufbaut.
Klinische Frühergebnisse nach endoskopischer Lobektomie (VATS-Lobektomie versus daVinci-Lobektomie)
(2016)
In der vorliegenden Untersuchung wurden zwei operative Techniken zur endoskopischen Lobektomie miteinander hinsichtlich der Frühergebnisse verglichen. In die Untersuchung wurden alle Patienten einbezogen, die an der Abteilung für Thoraxchirurgie der Goethe Universität Frankfurt am Main zwischen April 2010 und Dezember 2012 wegen pulmonaler Karzinome minimal-invasiv lobektomiert wurden. Dabei wurden 34 Patienten einer Roboter-unterstützten Lobektomie sowie 25 Patienten einer VATS-Lobektomie unterzogen.
Es fanden sich keine signifikanten Differenzen in den präoperativen Daten und dem Risikoprofil der Patienten. Auch die intraoperativen Ergebnisse zeigten keine statistisch signifikanten Unterschiede. Postoperativ fand sich eine Tendenz zu höheren Tumorstadien sowie eine geringere Schmerzintensität bei den RATS-Patienten. Die Nachblutungsmenge war bei beiden Verfahren gering. Das klinische Outcome war vergleichbar, ebenso die geringe Morbidität und Komplikationsrate bei den beiden Verfahren.
Weitere Untersuchungen mit höheren Patientenzahlen sind erforderlich, um die Unterschiede zwischen den Verfahren zu untersuchen. Prinzipiell sind beide Verfahren geeignet um Patienten mit nicht-kleinzelligen Lungenkarzinomen in niedrigen Tumorstadien zu operieren.
Zur weiteren Verbesserung der Ergebnisse müssten für die RATS-Lobektomien spezielle Instrumente angefertigt werden. Die derzeit verwendeten Instrumente wurden ursprünglich für Koronargefäße oder urologische Operationen entwickelt, die sich in der Thoraxchirurgie oft als unzureichend erweisen. Zudem ist das Robotersystem stets in Entwicklung. Es sind kürzlich neue Instrumente eingeführt worden wie z.B. Klammernahtgeräte oder Instrumente, die für die automatische Durchtrennung kleinerer Gefäße zuständig sind. Manche Autoren beschreiben den Stapler, der eingesetzt wurde, noch als „mangelhaft“. Aus technischer Sicht fehlt immer noch das taktile Feedback, was jedoch teils durch die Erfahrung des Operateurs und mit Hilfe des 3-Dimensionalen Sehens kompensiert wird.
Diese Arbeit soll den ersten Grundbaustein bezüglich des postoperativen Schmerzmittelverbrauches nach einer videoassistierten- und roboterassoziierten Lobektomie legen. Wir sind uns sicher, dass dieses Thema in Zukunft weiter und noch detaillierter ausgearbeitet wird.
Nach den Studien von Flores und Alam wurden am Ende die Fragen gestellt:
➢ „Kann der Eingriff rein robotisch durchgeführt werden?
➢ Sind Op-Zeiten und Krankenhausaufenthalt kürzer?
➢ Sind die Inzisionen kleiner?
➢ Sind die postoperativen Schmerzen geringer?
➢ Ist das Verfahren billiger?“
Mit dieser vorliegenden Arbeit können die ersten vier Punkte aus der oben erwähnten Studie positiv bestätigt werden. Die Zugangswege sind kleiner bzw. gleich groß. In der Studie Kumar et al. wird ausdrücklich erwähnt, dass jedes Verfahren, welches durch die VATS geführt wird, mit dem Roboter noch besser auszuführen sei. Ein Problem stellen die Kosten dar. Wenn diese ebenfalls gesenkt werden können, würde einer flächendeckenden Verbreitung des Roboterverfahren nichts im Wege stehen. Die daVinci-Lobektomie ist zumindest eine geeignete Alternative im Vergleich zu der VATS-Lobektomie.
The Large Hadron Collider (LHC) is the biggest and most powerful particle accelerator in the world, designed to collide two proton beams with particle momentum of 7 TeV/c each. The stored energy of 362MJ in each beam is sufficient to melt 500 kg of copper or to evaporate about 300 litre of water. An accidental release of even a small fraction of the beam energy can cause severe damage to accelerator equipment. Reliable machine protection systems are necessary to safely operate the accelerator complex. To design a machine protection system, it is essential to know the damage potential of the stored beam and the consequences in case of a failure. One (catastrophic) failure would be, if the entire beam is lost in the aperture due to a problem with the beam dumping system.
This thesis presents the simulation studies, results of a benchmarking experiment, and detailed target investigation, for this failure case. In the experiment, solid copper cylinders were irradiated with the 440GeV proton beam delivered by the Super Proton Synchrotron (SPS) at the High Radiation to Materials (HiRadMat) facility at CERN. The experiment confirmed the existence of the so-called hydrodynamic tunneling phenomenon for the first time. Detailed numerical simulations for particle-matter interaction with FLUKA, and with the two-dimensional hydrodynamic code, BIG2, were carried out. Excellent agreement was found between the experimental and the simulation results that validate predictions for the 7TeV beam of the LHC. The hydrodynamic tunneling effect is of considerable importance for the design of machine protection systems for accelerators with high stored beam energy. In addition, this thesis presents the first studies of the damage potential with beam parameters of the Future Circular Collider (FCC).
To detect beam losses due to fast failures it is essential to have fast beam instrumentation. Diamond based particle detectors are able to detect beam losses within a nanosecond time scale. Specially designed diamond detectors were used in the experiment mentioned above. Their efficiency and response has been studied for the first time over 5 orders of bunch intensity with electrons at the Beam Test Facility (BTF) at INFN, Frascati, Italy. The results of these measurements are discussed in this thesis. Furthermore an overview of the applications of diamond based particle detectors in damage experiments and for LHC operation is presented.
Anankastic relatives
(2016)
This dissertation investigates a semantic puzzle in German concerning certain sentences with an intensional transitive verb and a modalized relative clause modifying its indefinite object. In their unspecific reading, the modal inside the relative clause seems to lack a semantic contribution and the construal of the relative clause appears spuriously ambiguous between a restrictive and an appositive reading. However, as a thorough discussion of a wide range of data reveals, the embedded modal is actually anaphoric to the matrix attitude and does contribute to the sentence meaning. But then, precisely due to its anaphoricity, this semantic contribution is restricted and in some cases very subtle; in particular, the semantic phenomenon under scrutiny cannot be analyzed as an instance of modal concord. Rather, previous observations on related data involving epistmic anaphoric modals and anankastic conditionals turn out to indicate the direction for an adequate analysis of the relevant semantic observations. For the restrictive construal, a conservative account is developed containing a fine-grained Lewis-Kratzer-style modal semantics, but with a twist: the anaphoricity of the modal is taken care of by restricting the anaphoricity of the modal to the ordering source of the matrix verb; moreover, the embedded modal receives a historical modal base. In this way compositionality issues and problems of cross-identification are avoided. Finally, the non-restrictive construal is analyzed as an instance of modal subordination, exploiting the well-studied parallel between appositive relatives and discourse anaphora.
Saccharomyces cerevisiae is a natural producer of isobutanol, which has more advantages as biofuel than ethanol, i.e. superior combustion energy, weaker corrosive action and reduced aqueous miscibility. Isobutanol is produced by the combination of the valine biosynthesis and the Ehrlich pathway. In this work, an industrial strain was employed for isobutanol production, in which the valine pathway was relocated into the cytosol. The valine pathway in yeast has a cofactor imbalance, since the glycolysis produces NADH, while Ilv5 employs NADPH for the reaction. Therefore, the cofactor specificity of the pathway was rebalanced with exchange of Ilv5 by an NADH-consuming mutant, IlvC6E6. Furthermore, Ilv6, which regulates the feed-back inhibition of the valine biosynthesis, was tested to boost isobutanol production; however, none of these Ilv6 alternatives could greatly enhance isobutanol production. Therefore, due to a still low production yield, the bottlenecks of the isobutanol pathway were deeper studied.
The major observed bottleneck concerned the conversion of DIV into KIV, since high concentrations of acetoin, 2,3-butandiol and, specially, DIV were observed in the fermentation supernatant, while neither KIV nor isobutyraldehyde were detected. This step is performed by the dihydroxy-acid dehydratase, Ilv3, which needs iron-sulfur clusters for its activity. Therefore, the first approach to circumvent this limitation was to increase the FeS assembly and its transference into the cytoplasm; however, Ilv3Δ19 activity was not improvement. Afterwards, Ilv3 alternatives were screened for substitution of Ilv3Δ19. Heterologous ILV3 orthologous with possible advantages were investigated, but Ilv3Δ19 was still the most promising alternative. Furthermore, sugar-acid enolases were tested as Ilv3Δ19 substitutes. These enolases also catalyze the dehydration of the substrate in the same way as Ilv3, but uses Mg2+ as cofactor. One of the employed enolases could complement valine auxotrophy; however, it allowed just a very slow growth of the Δilv3 strain and its activity could not be enhanced by mutagenesis studies.
Interestingly, we observed that once DIV is secreted out of the cell, it cannot be re-uptaken from the medium and this possibly further aggravates the pathway flux and Ilv3Δ19 activity. In order to suppress DIV waste, two strategies were formulated: the deletion of the possible DIV transporter, and the substrate channeling of DIV from IlvC6E6 to Ilv3Δ19. In order to find possible DIV export proteins, a transcriptome analysis of a strain producing high amounts of DIV against a strain producing no detected DIV were compared. Several transporters were found upregulated in the DIV producing strain, but, alone, none of these were responsible for the DIV efflux. For the substrate channeling, an artificial enzymatic net was constructed by the fusion of IlvC6E6 and Ilv319 with synthetic zippers, which have high affinity to each other, and as both enzymes are alone organized as oligomers. The use of this enzymatic net enhanced not only the isobutanol production in about 17%, but also 3-methyl-butanol production yield was 25% increased.
Nevertheless, together with bottlenecks arising from Ilv3 activity, the isobutanol production is limited by the ethanol production, which is the main product of S. cerevisiae. Therefore, in order to abolish ethanol production, PDC1 and PDC5 were deleted. Moreover, BDH1 and BDH2 were also deleted to create an NADH-driving force towards isobutanol production. However, the isobutanol yield of this mutant was even lower than that of the strain without the mentioned deletions. As a high production of isobutyric acid was observed, and it could be produced directly from KIV, different KIV decarboxylases and isobutanol dehydrogenases were investigated; but without improvement. Then, alternative pathways were abolished in other to favor isobutanol production, e.g. valine, leucine, isoleucine and panthotenate biosyntheses. Nevertheless, isobutanol yields were still low and the main byproducts were glycerol, acetoin, DIV and isobutyric acid. Despite the outcomes were not enough to enhance isobutanol production up to commercially required yields, these results help in the comprehension of the bottlenecks surrounding the isobutanol production pathway and serve as basis for further studies within the branched-chain amino acids biosynthesis and Ehrlich pathway.
Cells perform a wide range of functions such as signalling, transportation, immunoprotection and metabolism. Unravelling the molecular mechanism behind those processes will provide a platform for more targeted and rational drug design. This is achieved by discerning the structural and functional aspects of the biological macromolecules involved. This thesis discusses about the biophysical characterization of protein structures and the biological importance of protein dynamics. Membrane receptors and enzymes which are ubiquitously present in our biological systems and regulate wide variety of functions are excellent choice for such study. From a pharmaceutical point of view, receptor and enzymes are exceptionally important drug targets as they represent the major share (receptor, 30% and enzymes, 47%) of all marketed drugs. Therefore, apart from biological insights, the detailed study of receptors and enzymes will provide the basis for new pharmaceutical applications. Most information about receptor activation and enzyme activity come from the structural and functional analysis of target members of the above mentioned systems.
In “Chapter 1 – General Introduction” the readers are introduced to the world of proteins with special focus on G-protein coupled receptors (GPCRs) and methyltransferases. The first part of this chapter discusses about GPCRs with emphasis on their classification, structural features and functions. GPCRs are the most abundant membrane receptors present in mammalian cells, accounting for almost 15% of all membrane proteins. The GPCR superfamily consists of ~800 members and can be subdivided into six classes (A-F). Class A containing rhodopsin, peptide hormones, olfactory GPCRs, is the most abundant with a large share of 85% of GPCR protein family. GPCRs share a common architecture of 7 transmembrane a-helices, with different ligand binding sites. Although a variety of ligands ranging from subatomic particles (a photon) to large proteins can activate a GPCR, their mechanism of signal transduction is almost similar. There are two major signal transduction pathways identified for GPCRs: the cAMP pathway and the phosphatidylinositol pathway. The therapeutic relevance of GPCRs has also been pointed out here since a large share (30%) of modern marketed drugs target GPCRs.
In the second part of this chapter, the structural and functional characterizations of methyltransferases (MTs) are discussed in detail. Several important biological processes in cells e.g. drug metabolism, gene transcription, epigenetic regulations are modulated by methylation of targets ranging from small biomolecules to large proteins. MTs are the proteins which catalyze this methylation reaction and transfer the methyl group to an acceptor molecule through SN2 like nucleophilic substitution reaction. The MTs can be classified on the basis of the substrate atoms they methylate: O (54% of all MTs), N (23%), C (18%), S (3%) and other acceptors (such as halides; 2%). They can also be categorized into five different classes (Class I-V) depending upon distinctive structural features facilitating substrate binding or catalytic activity. Rossmann fold and SET (acronym acquired from the Drosophila Su(var)3-9 and 'Enhancer of zeste' proteins) domain are the two characteristic structural motifs commonly found in MTs. Similar to GPCRs, MTs dysfunction has been shown to be involved in various diseases including neuropsychiatric diseases and cancer. Therefore they are also interesting targets for drug development. The final part of this chapter discusses the importance of structural biology in gathering information related to structure and conformational dynamics of proteins. The two prominent biophysical techniques used in structural biology, X-ray crystallography and NMR, are discussed with focus on their advantages and limitation. The importance of NMR spectroscopic techniques to investigate different dynamic processes of protein at atomic resolution under physiological conditions is also discussed. Real time NMR spectroscopy required for the analysis of slow protein dynamic processes (protein folding, enzyme catalysis, domain rearrangement) has been explained in detail.
The second part of the thesis (Chapters 3-4), which is the cumulative part, comprises the original publications grouped into 2 chapters according to their topic:
• NMR-spectroscopic characterization of the transiently populated photointermediates of bovine rhodopsin and it’s interaction with arrestin (Chapter 3)
• Structural and biophysical characterization of PaMTH1, a putative SAM dependent O-methyltransferase from filamentous fungi Podospora anserina (Chapter 4)
Each chapter is initiated by a detailed introduction to the topic, providing the framework for the following papers. The personal contribution of this thesis’ author to each publication is stated in the introduction to the respective article.
This thesis reports on the results obtained by expression photoactivatable adenylyl cyclase from Beggiatoa spp. (bPAC) in cholinergic neurons from Caenorhabditis elegans (C. elegans) and the characterization of the role of a single neuron, RIS, during locomotion in the adult animal.
Pharmacological activation of adenylyl cyclases through Forskolin is known to induce increased neuronal output in diverse model organisms through a protein kinase A (PKA) dependent mechanism. Nevertheless, pharmacological assays are not spatially restricted, do not allow for precise and acute activation nor to cessation of the signal. Thus, an optogenetic approach for was selected trough the expression of photoactivatable adenylyl cyclase from Beggiatoa spp. (bPAC) in cholinergic neurons of Caenorhabditis elegans (C. elegans). This model organism was chosen due to its transparency, ease of maintenance, fast generation cycles as well as for being an eutelic animal. Further, its genome has been fully sequenced and the connectome of the neuronal network is known, thus allowing for precise analysis of neuronal function. Furthermore, the molecular mechanisms governing neuronal functions are well conserved up to primates. Mainly two optogenetical tools were applied, bPAC and the light gated cation channel channelrhodopsin 2 (ChR2).
Behavioral assays of bPAC photostimulation in cholinergic neurons recapitulated previous work performed with the photoactivatable adenylyl cyclase from Euglena gracilis (EuPACa), in which swimming frequency and speed on solid substrate were increased. Electrophysiological recordings of body wall muscle (BWM) cells by Dr. Jana F. Liewald showed that bPAC photoactivation led to an increase in miniature postsynaptic current (mPSC) rate and, in contrast to ChR2 invoked depolarization, also amplitude. Analysis of mutants deficient in neuropeptidergic signaling (UNC- 31) via electrophysiology performed by Dr. Jana F. Liewald showed that the increase in mPSC amplitude due to bPAC photoactivation requires neuropeptide release. This was confirmed by co-expression of bPAC with the neuropeptide marker NLP-21::Venus and subsequent fluorescence analysis of release, exploiting the fact that released neuropeptides are ultimately degraded by scavenger cells (coelomocytes). These were enriched with NLP-21::Venus after bPAC photostimulation, but no fluorescence could be observed in the UNC-31 mutants.
Additional analysis of the electrophysiological data performed by myself showed no modulation of mPSC kinetics dues to neuropeptidergic release induced by bPAC. Hence, neuropeptide release and action sites were in the cholinergic neurons, the latter including cholinergic motoneurons.
Dr. Szi-chieh Yu provided electron microscopy images of high pressure frozen, bPAC or ChR2 expressing animals. These were tagged by myself for automatic analysis of ultrastructural properties of the cholinergic presynapse, also during photoactivation of both optogenetic tools. Photoactivation of both induced a reduction of synaptic vesicles, with ChR2 showing a more severe effect. In contrast to ChR2, though, bPAC also reduced the amount of dense core vesicles (DCV), the neuropeptide transporters. Additionally, long bPAC photoactivation as well as ChR2 photoactivation led to the appearance of large vesicles (LV), presumably in response to the increased SV fusion rate. bPAC photostimulation also induced an increase in SV size, not observed after ChR2 photostimulation. In UNC-31 mutants, bPAC photostimulation could not lead to the SV size increase, a further argument for the presynaptic effect of the released neuropeptide. Additional analysis of electrophysiology paired with pharmacology, performed by Dr. Jana F. Liewald, showed that mPSC amplitude increase requires the function of the vesicular acetylcholine transporter.
A further effect observed in the ultrastructure of bPAC photostimulated cholinergic presynapses was a shift in the distribution of SV regarding the dense projection. An analysis of cAMP pathway mutants showed that synapsin is required for bPAC induced behavior effects. Synapsin is known to mediate SV tethering to the cytoskeleton. Here, I show evidence for a new role of synapsin in controlling the availability of DCVs for fusion and thus, in neuropeptidergic signaling.
In the second part of my thesis I characterized the function of the GABAergic interneuron RIS in the neuronal network of C. elegans. RIS was shown to induce lethargus, a sleep-like state, during all larval molts, but its function in the adult animal was not yet described. Specific RIS expression of ChR2 achieved by a recombinase based system allowed to acutely depolarize the neuron during locomotion, which led to an acute behavioral stop. Diverse signal transduction pathway mutants were analyzed showing that the phenotype was induced by neuropeptidergic signaling. Through mutagenesis followed by whole genome sequencing data analysis as well as analysis of RIS specific RNA sequencing data further narrowed the signal transduction pathway to mediate the locomotion stop behavior. Since the neuropeptide and, to some extent, the neuron are conserved across nematodes, an argument is outlined in favor of the conservation of this sleep-like state.
In addition, since ChR2 could induce neuropeptidergic signaling from RIS, secretion of vesicles is regulated by variable pathways depending on the neuronal identity. Nevertheless, expression of bPAC in RIS allowed to optogenetically increase the probability of short stops, as observed by expression of a calcium sensor (GCaMP) in RIS and analysis of its intrinsic activity in the adult animal.
Tulasnella species (Tulasnellaceae, Cantharellales, Basidiomycota) form inconspicuous basidiomata on rotten branches or trunks of trees, difficult to find and recognize in nature. However, according to ultrastrucural and molecular data, species of Tulasnellaceae are the most frequent mycorrhriza forming fungi (mycobionts) of green, photosynthetic orchids worldwide. Species of Tulasnellaceae were also found as prominent mycobionts of the extraordinary diverse orchids in tropical montane rainforest of Southern Ecuador. Orchids obligately depend on mycobionts during the juvenile stage when the fungi have to deliver carbon to the non-photosynthetic protocorm and thus the fungi substantially influence the establishment of orchids in the wild. Species of Tulasnellaceae can acquire carbon from decaying bark or wood by specific saprotrophic capabilities as was recently proven through comparative genomics that included data on decay enzymes from Tulasnella cf. calospora isolated from orchid mycorrhizae (Anacamptis laxiflora, Italy). Thus, species of Tulasnellaceae can be saprotrophs and symbionts simultaneously.
It is currently under discussion, whether specific species of Tulasnella are required for seed germination and establishment of distinct terrestrial and epiphytic orchids in nature or if species of Tulasnella are generalists concerning their association with orchids. The inconsistences in species concepts and taxonomy of Tulasnella spp., however, strongly impede progress in this field of research. The aim of the present study was, therefore, to revise the species concepts by combining, for the first time, morphological and molecular data from basidiomata.
Specimens were collected in tropical Andean forest in Southern Ecuador and in temperate forests in Germany. Additional specimens were loaned from fungaria. In total, 205 specimens, corresponding to 16 own samples and 189 specimens from fungaria were analyzed. The mycobiont relationships of Tulasnella spp. with orchids from the sampling area in Ecuador were studied in populations of Epidendrum rhopalostele. The basis for molecular-phylogenetic analysis was completed by data obtained from own previous investigations on mycobionts from the investigation area and Tulasnella isolates from Australia.
30 morphospecies are illustrated and delimited by a morphological key based on traditional species concepts. Tulasnella andina from Ecuador and Tulasnella kirschneri from China are presented as species new to science. Tulasnella cruciata is described from herbarium material for the first time. Tulasnella aff. eichleriana and T. violea are reported for the first time from Ecuador. Molecular sequences of two Tulasnella spp. isolated from mycobionts of Epidendrum rhopalostele cannot be related to any morphological species concept. Statistical analyses suggest that conventional diagnostic using morphological characteristics is ambiguous for delimiting morphologically similar species.
For the first time sequences of the ITS-5.8S rDNA region were obtained after cloning from fresh basidiomata. Extraction of DNA from herbarium specimens was, however, unsuccessful. Sequences from 16 fresh basidiomata, six pure cultures, and sequences of orchids mycorrhizae (e.g. from Epidendrum rhopalostele) available in the database GenBank were analyzed. Proportional
variability of ITS-5.8S rDNA sequences within and among cultures and within and among specimens were used to designate morphospecies. Results suggest an intragenomic variation of less than 2 %, an intraspecific variation of up to 4 % and an interspecific divergence of more than 9 % for Tulasnella spp.
Four percent of intraspecific divergence was defined as a minimum threshold for delimiting phylogenetic species. This threshold corroborates the so far used 3 % to 5 % divergence in delimitation of operational taxonomic units of Tulasnella mycobionts.
Quite a number of sequences of Tulasnella are available in GenBank, mostly obtained from direct PCR amplification from orchid mycorrhizae. By including closely related sequences in the phylogenetic analysis, several morphological cryptic species of Tulasnella, mostly from Ecuador, were found. Arguments are given for molecular support of the new species Tulasnella andina and the established species Tulasnella albida, T. asymmetrica, T. eichleriana, T. tomaculum, and T. violea. Thus, by combining molecular and morphological data species concepts in Tulasnella are improved. The definitions of Tulasnella calospora and T. deliquescens, however, remain phylogenetically inconsistent.
The present investigation is a first step to expand our knowledge on the intraand interspecific morphological and molecular variability of Tulasnella spp. and to delimit species relevant for studies on ecology and communities of orchids and Tulasnellaceae.
Ziel. Lokoregionäre Rezidive sind der Hauptgrund für ein Therapieversagen nach primärer multimodaler Behandlung von Plattenepithelkarzinomen der Kopf-Hals-Region (SCCHN). Wir verglichen die Effektivität und Toxizität von Cisplatin oder Cetuximab simultan zur Re-Bestrahlung (ReRT) bei inoperablen SCCHN-Rezidiven. Ein prognostischer Score sollte auf Grundlage verschiedener klinischer und pathologischer Faktoren etabliert werden.
Patienten und Methoden. 66 Patienten mit in vorbestrahlten Regionen rezidivierten SCCHN wurden von 2007 bis 2014 simultan mit Cetuximab (n=33) oder cisplatin-basierter Chemotherapie (n=33) re-bestrahlt. Die Toxizität wurde wöchentlich sowie bei jedem Nachsorgetermin erfasst. Klinische Untersuchung, Endoskopie, CT- oder MRT-Untersuchungen wurden zur Beurteilung des Therapieansprechens und der Krankheitskontrolle eingesetzt.
Ergebnisse. Nach einer mittleren Nachbeobachtungszeit von 18,3 Monaten betrug das 1-Jahres-Überleben (OS) für ReRT mit Cetuximab 44,4% und mit cisplatin-basierter Chemotherapie 45,5% (p=0.352). Die lokalen Kontollraten nach einem Jahr waren jeweils 46,4% und 54,2% (p=0.625); die Raten an Metastasenfreiheit 73,6% und 81% (p=0.842). Hämatologische Toxizität ≥ Grad 3 kam in der Cisplatin-Gruppe häufiger vor (p<0.001), dagegen trat Schmerz ≥ Grad 3 in der Cetuximab-Gruppe häufiger auf (p=0.034). Ein physiologischer Hb-Wert und ein längeres Intervall zwischen primärer RT und ReRT erwiesen sich als signifikante prognostische Faktoren für das OS (multivariat: p=0.003 und p=0.002). Die Rezidivlokalisation sowie das GTV zeigten keinen signifikanten Einfluss auf das OS in der multivariaten Analyse (p=0.160 und p=0.167). Ein auf Grundlage dieser Variablen konstruierter Prognose-Score (0 bis 4 Punkte) zeigte signifikante Überlebensunterschiede: 1-Jahres-OS für 0/1/2/3/4 Prognosepunkte: 10%, 38%, 76%, 80% und 100% (p<0.001).
Schlussfolgerung. Sowohl Cetuximab- als auch Cisplatin-basierte ReRT für SCCHN-Rezidive sind gut durchführbare und effektive Behandlungsoptionen mit vergleichbaren Ergebnissen bezüglich Tumorkontrolle und Überleben. Die akuten Nebenwirkungen könnten gering variieren. Unser Prognose-Score könnte zur Identifizierung der für ReRT geeigneten Patienten sowie zur Stratifizierung in künftigen klinischen Studien dienen.
The Standard Model is one of the greatest successes of modern theoretical physics. Itl describes the physics of elementary particles by means of three forces, the electro-magnetisc, the weak and the strong interactions. The electro-magnetic and the weak interaction are rather well understood in comparison to the strong interaction.
The latest is as fundamental as the others, it is responsible for the formation of all hadrons which are classified into mesons and baryons. Well-known examples of the former is the pion and of the latter is the proton and the neutron, which form the nucleus of every atom. This fundamental force is believed to be described by the Quantum Chromodynamics (QCD) theory. According to this theory, hadrons are not elementary particles but are composed of quarks and gluons. The latter are the vector particles of the force and so are bosons of spin 1 and the former constitute the matter and are fermions with spin 1/2. To describe the interaction a new quantum number had to be introduced: the color charge which exists in three different types (blue, green and red). The name has not been chosen arbitrary as elements created from three quarks of different colors are colorless in the same way that mixing the three primary colors leads to white. However, experimentally no colored structure has ever been observed. The quarks and the gluons seem to be confined in colorless hadrons. This property of QCD is called confinement and results from a large coupling constant at low energy (or large distance). For high energy (or small distance), the perturbative analysis of QCD permits to establish the coupling constant to be small and quarks and gluons are almost free. This property is called asymptotic freedom. The possibility for QCD to describe both behaviors is one of its amazing characteristics. However, both phenomena are not well understood and one needs a method to study both the pertubative and the confining regime.
The only known method which fulfills the above criteria is Lattice QCD and more generally Lattice Quantum Field Theory (LQFT). It consists of a discretization of the spacetime and a formulation of QCD on a four-dimensional Euclidean spacetime grid of spacing a. In this way, the theory is naturally regularized and mathematically well-defined. On the other hand, the path integral formalism allows the theory to be treated as a Statistical Mechanics system which can be evaluated via a Markov chain Monte-Carlo algorithm. This method was first suggested by Wilson in 1974 [1] and shortly after Creutz performed the first numerical simulations of Yang-Mills theory [2] using a heath-bath Monte-Carlo algorithm. It appears that this method is extremely demanding in computational power. In its early days the method was criticized as the only feasible simulations involved non-physical values such as extremely large quark masses, large lattice spacing a and no dynamical quarks. With the progress of the computers and the appearance of the super-computer, the studies have come close to the physical point. But one still needs to deal with discrete space time and finite volume. Several techniques have been developed to estimate the infinite volume limit and the continuum limit. The smaller the lattice spacing and the larger the volume, the better the extrapolation to continuum and infinite volume limits is. The simulations are still very expensive and for the moment a typical length of the box is L ≈ 4fm and a ≈ 0.08fm. However, it has been realized simulating pure Yang-Mills theory and other lower dimensional models that the topology is freezing at small a [3]. It was also observed recently on full QCD simulations [4,5].
The typical lattice spacing for which this problem appears in QCD is a ≈ 0.05fm but this value depends on the quark mass used and on the algorithm. The freezing of topology leads to results which differ from physical results. Solving this issue is important for the future of LQCD [6]. Recently several methods to overcome the problem have been suggested, one of the most popular is the used of open boundary conditions [7] but this promising method has still its own issues, mainly the breaking of translation invariance.
Entwicklung und Test einer supraleitenden 217 MHz CH-Kavität für das Demonstrator-Projekt an der GSI
(2016)
In den letzten Jahrzehnten vergrößerten sich die Anwendungsgebiete von Linearbeschleunigern für Protonen und schwere Ionen, insbesondere im Nieder- und Mittelenergiebereich, stetig. Der überwiegende Teil dieser mittlerweile bewährten Anwendungen lag im Bereich der Synchrotroninjektion oder der Nachbeschleunigung von radioaktiven Ionenstrahlen. Darüber hinaus wird seit einiger Zeit die Entwicklung neuartiger, supraleitender Hochleistungslinearbeschleunigerkavitäten stark vorangetrieben, welche vor allem bei der Forschung an Spallationsneutronenquellen, in der Isotopenproduktion oder bei der Transmutation langlebiger Abfälle aus Spaltreaktoren Anwendung finden sollen. Die am Institut für Angewandte Physik der Goethe-Universität Frankfurt entwickelte CH-Kavität ist optimal für den Einsatz in derartigen Hochleistungsapplikationen geeignet. Sie ist die erste Vielzellenstruktur für den Nieder- und Mittelenergiebereich und kann sowohl normal- als auch supraleitend verwendet werden. Bislang konnten in der Vergangenheit ein supraleitender 360 MHz CH-Prototyp sowie eine für hohe Leistungen optimierte supraleitende 325 MHz CH-Struktur erfolgreich bei kryogenen Temperaturen ohne Strahl getestet werden. Um die Forschung im Bereich der Kernphysik, der Kernchemie und vor allem im Bereich der superschweren Elemente auch in Zukunft weiter fortzusetzen, ist der Bau eines neuen supraleitenden, dauerstrichbetriebenen Linearbeschleunigers an der GSI geplant. Das Kernstück des zukünftigen cw-LINAC basiert auf dem Einsatz supraleitender 217 MHz CH-Kavitäten, mit deren Hilfe ein adäquater Teilchenstrahl mit
maximal 7,5 MeV/u für die SHE-Synthese bereitgestellt werden soll. Auf dem Weg zur Realisierung des geplanten cw-LINACs wurde im Zuge des Demonstrator-Projektes die Umsetzung der ersten Sektion des gesamten Beschleunigers beschlossen. Der Fokus des Projektes liegt auf der Demonstration der Betriebstauglichkeit innerhalb einer realistischen Beschleunigerumgebung sowie insbesondere auf der erstmaligen Inbetriebnahme einer supraleitenden CH-Kavität mit Strahl. Im Rahmen der vorliegenden Arbeit wurde die erste supraleitende 217 MHz CH-Kavität für das Demonstrator-Projekt entwickelt, produziert und ihre Hochleistungseigenschaften in einem vertikalen Kryostaten bei 4,2 K getestet. Hierbei lag das Hauptaugenmerk auf der HF-Auslegung der Kavität, den begleitenden Tuningmaßnahmen während der Produktion sowie den ersten Leistungstests unter kryogenen Bedingungen. Weitere Schwerpunkte lagen auf der kompakten Bauweise, dem effektiven Tuning, der Oberflächenpräparation sowie auf dem Strahlbetrieb der Kavität mit einem dauerstrichfähigem 5 kW Hochleistungskoppler. Die Umsetzung
der Kavität beruhte auf dem geometrischen Konzept der supraleitenden, siebenzelligen 325 MHz CH-Struktur.
Ihre elektromagnetische und strukturmechanische Auslegung erfolgte mittels der Simulationsprogramme ANSYS Multiphysics und CST Studio Suite. Um während des Test- bzw. Strahlbetriebs mit der entsprechend notwendigen Kopplungsstärke die HF-Leistung in die Kavität einzuspeisen, wurden unterschiedliche Kopplerantennen für den jeweiligen Fall ausgelegt. Zum Erreichen der geforderten Zielfrequenz wurde ein Verfahren erarbeitet, welches die hierfür notwendigen Mess- und Arbeitsschritte während der einzelnen
Produktionsphasen beinhaltet. Diesbezüglich wurden während der Produktion der Kavität eine Reihe von Zwischenmessungen beim Hersteller durchgeführt, um den Frequenzverlauf innerhalb der jeweiligen Fertigungsschritte entsprechend beeinflussen zu können
und um vorangegangene Simulationswerte zu validieren. Alle untersuchten Parameter konnten während der Messungen in guter Übereinstimmung zu den Simulationen reproduziert und die Zielfrequenz der Kavität schließlich erreicht werden. Nach Abschluss der letzten Oberflächenpräparationen wurde die Kavität in einer neuen kryogenen Testumgebung innerhalb der Experimentierhalle des IAP für einen vertikalen Kalttest vorbereitet.
Daraufhin erfolgte das Evakuieren der Kavität, das Abkühlen auf 4,2 K sowie ihre Konditionierung. Anschließend erfolgte die Bestimmung der intrinsischen Güte der Kavität.
Sie betrug 1,44 x 10E9 und besitzt somit den bisher höchsten Gütewert, der jemals bei einer supraleitenden CH-Struktur erreicht wurde. Es konnte ein maximaler Beschleunigungsgradient von 7 MV/m im Dauerstrichbetrieb erreicht werden, was einer effektiven Spannung von 4,2 MV entspricht. Die zugehörigen magnetischen und elektrischen Oberflächenfelder lagen bei 39,3 mT bzw. 43,5 MV/m. Ein thermaler Zusammenbruch konnte während des gesamten Leistungstests nicht festgestellt werden, was auf eine gute thermische Eigenschaft der Kavität hindeutet. Allerdings zeigte der gemessene Verlauf ein frühes Abfallen der Güte ab 2,5 MV/m, was durch anormale Leistungsverluste aufgrund von Feldemission hervorgerufen wurde. Dies war aufgrund der unzureichenden Oberflächenbehandlung der Kavität zu erwarten, da die Hochdruckspülung aus technischen Gründen nur entlang der Strahlachse erfolgte. Dennoch konnte die Designvorgabe des geplanten cw-LINACs hinsichtlich der Güte bei 5,5 MV/m um einen Faktor 2 übertroffen werden.
Die positiven Ergebnisse der Simulationsrechnungen und der Messungen zeigen, dass die Anforderungen des Demonstrator-Projekts, insbesondere hinsichtlich des benötigten Beschleunigungsgradienten, mittels der entwickelten supraleitenden 217 MHz CH-Kavität erfüllt werden. Somit wurde im Rahmen dieser Arbeit maßgeblich an der Umsetzung des Demonstrator-Projekts bzw. an der Realisierung des geplanten cw-LINACs beigetragen und der Weg für einen Strahlbetrieb der Kavität vorbereitet.
Different approaches are possible when it comes to modeling the brain. Given its biological nature, models can be constructed out of the chemical and biological building blocks known to be at play in the brain, formulating a given mechanism in terms of the basic interactions underlying it. On the other hand, the functions of the brain can be described in a more general or macroscopic way, in terms of desirable goals. This goals may include reducing metabolic costs, being stable or robust, or being efficient in computational terms. Synaptic plasticity, that is, the study of how the connections between neurons evolve in time, is no exception to this. In the following work we formulate (and study the properties of) synaptic plasticity models, employing two complementary approaches: a top-down approach, deriving a learning rule from a guiding principle for rate-encoding neurons, and a bottom-up approach, where a simple yet biophysical rule for time-dependent plasticity is constructed.
We begin this thesis with a general overview, in Chapter 1, of the properties of neurons and their connections, clarifying notations and the jargon of the field. These will be our building blocks and will also determine the constrains we need to respect when formulating our models. We will discuss the present challenges of computational neuroscience, as well as the role of physicists in this line of research.
In Chapters 2 and 3, we develop and study a local online Hebbian self-limiting synaptic plasticity rule, employing the mentioned top-down approach. Firstly, in Chapter 2 we formulate the stationarity principle of statistical learning, in terms of the Fisher information of the output probability distribution with respect to the synaptic weights. To ensure that the learning rules are formulated in terms of information locally available to a synapse, we employ the local synapse extension to the one dimensional Fisher information. Once the objective function has been defined, we derive an online synaptic plasticity rule via stochastic gradient descent.
In order to test the computational capabilities of a neuron evolving according to this rule (combined with a preexisting intrinsic plasticity rule), we perform a series of numerical experiments, training the neuron with different input distributions.
We observe that, for input distributions closely resembling a multivariate normal distribution, the neuron robustly selects the first principal component of the distribution, showing otherwise a strong preference for directions of large negative excess kurtosis.
In Chapter 3 we study the robustness of the learning rule derived in Chapter 2 with respect to variations in the neural model’s transfer function. In particular, we find an equivalent cubic form of the rule which, given its functional simplicity, permits to analytically compute the attractors (stationary solutions) of the learning procedure, as a function of the statistical moments of the input distribution. In this way, we manage to explain the numerical findings of Chapter 2 analytically, and formulate a prediction: if the neuron is selective to non-Gaussian input directions, it should be suitable for applications to independent component analysis. We close this section by showing how indeed, a neuron operating under these rules can learn the independent components in the non-linear bars problem.
A simple biophysical model for time-dependent plasticity (STDP) is developed in Chapter 4. The model is formulated in terms of two decaying traces present in the synapse, namely the fraction of activated NMDA receptors and the calcium concentration, which serve as clocks, measuring the time of pre- and postsynaptic spikes. While constructed in terms of the key biological elements thought to be involved in the process, we have kept the functional dependencies of the variables as simple as possible to allow for analytic tractability. Despite its simplicity, the model is able to reproduce several experimental results, including the typical pairwise STDP curve and triplet results, in both hippocampal culture and layer 2/3 cortical neurons. Thanks to the model’s functional simplicity, we are able to compute these results analytically, establishing a direct and transparent connection between the model’s internal parameters and the qualitative features of the results.
Finally, in order to make a connection to synaptic plasticity for rate encoding neural models, we train the synapse with Poisson uncorrelated pre- and postsynaptic spike trains and compute the expected synaptic weight change as a function of the frequencies of these spike trains. Interestingly, a Hebbian (in the rate encoding sense of the word) BCM-like behavior is recovered in this setup for hippocampal neurons, while dominating depression seems unavoidable for parameter configurations reproducing experimentally observed triplet nonlinearities in layer 2/3 cortical neurons. Potentiation can however be recovered in these neurons when correlations between pre- and postsynaptic spikes are present. We end this chapter by discussing the relation to existing experimental results, leaving open questions and predictions for future experiments.
A set of summary cards of the models employed, together with listings of the relevant variables and parameters, are presented at the end of the thesis, for easier access and permanent reference for the reader.
To understand neurodegenerative diseases is one of the major challenges of the 21st century. This also includes Alzheimer´s disease (AD), which represents a chronic neurodegenerative disorder, with long preclinical and prodromal phases (approx. 20 years) and an average clinical duration of 8–10 years. In the early phase of this disease, patients show deterioration of memory, difficulties in finding the right words for everyday objects or mood swings. The risk of AD grows exponentially with age, doubling approximately every 5 to 6 years. AD may contribute to 60–70% of all dementia cases, being the most common cause of this disease. Dementia is one of the major causes of disability and dependency among older people worldwide. The causes of the sporadic form of AD with late onset (LOAD) are not yet known, but it seems to be a result of multiple factors. Neuropathological features are extracellular senile plaques, containing beta-amyloid peptides (Aβ) and intracellular neurofibrillary tangles, containing paired helical tau proteins, which have been associated with neuronal loss and atrophy of the cerebral cortex. Thus, misfolded proteins seem to contribute to the pathogenesis, but are not the only players in the disease process. Developing feasible therapies is difficult due to the multifactorial pathology of AD. Currently approved drugs only attenuate symptoms, but do not cure the disease. Research into AD also has had several failures in terms of developing disease-modifying therapies. Thus, new therapeutic targets in order to develop a causal therapy are desperately needed. Since AD starts many years far before the first symptoms occur, new scientific approaches focus on the early stage, which are discussed to be important in aging and the onset of AD. Today, the hypothesis of the advanced mitochondrial cascade becomes more and more the leading model for LOAD, integrating physiological aging as the main risk factor. Thus, new interventions targeting mitochondrial dysfunction are of substantial interest. Accordingly, the efficacy of Dimebon and TRO19622 to ameliorate mitochondrial dysfunction in cellular and murine models of AD were investigated. Dimebon (Latrepirdine) was, originally developed in Russia as an H1-antiallergic drug. It might specifically interfere with mechanisms relevant for the cognitive decline, especially by improving impaired mitochondrial function and/or dynamics in AD. TRO19622 (Olesoxim) has been identified in a phenotypic screening approach to promote the survival of primary motor neurons. Olesoxim is easily absorbed by cells and accumulates in mitochondria. Olesoxim’s mode of action is not fully understood, however it has been shown to modulate mitochondrial membranes and interact with the voltage-dependent anion channel (VDAC) and the translocator protein (TSPO; also known as PBR). Thereby it inhibits mitochondrial permeability transition. In this study, the effects of Aβ overproduction on mitochondrial function were investigated. The effects of Dimebon and Olesoxim were examined, using a HEK cell line stably transfected with the Swedish APP double mutation (HEKsw) and un-transfected control cells (HEKut). Mitochondrial membrane potential, ATP concentrations, and respirometry were measured. Western Blot analysis of marker proteins for fission & fusion, autophagy, mitogenesis and mPTP formation were performed. Confocal laser scanning microscopy was introduced as a novel method to visualize mitochondrial dynamics. Olesoxim was also tested in Thy-1-C57BJ/6-APPSL mice representing a murine model of AD. For the in vivo model mitochondria from brain tissue were isolated and dissociated brain cells were prepared to determine respiration, lipid peroxidation, MMP, and ATP-levels. Both, the in vitro and in vivo models were compared and discussed in relation to human post-mortem data. The research was conducted in frame of the EU-project entitled „MITOTARGET“ (Mitochondrial dysfunction in neurodegenerative diseases: towards new therapeutics) funded under FP7-Health (http://cordis.europa.eu/result/rcn/54471_en.html). HEKsw cells showed an overall reduction in the mitochondrial respiration, a significant lower MMP, and significantly reduced ATP levels compared to HEKut cells. Mitochondrial mass was equal in both cell lines. In addition most mitochondria in HEKsw cells showed truncated morphology, followed by punctuated mitochondria. Levels of the fission related protein Drp were significantly elevated in HEKsw cells whereas protein levels of fusion related OPA were strongly reduced, leading to a shift in the distribution pattern towards shorter mitochondria. Moreover, HEKsw cells showed reduced mitochondrial density. Protein levels of the translocase of the inner mitochondrial membrane (TIMM50) were strongly diminished in HEKsw cells. The OXPHOS machinery is located in the inner membrane, where the MMP is build up and ATP is generated. Reduced TIMM50 levels in HEKsw indicated a reduction of the inner mitochondrial membrane, which could explain the described deficits in OXPHOS, MMP, ATP and mitochondrial morphology and density. Concentration of both mPTP markers, the voltage-depended anion channel (VDAC) and the peripheral benzodiazepine receptor (PBR), were broadly increased in HEKsw cells. Thy1-APPSL transgenic mice were characterized as in vivo model of AD. Those mice are modified to express the human form of APP, containing both, the Swedish (KM670/671NL) and the London (V717L) double mutations under the murine Thy1 promotor. Beginning at the age of 3 months, Thy1-APPSL mice develop elevated Aβ levels and mitochondrial dysfunction. Mitochondria isolated from brains of Thy-1-C57BJ/6-APPSL mice showed significant impaired respiration, resulting in a reduced MMP. However, ATP levels in dissociated brain cells did not differ compared to controls. Protein levels of FIS were unchanged, whereas Drp levels were significantly increased. Levels of the mitochondrial fusion marker optic atrophie-1 (Opa) protein were significantly reduced. Peroxisome proliferation-activated receptor gamma coactivator 1-alpha (PGC1) is a transcription factor, which represents a master regulator of mitochondrial biogenesis. PGC1 expression was significantly elevated in brains of Thy-1-C57BJ/6-APPSL mice. However, mitochondrial mass seemed to be equal in both mouse lines. Both LC3-Isoforms, the cytosolic and the autophagosomal form, were not changed in brains of Thy-1-C57BJ/6-APPSL mice, which indicates equal mitophagic activity. In brain homogenates, isolated from Thy-1-C57BJ/6-APPSL mice, both mPTP marker, VDAC and PBR, were considerably increased, which is in accordance with the findings in HEKsw cells. In conclusion, both, the cellular (HEKsw) and the animal model of AD (Thy1-APPSL) broadly match pathophysiological features, which have been found in post-mortem samples from AD patients. Thus, HEKsw cells and Thy1-APPSL mice seem to be suitable models to study new treatments against AD. Incubation of HEKsw cells with Dimebon resulted in a remarkable increase in respiratory activity and restored the MMP after impairing the cells with rotenon. Dimebon had no effects on ATP levels in both cell lines, neither after challenging cells with rotenon, nor under basal conditions. By adding Dimebon, citrate synthase (CS) activity in HEKsw cells was increased and mitochondrial morphology was shifted to a tubular shape. Dimebon further enhanced protein levels of Drp and resulted in the compensation of reduced OPA levels. Moreover, Dimebon restored the increased expression levels of the mPTP markers VDAC and PBR. Aβ1-40 levels were significantly decreased in HEKsw cells. However, changes in Aβ1-40 levels seemed to be too small, to solely explain the much larger effects of Dimebon on impaired mitochondrial function. In conclusion, Dimebon treatment restored diverse defects in Aβ overexpressing cells: Aβ levels were reduced, autophagy marker were increased, mitophagy as repair and renewal mechanism was elevated, mitochondrial mass and density were increased, OXPHOS capacity was restored, mitochondrial dynamics were balanced, mitochondrial shape showed a normal distribution, expression levels of the mPTP constituents were reduced, TIMM50 levels augmented to control levels and stress induced MMP and ROS levels were reduced. All these effects were observed after incubation of cells with a rather low concentration of 100 nmol/L. Based on these findings and in addition to already existing literature, Dimebon presents a potential therapeutic option for diseases with accompanied mitochondrial dysfunction. Although, clinical findings published so far are inconsistent. Olesoxim induced a general increase in respiratory activity and enhanced the electron transport (ETS) capacity in HEKsw cells. In addition it normalized the OXPHOS activity almost to control levels. However, incubation using different Olesoxim concentrations led to a dose independent decline in the MMP and decreased ATP levels. Adding Olesoxim caused a dose-dependent change in the length of mitochondria strongly shifting the pattern towards longer mitochondria. In HEKsw cells a reduced mitochondrial density was observed which was reversed by Olesoxim dose-dependently. Olesoxim completely compensated the severely reduced expression levels of TIMM50, but had no effects on TOMM22 levels. An unexpected finding was that 10 µM Olesoxim significantly increased Aβ1-40 levels. Effects of Olesoxim were also tested in vivo. Treatment of Thy-1-C57BJ/6-APPSL mice with Olesoxim restored the impaired MMP in dissociated brain cells, but had no effects on ATP-levels. Olesoxim increased the respiratory activity in isolated brain mitochondria and restored impaired respiration complex activities almost to control levels, without having an effect on CS activity. However, treatment with Olesoxim caused an increase of PGC1 protein levels in brains of Thy-1-C57BJ/6-APPSL mice,beyond basal levels of littermate controls. The mPTP marker proteins voltage-depended anion channel (VDAC) and peripheral benzodiazepine receptor (PBR) were significantly reduced. As well as in the cell models, treatment of Thy-1-C57 BJ/6-APPSL mice with Olesoxim significantly enhanced total human, soluble human and soluble mouse Aβ1-40 levels. Further investigation needs the observation that Olesoxim caused partly negative effects in controls. For instance, Olesoxim reduced the OXPHOS capacity and enhanced protein levels of VADAC and PBR in brains of C57BJ/6 littermate control mice, which could limit the applicability of Olesoxim in further preclinical studies.
Mikroalgen wird aufgrund ihrer photoautotrophen Lebensweise, ihrer meist einfachen Anzucht und ihres schnellen Wachstums ein großes Potential als Produzenten verschiedener Stoffe, wie beispielsweise den Sekundärmetaboliten der Carotinoidbiosynthese, zugesprochen. Zur Produktion solcher Stoffe bedarf es der Aufklärung der in einem Biosyntheseweg operierenden Enzyme und ihrer zugehörigen Gene.
In dieser Arbeit sollte einerseits durch genetische Modifikation der Carotinoidbiosynthese der Fucoxanthingehalt erhöht und andererseits die Produktion von Astaxanthin in P. tricornutum erreicht werden. Bisher fehlen experimentelle Nachweise über die Funktion, Regulation und die limitierenden Eigenschaften daran beteiligter Gene und deren Enzyme. Um dem Ziel der Arbeit näher zu kommen, wurden zuerst potentiell an der Regulation der Carotinoidbiosynthese beteiligte Gene ausgewählt und deren Enzyme funktionell charakterisiert. Eines dieser Enzyme ist das Eingangsenzym der Carotinoidbiosynthese, die Phytoen-Synthase. Die entsprechend annotierte putative Sequenz (psy #Pt56881) wurde zur Analyse herangezogen. Nachdem im Rahmen dieser Arbeit über die Komplementation in einem dafür ausgerichteten E. coli Stamm der funktionelle Nachweis der Phytoen-Synthase erbracht werden konnte, wurde untersucht, ob die Phytoen-Synthase einer lichtabhängigen Expression unterliegt und somit die Carotinoidsynthese im WT von P. tricornutum limitiert. Durch die Inhibierung der Phytoen-Desaturase mittels Norflurazon konnte die verstärkte Akkumulation des Produktes der Phytoen-Synthase, Phytoen, bei einem Transfer der P. tricornutum-Kulturen von Schwach- in Starklicht gezeigt werden. Die Expression der Phytoen-Synthase von P. tricornutum wird demnach durch die Lichtbedingungen reguliert und limitiert auch die Carotinoidsynthese. Ein weiteres an der Carotinoidsynthese beteiligtes Enzym ist die Zeaxanthin-Epoxidase. Sie bietet zugleich eine Möglichkeit, an dieser Stelle die Carotinoidsynthese in Richtung Astaxanthinproduktion umzulenken. Für P. tricornutum sind drei potentielle Genkandidaten (zep1: #Pt45845; zep2: #Pt56488; zep3: #Pt56792) annotiert, welche ebenfalls im Rahmen dieser Arbeit funktionell charakterisiert wurden. Der funktionelle Nachweis erfolgte dabei ebenfalls mittels eines Komplementationsansatzes in einem damit neu etablierten Expressionssystem mit npq2-Mutanten aus der Modellpflanze A. thaliana. Die Analyse der Transformanden zeigte eine Epoxidase-Aktivität des Produktes aus zep2 und zep3. Das Enzym Zeaxanthin-Epoxidase 2 weist dabei eine andere Spezifität auf als die Zeaxanthin-Epoxidase 3, welche funktionell betrachtet der Zeaxanthin-Epoxidase aus A. thaliana am nächsten kommt. Die Zeaxanthin-Epoxidase 2 akzeptiert im Unterschied zu Zeaxanthin-Epoxidase 3 neben Zeaxanthin auch andere Substrate wie Lutein mit nur einem 3 Hydroxy-β-Iononring und stellt damit einen validen Kandidaten für die Umwandlung von Diatoxanthin in Diadinoxanthin in P. tricornutum dar. Obwohl die Transkriptanalysen ausreichende Mengen an RNA von zep1 in A. thaliana zeigen und anhand eines zusätzlichen mit der Sequenz für GFP markierten zep1-Konstruktes in WT-Protoplasten von A. thaliana der Import in den Chloroplasten und die Expression nachgewiesen werden konnte, weist die Zeaxanthin-Epoxidase 1 zumindest in den A. thaliana-Transformanden keine Epoxidase-Aktivität auf. Des Weiteren zeigt die diurnale Expression in P. tricornutum, dass die Regulation der Zeaxanthin-Epoxidasen an den Bedarf photoprotektiver Pigmente angepasst wird. Während die Regulation des Transkript-Levels von zep2 und zep3 nahezu parallel laufen und ein gemeinsames Maximum aufweisen, zeigt das Transkript-Level von zep1 ein anderes Maximum.
Die gewonnenen Erkenntnisse wurden dann zur Steigerung der Synthesekapazität mittels genetischer Modifikation des Carotinoidsyntheseweges in P. tricornutum angewendet. Durch das Einbringen zusätzlicher Genkopien der Phytoen-Synthase in P. tricornutum konnte dabei eine deutliche Steigerung des Fucoxanthingehalts unter Schwachlichtbedingungen erreicht werden. Gleichzeitig konnte durch weitere inhibitorische Versuche mittels Norflurazon beim Transfer von Schwach- zu Starklicht demonstriert werden, dass die Carotinoidsynthese durch die Kombination der genetischen Modifikation mit der Phytoen-Synthase und Starklicht per se weiterhin gesteigert werden kann. Zusammen mit den Transkriptanalysen zeigen die Pigmentanalysen, dass es einen nicht-linearen Zusammenhang zwischen RNA-Menge und gebildeter Phytoenmenge gibt, welcher durch eine zusätzliche Substratlimitierung der Phytoen-Synthase erklärt werden kann.
Bevor das Herunterregulieren der Zeaxanthin-Epoxidasen in P. tricornutum durchgeführt und damit ein verstärkter Fluss zur Astaxanthinbildung erreicht werden sollte, wurde das Potential von P. tricornutum zur Astaxanthinproduktion überprüft. Hierfür wurde die β-Carotin-Ketolase (bkt #CrAEA35045.1) aus C. reinhardtii einmal ohne und zusätzlich mit verschiedenen Präsequenzen fusioniert separat in P. tricornutum eingebracht. Astaxanthin konnte trotz Nutzung funktionell bestätigter Präsequenzen aus der Literatur nicht nachgewiesen werden. Die Versuche zeigen damit, dass hier noch weitere Untersuchungen nötig sind, um mittels eines geeigneten Transportsystems Fremd-Proteine in den Chloroplasten von P. tricornutum einzubringen. Das Ausbleiben der Astaxanthinproduktion konnte an dieser Stelle nicht hinreichend geklärt werden.
Insgesamt schaffen die Ergebnisse dieser Arbeit eine weitere Grundlage, um die Carotinoidbiosynthese in P. tricornutum besser zu verstehen und diese mittels genetischer Modifikationen biotechnologisch nutzbar zu machen.
Die letzten Jahrzehnte brachten einen enormen Zuwachs des Wissens und Verständnisses über die molekularen Prozesse des Lebens.Möglich wurde dieser Zuwachs durch die Entwicklung diverser Methoden, mit denen beispielsweise gezielt die Konzentration einzelner Stoffe gemessen werden kann oder gar alle anwesenden Metaboliten eines biologischen Systems erfasst werden können. Die großflächige Anwendung dieser Methoden führte zur Ansammlung vieler unterschiedlicher -om-Daten, wie zum Beispiel Metabolom-, Proteom- oder Transkriptoms-Datensätzen. Die Systembiologie greift auf solche Daten zurück, um mathematische Modelle biologischer Systeme zu erstellen, und ermöglicht so ein Studium biologischer Systeme auch außerhalb des Labors.
Für größere biologische Systeme stehen jedoch meistens nicht alle Informationen über Stoffkonzentrationen oder Reaktionsgeschwindigkeiten zur Verfügung, um eine quantitative Modellierung, also die Beschreibung von Änderungsraten kontinuierlicher Variablen, durchführen zu können. In einem solchen Fall wird auf Methoden der qualitativen Modellierung zurückgegriffen. Eine dieser Methoden sind die Petrinetze (PN), welche in den 1960er Jahren von Carl Adam Petri entwickelt wurden, um nebenläufige Prozesse im technischen Umfeld zu beschreiben. Seit Anfang der 1990er Jahre finden PN auch Anwendung in der Systembiologie, um zum Beispiel metabolische Systeme oder Signaltransduktionswege zu modellieren. Einer der Vorteile dieser Methode ist zudem, dass Modelle als qualitative Beschreibung des Systems begonnen werden können und im Laufe der Zeit um quantitative Beschreibungen ergänzt werden können.
Zur Modellierung und Analyse von PN existieren bereits viele Anwendungen. Da das Konzept der PN jedoch ursprünglich nicht für die Systembiologie entwickelt wurde und meist im technischen Bereich verwendet wird, existierten kaum Anwendungen, die für den Einsatz in der Systembiologie entwickelt wurden. Daher ist auch die Durchführung der für die Systembiologie entwickelten Analysemethoden für PN nicht mit diesen Anwendungen möglich. Die Motivation des ersten Teiles dieser Arbeit war daher, eine Anwendung zu schaffen, die speziell für die PN-Modellierung und Analyse in der Systembiologie gedacht ist, also in ihren Analysemethoden und ihrer Terminologie sich an den Bedürfnissen der Systembiologie orientiert. Zudem sollte die Anwendung den Anwender bei der Auswertung der Resultate der Analysemethoden visuell unterstützen, indem diese direkt visuell im Kontext des PN gesetzt werden. Da bei komplexeren PN die Resultate der Analysemethoden in ihrer Zahl drastisch anwachsen, wird eine solche Auswertung dieser notwendig. Aus dieser Motivation heraus entstand die Anwendung MonaLisa, dessen Implementierung und Funktionen im ersten Teil der vorliegenden Arbeit beschrieben werden. Neben den klassischen Analysemethoden für PN, wie den Transitions- und Platz-Invarianten, mit denen grundlegende funktionale Module innerhalb eines PN gefunden werden können, wurden weitere, meist durch die Systembiologie entwickelte, Analysemethoden implementiert. Dazu zählen zum Beispiel die Minimal Cut Sets, die Maximal Common Transitions Sets oder Knock-out-Analysen. Mit MonaLisa ist aber auch die Simulation des dynamischen Verhaltens des modellierten biologischen Systems möglich. Hierzu stehen sowohl deterministische als auch stochastische Verfahren, beispielsweise der Algorithmus von Gillespie zur Simulation chemischer Systeme, zur Verfügung. Für alle zur Verfügung gestellten Analysemethoden wird ebenfalls eine visuelle Repräsentation ihrer Resultate bereitgestellt. Im Falle der Invarianten werden deren Elemente beispielsweise in der Visualisierung des PN eingefärbt. Die Resultate der Simulationen oder der topologischen Analyse können durch verschiedene Graphen ausgewertet werden. Um eine Schnittstelle zu anderen Anwendungen zu schaffen, wurde für MonaLisa eine Unterstützung einiger gängiger Dateiformate der Systembiologie geschaffen, so z.B. für SBML und KGML.
Der zweite Teil der Arbeit beschäftigt sich mit der topologischen Analyse eines Datensatzes von 2641 Gesamtgenom Modellen aus der path2models-Datenbank. Diese Modelle wurden automatisiert aus dem vorhandenen Wissen der KEGG- und der MetaCyc-Datenbank erstellt. Die Analyse der topologischen Eigenschaften eines Graphen ermöglicht es, grundlegende Aussagen über die globalen Eigenschaften des modellierten Systems und dessen Entstehungsprozesses zu treffen. Daher ist eine solche Analyse oft der erste Schritt für das Verständnis eines komplexen biologischen Systems. Für die Analyse der Knotengrade aller Reaktionen und Metaboliten dieser Modelle wurden sie in einem ersten Schritt in PN transformiert. Die topologischen Eigenschaften von metabolischen Systemen werden in der Literatur schon sehr gut beschrieben, wobei die Untersuchungen meist auf einem Netzwerk der Metaboliten oder der Reaktionen basieren. Durch die Verwendung von PN wird es möglich, die topologischen Eigenschaften von Metaboliten und Reaktionen in einem gemeinsamen Netzwerk zu untersuchen. Die Motivation hinter diesen Untersuchungen war, zu überprüfen, ob die schon beschriebenen Eigenschaften auch für eine Darstellung als PN zutreffen und welche neuen Eigenschaften gefunden werden können. Untersucht wurden der Knotengrad und der Clusterkoeffizient der Modelle. Es wird gezeigt, dass einige wenige Metaboliten mit sehr hohem Knotengrad für eine ganze Reihe von Effekten verantwortlich sind, wie beispielsweise dass die Verteilung des Knotengrades und des Clusterkoeffizienten, im Bezug auf Metaboliten, skalenfrei sind und dass sie für die Vernetzung der Nachbarschaft von Reaktionen verantwortlich sind. Weiter wird gezeigt, dass die Größe eines Modelles Einfluss auf dessen topologische Eigenschaften hat. So steigt die Vernetzung der Nachbarschaft eines Metaboliten, je mehr Metaboliten in einem biologischen System vorhanden sind, gleiches gilt für den durchschnittlichen Knotengrad der Metaboliten.
Weltweit sind ca. 130–180 Millionen Menschen mit HCV infiziert und jährlich sterben etwa 500.000 Menschen an dessen Folgen. Die neuartigen Therapien versprechen zwar eine sehr hohe Heilungsrate, sind aber aufgrund ihrer enorm hohen Kosten nur in Industrieländern verfügbar. Noch immer gibt es keine prophylaktische Vakzinierung gegen HCV. Deshalb ist es wichtig, den HCV-Lebenszyklus und die Interaktion zwischen Wirtszelle und Virus detailliert zu verstehen, um die Entwicklung von Therapien und Impfungen zu ermöglichen. Außerdem kann ein fundiertes Wissen von HCV translatiert werden und auf neuartige Erreger der Familie der Flaviviridae, wie Denguevirus und Zikavirus, angewendet werden. Während der Zelleintritt und die Replikation von HCV relativ gut charakterisiert sind, bleiben die Assemblierung und Freisetzung der viralen Partikel schlecht verstandene Schritte des HCV-Lebenszyklus. In dieser Arbeit sollte die Rolle des zellulären Proteins α-Taxilin im Lebenszyklus von HCV untersucht werden. In einer späteren Phase der Arbeit wurde der endosomale Freisetzungsweg von HCV untersucht. Dazu wurden HCV Varianten generiert und charakterisiert, die Fluoreszenz-Proteine im NS5A- und E1-Protein enthalten, durch die es möglich ist, den Replikationskomplex und die Viruspartikel zu visualisieren und zu quantifizieren und den viralen Lebenszyklus dadurch besser untersuchen zu können...
Heutzutage unterliegen insbesondere aquatische Ökosysteme durch den permanenten Anstieg nicht-heimischer Arten einem folgenreichen Wandel. Dabei stellt der Biodiversitätsverlust nur den Endpunkt einer biologischen Invasion dar. Dazwischen wirken sich Faktoren wie Konkurrenz-, Prädationsdruck oder die Übertragung von Krankheitserregern wie z.B. Parasiten auf den Rückgang der Arten aus. Als integraler Bestandteil eines jeden Ökosystems spielen Parasiten bei Invasionsprozessen eine entscheidende Rolle und können durch ihren Einfluss auf heimische und nicht-heimischen Arten Invasionen begünstigen. Fische übernehmen aufgrund ihrer vielseitigen Bedeutung im Nahrungsnetz eine Schlüsselfunktion als Wirte diverser Parasitenarten und sind deshalb ausgezeichnete Untersuchungsobjekte, um durch nicht-heimische Arten verursachte Veränderungen in Nahrungsnetzstrukturen oder Parasitenfaunen aquatischer Ökosysteme aufzudecken.
Vor diesem Hintergrund wurde die vorliegende kumulative Dissertation angefertigt, welche auf drei (ISI-) Einzelpublikationen basiert. Die Arbeit beschäftigte sich unter Verwendung morphologischer und molekularbiologischer Methoden schwerpunktmäßig mit der Parasitendiversität und Nahrungsökologie zweier eingeschleppter Fischarten in stark anthropogen beeinflussten deutschen Fließgewässern. Dabei handelte es sich um die hauptsächlich durch das Ballastwasser von Schiffen verbreitete invasive Schwarzmundgrundel Neogobius melanostomus aus den Flüssen Rhein und Main sowie den von Hobby-Aquarianern in den durch Industrieabwässer thermisch belasteten Gillbach ausgesetzten Zebrabuntbarsch Amatitlania nigrofasciata. Unter Berücksichtigung nahrungsökologischer und räumlich-zeitlicher Aspekte sollten die parasitologischen Risiken und Konsequenzen, welche durch das Einschleppen nicht-heimischer Fischarten auftreten, aufgezeigt werden, um übergeordnet die Folgenabschätzung auf dem Gebiet der Invasionsbiologie zu verbessern. Das Nahrungsspektrum beider Fischarten wies sowohl räumliche (zwischen den Flüssen und Standorten), als auch zeitliche (monatlich) Variationen auf, was die Anpassungsfähigkeit bzw. die optimale Nutzung zur Verfügung stehender Ressourcen von invasiven Arten verdeutlicht. Ebenso wurden Unterschiede in der Parasitierung nachgewiesen, was die Notwendigkeit räumlicher und zeitlicher Analysen zur Erfassung der vollständigen Parasitenfauna einer invasiven Art, inklusive aller Variationen der Befallszahlen, unterstreicht. Beide Fischarten bilden zudem Zwischenwirte für heimische, als auch nicht-heimische Parasitenarten, wobei die direkte Einschleppung von nicht-heimischen Parasiten aus dem ursprünglichen Verbreitungsgebiet der Fische auszuschießen ist und somit die Enemy-Release-Hypothese (Verlust ursprünglicher Gegenspieler wie Prädatoren oder Parasiten) unterstützt. Dies könnte zusammen mit der opportunistischen Ernährungsweise ein Grund für die starke Ausbreitung sowie die anhaltend hohen Individuenzahlen dieser Arten im jeweils betrachteten Verbreitungsgebiet (Rhein, Main sowie Gillbach) sein.
Besonders hervorzuheben ist der Nachweis der nicht-heimischen Nematoden Anguillicoloides crassus und Camallanus cotti. Durch die Aufdeckung einer besonderen Form von Hyperparasitismus konnten erstmalig hohe Befallszahlen von A. crassus in N. melanostomus dokumentiert werden. Die hoch abundante Grundelart gilt somit potentiell als entscheidender Überträger des invasiven Parasiten auf den Europäischen Aal. Der durch seine hohe Virulenz in der Aquaristik bekannte C. cotti gelangte durch das Aussetzen von Zierfischen in den Gillbach und trat mit hohen Befallszahlen in A. nigrofasciata auf und wird bereits auf die heimische Fischfauna übertragen (z.B. auf den Gründling Gobio gobio und den Döbel Squalius cephalus). Ebenso ist der starke Befall der heimischen Parasiten Pomphorhynchus sp. (Acanthocephala) und Raphidascaris acus (Nematoda) bei N. melanostomus sowie A. anguillae (Acanthocephala) bei A. nigrofasciata zu nennen. Durch die zusätzliche Wirtfunktion der Neozoen und die hohen Befallsintensitäten ist mit einem verstärkten Spillback-Effekt (Rückinfizierung) auf heimische Fischarten zu rechnen.
Die stetig steigende Anzahl biologischer Invasionen führt zu immer weitreichenderen Veränderungen heimischer Ökosysteme. Für den Erhalt der Biodiversität sowie einhergehender Ökosystemfunktionen rückt auch die Forschung über Neobiota immer mehr in den Mittelpunkt. In diesem Zusammenhang gewinnen auch Pathogene wie Parasiten immer mehr an Bedeutung, welche durch gebietsfremde Arten eingeschleppt werden und die bestehende Biodiversität gefährden können. Die Ergebnisse der durchgeführten Studien haben gezeigt, dass die Verknüpfung von parasitologischen und nahrungsökologischen Untersuchungen Einblicke in die hoch dynamischen Prozesse der Invasionsbiologie geben können, was ein Vorantreiben der Forschung und Folgenabschätzungen auf diesem Gebiet ermöglicht.
Diese Dissertation geht der Frage nach, wie die Literacy-Förderung der Kinder im Kindergartenalter in türkischstämmigen Familien in Deutschland stattfindet. Es wird der Frage nachgegangen, wie sich sozioökonomische und soziokulturelle Verhältnisse der Familien die Literacy-Förderung beeinflussen. Es wurden zwei qualitative Untersuchungen durchgeführt. Im ersten Teil der Arbeit wurden zwölf Mütter anhand halbstrukturierter Interviews befragt. Die Daten wurden anhand der qualitativen Inhaltsanalyse ausgewertet. Im zweiten Teil wurde als nichtteilnehmende, offene Beobachtung der Vorlesesituation durchgeführt. Anhand der Sequenzanalyse wurde die Vorgehensweise der Mütter während des Vorleseprozesses ausgewertet.
Es wurde untersucht, inwieweit der ökonomische Status und das kulturelle Kapital der Eltern für die Literacy-Förderung prägend sind. In den untersuchten Familien sind sowohl die literacy-bezogenen Aktivitäten als auch die Erziehung insgesamt stark an den Normen der Mehrheitsgesellschaft orientiert. Entscheidend sind nicht auf Ethnizität bezogene Zuschreibungen, sondern die sozioökonomische Stellung und das kulturelle Kapital der Eltern bei der Literacy-Förderung in den türkischstämmigen Familien.
Die Untersuchung zeigt im ersten Teil, dass die untersuchten Familien bei der Literacy-Förderung mit zahlreichen Hindernissen konfrontiert sind, die nicht primär ethnisch begründet sind, sondern vielmehr auf sozioökonomische und soziokulturelle Faktoren zurückgeführt werden müssen. Die berufliche Situation und Arbeitsbedingungen der Eltern erschweren die Durchführung der literacy-bezogenen Aktivitäten. Der ökonomische Status und der Bildungsstand sowie das kulturelle Kapital der Eltern ist der Grund für Hindernisse. Das macht sich bemerkbar in drei Gesichtspunkten: (i) Bei der direkten Anregung des Kindes zu Literacy, wenn das Kind zum Schreiben initiiert wird, sein Interesse für Bücher geweckt oder bei alltäglichen Aktivitäten zum Schriftentdecken herangeführt wird. Die Mütter, die über kulturelles Kapital verfügen, führen diese Aktivitäten regelmäßig und effizient durch. (ii) Bei der Gestaltung der Literacy-Umgebung, wenn diese vielfältig gestaltet wird (z.B. die Auswahl elektronischer Medien). Hierbei macht sich der sozioökonomische Status am deutlichsten bemerkbar. (iii) Auch bei der die Vorbildfunktion der Eltern als indirekte Anregung macht sich kulturelles Kapital bemerkbar. Im zweiten Teil der empirischen Untersuchung zur Vorlesesituation sind zwei Handlungsmuster festgestellt worden, die dem Vorleseverhalten der Mütter zugrundeliegen. Dabei ist das kulturelle Kapital entscheidend. Die Mütter mit niedrigem Kulturkapital führen den Vorleseprozess monologisch und einseitig, sodass die Kinder nicht oder nicht hinreichend einbezogen werden. Die Mütter mit höherem Kulturkapital dagegen gestalten den Vorleseprozess dialogisch, sodass das Kind eingebunden wird. Der wichtigste Unterschied zwischen den beiden Handlungsmustern ist die Vermittlung der Erzählung. Im dialogischen Handlungsmuster wird der Vorleseprozess interaktiv gestaltet und die Haupthandlung der Geschichte im Blick behalten. Im monologischen Handlungsmuster aber hoffen die Vorlesenden, dass die Kinder durch bloßes Zuhören die Geschichte begreifen. Hier dominiert die Fokussierung auf die Einzelhandlungen. Während die Mütter höherem Kulturkapital die Vermittlung der Erzählung als ein zu erreichendes Ziel begreifen, tritt dies bei denen mit geringem Kulturkapital in den Hintergrund.