Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (5744) (remove)
Language
- German (3646)
- English (2069)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5744)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1532)
- Biowissenschaften (836)
- Biochemie und Chemie (729)
- Physik (597)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (313)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (111)
- Psychologie (97)
Effiziente kryptographische Algorithmen sind ein wichtiger Grundstein für viele neue Anwendungen, wie zum Beispiel das Internet der Dinge (IoT) oder kontaktlose Zahlungssysteme. Daher ist es wichtig, dass neue Algorithmen mit verbesserten Sicherheitseigenschaften und speziellen Leistungseigenschaften entwickelt und analysiert werden. Ein Beispiel ist der aktuelle Trend zu leichtgewichtigen Algorithmen. Diese Entwicklungen erleichtern die Implementierung neuartiger Systeme und ermöglichen auch einen Schutz von bestehenden Systemen durch eine Anpassung auf den neuesten Stand der Technik. Neben der kryptologischen Analyse, ist die Bewertung von Implementierungs-Aspekten sehr wichtig, damit eine realistische Einschätzung der erzielbaren Leistung möglich ist.
Daher müssen für jeden neuen Algorithmus unterschiedliche Software- und Hardwarearchitekturen evaluiert werden. Die systematische Bewertung von Software-Implementierungen für unterschiedliche Hardware-Architekturen hat in den letzten Jahren große Fortschritte gemacht, zum Beispiel durch den SHA-3 Wettbewerb. Im Vergleich dazu ist die Evaluation für Hardware-Plattformen wie z.B. FPGAs weiterhin sehr zeitaufwendig und fehleranfällig. Dies liegt an vielen Faktoren, z.B. an den mannigfaltigen Möglichkeiten der verschiedenen Zieltechnologien. Ein möglicher Verbesserungsansatz besteht darin, die Bewertung mit einem abstrakteren Ansatz zu beginnen, um interessante Architekturen und Implementierungen anhand von theoretischen Eigenschaften auszuwählen.
Der erste Hauptbeitrag dieser Arbeit ist die Entwicklung einer abstrakten Bewertungsmethodik, die auf einem theoretischen Modell von getakteten Schaltungen basiert. Das Modell verbessert das Verständnis von Grundeigenschaften dieser Schaltungen und erleichtert auch die abstrakte Modellierung von Architekturen für einen spezifischen Algorithmus. Wenn mehrere verschiedene Architekturen für den gleichen Algorithmus ausgewertet werden, ist es auch möglich zu bestimmen, ob ein Algorithmus gut skaliert. Beispielsweise können Auswirkungen einer Verkleinerung des Datenpfades auf die Größe des Speicherverbrauchs analysiert werden. Basierend auf der entwickelten Methodik können wichtige Eigenschaften, wie der Speicherbedarf, die Anzahl an Taktzyklen oder die Pipeline-Tiefe systematisch bewertet werden. Damit kann eine grobe Schätzung für die Effektivtät einer Architektur abgeleitet werden.
Die Performance-Abschätzung wird auch durch ein theoretisches Konzept der Optimalität der Anzahl an Taktzyklen untermauert. Optimal in diesem Sinne ist eine Architektur, wenn sie verzögerungsfrei ist, d.h. keine Wartezyklen benötigt. Durch die Betrachtung von Datenabhängigkeiten zwischen den einzelnen Runden kann eine minimale und maximale Anzahl an Taktzyklen ermittelt werden. Eine Verletzung dieser Grenzen würde bedeuten, dass die Berechnung der Runden-Funktion nicht alle Ausgangs-Bits produziert hat, wenn diese für die nächste Runde benötigt werden und somit würden Wartezyklen entstehen.
Der zweite Beitrag der Dissertation nutzt die Analysemethodik für mehrere Hash-Funktion. Es werden sechs Hash-Funktionen bewertet: BLAKE, Grøstl, Keccak, JH, Skein und Photon. Die ersten fünf Hash-Funktionen sind die Finalisten des SHA-3 Wettbewerb. Die SHA-3 Finalisten haben eine hohe Sicherheit als oberstes Design-Ziel und nur in zweiter Linie eine hohe Performance. Im Gegensatz dazu wurde Photon für leichtgewichtige Anwendungen konzipiert, z.B. RFID-Tags. Dazu wurde auch die Sicherheit von Photon reduziert. Für jeden Algorithmus wird eine oder mehrere mögliche Organisationensformen des Speichers entwickelt. Als nächstes wird die Anzahl von Taktzyklen auf der Grundlage der Speicherorganisation ermittelt. Das generelle Ziel dabei ist die Entwicklung von Architekturen mit einer optimalen Anzahl von Taktzyklen. Die Diskussion konzentriert sich als nächstes auf verschiedene Möglichkeiten die Runden-Funktion optimal umzusetzen. Das Ergebnis der Evaluierung umfasst mindestens die Schätzung der minimalen Speicheranforderung, die analysierte Pipeline-Tiefe und den theoretischen Durchsatz für lange Nachrichten mit einer festgelegten Taktfrequenz. Diese Ergebnisse lassen eine Einschätzung über die mögliche Leistung der jeweiligen Architekturen zu.
Der dritte Beitrag der Arbeit besteht aus mehreren Implementierungs-Ergebnissen. Zunächst werden Ergebnisse für die SHA-3 Finalisten BLAKE, Grøstl, JH, Keccak und Skein gezeigt. Von den fünf Algorithmen haben alle außer Skein eine relativ hohe Performanz, während Skein abgeschlagen ist. Eine weitere Untersuchung konzentriert sich auf kleinere Implementierungen des SHA-3 Siegers Keccak. Dazu gehören auch nicht standardisierte Varianten mit einem kleineren Zustand. Diese kleineren Versionen werden mit ersten FPGA-Ergebnissen für die Photon Hash-Funktion verglichen. Eine wesentliche Erkenntnis davon ist, dass Keccak auch für FPGA-Anwendungen mit beschränktem Ressourcen-Bedarf prinzipiell sehr wettbewerbsfähig ist.
Ferroelektrische Strontium-Wismut-Tantalat- (SBT) Filme werden in der Mikroelektronik als nicht-flüchtige Speichermedien verwendet und weiterentwickelt. Informationen werden durch Polarisation des Materials gespeichert und bleiben ohne weiteren Energieaufwand über einen Zeitraum von Jahren in solchen Speichern erhalten – sogenannten FeRAMs (Ferroelectric Random Access Memories). Darüber hinaus können gespeicherte Daten innerhalb von wenigen Nanosekunden wieder ausgelesen werden. Zusammengefasst ist eine Langzeitspeicherung kombiniert mit niedrigem Energieverbrauch und schneller Informationsverarbeitung durch den Einzug ferroelektrischer Materialien in die Computertechnologie möglich geworden.
Da die fortschreitende Miniaturisierung in der Mikroelektronik von zentraler Bedeutung ist, sind zur Charakterisierung der verwendeten Materialien Untersuchungsmethoden mit hoher Ortsauflösung unverzichtbar. Das Rasterkraftmikroskop – engl. Atomic Force Microscope (AFM) – ist eine solche Technik, mit der im Submikrometerbereich die Topographie sowie physikalische Eigenschaften von Materialien abgebildet werden können. Die vorliegende Arbeit widmet sich der Untersuchung von SBT-Filmen mit solchen AFM-Methoden.
Besonders die Rauhigkeit der einzelnen Filme in schichtartig aufgebauten Mikrochips ist bei der Herstellung von Halbleiterbauelementen von großer Bedeutung, wobei möglichst glatte Filme favorisiert werden. Deshalb wurden zunächst verschiedene SBT-Filme auf ihre topographischen Merkmale hin charakterisiert. Die Rauhigkeiten von SBT Filmen verschiedener Herstellungsverfahren wie der Metal Organic Decomposition (MOD) und der Metal Organic Chemical Vapour Deposition (MOCVD) wurden gegenübergestellt. Außerdem ist der Einfluss der SBT-Schichtdicke sowie der des Ferro-Anneals untersucht worden – Ferro-Anneal ist ein Temperungs-Schritt während der Filmherstellung, der zur Bildung der ferroelektrischen Aurivillius-Phase durchgeführt werden muss. Zudem wurde das unterschiedliche Kurzschlussverhalten zweier SBT-Filme in Zusammenhang mit ihren verschiedenen RMS-Rauhigkeitsdaten gebracht.
Der größte Teil der Arbeit setzt sich mit einer Methode auseinander, mit der die Polarisationseigenschaften von ferroelektrischen SBT-Filmen charakterisiert werden sollen – dem AFM/EFM-Polarisationsexperiment – engl. Electrostatic Force Microscope (EFM). Die SBT-Filme werden dabei mit einer AFM-Spitze polarisiert und in einem zweiten Schritt die daraus resultierenden elektrostatischen Felder mit einem EFM über der Probe abgebildet. Es wurde dabei kritisch hinterfragt, in wieweit diese Methode als Beurteilungskriterium der Materialeigenschaften herangezogen werden kann. Zudem wurden Aufladungsphänomene bei dieser Versuchsführung dokumentiert.
Außerdem wurde das Leckstromverhalten von SBT-Filmen auf der Submikrometerskala mit einer relativ neuen Messmethode, dem conducting-AFM (C-AFM), untersucht.
Die Ergebnisse aller Untersuchungen sind im folgenden stichpunktartig dargestellt.
Topographieuntersuchungen:
• Die RMS-Rauhigkeit von MOD/SBT-Filmen ist größer als die der MOCVD/SBTFilme. Mit steigender Prozesstemperatur des Ferro-Anneals wird die Oberflächenrauhigkeit von SBT-Filmen erhöht.
• SBT-Filme, die mit niedrigen Prozesstemperaturen hergestellt wurden, hier als Niedrigtemperatur-Filme bezeichnet, erfahren mit zunehmender Schichtdicke eine Glättung. Sie ist auf die Einbettung der Kristallite in die verhältnismäßig glatte FluoritPhase zurückzuführen, die wegen der geringen Temperaturen während des FerroAnneal-Prozesses noch nicht vollständig in die rauere ferroelektrische AurivilliusPhase umgesetzt wurde.
• Die unterschiedliche Zusammensetzung der Filme SrxBi2.2Ta2O8,3+x mit X1 = 0.9 und X2 = 1,0, im Text als Sr0,9-Film und Sr1,0-Film bezeichnet, führte zu höheren Kurzschlussraten des Sr0,9-Films in fertiggestellten FeRAM-Kondensatoren. Die Ursache kann auf die höhere Oberflächenrauhigkeit des Sr0,9-Films zurückgeführt werden. EFM-Untersuchungen:
• Bei der Polarisation ferroelektrischer SBT-Filme mit einer elektrisch gepolten AFMSpitze werden Ladungen in undefinierbarer Anzahl auf die Oberflächen gebracht. Diese Ladungen sind mehr oder weniger auf den Oberflächen beweglich. Mit zunehmender Polarisierbarkeit des ferroelektrischen Films wird die Ladung stärker am Polarisationsort durch elektrostatische Anziehung zwischen den orientierten Dipolen und der Oberflächenladung fixiert.
Der Gyrus dentatus ist eine anatomische Region im Hippocampus und besitzt die einzigartige Fähigkeit auch im adulten Gehirn lebenslang neue Nervenzellen zu generieren. Dieser Prozess wird als adulte Neurogenese bezeichnet, stellt eine besondere Form struktureller Plastizität dar und es wurde gezeigt, dass adult neugebildete Körnerzellen im Gyrus dentatus essentiell am Prozess des hippocampalen Lernens und der Gedächtnisausbildung beteiligt sind. Es wird vermutet, dass neue Körnerzellen aufgrund ihrer charakteristischen Eigenschaften verstärkt auf neue Informationsmuster reagieren können und darauf spezialisiert sind Muster, die eine hohe Ähnlichkeit zueinander haben zu separieren und diese Unterschiede zu kodieren. Obwohl bereits eine Vielzahl von wissenschaftlichen Studien zum Verständnis der Entwicklung und Funktion adult neugebildeter Körnerzellen beitragen konnte, bestehen immer noch Unklarheiten darin, wie sich diese neuen Nervenzellen strukturell entwickeln, wann es zu einer funktionellen Integration kommt und wie diese beiden Prozesse miteinander zusammenhängen. In den vorliegenden Arbeiten wurde die strukturelle Entwicklung und synaptische Integration adult neugebildeter Körnerzellen in das bestehende hippocampale Netzwerk der Ratte und Maus unter in vivo Bedingungen untersucht. Zur Beantwortung dieser Fragen wurden Methoden aus der Anatomie, Histologie und in vivo Elektrophysiologie kombiniert. Der Nachweis neuer Körnerzellen erfolgte entweder durch immunhistologische Färbungen gegen spezifische Marker für unreife und reife Körnerzellen, Markierungen mit Bromdesoxyuridin oder retro- bzw. adenovirale intrazerebrale Injektionen und Expression von GFP. Es wurde eine in vivo Stimulation des Tractus perforans in der anästhesierten Ratte zur Langzeitpotenzierung der Körnerzellsynapsen und anschließend eine immunhistologische Analyse der Expression von synaptischen Aktivitäts- und Plastizitätsmarkern in neugebildeten und reifen Körnerzellen nach der Stimulation durchgeführt. Zusätzlich wurden detaillierte drei-dimensionale Rekonstruktion dendritischer Bäume erstellt und dendritische Dornenfortsätze an retroviral markierten Zellen analysiert.
Die vorliegenden Daten belegen den generellen Verlauf der Entwicklung neugeborener Körnerzellen in zwei unterschiedliche Phasen: eine frühe dendritische Reifung und eine späte funktionelle und synaptische Integration. Neugeborene Körnerzellen zeigten ein rasches dendritisches Auswachsen, dass innerhalb der ersten drei bis vier Wochen abgeschlossen war. Während dieses Wachstumsprozesses passieren Dendriten nacheinander die Körnerzellschicht und anschließend die innere, mittlere und äußere Molekularschicht. Dadurch sind sie innerhalb ihrer morphologischen Entwicklungsphasen anatomisch auf spezifische präsynaptische Partner limitiert. In der wissenschaftlichen Literatur wird eine transiente kritische Phase beschrieben, in der neugeborene Körnerzellen eine starke Plastizität und sensitivere synaptische Erregbarkeit aufweisen. Obwohl die vorliegenden Resultate keine direkten Hinweise auf eine stärkere bzw. sensitivere Plastizität neugeborener Körnerzellen liefern, konnte eine Phase zwischen vier und fünf Wochen identifiziert werden, in der neue Körnerzellen einen sprunghaften Anstieg in ihrer Fähigkeit zur Expression synaptischer Aktivitätsmarker (z.B. Arc und c-fos) und Ausbildung struktureller Plastizität (Dendriten und Dornenfortsätze) zeigten. Die präsentierten Resultate machen deutlich, dass Dornenfortsätze neuer Körnerzellen nach elf Wochen eine vergleichbare Dichte, Größenverteilung und Plastizität aufzeigen, die vergleichbar mit denen vorhandener Körnerzellen sind. Die Fähigkeit zur dendritischen Plastizität nach synaptischer Aktivierung zeigten jedoch nur neugeborene Körnerzellen zwischen der vierten und fünften Woche. Diese Ergebnisse implizieren, dass die Integration neugebildeter Körnerzellen kontinuierlich verläuft und obwohl die vorliegenden Daten die Existenz einer dendritischen Plastizität und einen sprunghaften Anstieg synaptischer Plastizität in der vierten und fünften Woche belegen, wurden keine weiteren Hinweise auf eine transiente kritische Phase gefunden. Des Weiteren zeigten dendritische Bäume von gereiften adult neugeborenen und reifen Körnerzellen Unterschiede, die daraufhin deuten, dass neue Körnerzellen eine eigene Subpopulation darstellen.
G-protein coupled receptors (GPCRs) are the key players in signal perception and transduction and one of the currently most important class of drug targets. An example of high pharmacological relevance is the human endothelin (ET) system comprising two rhodopsin-like GPCRs, the endothelin A (ETA) and the endothelin B (ETB) receptor. Both receptors are major modulators in cardiovascular regulation and show striking diversities in biological responses affecting vasoconstriction and blood pressure regulation as well as many other physiological processes. Numerous disorders are associated with ET dysfunction and ET antagonism is considered an efficient treatment of diseases like heart failure, hypertension, diabetes, artherosclerosis and even cancer. This study exemplifies strategies and approaches for the preparative scale synthesis of GPCRs in individual cell-free (CF) systems based on E. coli, a newly emerging and promising technique for the production of even very difficult membrane proteins. The preparation of high quality samples in sufficient amounts is still a major bottleneck for the structural determination of the ET receptors. Heterologous overexpression has been a challenge now for decades but extensive studies with conventional cell-based systems had only limited success. A central milestone of this study was the development of efficient preparative scale expression protocols of the ETA receptor in qualities sufficient for structural analysis by using individual CF systems. Newly designed optimization strategies, the implementation of a variety of CF expression modes and the development of specific quality control assays finally resulted in the production of several milligrams of ETA receptor per one millilitre of reaction mixture. The versatility of CF expression was extensively used to modulate GPCR sample quality by modification of the solubilization environment with detergents and lipids in a variety of combinations at different stages of the production process. Downstream processing procedures of CF synthesized GPCRs were systematically optimized and sample properties were analysed with respect to homogeneity, protein stability and receptor ligand binding competence. Evaluation was accomplished by an array of complementary and specifically modified techniques. Depending on its hydrophobic environment, CF production of the ETA receptor resulted in non-aggregated, monodisperse forms with sufficient long-term stability and high degrees of secondary structure thermostability. The obtained results document the CF production of the ETA receptor in two different modes as an example of a class A GPCR in ligand-binding competent and non-aggregated form in quantities sufficient for structural approaches. The presented strategy could serve as basic guideline for the production of related receptors in similar systems.
In Hugo von Hofmannsthals ‚Bewegungs-Texten’ wird das Schweigen zu einem beredten Gestus von (bewegten) Körpern und Bildern. Schweigen nicht als Leerstelle, als Negativ des Sprechens, sondern als sein Urgrund generiert Bedeutungen und dringt durch die Weise, wie es jene vermittelt, auf eine Modifikation der Wahrnehmung. Bewegung wird dabei gleichermaßen zum Konzept der Darstellungsabsicht, die eine Transgression des Textuellen anstrebt, wie zur Metapher der Umstrukturierung von Wahrnehmung und Erfahrung des Menschen in der Moderne. Um die ‚stummen’ Künste wie Pantomime, Tanz und Film in den (Be)Griff zu bekommen, stellt Hofmannsthal - ausgehend von der eigenen Beobachter-Erfahrung - den Zuschauer des Schauspiels in den Mittelpunkt seiner Texte. Stets ist in den Szenarien der medienreflexive Blick des Autors auf Bühne, Leinwand und Zuschauer präsent und wird dabei begleitet von Überlegungen zur spezifischen Medialität von Sprache, Musik und Bild. So bedenken beispielsweise auch zahlreiche Texte Hofmannsthals aus der Sammlung der Erfundenen Gespräche und Briefe, die den Zusammenhang von Wahrnehmung, Körper und Sprache thematisieren, den (beweglichen) Standpunkt des Beobachters als eigentlichen Prüfstein des Medialen. Auf diese Weise wird nicht nur erkennbar, wie Medien je unterschiedlich die Wahrnehmungsweisen des Menschen formen, sondern auch wie sie Selbst- und Weltverhältnisse herstellen, indem sie versuchen Absenz in Präsenz zu überführen. Dementsprechend weit gefasst ist Hofmannsthals Medienbegriff. Ihr grundsätzlich symbolischer Charakter verbindet die einzelnen Medien miteinander. Das Interesse des Dichters, der erkennt, dass er niemals „aus seinem Beruf, Worte zu machen, herausgehen“ können wird, konzentriert sich auf die Interdependenzen und die Austauschverhältnisse verschiedener symbolischer Formen, die nichtsdestotrotz nach je eigenen Gesetzmäßigkeiten funktionieren und diesen auch gerecht werden müssen, um ‚das Leben transponieren’ zu können. In den Szenarien für Pantomime, Tanz und Film spürt Hofmannsthal diesen Funktionsweisen nach. Er erkundet den Zusammenhang von Literatur, Musik und Tanz, entdeckt das Wissen des Körpers, dessen Erinnerungsfähigkeit derjenigen der klassischen Memorialtechnik der Schrift gegenübergestellt wird. Er thematisiert über den tanzenden Körper den Konnex von Mimesis und Identität, von Imagination und Wirklichkeit, Projektion und Abbild. Zudem wird der tanzende Körper als Inbegriff des Anderen, Fremden, (Weiblichen) vorgeführt und darüber sein fragwürdiger Status als ‚Natur’ problematisiert. Die vermeintlichen Antagonismen von Natur und Kultur, Leib und Seele, Sprache und Körper, Individuum und Gesellschaft sowie Freiheit und Determiniertheit geraten in Vermittlung und können dergestalt begreiflich machen, wie komplex verschiedene mediale Verfahren der Verkörperung, Einschreibung und Verbildlichung strukturiert und miteinander verzahnt sind. So können mystische Visionen auf der Bühne als filmische Bilderflucht inszeniert, die Schaulust im Kino zum Wahrnehmungsdispositiv einer Pantomime oder der Akt des Schreibens im Film mit dessen Performativiät und der Prozessualität der filmischen Bilderfolge in Beziehung gesetzt werden.
Drought stress is one of the major abiotic factors diminishing crop productivity world wide. In the course of climate change, regions which already experience dry seasons nowadays will suffer from elongated drought periods and water shortage. These climatic changes will not only have an impact on the regional flora and fauna but also on the people inhabiting these areas. It is therefore of great importance to understand the reactions of plants to drought stress to help breeding and biotechnological approaches for the benefit of new robust cereal cultures growing under low water regimes. In this dissertation four grasses of the genus Panicum, P. bisulcatum (C3), P. laetum, P. miliaceum and P. turgidum (all C4 NAD-ME) were subjected to drought stress. The plants diverse reactions were investigated on a physiological as well as on a molecular level to deepen the understanding of drought stress responses. Drought stress was imposed for a species-specific period until a relative leaf water content (RWC) of ~50 % was reached in each grass. Physiological measurements were conducted on leaves with a RWC of ~50 % investigating chlorophyll a fluorescence parameters with a Plant Efficiency Analyzer (PEA) and gas exchange parameters like the photosynthesis rate and stomatal conductance with a Gas Fluorescence Chamber (GFS-3000). Subsequent molecular analysis were conducted on leaf samples taken (RWC = 50 %) analysing different proteins and the transcriptome of the Panicum species. The physiological measurements revealed a higher photosynthesis rate for the C4 grasses under drought stress with no significant differences between the C4 species. Also the water use efficiency was significantly higher in the C4 species in comparison to the C3 species independent from the water regime supporting results from the literature. The chlorophyll a measurements revealed the strongest adaptation to water shortage in the C4 species P. turgidum followed by the C3 species P. bisulcatum. It has been shown before (GHANNOUM 2009) that the C4 photosynthesis apparatus is more prone to drought stress than the C3 apparatus – despite the higher water use efficiency. Results also suggested that the great adaptation of P. turgidum to drought stress arose from its ability to recover from drought stress (all JIP test parameters showed no significant differences between control and recovery samples). The additional down-regulation of PS II but not of PS I under drought stress also helped the plant to endure times of water shortage and facilitated the recovery when water was available again. Protein analyses on the content of PEPC, OEC and RubisCO (LSU and SSU) revealed no changes. Dehydrin 1 in contrast was strongly up-regulated under drought stress and Summary 108 recovery in all four Panicum species. The stable content of the OEC protein was therefore not the catalyst of rising K peaks measured by chlorophyll a fluorescence and a reduced OEC activity was supposed. Transcriptomic analyses revealed a myriad of differentially regulated tags. Due to unsequenced genomes, tags could only be partially (8 % maximum for P. turgidum) annotated to their specific genes. Diverse methods were therefore used to annotate the most highly regulated tags to their genes and their products. Special emphasis was put on the regulation of five gene products confirming the regulation schemata from the HT-SuperSAGE analyses. Interestingly one protein – the NCED1 – was down-regulated under stress conditions, in contrast to results from the literature. It is therefore of great importance to investigate longer lasting drought to understand the full range of drought stress adaptation. Future genome sequencing projects might also include the Panicum species investigated in this dissertation and important gene candidates with no hits (maybe completely new to the research community) might help breeding and biotechnology approaches to produce more drought resistant crop species.
Der im Jahr 2004 am IWR Heidelberg entwickelte Neuronen Rekonstruktions-Algorithmus NeuRA extrahiert die Oberflächenmorphologie oder ein Merkmalskelett von Neuronenzellen, die mittels konfokaler oder Zwei-Photon-Mikroskopie als Bildstapel aufgenommen wurden. Hierbei wird zunächst das Signal-zu-Rausch-Verhältnis der Rohdaten durch Anwendung des speziell entwickelten trägheitsbasierten anisotropen Diffusionsfilters verbessert, dann das Bild nach der statistischen Methode von Otsu segmentiert und anschließend das Oberflächengitter der Neuronenzellen durch den Regularisierten Marching-Tetrahedra-Algorithmus rekonstruiert oder das Merkmalskelett mit einer speziellen Thinning-Methode extrahiert. In einschlägigen Vorarbeiten wurde mit Hilfe solcher Rekonstruktionen von Neuronenzellkernen gezeigt, dass diese, entgegen der vorher üblichen Meinung, nicht notwendigerweise rund sind, sondern Einstülpungen, sogenannte Invaginationen, aufweisen können. Der Einfluss der Invaginationen auf die Ausbreitung von Calciumionen innerhalb solcher Zellkerne konnte durch entsprechende numerische Simulationen systematisch untersucht werden.
Um diese Rekonstruktionsmethode auf hochaufgelöste Mikroskopaufnahmen anwenden zu können, wurden im Rahmen der vorliegenden Arbeit, die in NeuRA verwendeten Verfahren auf Basis von Nvidia CUDA auf moderner Grafikhardware parallelisiert und unter dem Namen NeuRA2 optimiert und neu implementiert. Erzielte Beschleunigungen von bis zu einem Faktor 100, bei Verwendung einer Hochleistungsgrafikkarte, zeigen, dass sich die moderne Grafikarchitektur besonders für die Parallelisierung von Bildverarbeitungsoperatoren eignet. Insbesondere das Herzstück des Rekonstruktions-Algorithmus - der sehr rechenintensive trägheitsbasierte anisotrope Diffusionsfilter - wurde durch eine clusterbasierte Implementierung, welche die parallele Verwendung beliebig vieler Grafikkarten ermöglicht, immens beschleunigt.
Darüber hinaus wurde in dieser Arbeit das Konzept von NeuRA verallgemeinert, um nicht nur Neuronenzellen aus konfokalen oder Zwei-Photon-Bildstapeln rekonstruieren zu können, sondern vielmehr die Oberflächenmorphologie oder Merkmalskelette von allgemeinen Objekten aus beliebigen Bildstapeln zu extrahieren. Dabei wird das ursprüngliche Konzept von Rauschreduktion, Bildsegmentierung und Rekonstruktion beibehalten. Für die einzelnen Schritte stehen aber nun eine Vielfalt von Bildverarbeitungs- und Rekonstruktionsmethoden zur Verfügung, die abhängig von der Beschaffenheit der Daten und den Anforderungen an die Rekonstruktion, ausgewählt werden können. Die meisten dieser Verfahren wurden ebenfalls auf Basis moderner Grafikhardware parallelisiert.
Die weiterentwickelten Rekonstruktionsverfahren wurden in mehreren Anwendungen eingesetzt: Einerseits wurden Oberflächen- und Volumengitter aus konfokalen Bildstapeln und Computertomographie-Aufnahmen generiert, die für verschiedene numerische Simulationen eingesetzt wurden oder eingesetzt werden sollen. Des Weiteren wurden über zwanzig antike Keramikgefäße und Fragmente anderer antiker Keramiken rekonstruiert. Hierbei wurde jeweils die Rohdichte und bei den komplett erhaltenen Gefäßen das Füllvolumen berechnet. Es konnte gezeigt werden, dass dieses Verfahren exakter ist als die in der Archäologie üblichen Methoden zur Volumenbestimmung von Gefäßen. Außerdem zeigt sich eine Abhängigkeit der Rohdichte der rekonstruierten Objekte vom jeweils verwendeten Keramiktyp. Eine Analyse, wie genau die Krümmung von Objekten durch die Approximation von Dreiecksgittern dargestellt werden kann, wurde ebenfalls durchgeführt.
Zusätzlich wurde ein Verfahren zur Rekonstruktion der Merkmalskelette lebender Neuronenzellen oder Teilen von Neuronenzellen entwickelt. Bei den damit rekonstruierten Daten wurden einzelne dendritische Dornfortsätze, auch Spines genannt, hochaufgelöst mikroskopiert. Auf Basis dieser Rekonstruktionen kann die Länge von Dendriten oder einzelner Spines, der Winkel zwischen Dendritenverzweigungen, sowie das Volumen einzelner Spines automatisch berechnet werden. Mit Hilfe dieser Daten kann der Einfluss pharmakologischer Präparate und mechanischer Eingriffe in das Nervensystem von lebenden Versuchstieren systematisch untersucht werden.
Eine Adaption der beschriebenen Rekonstruktionsverfahren ist aufgrund deren einfacher Erweiterbarkeit und flexibler Verwendbarkeit für zukünftige Anwendungen leicht möglich.
Aktive Hörimplantate befinden sich seit Mitte der 1980er Jahre im klinischen Einsatz. Aufgrund der inzwischen sehr hohen Anwendungszahl und durch-schnittlich sehr langen Anwendungsdauer gelten diese als sehr sicher. Dennoch können Komplikation auftreten. Eine Komplikation wurde in der vorliegenden Arbeit als Auftreten eines negativen Ereignisses außerhalb des gewünschten Behandlungsablaufes gewertet.
Ziel dieser Arbeit war es, aufgetretene Komplikationen zu kategorisieren und zu quantifizieren. Ferner sollte untersucht werden, ob bestimmte Faktoren Einfluss auf die Häufigkeit von Komplikationen haben, insbesondere in Bezug auf die verschiedenen Implantat- und Elektrodenträgermodelle. Es wurden neben der Erfassung und Quantifizierung unerwünschter Ereignisse vier Hypothesen for-muliert, die sich aus der klinischen Erfahrung der Anwendung der Systeme ergaben: (H1) Kinder entwickeln nach Cochlea-Implantation häufiger Entzün-dungen. (H2) Implantatmodelle mit Magnettasche führen häufiger zu Infektio-nen. (H3) Perimodiolare Elektrodenträger führen häufiger zu „Tip fold-over“ (Umschlagen der Elektrodenträgerspitze). (H4) Gerade Elektrodenträger führen häufiger zu Elektrodenträgerdislokation.
In dieser Arbeit wurden alle von Januar 2006 bis Dezember 2016 im Universi-tätsklinikum Frankfurt mit aktiven Hörimplantaten versorgten Patienten einge-schlossen. Unter den 1274 Patienten befanden sich 583 Patienten, bei denen mindestens eine Komplikation auftrat. Hiervon machten den Großteil Schmer-zen (16,9 %), Drehschwindel (15,6 %) und Infektionen im Verlauf (8,3 %) aus.
Es wurde aus dem Datenmaterial eine Patientengruppe von 503 betroffenen Patienten gebildet, die nach der Operation erstmals eine Komplikation angaben. In dieser Kohorte „Erstereignis“ traten Komplikationen vor allem in den Bereichen Entzündung (281 Patienten), Hören (183 Patienten) und Gleichgewicht (158 Patienten) auf. Bei den unilateral versorgten Patienten dieser Kohorte zeigte sich das erste Ereignis durchschnittlich nach 5,64 Jahren, bei den beid-seitig Operierten trat das erste Ereignis durchschnittlich nach 7,35 Jahren auf.
Die Implantatmodelle wichen im Auftreten von Komplikationen voneinander ab: Die höchsten Komplikationsraten traten bei den Modellen HiRes90K mit 37 von 81 (45,7 %), Synchrony mit 62 von 140 (44,3 %), und Nucleus 5 mit 115 von 274 (42,0 %) auf. Die Elektrodenträgerbauformen wiesen signifikante (p < 0,001) Unterschiede untereinander auf: Die meisten Komplikationen traten bei den Elektrodenträgerbauarten Medium (75 %), Midscala (58,8 %), Slim Modi-olar (54,3 %), und Straight (52,1 %) auf. Eine Infektion trat besonders bei den Implantaten Synchrony (1,34 Jahre) und Clarion (1,57 Jahre) früh auf. Die Modelle Pulsar (7,51 Jahre) und CI24RE (6,13 Jahre) zeigten ein eher spätes Auftreten. Für das Auftreten einer Infektion der Implantatmodelle lag p unter 0,001, was für signifikante Unterschiede bezüglich des Zeitpunktes des Auftretens spricht. Die Elektrodenträgerbauart zeigte in Bezug auf eine Hörbeeinträchtigung und in Bezug auf das Auftreten einer Elektrodenträger bezogenen Komplikation, wie Tip fold-over, Migration oder inkomplette Insertion hoch signifikante (p < 0,001) Unterschiede. Elektrodenträgerbauformen wie Midscala, Straight und Slim Modiolar führten früh nach durchschnittlich einem (Slim Modiolar) bis 2,5 (Straight) Jahren zum ersten Auftreten von einem veränderten Höreindruck nach CI-Implantation. Etwas häufiger traten Probleme mit dem Elektrodenträger wie Tip fold-over, Migration oder inkomplette Insertion bei den Modellen Flex Soft und Helix auf, am häufigsten bei dem Modell Flex 24.
(H1) Bei Kindern traten signifikant (p < 0.001) häufiger implantatbezogene Entzündungen auf als bei Erwachsenen. In der Gruppe „Erstereignis“ hatten 66,0 % der Kinder und 23,7 % der Erwachsenen eine Entzündung. (H2) Das Vor-handensein einer Magnettasche an der Implantat-Empfänger-Spule führte nicht signifikant häufiger zum Auftreten einer Entzündung. (H3) Vorgekrümmte (engl. pre-curved) Elektrodenträger zeigten eine höhere Inzidenz für Tip fold-over als gerade Elektrodenträger. (H4) Gerade Elektrodenträger zeigten eine höhere Inzidenz für eine Migration des Elektrodenträgers. Insgesamt traten im betrach-teten Kollektiv „Erstereignis“ 11 Migrationen auf, 10 davon bei geraden Elektro-denträgern (p = 0,03).
Insgesamt führen Faktoren wie die Implantatmodelle, Elektrodenträgerbauformen, Alter des Patienten früher zum Auftreten von Komplikationen. Für zukünftige Studien wäre eine eigene Auswertung der noch relativ neuen (2012) Mittelohrimplantate interessant.
Als Nadelstichverletzungen (NSV) bezeichnet man jede Stich-, Schnitt- und Kratzverletzung der Haut durch Kanülen, Skalpelle oder andere medizinische Instrumente, die mit Patientenmaterial verunreinigt sind. Davon unabhängig ist, ob die Wunde geblutet hat oder nicht. Die beinhaltet auch den direkten Kontakt mit der Schleimhaut von Mund, Nase oder Augen. Die größte Gefahr geht hierbei von einer Infektion mit Hepatitis B, C sowie dem humanem-Immundefizients- Virus (HIV) aus. In der vorliegenden Arbeit wurden Häufigkeit und Ursachen von NSV bei Beschäftigten von fünf verschiedenen medizinischen Fachkliniken der Johann Wolfgang Goethe-Universität Frankfurt am Main, mithilfe eines anonymisierten Fragebogens ermittelt. Dabei handelte es sich um die Zentren für Anästhesie, Dermatologie, Chirurgie, Gynäkologie und Pädiatrie. Alle Befragten hatten in den 12 Monaten vor dieser Erhebung Kontakt mit Patienten- oder Untersuchungsmaterial. Die Ergebnisse wurden zwischen den jeweiligen Fachkliniken und den einzelnen Berufsgruppen, wie Ärzten, Pflege- und Reinigungspersonal, verglichen. Es sollte geklärt werden, womit und wobei sich NSV am häufigsten ereigneten. Weiterhin wurde untersucht, wie Health Care Worker (HCW) eine erlittene NSV einschätzen, welche Schutzmaßnahmen sie gegen Verletzungen ergriffen haben und ob eine erlittene NSV Einfluss auf ihr künftiges Verhalten hatte. Anhand dieser Daten wurde klassifiziert, ob und gegebenenfalls wie viel NSV vermeidbar gewesen wären. Anschließend wurde diskutiert, wie das Risiko von NSV verringert werden kann. An der Erhebung nahmen 720 von 919 in den Zentren beschäftigten Personen teil (Rücklaufrate 78,3%). 71,6% der Ärzte, 76,4% des Pflegepersonals, 75% der Laborangestellten sowie 100% von denen, die als “Sonstige“ klassifiziert wurden als auch vom Reinigungspersonal, sandten den Fragebogen zurück. Von den 226 HCW (31,4%), die in den letzten 12 Monaten mindestens eine NSV erlitten hatten, waren Ärzte mit 55,1% signifikant häufiger betroffen als das Pflegepersonal mit 22%. Von allen 561 stattgefundenen NSV im letzten Jahr ist es in der Chirurgie am 10 häufigsten zu einer NSV gekommen (59,9%), am seltensten in der Dermatologie (6,4%). Dabei waren die Ärzte der Chirurgie, Pädiatrie, Dermatologie und Gynäkologie signifikant häufiger betroffen als das Pflegepersonal, in der Anästhesie waren jedoch nicht mehr signifikant mehr Betroffene. In der Anästhesie gaben 75% aller Mitarbeiter an, mehr als 20 Eingriffe mit Verletzungsrisiko pro Woche vorzunehmen, in der Chirurgie nur 53,8%. Dieses Ergebnis zeigt, dass die Häufigkeit verletzungsträchtiger Eingriffe nicht mit der Zahl der Verletzungen korreliert. Abgesehen von der Angabe „Sonstiges“, die mehrere Ereignisse repräsentiert, ereigneten sich NSV am häufigsten beim Nähen (23%) und bei Blutabnahmen (13%), also an den Instrumenten, die in den meisten Fachkliniken auch am häufigsten verwendet wird. Nur 5% aller NSV wurden von den HCW als schwer bezeichnet. Ein ungenügendes Sicherheitsbewusstsein bei den Mitarbeitern zeigte sich zum einen dadurch, dass insgesamt bei fast einem Drittel (27,9%) der NSV auf das Tragen von Handschuhen verzichtet wurde. Dabei unterschieden sich die Kliniken untereinander signifikant, wobei in der Chirurgie und Anästhesie mit 85,7% bzw. 81,3% im Gegensatz zu der Pädiatrie mit 35,8%, am häufigsten Handschuhe getragen wurden. Auch waren sich zwar insgesamt 78,2% der HCW sicher über einen suffizienten Hepatitis-B-Impfschutz, wobei die Ärzte signifikant besser in Kenntnis darüber waren als das Pflegepersonal, jedoch wussten über ein Viertel (25,8) der Angestellten in der Pädiatrie nicht darüber Bescheid. Beim Arbeiten mit scharfen Gegenständen am Krankenbett nahmen nur 29,4% der Befragten einen Abwurfbehälter mit und über die Hälfte (50,4%) gaben an, keine NSV dem D-Arzt gemeldet zu haben. Das Pflegepersonal hatte signifikant häufiger gemeldet als die Ärzte. Ihr Verhalten nach einer NSV nicht geändert zu haben, gaben 53,1% der Betroffenen an. Insgesamt hätten 36,7% aller NSV durch Instrumente mit Sicherheitsvorkehrungen sicher vermieden werden können, in der Pädiatrie und der Gynäkologie sogar mehr als 80%.
Das Ziel dieser Dissertation war es die biologische Rolle der Ubiquitinierung und die Bedeutung für Alterungsprozesse im filamentösen Ascomyceten Podospora anserina zu untersuchen. Folgende Ergebnisse wurden dabei erzielt:
1. Ubiquitinierte Proteine wurden nachgewiesen und die Deubiquitinierung von Proteinen konnte durch den Einsatz der Inhibitoren Urea, PR-619 und PIC erfolgreich inhibiert werden, was die Anwesenheit aktiver Deubiquitinasen in P. anserina beweist. Zudem wurden erstmalig ubiquitinierte Proteine in P. anserina unter den zur Aufreinigung
gewählten Bedingungen über die Technik der LC-MS/MS identifiziert.
2. Insgesamt wurden 1745 ubiquitinierte Proteine in P. anserina identifiziert, was ca. 16,4 % des gesamten Proteoms darstellt. Somit wurde erstmalig das Ubiquitinom des Ascomyceten P. anserina charakterisiert, welches Proteine aus allen zellulären Kompartimenten enthält.
3. Die erste im Rahmen dieser Arbeit durchgeführte umfassende Studie altersabhängiger Veränderungen im Ubiquitinom eines Organismus zeigt eine Herabregulation der Ubiquitinierung im Alter in der gesamten Zelle. Dem gegenüber steigt die Ubiquitinierung an den Mitochondrien leicht an und unterstreicht die Rolle einer mitochondrialen Qualitätskontrolle durch diesen Prozess.
4. Die Untersuchung der am Ubiquitinierungsprozess beteiligten E3-Ligase PaMUS10 zeigt, dass es sich bei Mus10 um ein essentielles Gen in P. anserina handelt, da die Deletion zu starken mitochondrialen Beeinträchtigungen und dem sofortigen Absterben des Organismus direkt nach der Keimung führt.
5. Zur weiteren Untersuchung von PaMus10 wurde erstmalig und vollständig ein Hygromycin-basiertes „Knockdown“-System in P. anserina etabliert, was die detaillierte Untersuchung eines essentiellen Gens in diesem Organismus ermöglichte. Durch dessen Einsatz konnte eine reduzierte Fertilität, eine verkürzte Lebensspanne sowie Veränderungen der mitochondrialen Morphologie und Funktion als direkte Folge einer PaMus10-Herabregulation nachgewiesen werden.
6. PaMUS10 ist vorwiegend cytosolisch lokalisiert wird aber unter oxidativem Stress oder in gealterten Kulturen an die Mitochondrien rekrutiert, was einen vergleichbaren Mechanismus zur menschlichen E3-Ligase PARKIN darstellt.
7. Der Verlust von PaMUS10 verursacht ein Präseneszenzsyndrom und führt zum vorzeitigen Absterben des Organismus, wohingegen die zusätzliche Expression von PaMus10::Gfp offenbar positive Effekte nach sich zieht, da hier eine deutliche Verlängerung der Lebensspanne beobachtet wurde.
8. Der Vergleich der beiden Ubiquitinome von ∆PaMus10/PaMus10 und Wthph1/2 zeigt eine massive Reduzierung der globalen Ubiquitinierung, welche offenbar durch das Fehlen von PaMUS10 ausgelöst wird und damit dessen Funktion als E3-Ligase untermauert.
9. Im Rahmen der hier durchgeführten Substratanalyse wurden insgesamt 131 Proteine identifiziert, von denen ca. 20 % dem Mitochondrium zugeordnet werden können. Aufgrund der diversen biologischen Prozesse und Funktionen dieser Substrate ist PaMUS10 sowohl in die Ubiquitinierung cytosolischer als auch mitochondrialer Proteine involviert und greift womöglich sogar als zentraler Schalter in die gesamte zelluläre Homöostase ein.
Aufgrund der nicht unerheblichen Zahl der identifizierten ubiquitinierten Proteine (Ubiquitinom) und den fatalen Auswirkungen, die der Verlust einer E3-Ligase in diesem Organismus nach sich zieht, lässt sich folgende grundlegende Erkenntnis formulieren:
Die Ubiquitinierung spielt in P. anserina eine bedeutende Rolle zur Aufrechterhaltung zellulärer Prozesse insbesondere der mitochondrialen Homöostase und beeinflusst dadurch positiv die Entwicklung und Alterung in diesem Organismus.