Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204) (remove)
Is part of the Bibliography
- no (204)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
Ribonukleinsäure (ribonucleic acid, RNA) wirkt bei der Proteinbiosynthese nicht nur als Informationsüberträger, sondern kann auch beispielsweise durch sogenannten Riboschalter (auch Riboswitches) regulatorische Funktionen übernehmen. Riboschalter sind komplett aus RNA aufgebaut und man kann sie sich als molekulare Schalter vorstellen, die die Genexpression kontrollieren. Konzeptionell besteht ein Riboswitch aus zwei Untereinheiten, dem Aptamer und der Expressionsplattform. Das Aptamer bindet, üblicherweise sehr spezifisch, kleine organische Moleküle, aber auch Ionen. Diese Ligandenbindung induziert Änderungen in der Struktur des Riboswitches, welche wiederum die Expressionsplattform beeinflussen. Je nach Riboswitch ermöglicht oder verhindert dies schließlich die Genexpression. Die vorliegende Doktorarbeit beschäftigt sich mit der Entwicklung und Etablierung von Methoden der optischen Spektroskopie zur Aufklärung von RNA-Dynamiken und -Strukturen im Allgemeinen und der Erforschung von Aptamerbindungsmechanismen im Besonderen.
Eine der dazu verwendetet Methoden ist die FTIR-Spektroskopie. Hierfür wurden zunächst kritische Parameter wie verschiedenste Messeinstellungen oder die Probenpräparation ausgiebig an RNA-Modellsträngen getestet. Dabei war es möglich, eine kleine Spektrenbibliothek als internen Standard aufzubauen. Gleichzeitig konnte gezeigt werden, dass kleinere RNA-Oligonukleotide (< ca. 20 Nukleobasen) gut mittels FTIR-Methoden untersucht werden können. Anschließend wurde eine statische Bindungsstudie am adenosin- sowie am guanosinbindenden Aptamer vorgenommen.
Die zweite hier vorgestellte Methode zur Untersuchung von RNA-Molekülen ist die Fluoreszenzspektroskopie. Im Gegensatz zur FTIR-Spektroskopie ist dazu allerdings eine Modifizierung der RNA durch ein Fluoreszenzlabel nötig. Deshalb beschäftigt sich der Hauptteil dieser Doktorarbeit mit der Charakterisierung und der Anwendung des quasi bifunktionellen RNA-Markers (auch RNA-Labels) Çmf. So wurden zunächst die photophysikalischen und photochemischen Eigenschaften des Markers untersucht. Dabei konnte gezeigt werden, dass Çmf sich als lokale Sonde eignet, da es empfindlich auf Änderungen der Mikroumgebung in Lösung reagiert. Durch direkten Vergleich der optischen Eigenschaften von Çmf mit den entsprechenden Eigenschaften des Spinlabels Çm war es möglich, den starken Fluoreszenzlöschungseffekt (sog. quenching) des Çm aufzuklären. So kann davon ausgegangen werden, dass die Fluoreszenz des Çm durch eine sehr schnelle interne Konversion (IC) in einen dunklen Dublettzustand (D1) gelöscht wird.
Im nächsten Schritt wurde Çmf in RNA-Modellstränge eingebaut, um den Einfluss der RNA auf die Photochemie des Markers zu untersuchen. Dabei konnte gezeigt werden, dass sich dessen Fluoreszenzsignal abhängig von den direkten Nachbarbasen sowie abhängig vom Hybridisierungszustand signifikant ändert. Gleichzeitig konnte keine deutliche Veränderung der Stabilität der Modellstränge festgestellt werden. So konnte also nachgewiesen werden, dass sich Çmf sehr gut als lokale Sonde in RNA eignet. Im Speziellen wurde aus den Ergebnissen geschlossen, dass der Fluorophor für Ligandenbindungsstudien herangezogen werden kann.
Deshalb wurde Çmf schließlich an mehreren verschiedenen Stellen in das neomycinbindende Aptamer (N1) eingebaut, um dessen Bindungskinetik zu untersuchen. Mittels Stopped-Flow-Messungen war es möglich, die Bindungsdynamik des Aptamers zu beobachten. Anhand dieser transienten Daten konnte ein Zweischrittbindungsmodell abgeleitet werden. Dabei bindet Neomycin zunächst unspezifisch an das weitgehend vorgeformte Aptamer. Anschließend kommt es durch die Ausbildung von Wasserstoffbrücken zu einer spezifischen Bindung des Liganden am Aptamer.
Im dritten Teil dieser Arbeit geht es ebenfalls um die Entwicklung und Etablierung eines spektroskopischen Werkzeuges. Dabei stehen allerdings Rhodopsine im Mittelpunkt der Aufmerksamkeit. Hierbei handelt es sich um Membrantransportproteine, die nach optischer Anregung einen sehr schnellen Photozyklus mit mehreren Intermediaten durchlaufen. Es ist möglich, diese Intermediate dank transienter Absorptionsmessungen mit sehr guter zeitlicher und spektraler Auflösung zu beobachten. Allerdings besteht der Bedarf, diese Intermediate statisch zu präparieren, um sie näher charakterisieren und mit anderen Methoden, wie z.B. der Festkörper-NMR, vergleichen zu können.
Ein spektroskopisches Werkzeug zum Präparieren von frühen Photointermediaten ist kryogenes Einfangen (sog. Cryotrapping) dieser Intermediate. Im Rahmen dieser Arbeit wurden das Cryotrapping und die anschließende statische UV/vis-Absorptionsspektroskopie der fixierten (getrappten) Zustände optimiert und an einer Reihe von Rhodopsinen (ChR2, GPR) demonstriert.
Ein Hauptziel dieser Arbeit war die spektroskopische Charakterisierung einer neuartigen photolabilen Schutzgruppe (Photocage). Diese besteht aus dem weitverbreiteten (7-Diethylaminocumarin)methyl (DEACM), welches zusätzlich mit einer Art Antenne (ATTO 390) ausgestattet ist. Letztere soll die Zwei-Photonen-Absorption (2PA) erleichtern, was neben dem Energietransfer von der Antenne zur photolabilen Schutzgruppe sowie die Freisetzungsreaktion eines gebundenen Effektormoleküls untersucht wurde. Der Nachweis der erhöhten 2PA wurde durch Zwei-Photonen-induzierte Fluoreszenz erbracht, welche die Bestimmung des Zwei-Photonen-Einfangquerschnitts ermöglicht. Die 2PA wurde durch Messungen mit variierender Anregungsenergie an Rhodamin B und dem neuartigen Antennen-Photocage-System bestätigt, welche eine fast perfekte quadratische Abhängigkeit der Fluoreszenzintensität nach vorangegangener 2PA widerspiegelten. Die Werte des Zwei-Photonen-Einfangquerschnitts der neuartigen photolabilen Schutzgruppe sind über alle Wellenlängen hinweg größer als die von DEACM-OH. Der Beweis eines intramolekularen Energietransfers von der Antenne zu DEACM erfolgte durch transiente Absorptionsspektroskopie. Hierfür wurde der Photocage mit 365nm angeregt, was überwiegend die Antenne adressiert. Ein intramolekularer Energietransfer konnte mit einer Zeitkonstante von 20 ps beobachtet werden, welcher wahrscheinlich von einem nachgelagerten Ladungstransfer von DEACM auf ATTO 390 begleitet wurde. Die Funktionalität des neuartigen Photocages wurde durch Aufnahme von Absorptionsspektren im IR-Bereich während kontinuierlicher Belichtung bei 365 nm untersucht. Hierbei konnte die Entstehung der intensiven Absorption von Kohlendioxid aufgrund der Photodecarboxylierung detektiert werden. Absorptionsänderungen während kontinuierlicher Belichtung wurden ebenfalls im UV/Vis-Bereich detektiert, in welchen eine hypsochrome Verschiebung der langwelligen Absorptionsbande sowie ein Anstieg der Absorption festgestellt wurden. Hieraus konnte eine Quantenausbeute der Freisetzungsreaktion von 1,5% ermittelt werden. Die Ergebnisse zum Antennen-Photocage-System zeigen auf, dass durch Anbringen einer Antenne die 2PA verbessert werden kann, ohne die Funktionalität des Freisetzungsprozesses negativ zu beeinflussen. In einem nächsten Schritt zielen Verbesserungen des untersuchten Photocages darauf ab, den Ladungstransfer zu unterdrücken. Die Validierung dieses Ansatzes sollte die Einführung anderer Antennen mit erhöhten Zwei-Photonen-Einfangquerschnitten, wie z.B. Quantenpunkte, weiter motivieren. Der zweite Ergebnisteil dieser Arbeit konzentriert sich auf drei verschiedene Photosysteme, die sich durch eine sehr kurzlebige Fluoreszenz auszeichnen, welche mit einem Kerrschalter aufgenommen wurde. Das erste der drei untersuchten Systeme umfasst eine kooperative BODIPY-DTE-Dyade(Bordipyrromethen-Dithienylethen), die einen hocheffizienten photochromen Förster-Resonanzenergietransfer aufweist. Dieser wurde durch verkürzte Lebenszeiten der Differenzsignale im transienten Absorptionsspektrum der Dyade im photostationären Zustand abgeleitet. In diesem stellt BODIPY-DTE eine hochkonjugierte Einheit dar, welches durch die geschlossene Form des photochromen DTEs einen Energietransfer vom photoangeregten BODIPY zum DTE ermöglicht. Bei diesem Prozess wird die Fluoreszenz des Donors um einige Größenordnungen reduziert. Die Ergebnisse der transienten Absorptionsmessung wurde durch ein zeitaufgelöstes Fluoreszenzexperimentbestätigt. Die detektierte Fluoreszenztransiente zerfällt mit einer Zeitkonstante von etwa 15 ps und weist somit sehr hohe Ähnlichkeit mit dem Signal des Grundzustandsbleichens (GSB) aus dem transienten Absorptionsexperiment auf. Des Weiteren wurde die photochrome Ringschlussreaktion eines wasserlöslichen Indolylfulgimids spektroskopisch charakterisiert. Transiente Absorptionsmessungen geben einen direkten Einblick in den Mechanismus der Reaktion, in welcher, nach Photoanregung, die Relaxation aus dem Franck-Condon Bereich und die schnelle biphasische Relaxation des Moleküls über die konische Durchschneidung abgeleitet werden kann. Zusätzlich wurden zeitaufgelöste Fluoreszenzmessungen mit Hilfe des Kerrschalters durchgeführt, da die stimulierte Emission (SE) in transienten Absorptionsmessungen durch die Überlagerung mehrerer Signale nicht vollständig zu erkennen war. Die globale Lebensdaueranalyse der mit dem Kerrschalter aufgenommenen Breitband-Fluoreszenz lieferte drei Zeitkonstanten, welche wesentliche Übereinstimmung mit den Zeitkonstanten aus der globalen Lebensdaueranalyse der transienten Absorptionsmessungen aufweisen. Schlussendlich wurde die Deaktivierung des elektronisch angeregten Zustands des flavinbindenden Dodecins aus Mycobacterium tuberculosis mit Hilfe von unterschiedlichen spektroskopischen Methoden charakterisiert. Stationäre Fluoreszenzmessungen bei unterschiedlichen pH-Werten zeigten bei pH 5 eine im Vergleich zu nahezu physiologischen Bedingungen (pH 7,5)reduzierte Fluoreszenz auf. Auffällig ist, dass diese Beobachtungen durch transiente Absorptionsmessungen nicht bestätigt werden konnten, da diese eine große Ähnlichkeit bezüglich der Dynamik und der spektralen Signatur zueinander besaßen. Ein negatives Signal, hervorgerufen durch die SE, wurde hierbei nicht gefunden. Allerdings konnte in den zerfallsassoziierten Spektren eine spektrale Signatur beobachtet werden, die auf eine SE hindeutete, welche allerdings mit größeren positiven Signalen überlagert ist. Dieser Aspekt wurde in einer Kerrschalter-Messung untersucht, in der eine schwache Emission bei pH 7,5 festgestellt werden konnte. Zusätzlich wies die Zerfallsdynamik der Emission Übereinstimmung mit dem GSB-Signal aus den transienten Absorptionsmessungen auf.
Throughout the entire life, new neurons of the granule cell type (GCs) are continu-ously generated in the mammalian hippocampal dentate gyrus (DG). As a part of the limbic system, the hippocampus is concerned with spatial and declarative memory for-mation. Increasing evidence exists, that adult born granule cells (ABGCs) play an im-portant role in this process. An especially critical period, when these ABGCs are 4-6 weeks old, has come into the focus of research. It is during this specific time-span that the ABGCs express enhanced excitability and synaptic plasticity as well as a lowered threshold for the induction of long term potentiation (LTP), a mechanism associated to learning and memory formation.
This study investigates the time course and dynamics of synaptic integration in ABGCs and mature GCs together with which differences exist between them at various cell ages. Furthermore, spine plasticity following high frequency stimulation (HFS) is analysed focusing on a critical phase of enhanced excitability in 4-5 week old ABGCs.
In this thesis, two approaches at studying the synaptic integration and structural plas-ticity of ABGCs in rats were investigated. This work was performed on fixed brain ma-terial that was provided by two laboratories that performed the in vivo labelling, stimu-lation procedures and brain fixation. In the first project, 6, 12 and 35 weeks old XdU-labelled ABGCs were studied. Adult rats were exposed to an enriched environment and received unilateral intrahippocampal delta burst stimulation (DBS) and LTP induction. The ABGCs and a control population of mature GCs were immunohistologically ana-lysed for Egr1 (early growth response 1) expression. Egr1 is an immediate early gene (IEG), expressed after LTP induction and marks neuronal excitation.
It was found, that unilateral stimulation of the perforant path of the hippocampus re-sults in an increase of Egr1 expression in ABGCs of both hemispheres. It could be shown that the enhanced expression intensity of Egr1 in ABGCs is not a usual state of young GCs but a reaction to DBS. ABGCs from unstimulated control animals and mature GCs expressed lower levels of Egr1. Interestingly, the stimulation induced a similar degree of Egr1 expression intensity in all ABGC age groups. Furthermore, it was found that young ABGC from the infrapyramidal dentate gyrus (DG) express a higher excita-bility than those from the suprapyramidal DG.
In the second project, fixed brain sections were analysed. They stemmed from rat brains containing 28 and 35 day old ABGC that had been transfected with intrahippo-campal RV-GFP (retroviral-green fluorescent protein) injections and had received uni-lateral high frequency stimulation of the medial perforant path in vivo. Nuclear Egr1 expression intensity was analysed in a cell specific manner. Dendritic spine size was measured in the inner-, middle- and outer molecular layer (IML, MML, OML). It was found that in ABGC, stimulation induced Egr1 expression increase is lower than in ma-ture GC. Following HFS, a significant homosynaptic spine enlargement was observed in the MML indicating homosynaptic LTP, while heterosynaptic spine shrinkage was found in the adjacent IML and OML. The latter corresponds to heterosynaptic long term depression (LTD). Homosynaptic plasticity describes an input-specific potentiation of synapses that received direct activation. The weakening of synapses not stimulated dur-ing homosynaptic potentiation is oppositely coined heterosynaptic plasticity1.
A positive correlation between an increase in nuclear Egr1 expression intensity and spine enlargement due to homosynaptic plasticity induced by HFS could be shown. Concomitant heterosynaptic plasticity, as indicated by spine shrinkage was observed. Spine shrinkage in the IML and OML showed a negative correlation to a decrease in Egr1 intensity.
Taken together, the results provide detailed information on the gradual integration of ABGC with ongoing maturation. Cell specific proof for homo- and heterosynaptic plas-ticity following HFS was found in the critical period of synaptic integration of ABGCs.
Krebs ist eine bedeutende Todesursache, und Krebsfrüherkennungsuntersuchungen in Form von Screeningmaßnahmen sind ein möglicher Ansatz, die spezifische Mortalität der jeweiligen Krebsart zu senken. Die Studienlage zeigt allerdings nur für die Koloskopie als Darmkrebsscreeningmaßnahme einen eindeutigen Nutzen. Brust-, Haut-und Gebärmutterhalskrebsfrüherkennung sind im Vergleich dazu wenig untersucht, und die entsprechenden Studien zeigen zum Teil widersprüchliche Ergebnisse. Eine Beschränkung der Maßnahmen auf Risikogruppen könnte die Kosten-Nutzen-Bilanz der Screeningmaßnahmen möglicherweise ins Positive verschieben. Derzeit raten gesetzliche Empfehlungen für die gesamte Bevölkerung ab einem festgelegten Alter zur Teilnahme an Darm-, Brust-, Haut- und Gebärmutterhalskrebsfrüherkennungs-untersuchungen, wobei die Inanspruchnahme je nach Untersuchung und Studie stark variiert. Hausärzte können als Ansprechpartner der Patienten zur Entscheidungsfindung für oder gegen eine Untersuchung beitragen. Um ihre Bedeutung in diesem Zusammenhang zu untersuchen, ist es sinnvoll, die Einstellung von Hausärzten gegenüber Krebsfrüherkennungsuntersuchen, sowie deren Empfehlung und mögliche Gründe für oder gegen eine Empfehlung zu erfassen. Hierzu wurde im Rahmen dieser Dissertation ein Fragebogen erstellt.
Die mittels des Fragebogens durchgeführte Datenerhebung stellt einen Teil des am Institut für Allgemeinmedizin Frankfurt durchgeführten Projektes „Onkologie in der Hausarztpraxis“ dar. Zur Entwicklung des Fragebogens wurde zunächst eine Literaturrecherche durchgeführt. Im weiteren Verlauf wurde ein Itempool erstellt, der thematisch sowohl auf den Ergebnissen der Recherche, als auch auf qualitativen telefonischen Interviews beruhte, die im Rahmen des oben beschriebenen Projektes „Onkologie in der Hausarztpraxis“ durchgeführt wurden. Aus diesem Itempool wurden zur Beantwortung folgender Forschungsfragen 28 Items zur weiteren Ausarbeitung ausgewählt:
1) Welche Einstellung haben Hausärzte gegenüber den gesetzlich empfohlenen, populationsbasierten Krebsfrüherkennungsuntersuchungen?
2) Unterscheidet sich die hausärztliche Einstellung in Abhängigkeit davon, ob die jeweilige Untersuchung populationsbasiert oder auf definierte Risikogruppen angewandt wird?
3) Für welche Risikogruppen halten die Hausärzte die verschiedenen Krebsfrüh-erkennungsuntersuchungen für sinnvoll?
4) Welche Gründe für oder gegen die Empfehlung von Krebsfrüherkennungsuntersu-chungen werden angegeben?
Die Konstruktion der einzelnen Fragen und Antwortskalen, die Formulierung von Handlungsanweisungen und die Gestaltung des Fragebogens mit Anschreiben, Titelseite und Layout erfolgte auf Basis von publizierten Expertenempfehlungen für eine qualitativ hochwertige Fragebogenkonstruktion. Der entstandene Fragebogen wurde anschließend einem Pretest unterzogen, der aus einer Stichprobe und einer kognitiven Testung bestand. Die Stichprobe wurde mit 35 Lehrärzten des Instituts für Allgemeinmedizin Frankfurt durchgeführt. Drei von ihnen sowie ein weiterer, vom Institut unabhängiger Hausarzt wurden im Verlauf für die kognitive Testung befragt. Auf Grundlage dieses Pretests wurde der Fragebogen nochmals angepasst.
Durch diesen Schritt wurden die 28 ausgewählten Items auf 19 Fragen reduziert, die gemeinsam mit neun Fragen zur Erhebung persönlicher Daten den fertigen Fragebogen bilden. Kriterien, die im Rahmen des Pretests zu Veränderungen geführt haben, waren erhöhte Non-Response-Raten, Hinweise auf mangelndes Fragenverständnis sowie geringe Relevanz einzelner Antwortoptionen. Zur Qualitätsprüfung wurde der fertige Fragebogen mittels einer publizierten Fragencheckliste auf mögliche Kritikpunkte hin getestet. Die Vorgehensweise zur Entwicklung des Fragebogens entsprach gängigen Empfehlungen von Experten. Der entwickelte Fragebogen stellt ein geeignetes Instrument zur Beantwortung der in der Einleitung gestellten Forschungsfragen dar, und leistet einen Beitrag zur Analyse der hausärztlichen Einstellung und Empfehlung zu Krebsfrüherkennungsuntersuchungen.
A sound and well-functioning legal system will encourage growth in investment and create opportunities for investors. Trademarks as part of intellectual property play an important role in the future development of a country. A mark or symbol is needed in order to give products and services identity and to distinguish them and their qualities from identical or similar products and services of a competitor.
This research studies, examines and analyses the degree, nature and function of trademark protection within the legal system of Afghanistan and compare them with the Paris, Madrid and TRIPs agreements. It has been divided into four chapters: Chapter one provides general information and an overview of the current legal system of Afghanistan. Chapter two studies and analyses international agreements pertaining to the legal protection of trademark. It also critically assesses the ATML compatibility with these agreements: and answers the research question of to what extent the ATML provisions are compatible with them. Chapter three provides information on the different purposes of trademarks from a development perspective and compares the purposes provided by the ATML. Finally, chapter four assesses and examines the acquisition, assignment and termination of trademarks. The conclusions and findings of the thesis are the final section of this research.
Afghanistan, as a transitioning economy, has not developed a solid legal and practical foundation for providing comprehensive protection mechanisms for trademarks as have been articulated in developed countries and international agreements. Accordingly, the Afghan government has not entirely integrated these needs into its legal system and there are some inconsistencies of the ATML with these agreements.
One more challenge is the lack of appropriate legal institutions for issuing, managing, administering and protecting of trademarks. The establishment of a well-functioning administrative institution will serve to fulfil the objectives of the laws. Therefore, the CBR office holds the administrative responsibility for processing the registration of trademarks.
However, the methods and facilities of the CBR office remain outdated, and the office does not have the capacity to provide applicants with up-to-date administrative and technical facilities.
Therefore, legal protection of trademark in Afghanistan is linked not only to the existence of a well functioning of laws, regulations, clear procedures, mechanism and guidelines but also to an efficient and well-functioning administrative office.
Das Zusammenspiel von experimentellen mit quantenchemischen Methoden ermoeglicht eine detaillierte Untersuchung der ablaufenden Mechanismen einer chemischen Reaktion auf molekularer Ebene. Insbesondere für quantenchemische Rechnungen zu molekularen Uebergangsmetall-Verbindungen haben sich die Methoden der Dichtefunktionaltheorie (DFT) als aeusserst leistungsfaehiges Forschungswerkzeug herausgestellt. Im Rahmen der DFT fehlt es allerdings prinzipiell an der Möglichkeit zur systematischen Verbesserung der erzielten Ergebnisse und DFT-Rechnungen zeigen eine hohe Abhängigkeit von der Natur der untersuchten molekularen Verbindungsklasse. Daher muss vor jeder mechanistischen Untersuchung ein jeweils optimaler DFT-Ansatz durch Vergleich mit hochgenauen Referenzrechnungen oder mit experimentellen Referenzdaten für relevante Vergleichssysteme identifiziert und gegebenenfalls kalibriert werden. Im Rahmen der vorliegenden Arbeit werden quantenchemische Rechnungen zur Reaktivität von Übergangsmetall-Verbindungen anhand von fünf Forschungsprojekten vorgestellt. Im ersten Kapitel werden die Ergebnisse für die Aktivierung kleiner Moleküle (Alkohole, Sauerstoff und Stickstoff) durch bifunktionelle Übergangsmetall-Pincer-Komplexe dargestellt. Das zweite Kapitel befasst sich mit der bioanorganischen Chemie von dinuklearen Kupfer-Sauerstoff-Komplexen. Die Auswahl einer geeigneten DFT-Methodik erfolgte in allen Fällen durch den Vergleich zu experimentellen Referenzdaten.
In Kooperation mit der Arbeitsgruppe Schneider wurden Eisen-Komplexe für die katalytische (De)hydrogenierung von Alkoholen entwickelt, eine wichtige Reaktion zur Funktionalisierung von Alkoholen zu Carbonylverbindungen. Durch DFT-Rechnungen konnte der ablaufende Katalysezyklus der (De)hydrogenierung des Modell-Substrats Methanol aufgeklärt und der geschwindigkeitsbestimmende Schritt identifiziert werden. Ebenfalls in Zusammenarbeit mit der Arbeitsgruppe Schneider wurde die selektive Reduktion von Sauerstoff zu Wasser, vermittelt durch einen dihydridischen Iridium-Komplex, untersucht. Da durch die beiden Hydrid-Liganden insgesamt vier Elektronen für die Reduktion von Sauerstoff zu Wasser bereitgestellt werden, sollte prinzipiell ein monomolekularer Reaktionsverlauf möglich sein. Detaillierte DFT-Rechnungen in Kombination mit experimentellen Kinetikmessungen ergeben starke Hinweise auf einen derartigen Reaktionspfad mit geschwindigkeitsbestimmender Sauerstoff-Aktivierung. Zuletzt wird ein weiteres Kooperationsprojekt mit derselben Arbeitsgruppe vorgestellt. Die protoneninduzierte
übergangsmetallvermittelte Spaltung von Stickstoff in zwei Metall-Nitrid-Komplexe stellt ein neuartiges synthetisches Konzept dar. Durch die Protonierung eines dinuklearen Molybdän-Stickstoff-Komplexes erfolgt die Spaltung in die entsprechenden Mo-Nitrid-Komplexe. Der Grund für die ungewöhnliche Änderung der Spin-Multiplizität bei der Protonierung der Molybdän-Komplexe konnte durch detaillierte quantenchemische Analysen identifiziert werden.
Im zweiten Kapitel werden Untersuchungen zur bioanorganischen Chemie von dinuklearen Kupfer-Sauerstoff-Komplexen vorgestellt. In der Natur werden viele (bio)chemisch relevante Prozesse durch übergangsmetallhaltige Enzyme unter moderaten Reaktionsbedingungen vermittelt. Kupferhaltige Enzyme sind unter Anderem für die hochselektive Oxidation organischer Substrate zuständig. Der Ansatz der Bioanorganik befasst sich mit der Übertragung der enzymatischen Struktur und/oder Funktion auf synthetische Modell-Verbindungen. Da die akkurate Beschreibung der Energien von dinuklearen Kupfer-Sauerstoff-Komplexen höchste Anforderungen an die angewandten quantenchemischen Methoden stellt, wurde eine geeignete DFT-Methode in aufwändigen Voruntersuchungen durch den Vergleich mit experimentellen Ergebnissen identifiziert. Mit Hilfe des so kalibrierten BLYP-D3-Ansatzes wurde in Kooperation mit der Arbeitsgruppe Meyer ein neuartiges Konzept für die baseninduzierte Isomerisierung des reaktiven Kerns etabliert. In einer weiteren Arbeit wurde die regio- und stereoselektive Hydroxylierung von nicht-aktivierten aliphatischen C-H-Bindungen in Steroid-Substraten mit Hilfe von mechanistischen DFT-Rechnungen untersucht. Die Ergebnisse zeigen, dass die stereochemische Anordnung des Liganden um den reaktiven Kupfer-Sauerstoff-Kern die Selektivität der Hydroxylierung bestimmt.
Bindung bildet in der Erforschung langfristiger psychosozialer Entwicklung ein zentrales Konstrukt. In Bezug auf die Phase der mittleren Kindheit liegt dabei jedoch oft eine eingeschränkte Forschungsperspektive vor: dem Konzept der Monotropie folgend, wird trotz des wachsenden sozialen Umfelds allein Eltern eine besondere Aufmerksamkeit in ihrer Rolle als Bindungsfiguren zugeordnet. Zudem fehlen Studien jenseits westlich-europäischer Entwicklungsverläufe. Ziel der vorliegenden Arbeit ist die explorative Erforschung der transkulturellen Spannbreite und der kontextspezifischen Adaptivität in der Auswahl und Funktionalität von Bindungsfiguren der mittleren Kindheit. Dazu werden Daten in zwei ökokulturell gegensätzlichen Settings erhoben, um kontextspezifische und globale Trends betrachten zu können.
Zunächst erfolgt eine ethnologische Annäherung an die frühste Kindheit im kamerunischen Setting der Nseh entlang des Tragetuchs als zentralem Care-Objekt. Diese offenbart eine symbiotische Beziehungsgestaltung, aber auch strenge Regeln des Aufbaus und der Abgrenzung im geteilten Care-System.
Anschließend wird eine methodische Strategie zur Erforschung der mittleren Kindheit entwickelt, die eine Netzwerkperspektive beinhaltet und der kindlichen Wahrnehmung folgt. Dabei werden teilnehmende Beobachtungen mit Photo Elicitation Interviews verbunden, um das vollständige Kollektiv der Bindungsfiguren zu identifizieren und in ihren soziostrukturellen und funktionellen Eigenschaften zu charakterisieren. Indem das Setting zum inhärenten Teil der Datenerhebung wird, werden dabei adaptive Prozesse zugänglich.
In Umsetzungen dieser kontextualisierend explorativen Strategie bei den kamerunischen Nseh und im deutschen Bad Nauheim werden die Bindungsnetzwerke der mittleren Kindheit erfasst und in ihrer Adaptivität diskutiert. Der Kontrastvergleich offenbart, dass die Kinder der Nseh im Vergleich zu den Kindern aus Bad Nauheim in der Altersstruktur vielfältigere, räumlich enger begrenzte und zeitlich stabilere Netzwerke beschreiben. In beiden Settings identifizieren die Kinder eine Aufteilung der inhaltlich-funktionelle Verantwortlichkeiten, die bei den Nseh gemäß den Altersgruppen verläuft.
Insgesamt zeichnet sich für die mittlere Kindheit ein komplexes Bindungsumfeld ab. Dabei verbinden sich settingspezifische Kindheitsbedingungen mit globalen Entwicklungsthemen. Das mehrdimensionale kindliche Sicherheitsgefühl kann auf die Wirkung eines Kollektivs an Bindungsfiguren zurückgeführt werden, zu dem kontextunabhängig in einem bedeutsamen Ausmaß auch Peers gehören.
Einleitung: Die häufigste Komplikation nach einer totalen Thyreoidektomie ist der postoperative sekundäre Hypoparathyreoidismus. Eine Prävention dieser Komplikation wäre erstrebenswert. Nicht nur dass die Patienten unter den Symptomen (wie z.B. Kribbelparästhesien) leiden, auch der Krankenhausaufenthalt wird meist verlängert und es wird ein höherer Aufwand an diagnostischen Maßnahmen und Medikamenten in der Folge notwendig.
Um das Auftreten des sekundären Hypoparathyreoidismus einzuschränken sind schon einige Studien durchgeführt worden, die u.a. ein erhöhtes Risiko für Patienten mit einem präoperativen Vitamin D3-Defizit aufzeigten.
Der Einfluss dieses Vitamin D3-Defizits wird in der vorliegenden prospektiven, multizentrischen, randomisiert kontrollierten Studie näher untersucht. Es sollte geklärt werden, ob eine präoperative Prophylaxe mit Vitamin D3 eine Verminderung der Hypokalzämierate gegenüber einer Kontrollgruppe bewirken kann.
Da sich der sekundäre Hypoparathyreoidismus als multifaktorielles Geschehen darstellt, sind in dieser Studie weitere Risikofaktoren untersucht worden.
Zusätzlich sollten eine Veränderung der Lebensqualität und die Belastung der Patienten durch Hypoparathyreoidismus-Symptome beurteilt werden.
Material und Methoden: Im Zeitraum vom 23.07.2014 bis zum 26.10.2016 wurden 246 Patienten an sechs verschiedenen Kliniken rekrutiert. Das Durchschnittsalter der 61 Männer und 185 Frauen lag bei 49 Jahren (Min.: 22 Jahre, Max.: 81 Jahre). Alle Patienten unterzogen sich einer totalen Thyreoidektomie als Ersteingriff an der Schilddrüse.
Die Patienten wurden in zwei Gruppen randomisiert, wobei die Interventionsgruppe präoperativ über drei Tage eine Vitamin D3–Prophylaxe (0,5µg, jeweils morgens und abends) einnahm. Neben dieser Intervention wurde nicht in die standardmäßige Behandlung der Patienten eingegriffen, um eine möglichst praxisnahe Untersuchung zu gewährleisten.
Bei allen Patienten wurde präoperativ und mindestens am ersten Tag postoperativ der Serumcalcium-Wert bestimmt. Der Beobachtungszeitraum erstreckte sich über ca. 30 Tage postoperativ, in dem auch weitere Parameter untersucht wurden. U.a. wurden die Patienten gebeten den SF-36-Fragebogen nach Bullinger et al (1) und den Hypoparathyreoidismus-Fragebogen nach Bohrer et al (2) auszufüllen. Mit diesen Fragebögen sollten die empfundene Lebensqualität der Patienten und die Belastung durch Hypoparathyreoidismus-Symptome abgefragt werden.
Ergebnisse: Die Untersuchungsgruppen zeigten keinen signifikanten Unterschied in Bezug auf das Auftreten einer postoperativen Hypokalzämie. Insofern eine Hypokalzämie auftrat, konnte die Normokalzämie in der Interventionsgruppe signifikant schneller erreicht werden. Aufgrund dieses Ergebnisses konnte eine NNT für jede Klinik errechnet werden. Diese Werte ließen eine Skalierung zu, durch die jedes Klinikum für sich eine Nützlichkeit der Intervention anhand der Hypokalzämie-Rate errechnen kann.
Herausgefunden werden konnte ebenfalls, dass die Kliniken signifikant unterschiedliche Hypokalzämie-Raten aufwiesen. Je nach Hypokalzämie-Rate der Klinik bewirkte die Intervention abweichende Veränderungen (von einer Verschlechterung um 20% bis zu einer Verbesserung um 24, 6%).
Zu den signifikanten Risikofaktoren für eine postoperative Hypokalzämie zählten in dieser Studie das weibliche Geschlecht, ein relativ junges Alter (44,7 ±10,6 Jahre im Gegensatz zu 50,5 ±12 Jahre) und die intraoperative Identifizierung von mehr als drei Nebenschilddrüsen. Weiterhin zeigte sich, dass sich bei hypokalzämen Patienten der Krankenhausaufenthalt signifikant verlängerte.
Beim SF-36-Fragebogen zeigte sich ein signifikanter Unterschied zwischen den prä- und postoperativen Werten der Frauen. Der Belastungsscore des Hypoparathyreoidismus-Fragebogens hingegen zeigte nur bei den Frauen der Interventionsgruppe eine signifikante Verbesserung zu den präoperativen Werten.
Schlussfolgerung: Die prophylaktische Vitamin D3-Gabe präoperativ konnte zwar keine Verminderung der Hypokalzämie-Rate in der Interventionsgruppe bewirken, aber bei aufgetretener Hypokalzämie eine schnellere Erholung des Calcium-Spiegels bewirken. Die postoperative Belastung durch Hypokalzämiesymptome wurde durch die Vitamin D3-Prophylaxe von Frauen signifikant gemildert empfunden. Eine Vitamin D3-Prophylaxe ist daher empfehlenswert. Der Nutzen der Intervention steigt allerdings mit der jeweiligen institutionellen Hypokalzämie-Rate. Bemerkenswert ist, dass die Kliniken sich in vielen Parametern gleichen, aber letztlich das chirurgische Vorgehen den größten Einfluss auf die Hypokalzämie-Rate zu haben scheint und die Intervention in Form der Gabe einer Vitamin D3-Prophylaxe überlagert hat.
In the course of this thesis we discuss a certain kind of supersolid, the lattice-supersolid, which can be realized using quantum gases in an optical lattice trap. The lattice-supersolid, which simultaneously possesses off-diagonal and diagonal long-range order in its density matrix and also breaks the discrete translational symmetry of an underlying lattice, is induced by self-ordering of the gas due to strong long-range van der Waals interactions. In the considered scenario, the interactions are facilitated by the excitation of atomic Rydberg states, which exhibit enhanced van der Waals forces.
In the first part of this thesis (chapters 1-3), we review the relevant basics of quantum gases, Rydberg physics and introduce the extended Bose-Hubbard model. We start with the relevant methods and devices of the vast toolbox available in common quantum gas experiments, as well as consider the main concepts behind superfluidity and supersolidity. This is followed by an introduction of some basic concepts of Rydberg atoms in quantum many-body systems, with a focus on the facilitation of long-range interactions and the implementation in a theoretical model. Thereafter a brief introduction is given, on the realization of the Bose-Hubbard model in optical lattice systems and its extension to include Rydberg states, which concludes the introductory part of this thesis.
In the following part (chapters 4-6), we introduce the theoretical tools used to derive the results presented in the final part. First, an introduction to a real-space extension of bosonic dynamical mean-field theory (RB-DMFT) for bosonic systems with long-range interactions in the Hartree approximation is given. This method is based on the non-perturbative self-consistent evaluation of the lattice Green’s function, which also incorporates the effect of nearest neighbor correlations due to the non-condensed particles. Then we focus on a quasiparticle expansion of the Bose-Hubbard model, which has its foundation in linearized fluctuations of a static mean-field ground-state, allowing for the prediction of a vast range of experimentally relevant observables. Lastly, we introduce an efficient truncation scheme for the local bosonic Fock-basis, which allows for the simulation of phases with high condensate density at a vastly reduced computational effort.
In the final part (chapters 7 and 8), we discuss the application of both methods to itinerant bosonic gases in two-dimensional optical lattices, in order to predict the equilibrium ground-state phases, as well as the signatures of supersolidity and its formation in spectral functions and the dynamic and static structure factor. Specifically, we focus on two limiting cases. Firstly, we consider a two-component gas, as realized by two hyperfine ground states, for example, of rubidium-87, where one component is off-resonantly excited to a Rydberg state, which generates a soft-core shaped interaction potential. Secondly, we discuss the opposing limit, using near-resonant excitations
of Rydberg states, where the interacting component now directly corresponds to the Rydberg state, which interacts via a van der Waals potential. In both cases we discuss the rich variety of supersolid phases, which are found for a wide range of parameters. We also discuss how some of these phases can be realized in experiment.
In the subsequent appendices (A to D) we discuss some methodological details. Most notably, we consider the possible Fock-extension of the Hartree approximation (appendix A), introduced in the RB-DMFT treatment of the extended Bose-Hubbard model.
Reactive oxygen species (ROS) are involved in various signalling mechanisms. Redox homeostasis is important in cancer cells, since they are dependent on upregulated antioxidant defence pathways to cope with elevated ROS levels. Therefore, targeting the antioxidant defence system and/ or increasing ROS to a lethal level may be a feasible strategy to counteract cancer cell progression.
Acute lymphoblastic leukaemia (ALL) is the most frequent malignant childhood cancer, displaying on one side resistance to cell death induction and on the other side elevated ROS levels. Therefore, inducing ferroptosis, a ROS- and iron-dependent cell death pathway might be useful to trigger cell death in ALL as a novel treatment strategy. In the first study of this thesis we observed that RSL3, a glutathione (GSH) peroxidase 4 (GPX4) inhibitor, triggered ROS accumulation and lipid peroxidation which contributed to ferroptotic cell death. These observations were based on suppression of RSL3 stimulated cell death using different ferroptosis inhibitors like Ferrostatin-1 (Fer-1), Liproxstatin-1 (Lip-1), as well as iron chelator Deferoxamine (DFO) and the vitamin E derivate α-Tocopherol (α-Toc). RSL3-triggered ROS and lipid peroxide production were also inhibited through Fer-1 and α-Toc. Furthermore, lipoxygenases (LOX) were activated upon RSL3 stimulation and contributed to ferroptotic cell death in ALL as well. Selective inhibition of LOX with the 12/15-LOX inhibitor Baicalein and the pan-LOX inhibitor nordihydroguaiaretic acid (NDGA) abolished RSL3-induced ROS production, lipid peroxidation and cell death. In addition, RSL3 induced lipid peroxide-dependent ferroptotic cell death in FAS-associated Death Domain (FADD)-deficient, death receptor-induced apoptosis resistant cells, demonstrating that ferroptosis might circumvent apoptosis resistance.
The second part of the study revealed that RSL3 and Erastin (Era), a GSH-depleting agent, inhibiting the cystine/glutamate antiporter system xc- and ferroptosis inducer, cooperated with the Smac mimetic BV6 to trigger cell death in ALL cells. RSL3/BV6 and Era/BV6 combination-induced cell death was dependent on ROS accumulation, but independent of caspases and key modulators of necroptosis. RSL3/BV6-treated ALL cells exhibited classical features of ferroptotic cell death with iron-dependency, ROS accumulation and lipid peroxidation which was diminished through either pharmacological inhibition (Fer-1, DFO, α-Toc) or genetic inhibition by overexpressing GPX4. Interestingly, Era/BV6-induced cell death in ALL cells was independent of iron but dependent on ROS accumulation, since α-Toc rescued from Era/BV6-triggered ROS production, lipid peroxidation and cell death. Moreover, inhibition of lipid peroxide formation through the addition of Fer-1 or by overexpressing GPX4 failed to rescue from Era/BV6-triggered cell death, even if Era/BV6-stimulated lipid peroxidation was diminished. Likewise, Fer-1 protected from RSL3/BV6-, but not from Era/BV6-generated ROS production, leading to the assumption that other ROS besides lipid-based ROS contributed to cell death in Era/BV6-treated cells. In summary, while RSL3/BV6 induced ferroptosis in ALL, Era/BV6 stimulated a ROS dependent cell death, which was neither dependent on iron nor caspases or receptor-interacting protein (RIP) kinase 1 nor 3. Additionally, using Erastin alone did not trigger ferroptotic cell death in ALL. Finally, with these two studies we tried to unravel the molecular pathway of ferroptosis by using RSL3 and Erastin as well described ferroptosis stimulators. Here, we demonstrate the possibility of a novel treatment strategy to reactivate programmed cell death by impeding redox homeostasis in ALL.
Since ALL failed to induce ferroptosis upon Erastin treatment, we investigated in the third part of this thesis a new model system to induce ferroptosis upon Erastin and RSL3 exposure. Previous studies revealed that rhabdomyosarcoma (RMS) cells might be susceptible to oxidative stress-induced compounds. To this end, we used Erastin as a prototypic ferroptosis stimulus and GSH-depleting agent and demonstrated that GSH depletion, ROS and lipid ROS accumulation contributed to cell death. Additionally, Fer-1, Lip-1, DFO, lipophilic vitamin E derivate α-Toc and GSH, a cofactor of GPX4, protected from Erastin stimulated ROS accumulation, lipid peroxidation and cell death. Also, the use of a broad spectrum protein kinase C (PKC) inhibitor Bisindolylmaleimide I (Bim1), a PKCα and ß selective inhibitor Gö6976 and siRNA-mediated knockdown of PKCα suppressed Erastin-mediated cell death in RMS. Moreover broad spectrum nicotinamide-adenine dinucleotide phosphate (NADPH) oxidase (NOX) inhibitor Diphenyleneiodonium (DPI) and a more selective NOX1/4 isoform inhibitor GKT137831 abrogated Erastin-generated ROS formation, lipid peroxidation and cell death. With this, we demonstrate that RMS are vulnerable to ferroptotic cell death and investigated the molecular mechanism of ferroptosis by unravelling that PKC and NOX could have a pivotal role in ROS-mediated ferroptosis signalling in RMS. In this regard, ferroptosis inducers may act as a possible novel treatment strategy for RMS, especially those with poor clinical outcome.
Microsporidia are a group of parasites that infect a wide range of species, many of which play important roles in agriculture and human disease. At least 14 microsporidian species have been confirmed to cause potentially lifethreatening infectious diseases in both immunocompromised and immunocompetent humans. Approximately 1,400 species of microsporidia have been described. Depending on their host and habitat they are classified into three groups, the aquasporidia, the terresporidia and the marinosporidia.
Microsporidia were originally classified as fungi by Naegeli (1857). However, their lack of typical eukaryotic components – such as mitochondria, Golgi bodies or peroxisomes – suggested to place the microsporidia together with other amitochondriate protists within the Archezoa kingdom. This "microsporidia-early" hypothesis was further supported by molecular phylogenies inferred from individual genes. Despite this evidence, the placement of microsporidia as an early branching eukaryote remained a topic for debate. The phylogeny of microsporidia is prone to suffer from biases in their reconstruction. The high evolutionary rate of microsporidian proteins tends to place these proteins together with other fast evolving lineages, a phenomenon known as long-branch attraction. In 1996, the first molecular phylogenetic studies placed the microsporidia inside the fungi.
Subsequently, several further studies located the microsporidia at different positions inside the fungal clade. Since then, microsporidia have been considered as members of the Ascomycota, Zygomycota, Cryptomycota, or as a sister group to the Ascomycota and Basidiomycota, or even as the sister group of all fungi.
The difficulties in determining the evolutionary origin of microsporidia are not only caused by their lack of several cellular components but also by their reduced genomes and metabolism. Being obligate intracellular parasites, microsporidia successfully reduced their genome sizes, down to the range of bacteria. As the smallest eukaryotic genome described so far, the genome of Encephalitozoon intestinalis is just 2.3 Mbp, about half the size of the one of Escherichia coli. Due to their low number of protein coding genes (less than 4,000), microsporidia are thought to retain only genes essential for their survival and development. Furthermore, several key metabolic pathways are missing in the microsporidia, such as the citric acid cycle, oxidative phosphorylation, or the de novo biosynthesis of nucleotides. As a result they are in an obligatory dependence on many primary metabolites from the hosts. However, the presence of hsp70 protein suggests a more complex genome of the microsporidian ancestor. Consequently, the small microsporidian genomes and the reduced metabolism would be consequences of a secondary loss process that molded the contemporary microsporidia from a functionally more complex ancestral species. However, it remains unclear whether the last common ancestor (LCA) of the microsporidia was already reduced, or whether the genome compaction was lineage-specific and started from a more complex LCA.
We investigated the evolutionary history of the contemporary microsporidia through the reconstruction and analysis of their LCA. As a first step in our analysis, we have developed and implemented a software facilitating an intuitive data analysis of the large presence absence-patterns resulting from the tracing of microsporidian proteins in gene sets of many different species. These so called phylogenetic profiles can now be dynamically visualized and explored with PhyloProfile. The software allows the integration of other additional information layers into the phylogenetic profile, such as the similarity of feature architecture (FAS) between the protein under study and its orthologs. The FAS score can be displayed along the presence-absence pattern, which can help to identify orthologs that have likely diverged in function. PhyloProfile closes the methodological gap that existed between tools to generate large phylogenetic profiles to delineate the evolutionary history and the contemporary distribution of large – and ultimately complete – gene sets, and the more function-oriented analysis of individual protein. In the next step we tackled the problem of how to transfer functional annotation from one protein to another. We have developed HamFAS that integrates a targeted ortholog search based on the HaMStR algorithm with a weighted assessment of feature architecture similarities (FAS) between orthologs. In brief, for a seed protein we identify orthologs in reference species in which proteins have been functionally annotated based on manually curated assignments to KEGG Ortholog (KO) groups. The FAS scores between the orthologs and seed proteins are calculated. Subsequently, we compute pairwise FAS scores for all reference proteins within a KO group. A group's mean FAS score serves then as cutoff that must be exceeded to warrant transfer of its KO identifier to the seed. A benchmark using a manually curated yeast protein set showed that HamFAS yields the best precision (98.5%) when compared with two state-of-the-art annotation tools, KAAS and BlastKOALA. Furthermore, HamFAS achieves a higher sensitivity. On average HamFAS annotates almost 50% more proteins than KAAS or BlastKOALA.
With this extended bioinformatics toolbox at hand, we aimed at reconstructing the evolutionary history of the microsporidia. We generated a robust phylogeny of microsporidia using a phylogenomics approach. As a data basis, we identified a set of microsporidian proteins encoded by 80 core genes with one-to-one orthologs. A maximum likelihood analysis of this data
with 48 fungi and additionally in 13 species from more distantly related such as animals and plants combined in a supermatrix strongly supported the hypothesis that microsporidia form the sister group of the fungi. We confirmed that the data explains this microsporidia-fungi relationship significantly better than any other of the previously proposed phylogenetic hypotheses.
On the basis of this phylogeny, and of the phylogenetic profiles of microsporidian proteins, we then focused on reconstructing the dynamics microsporidian genome evolution. Between 2% of the proteins in the compact microsporidia Encephalitozoon intestinalis and up to 49% of the proteins of Edhazardia aedis are private for individual microsporidian species. A comparison of the sequence characteristics of these proteins to that of proteins with orthologs in other microsporidian species revealed individual differences. Yet, without further evidences it remains unclear whether these private genes are indeed lineage-specific innovations contributing to the adaptation of each microsporidium to its host, or whether these are artifacts introduced in the process of gene annotation. A total of 14,410 microsporidian proteins could then be grouped into 1605 orthologous groups that can be traced back to the last common ancestor of the microsporidia (LCA set). We found that 94% of the microsporidian LCA proteins could be tracked back to the last eukaryotic common ancestor. The high evolutionary age of these proteins, together with the resistance against gene loss in the microsporidia suggests that the corresponding functions are essential for eukaryotic life. Further 3% of the LCA proteins could be dated to the common ancestor microsporidia share with the fungi. Only 3% of the LCA proteins appear as microsporidia specific inventions. These proteins are potentially of importance for the evolutionary of the obligate parasitic lifestyle nowadays shared by all microsporidia.
The functional annotation and metabolic pathway analysis of the microsporidian LCA protein set gave us more insight into the adaptation of the microsporidia to their parasitic lifestyle and the origin of the microsporidian genome reduction. The presence of E1 and E3 components of the pyruvate dehydrogenase complex and the mitochondrial hsp70 protein support an ancestral presence of mitochondria in the ancestral microsporidia. In addition, several ancient proteins that complement gapped metabolic pathways were found in the microsporidian LCA. They suggested a more complex genome and metabolism in the LCA. However, our reconstruction of the metabolic network of the microsporidian LCA still lacks many main pathways. For example, the TCA cycle for effective energy production, and key enzymes that are required for in vivo synthesis of critical metabolites like purines and pyrimidines appear absent. We therefore find that the parasitic lifestyle and the genome reduction already occurred in the microsporidian LCA. This ancestral state was followed by further losses and gains during the evolution of each individual microsporidian lineage.
This thesis presents the first measurement of the proton capture reaction on the isotope 124Xe performed in inverse kinematics. The experiment was carried out in June 2016 at the Experimental Storage Ring (ESR) at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, Germany.
124Xe is one of about 35 p-nuclei that cannot be produced via neutron-induced nucleo- synthesis as the vast majority of heavy elements. Its production and destruction provide important information about the nucleosynthesis of the p-nuclei. Measuring the 124Xe(p,g)125Cs reaction also gives strong constraints for its reverse 125Cs(g,p)124Xe reaction.
Fully stripped 124Xe ions repeatedly passed a H2 gas jet target at five different energies between 5.5 MeV/u and 8 MeV/u. An electron cooler compensated for the energy loss in the target and reduced the beam momentum spread. The reaction product 125Cs55+ has a smaller magnetic rigidity than 124Xe54+. Therefore 125Cs55+ was deflected towards smaller radii in the first dipole after the target area and thereby separated from 124Xe54+. It was detected with a position-sensitive Double-Sided Silicon Strip Detector (DSSSD). The novelty of this experiment was the installation of the DSSSD inside the ultra-high vacuum of the storage ring using a newly designed manipulator.
Three High-Purity Germanium X-ray detectors were used to measure the X-rays following the Radiative Electron Capture (REC) events into 124Xe53+. The REC cross sections are well-known and were used to determine the luminosity.
The 124Xe(p,g)125Cs cross sections at ion beam energies between 5.5 MeV/u and 8 MeV/u were determined relatively to the K-REC cross sections and finally compared to the theoretically predicted cross sections. While theoretical predictions of the TENDL database are lower than the measured ones by a factor of up to seven, the NON-SMOKER data are higher by a factor of up to two, except of the cross section at 7 MeV/u, where NON-SMOKER data are slightly lower than the experimental value.
For the first time, a proton capture cross section could be measured in inverse kinematics close to the astrophysically relevant Gamow window. This allows the direct determination of the (p,g) cross section of isotopes with half-lives down to several minutes, which is not possible with any other technique.
In this thesis we work on the theoretical description of relativistic heavy-ion collisions, focussing on electromagnetic probes. We present mainly four topics: electric conductivity and diffusion properties of the hot plasma and hadronic matter, response of the quark-gluon plasma to external magnetic fields, direct photon production in the quark-gluon plasma and a study about initial and final state effects in small systems. The latter topic aims, i.a., at a better understanding of the initial state, which is crucial for electromagnetic probes. In all research areas we make use of the Boltzmann transport equation, whereby the presented methods provide analytical and numerical solutions. We pay particular attention to the construction of complete leading order photon production processes in numerical transport simulations of the quark-gluon plasma.
To begin with, our findings are the complete conserved charge diffusion matrix and electric conductivity. Those properties are important ingredients, e.g., for future simulations of baryon rich collisions. Next, we find that the influence of external magnetic fields to the QGP dynamics is not quantifiable in observables.
We present results for a variety of direct photon observables and we can partly explain experimental data. We emphasize the importance of the chemical composition and non-equilibrium nature of the medium to the direct photon puzzle. Lastly, we observe the interesting dynamic behavior of azimuthal correlations in small systems and identify signatures of the initial state in final observables. This will also be of interest for more precise simulations of electromagnetic probes and allows for various future studies.
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience.
Adopting a dual process approach – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the paradox of losing oneself in the music on the one hand, and meta-awareness on the other, b) its corresponding psychophenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment, lasting impression, and behavioral intention.
To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.Aesthetic absorption was confirmed to be structured– in terms of dual process terminology – by intuitive type I and reflective type II processing. Two forms of music absorption were empirically
identified and labeled as zoning in and tuning in. These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state.
These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory, postulating that positive emotions are differently processed than negatively-tinted types of emotions, it was
concluded that music-induced rumination ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection. It was also shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind - operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention.
Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate longlasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
In conclusion, I described for the first time the in vivo functions of PAK2 during cardiac development and its requirement for heart contractility
AIM1 – Characterization of Pak2a and Pak2b functions during cardiovascular system development: description of the phenotype triggered by the loss of expression of pak2b in the pak2a mutant Firstly, in addition to the confirmation of the published data regarding the pak2a mutant and morphant phenotype, I showed that pak2bbns159 mutant does not exhibit morphological defects, neither in the ISV formation nor in the brain vascular patterning. More importantly, I analyzed in more details the phenotypic consequences of pak2a and pak2b loss of expression in the trunk and brain vasculatures. Indeed, the lack of blood flow in the embryos, was associated with central arteries migration defects and reduced lumen in these central arteries and the ISVs. Moreover, pak2a and pak2b loss of expression resulted in cardiac failure.
AIM2 – Role of Pak2 on cardiac contractility From 40 -46 hpf, I found a weaker heart contractility in the pak2ami149/mi149;pak2bbns159/bns159. Although, the PAK proteins have been shown to impact the actin cytoskeleton organization, the heart morphological defects associated with the altered contractility, were not associated with acto-myosin filament reorganization. However, by analyzing in more details the structure of the sarcomeres, I was able to demonstrate that the proteins constituting the sarcomeres were strongly affected and showed an altered spatial organization. Then, I also described the effects of the loss of expression of both paralogs on the junctional protein localization. I demonstrated the loss of Pak2 function resulted in junction protein rearrangement in the cardiomyocytes in the pak2ami149/mi149;pak2bbns159/bns159 mutants at 40 and 46 hpf.
Thus, I was able for the first time to demonstrate in vivo PAK2 functions during cardiac development and its requirement for proper cardiac contractility activity.
AIM3 – Decipher mechanism of Pak2 signaling cascade involved during cardiac development Both pak2a and pak2b WT mRNAs were able to rescue the pak2ami149/mi149;pak2bbns159/bns159 mutant heart defects and the results indicated that these paralogs share overlapping function during cardiac development. Moreover, although I was not able to examine the control transgenic lines, myocardial and endothelial specific pak2a overexpression did not ameliorate the mutant cardiac deficiency. Thus,the absence of rescue by reactivating pak2a in cardiomyocytes indicates a non-cell autonomous function of Pak2a on cardiomyocytes.
For the first time, this study allowed to follow PAK2 in vivo functions during cardiovascular development. More importantly, its role on heart contractility regulation would enable further investigations to generate new tools for the treatment of cardiomyopathies.
Die vorliegende Untersuchung wurde mit dem Ziel durchgeführt, fördernde und hemmende Einflussfaktoren auf die Entstehung und Durchführung von translationaler Forschung näher bestimmen zu können. Dazu wurden im Verlauf der Forschung sechs Gruppen von möglichen Einflussfaktoren untersucht. Diese waren 1) externe politische, 2) institutsbezogene, 3) soziale (auf soziale Rollen und sozialen Status bezogene), 4) epistemische, 5) forschungskulturelle und 6) individuelle Faktoren.
Translationale Forschung wurde als Spezialform interdisziplinärer Forschung konzeptualisiert. Auch bei dieser wird Wissen aus mehr als einer wissenschaftlichen Disziplin herangezogen, um ein disziplinübergreifendes Problem zu lösen. Das Besondere an der translationalen Forschung ist jedoch, dass zusätzlich mindestens eine der beteiligten Disziplinen grundlagenorientiert und eine andere anwendungsorientiert ist. Der Vorteil besteht darin, dass fortan der Wissensbestand beider Disziplinen kombiniert werden kann. Ein Nachteil ergibt sich daraus, dass die Wissensbestände untereinander nicht ohne Weiteres anschlussfähig sind und eine „Übersetzung“ durch die unterschiedlichen Praxisbezüge der beteiligten Disziplinen erschwert wird. Die translationalen Forschung muss neben dieser noch einer weiteren Herausforderung begegnen: Denn sie gewinnt ihre Erkenntnisse unter Laborbedingungen, wo Umweltfaktoren praktisch keine Rolle spielen. Dadurch lassen sich ihre Ergebnisse nicht unbedingt in die klinische Praxis transferieren. Kurz gesagt: Was im Labor eine bestimmte Wirkung erzielt hat, entfaltet diese Wirkung nicht automatisch am Patienten.
Im Rahmen der Dissertation wurden sechs translationale Forschungsprojekte aus Berlin-Buch aus der Zeit zwischen 1959 und 1989 untersucht. Aufgrund der in der DDR etablierten, staatlichen Überführungspolitik konnte insbesondere der Einfluss externen politischen Drucks auf diese Forschungsprojekte untersucht werden. Als Quellen dienten archivierte Akten, graue Literatur, zur damaligen Zeit publizierte Fachliteratur und Interviews mit Forschern, die damals an diesen Projekten beteiligt waren. Da es an soziologischer Literatur spezifisch zu translationaler Forschung bisher mangelt, wurden mehrere Einzelstudien aus der soziologischen und wissenschaftshistorischen Forschung herangezogen. Die Untersuchungsergebnisse erweitern den Forschungsstand zur interdisziplinären Forschung und zu Praxisbezügen von Forschung.
Die untersuchten Fallstudien zeigen exemplarisch, dass es die von der Staatsführung der DDR gewollten anwendungsorientierten medizinischen Forschungsprojekte auch in Berlin-Buch gegeben hat. Entgegen der Erwartung zeigen sie aber auch, dass translationale Forschung nicht speziell gefördert (mit Ressourcen oder einem besonderen Commitment) wurde und es somit oft vom Zufall abhängig war, ob diese (vorzeitig) beendet wurde oder nicht. Darüber hinaus konnten Anhaltspunkte dafür gefunden werden, dass translationale Forschung im Wesentlichen auf epistemischen (fachlichen) Schnittstellen beruht, die von anwendungsorientierten Biomedizinern meist aus persönlichem Interesse aufgegriffen werden, wenn sie als solche erkannt werden und wenn entsprechende Ressourcen zur Forschung zur Verfügung stehen.
Somit konnte widerlegt werden, dass das so genante „Translationsproblem“ darauf zurückzuführen ist, dass Kliniker und Forscher kein Interesse haben, miteinander zu kommunizieren oder zu forschen. Ein Problem stellt lediglich dar, dass epistemische Schnittstellen meist zufällig (oft als Nebenprodukte von disziplinärer Forschung) sichtbar werden und es an kurzfristig verfügbaren Ressourcen fehlen kann, um diesen nachzugehen. Hinzu kommt der erhöhte Aufwand, der sich durch das Einbeziehen von Forschern aus anderen Disziplinen ergibt und das vergleichsweise hohe Risiko, dass medizinische Anwendungen, die auf translationaler Forschung aufbauen, unter komplexen Umweltbedingungen (am Patienten) nicht mehr die gewünschte Wirkung entfalten. Die untersuchten Fallstudien haben jedoch auch gezeigt, dass translationale Infrastrukturen und regelmäßiges Peer Review Forschern dabei helfen können, Ergebnisse translationaler Forschung auf ihre Tauglichkeit in der Klinik zu prüfen. Das Risiko des Scheiterns lässt sich jedoch nicht vollständig ausschließen.
Seit einigen Jahren ist bekannt, dass Sphingolipide nicht nur eine strukturgebende Funktion in der Plasmamembran aufweisen, sondern ebenfalls als Botenstoffe intra- und extrazellulär aktiv sind. Sphingosin-1-Phosphat (S1P) bildet dabei einen Schlüssel-Metaboliten, da es verschiedene Zellfunktionen wie Wachstum und Zelltod beeinflusst. Es wird durch zwei Isoformen der Sphingosinkinasen, SK1 und SK2, gebildet. Die SK1 wurde bereits gut untersucht und es konnte gezeigt werden, dass sie eine wichtige Rolle beim Zellwachstum einnimmt und einen entscheidender Regulator bei inflammatorischen Erkrankungen und Krebs darstellt. Über die SK2 ist soweit wenig bekannt und die Ergebnisse sind zum Teil kontrovers. Sowohl pro-proliferative als auch anti-proliferative Funktionen der SK2 wurden beschrieben. Andererseits handelt meine Arbeit von Nierenfibrose, da beschrieben wurde, dass Sphingolipide einen wichtigen Einfluss auf die Entwicklung chronischer Nierenerkrankungen nehmen. Nierenfibrose stellt das Endstadium chronischer Nierenerkrankungen dar und führt zu einer Akkumulation der Extrazellulärmatrix, Organvernarbung und zum Verlust der Nierenfunktion. Die SK1 spielt dabei eine protektive Rolle bei der Entstehung von Nierenfibrose. Deshalb sollte in dieser Arbeit die Rolle der Sk2 bei der Entstehung von Nierenfibrose untersucht werden.
Im ersten Teil meiner Arbeit wurde das Mausmodell der unilateralen Ureterobstruktion (UUO) verwendet, welches zur Entwicklung einer tubulointerstitiellen Nephritits und nachfolgender Fibrose führt. Es konnte dabei gezeigt werden, dass sowohl die Protein-Expression als auch die Aktivität der SK2 im fibrotischen Nierengewebe gesteigert wurden. Allgemein wiesen die SK2-/--Mäuse eine verminderte Fibrose in Folge des UUO auf im Vergleich zu den Wildtyp-Mäusen. Dies wurde bestätigt durch eine reduzierte Kollagenakkumulation, sowie eine verminderte Protein-Expression von Fibronektin-1, Kollagen-1, α-smooth muscle actin, connective tissue growth factor (CTGF) und Plasminogen-Aktivator-Inhibitor1 (PAI-1). Diese Effekte gingen einher mit einer gesteigerten Protein-Expression des inhibitorischen Smad7 und erhöhten Sphingosin-Spiegeln in SK2-/--UUO-Nieren. Auf mechanistischer Ebene vermindern die erhöhten Sphingosin-Spiegel die durch transforming growth factor-β (TGFβ) induzierte Kollagenakkumulation, die PAI-1- und CTGF-Expression, aber induzieren die Smad7-Expression in primären Nierenfibroblasten. In einem komplementären Versuch mit hSK2 tg-Mäusen wurde eine verstärkte Entstehung von Nierenfibrose mit erhöhter Kollagenakkumulation, sowie erhöhte Protein-Expressionen von Fibronektin-1, Kollagen-1, α-smooth muscle actin, CTGF und PAI-1 festgestellt. Die Smad7-Expression dagegen war vermindert.
Im zweiten Teil meiner Arbeit stand der glomeruläre Teil der Niere im Fokus und es wurde untersucht, ob die Überexpression der SK2 zu einer phänotypischen Veränderung der glomerulären Mesangiumzellen führt. Mesangiumzellen wurden dazu aus den hSK2 tg-Mäuse isoliert und charakterisiert. Es konnte gezeigt werden, dass hSK2 und mSK2 in den transgenen Zellen hauptsächlich in der zytosolischen Fraktion lokalisiert sind, während S1P ausschließlich im Kern akkumulierte. Weiterhin konnte eine verminderte Proliferation unter normalen Wachstumsbedingungen der hSK2 tg-Zellen im Vergleich zu den Kontrollzellen beobachtet werden. Die Zellen reagierten auch sensitiver auf Stress-induzierte Apoptose. Auf molekularer Ebene konnte dies durch eine reduzierte ERK- und Akt/PKB-Aktivierung erklärt werden. Nach Staurosporin-Behandlung wurde Apoptose durch den intrinsischen, mitochondrialen Apoptosesignalweg induziert. Dabei konnte eine reduzierte anti-apoptotische Bcl-xL-Expression und vermehrte Prozessierung von Caspase-9 und Caspase-3 und PARP beobachtet werden.
Zusammenfassend konnte in dieser Arbeit gezeigt werden, dass eine verminderte tubulointerstitielle Fibrose-Entstehung durch die Deletion der SK2, sowie anti-proliferative und Apoptose-induzierende Effekte durch die SK2 in Mesangiumzellen nachgewiesen werden konnten. Somit könnten SK2-Inhibitoren die Entstehung tubulointerstitieller Fibrose und mit Proliferation assoziierte Erkrankungen wie mesangioproliferative Glomerulonephritis positiv beeinflussen.
The purpose of this thesis is to achieve two highly interconnected yet distinct tasks. On the one hand, the thesis explains how foreign investment insurance works by focusing on the law governing the relationships between involved actors. On the other hand, it provides a critique of the operation of foreign investment insurance as an investment protection instrument by mainly drawing on critical studies of the investment protection regime.
The main question this thesis attempts to answer is how foreign investment insurance works. I construe foreign investment insurance as a typical insurance product and focus on the operation of insurance arrangements from a legal perspective. Ideas about how insurance should be deployed in any given social, political or economic context are instrumental in the development of insurers, insurance products and insurance techniques. The thesis examines investment insurers, the products they offer and their techniques to identify and deal with so-called political risks.
Another important question concerns the notion of political risk. What are considered political risks in the context of investment insurance and how are they conceptualized by investment insurance providers? Investment insurers have largely adopted a business-oriented political risk definition which denotes governmental intervention in foreign investment as political risk without regard to the objectives of government actions. Descriptive studies explain political risk by replicating investment insurers’ categorization of basic coverages that include expropriation, currency inconvertibility and remittance transfer restrictions, political violence and breach of contract. Yet recent studies have increasingly provided in-depth analyses on the notion of political risk as well as on the specific categories of political risk, particularly expropriation. The thesis draws on these studies to critically discuss the concept of political risk as it is used by investment insurance providers.
I focus on foreign investment insurance provided by OPIC and MIGA due to their mandate to promote economic development in the capital-importing countries and for their historical role as the major providers of investment insurance. While focus is on MIGA and OPIC, the thesis offers a general account of the operation of foreign investment insurance by incorporating the available information on investment insurance industry and the international governance of investment insurance. The central issues explored in this thesis such as the principle of subrogation and the notion of political risk help me generalize the study as these issues are characterized similarly with respect to each public investment insurance provider.
The case studies and most examples in this thesis are based on expropriation risk insurance.
Precise timing of spikes between different neurons has been found to convey reliable information beyond the spike count. In contrast, the role of small phase delays with high temporal variability, as reported for example in oscillatory activity in the visual cortex, remains largely unclear. This issue becomes particularly important considering the high speed of neuronal information processing, which is assumed to be based on only a few milliseconds, or oscillation cycles within each processing step.
We investigate the role of small and imprecise phase delays with a stochastic spiking model that is strongly motivated by experimental observations. Within individual oscillation cycles the model contains only two signal parameters describing directly the rate and the phase. We specifically investigate two quantities, the probability of correct stimulus detection and the probability of correct change point detection, as a function of these signal parameters and within short periods of time such as individual oscillation cycles.
Optimal combinations of the signal parameters are derived that maximize these probabilities and enable comparison of pure rate, pure phase and combined codes. In particular, the gain in detection probability when adding imprecise phases to pure rate coding increases with the number of stimuli. More interestingly, imprecise phase delays can considerably improve the process of detecting changes in the stimulus, while also decreasing the probability of false alarms and thus, increasing robustness and speed of change point detection.
The results are applied to parameters extracted from empirical spike train recordings of neurons in the visual cortex in response to a number of visual stimuli. The results suggest that near-optimal combinations of rate and phase parameters can be implemented in the brain, and that phase parameters could particularly increase the quality of change point detection in cases of highly similar stimuli.
Systemerkrankungen der arteriellen Gefäße stellen eine häufige Todesursache in Deutschland und der westlichen Welt dar. Hierbei sind vor allem die auf Grundlage von Arteriosklerose entstehende Koronare Herzerkrankung sowie der Myokardinfarkt zu nennen. Ursache des Myokardinfarktes ist eine Minderperfusion und damit bedingte Ischämie des Myokardgewebes. Ziel einer jeden Minderperfusion ist die therapeutisch schnellstmögliche Reperfusion. Ischämie- und Hypoxie-bedingt entstehen hierbei durch inflammatorische Prozesse, Ansammlung toxischer Metabolite, veränderter Protein-Expressionsmuster sowie durch das reperfundierende Blut der sogenannte Ischämie-Reperfusionsschaden. Dieser komplexe Effekt lässt sich über dem hinaus auch bei Organtransplantationen beobachten.
Die vorliegende Arbeit beschreibt den Versuch den Ischämie-Reperfusionsschaden durch den Einfluss von mTOR-Inhibition im humanen Gefäßmodel zu quantifizieren. Hierbei wurden die mTOR-Inhibitoren Sirolimus und Everolimus verwendet. Beide Immunsuppressiva finden aktuell unter anderem klinische Anwendung nach Organtransplantationen. Bereits in einigen Studien konnten positive Effekte von Sirolimus als auch Everolimus auf den Ischämie-Reperfusionsschaden nachgewiesen werden. Dieser Versuch sollte nun weitere zielführende Erkenntnisse hinsichtlich mTOR-Inhibition und proinflammatorischer Prozesse sowie der Expression von Zell-Adhäsionsmolekülen im humanen Gefäßmodell liefern. Ebenso sollte die Qualität des Bioreaktors als adäquates Humangefäß-Perfusionsmodell evaluiert werden.
Als Versuchsgrundlage wurde hierbei eine Ischämiezeit der Gefäße von vier bis fünf Stunden festgelegt. Die verwendeten Gefäße wurden in der Folge nach standardisierten Kriterien (Präoxygenierung, Heparinisierung, 37° Grad Celsius Temperatur, Blutgruppe AB Rhesusfaktor negativ, Hämatokritwert 30%) zwei Stunden lang mittels Vollblut im Bioreaktormodel reperfundiert. Unterschieden wurde hierbei eine Gefäßkontrollgruppe (n=7), von einer Sirolimus-Gruppe (n=6, standardisierte Blutkonzentration 10ng/ml) und einer Everolimus-Gruppe (n=7, standardisierte Blutkonzentration 5 ng/ml). Nach standardisierten Zeitpunkten der Reperfusion (0 Minuten, 15 Minuten, 30 Minuten, 60 Minuten und 120 Minuten) wurden jeweils Blutproben dem simulierten Kreislauf entnommen. Mittels Blutgasanalyse wurde über die Bestimmung des Sauerstoffpartialdrucks, des Kohlendioxidpartialdrucks sowie des pH-Wertes eine qualitative Evaluierung des Bioreaktors als humanes Gefäßmodel vorgenommen. Des Weiteren dienten die Blutproben zur Erfassung der proinflammatorischer Marker Interleukin-6, TNF-α, sowie VEGF während der unterschiedlichen Zeitpunkte der Blutentnahme. Nach Beendigung der Reperfusion wurden Gefäßproben mittels immunhistochemischen Verfahren auf die Expression der Zell-Adhäsionsmoleküle CD31 sowie CD11b hin untersucht.
Aufgrund durchgeführter Versuche konnte gezeigt werden, dass in der Kontrollgruppe die Interleukin-6- sowie VEGF-Spiegel signifikant im Zuge der Reperfusion anstiegen. Sirolimus als auch Everolimus konnten demgegenüber einen signifikanten Anstieg dieser proinflammatorischen Signalmoleküle verhindern. Im Vergleich des proinflammatorischen TNF-α konnte allerdings ein signifikanter Einfluss der mTOR-Inhibitoren nicht bestätigt werden. Hinsichtlich des Expressionsmusters konnte Sirolimus als auch Everolimus eine signifikante Reduktion von sowohl CD31-positiven als auch CD11b-positiven Zellen im Vergleich zur Kontrollgruppe aufzeigen.
In der Zusammenschau lässt sich aus den erhobenen Daten schlussfolgern, dass der Bioreaktor als humanes Gefäßmodell ein suffizientes Perfusionssystem darstellt. Sirolimus als auch Everolimus können über ihren Wirkungsmechanismus der mTOR-Inhibition einen Anstieg proinflammatorischen Moleküle zum Teil verhindern. Den größten Einfluss auf den Ischämie-Reperfusionsschaden nehmen Sirolimus als auch Everolimus hierbei mittels der Suppression von Zell-Adhäsionsmolekülen CD31 und CD11b.
Polyploidie in Prokaryoten
(2018)
Diese Arbeit teilt sich in drei Teile auf, die sich mit der Regulation der Polyploidie sowie mit der Genkonversion als evolutionären Vorteil von Polyploidie in Haloferax volcanii beschäftigen.
Im ersten Teil dieser Arbeit, wurde der Einfluss der DNA-Replikationsinitiatorproteine Orc1/Cdc6 auf das Ploidielevel untersucht. Hierbei konnte anhand von Deletionsmutanten zunächst gezeigt werden, dass lediglich drei der 16 Orc1/Cdc6-Proteine in H. volcanii essentiell sind. Bestimmung des Ploidielevels mittels qPCR-Analyse ergab, dass jedes der 12 untersuchten Orc1/Cdc6-Proteine das Ploidielevel mindestens eines Replikons beeinflusst und dementsprechend sowohl die mit einem Replikationsursprung assoziierten als auch die „verwaisten“ Orc1/Cdc6-Proteine eine Funktion haben. Die mit einem Replikationsursprung assoziierten Orc1/Cdc6-Proteine hatten hierbei keinen größeren Einfluss auf das Ploidielevel als die „verwaisten“. Zusätzlich konnte durch Wachstumsanalysen in Mikrotiterplatten gezeigt werden, dass die meisten Deletionsmutanten unter allen getesteten Bedingungen ein mit dem Wildtyp vergleichbares oder besseres Wachstum zeigen. Eine Deletionsmutante eines Orc1/Cdc6-Proteins hingegen zeigte nur verbessertes Wachstum bei Glukose als Kohlenstoffquelle, was ein Hinweis auf die Verwendung verschiedener Orc1/Cdc6-Proteine unter verschiedenen Bedingungen sein könnte. Zusätzlich wurden zwei mit dem Replikationsursprung assoziierte Orc1/Cdc6-Proteine überexprimiert und via ihres N-terminalen His-Tag im Western-Blot nachgewiesen, sodass diese nun für Co-Affinitätsaufreinigungen zur weiteren Charakterisierung des komplexen Zusammenspiels der Orc1/Cdc6-Proteine zur Verfügung stehen.
Im Rahme des zweiten Teils der Arbeit wurde der Einfluss der in der 5‘-Region der der Replikationsursprünge ori1 und ori2 kodierten Proteine auf Wachstum und die Kopienzahl des Hauptchromosoms bestimmt. Zunächst wurde die Expression der drei in Haloarchaea hoch-konservierten oap-Gene upstream von ori1 mittels Nothern-Blot untersucht und es konnte gezeigt werden, dass das oap-Operon tatsächlich als Operon abgelesen wird. Um alle Gene in den 5‘-Regionen von ori1 und ori2 genauer zu charakterisieren, wurden induzierbare Überexpressionsmutanten im Wildtyp-Hintergrund angefertigt. Es konnte mittels Wachstumsversuchen in Mikrotiterplatten gezeigt werden, dass bei Induktion von Beginn an die Überexpression der Hef-Helikase und des oapB-Proteins zu einem starken Wachstumsdefekt führen, die von oapC und HVO_1724 zu einem moderaten Wachstumsdefekt, wohingegen für die Überexpressionsmutante von oapA vergleichbares Wachstum zum Wildtyp und für die Überexpression der Rad25d-Helikase verbessertes Wachstum beobachtet werden konnte. Es konnte darüber hinaus gezeigt werden, dass sowohl die Deletion als auch die Überexpression der Helikasen keinen Einfluss auf das Ploidielevel hat; die Deletion von oapC führt jedoch zu einer Reduktion der Genomkopienzahl in exponentieller und stationärer Phase, was ein erster Hinweis darauf ist, dass das oap-Operon eine Rolle bei der Regulation des Ploidielevels spielen könnte.
Im dritten Teil der Arbeit wurde eine Methode entwickelt, um Genkonversion farblich sichtbar zu machen. Hierbei wurde sich H. volcaniis Carotinoidbiosynthese zu Nutze gemacht. Es wurden zwei verschiedene, auxotrophe Elternstämme mittels Protoplastenfusion verschmolzen, um eine heterozygote Tochterzelle zu erzeugen. Ein Genkonversionsereignis wurde durch einen roten Keil angezeigt, der aus einer weißen Kolonie wuchs und durch die erfolgreiche Reparatur des Carotinoidbiosynthesegens entstand. Es wurden insgesamt 8525 Klone ausgestrichen und 0,14 % der Kolonien zeigten eine entsprechende rote Färbung. Das Proof-of-Principle dieser Methode ist in damit in dieser Arbeit gelungen. Um die Genkonversion in den weißen Kolonien auf genetischer Ebene genauer zu untersuchen, wurde PCR verwendet. Es konnte gezeigt werden, dass in den Zellen aller 135 untersuchten Kolonien Genkonversion stattgefunden hatte und zwar so effizient, dass nur in seltenen Fällen Heterozygotie vorlag. Unter Selektionsdruck stehende Loci hatten in beiden untersuchten Fällen eine starke Präferenz in Richtung Homozygotie und Erhalt der Prototrophie. Für nicht unter Selektionsdruck stehende Loci konnte gezeigt werden, dass die Hälfte der untersuchten Kolonien dem Elternstamm 1 glich, während die andere Hälfte dem Elternstamm 2 glich. Auch hier waren die Zellen nur in seltenen Fällen homozygot.
Der ligandaktivierte Transkriptionsfaktor Farnesoid X Rezeptor (FXR) ist neben seiner Funktion als Regulator des Gallensäurehaushaltes auch in vielen anderen metabolischen Prozessen wie Glukose- und Lipidhomöostase involviert und besitzt antiinflammatorische Eigenschaften. Gerade bei hepatischen, gastrointestinalen und systemischen Erkrankungen erscheint FXR daher als interessante Zielstruktur zur Behandlung metabolischer Erkrankungen. Basierend auf den natürlichen Liganden von FXR, den Gallensäuren, wurde Obeticholsäure (OCA) als seminsynthetisches Derivat der endogenen Chenodesoxycholsäure zu einem potenten FXR-Agonisten entwickelt. OCA wurde in mehreren Studien auf seine therapeutische Wirkung bei hepatisch-entzündlichen Krankheitsbildern wie der primären biliären Cholangitis (PBC), der nicht-alkoholischen Fettleber (engl: non-alcoholic fatty liver disease, NAFLD) und der daraus folgenden nicht-alkoholischen Steatohepatitis (NASH) getestet. Mittlerweile ist OCA als Zweitlinientherapie der PBC auf dem Arzneimittelmarkt zuge-lassen. Neben OCA gibt es noch eine große Anzahl an weiteren FXR-Liganden, deren strukturelle Diversität von Steroiden bis nicht-steroidalen kleinen Molekülen (engl: small molecules) reicht. Trotz dieser Erfolge muss das Therapiepotential von FXR noch weiter ausgebaut werden. Die meisten verfügbaren Liganden besitzen in vitro zwar eine hohe Potenz, können in ihrem pharmakokinetischen Profil oder ihrer Selektivität gegenüber anderen nukleären Rezeptoren aber nicht überzeugen.
Die hier vorliegende Arbeit hat sich mit der Entwicklung unterschiedlicher Liganden für FXR beschäftigt und diese in vitro und teilweise auch in vivo charakterisiert, um sie entsprechend ihrer Wirkungsweise einzuordnen und ein besseres Verständnis der regulatorischen Funktion von FXR zu erlangen.
Modulation von FXR bezieht sich nicht nur auf die agonistische Aktivierung, sondern setzt sich auch mit Antagonismus auseinander. Neben einigen Krankheitsbildern, die aus einer Überexpression von FXR resultieren, werden Antagonisten als Werkzeug (engl: tool compound) zur Aufklärung von konformellen Veränderungen von FXR und deren Auswirkung auf bestimmte Signalwege benötigt. Für die Erforschung solcher FXR-Antagonisten sollte das Potential nicht-steroidaler Antirheumatika (engl: non-steroidal anti-rheumatic drugs, NSAIDs) als etwaige Leitstrukturen untersucht werden, da in einer Veröffentlichung von Lu et al. ein FXR-Antagonismus durch NSAIDs postuliert wurde. Beim Versuch der Reproduktion der Ergebnisse von Lu et al. mit den drei NSAIDs Ibuprofen, Indometacin und Diclofenac wurde festgestellt, dass die Effekte auf den ersten Blick antagonistisch erscheinen, aber bei genaueren biochemischen Untersuchungen zweifelsfrei als Zytotoxizität identifiziert wurden.
FXR-Antagonisten wie Guggulsteron oder Gly-MCA sind auf ihre therapeutische Wirksamkeit unter-sucht worden, aber die genaue Wirkweise ist noch nicht aufgeklärt. Aufgrund ihrer steroidalen Grundstruktur ist ihre Selektivität gegenüber anderen nukleären Rezeptoren fraglich. Die überschaubare Anzahl an publizierten nicht-steroidalen FXR-Antagonisten besitzt zwar moderate IC50-Werte, ihre strukturelle Diversität und Selektivität ist aber limitiert. Zur Entwicklung neuer potenter FXR-Antagonisten, die aus kleinen Molekülen (engl: small molecules) aufgebaut sind, wurde eine N-Phenylbenzamid-Leitstruktur ausgewählt. Diese Leitstruktur wurde im Rahmen der SAR-Unter-suchungen zur Entwicklung von Anthranilsäurederivaten als FXR-Partialagonisten innerhalb des Arbeitskreises entdeckt. Ausgehend von dieser Leitstruktur wurde eine mehrstufige, systematische SAR-Untersuchung durchgeführt, wodurch ein sehr potenter FXR-Antagonist entwickelt werden konnte, der anschließend umfangreich biochemisch auf FXR-Modulation, Selektivität, Löslichkeit, Toxizität und metabolische Stabilität charakterisiert wurde.
Neben dem Verständnis eines Modulationsmechanismus ist die konkrete Anwendung eines FXR-Liganden zu therapeutischen Zwecken von großem Interesse. Die Beteiligung von FXR in unterschiedlichen metabolischen Prozessen macht den Rezeptor zu einem begehrten Ansatzpunkt für die Wirkstoffentwicklung. Doch die Behandlung eines multifaktoriellen Krankheitsbildes (z.B. metabolisches Syndrom, NASH) sollte sich nicht nur auf einen der gestörten Signalwege beziehen, da diese Erkrankungen durch mehrere Faktoren ausgelöst oder beeinflusst werden. Der semisynthetische FXR-Agonist OCA zeigte innerhalb der FLINT-Studie sowohl antientzündliche und antifibrotische Effekte, als auch eine Verbesserung der metabolischen Parameter mit Blick auf NAFLD und NASH. Die lösliche Epoxidhydrolase (engl: soluble epoxidhydrolase, sEH) besitzt nachweislich anti-inflammatorische und antisteatotische Effekte in der Leber. Aus diesem Grund wurde eine Leitstruktur entwickelt, die eine duale Modulation aus FXR-Aktivierung und sEH-Inhibition erzeugt. Dafür wurden die Pharmakophore eines im Arbeitskreis entwickelten FXR-Partialagonisten sowie eines potenten sEH-Inhibitors miteinander verknüpft. Zur Weiterentwicklung einer ausgewogenen hohen Potenz beider Modulationsfaktoren wurden mehrere unterschiedliche SAR-Untersuchungen als translationales Projekt in mehreren Arbeiten durchgeführt. In der hier vorliegenden Arbeit konnten dieses SAR-Untersuchungen zusammengeführt und weiterentwickelt werden. Dabei wurde ein ausgewogener und hochpotenter dualer Modulator erhalten, der umfassend in vitro und in vivo charakterisiert wurde. Die gezielte duale Aktivität, die mit dieser Substanz erreicht wurde, führt in einem Krankheitsbild zu synergistischer Ergänzung zweier Therapieoptionen. Jedoch kann eine unerwünschte Promiskuität über verwandten nukleären Faktoren zu Nebenwirkungen führen. Die Ursache dafür kann eine saure Funktion darstellen. Ein sehr potenter nicht-azider FXR-Agonist mit einem subnanomolaren EC50-Wert konnte im Arbeitskreis entwickelt werden. Diese Verbindung ist FXR-selektiv, hat keinen toxischen Effekt auf HepG2-Zellen und eine moderate metabolische Halbwertszeit. Die qRT-PCR-Untersuchung direkter und indirekter FXR-Zielgene zeigte eine verstärkte Expression nach der Inkubation mit der nicht-aziden Substanz. Dadurch lässt sich das Prinzip der Nebenwirkungsminderung durch nicht-azide Verbindungen beweisen.
Insgesamt konnte in dieser Arbeit gezeigt werden, wie vielfältig und vielversprechend eine FXR-Modulation aufgebaut sein kann. Zum einen konnte über eine ausgeprägte biochemische Evaluation eine Differenzierung zwischen FXR-Antagonismus und Zelltoxizität bewiesen werden, worauf sich aufbauend eine genaue in vitro-Charakterisierung von neuen N-phenylbenzamidbasierten FXR-Antagonisten durchführen ließ, die ausgehend von einer moderat potenten Leitstruktur zu einer sehr potenten optimierten Substanz entwickelt wurden. FXR-Antagonismus und die dazu passenden tool compounds sind nicht nur von Bedeutung zum besseren Verständnis der unterschiedlichen Bindungsmodi des FXR, sondern auch potentielle Therapieansätze zur Behandlung von Krankheiten, in denen eine FXR-Überexpression stattfindet. Die agonistische Modulation von FXR wurde genauer betrachtet in der in vitro-Untersuchung nicht-azider FXR-Agonisten, die durch das Fehlen einer sauren Funktion ein hohes Maß an Selektivität und dabei eine geringe Toxizität aufwiesen. Synergistische Effekte zur Behandlung eines multifaktoriellen Krankheitsbildes durch die Kombination von FXR-Partialagonismus und sEH-Inhibition konnte durch die Entwicklung der potenten und balancierten Substanz sowohl in vitro als auch in vivo bewiesen werden, wodurch diese Verbindung ein vielversprechender Kandidat für weitere klinische Entwicklung ist.
Kurzwirksame Effekte von Akupunktur und Stretching bei Myofaszialen Triggerpunktschmerzen im Nackenbereich: eine verblindete, placebo-kontrollierte RCT
Ziel: Untersuchung der kurzwirksamen Effekte von Akupunktur in Kombination mit Stretching hinsichtlich der Reduktion von Schmerzen und der Verbesserung des Bewegungsumfanges. Die Untersuchung wurde an Patienten mit Myofaszialen Schmerzen in der Schulter-Nackenregion durchgeführt.
Studiendesign: Randomisierte, verblindete, placebo-kontrollierte Cross-over-Studie.
Durchführung: Neunzehn Patienten (11 Frauen, 8 Männer, 33 ± 14 Jahre) mit myofaszial-bedingten Nackenschmerzen erhielten in randomisierter Reihenfolge und einer Auswaschphase von jeweils einer Woche, folgende Behandlungen: Akupunktur, Akupunktur plus Stretching und Scheinlaserakupunktur.
Methoden: Die Mechanische Druckschmerzschwelle (PPT, gemessen mit einem Druckalgometer) stellte den Hauptmesswert dar, während der bewegungsbezogene Schmerz (VAS, mittels visueller Analogskala) und der zervikale Bewegungsumfang als zusätzliche Messwerte erhoben wurden (ROM, range of motion, mit einem Ultraschall 3D-Messgerät registriert und analysiert). Die Messwerte wurden direkt vor der Behandlung, sowie 5, 15 und 30 Minuten danach erhoben. Friedman-Tests mit post-hoc Bonferroni-Holm-Korrektur wurden angewandt, um die Unterschiede zwischen den Behandlungen aufzuzeigen.
Ergebnisse: Akupunktur, sowie Akupunktur in Kombination mit Stretching erhöhten die mechanische Druckschmerzschwelle (PPT) bei 5 Personen bzw. 11% nach der Behandlung. Jedoch war nur Akupunktur in Kombination mit Stretching der Scheinlaserakupunktur signifikant überlegen (p < 0,05). 15 und 30 Minuten nach der Behandlung waren keine signifikanten Unterschiede mehr festzustellen. Bezüglich des bewegungsbezogenen Schmerzes 45 sind zwischen den Behandlungen keine Unterschiede zu erkennen. 5 Minuten nach der Behandlung mit Akupunktur und Stretching, war der Bewegungsumfang (ROM) in der Frontal- und Transversalebene signifikant höher gegenüber dem Bewegungsumfang nach Scheinlaserakupunktur (p < 0,05).
Application of a developed tool to visualize newly synthesized AMPA receptor components in situ
(2018)
The information flow between neurons happens at contact points, the synapses. One underlying mechanism of learning and memory is the change in the strength of information flow in selected synapses. In order to match the huge demand in membranes and proteins to build and maintain the neurites' complex architecture, neurons use decentralized protein synthesis. Many candidate proteins for local synthesis are known, and the need of de novo synthesis for memory formation is well established. The underlying mechanisms of how somatic versus dendritic synthesis is regulated are yet to be elucidated. Which proteins are newly synthesized in order to allow learning?
In this thesis protein synthesis is studied in hippocampal neurons. The fractional distribution of somatic and dendritic synthesis for candidate proteins and their subsequent transport to their destination are investigated using a newly developed technique. In the first part of this study we describe the development of this technique and use it in the second part to answer biological questions.
We focus here on AMPA receptor subunits, the key players in fast excitatory transmission. AMPA receptors contain multiple subunits with diverse functions. It remains to be understood, when and where in a neuron these subunits come together to form a protein complex and how the choice of subunits is regulated.
The investigation of the subunits' site of synthesis and redistribution kinetics in this study will help us to understand how neurons are able to change their synaptic strength in an input specific manner which eventually allows learning and memory.
Key questions which are addressed in this study:
How can specific newly synthesized endogenous proteins be visualized in situ? What are the neuron's abilities to locally synthesize and fully assemble AMPA receptor complexes?
How fast do different AMPA receptor subunits redistribute within neurons after synthesis?
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
The fungal interaction with plants is a 400 million years old phenomenon, which presumably assisted in the plants’ establishment on land. In a natural ecosystem, all plant-ranging from large trees to sea-grasses-are colonized by fungal endophytes, which can be detected inter- and intracellularly within the tissues of apparently healthy plants, without causing obvious negative effects on their host. These ubiquitous and diverse microorganisms are likely playing important roles in plant fitness and development. However, the knowledge on the ecological functions of fungal root endophytes is scarce. Among possible functions of endophytes, they are implicated in mutualisms with plants, which may increase plant resistance to biotic stressors like herbivores and pathogens, and/or to abiotic factors like soil salinity and drought. Also, endophytes are fascinating microorganisms in regard to their high potential to produce a great spectrum of secondary metabolites with expected ecological functions. However, evidences suggest that the interactions between host plants and endophytes are not static and endophytes express different symbiotic lifestyles ranging from mutualism to parasitism, which makes difficult to predict the ecological roles of these cryptic microorganisms. To reveal the ecological function of fungal root endophytes, this doctoral thesis aims at assessing fungal root endophytes interactions with different plants and their effects on plant fitness, based on their phylogeny, traits, and competition potential in settings encompassing different abiotic contexts. To understand the cryptic implication of nonmycorrhizal endophytes in ecosystem processes, we isolated a diverse spectrum of fungal endophytes from roots of several plant species growing in different natural contexts and tested their effects on different model plants under axenic laboratory conditions. Additionally,we aimed at investigating the effect of abiotic and biotic variables on the outcome of interactions between fungal root endophytes and plants.
In summary, the morphological and physiological traits of 128 fungal endophyte strains within ten fungal orders were studied and artificial experimental systems were used to reproduce their interactions with three plant species under laboratory conditions. Under defined axenic conditions, most endophytes behaved as weak parasites, but their performance varied across plant species and fungal taxa. The variation in the interactions was partly explained by convergent fungal traits that separate groups of endophytes with potentially different niche preferences. According to my findings, I predict that the functional complementarity of strains is essential in structuring natural root endophytic communities. Additionally, the responses of plant-endophyte interactions to different abiotic factors, namely nutrient availability, light intensity, and substrate’s pH, indicate that the outcome of plant-fungus relationships may be robust to changes in the abiotic environment. The assessment of the responses of plant endophyte interactions to biotic context, as combinations of selected dominant root fungal endophytes with different degrees of trait similarity and shared evolutionary history, indicates that frequently coexisting root-colonizing fungi may avoid competition in inter-specific interactions by occupying specific niches, and that their interactions likely define the structure of root-associated fungal communities and influence the microbiome impacts on plant fitness.
In conclusion, my findings suggest that dominant fungal lineages display different ecological preferences and complementary sets of functional traits, with different niche preferences within root tissues to avoid competition. Also, their diverse effects on plant fitness is likely host-isolate dependent and robust to changes in the abiotic environment when these encompass the tolerance range of either symbiont.
This research investigated variation in the pronunciations of three RP vowels phonemes /e/, /ɜ:/ and /ə/, among Ewe speakers of English in Ghana. It focused on variation at both individual and societal levels, investigating how social relations within these structures influenced the use of the three vowels among the speakers. In this study, social structures were seen as a system where individual members depended on one another and were linked through multiple ties. The distribution of the vowels was in respect with the social variables: age, gender and education, including dialect and social network. The study used a corpus of word-list recorded in a face-to-face interview from 96 participants selected through stratification and networking across two dialect regions: Aŋlɔ and Eveme. Using both aural and acoustic analyses, coupled with ANOVA and t-test, the study has shown that the three RP vowels exist in Ghana Eve English as independent phonemes. Each of them however has allophonic variants; /e/ has variants [e̠], [ɪ] and [ɜ:]; /ɜ:/ has [eː] and [ɜ:], while /ə/ has [ə], [ɪ], [o] and [ʌ] as its variants. The choice of the variants of /ɜ:/ and /e/ have been found to depend on speaker age, gender, and social network. But the geographical location of the speaker will largely determine how these vowels are spoken. Phonological contexts as well as speaker idiosyncrasy are also likely to condition the choice of some of these variants, however, their effects seem less important as determinant of the differences observed than those of the social factors. It is evident that age, gender and class differentiations that have been widely reported cannot be universal, they can vary from one society to another. Also though social structures as well as social relations in a speech community can play significant roles in the individual’s linguistic repertoire, the attitude of the speaker and the phonological contexts of a segment can have a huge impact on the use of that variable.
Biologischen Systemen liegen Mechanismen zugrunde, die bis heute nicht vollständig aufgeklärt sind. Für die Untersuchung eignen sich externe Trigger, die eine Regulation von außen auf das System erlauben und Prozesse gezielt steuerbar machen. Eine Möglichkeit ist das System unter optische Kontrolle zu bringen, d.h. durch Licht eine externe Steuerung zu implementieren, was von einem internen Chromophor aufgenommen wird. In der vorliegenden Dissertation werden drei individuelle Projekte vorgestellt, die alle dieses Prinzip auf unterschiedliche Weise anwenden.
RNAs haben eine Vielzahl an verschiedenen Funktionen in der Zelle, die von der Proteinsynthese bis zur Genregulation variieren. Im ersten Projekt wurde der Photoschalter Spiropyran im Kontext von RNA eingesetzt. Mit dem Ziel das Derivat PyBIPS kovalent an ein Oligonukleotid zu binden und damit die Hybridisierung eines Duplexes zu steuern, wurden Strukturmotive gesucht, an die der Photoschalter postsynthetisch gebunden werden kann. Dabei soll die sterisch anspruchsvolle Spiropyran-Form die Watson-Crick-Basenpaarung stören und die planare, konjugierte Merocyanin-Form in den Duplex, zur zusätzlichen Stabilisierung, interkalieren. In Vorarbeiten von Clara Brieke wurde festgestellt, dass erstens nur PyBIPS, nach kovalenter Verknüpfung, noch vollständig photochemisch aktiv ist und zweitens eine Herstellung über Festphasensynthese nur in schlechter Ausbeute realisierbar ist. Ausgehend davon wurde PyBIPS an die drei nicht-nukleosidischen Linker, Aminoglykol, D-Threoninol und Serinol, postsynthetisch über eine Amidbindung angebracht, die zuvor über Oligonukleotidfestphasensynthese in 2´-OMe-RNA eingebaut wurden.
In der photochemischen Charakterisierung konnte gezeigt werden, dass PyBIPS, gebunden an alle drei Motive, noch photochemisch aktiv ist und im Vergleich zu ungebundenem PyBIPS stabiler ist gegenüber Photolyse. In Untersuchungen im Doppelstrang im Wedge Motiv, d.h. im Gegenstrang befindet sich kein Nukleotid gegenüber dem Photoschalter, wurde ein ähnliches Verhalten festgestellt. Zusätzlich zur charakteristischen Merocyanin-Bande bei 550 nm ist ein zweites, rotverschobenes Absorptionsmaximum entstanden, das die gleichen Eigenschaften besitzt. In Schaltzyklen wurde festgestellt, dass eine Isomerisierung bis 660 nm möglich ist, was eine Anwendung im therapeutischen Fenster zwischen ca. 600 und 1000 nm von Blut ermöglichen würde. Das Auftreten der zweiten Bande hängt stark vom Linker und dem Baustein im gegenüberliegenden Strang ab. Es wird vermutet, dass sich das, sonst nicht-bevorzugte, TTT-Isomer der Merocyanin-Form, durch Stabilisierung durch die Umgebung im Oligonukleotid ausbildet.
Zur Untersuchung, inwiefern die Isomerisierung des Photoschalters die Duplexstruktur beeinflusst, wurden Schmelzpunktstudien und Fluoreszenzmessungen zur KD-Bestimmung durchgeführt, ohne dass eine Veränderung zu erkennen war. In einer größeren NMR-Studie, in Kooperation mit Tom Landgraf (Arbeitsgruppe Prof. Dr. Harald Schwalbe) wurde der Fokus darauf-gelegt mehr Informationen über die strukturelle Integrität zu erhalten. Es findet eine Störung der benachbarten Basenpaarungen durch den Photoschalter statt, jedoch kann die Kraft der Isomerisierung des Photoschalters nicht übertragen warden. Der Einfluss war zunächst geringer als erwartet, was in anderen Anwendungen überprüft warden muss.
Im zweiten Projekt steht das Membranprotein OmpG aus E. Coli K12 im Fokus. Proteine besitzen viele verschiedene funktionelle Gruppen, die für selektive Biokonjugation genutzt werden können in einer Reihe von Anwendungen. OmpG gehört zur Gruppe der Porine, die in der äußeren Membran von Gram-negativen Bakterien sitzen und die seltene ß-Fassstruktur ausbilden. Die Pore besitzt einen großen Innendurchmesser ohne Selektivität. Das Molekül wurde bereits intensiv auf seine Struktur, insbesondere Loop 6, der pH-abhängig die Pore verschließt, untersucht. In Vorarbeiten von Grosse et al. wurde der Loop entfernt, sodass ein ruhiger Kanal entstanden ist, der ein optimales Modellsystem darstellt. Außerdem wurden in der Pore zwei Cysteine, die auf gegenüberliegenden Seiten auf halber Höhe des Kanals sitzen, eingeführt. An die Thiolgruppen wurden photolabile Schutzgruppen angebracht, die erst den Kanal blockieren und nach Abspaltung durch Licht wieder freigeben. Dazu wurde jeweils ein 7-Diethylaminocumarin (DEACM) postsynthetisch angebracht.
Der Linker am Cumarin-Alkohol stellt dabei einen Kompromiss dar, da er zum einen selektiv mit der Thiolgruppe des Cysteins reagieren soll, gleichzeitig aber noch photo-induziert wieder abspalten muss. Durch Belichtung findet eine Hydrolyse des Esters unter Abspaltung des Alkohols statt, der einen Carbonsäurerest am Thiol in der Pore zurück lässt. In spannungsabhängigen Einzelkanal-messungen, durchgeführt von Dr. Philipp Reiß (Universität Marburg), konnte gezeigt werden, dass die zwei DEACM Modifikationen eine Reduktion der Leitfähigkeit bewirkten und durch Licht abgespalten und aus dem Kanal entfernt werden konnten. Dabei war außerdem zu erkennen, dass die Leitfähigkeit aufgrund der Carboxylreste über das Niveau von unmodifiziertem OmpG steigt.
...
Einleitung und Hintergrund: Self-Myofascial-Release (SMR), eine in den letzten Jahren populär gewordene Trainingsform, beschreibt das Training mit sog. Hartschaumrollen oder anderer Hilfsmittel zur Selbstmassage. Mit dem Ziel der Nachahmung einer manuellen Behandlung übt der Trainierende mit dem eigenen Körpergewicht oder etwa einem Massagestick Druck auf das zu behandelnde Gewebe aus und bewegt sich rollend über das Sportgerät. Aktuelle Forschungsergebnisse deuten auf einen positiven Effekt von SMR auf Parameter der Beweglichkeit sowie der Regeneration hin, die zu Grunde liegenden Mechanismen sind bisher allerdings noch unklar. Bezüglich der Beweglichkeitsverbesserung könnten neurophysiologische Veränderungen im Bereich der Dehnwahrnehmung und Dehntoleranz eine Rolle spielen. Auf mechanischer Ebene könnte es analog zum statischen Stretching zu einer akuten Veränderung der viskoelastischen Gewebeeigenschaften kommen. Ebenso werden Effekte von SMR auf Gleiteigenschaften einzelner Faszienschichten postuliert. Das Ziel der vorliegenden Arbeit war daher die Evaluation der Akuteffekte von SMR auf die Beweglichkeit, die passive Gewebespannung und -steifigkeit sowie die Gleitbewegungen einzelner Faszienschichten am vorderen Oberschenkel.
Methodik: Nach Fallzahlplanung durchliefen in einem Cross-Over Studiendesign insgesamt 16 Probanden (w=6, m=10, 32±3 Jahre, 177,6±2,4cm, 78,2±5,2kg) alle der drei folgenden Interventionen in ausbalancierter, randomisierter Reihenfolge: a) 2x60 Sekunden SMR am vorderen Oberschenkel, b) 2x60s passives, statisches Stretching des vorderen Oberschenkels und c) eine passive Kontrollbedingung. Mindestens drei Tage vor Beginn des ersten Messtermins erhielten alle Probanden eine standardisierte Gewöhnungseinheit, in der alle Messungen sowie die SMR Intervention durchgeführt wurden. Die passive Gewebespannung und -steifigkeit bei 13, 9, 5 und 1 Grad vor dem individuellen Bewegungsende sowie die Position der ersten Dehnwahrnehmung wurden mittels isokinetischem Dynamometer (Biodex System 3 Professional), die aktive und passive Kniegelenksbeweglichkeit mittels ultraschallbasiertem 3D-Bewegunsanalysesystem (Zebris CMS20) vor sowie direkt nach der jeweiligen Intervention erhoben. Ebenso wurden Gleitbewegung einzelner Faszienschichten vor und nach der jeweiligen Intervention anhand von Ultraschallvideos (Siemens Acuson X300) und anschließender Cross-Correlation-Analyse berechnet. Die statistische Überprüfung auf Inter- und Intragruppeunterschiede erfolge nach Überprüfung der Anwendungsvoraussetzungen mittels Friedmann-Test und anschließendem post-hoc Wilcoxon-Test oder ANCOVA (Baselinewerte als Covariate) und post-hoc Vergleichen mit geschätzten Randmitteln und zugehörigen 95%-Konfidenzintervallen.
Ergebnisse: Die aktive und passive Gelenkbeweglichkeit verbesserte sich nach SMR im Mittel um 1,8° bzw. 3,4° signifikant. Nach statischen Dehnen war lediglich die Verbesserung der passiven Kniegelenksbeweglichkeit von im Mittel 3,2° signifikant, nach der passiven Kontrolle blieben aktive und passive Beweglichkeit unverändert. Der Winkel der ersten Dehnwahrnehmung vergrößerte sich SMR (+4,3° (1,4°-7,2°)) und Stretching (+6,7° (3,7°-9,6°)), blieb nach Kontrollbedingung jedoch unverändert (+0,3° (-2,5°-3,1°)). Passiver Gewebewiderstand und -steifigkeit veränderten sich nach keiner der Interventionen in keinem getesteten Winkel signifikant. Veränderungen in der Gleitbewegung einzelner Faszienschichten ergaben sich lediglich nach SMR. Die Gleitbewegung der tiefen Schicht gegenüber des Muskels sowie die Gleitbewegung zwischen oberflächlicher und tiefer Schicht verringerten sich nach SMR signifikant zur Baseline (-5,7mm (-11,3mm – -0,1mm) bzw. (-4.9mm (-9.1mm – -0.7mm)).
Diskussion: Die vorliegenden Ergebnisse bestätigen den positiven Einfluss von SMR auf die aktive und passive Beweglichkeit und liefern erste Hinweise bezüglich der zu Grunde liegenden Mechanismen. Während biomechanische Parameter wie passive Gewebespannung nach SMR und Stretching unverändert blieben, deuten Veränderungen der Dehnwahrnehmung auf einen Einfluss neurophysiologischer Mechanismen hinsichtlich akuter Effekte auf die Beweglichkeit hin. Die Ausschüttung verschiedener Neurotransmitter wie z.B. Oxytocin könnte Schmerz- und auch Dehnwahrnehmung nach SMR beeinflussen. Die Ergebnisse zeigen weiter, dass SMR zu einer Veränderung der Gleitbewegung einzelner Bindegewebsschichten am vorderen Oberschenkel führte. Diesbezüglich könnten veränderte thixotrophe Eigenschaften des losen Bindegewebes zwischen Faszie und Muskels sowie Veränderungen des Hydratationsgrades eine Rolle spielen.
Aus den Ergebnissen der vorliegenden Studie lassen sich verschiedene Implikationen für die Trainings- und Therapiepraxis ableiten. So eignet sich SMR u.a. als Alternative zu statischen Dehnmethoden zur akuten Verbesserung der Beweglichkeit, zur Veränderung der Dehnwahrnehmung (etwa bei akuten und schmerzhaften Bewegungseinschränkungen) und möglicherweise zur Normalisierung der Gleiteigenschaften einzelner Bindegewebsschichten. Unklar bleiben bisher die Übertragbarkeit der Ergebnisse auf andere Körperregionen sowie die Effekte von SMR bei Patienten mit strukturellen Bindegewebsveränderungen. Ebenso sind die langfristigen Effekte von SMR bisher unklar und bieten Anschlusspunkte zukünftiger Studien.
We live in age of data ubiquity. Even the most conservative estimates predict exponential growth in produced, transmitted and stored data. Big data is used to power business analytics as well as to foster scientific discoveries. In many cases, explosion of produced data exceeds capabilities of digital storage systems. Scientific high-performance computing environments cope with this problem by utilizing large, distributed, storage systems. These complex systems can only provide a high degree of reliability and durability by means of data redundancy. The most straight-forward way of doing that is by replicating the data over different physical devices. However, more elaborate approaches, such as erasure coding, can provide similar data protection while utilizing less storage. Recently, software-defined reliability methods began to replace traditional, hardware- based, solutions. Complicated failure modes of storage system components also warrant checksums to guaranty long-term data integrity. To cope with ever increasing data volumes, flexible and efficient software implementation of error correction codes is of great importance. This thesis introduces a method for realizing a flexible Reed-Solomon erasure code using the “Just-In-Time” compilation technique. By exploiting intrinsic arithmetic redundancy in the algorithm, and by relying on modern optimizing compilers, we obtain a throughput-efficient erasure code implementation. Additionally, exploitation of data parallelism is achieved effortlessly by instructing the compiler to produce SIMD code for desired execution platform. We show results of codes implemented using SSE and AVX2 SIMD instruction sets for x86, and NEON instruction set for ARM platforms. Next, we introduce a framework for efficient vectorized RAID-Z redundancy operations of ZFS file system. Traditional, table-based Galois field multiplication algorithms are replaced with custom SSE and AVX2 parallel methods, providing significantly faster and more efficient parity operations. The implementation of this framework was made publicly available as a part of ZFS on Linux project, since version 0.7. Finally, we propose a new erasure scheme for use with existing, high performance, parallel filesystems. Described reliability middleware (ECCFS) allows definition of flexible, file-based, reliability policies, adapting to customized user needs. By utilizing the block erasure code, the ECCFS achieves optimal storage, computation, and network resource utilization, while providing a high level of reliability. The distributed nature of the middleware allows greater scalability and more efficient utilization of storage and network resources, in order to improve availability of the system.
Massenspektrometrie-basierte Proteomuntersuchungen erfolgen auch heute überwiegend nach dem sogenannten Bottom-Up-Ansatz, d.h. die Identifizierung von Proteinen erfolgt auf der Basis von Peptiden, die chromatographisch gut voneinander getrennt werden können und massenspektrometrisch leichter zu analysieren sind als Proteine. Nach Identifikation der Peptide kann rekonstruiert werden, welche Proteine ursprünglich in der Probe vorgelegen haben. Zentraler Arbeitsschritt der Probenvorbereitung ist daher die Zerlegung des Proteins, die entweder chemisch oder - wie in den meisten Fällen – enzymatisch erfolgt. Trypsin ist das mit Abstand am häufigsten genutzte Enzym, da es eine hohe Schnittspezifität aufweist und sehr effizient ist. Der Trypsin-Verdau ist darüber hinaus sehr robust, d.h. er zeigt eine hohe Toleranz gegenüber Verunreinigungen, und zudem werden Peptide erzeugt, die sowohl gute Ionisations- als auch gute Fragmentierungseigenschafen aufweisen. Die durch Trypsin gebildeten Peptide enthalten neben dem basischen N-Terminus eine weitere basische Aminosäure am C-Terminus, so dass sie leicht zumindest doppelt-geladene Ionen bilden können und sehr häufig aussagekräftige C-terminale Fragmentioneserien liefern.
Neben den zahlreichen Vorteilen gibt es allerdings auch Nachteile. So können nach einem tryptischen Verdau in Abhängigkeit von der Verteilung der Schnittstellen Peptide entstehen, die entweder zu klein sind, um eine verlässliche Zuordnung zu einem Protein zu erlauben oder die zu groß sind für den Massenbereich des gewählten Massenanalysators. Eine vielversprechende Alternative zu Trypsin wäre ArgC, welches C-Terminal zu Argininen schneidet und somit im Durchschnitt größere Peptide mit Ionisations- und Fragmentierungseigenschaften ähnlich zu tryptischen Peptiden erzeugt. Das Enzym ArgC weist jedoch nur eine geringe Schnittspezifität auf und sein Trypsin-ähnliches Verhalten – also das Schneiden auch hinter Lysin - wurde öfters beobachtet und wird auch vom Hersteller angegeben. Ziel dieser Arbeit war die Entwicklung einer Verdaumethode, die Peptide erzeugt, die ausschließlich auf Argininen enden.
Das Resultat der zu entwickelnden Verdaumethode sollte somit dem eines idealen enzymatichen ArgC-Verdaues entsprechen. Realisiert wurde der ArgC-ähnliche-Verdau durch den Einsatz von Trypsin, dessen enzymatischer Schnitt durch die chemische Derivatizierung der Substrat-Lysine auf Arginine reduziert wurde. Neben dem weiteren Einsatz von Trypsin sollte dieser "Quasi-Arg-C-Verdau" weitere systematische Vorteile für Proteomanalysen realisieren: Zum Ersten sollte die Anzahl von Fehlschnitt-Peptiden, die sich bei Trypsin insbesondere an Lysinen mit saurer chemischer Umgebung ergeben, reduziert werden, zum Zweiten sollten die Arg-C-Peptide sowohl durch ihre gewachsende Größe, als auch durch das mit dem C-terminalen Arginin verbesserte Fragmentierungsverhalten höhere Score-Werte bei der bioninformatischen Auswertung der MS-Daten ergeben.
Im ersten Teil wurden zunächst bioinformatische Werkzeuge entwickelt, die MALDI-MS-Dateien automatisiert prozessierten. Die entwickelten Programme umfassen die Identifizierung und relative Quantifizierung von Proteinen aus diesen Dateien. Des Weiteren wurde ein Programm zur Analyse von MALDI-ISD-Dateien entwickelt. Automatisierte Auswertungen gelangen durch die Erstellung von Workflows in der Datenanalyseplattform KNIME. Diese Workflows kombinieren in Python geschriebene Skripte und Funktionalitäten frei verfügbarer Programme wie "MSConvert" und "mMass".
Nach Erstellung der bioinformatischen Werkzeuge wurde die Methodenentwicklung zur Modifizierung der Lysine für verschiedene Reagenzien durchgeführt. Die Auswahl fiel auf vier Substanzen, von denen bekannt ist, dass sie unter milden Reaktionsbedingung im quantitativen Ausmaß mit Aminogruppen reagieren. Diese waren Sulfo-NHS-Acetat, Propionsäureanhydrid, Diethylpyrocarbonat und die reduktive Methylierung mit Formaldehyd und Picolin-Boran. Die Reaktionsbedingungen mussten zunächst für Proteine optimiert werden, da die publizierten Protokolle hauptsächlich zur Derivatizierung von Peptiden verwendet worden waren. Anschließend wurden die optimierten Protokolle für eine Protein- und Proteomprobe eingesetzt und die Resultate miteinander verglichen. Die Untersuchungen führten zu dem Ergebnis, dass sowohl auf Protein- als auch auf Proteomebene die Propionylierung des Lysins die besten Resultaten zeigte. Insbesondere ist hervorzuheben, dass alle ArgC-ähnlichen Ansätze unabhängig vom eingesetzten Reagenz zu besseren Ergebnissen in jeder der Untersuchungen führte als der klassische enzymatische ArgC-Verdau.
...
Quantenchemische Untersuchungen zu Reaktionsmechanismen reaktiver Carben- und Silylenverbindungen
(2018)
In dieser Arbeit werden Reaktionsmechanismen verschiedener Carben- und Silylenverbindungen mit quantenchemischen Methoden untersucht: Die Zerfallsreaktion acylischer Diaminocarbene, die Reaktion verschiedener Diaminocarbene mit CO, die C-C Kupplung von Benzophenon mit SiCl2, die Reaktion von NHC mit Si2Br6 und die Reaktion von Dimethyltitanocen mit neo-Si5H12
Antimicrobial resistance became a serious threat to the worldwide public health in this century. A better understanding of the mechanisms, by which bacteria infect host cells and how the host counteracts against the invading pathogens, is an important subject of current research. Intracellular bacteria of the Salmonella genus have been frequently used as a model system for bacterial infections. Salmonella are ingested by contaminated food or water and cause gastroenteritis and typhoid fever in animals and humans. Once inside the gastrointestinal tract, Salmonella can invade intestinal epithelial cells. The host cell can fight against intracellular pathogens by a process called xenophagy. For complex systems, such as processes involved in the bacterial infection of cells, computational systems biology provides approaches to describe mathematically how these intertwined mechanisms in the cell function. Computational systems biology allows the analysis of biological systems at different levels of abstraction. Functional dependencies as well as dynamic behavior can be studied. In this thesis, we used the Petri net formalism to gain a better insight into bacterial infections and host defense mechanisms and to predict cellular behavior that can be tested experimentally. We also focused on the development of new computational methods.
In this work, the first realization of a mathematical model of the xenophagic capturing of Salmonella enterica serovar Typhimurium in epithelial cells was developed. The mathematical model expressed in the Petri net formalism was constructed in an iterative way of modeling and analyses. For the model verification, we analyzed the Petri net, including a computational performance of knockout experiments named in silico knockouts, which was established in this work. The in silico knockouts of the proposed Petri net are consistent with the published experimental perturbation studies and, thus, ensures the biological credibility of the Petri net. In silico knockouts that have not been experimentally investigated yet provide hypotheses for future investigations of the pathway.
To study the dynamic behavior of an epithelial cell infected with Salmonella enterica serovar Typhimurium, a stochastic Petri net was constructed. In experimental research, a decision like "Which incubation time is needed to infect half of the epithelial cells with Salmonella?" is based on experience or practicability. A mathematical model can help to answer these questions and improve experimental design. The stochastic Petri net models the cell at different stages of the Salmonella infection. We parameterized the model by a set of experimental data derived from different literature sources. The kinetic parameters of the stochastic Petri net determine the time evolution of the bacterial infection of a cell. The model captures the stochastic variation and heterogeneity of the intracellular Salmonella population of a single cell over time. The stochastic Petri net is a valuable tool to examine the dynamics of Salmonella infections in epithelial cells and generate valuable information for experimental design.
In the last part of this thesis, a novel theoretical method was introduced to perform knockout experiments in silico. The new concept of in silico knockouts is based on the computation of signal flows at steady state and allows the determination of knockout behavior that is comparable to experimental perturbation behavior. In this context, we established the concept of Manatee invariants and demonstrated the suitability of their application for in silico knockouts by reflecting biological dependencies from the signal initiation to the response. As a proof of principle, we applied the proposed concept of in silico knockouts to the Petri net of the xenophagic recognition of Salmonella. To enable the application of in silico knockouts for the scientific community, we implemented the novel method in the software isiKnock. isiKnock allows the automatized performance and visualization of in silico knockouts in signaling pathways expressed in the Petri net formalism. In conclusion, the knockout analysis provides a valuable method to verify computational models of signaling pathways, to detect inconsistencies in the current knowledge of a pathway, and to predict unknown pathway behavior.
In summary, the main contributions of this thesis are the Petri net of the xenophagic capturing of Salmonella enterica serovar Typhimurium in epithelial cells to study the knockout behavior and the stochastic Petri net of an epithelial cell infected with Salmonella enterica serovar Typhimurium to analyze the infection dynamics. Moreover, we established a new method for in silico knockouts, including the concept of Manatee invariants and the software isiKnock. The results of these studies are useful to a better understanding of bacterial infections and provide valuable model analysis techniques for the field of computational systems biology.
Einleitung: Die chronische Hepatitis C gehört zu den häufigen Ursachen einer Leberzirrhose. Durch die Entwicklung von direkt antiviralen Medikamenten (direct acting antiviral agent, DAA) können Heilungsraten von über 90% bei chronischer Hepatitis C erreicht werden. Der Einfluss des Therapieerfolgs auf Fibroseregression und portale Hypertension ist insbesondere für Patienten mit Leberzirrhose bisher nicht ausreichend geklärt. Elastographische Messungen von Leber und Milz können als Surrogatmarker zur nicht-invasiven Evaluation von Fibroseregression und Rückgang von portaler Hypertension dienen. Ziel der vorliegenden Arbeit war die Evaluation der Dynamik von Leberfibrose und portaler Hypertension mittels transienter Elastographie der Leber (L-TE) und Acoustic Radiation Force Impulse Elastographie von Leber (L-ARFI) und Milz (M-ARFI) bei Patienten mit DAA-induziertem anhaltendem virologischen Ansprechen (sustained virological response, SVR) und Hepatitis C Virus (HCV) assoziierter Leberzirrhose.
Patienten und Methoden: In dieser prospektiven, monozentrischen Studie wurden Daten von 56 Patienten mit chronischer Hepatitis C und assoziierter Leberzirrhose analysiert, die eine SVR nach 12-24 Wochen antiviraler Hepatitis C Therapie mit DAA's erreichten. Dabei wurden zu vier Zeitpunkten (Therapiebeginn [BL], Therapieende [EOT], 24 Wochen nach Therapieende [FU24] und 48 Wochen nach Therapieende [FU48]) Messungen vorgenommen. Zusätzlich wurden Leberzirrhose assoziierte Scores und Komplikationen sowie Laborparameter erhoben.
Ergebnisse: Die elastographischen Messungen der Leber zeigten signifikante Verbesserungen im Studienverlauf, am stärksten während der antiviralen Therapie. Im L-TE zeigten sich Verbesserungen zwischen BL [Median(Min-Max), 32,45(9,1-75)kPa] und FU48[Median (Min-Max), 17,1 (3,7-59,3) kPa] (p<0,0001) und im L-ARFI zwischen BL [Median (Min-Max), 2,7 (1,2-4,1) m/s] und FU24 [Median (Min-Max), 2,5 (1,2-3,9)m/s (p=0,011), wobei signifikante Verbesserungen (≥30%) bei 35/49 (71%) Patienten im L-TE und bei 6/55 (11%) im L-ARFI auftraten. Die M-ARFI Messungen als Korrelat der portalen Hypertension, zeigten kaum Veränderungen. Die medianen Werte blieben zwischen BL [Median (Min-Max), 3,4 (1,9-4,3) m/s] und FU48 [Median (Min-Max), 3,4(2-4,4) m/s] konstant (p=0,9). Nur 2/54 (4%) der Patentien zeigten signifikante Verbesserungen. In der univariaten Analyse zeigten sich 65 als positive Einflussfaktoren der L-TE- und L-ARFI-Verbesserung ein MELD Score bis 10 sowie ein BMI bis 30 kg/m².
Diskussion und Schlussfolgerung: In Zusammenschau der Ergebnisse kann bei einem Teil der Patienten von einer Fibroseregression und dem Rückgang der portalen Hypertension nach DAA-basierter, interferon-freier antiviraler Therapie ausgegangen werden. Die mittels L-ARFI und L-TE gemessene Verbesserung der Lebersteifigkeit unter antiviraler Therapie scheint auf einer Verbesserung von Nekroinflammation und Leberfibrose zu basieren. Bei Nichtbeachtung des Einflusses der Nekroinflammation auf nicht-invasive Messungen der Lebersteifigkeit kann es zur Überschätzung der Fibroseregression nach SVR kommen. Da es sich bei der Zirrhose- bzw. Fibroseregression anscheinend um einen langsamen Prozess handelt, sind ausreichend lange Nachbeobachtungszeiten in entsprechenden Studien zu fordern. Für die mit einer Leberzirrhose assoziierte portale Hypertension gelten ähnliche Überlegungen.
Die Abstrahlung von internen Schwerewellen in atmosphärischen Strahlströmen und Temperaturfronten trägt vermutlich mit einem signifikanten Beitrag zum gesamten Schwerewellenspektrum bei. Das physikalische Verständnis der dabei ablaufenden Prozesse ist derzeit allerdings noch zu gering ausgeprägt, um eine adäquate mathematische Darstellung für operationelle Wetter- und Klimamodelle zu entwickeln. In dieser Arbeit wird der Mechanismus dieser Schwerewellenquelle in numerischen Simulationen des differenziell geheizten rotierenden Annulusexperiments erforscht. Dieses Experiment besitzt eine im Vergleich zur Atmosphäre deutlich verringerte Anzahl an Freiheitsgraden und eignet sich besonders gut zum Studium der Dynamik der mittleren Breiten. Analoge Untersuchungen werden in einem äquivalenten kartesischen Modellsystem vorgenommen, in dem periodische Bedingungen in den beiden horizontalen Raumrichtungen vorliegen.
Im Gegensatz zur Annuluskonfiguration, in der nachweislich auch eine Schwerwellenabstrahlung an den Zylinderwänden erfolgt, kommt in dieser Konfiguration nur die interne Dynamik als Schwerewellenquelle in Frage. Die nichtlinearen Simulationen beider Modellkonfigurationen zeigen eine großskalige barokline Wellenstruktur, die ein atmosphärenähnliches Jet-Front System beinhaltet. Darin eingelagert werden vier voneinander isolierte Schwerewellenpakete in der Annuluskonfiguration sowie zwei Schwerewellenpakete im doppeltperiodischen Modellsystem charakterisiert. Um den zugrundeliegenden Quellmechanismus zu untersuchen, erfolgt eine Aufspaltung der Zustandsvariablen in einen balancierten und einen unbalancierten Anteil, wobei erstgenannter das geostrophische und hydrostatische Gleichgewicht erfüllt und letztgenannter das Schwerewellensignal enthält. Die Strömungsaufspaltung bildet die Grundlage für die Entwicklung eines tangential-linearen Modells für den unbalancierten Strömungsanteil. Hierbei wird eine systematische Umformulierung der dynamischen Grundgleichungen hinsichtlich der Wechselwirkung beider Strömungsanteile vollzogen. Insbesondere wird der rein balancierte Antrieb der unbalancierten Strömung freigelegt, um dessen Einfluss auf die Schwerewellenaktivität zu quantifizieren. Die anschließenden tangential-linearen Simulationen zeigen, dass drei der vier Schwerewellenpakete in der Annuluskonfiguration in der internen Strömung generiert werden. Ein verbleibendes Wellenpaket entsteht an der inneren Zylinderwand, ehe es in das innere Modellvolumen propagiert. Darüber hinaus wird deutlich, dass der rein balancierte interne Antrieb der Schwerewellen einen signifikanten Beitrag zur Schwerewellengenerierung leistet. Im doppeltperiodischen Modellsystem gibt es eine nahezu perfekte Übereinstimmung zwischen den unbalancierten Strömungsmustern in den tangential-linearen und den nichtlinearen Simulationen. Auch dort nimmt der balancierte Antrieb eine zentrale Rolle bei der Schwerewellenabstrahlung ein. Die abschließende Gegenüberstellung verschiedener, voneinander unabhängiger Gleichgewichtskonzepte macht deutlich, dass die balancierte Strömung der führenden Ordnung in der Rossbyzahl bereits eine erstaunliche Übereinstimmung mit der vollen Strömung liefert. Zudem erbringt die Anwendung einer Lagrange'schen Filtermethode den Nachweis, dass die Vertikalbewegungen und die horizontalen Divergenzsignale in der Annuluskonfiguration fast ausschließlich auf die Schwerewellenaktivität zurückzuführen sind.
Die membranintegrierten, rotierenden F-Typ ATP-Synthasen zählen zu den essentiellen Komponenten der bakteriellen Energieversorgung. Ihre Rolle im zellulären Energiehaushalt bestehtin der Synthese von ATP unter Nutzung des transmembranen, elektrischen Ionengradienten (Mitchell 1961, Duncan et al. 1995, Noji et al. 1997, Kinosita et al. 1998). Die rotierenden ATP-Synthasen werden entsprechend der Kationenselektivität, die sie unter physiologischen Bedingungen zeigen, in zwei verschiedene Klassen eingeteilt, die H+-selektiven, sowiedie Na+-selektiven ATP-Synthasen. Hierbei bildet die Selektivität beider Klassen für einwertige Kationen (H+ oder Na+) eine essenzielle Grundlage für ihre Rolle im Energiehaushalt der bakteriellen Zellen. Jedoch gibt es nur eine begrenzte Anzahl von anaeroben Eubakterien und Archaeen, die noch einen auf Na+- Ionen basierenden Energiehaushalt besitzen. Gut charakterisierte Beispiele für Na+-selektive ATP-Synthasen bilden die F-Typ-Synthasen von I. tartaricus, P. modestum, sowie die V/A-Typ-Enzyme von E. hirae und A. woodii. Trotz der Unterschiede in der Kationenselektivitätder unterschiedlichen F-Typ ATP-Synthasen sind sie jedoch sowohl inihre Organisation, als auch hinsichtlich ihre Wirkungsweisen ähnlich. Das Ziel, der im Rahmen dieser Arbeit durchgeführten Forschung, bestand in der Identifizierung der Faktoren, die sowohl die hohen Selektivität, als auch die Affinität des in der Membran-eingebetteten Rotor-C-Rings der ATP-Synthasezu Protonen (H+) und Na+- Ionen beeinflussen. Die Untersuchungen wurden hierbei andem c11-Ring der F-Typ-ATP-Synthase aus dem anaeroben Bakterium Ilyobacter tartaricus durchgeführt, das hierbei als Modellsystem diente. Der untersuchte Ring zeigt unter physiologischen Bedingungen eine hohe Bindungsselektivität für Na+ Ionen, kann jedoch unter nicht-physiologischen Bedingungen auch Li+ und H+ Ionen binden und zur ATP-Synthese verwenden (Neumann et al. 1998).
Das Ziel, der im Rahmen dieser Arbeit durchgeführten Forschung, bestand in der Identifizierung der Faktoren, die sowohl die hohen Selektivität, als auch die Affinität des in der Membran-eingebetteten Rotor-C-Rings der ATP-Synthasezu Protonen (H+) und Na+- Ionen beeinflussen. Die Untersuchungen wurden hierbei andem c11-Ring der F-Typ-ATP-Synthase aus dem anaeroben Bakterium Ilyobacter tartaricus durchgeführt, das hierbei als Modellsystem diente. Der untersuchte Ring zeigt unter physiologischen Bedingungen eine hohe Bindungsselektivität für Na+ Ionen, kann jedoch unter nicht-physiologischen Bedingungen auch Li+ und H+ Ionen binden und zur ATP-Synthese verwenden (Neumann et al. 1998). Die Kd- und KM-Werte wurden verwendet, um die Na+ -Bindungsaffinität der C-Ringe bzw. ATP-Synthasen zu quantifizieren. Über die Selektivität wurdebeschrieben, welche Kationen an die C-Ringe und ATP-Synthasen binden können (z. B. H+/Na+/Li+, H+/Na+ - oder nur H+ Ionen).Das Verhältnis der absoluten Bindungsaffinitäten zwischen zwei Kationen (z. B. Kd (Na+)/Kd (H+)) wurde verwendet, um die Präferenz des Enzyms für eines der Ionen zu quantifizieren. Die Faktoren, dieder Kationenselektivität und der Affinität des I. tartaricus c-Rings zugrunde liegen, wurden mit Hilfe von Mutageneseexperimenten der Aminosäuren in der Ionenbindungsstelle untersucht. Im I. tartaricus-c-Ring erfolgt die Na+ Bindung an der Grenzfläche von zwei benachbarten c-Untereinheiten des c-Rings. An der Bindung der Na+-Ionen sind sowohl Aminosäuren aus Helix 1 (Gln32), sowie von Helix 2 (Val63, Ser66, Thr67 und Tyr70) beteiligt, die in der Nähe, des für den Mechanismusessentiellen Glu65 liegen. Insgesamt wurden 19 verschiedene, spezifische Einzel- und Doppelmutationen in die Sequenz des atpE-Gens eingeführt, die für die I. tarticus-ATP-Synthase-c-Untereinheit kodiert. Bei den Experimenten mit dem I. tartaricus c-Ring (Ser66, Thr67 und Tyr70) wurden drei polare Reste der Ionenbindungsstelle durch die polaren Reste (Ser67, Ile67 oder Leu67) oder hydrophobe Reste (Ala66, Gln67 und Phe70) ersetzt, während das geladene Glu65 durch die kürzere, aber immer noch geladene Seitenkette Asp65 ausgetauscht wurde. Zur Charakterisierung der monovalenten Kationenbindung durch die Wildtyp, sowie die mutierten C-Ringe von I.-tartaricus, wurde ein Ansatz verwendet, der biochemische (DCCD-Ionen-Kompetitionsassay) und biophysikalische (ITC) Methoden kombiniert.
Die Daten der in dieser Arbeit durchgeführten Experimente, zeigen, dass c-Ringe selektiv für H+ sind, solange in der Ionenbindungsstelle des c-Rings ein ionisierbarer Glu/Asp-Rest vorhanden ist. Die H+-Bindungsaffinität des c-Rings hängt von der Hydrophobizität der Reste ab, aus der die Ionenbindungsstelle aufgebaut ist.Jedoch ist die Zahl der Faktoren, die die Na+-Selektivität des C-Rings bestimmen, weitaus größer. Von den in dieser Arbeit untersuchten Faktoren war die Zahl der polaren Reste, die Wasserstoffbrücken zu Na+ bilden, die Co-Koordination von Na+ durch strukturell vorhandene Wassermoleküle und die Anwesenheit von negativ geladenen Resten besonders wichtig für die Bindung der Na+-Ionen an den Ring. Die hohe Bindungsaffinität des c-Rings für Na+-Ionen, wird sowohl durch Wechselwirkungen begünstigt die das gebundene Na+-Ion stabilisieren, als auch den gesamten atomaren Aufbau der Ionenbindestelle, der die enthalpiegetriebene Na+-Bindungan den c-Ring begünstigen. Im Rahmen dieser eingehenden Studien konnten zum ersten Mal die thermodynamischen Eigenschaften aufgeklärt werden, die der hohen Na+-Bindungsaffinität des c-Rings zugrunde liegen, sowie der Einfluss von Mutationen auf diese Parameter ermittelt werden. Durch zahlreiche Experimente mit ATP-Synthasen, die mit mutierten c-Ringen zusammengesetzt wurden, sollte eine Verbindung zwischen Veränderungen der H+- und der Na+-Bindungsaffinitäten und Unterschiede im Betrieb der ATP-Synthase aufgeklärt werden. Die wichtigste Schlussfolgerung, die sich aus dieser Arbeit ableiten lässt, ist, besteht darin, dass sich Na+/H+-selektiven ATP-Synthasen durch den Austausch von 1-2 Aminosäureresten innerhalb der rotierenden c-Ring-Ionenbindungsstelle in ausschließlich H+-selektive, vollfunktionelle ATP-Synthasen umwandeln lassen.
Natural products are valuable sources for biologically active compounds, which can be utilized as pharmaceuticals. Thereby, the synthesis is based purely on biosynthetic grounds often conducted by so-called megaenzymes. One major biosynthetic pathway is the acetate pathway including polyketide and fatty acid synthesis, which encompass one of the largest classes of chemically diverse natural products. These have medicinal relevance due to their antibacterial, antifungal, anthelmintic, immunosuppressive and antitumor properties.
Due to the high structural and functional similarity between polyketide synthases and type I animal fatty acid synthases (FASs), FAS can serve as a paradigm for the whole class of multifunctional enzymes. To fully exploit the biosynthetic potential of FASs, a good access to the enzyme is of essential importance. In this regard, Escherichia coli remains an unchallenged heterologous host due to low culturing costs, particularly fast mutagenesis cycles and relatively easy handling. Surprisingly, no sufficient expression strategy for an animal FAS in E. coli has yet been reported, as it turned out that the only approach was not reproducible.
We commenced our analysis with searching for an appropriate FAS homolog that fulfills our requirements of high protein quality, sufficient yield and ensured functionality. After extensive screening of different variants, culturing conditions and co-expression strategies, we identified the murine FAS (mFAS) as our protein of choice. The established purification strategy using tags at both termini led to a reproducible and sufficient access to the protein in excellent quality. The enzyme was further biochemically characterized including an enzyme kinetic investigation of fatty acid synthesis and an examination whether different acyl-CoA substrates can serve as priming units. This adds mFAS to our repertoire of manageable megaenzymes paving the way to exploit the catalytic efficiency in regards of microbial custom-compound synthesis.
With a strong focus on deepening our understanding of the working mode of such megaenzymes, rather than analyzing respective biosynthetic products, we have addressed the question whether mFAS itself can be engineered towards PKSs or whether properties of mFAS can be exploited to engineer PKSs. This approach was conducted on three levels of complexity from function of individual domains via organization of domains to form modules to the interplay of two modules in bimodular constructs.
Fatty acid synthesis begins with the loading of acyl moieties onto the FAS, which is conducted by a domain called malonyl-/acetyltransferase (MAT). This domain was in-depth characterized due to its important role of choosing the substrates that are built in the final compound. Our analysis comprised structural and functional aspects providing crystal structures of two different acyl-bound states and kinetic parameters for the hydrolysis and transacylation reaction using twelve exemplary CoA-esters. For this purpose, we have successfully established a continuous fluorometric assay using the α-ketoglutarate dehydrogenase as a coupled enzyme, which converts the liberated coenzyme A into Nicotinamide adenine dinucleotide. These data revealed an extensive substrate ambiguity of the MAT domain, which had not been reported to that extent before. Further, we could demonstrate that the fold fulfills both criteria for the evolvability of an enzyme by expressing MAT in different structural arrangements (robustness) and by altering the substrate ambiguity within a mutagenesis study (plasticity). Taken these aspects together, we are persuaded that the MAT domain can serve as a versatile tool for PKSs engineering in potential FAS/PKS hybrid systems.
On the higher level of complexity, we investigated the architectural variability of the mFAS fold, which constitutes a fundamental basis for a broader biosynthetic application. We could rebuild all four module types occurring in typical modular PKSs confirming a high degree of modularity within the fold. Not only structural, but also functional integrity of these modules was validated by using triacetic acid lactone formation and ketoreductase activity. Especially the latter analysis, made it possible to quantify effects of the engineering within the processing part by respective enzyme kinetic parameters. Expanding our focus beyond a singular module, we have utilized the mFAS fold for designing up to 380 kDa large bimodular constructs. In this approach, a loading didomain was attached N-terminally containing an additional MAT and acyl carrier protein (ACP) domain. Two constructs could be expressed and purified in excellent quality to investigate the influence of an altered overall architecture on fatty acid synthesis. By comparison with appropriate controls, a functional effect of the additional loading module could indeed be proven in the bimodular systems. Those constructs allow a comprehensive analysis of the underlying molecular mechanism in the future and serve as a potential model system to study the transition from iterative to vectorial polyketide synthesis in vitro.
Macrophages in the tumor microenvironment respond to complex cytokine signals. How these responses shape the phenotype of tumor-associated macrophages (TAMs) is incompletely understood. Here we explored how cytokines of the tumor milieu, interleukin (IL)-6 and IL-4, interact to influence target gene expression in primary human monocyte-derived macrophages (hMDMs). We show that dual stimulation with IL-4 and IL-6 synergistically modified gene expression. Among the synergistically induced genes are several targets with known pro-tumorigenic properties, such as CC-chemokine ligand 18 (CCL18), transforming growth factor alpha (TGFA) or CD274 (programmed cell death 1 ligand 1 (PD-L1)). We found that transcription factors of the signal transducer and activator of transcription (STAT) family, STAT3 and STAT6 bind regulatory regions of synergistically induced genes in close vicinity. STAT3 and STAT6 co-binding further induces the basic leucine zipper ATF-like transcription factor (BATF), which participates in synergistic induction of target gene expression. Functional analyses revealed increased MCF-7 and MDA-MB 231 tumor cell motility in response to conditioned media from co-treated hMDMs compared to cells incubated with media from single cytokine-treated hMDMs. Flow cytometric analysis of T cell populations upon co-culture with hMDMs polarized by different cytokines indicated that dual stimulation promoted immunosuppressive properties of hMDMs in a PD-L1-dependent manner. Analysis of clinical data revealed increased expression of BATF together with TAM markers in tumor stroma of breast cancer patients as compared to normal breast tissue stroma. Collectively, our findings suggest that IL-4 and IL-6 cooperate to alter the human macrophage transcriptome, endowing hMDMs with pro-tumorigenic properties.
The technology of advanced driver assistance systems (ADAS) has rapidly developed in the last few decades. The current level of assistance provided by the ADAS technology significantly makes driving much safer by using the developed driver protection systems such as automatic obstacle avoidance and automatic emergency braking. With the use of ADAS, driving not only becomes safer but also easier as ADAS can take over some routine tasks from the driver, e.g. by using ADAS features of automatic lane keeping and automatic parking. With the continuous advancement of the ADAS technology, fully autonomous cars are predicted to be a reality in the near future.
One of the most important tasks in autonomous driving is to accurately localize the egocar and continuously track its position. The module which performs this task, namely odometry, can be built using different kinds of sensors: camera, LIDAR, GPS, etc. This dissertation covers the topic of visual odometry using a camera. While stereo visual odometry frameworks are widely used and dominating the KITTI odometry benchmark (Geiger, Lenz and Urtasun 2012), the accuracy and performance of monocular visual odometry is much less explored.
In this dissertation, a new monocular visual odometry framework is proposed, namely Predictive Monocular Odometry (PMO). PMO employs the prediction-and-correction mechanism in different steps of its implementation. PMO falls into the category of sparse methods. It detects and chooses keypoints from images and tracks them on the subsequence frames. The relative pose between two consecutive frames is first pre-estimated using the pitch-yaw-roll estimation based on the far-field view (Barnada, Conrad, Bradler, Ochs and Mester 2015) and the statistical motion prediction based on the vehicle motion model (Bradler, Wiegand and Mester 2015). The correction and optimization of the relative pose estimates are carried out by minimizing the photometric error of the keypoints matches using the joint epipolar tracking method (Bradler, Ochs, Fanani and Mester 2017).
The monocular absolute scale is estimated by employing a new approach to ground plane estimation. The camera height over ground is assumed to be known. The scale is first estimated using the propagation-based scale estimation. Both of the sparse matching and the dense matching of the ground features between two consecutive frames are then employed to refine the scale estimates. Additionally, street masks from a convolutional neural network (CNN) are also utilized to reject non-ground objects in the region of interest.
PMO also has a method to detect independently moving objects (IMO). This is important for visual odometry frameworks because the localization of the ego-car should be estimated only based on static objects. The IMO candidate masks are provided by a CNN. The case of crossing IMOs is handled by checking the epipolar consistency. The parallel-moving IMOs, which are epipolar conformant, are identified by checking the depth consistency against the depth maps from CNN.
In order to evaluate the accuracy of PMO, a full simulation on the KITTI odometry dataset was performed. PMO achieved the best accuracy level among the published monocular frameworks when it was submitted to the KITTI odometry benchmark in July 2017. As of January 2018, it is still one of the leading monocular methods in the KITTI odometry benchmark.
It is important to note that PMO was developed without employing random sampling consensus (RANSAC) which arguably has been long considered as one of the irreplaceable components in a visual odometry framework. In this sense, PMO introduces a new style of visual odometry framework. PMO was also developed without a multi-frame bundle adjustment step. This reflects the high potential of PMO when such multi-frame optimization scheme is also taken into account.
Bei Autismus-Spektrum-Störungen (ASS) handelt es sich um genetisch komplexe Störungen mit hoher Erblichkeit. Als zugrundeliegender Pathomechanismus von ASS werden unter anderem Veränderungen der neuronalen Entwicklung diskutiert. Der Phänotyp von ASS ist definiert durch Einschränkungen in der sozialen Interaktion und Kommunikation sowie repetitives und stereotypes Verhalten. Genkopiepolymorphismen (englisch „copy number variations“/CNVs), also Deletionen oder Duplikationen einer chromosomalen Region, wurden wiederholt in Probanden mit ASS identifiziert. Hierbei ist in ASS die Region 16p11.2 mit am häufigsten von CNVs betroffen. Einige Gene aus diesem chromosomalen Abschnitt wurden bereits funktionell charakterisiert. Dennoch können die Befunde der bisherigen Einzelgenstudien nicht alle Aspekte erklären, die durch 16p11.2 CNVs hervorgerufen werden. Ziel dieser Studie war es daher, ein weiteres neuronal assoziiertes Kandidatengen dieser Region zu identifizieren und im Anschluss funktionell im Kontext der neuronalen Differenzierung zu charakterisieren.
Das SH-SY5Y Neuroblastom-Zellmodell wurde auf Transkriptom- und morphologischer Ebene auf seine Eignung als Modell für neuronale Differenzierung untersucht und bestätigt. Eine Analyse der Expressionen aller Gene der 16p11.2-Region zeigte, dass das Gen Quinolinat-Phosphoribosyltransferase (QPRT) eine vergleichsweise hohe Expression mit der stärksten und robustesten Regulierung über die Zeit aufwies. Eine de novo Deletion der 16p11.2-Region wurde in einem Patienten im Vergleich zu seinen Eltern validiert. In Patienten-spezifischen lymphoblastoiden Zelllinien derselben Familie konnten wir eine Gendosis-abhängige Expression von QPRT auf RNA-Ebene bestätigen. In SH-SY5Y-Zellen korrelierte die Expression von QPRT signifikant mit der Entwicklung von Neuriten während der Differenzierung. Um QPRT funktionell zu charakterisieren, benutzten wir drei verschiedene Methoden zur Reduktion der QPRT-Gendosis: (i) knock down (KD) durch siRNA, (ii) chemische Inhibition durch Phthalsäure und (iii) knock out (KO) über CRISPR/Cas9-Geneditierung. Eine Reduktion von QPRT durch siRNA führte zu einer schwachen Veränderung der neuronalen Morphologie differenzierter SH-SY5Y-Zellen. Die chemische Inhibition sowie der genetische KO von QPRT waren letal für differenzierende aber nicht für proliferierende Zellen. Eine Metabolitenanalyse zeigte keine Veränderungen des QPRT-assoziierten Tryptophanstoffwechsels. Gene, welche auf Transkriptomebene im Vergleich zwischen KO- und Kontrollzellen differenziell reguliert vorlagen, waren häufig an Prozessen der neuronalen Entwicklung sowie an der Bildung, Stabilität und Funktion synaptischer Strukturen beteiligt. Die Liste differenziell regulierter Gene enthielt außerdem überdurchschnittlich viele ASS-Risikogene und ko-regulierte Gengruppen waren assoziiert mit der Entwicklung des dorsolateralen präfrontalen Cortex, des Hippocampus sowie der Amygdala.
In dieser Studie zeigten wir einen kausalen Zusammenhang zwischen QPRT und der neuronalen Differenzierung in vitro sowie einen Einfluss von QPRT auf die Regulation von ASS-assoziierten Genen und Gen-Netzwerken. Funktionell standen diese Gene im Kontext mit synaptischen Vorgängen, welche durch Veränderungen zu einem Exzitations-Inhibitions-Ungleichgewicht und letztendlich zum Zelltod von Neuronen führen können. Unsere Ergebnisse heben in Summe die wichtige Rolle von QPRT in der Krankheitsentstehung von ASS, insbesondere in Trägern einer 16p11.2 Deletion, hervor.
Pretubulysin (PT), a biosynthetic precursor of the myxobacterial compound tubulysin D, was recently identified as a novel microtubule-targeting agent (MTA) causing microtubule destabilization. MTAs are the most frequently used chemotherapeutic drugs. They are well studied regarding their direct cytotoxic effects against various tumors as well as for their anti-angiogenic and vascular-disrupting action addressing endothelial cells of the tumor vasculature. However, the impact of MTAs on endothelial cells of the non-tumor vasculature has been largely neglected, although tumor cell interactions with the healthy endothelium play a crucial role in the process of cancer metastasis. Besides their use as potent anti-cancer drugs, some MTAs such as colchicine are traditionally used or recommended for the therapy of inflammatory diseases. Here, too, the role of endothelial cells has been largely neglected, although the endothelium is crucially involved in regulating the process of inflammation.
In the present study, the impact of PT on tumor-endothelial cell interactions was therefore analyzed in vitro to gain insights into the mechanism underlying its anti-metastatic effect that was recently confirmed in vivo. In the second part of this work, the influence of PT and other MTAs, namely the microtubule-destabilizing compounds vincristine (VIN) and colchicine (COL) and the microtubule-stabilizing drug paclitaxel (PAC), on leukocyte-endothelial cell interactions was investigated in vitro and in vivo (only PT). It is important to mention that in all in vitro experiments solely endothelial cells and not tumor cells or leukocytes were treated with the MTAs to strictly focus on the role of the endothelium in the action of these compounds.
The impact of PT on tumor-endothelial cell interactions was analyzed in vitro by cell adhesion and transendothelial migration assays as well as immunocytochemistry using the breast cancer cell line MDA-MB-231 and primary human umbilical vein endothelial cells (HUVECs). The treatment of HUVECs with PT increased the adhesion of MDA cells onto the endothelial monolayer, whereas their transendothelial migration was reduced by the compound. Thereafter, the influence of PT on the endothelial cell adhesion molecules (CAMs) E-selectin, N-cadherin, ICAM-1, VCAM-1 and galectin-3 and on the CXCL12/CXCR4 chemokine system was examined, since they might be involved in the PT-triggered tumor cell adhesion. Interestingly, although PT induced the upregulation of ICAM-1, VCAM-1, N-cadherin and CXCL12, cell adhesion assays using neutralizing antibodies or the CXCL12 inhibitor AMD3100 revealed that all these molecules were dispensable for the PT-evoked tumor cell adhesion. As PT induces the formation of interendothelial gaps and MDA cells might adhere onto components of the underlying extracellular matrix (ECM), the precise location of MDA cells attached to the PT-treated endothelial monolayer was investigated. Instead of a direct interaction between tumor and endothelial cells, this work showed that MDA cells preferred to adhere to the ECM component collagen that was exposed within PT-triggered endothelial gaps. Both the PT-evoked increase in tumor cell adhesion onto and the decrease in trans-endothelial migration were completely abolished when β1-integrins were blocked on MDA cells. Similar results were obtained when endothelial cells were treated with VIN and COL but not PAC, indicating that the observed effects of PT depend on its microtubule-destabilizing activity.
The impact of PT, VIN, COL and PAC on leukocyte-endothelial cell interactions was analyzed in vivo (only PT) by intravital microscopy of the mouse cremaster muscle and in vitro by cell adhesion assays using the monocyte-like cell line THP-1 and TNFα-activated human dermal microvascular endothelial cells (HMEC-1). While PT did not affect the rolling of leukocytes on the endothelium, their firm adhesion onto and transmigration through the activated endothelium was reduced by PT in vivo. In accordance, the treatment of HMEC-1 with PT, VIN and COL decreased the TNFα-induced adhesion of THP-1 cells onto the endothelial monolayer, whereas PAC had no influence on this process. Thereafter, the influence of PT, VIN, COL and PAC on endothelial ICAM-1 and VCAM-1 was examined, since these molecules are substantially involved in the firm adhesion of leukocytes onto the endothelium. The cell surface protein expression of ICAM-1 and VCAM-1 was reduced by PT, VIN and COL in activated endothelial cells, whereas PAC did only slightly affect the TNFα-induced upregulation of VCAM-1. As the pro-inflammatory transcription factor NFκB plays a crucial role in the TNFα-induced expression of these CAMs, the impact of the MTAs on the NFκB promotor activity was investigated. While PT, VIN and COL decreased the activation of NFκB in activated endothelial cells, PAC did not affect this process. However, in contrast to the strong effects regarding the cell surface protein expression of ICAM-1 and VCAM-1, the effects of PT, VIN and COL on the NFκB activity was rather low. Thus, the used MTAs might also affect other relevant signaling pathways and/or the intracellular transport of CAMs might be influenced by the impact of the MTAs on the microtubule network.
Taken together, the current study provides – at least in part – an explanation for the anti-metastatic potential of PT and gives first insights into the use of PT and VIN as anti-inflammatory drugs. Moreover, this work highlights the endothelium as an attractive target for the development of new anti-cancer and anti-inflammatory drugs.
Photolabile protecting groups (PPGs, cages, photocages) are molecules which can block the activity of a functional group and be removed by irradiation of light of an appropriate wavelength. One of the goals of this work was to design new photolabile protecting groups, based on a literature known one. The far-UV absorbing diethylamino benzyl (DEAMb) photocage, developed by Wang et al., was selected as structural basis for this work. In order to trigger the uncaging reaction with longer wavelengths (≥365 nm), thus allowing also biological applications, its structure was optimized. This was done by elongating the π-orbital conjugation using biphenyl derivatives instead of a single aromatic moiety. The photocage was loaded with glutamic acid as the leaving group.
The highest bathochromic shift was shown by compounds, which had the smallest sterical hindrance imposed on the second aromatic ring. The absorption spectrum was more redshifted if the second aromatic ring contained an electron withdrawing group. However, the stronger the substituents electron withdrawing strength was, the lower the uncaging quantum yield was. It was rationalized, that this is due to a decreased excited state electron density at the benzylic carbon of the DEAMb core which is necessary to trigger bond dissociation. This has been confirmed using TDDFT (time-dependent density functional theory) computations done by Jan von Cosel, Konstantin Falahati and Carsten Hamerla (from the group of Irene Burghardt). The best uncaging quantum yield was 42% for m-phenyl substituted DEAMb, while if a strong electron withdrawing group was present (nitro group), there was no photoactivity at all.
In order to achieve a better π-orbital conjugation of the non-coplanar biphenyl derivatives, a C-C bond was introduced between the benzylic carbon and the second aromatic ring. The resulting planar compounds belong to the fluorene class. The computational data predicted the photochemical meta effect to some extent to be preserved in these molecules. A set of fluorene derivatives was synthesized and photochemically characterized. The molar absorption coefficients of all prepared fluorene derivatives were higher than for any of the biphenyl derivatives. Quantum yields of the acetate release ranged between 3-42%, thus being as good as the best glutamic acid releasing biphenyl compounds. The highest uncaging cross section of the acetate release from the prepared fluorene derivatives was above 5000 M^-1 cm^-1. This value proves the high potential of the new fluorene based photocages developed in this work. Furthermore, release of hydroxide ion from fluorenol could be shown along with generation of, presumably, fluorenyl cation. These intriguing results paves a way for further exploration of fluorene based photocages for the release of bad leaving groups.
The second part of this work describes the custom synthesis of 13C labeled compounds for the VIPER (VIbrationally Promoted Electronic Resonance) project. In the VIPER pulse sequence, a molecule is vibrationally excited by a narrow band IR-pump pulse. The following Vis-pump pulse will promote the vibrationally pre-excited molecules to an electronically excited state. This Vis-pump pulse is offresonant for the not vibrationally pre-selected species and only resonant with the molecules, which are already pre-excited by the IR-pump pulse. Since the IR absorption bands usually are well resolved, a selective excitation of one molecule in an ensemble of similar ones is possible in the IR frequency range. Isotopologues and isotopomers are an extreme case of molecules which are near identical and differ only by isotopic composition or position. As a result in solution and at room temperature they have an identical UV-Vis absorption spectrum but different IR spectrum. This allows vibrational excitation of only one isotopologue (or isotopomer).
Isotopic labels were introduced in known photocages: 7-diethylamino coumarin (DEACM) and para-hydroxy phenacyl (pHP). The position for isotopic label incorporation in these molecules was guided by computations done by Jan von Cosel and Carsten Neumann. To allow control of the photoreactions in an ultrafast timescale, an IR active leaving group was used. The uncaging behavior of the prepared molecules in steady state was tested using chromatography (HPLC) and spectroscopy (1H NMR, FTIR and UV-Vis). The VIPER experiments were performed by Daniela Kern-Michler, Carsten Neumann, Nicole Mielke and Luuk van Wilderen (from the group of Jens Bredenbeck). A selective uncaging of only the vibrationally pre-excited molecules could be achieved.
This dissertation aimed to shed light on changes of the epigenetic landscape in heart and skeletal muscle tissue of the turquoise Killifish N. furzeri, a novel, short-lived animal model for aging research. The following results could be obtained:
1. A global trend towards closed chromatin conformation could be observed; histone markers for H3K27me3, H3K9me3 and H4K20me3 accumulated in skeletal muscle tissue from old N. furzeri. Markers for open chromatin conformation such as H3K4me3, H3K9ac and H4K16ac decreased in old skeletal muscle tissue. In old hearts from N. furzeri an accumulation of H3K27me3 could be detected while H3K9ac was found to increase with age as well. mRNA expression levels of methylating enzymes were higher in skeletal muscle tissue from old N. furzeri when compared to expression levels in skeletal muscle tissue from young N. furzeri.
2. The shift of epigenetic pattern was accompanied by a change of gene expression. Via mRNA sequencing in collaboration with the MPI, Bad Nauheim it could be shown that genes associated with cell cycle and DNA repair were lower expressed in skeletal muscle tissue from old N. furzeri than in tissue from young N. furzeri. Genes, associated with inflammatory signaling and glycolysis, displayed increased mRNA levels in skeletal muscle tissue from old N. furzeri. These results could be confirmed by Western blot and qRT-PCR analyses.
3. Markers for DNA damage and senescence increased in skeletal muscle tissue from old N. furzeri.
4. Cells derived from young and old N. furzeri skeletal muscle could be isolated and cultured for many passages. These cells were a mix of different cell types with properties and features of the native tissue. They could be used for treatment with drugs and/small compounds modulating the epigenetic landscape via specific interference with methylating enzymes.
5. DNA methylation and hydroxy-methylation were found to go in different directions in skeletal muscle and heart tissue from N. furzeri: while increasing in skeletal muscle tissue, a both DNA modifications declined in heart tissue with age.
6. In the heart of N. furzeri microRNA expression changes with age were assed with sequencing in collaboration with the FLI, Jena. It could be demonstrated that miRNA expression is age-dependent. Particular focus was on miR-29 and its target genes: miR-29 was highly upregulated in heart and skeletal muscle tissue, while target genes such as collagens and dnmts were reduced with age in the heart of N. furzeri.
7. Cardiac function remained stable with age and no accumulation of collagens could be found when comparing hearts of young and old N. furzeri despite the increase of markers for oxidative stress.
8. Cell culture experiments with human cardiac fibroblasts revealed that miR-29 is upregulated with increasing age of the donor. In addition to that, it could be shown that miR-29 is positively regulated by oxidative stress.
9. A zebrafish mutant with modified expression of miR-29 that was created in collaboration with the SNS, Pisa, presented a severe hypoxic phenotype and an altered mRNA expression profile compared to wild type control zebrafish. Cardiac dysfunction and hypertrophy were observed as well as an increase in DNA methylation and collagens.
Taken together, it could be shown that the aging process in skeletal muscle and heart tissue from N. furzeri leads to a series of changes on epigenetic levels. It remains to be elucidated whether these changes are result or cause for further changes of mRNA expression, protein levels and pathophysiology, yet the N. furzeri represents a promising research model for further aging studies.
Lizards of Paraguay: an integrative approach to solve taxonomic problems in central South America
(2018)
Paraguay is located in the center of South America with drier and warmer climatic conditions in the western part of the country, and more temperate and humid in the eastern region. Biogeographically, Paraguay is a key spot in South America, where several ecoregions converge. In my study, I sampled most of the ecoregions of Paraguay. The main objective of my work is to solve taxonomic problems, identified through genetic barcoding analyses, in the central region of South America. To achieve this objective, I used selected taxa of the Paraguayan Squamata as models taking into consideration the crucial geographic position of the country, plus the scarce available genetic data of Paraguayan reptiles.
The collecting activities were performed in the framework of a barcoding inventory project of the Paraguayan herpetofauna and carried out mostly in rural areas searching for animals in different types of habitats using active search as the sampling technique.
For genetics, the extraction of DNA was performed with DNeasy® Blood & Tissue Kit of Qiagen® for sets of few samples, and the fiber glass plate protocol for sets of 96 samples. I assessed the quality of sequences after amplification in agarose gel electrophoresis. The first marker sequenced was 16S mtDNA, used for barcoding analysis. A DNA barcode is a genetic identifier for a species. Once a taxonomic problem was detected, I generate more gene sequences to target the issue.
All the analyses to test phylogenetic hypotheses (based on single genes or concatenated datasets) were performed under Maximum Likelihood and Bayesian approaches. To root the phylogenetic trees, I chose the available taxon (or taxa) most closely related to the respective studied group as outgroups. For the general tree of Paraguayan Squamata, based on barcodes of 16S, I chose Sphenodon punctatus.
I generated a total of 142 sequences of 64 species of Squamata from Paraguay (Appendix I). The final alignment of 615 bp comprised 249 samples. The best substitution model for the Barcoding dataset based on the gene 16S was GTR+G, according to the BIC.
To complement molecular evidence generated with the ML grouping of 16S barcodes, I took a morphological approach based on voucher specimens collected during fieldwork (usually the same specimens that I used for genetic analysis), supplemented by the revision of museum collections.
Summarizing my results, samples of Colobosaura exhibit large genetic distances, and accordingly I revalidated Colobosaura kraepelini (Appendix II). Tropidurus of the spinulosus group show two clades and among them there is little genetic and morphological variation, I synonymized T. tarara and T. teyumirim with T. lagunablanca, and T. guarani with T. spinulosus (Appendix III). I detected the presence of candidate species of Homonota, and I restricted the name H. horrida for Argentina, and described two new species of Homonota (Appendices IV and V), and a new species of Phyllopezus also in the Family Phyllodactylidae (Appendix VI).
In this work I present the most comprehensive analysis of genetic samples of Squamata from Paraguay. The results obtained here will be useful to help to clarify further taxonomic issues regarding the squamate fauna from the central region of South America. Moreover, the data generated for this study will have a positive impact in a larger geographic context, beyond Paraguayan borders.
Regarding the conservation of the Paraguayan reptiles, and considering the taxonomic changes accomplished here, it is important to note that many species lack legal protection. In Paraguay, the major problem for conservation is habitat loss due to extensive crop farming. Thus, currently, the protected areas are the best strategy for conservation of biodiversity in the country. However, many such areas face legal problems (e.g., lack of official measurements, management plans, forest guards, infrastructure, etc.) so that the maintenance of their biodiversity over time is not guaranteed.
In conclusion, in this study I present contributions on the taxonomy of mostly lizards from Paraguay. Due to lack of samples, I was not able to deal with a deep taxonomic revision of the country's snakes. Based on my results, I can argue that analyses of Xenodontini and Pseudoboini are currently a pressing research issue. This barcoding project may continue since some colleagues in Paraguay are interested in collaboration. Given that the sequenced specimens are yet a small portion of the actual diversity of Paraguay, it will be of utmost importance to continue and expand these studies that will further improve our taxonomic knowledge. Furthermore, it is desirable to have Paraguayan scientists not only involved, but to see them taking the lead of high quality taxonomic research.
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
EBV Infektionen nach allogener hämatopoetischer Stammzelltransplantation sind neben dem Rezidiv eine häufige Komplikation und verbleiben ein häufiger Grund der Morbidität. Langanhaltende Immunsuppression oder die verspätete T-Zell Recovery können EBV Infektionen nach Transplantation begünstigen, welche unter diesen Umständen zu lebensbedrohlichen lymphoproliferativen Erkrankungen (PTLD) führen können. Für die optimale Behandlung der PTLD gibt es keinen Konsens. Adoptive Immuntherapien mit sowohl anti-Tumor Kapazität als auch wiederhergestellter virus-spezifischer zellulärer Immunität könnten, vor allem im Bezug einer PTLD, eine optimale Behandlungs-Option darstellen.
Zytokin-induzierte Killer (CIK)-Zellen repräsentieren einen neuen immuntherapeutischen Ansatz, da sie trotz hoher Mengen an T-Zellen nur ein geringes alloreaktives Potential besitzen und selbst im haploidenten Setting nur ein geringes Risiko zur Induktion einer GvHD besitzen. Der Graft versus Leukämie/Tumor-Effekt nach allogener SZT wird durch die Zellen verstärkt. Durch das dual spezifische zytotoxische Potential der CIK-Zellen über den nicht-MHC restringierten NKG2D Killing-Mechanismus und den MHC restringierten Mechanismus über den T-Zell Rezeptor können sowohl virusinfizierte als auch transformierte Zellen bekämpft werden. In der Literatur gibt es bisher nur eine Arbeit (aus unserer Arbeitsgruppe), in der CIK-Zellen mit spezifischen viralen Antigenen für eine antileukämische und potentielle anti-virale Aktivität stimuliert werden.
Im Rahmen dieser Arbeit wurde sowohl in prä-klinischen als auch in einem klinischen Ansatz die Durchführbarkeit, Anwendbarkeit, Effektivität und Sicherheit von EBV-spezifischen CIK-Zellen untersucht. Dazu wurde in einem ersten Schritt untersucht, ob sich durch die Modifizierung des konventionellen Herstellungsprotokolls EBV-spezifische CIK-Zellen generieren lassen.
Im präklinischen in vitro Setting wurde eine Modifizierung im CIK Herstellungsprotokoll vorgenommen um EBV-spezifische CIK-Zellen zu generieren, die sowohl ein anti-leukämisches als auch ein spezifisches anti-virales (EBV) Potential besitzen. Die Generierung erfolgte aus peripheren, mononukleären Zellen EBV-seropositiver Spender. Zusätzlich zu den CIK-Stimulanzien wurden die Zellen zweimal mit dem EBV Consensus Peptid Pool stimuliert, der Peptidsequenzen von verschiedenen latenten und lytischen EBV-Proteinen enthält. Durch die Modifikation konnte eine Ko-Expansion an EBV-spezifischen Zellen innerhalb des CD3+CD8+ Kompartiments der CIK-Zellen von bis zu 8% erreicht werden. In Zytotoxizitätsanalysen wurde das effektorische Potential der generierten Zellen überprüft. Gegenüber EBV peptidbeladenen Zielzellen zeigten die zusätzlich mit EBV-Peptid stimulierten CIK-Zellen in allen E:T Ratios (40:1, 20:1 und 5:1) eine signifikant höhere lytische Aktivität im Vergleich zur Aktivität konventioneller CIK-Zellen. Durch Blocking des NKG2D Rezeptors wurde die TCR-vermittelte lytische Aktivität in Bezug auf ein virales Ziel weiter gezeigt. Das anti-leukämische Killing Potential über den nicht-MHC restringierten NKG2D Rezeptor blieb zeitgleich erhalten, was sich in spezifischen Lysen gegenüber K562 und THP-1 Zellen von bis zu knapp 60% wiederspiegelt. Die durchflusszytometrische immunphänotypische Charakterisierung der EBV-stimulierten CIK-Zellen mittels 10-Farb Panel ergab keine signifikanten Unterschiede in Bezug auf Phänotyp und Rezeptor-Repertoire im Vergleich zu den konventionellen CIK-Zellen. Die Zytokin- und Chemokin Analysen der EBV-spezifischen CIK-Zellen spiegelten ein CD8+ TH1 Profil wieder und reflektierten den zytotoxischen Charakter der Zellen. Mit dem modifizierten Protokoll war es möglich für eine Patientin GMP-konforme CIK-Zellen mit EBV-Spezifität zu generieren, die 9,6 x 103 EBV-spezifische T-Zellen/kg Körpergewicht enthielten. Die Infusion der EBV-spezifischen CIK-Zellen resultierte in einer rapiden Beseitigung der Plasma EBV DNA und langanhaltendem Verschwinden des großen (27 cm3) PTLD-malignen Lymphoms. Während des anschließenden Immun-Monitorings der Patientin konnten CD4+ und CD8+ EBV-spezifische CIK-Zellen mittels der Dextramer Technologie in vivo im Blut der Patientin über einen Zeitraum von 32 Tagen nachgewiesen werden. Weitere FACS Analysen ergaben, dass sich im CD8+ Kompartiment der Patientin neben den CD8bright T-Zellen eine wachsende Population an CD8dim Zellen nachweisen ließ. Diese bestand zu einem bemerkenswerten Prozentsatz von bis zu 95% aus TEMRA Zellen, die auf virusspezifische T-Zellen hinweisen. Die Infusion der Zellen induzierte weder ein CRS noch andere Toxizitäten. Zytokin-Analysen aus dem Serum der Patientin reflektierten ein zytotoxisches und anti-virales Potential der infundierten Zellen. In vitro zeigten die unter GMP generierten Zellen im E:T Verhältnis von 40:1 und 20:1 ein 2-fach höheres zytotoxisches Potential gegenüber peptidbeladenen T2 Zellen im Vergleich gegenüber WT T2 Zellen. Der anti-leukämische Effekt gegen K562 Zellen blieb auch hier erhalten. 2 Jahre nach Behandlung ist die Patientin immer noch in Remission.
Die in dieser Arbeit erzielten prä-klinischen und klinischen Ergebnisse zeigen, dass virusspezifische CIK-Zellen eine neue, potentielle Immuntherapie darstellen, da die Zellen eine wirksame anti-leukämische Immunität mit antiviraler Immunrekonstitution vereinen. EBV-spezifische CIK-Zellen erwiesen sich als ein vielversprechender Ansatz für die Prävention von malignen Erkrankungen sowie in der Behandlung von EBV-Komplikationen nach allogener SZT.
Unter Web-based Trainings (WBTs) versteht man multimediale, interaktive und thematisch abgeschlossene Lerneinheiten in einem Browser. Seit der Entstehung des Internets in den 1990er Jahren sind diese ein wichtiger und etablierter Baustein bei der Konzeption und Entwicklung von eLearning-Szenarien. Diese Lerneinheiten werden üblicherweise von Lehrenden mit entsprechenden Autorensystemen erstellt. In selteneren Fällen handelt es sich bei deren Umsetzungen um individuell programmierte Einzellösungen. Betrachtet man WBTs aus der Sicht der Lernenden, dann lässt sich feststellen, dass zunehmend auch nicht explizit als Lerneinheiten erstellte Inhalte genutzt werden, die jedoch genau den Bedürfnissen des jeweiligen Lernenden entsprechen (im Rahmen des informellen und selbstgesteuerten Lernens). Zum einen liegt das an der zunehmenden Verfügbarkeit und Vielfalt von „alternativen Lerninhalten“ im Internet generell (freie Lizenzen und innovative Autorentools). Zum anderen aber auch an der Möglichkeit, diese Inhalte von überall aus und zu jeder Zeit einfach finden zu können (mobiles Internet, Suchmaschinen und Sprachassistenten) bzw. eingeordnet und empfohlen zu bekommen (Empfehlungssysteme und soziale Medien).
Aus dieser Veränderung heraus ergibt sich im Rahmen dieser Dissertation die zentrale Fragestellung, ob das Konzept eines dedizierten WBT-Autorensystems den neuen Anforderungen von frei verfügbaren, interaktiven Lerninhalten (Khan Academy, YouTube und Wikipedia) und einer Vielzahl ständig wachsender und kostenfreier Autorentools für beliebige Web-Inhalte (H5P, PowToon oder Pageflow) überhaupt noch gerecht wird und wo in diesem Fall genau die Alleinstellungsmerkmale eines WBTs liegen?
Zur Beantwortung dieser Frage beschäftigt sich die Arbeit grundlegend mit dem Begriff „Web-based Training“, den über die Zeit geänderten Rahmenbedingungen und den daraus resultierenden Implikationen für die Entwicklung von WBT-Autorensystemen. Mittels des gewählten Design-based Research (DBR)-Ansatzes konnte durch kontinuierliche Zyklen von Gestaltung, Durchführung, Analyse und Re-Design am Beispiel mehrerer eLearning-Projekte der Begriff WBT neudefininiert bzw. reinterpretiert werden, so dass sich der Fokus der Definition auf das konzentriert, was WBTs im Vergleich zu anderen Inhalten und Funktionen im Internet im Kern unterscheidet: dem Lehr-/Lernaspekt (nachfolgend Web-based Training 2.0 (WBT 2.0)).
Basierend auf dieser Neudefinition konnten vier Kernfunktionalitäten ausgearbeitet werden, die die zuvor genannten Herausforderungen adressieren und in Form eines Design Frameworks detailliert beschreiben. Untersucht und entwickelt wurden die unterschiedlichen Aspekte und Funktionen der WBTs 2.0 anhand der iterativen „Meso-Zyklen“ des DBR-Ansatzes, wobei jedes der darin durchgeführten Projekte auch eigene Ergebnisse mit sich bringt, welche jeweils unter didaktischen und vor allem aber technischen Gesichtspunkten erörtert wurden. Die dadurch gewonnenen Erkenntnisse flossen jeweils in den Entwicklungsprozess der LernBar ein („Makro-Zyklus“), ein im Rahmen dieser Arbeit und von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität, entwickeltes WBT-Autorensystem. Dabei wurden die Entwicklungen kontinuierlich unter Einbezug von Nutzerfeedbacks (jährliche Anwendertreffen, Schulungen, Befragungen, Support) überprüft und weiterentwickelt.
Abschließend endet der letzte Entwicklungszyklus des DBR-Ansatzes mit der Konzeption und Umsetzung von drei WBT 2.0-Systemkomponenten, wodurch sich flexibel beliebige Web-Inhalte mit entsprechenden WBT 2.0-Funktionalitäten erweitern lassen, um auch im Kontext von offenen Lehr-/Lernprozessen durchgeführte Aktivitäten transparent, nachvollziehbar und somit überprüfbar zu machen (Constructive Alignment).
Somit bietet diese Forschungsarbeit einen interdisziplinären, nutzerzentrierten und in der Praxis erprobten Ansatz für die Umsetzung und den Einsatz von WBTs im Kontext offener Lehr-/Lernprozesse. Dabei verschiebt sich der bisherige Fokus von der reinen Medienproduktion hin zu einem ganzheitlichen Ansatz, bei dem der Lehr-/Lernaspekt im Vordergrund steht (Lernbedarf erkennen, decken und überprüfen). Entscheidend ist dabei, dass zum Decken eines Lernbedarfs sämtliche zur Verfügung stehenden Ressourcen des Internets genutzt werden können, wobei WBTs 2.0 dazu lediglich den didaktischen Prozess definieren und diesen für die Lehrenden und Lernende transparent und zugänglich machen.
WBTs 2.0 profitieren dadurch zukünftig von der zunehmenden Vielfalt und Verfügbarkeit von Inhalten und Funktionen im Internet und ermöglichen es, den Entwicklern von WBT 2.0-Autorensystemen sich auf das Wesentliche zu konzentrieren: den Lehr-/Lernprozess.
Landwirtschaft ist der Hauptmotor der westafrikanischen Wirtschaft und Kleinbauern liefern fast 70 % des Nahrungsmittelbedarfs. Traditionell wird hauptsächlich Regenfeldbau betrieben, der durch geringen Agrarinput und die Nutzung von einfachen Werkzeugen wie Hacke und Buschmesser gekennzeichnet ist. Die Ernteerträge sind gering und die Bodenfruchtbarkeit sinkt schnell nach einigen Anbaujahren. Infolgedessen werden Wald- und Weidefläche gerodet und die Landdegradation wird beschleunigt. Dies hat direkte Auswirkungen auf die landwirtschaftliche Produktivität und die Ernährungssicherheit der Kleinbauern.
Die vorliegende Arbeit hat sich das Ziel gesetzt, sozio-ökonomische und geo-ökologische Faktoren, die den Landnutzungswandel in zwei Agrarökosystemen der Atakora Gebirgskette steuern, aufzudecken. Schließlich sollen ortsangepasste Maßnahmen vorgeschlagen werden, um die Agrarökosysteme wiederherzustellen und ihre Dienstleistungen für Kleinbauern zu erhalten.
Haushaltsbefragungen und Gruppendiskussionen wurden während Geländeaufenthalten in den Jahren 2014 und 2015 in den Dörfern der beiden Ethnien durchgeführt. Die Landnutzung und ihr Wandel werden über knapp 30 Jahre anhand von Bildern des Satellitensystems LANDSAT aus den Jahren 1987, 2001 und 2015 ausgewertet. Eine überwachte Klassifikation nach dem „Maximum Likelihood“-Klassifkationsalgorithmus und Veränderungs-analysen wurden durchgeführt. Zum Erfassen der Variabilität der Agrarparameter der Böden wurden Bodenprofile nach dem Catena-Prinzip gegraben. Bodenproben wurden aus jedem Horizont genommen. Anschließend wurden einige physische Parameter und die Nährstoffgehalte vom Fachpersonal des bodenkundlichen Labors des Instituts für Physische Geographie (Geowissenschaften) bestimmt.
Innerhalb der knapp letzten dreißig Jahre (1987-2015) ist die natürliche Vegetation bei den beiden Ethnien zugunsten der Landwirtschaft und der bebauten bzw. vegetationsfreien Flächen zurückgegangen. Über die analysierten Zeiträume liegen mehr Flächen bei den Ditamari (47,24%) unter einer negativen Dynamik als bei den Éwé (36,41%). Die Untersuchung der Steuerungsfaktoren des Landnutzungswandels bringt heraus, dass der höhere Anteil an positiv veränderten Flächen bei den Éwé ist nicht durch bessere Landnutzungsstrategien begründet. Vielmehr stellt das Relief der begrenzende Faktor für die Ausdehnung der Ackerflächen und damit die bessere Erhaltung der natürlichen Vegetation bei den Éwé dar.
Die erste Annahme, dass Veränderungen in der Landnutzung die Landdegradation zur Folge haben, wird in den beiden Untersuchungsgebieten bestätigt. Die abnehmende Dichte der Vegetationsdecke begünstigt Prozesse der Flächen-, Rillen- und Rinnenspülung. Zudem werden die ökologischen Bodenfunktionen vermindert. Erscheinungen der Landdegradation bei den Ditamari sind die Ausdehnung von oberflächlich verkrusteten Arealen und die Verbreitung des Unkrautes Striga hermontica. Bei den Éwés tritt eine starke Profilverkürzung der Böden ein und das anstehende Gestein wird an mehreren Stellen freigelegt.
Die zweite Hypothese wird in Hinsicht auf die räumliche und ethnische Differenzierung der Folgen der Landdegradation bestätigt. Allerdings sind nicht, wie vermutet, die Ditamari verletzbarer als die Éwés. Die beiden Ethnien betreiben eine intensive Subsistenzwirtschaft und die Éwé entwickeln weniger Anpassungsstrategien als die Ditamari. Im Hinblick auf die globale Erwärmung könnte die Landdegradation in den beiden Gebieten fortschreiten und die Folgen auf der Landschaft und den Kleinbauern verschärfen. Die Éwé wären, anders als vermutet, verletzbarer als die Ditamari. Eine Fortschreitung der Landdegradation könnte bei den Kleinbauern Éwés langfristig den Zusammenbruch des Agrarökosystemen hervorrufen. Sie könnten langfristig die Grundlage ihrer Existenzsicherung verlieren.
Die Studie zeigt auf, dass traditionell, zurückgezogen lebende Völker wie die Ditamari das Agrarökosystem nachhaltiger bewirtschaften und angesichts der Landdegradation anpassungsfähiger sind als tief umgewandelte Gesellschaften wie die Éwés. Sie bringt heraus, dass Kleinbauern Westafrikas keinesfalls als eine Einheit betrachtet werden sollten. Jede Ethnie ist durch Merkmale gekennzeichnet, die ihre Gestaltung der Landschaft beeinflussen. Diese Vielfältigkeit und Besonderheiten der kleinbäuerlichen Gesellschaften müssen in der Entwicklungszusammenarbeit stärker berücksichtigt werden.
Hämophilie A ist eine X-chromosomal rezessiv vererbte Krankheit, die aufgrund von Mutationen innerhalb des Gens von Gerinnungsfaktor VIII (FVIII) zum funktionellen Defekt oder zum Fehlen des körpereigenen FVIII führt. FVIII zirkuliert als Heterodimer und besteht aus einer schweren Kette mit der Domänenstruktur A1-A2-B und einer leichten Kette mit der Domänenstruktur A3-C1-C2. Bei Patienten unter Prophylaxe wird durch regelmäßige Substitution mit rekombinanten oder aus Plasma gewonnenen FVIII-Präparaten die Hämostase wiederhergestellt. Allerdings entwickeln hierbei etwa 30% der Patienten mit einer schweren Hämophilie eine FVIII-spezifische Immunantwort in Form von neutralisierenden Antikörpern (Inhibitoren). Die sogenannte Immuntoleranz-Therapie (engl. immune tolerance induction therapy, ITI) ist bisher die einzige etablierte Therapie, die zu einer dauerhaften Eradikation der FVIII-Inhibitoren und Induktion von Toleranz gegenüber FVIII führen kann. Die Therapie beruht auf einer meist täglichen Gabe hoher FVIII-Dosen, welche sich, je nach Behandlungsdauer, über Wochen bis hin zu Jahren erstrecken kann. Bei etwa 30% der Patienten ist diese Therapie nicht erfolgreich. Für solche Patienten besteht die Gefahr lebensbedrohlicher, unkontrollierbarer Blutungen und erheblicher Gelenkschäden.
Die spezifische Ansteuerung des Membran-gebundenen Immunglobulin G (mIg) des B-Zellrezeptors (BZR) mithilfe von Immuntoxinen ist eine mögliche Option zur selektiven Eliminierung FVIII-spezifischer B-Zellen und somit zur Eradikation von FVIII-Inhibitoren. Solche Immuntoxine bestehen aus einer zellbindenden und einer zytotoxischen Domäne, welche nach Internalisierung zur Apoptose der Zielzelle führen soll. Da FVIII aufgrund der Größe als zellbindende Domäne ungeeignet ist, beschäftigt sich die vorliegende Arbeit mit der Entwicklung und Evaluierung alternativer Immuntoxine zur selektiven Eliminierung FVIII-spezifischer B-Zellen. Die FVIII-spezifische Immunantwort ist zwar polyklonal, jedoch vor allem gegen A2- und die C2-Domäne gerichtet. Aus diesem Grund wurden die humane A2- und C2-Domäne (hA2, hC2) als zellbindende Domäne verwendet und jeweils genetisch an eine verkürzte Version des Exotoxin A (ETA) aus Pseudomonas aeruginosa fusioniert, bei welcher die natürliche zellbindende Domäne entfernt wurde. Die rekombinanten Proteine wurden bakteriell produziert und im Anschluss an die Aufreinigung biochemisch charakterisiert. Während das bakterielle Expressionssystem für hA2-ETA nicht geeignet war, konnte hC2-ETA neben weiteren Kontrollproteinen mit korrekter Konformation der hC2-Domäne hergestellt und aufgereinigt werden.
Die Fähigkeit zur selektiven Eliminierung hC2-spezifischer B-Zellen wurde im weiteren Verlauf sowohl in vitro mithilfe einer hC2-spezifischen Hybridomazelllinie als auch ex vivo und in vivo mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen untersucht.
Durch Inkubation der hC2-spezifischen Hybridomazelllinie mit hC2-ETA konnten ca. 38 % der Zellen eliminiert werden. Weitere Untersuchungen der Zelllinie ergaben, dass diese keinen vollständigen funktionalen B-Zellrezeptor auf der Oberfläche exprimierte, welcher für die Bindung und die korrekte Internalisierung des Immuntoxins notwendig ist. Aufgrund dessen eignet sich diese Zelllinie nicht als Modell für eine genauere Analyse der in vitro Eliminierungseffizienz von hC2-ETA.
Weitere Analysen mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen haben jedoch gezeigt, dass durch ex vivo Inkubation der Splenozyten mit hC2-ETA, alle hC2-spezifischen B-Zellen vollständig, selektiv und konzentrations-abhängig eliminiert werden konnten. Auch die mehrfache Applikation von hC2-ETA in FVIII-immunisierten FVIII-knockout Mäusen führte bei der Hälfte der Tiere zur vollständigen Eliminierung aller hC2-spezifischen B-Zellen. Eine Reduktion des hC2-spezifischen Antikörpersignals konnte nach Gabe von hC2-ETA in allen behandelten Tieren beobachtet werden. Die unvollständige Eliminierung in der Hälfte der Tiere ist vermutlich auf die Präsenz hC2-spezifischer Antikörper zurückzuführen, die einen Teil des applizierten Immuntoxins neutralisiert haben, sodass nicht alle hC2-spezifischen Gedächtnis-B-Zellen erreicht und eliminiert werden konnten. Um die Eliminierungseffizienz von hC2-ETA weiter zu erhöhen, müsste das Behandlungsprotokoll geändert werden. Sowohl eine Verlängerung des Behandlungszeitraums als auch eine kombinierte Therapie aus FVIII und hC2-ETA sollte zu einer erhöhten Bioverfügbarkeit des Toxins und dadurch zu einer gesteigerten Eliminierungseffizienz führen.
Die Ausweitung des hier vorgestellten Ansatzes auf weitere FVIII-Domänen ist generell möglich, jedoch muss hierzu ein alternatives Expressionssystem aufgrund des eukaryotischen Ursprungs von FVIII in Betracht gezogen werden. Die hier vorgestellten Ergebnisse zeigen dennoch, dass FVIII-Domänen-Immuntoxine ein wirkungsvolles Mittel sind, um FVIII-spezifische B-Zellen selektiv zu eliminieren. Die Anpassung der Gabe von FVIII-Domänen-Immuntoxinen an die individuelle Immunantwort des Patienten könnte das Auftreten von Nebenwirkungen minimieren. Außerdem könnte eine kombinierte Therapie aus ITI und FVIII-Domänen-Immuntoxinen die Zeit bis zur Induktion von Toleranz verkürzen und die Chancen für den generellen Therapieerfolg erhöhen.
Die aktuelle Gesetzeslage fordert mit der im Rahmen der Gesundheitsreform 2007 eingeführten Versicherungspflicht und dem 2013 in Kraft getretenen Gesetz zur Beseitigung sozialer Überforderung bei Beitragsschulden in der Krankenversicherung eine Vollversicherung aller in Deutschland lebenden Personen. Die Erfahrungen aus medizinischen Versorgungseinrichtungen zeigen, dass dieses Ziel nicht erreicht wurde. Nach wie vor wird eine bedeutende Anzahl von Patienten ohne Krankenversicherung in Krankenhäusern, Arztpraxen und medizinischen Hilfseinrichtungen versorgt. In der vorliegenden Studie wird in einer praxisnahen Herangehensweise am Beispiel der Stadt Frankfurt am Main untersucht, wo die Ursachen dafür zu finden sind, wenn die Einbindung in das Regelsystem der Krankenversicherung nicht gelingt und wie sich dies auf die medizinische Versorgung der Betroffenen auswirkt.
Basierend auf einem qualitativen Studienkonzept wird das empirische Material mit Leitfadeninterviews erhoben und mit der qualitativen Inhaltsanalyse nach Gläser und Laudel ausgewertet. Die Auswahl der Interviewpartner erfolgt mittels Sampling über die Zusammenarbeit mit zwei medizinischen Hilfseinrichtungen als zentrale Kontakte im Forschungsfeld. Die 25 Patienteninterviews stellen eine exemplarische Auswahl an dort behandelten nichtversicherten Patienten dar. Die 21 Experteninterviews mit Gesprächspartnern aus den Arbeitsbereichen Hilfseinrichtungen, Krankenhäuser und Behörden bilden die unterschiedlichen Akteure und Sichtweisen im Handlungsfeld der Nichtversicherung ab. Mithilfe der qualitativen Inhaltsanalyse werden die erfassten Fälle rekonstruiert und auf ihre Kausalmechanismen hin analysiert.
Als Ergebnis der Untersuchung werden 13 Grundsituationen typischer Fälle von Nichtversicherung dargestellt und mit den strukturellen Rahmenbedingungen in Zusammenhang gebracht. Daraus werden die Entstehungsmechanismen von Nichtversicherung ersichtlich. Diese zeigen, dass das Fehlen der Krankenversicherung das Resultat einer multifaktoriellen Entwicklung ist. So wirken sich einerseits die individuellen Verhaltensweisen der Betroffenen sowie ihre jeweiligen Lebensum-stände, wie die berufliche Situation, die Wohnsituation, Herkunft, Aufenthaltsstatus und die gesundheitliche Situation, auf die Versicherungssituation aus. Andererseits kommt strukturellen Hürden eine wesentliche Bedeutung bei der Entstehung von Nichtversicherung zu. So lässt die Gesetzgebung in der Versicherungspflicht, dem Sozialleistungsbezug und im Aufenthaltsrecht Lücken, die zwar nicht notgedrungen zum Verlust der Krankenversicherung führen, aber in Wechselwirkung mit bestimmten Lebensumständen und Verhaltensweisen der einzelnen Personen die Eingliederung in das reguläre Versicherungssystem verhindern oder erschweren.
Im zweiten Teil der Studienergebnisse wird die Versorgungssituation für Patienten ohne Krankenversicherung beurteilt. Darin wird deutlich, dass Nichtversicherte im Vergleich zu regulär versicherten Personen schlechter medizinisch versorgt sind. Dies ist einem erschwerten Zugang zum Regelsystem der medizinischen Versorgung sowie den eingeschränkten Behandlungsmöglichkeiten im Hilfsnetz geschuldet. Trotz der gut ausgebauten Hilfestrukturen in Frankfurt am Main muss demnach die Versorgungs-situation für Nichtversicherte als unzureichend beurteilt werden.
Neben den Patienten sind auch die anderen Akteure von den Folgen des Nichtversichertseins betroffen. Dabei zeigen sich zwei gegensätzliche Perspektiven auf das Problemfeld. Auf der einen Seite stehen die hilfeleistenden Einrichtungen, die den Patienten eine medizinische Versorgung zukommen lassen, auf der anderen Seite die Kostenträger, die als Institutionen des Regelsystems diese medizinische Behandlung finanzieren. Die versorgenden Einrichtungen geraten in einen Konflikt zwischen ihrem Behandlungsauftrag, der sich aus der gesetzlich verankerten Behandlungspflicht und der ethischen Verantwortung den Patienten gegenüber ergibt, und dem wirtschaftli-chen Druck, der die Behandlungsmöglichkeiten bei unzureichender Finanzierung begrenzt. Die Kostenträger können ihre Zuständigkeit als Leistungsträger im Einzelfall prüfen und diese gegebenenfalls ablehnen. Da Nichtversicherte als unattraktive Kunden gelten, geht die Ablehnung meist mit einer Kostenersparnis einher und bedeutet somit für die Kostenträger keinen Nachteil. Die daraus entstehenden Versorgungsvakanzen werden wiederum vom Hilfsnetz aufgefangen.
Vor dem Hintergrund dieser Ergebnisse muss das Auftreten von Nichtversicherung als Problem gesehen werden, aus dem Handlungsbedarf hervorgeht, auch wenn die Gruppe der Nichtversicherten insgesamt nur einen kleinen Anteil an der Gesamtbevölkerung ausmacht. Die Zielsetzung dieser Studie ist es, eine fundierte Grundlage zu geben, auf der Lösungsansätze für die beschriebenen Konflikte erarbeitet werden können.
Für den Zugang zu sozialen Netzwerken - sei es ein klassisches soziales Netzwwerk oder eine objektspezifische Community - ist die Existenz eines Avatars obligatorisch. Die virtuelle Repräsentation bindet die User_innen dahinter als gestaltbares Interface-Objekt in das Kommunikationssystem ein. Der systemspezifische Avatar besteht dabei aus feststehenden Modulen, deren Anordnung von den User_innen unveränderbar ist so dass mit dem Zugang zum System die Annahme der medialen Uniformität ebenfalls obligatorisch einhergeht; sie standadisiert alle Avatare des zugehörigen Systems schablonenhaft. Durch das Füllen der Module der medialen Uniformität mit grafischen Informationen kann eine persönliche grafische Uniform generiert werden, die immer in Bezug zur grafischen Uniformität der jeweiligen Community steht...
Cells within a tissue form highly complex, cellular interactions. This architecture is lost in twodimensional cell cultures. To close the gap between two-dimensional cell cultures and in vivo tissues, three-dimensional cell cultures were developed. Three-dimensional cellular aggregates such as spheroids, organoids, or embryoid bodies have been established as an essential tool in many different aspects of life science, including tumour biology, drug screening and embryonic development. To fully take advantage of the third dimension, imaging techniques are essential. The emerging field of “imagebased systems biology” exploits the information in images and builds a connection between experimental and theoretical investigation of biological processes at a spatio-temporal level. Such interdisciplinary approaches strongly depend on the development of protocols to establish threedimensional cell cultures, innovations in sample preparation, well-suited imaging techniques and quantitative segmentation methods.
Although three-dimensional cell cultures and image-based systems biology provide a great potential, two-dimensional methods are still not completely replaced by three-dimensional methods. The knowledge about many biological processes relies on two-dimensional experiments. This is mainly due to methodical and technical hurdles. Therefore, this thesis provides a significant contribution to overcome these hurdles and to further develop three-dimensional cell cultures. I established computational as well as experimental methods related to three-dimensional cellular aggregates and investigated fundamental, cellular processes such as adhesion, growth and differentiation.
In the first part of the thesis we investigate Lyapunov exponents for general flat vector bundles over Riemann surfaces and we describe properties of Lyapunov exponents on special loci of the moduli space of flat vector bundles. In the second part of the thesis we show how the knowledge of Lyapunov exponent over a sporadic Teichmüller curve can be used to compute the algebraic equation of the associated universal family of curves.
The role of the homeobox transcription factor Meis2b in zebrafish heart development and asymmetry
(2018)
Zebrafish heart development: The heart of the zebrafish is the first organ to form and function during embryonic development, and is composed by one atrium and one ventricle. Between 5-17 somites stage, the cardiomyocyte precursors form the bilateral cardiac fields in the anterior lateral plate mesoderm (ALMP); where the endocardial precursors are located anterior to the cardiac fields (Zeng, Wilm et al. 2007). Then, the pools of endocardial andmyocardial precursors fuse at the midline and form the heart disc; where atrial cardiomyocytes are located around, the ventricular cardiomyocytes are located in the centerof the heart disc, and the future endocardium is located in a ventral position relative to the cardiomyocytes (Bakkers 2011). After the heart disc is formed, the cardiomyocyte progenitors start to migrate and rotate asymmetrically to form the heart tube (de Campos-Baptista, Holtzman et al. 2008, Rohr, Otten et al. 2008, Smith, Chocron et al. 2008). This process is followed by a rightward bending of the heart tube, and the arterial and venous poles rotate at different speed and directions (a process known as heart looping) (Smith, Chocron et al. 2008). The heart looping process results in a ventricle located on the right side and a more posterior atrium located on the left side with respect to the midline; at this point the atrium and ventricle are separated by a fine segment called the atrioventricular canal, where the valves will be formed (Staudt and Stainier 2012). The second heart field (SHF) is a pool of cardiac progenitors that are specified later during the formation of the heart disc and until the heart looping stages. The SHF contributes withcells to the distal side of the ventricle, the outflow and inflow tracts, and is important for the specification of the cardiac conduction system (de Pater, Clijsters et al. 2009, Hami, Grimes et al. 2011, Zhou, Cashman et al. 2011, Witzel, Jungblut et al. 2012, Guner-Ataman, Paffett-Lugassy et al. 2013)....
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience (cf. Bryant & Veroff, 2007; Dewey, 2005; Wolf, 2013).
Adopting a dual process approach (Dietrich, 2004; Evans & Stanovich, 2013; Lewis, Tamborini & Weber, 2014; Mukhopadhyay, 2014; Schwarz, 2011; Smith & Neumann, 2005) – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the essential yet poorly understood paradox of losing oneself in the music on the one hand, and the act of meta-awareness (i.e., rational and controlled sense of self) on the other, b) its corresponding psycho-phenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment (a purely pleasurable response), lasting impression (a meaningful response related to mixed emotion), and behavioral intention (future-planned seeking/ avoidance response). Moreover, a dynamically-conceived conceptualization of absorption was proposed in terms of a temporary phase taking place amidst a variety of other cognitive responses to music, including concentration, mind wandering, and mindfulness. Finally, a questionnaire commonly-used for assessing alterations in consciousness (Phenomenology of Consciousness Inventory; Pekala, 1991) was evaluated in the context of music listening, before using it in the development of a self-report questionnaire aimed at measuring absorptive states in or by music. To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.
Situated within an overarching neurocognitive model for music engagement and consistent with several aesthetic theories converging (Benson, 1993; Dewey, 2005; Wolf, 2013), aesthetic absorption was conceptualized as, and later confirmed to be, structured by experiential and meta-consciousness or – in terms of dual process terminology – intuitive type I and reflective type II processing. Two forms of music absorption were empirically identified and labeled as zoning in and tuning in (cf. Schooler, 2007). These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state (i.e., positive vs. mixed emotions). These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory (Schwarz, 2011), postulating that positive emotions (e.g., happiness) are differently processed than negatively-tinted types of emotions (e.g., nostalgia), it was concluded that music-induced rumination (a negatively-valenced experience related to the self and represented by the feeling of sadness) ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection (Takano & Tanno, 2009; Trapnell & Campbell, 1999). Further examining the construct’s latent structure, it was shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. This finding cautions against subtyping absorption experiences as being qualitatively distinct, and assuming it to be guided by ‘special’ mechanisms. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind – operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention. Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Future research should examine whether the same applies for absorption and meta-awareness, preferably making use of more advanced measures for the latter.
Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated, but, in terms of dual processing, that they represent different levels of consciousness. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate long-lasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
Finally, dual process approach and measures provided by research on altered-states-of-consciousness (ASC) experiences offer new and fruitful perspectives to conceptualize aesthetic absorption and examine its mechanisms. Several major research questions lie ahead in understanding the phenomenological experience and aesthetic role of absorption, including the future comparison between subjective experiences of ASCs across varying music and non-music induction methods (e.g., hypnosis), listening conditions (e.g., live concert experience), and musical ‘cultures’ (human societies, musical styles, classes).
Das Ziel der vorliegenden Arbeit war es, MALDI-Massenspektrometrie als robuste Analysenmethode für die quantitative Analyse niedermolekularer Verbindungen aus komplexen biologischen Matrizes zu etablieren. Zu Beginn der Arbeit wurden drei typische Fragestellungen im Bereich der Lebensmittelanalytik, der medizinischen Forschung und der klinischen Chemie ausgewählt, um die Methodik anhand dieser Modellsysteme zielgerichtet zu entwickeln und zu bewerten. Für jede dieser Fragestellungen wird routinemäßig ein hoher Probendurchsatz verlangt und damit werden hohe Anforderungen an die Probenvorbereitung gestellt, da diese einfach, schnell, reproduzierbar, Matrix-tolerant und automatisierbar sein muss um die Weiterentwicklung zur Hochdurchsatzanalytik zu erlauben.
Der quantitative Nachweis von Melamin und seinen Derivaten wurde aufgrund des Aufkommens von Milchprodukten, die mit diesen Verbindungen kontaminiert waren, ein wichtiger Bestandteil der Analytik dieser Lebensmittel. Insbesondere an diesem Beispiel zeigte sich der Vorteil des Einsatzes von MALDI-Massenspektrometrie zur Analyse kleiner Moleküle. Aufgrund der höheren Toleranz gegenüber Puffern und Salzen konnte die Probenvorbereitungszeit der für die FDA entwickelten Methode zur Quantifizierung von Melamin in Milchpulver mittels LC-ESI von ca. 140 min auf 90 min reduziert werden, da auf die zeitaufwendige Flüssigchromatographie verzichtet werden konnte. So wurde Melamin mit einem LLOQ von 0,5 ppm quantifiziert, was unterhalb der Vorgaben der WHO (2,5 ppm in Milichpulver und 1 ppm in Babynahrung) lag. Cyanursäure, ein Derivat von Melamin welches für die Bildung schwerlöslicher Komplexe in der Niere mitverantwortlich gemacht wird, konnte ebenfalls mit der entwickelten MALDI-MS Methode quantifiziert werden. Allerdings war die ermittelte Bestimmungsgrenze mit 15 ppm um den Faktor 30 schlechter als bei Melamin. Die Nachweisgrenze bei MALDI-MS ist stark von der MALDI-Matrix abhängig und die Verwendung von Sinapinsäure war eine gute Kompromisslösung, um die Analyten in einem Spot im positiven und negativen Reflektormodus zu analysieren. Allerdings wurde diese Matrix zur Analyse von Analyten im positiven Reflektormodus entwickelt. Bislang wurden nur wenige Matrizes für MALDI-MS im negativen Reflektormodus beschrieben, um z.B. Säuren besser nachweisen zu können. Forschung in diesem Bereich wird neue Möglichkeiten zur Detektion negativ geladener kleiner Moleküle ergeben.
Des Weiteren wurden im Rahmen dieser Arbeit auch Lösungen für klinische Fragestellungen wie etwa den Nachweis von Methylphenidat im Plasma und Gehirn von Ratten oder der Dried Blood Spot Analytik entwickelt. Bei beiden Methoden wurde jeweils nur eine einfache Flüssig-Flüssig-Extraktion zur Probenvorbereitung angewendet und sie ließen sich sehr gut auf Realproben übertragen.
Methylphenidat konnte im Plasma im Konzentrationsbereich von 0,1-40 ng/mL und im Hirnhomogenat im Konzentrationsbereich von 0,4-40 ng/mL quantifiziert werden, was gut im Konzentrationsbereich der Realproben von mit Methylphenidat gefütterten Ratten lag. Dazu standen das Plasma und die Gehirne von fünf Ratten zur Verfügung. Es wurde eine lineare Korrelation zwischen der MPH-Konzentration im Gehirnhomogenat und im Plasma gefunden, was basierend auf den bis dato bekannten Literaturergebnissen ein zu erwartendes Ergebnis war, aber zukünftig mit einer größeren Anzahl von Versuchstieren verifiziert werden sollte. Während der Methodenentwicklung war auch bei diesem Projekt die Auswahl der MALDI-Matrix ausschlaggebend für den Erfolg der Messungen. Im MALDI-Massenspektrum interferierte das Signal des Natriumaddukts von CHCA mit dem Signal von MPH. Für dieses Problem kamen zwei mögliche Lösungen in Betracht. Erstens die Quantifizierung mit ClCCA als MALDI-Matrix, da hier keine Interferenzen auftraten. In ersten Vorversuchen konnte MPH so in einem Konzentrationsbereich von 1-48 ng/mL mit einer exzellenten Linearität von R2=0,9992 quantifiziert werden. Eine zweite mögliche Problemlösung war die Verwendung von Tandem-Massenspektrometrie. Hierzu wurden Fragmentionen-Massenspektren der überlagerten Signale aufgenommen. MPH und der verwendete interne Standard MPH-d9 zeigten dabei spezifische Fragmentionensignale, über die quantifiziert wurde. Da die Sensitivität um den Faktor 100 im Vergleich zu MS-Spektren von CHCA und ClCCA gesteigert werden konnte, wurde die weitere Methodenentwicklung basierend auf der Tandem-Massenspektrometrie mit der MALDI-Matrix CHCA durchgeführt. Überdies sind MS/MS-Versuche unter Verwendung von ClCCA als MALDI-Matrix für kleine Moleküle sehr erfolgsversprechend und sollten in weiteren Forschungsarbeiten durchgeführt werden.
Die Dried Blood Spot Technik als alternative Probenvorbereitung bietet eine Reihe von Vorteilen, wie etwa den einer einfacheren Lagerung und eines einfacheren Transports einer großen Menge von Proben. Darüber hinaus werden nur wenige Mikroliter Blut verwendet, was vorteilhaft ist bei z B. klinischen Studien oder dem Therapeutic Drug Monitoring. Diese Art der Probennahme ist somit eine perfekte Ergänzung für weitere quantitative Analysen von Methylphenidat in Rattenblut. Den Ratten würden nur wenige Mikroliter Blut entnommen werden, was ihr Überleben sichert und der Transport der Proben auf dem Postweg wäre wesentlich einfacher. Um eine allgemein verwendbare DBS-MALDI-MS-Methode zu entwickeln, wurden neben Methylphenidat auch bekannte Analyten aus dem Bereich des Dopings sowie Lamotrigin, Coffein und Theophyllin als Beispiele für das Therapeutic Drug Monitoring verwendet. Es wurden verschiedene Lösungsmittel zur Extraktion eingesetzt, wobei sich eine Kombination aus Methyl-tert-Butylether und Ethanol, sowie Aceton als am besten geeignet erwies. Einige Analyten wie Coffein, Theophyllin und Lamotrigin wurden bis zu einer Konzentration von 0,5 μg/mL quantifiziert. Diese Bestimmungsgrenze ist bei Analyten aus dem Bereich des Dopings wie z.B. Salbutamol, Methylphenidat oder Clenbuterol, deren therapeutisch wirksame Plasmakonzentration im Bereich von wenigen Nanogramm pro Milliliter Blut liegt, um den Faktor 15-500 zu hoch. Diese Analyten waren bis zu einer Konzentration von 5 μg/mL im Blut mittels MALDI-MS problemlos nachweisbar. Um die Sensitivität zu erhöhen, ist es allerdings sinnvoll, die Extraktion zukünftig für die einzelnen Analyten zu optimieren, sie mittels Festphasenextraktion oder LC anzureichern und MS/MS-Spektren aufzunehmen. Für die Analyten Coffein, Theophyllin und Lamotrigin, deren therapeutisch wirksame Plasmakonzentration im ein- bis zweistelligen Mikrogramm-pro-Milliliter Bereich liegt, eignete sich die entwickelte Methode sehr gut. Es wurde eine Methodenvalidierung durchgeführt, wobei die validierten Parameter den Vorgaben der FDA entsprachen.
Da die Auswahl der MALDI-Matrix bei den verschiedenen Methodenentwicklungen jeweils ein kritischer Faktor war, wurden abschließend eine Auswahl von Analyten mit einer Molekülmasse bis ca. 600 Da mit verschiedenen MALDI-Matrizes präpariert. Ein Großteil der Analyten wurde am sensitivsten mit ClCCA nachgewiesen. Im Rahmen dieser Versuche wurde auch erstmals ein Strukturanalogon von ClCCA, und zwar ClCCA-Tetrazol, als alternative MALDI-Matrix eingesetzt, bei welchem die Carboxylgruppe durch einen Tetrazolring ausgetauscht wurde. Diese zeigte eine sehr homogene Kristallisation und für einige Analyten eine bis zu Faktor 3 höhere Signalintensität im Vergleich zu ClCCA. Außerdem war auffällig, dass einige Analyten unter bestimmten Präparationsbedingungen wie z B. der Graphite Supported Preparation sensitiver mittels MALDI-MS nachweisbar waren. Bei anderen Analyten verschlechterten sich die Analysenergebnisse. Graphit verändert stark die Kristallisation der MALDI-Matrix und es wird vermutet, dass sich dies auf den Einbau der Analyten in die Matrixkristalle auswirkt. Es konnte bislang aber noch nicht abschließend geklärt werden, wie genau die Präparation der Proben Einfluss auf den Einbau der Analyten in die Matrix nimmt. Eine Untersuchung dieser Phänomene sollte daher Gegenstand weiterer Forschungsprojekte sein.
Zusammenfassend stellt die MALDI-Massenspektrometrie eine schnelle und robuste Methode zur Quantifizierung einer Vielzahl kleiner Moleküle in komplexen biologischen Matrizes dar.
In den letzten Jahren findet die Wirkung von Polyphenolen auf den Alterungsprozess oder zur Behandlung von Krankheiten immer mehr Beachtung. Das Ziel dieser Arbeit war die Aufklärung der Wirkmechanismen der Polyphenole Gossypol, Curcumin und Quercetin, um Hinweise für neue oder verbesserte Therapieansätze zu erhalten. Die dazu durchgeführten Untersuchungen lieferten folgende Ergebnisse:
1. Der Ascomycet "P. anserina" eignet sich als Modellorganismus zur Untersuchung der Wirkmechanismen verschiedener Polyphenole, da die bereits aus der Literatur bekannten Effekte auf das Überleben höherer Organismen auch in "P. anserina" beobachtet wurden.
2. Die Mitochondrienfunktion spielt auf unterschiedliche Art eine Rolle in der Kompensation von Dysfunktionen oder Stressbedingungen in der Zelle und wirkt somit positiv auf die Regulation der Lebensspanne von "P. anserina". In der "PaSod3"-Deletionsmutante wurde eine Verschiebung der mitochondrialen Atmung von einer Komplex I-abhängigen hin zu einer vermehrt Komplex II-abhängigen Atmung festgestellt. Die damit verbundene Abnahme des mitochondrialen Membranpotentials dient neben der bereits bekannten hohen Superoxid-Menge als Signal zur Mitophagie-Induktion. Auch die Anpassung der Mitochondrienfunktion durch die erhöhte Bildung von mtRSCs, wie im Falle von Gossypol oder Quercetin, kann zur Kompensation von Dysfunktionen beitragen bzw. sie abschwächen.
3. Es gibt keinen grundlegenden gemeinsamen Wirkmechanimus der drei untersuchten Polyphenole. Zwar spielt Wasserstoffperoxid bei verschiedenen Stoffen eine Rolle, aber nicht bei allen. Zusätzlich wurde gezeigt, dass Wasserstoffperoxid abhängig von der vorherrschenden Konzentration wirkt und daher auch keine Allgemeingültigkeit des Effektes vorherzusagen ist. In niedrigen Konzentrationen sorgt Wasserstoffperoxid z. B. für eine Induktion der Autophagie und damit einhergehende eine Lebensverlängerung. Im Gegensatz dazu wirken hohe Wasserstoffperoxid-Konzentrationen lebensverkürzend und lösen verschiedene Formen von Zelltod aus.
4. Die Curcumin-vermittelte Langlebigkeit wurde das erste Mal in Verbindung mit einer funktionellen Autophagie gebracht. Im Detail führt die Behandlung mit Curcumin durch eine PaSOD1-abhängige leichte Erhöhung der Wasserstoffperoxid-Menge zu einer Induktion von nicht-selektiver Autophagie. Die induzierte Autophagie ist Ursache der Lebensverlängerung durch Curcumin.
5. Gossypol wirkt in Abhängigkeit der mitochondrialen Permeabilitäts-Transitionspore bzw. von ihrem Regulator Cyclophilin D. Hierbei verstärkt die deutlich erhöhte Wasserstoffperoxid-Menge wahrscheinlich die Induktion von programmiertem Zelltod. Gleichzeitig wird eine cytoprotektive Form von Autophagie und ein scheinbar ATG-unabhängiger Abbau von Mitochondrien induziert.
6. Quercetin wirkt in "P. anserina" abhängig vom Methylierungs-Status. Untersuchungen mit Mutanten der "O"-Methyltransferase PaMTH1 ergaben die Notwendigkeit der Anwesenheit von PaMTH1 für den lebensverlängernden Effekt von Quercetin. Analysen mit dem methylierten Derivat Isorhamnetin verdeutlichten diese Abhängigkeit und zeigten zudem, dass Quercetin sowohl in der methylierten als auch unmethylierten Form Effekte hervorruft. Jedoch sind nur die Effekte des unmethylierten Quercetin unabhängig von der Lebensverlängerung und eher schädlich für die Zelle.
A lot of software systems today need to make real-time decisions to optimize an objective of interest. This could be maximizing the click-through rate of an ad displayed on a web page or profit for an online trading software. The performance of these systems is crucial for the parties involved. Although great progress has been made over the years in understanding such online systems and devising efficient algorithms, a fine-grained analysis and problem specific solutions are often missing. This dissertation focuses on two such specific problems: bandit learning and pricing in gross-substitutes markets.
Bandit learning problems are a prominent class of sequential learning problems with several real-world applications. The classical algorithms proposed for these problems, although optimal in a theoretical sense often tend to overlook model-specific proper- ties. With this as our motivation, we explore several sequential learning models and give efficient algorithms for them. Our approaches, inspired by several classical works, incorporate the model-specific properties to derive better performance bounds.
The second part of the thesis investigates an important class of price update strategies in static markets. Specifically, we investigate the effectiveness of these strategies in terms of the total revenue generated by the sellers and the convergence of the resulting dynamics to market equilibrium. We further extend this study to a class of dynamic markets. Interestingly, in contrast to most prior works on this topic, we demonstrate that these price update dynamics may be interpreted as resulting from revenue optimizing actions of the sellers. No such interpretation was known previously. As a part of this investigation, we also study some specialized forms of no-regret dynamics and prediction techniques for supply estimation. These approaches based on learning algorithms are shown to be particularly effective in dynamic markets.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
Particle physics is living it’s golden age: petabytes of high precision data are being recorded at experimental facilities such as the Relativistic Heavy Ion Collider (RHIC) and the Large Hadron Collider (LHC). Despite the significant theoretical progress achieved in the last years the complete understanding of the internal structure of protons, not computable with perturbative QCD, remains as one of the most challenging unsolved problems in the physics of elementary interactions. Besides its fundamental interest, pinning down the relevant degrees of freedom and their properties, such as their spatial distribution, has profound implications in several phenomenological aspects of high-energy collisions. Currently one of the subjects undergoing intense study is the possibility that droplets of quark-gluon plasma (QGP) are being created not only in heavy ion collisions but in more dilute systems such as high-multiplicity proton-proton interactions. This is a data driven debate as it is rooted in the similar patterns observed across the different collision systems at the LHC (p+p,p+Pb and Pb+Pb) in the flow harmonic analyses: one of the golden probes of QGP formation specially sensitive to the initial collision geometry. Another domain in which the proton structure plays a central role is the description of multi-parton interactions, the mechanism that dominates the underlying event at LHC energies, in Monte Carlo event generators. All in all a precise characterization of the hadronic structure is a crucial ingredient of the physics program of the LHC.
A full characterization of a hadron would require momentum, spatial and spin information, the so-called Wigner distribution. So far obtaining this information experimentally has not been achieved. From a theoretical point of view several complications arise such as non-universality and breaking of factorization theorems. Then, in general, the description of the hadron structure relies on phenomenological tools that require theoretical modeling constrained by experimental data. The main goal of this thesis to characterize the transverse structure of the proton. For that purpose, a wide variety of phenomenological problems that are sensitive to the proton structure have been addressed.
First, elastic scattering data on proton-proton interactions constitutes a powerful probe of the geometry of the collision. A dedicated analysis of this observable focusing on the extraction of the inelasticity density from it at √s=62.5 GeV and √s=7 TeV is presented. In the TeV regime, a unexpected phenomenon, dubbed the hollowness effect, arises: the inelasticity density, a measurement of how effective is the collision producing secondary particles, reaches its maximum at non-zero impact parameter. We provide the first dynamical explanation of the hollowness effect by constructing the elastic scattering amplitude in impact parameter representation according to the Glauber model. For that purpose we relied on a composite description of the proton. More concretely, the relevant degrees of freedom that participate in the scattering process were considered to be gluonic hot spots. The probability distribution for the transverse positions of hot spots inside the proton includes repulsive short-range correlations between all pairs of hot spots controlled by an effective repulsive core rc that effectively enlarges the mean transverse separation distance between them. The main results extracted from this work are as follows. To begin with, we found that our model was not able to describe a growing behavior of the inelasticity density at zero impact parameter in the absence of non-trivial spatial correlations. However, even in the presence of correlations, the emergence of the hollowness effect couldn’t be described when the number of hot spots was smaller than 3. Both features set solid constraints in the proton structure within our model. Finally, we pinpoint the transverse diffusion of the hot spots with increasing collision energy to be the dynamical mechanism underlying the onset of the hollowness effect.
A convenient playground to test further implications of this novel geometric description of the proton are the initial state properties of high energy proton-proton interactions in the context of QGP physics. The parametrization of the geometry of the collision is mandatory in any theoretical model attempting to describe the striking experimental results that suggest collective behavior in proton-proton interactions at the LHC, such as the non-zero value of the flow harmonic coefficients (vn). A quantitative way to characterize the initial geometry anisotropy of the overlap region is to compute the spatial eccentricity moments (εn) that fluctuate on an event by event basis. For that purpose we develop a Monte Carlo Glauber event generator. A systematic investigation of the effect of non-trivial spatial correlations in the spatial eccentricity moments from ISR to LHC energies within our Monte Carlo Glauber approach is presented. We found that both the eccentricity (ε2) and the triangularity (ε3) are affected by the inclusion of short-range repulsive correlations. In particular, the correlated scenario yielded larger values of ε2(3) in ultra-central collisions while reducing them in minimum bias.
Moreover, we explore not only the eccentricities mean but their fluctuations in terms of symmetric cumulants. The experimental measurement by the CMS Collaboration at √s=13 TeV indicates a anti-correlation of v2 and v3 around the same number of tracks in the three collision systems available at the LHC. We lay out, for the first time in the literature, a particular mechanism that permits an anti-correlation of ε2 and ε3 in the highest centrality bins as dictated by data. When modeling the proton as composed by 3 gluonic hot spots, the most common assumption in the literature, we find that the inclusion of spatial correlations is indispensable to reproduce the negative sign. Further, we perform a systematic investigation of the parameter space of the model i.e. radius of the hot spot, radius of the proton, repulsive core and number of hot spots in each proton. Our results suggest that the interplay of the different scales is decisive and confirm the discriminating power of this observable on initial state models. Together with their drastic impact on the description of the hollowness effect and the absolute values of the eccentricities, the symmetric cumulant study adds evidence to the fact that the inclusion of spatial correlations between the sub nucleonic degrees of freedom of the proton modifies the initial state properties of p+p interactions at LHC energies.
Die forensische Entomologie nutzt nekrophage Insekten, hauptsächlich Dipteren und ihre juvenilen Stadien, zur Schätzung der minimalen Leichenliegezeit. Dem liegt zugrunde, dass nekrophage Dipteren binnen Minuten nach dem Todeseintritt potentiell in der Lage sind, einen Leichnam zu detektieren und zu besiedeln. Das anschließende Wachstum und die Entwicklung der juvenilen Stadien erfolgt als Funktion von der Art und der Umgebungstemperatur.
Mit Hilfe von Laborstudien konnten bislang für einige forensisch relevante Fliegenarten Entwicklungsdaten erhoben werden, die eine Altersbestimmung der sich an einem Leichnam entwickelnden Larven und Puppen erlauben und so eine Schätzung der minimalen Leichenliegezeit ermöglichen. Als Nährsubstrat für Laborstudien werden tierische Gewebe verwendet. Eine Übertragbarkeit der Daten auf humanes Gewebe wurde aber bislang nicht verifiziert. In der vorliegenden Arbeit wurde das larvale Wachstum und die juvenile Entwicklungsgeschwindigkeit der forensisch relevanten Schmeißfliege Calliphora vicina (Diptera: Calliphoridae) auf humanem Muskelgewebe untersucht und mit dem Wachstum auf Schweineleber, magerem Schweinemuskelfleisch und Schweinehackfleisch verglichen. Die auf humanem Gewebe heranwachsenden Individuen waren mit bis zu 3,5 mm signifikant länger als die Individuen, die sich auf Leber und dem mageren Schweinemuskelfleisch entwickelten. Bei der Verwendung von Hackfleisch vom Schwein zeigte sich kein Unterschied. Darauf basierend wird die Empfehlung ausgesprochen, für zukünftige Entwicklungsstudien Schweinehackfleisch als Ersatz für humanes Gewebe zu verwenden.
Zahlreiche Anleitungen zur Asservierung forensisch-entomologischer Spuren empfehlen das Sammeln getrennt nach Körperregionen eines Leichnams. Dies soll eine mögliche gewebespezifische Entwicklungsrate berücksichtigen. Das für die vorliegende Arbeit durchgeführte systematische Absammeln von Fliegenlarven von 51 Leichnamen getrennt nach Körperregionen zeigte keine artspezifischen Präferenzen für bestimmte Gewebe oder Körperregionen. Das Artenspektrum entsprach größtenteils dem aufgrund von Studien an Schweinekadavern zu erwartendem Artenspektrum für Deutschland und Mitteleuropa. Insgesamt konnten 15 Schmeißfliegenarten nachgewiesen werden, von denen in der Regel mehrere gleichzeitig an einem Leichnam zu finden waren. Dies zeigt, dass ein Faktor wie interspezifische Konkurrenz in Zukunft mehr Beachtung in der Forschung erhalten sollte.
Bislang wurde in der forensischen Entomologie die minimale Leichenliegezeit durch die Untersuchung juveniler Stadien von Fliegen eingegrenzt. Eine eventuell mögliche Ausweitung dieses Zeitfensters könnte durch eine Altersbestimmung der adulten Fliegen oder der leeren Puparien gelingen. Der Nachweis, dass die dafür untersuchten Fliegen bzw. Puparien tatsächlich von dem fraglichen Leichnam stammen, war bislang nicht möglich. Die forensische relevante Schmeißfliege Lucilia sericata wurde in der vorliegenden Arbeit auf humanem Gewebe und Gewebe von elf weiteren Tierarten großgezogen. Durch die Analyse stabiler Kohlen- und Stickstoffisotope konnte ein von diesen elf Tierarten abgrenzbares humanes Isotopenprofil sowohl für die adulten Fliegen von L. sericata, als auch für ihre leeren Puparien detektiert werden. Dieses Profil spiegelte die Nahrungszusammensetzung der Wirte wider.
Die vorliegende Arbeit erhebt Daten zur Entwicklung einer forensisch relevanten Schmeißfliegenart auf humanem Gewebe, belegt das bislang lediglich am tierischen Modell erhobene Schmeißfliegeninventar als für menschliche Leichen relevant und hinterfragt die gewebespezifische Asservierungsempfehlung als ein akademisches Artefakt. Auf dieser Basis konnten Empfehlungen für die Weiterzucht fallrelevanter entomologischer Spuren ausgesprochen werden, die gerichtsverwertbar sind und die Verwendung von tierischem Gewebe oder Tierkadaver in der forensisch-entomologischen Forschung legitimieren. Die Analyse stabiler Isotope legt darüber hinaus einen neuen, innovativen Grundstein für die routinemäßige Spurenzuordnung älterer Entwicklungsstadien und ist damit Vorreiter auf dem Gebiet der forensischen Entomologie.
Die vorliegende Arbeit beschäftigt sich mit dem Thema Stemmatologie, d.h. primär der Rekonstruktion der Kopiergeschichte handschriftlich fixierter Dokumente. Zentrales Objekt der Stemmatologie ist das Stemma, eine visuelle Darstellung der Kopiergeschichte, welche i.d.R. graphtheoretisch als Baum bzw. gerichteter azyklischer Graph vorliegt, wobei die Knoten Textzeugen (d.s. die Textvarianten) darstellen während die Kanten für einzelne Kopierprozesse stehen. Im Mittelpunkt des Wissenschaftszweiges steht die Frage des Autorenoriginals (falls ein einziges solches existiert haben sollte) und die Frage der Rekonstruktion seines Textes. Das Stemma selbst ist ein Mittel zu diesem Hauptzweck (Cameron 1987). Der durch für manuelle Kopierprozesse kennzeichnende Abweichungen zunehmend abgewandelte Originaltext ist meist nicht direkt überliefert. Ziel der Arbeit ist es, die semi-automatische Stemmatologie umfassend zu beschreiben und durch Tools und analytische Verfahren weiterzuentwickeln. Der erste Teil der Arbeit beschreibt die Geschichte der computer-assistierten Stemmatologie inkl. ihrer klassischen Vorläufer und mündet in der Vorstellung eines einfachen Tools zur dynamischen graphischen Darstellung von Stemmata. Ein Exkurs zum philologischen Leitphänomen Lectio difficilior erörtert dessen mögliche psycholinguistische Ursachen im schnelleren lexikalischen Zugriff auf hochfrequente Lexeme. Im zweiten Teil wird daraufhin die existenziellste aller stemmatologischen Debatten, initiiert durch Joseph Bédier, mit mathematischen Argumenten auf Basis eines von Paul Maas 1937 vorgeschlagenen stemmatischen Models beleuchtet. Des Weiteren simuliert der Autor in diesem Kapitel Stemmata, um den potenziellen Einfluss der Distribution an Kopierhäufigkeiten pro Manuskript abzuschätzen.
Im nächsten Teil stellt der Autor ein eigens erstelltes Korpus in persischer Sprache vor, welches ebenso wie 3 der bekannten artifiziellen Korpora (Parzival, Notre Besoin, Heinrichi) qualitativ untersucht wird. Schließlich wird mit der Multi Modal Distance eine Methode zur Stemmagenerierung angewandt, welche auf externen Daten psycholinguistisch determinierter Buchstabenverwechslungswahrscheinlichkeiten beruht. Im letzten Teil arbeitet der Autor mit minimalen Spannbäumen zur Stemmaerzeugung, wobei eine vergleichende Studie zu 4 Methoden der Distanzmatrixgenerierung mit 4 Methoden zur Stemmaerzeugung durchgeführt, evaluiert und diskutiert wird.
The liver as the biggest endocrine gland of the human body plays a central role in many metabolic pathways such as detoxification, storage of carbohydrates and distribution of lipids. As the liver receives blood supply from the gut by the portal vein, liver cells are often challenged with high concentrations of nutrients and components of our commensal microbiota. Therefore, the immune system of the liver induces a tolerant state, meaning no or low inflammatory reactions to those constant stimuli. Yet, as various pathogens target the liver, the hepatic immune system also needs the capability to induce strong immune responses quickly. Chronical damage to the liver, which can be caused by alcohol, pathogens or toxins, might lead to liver cirrhosis, where the amount of functional liver tissue is decreased dramatically. This pathology can worsen and lead to acute-on-chronic liver failure, whose high mortality is due to high inflammation and multi-organ failure. Interleukin-7 is a cytokine known for its pro-survival functions especially in lymphopoiesis. However, it is also very important for maintenance of mature immune cells in the liver. As mouse experiments have demonstrated an induction of Interleukin-7 in the liver as a response to bacterial lipopolysaccharide, we aimed to characterize the role of Interleukin-7 in hepatic immunoregulation in both health and disease.
The experiments were mostly based on in vitro approaches. Induction of Interleukin-7 in liver cells was analyzed using ELISA, quantitative PCR, and Immunoblotting. Knockdown of signal transduction components was performed by siRNA transfection. Primary immune cells isolated from healthy donor buffy coat were studied for their ability to respond to Interleukin-7. Activation of downstream signal transduction was assessed by Immunoblotting. Functional consequences of Interleukin-7 signaling, such as alterations in cellular metabolism, cellular survival and endotoxin tolerance, were studied in monocyte-derived macrophages. Finally, serum concentrations of Interleukin-7 and frequencies of Interleukin-7 receptor positive immune cells were quantified in patients with compensated or decompensated liver cirrhosis or acute-on-chronic liver failure.
Interleukin-7 expression could be observed in human hepatic cell lines and primary hepatic sinusoidal endothelial cells when stimulated with IFNα or IFNγ, but not IFNλ. IRF-1 was identified as a key regulator of Interleukin-7 expression, as its transcription, translation and nuclear translocation were induced and enhanced upon IFNα or IFNγ, but not IFNλ treatment. We identified LPS-primed macrophages as innate immune target cells of Interleukin-7, which responded by an inhibitory phosphorylation of GSK3. This signal transduction led to enhanced production of pro-inflammatory cytokines and abolished endotoxin tolerance. In parallel, cellular fitness was reduced as demonstrated by reduced intracellular ATP concentration and intracellular WST-1 staining. Finally, we could identify components of the in vitro signal transduction also in liver cirrhosis patients. However, Interleukin-7 serum concentrations were significantly in liver cirrhosis patients compared to healthy controls. In addition, the frequencies of Interleukin-7 receptor positive immune cell populations differed in patients and controls.
We identify Interleukin-7 as a pro-inflammatory cytokine in hepatic immunoregulation. It is part of a cascade where its induction is regulated by type I and type II Interferons and mainly restricted by the presence of IRF1. We demonstrate the importance of Interleukin-7 also for innate immune cells, where the abolishment of endotoxin tolerance may provide an interesting strategy of liver cirrhosis patients. In addition, reduced viability of macrophages in response to Interleukin-7 is a striking contrast to the well-described survival functions in lymphocytes. The decrease of serum Interleukin-7 levels and alterations of Interleukin-7 receptor positive immune cell populations suggest an important role for Interleukin-7 also in the diseased liver. Due to the identified mechanisms of action, Interleukin-7 may be an interesting candidate for immunotherapeutic approaches of liver cirrhosis and acute-on-chronic liver failure.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
Nach Jakobson (1941) lassen sich in der frühen phonologischen Entwicklung zwei diskrete Phasen unterscheiden. Eine erste Phase, in der vorsprachliche Lalllaute produziert werden und keine phonologischen Kontraste gegeben sind, und eine zweite Phase, die eigentliche Sprachstufe, in der eben diese sprachsystematischen Kontrastbildungen sukzessive ausgebaut werden. Ausgehend von diesem strukturalistischen Paradigma wurden Protowörter, die im Übergang von der Lallphase zur Zielwortproduktion realisiert werden und bei einer relativ stabilen Bedeutungszuweisung keine overte Ähnlichkeit zu Zielwörtern zeigen, entweder als artikulatorische Muster analysiert oder unter der Perspektive der Generativen Grammatik als nicht-phonologische Wortformen gänzlich ignoriert. Im Gegensatz zu diesen tradierten Ansätzen wird in dieser Arbeit ein neuer Ansatz vertreten, nach dem dreidimensionale (mit segmentaler, silbischer und metrischer Ebene) phonologische Repräsentationen ab ovo in der Sprachverarbeitung aktiv sind und sich gemäß der klassischen Kompetenz-Performanz-Unterscheidung in frühen Wortproduktionen auch linguistisch analysieren lassen. Das adäquate Instrumentarium für diese Analyse können gerade nicht zielsprachliche Merkmalskontraste mit bedeutungsunterscheidender Funktion sein, sondern genuin phonologische Kontraste. Zielführend ist hier die Anwendung der Demisilbentheorie von Clements (1990), mit deren Hilfe die phonologische Komplexität von Demisilben nach Maßgabe von Sonorität berechnet werden. Wurde diese Theorie bisher erfolgreich in der Aphasiologie angewendet, wird sie hier erstmals in der Untersuchung der Protowortproduktion, appliziert. Die Daten stammen aus der im Rahmen dieser Arbeit durchgeführten Einzelfallstudie, in der die Spontansprachproduktionen von Kind J., 1;4 Jahre, jeweils einmal wöchentlich für 30 Minuten aufgezeichnet wurden. Die Aufnahmen endeten zu dem Zeitpunkt, als Kind J. keine Protowörter mehr produzierte. Wesentliche Ergebnisse einer linguistisch-qualitativen wie auch einer statistisch-quantitativen Analyse dieser Daten waren, dass Proto- und Zielwortproduktion korrelierten, d.h., bei Abnahme der Protowortproduktion die Zielwortproduktion zunahm; beide Wortklassen tendenziell aus nicht-komplexen Demisilben aufgebaut waren und Protowörter in dem Sinne als Vorläufer von Zielwörtern angesehen werden können, als dass bei ihnen nicht die zielsprachliche Bedeutungszuweisung, sondern die Etablierung phonologischer Repräsentationen maßgeblich ist. Ausgehend von diesen Ergebnissen wird ein differenziertes Schalenmodell der frühen phonologischen Entwicklung vorgestellt, nach welchem der segmentale Merkmalsausbau und seine Integration in die Silbe mittels Sonorität noch vor der metrischen Betonungszuweisung stattfindet. Unter Hinzunahme der Parallelen Architektur von Jackendoff (2002) wird abschließend eine kognitiv-linguistische Definition von Protowörtern gegeben, die nicht zuletzt auch zu diagnostischen Zwecken in der sprachtherapeutischen Praxis gebraucht werden kann.
Heat stress transcription factors (Hsfs) are required for transcriptional changes during heat stress (HS) thereby playing a crucial role in the heat stress response (HSR). The target genes of Hsfs include heat shock proteins (Hsps), other Hsfs and genes involved in protection of the cell from irreversible damages due to exposure to elevated temperatures. Among 27 Hsfs in Solanum lycopersicum, HsfA1a, HsfA2 and HsfB1 constitute a functional triad which regulates important aspects of the HSR. HsfA1a is constitutively expressed and described as the master regulator of stress response and thermotolerance. Activation of HsfA1a under elevated temperatures leads to the induction of HsfA2 and HsfB1 which further stimulate the transcription of HS-responsive genes by forming highly active complexes with HsfA1a. Despite the well-established role of these three Hsfs in tomato HSR, information about functional relevance of other Hsfs is currently missing.
The heat stress inducible HsfA7 belongs alongside with HsfA2 to a phylogenetically distinct clade. Thereby the two proteins share high homology and a functional redundancy has been assumed. However, HsfA7 function and contribution to stress responses have not been investigated into detail in any plant species.
Tomato HsfA7 protein accumulates already at moderately elevated temperatures (~35°C) while HsfA2 becomes dominant at higher temperatures (>40°C). HsfA7 pre-mRNA undergoes complex and temperature-dependent alternative splicing resulting in several transcripts that encode for three protein isoforms. HsfA7-I contains a functional nuclear export signal (NES) and shows nucleocytoplasmic shuttling while HsfA7-II and HsfA7-III have a truncated NES which leads to the strong nuclear retention of the protein. Differences in the nucleocytoplasmic equilibrium have a major impact on the stability of protein isoforms, as nuclear retention is associated with increased protein turnover. Consequently, HsfA7-I shows a higher stability and can be detected even after 24 hours of stress attenuation, while HsfA7-II is rapidly degraded. The degradation of these factors is mediated by the ubiquitin-proteasome pathway.
HsfA7 can physically interact with HsfA1a and HsfA3 and form co-activator (“superactivator”) complexes with a very high transcriptional activity as shown on different HS-inducible promoters. In order for the complex to be successfully transferred to the nucleus and confer its activity it needs a functional nuclear localization signal (NLS) of HsfA7. In contrast, the activator (AHA) motif of HsfA7 is not essential for its co-activator function. Interestingly, while interaction of HsfA7 with either HsfA3 or HsfA1a stabilizes HsfA7 isoforms, concomitantly this leads to an increased turnover of HsfA1a and HsfA3. In contrast, HsfA2 has a stabilizing effect on the master regulator HsfA1a.
Thus, HsfA7 knockout mutants generated by CRISPR/Cas9 gene editing, show increased HsfA1a levels and a stronger induction of HS-related genes at 35°C compared to wild-type plants and HsfA2 knockout mutants. Consequently, HsfA7 knockout seedlings exhibit increased thermotolerance as shown by the enhanced hypocotyl elongation under a prolonged mild stress treatment at 35°C. In summary, these results highlight the importance of HsfA7 in regulation of cellular responses at elevated temperatures. Under moderately elevated temperatures, the accumulation of HsfA7 and its subsequent interaction with HsfA1a, leads to increased turnover of the latter, thereby ensuring a milder transcriptional activation of temperature-responsive genes like Hsps. In turn, in response to further elevated temperatures, HsfA2 becomes the dominant stress-induced Hsf. HsfA2 forms co-activator complexes with HsfA1a which in contrast to HsfA7, allows the stabilization of the master regulator, leading to the stronger expression of HS-responsive genes required for survival. Thereby, this study uncovers a new regulatory mechanism, where the temperature-dependent competitive interaction of HsfA2 and HsfA7 with HsfA1a control the fate of the master regulator and consequently the activity of temperature-responsive networks.
Most of the elements heavier than iron are produced through neutron capture reactions in the s- and r -process. The overall path of the s-process is well understood and can be accurately reproduced in network simulations. However, there are still some neutron capture reactions of unstable nuclei involved in the s-process, which were not yet measured due to the difficulty in producing suitable targets. In those cases, theoretical models have to be used to estimate the missing cross section.
One example is the branching point nucleus 86Rb, whose neutron capture cross section cannot be directly measured due to its short half life of 18.86 days. It is, however, also possible to measure its inverse, the 87Rb(g,n) reaction in order to obtain the 86Rb(n,g) cross section through the principle of detailed balance.
Natural rubidium was irradiated with a quasi-monoenergetic photon beam in the energy range between 10.7 MeV and 16 MeV in order to investigate the photo-dissociation cross section of 87Rb. The results are presented in this thesis. Not only the total cross section of 87Rb(g,n), but also the partial production cross section of the ground and isomeric state of 84Rb through the 85Rb(g,n) reaction was measured.
Not all isotopes can be reached via neutron capture reaction, and are therefore bypassed by the s- and r -process. These 35 proton-rich isotopes are called p-nuclei and are produced in the γ-process by a chain of photo-disintegration reactions in Type II supernovae. Network calculations of Type II supernova show that the γ-process can explain the production of most p-nuclei, but some – especially 92/94Mo and 96/98Ru – are heavily underproduced. While this could be the result of deficiencies in the corresponding stellar models or insufficient knowledge of the involved reaction rates, it is also possible that the missing p-nuclei are synthesized in other production scenarios.
An alternative scenario for 92Mo is the production via a chain of proton capture reactions in Type Ia supernovae. One important reaction in this chain is the 90Zr(p,g) reaction. The reaction cross section was already measured several times, but the results were inconclusive. In the present work, the 90 Zr(p,g) reaction was measured using the in-beam gamma-ray spectroscopy technique and the discrepancies between the data sets could be largely explained.
This thesis investigates whether professionals on the global financial markets, such as investment bankers, traders, and analysts, form a global social class.
Over recent decades, rising inequality has reinvigorated interest in issues of class. Despite the experience of world-wide economic crises demonstrating the global reach of the contemporary economy, the research areas of globalisation and class remain surprisingly disengaged from each other. Especially the question of global class formation remains underexplored.
The first part of this thesis examines why the issue of globalisation remains a niche within research on class. Therefore, the theoretical foundations of the dominant approaches to class are investigated, identifying the causes for the implicit “methodological nationalism” of modern mainstream class analysis in the underlying theories of the economy and social action. Vice-versa, an examination of globalisation theory shows that similar obstacles persist in the theoretical reasoning on inequality from a global perspective, precluding a conceptualisation of global class formation. In dialogue with the few existing approaches to conceptualize class on a global level, a framework for the study of global class formation based on Pierre Bourdieu’s notion of social fields is developed.
In part two of the thesis this framework is employed to examine empirically, whether the global field of finance is currently the source for the formation of a global financial class. The field of finance as the most globalised economic sector is a paradigmatic case for studying the formation of a global class. An interview study on the career trajectories of financial professionals from Frankfurt and Sydney uncovers that despite the legacy of national economic specificities on the institutional level, financial actors draw in their social praxis on global forms of social, cultural, and economic capital and have developed a common culture, worldview, praxis, and habitus, delineating the formation of a global financial class.
Exploring the ability of acoustic infant cry analysis for discriminating developmental pathologies
(2018)
This thesis aims at exploring the ability of acoustic infant cry analysis for discriminating developmental pathologies. Cries of healthy infants as well as cries of infants suffering from cleft lip and palate, hearing impairment, laryngomalacia, asphyxia and brain damage were recorded and acoustically analyzed. The acoustic properties of the infant cries were identified and tested on their suitability to predict the health state of the infants in an reliable, valid and objective way.
To test the reliability of infant cry analysis, Krippendorff’s Alpha coefficient was calculated to test how homogeneous cries of healthy infants as well as cries of infants suffering from various pathologies are.
To asses if valid methods exist for classifying infant cries, different approaches that can be used to differentiate between the groups and to predict the health state of the infants — e.g., analysis of variances, supervised-learning models and auditory discrimination by human listeners — were tested on their validity.
The objectivity of computer-based and human-based classification approaches was explored and techniques to enhance the objectivity for both approaches are proposed.
Computer-based approaches are more objective and reached higher sensitivity and specificity values in their classification to predict the health state of the infants. Especially C5.0 decision trees reached high and therefore promising classification results, even though infant cries have a great statistical spread and can be seen as very heterogeneous and are therefore not very reliable in general.
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
The thesis deals with the analysis and modeling of point processes emerging from different experiments in neuroscience. In particular, the description and detection of different types of variability changes in point processes is of interest.
A non-stationary rate or variance of life times is a well-known problem in the description of point processes like neuronal spike trains and can affect the results of further analyses requiring stationarity. Moreover, non-stationary parameters might also contain important information themselves. The goal of the first part of the thesis is the (further) development of a technique to detect both rate and variance changes that may occur in multiple time scales separately or simultaneously. A two-step procedure building on the multiple filter test (Messer et al., 2014) is used that first tests the null hypothesis of rate homogeneity allowing for an inhomogeneous variance and that estimates change points in the rate if the null hypothesis is rejected. In the second step, the null hypothesis of variance homogeneity is tested and variance change points are estimated. Rate change points are used as input. The main idea is the comparison of estimated variances in adjacent windows of different sizes sliding over the process. To determine the rejection threshold functionals of the Brownian motion are identified as limit processes under the null of variance homogeneity. The non-parametric procedure is not restricted to the case of at most one change point. It is shown in simulation studies that the corresponding test keeps the asymptotic significance level for a wide range of parameters and that the test power is remarkable. The practical applicability of the procedure is underlined by the analysis of neuronal spike trains.
Point processes resulting from experiments on bistable perception are analyzed in the second part of the thesis. Visual illusions allowing for than more possible perception lead to unpredictable changes of perception. In the thesis data from (Schmack et al., 2015) are used. A rotating sphere with switching perceived rotation direction was presented to the participants of the study. The stimulus was presented continuously and intermittently, i.e., with short periods of „blank display“ between the presentation periods. There are remarkable differences in the response patterns between the two types of presentation. During continuous presentation the distribution of dominance times, i.e., the intervals of constant perception, is a right-skewed and unimodal distribution with a mean of about five seconds. In contrast, during intermittent presentation one observes very long, stable dominance times of more than one minute interchanging with very short, unstable dominance times of less than five seconds, i.e., an increase of variability.
The main goal of the second part is to develop a model for the response patterns to bistable perception that builds a bridge between empirical data analysis and mechanistic modeling. Thus, the model should be able to describe both the response patterns to continuous presentation and to intermittent presentation. Moreover, the model should be fittable to typically short experimental data, and the model should allow for neuronal correlates. Current approaches often use detailed assumptions and large parameter sets, which complicate parameter estimation.
First, a Hidden Markov Model is applied. Second, to allow for neuronal correlates, a Hierarchical Brownian Model (HBM) is introduced, where perception is modeled by the competition of two neuronal populations. The activity difference between these two populations is described by a Brownian motion with drift fluctuating between two borders, where each first hitting time causes a perceptual change. To model the response patterns to intermittent presentation a second layer with competing neuronal populations (coding a stable and an unstable state) is assumed. Again, the data are described very well, and the hypothesis that the relative time in the stable state is identical in a group of patients with schizophrenia and a control group is rejected. To sum up, the HBM intends to link empirical data analysis and mechanistic modeling and provides interesting new hypotheses on potential neuronal mechanisms of cognitive phenomena.
Modellierung der klimatischen Habitateignung verschiedener krankheitsübertragender Vektorarten
(2018)
Der Klimawandel hat einen starken Einfluss auf die Verbreitungsgebiete von Arten. Infolgedessen kann sich das Verbreitungsgebiet von Arten verschieben, einschränken oder ausweiten. Bei thermophilen Arten wird vermutet, dass sie von den klimatischen Änderungen profitieren und sie sich wahrscheinlich ausbreiten werden. Eine solche Ausbreitung, wozu auch die Einwanderung von gebietsfremden Arten zählt, hätte nicht nur zahlreiche Konsequenzen für diese Ökosysteme, sondern könnte sich auch zu einem ernsten Gesundheitsrisiko entwickeln, wenn es sich bei den einwandernden Neobiota um Vektorarten handelt.
Stechmücken und Sandmücken, als blutsaugende Insekten, zählen zu den bekanntesten Vektorarten. Sie sind in der Lage, eine Vielzahl von Infektionskrankheiten wie das Denguefieber oder das Gelbfieber, aber auch protozoische Parasiten wie "Leishmania"-Arten zu übertragen. Als thermophile Arten sind viele dieser Vektoren aktuell in ihrer Verbreitung weitgehend auf tropische und subtropische Gebiete beschränkt. Eine Einwanderung in gemäßigtere Gebiete kann zu einer Einschleppung der durch sie übertragenden Erreger führen und damit zum Ausbruch von Infektionskrankheiten. Aufgrund der medizinischen Relevanz dieser Arten ist es essentiell, die räumliche Verbreitung, sowie die abiotischen Ansprüche der Vektorarten zu kennen, um deren mögliche Ausbreitung nachzuvollziehen.
Vor diesem Hintergrund beschäftigte sich die vorliegende kumulative Dissertation mit den klimawandelinduzierten Änderungen der Habitateignung verschiedener medizinisch relevanter Vektorarten. Dabei wurden die zwei invasiven Stechmückenarten "Aedes albopictus" (I-III) und "Aedes japonicus" (III), sowie zehn in Europa bereits vorkommende Sandmückenarten der Gattung "Phlebotomus" (IV), untersucht. Die Arbeit basiert auf vier (ISI-) Publikationen. Unter Verwendung ökologischer Nischenmodellierung wurden geeignete Gebiete unter aktuellen und zukünftigen Klimabedingungen bestimmt. Um dabei sowohl räumliche als auch zeitliche Aspekte zu berücksichtigen, wurden mehrere räumliche Skalen (Deutschland und Europa), sowie Zeitperioden (2030, 2050 und 2070) betrachtet. Des Weiteren wurden verschiedene Ansätze (einzelne Algorithmen und Ensemble-Modelle) zur Modellierung der Habitateignung verwendet.
Die Ergebnisse dieser Dissertation zeigen eine zukünftige klimawandelbedingte Ausweitung der geeigneten Gebiete für viele der betrachteten Vektorarten. So konnte gezeigt werden, dass die Habitateignung für "Aedes albopictus" in Deutschland (I) und in Europa (III) zukünftig deutlich zunimmt. Auch für die Sandmückenarten "Phlebotomus alexandri", "Phlebotomus neglectus", "Phlebotomus papatasi", "Phlebotomus perfiliewi" und "Phlebotomus tobbi" konnte eine deutliche Zunahme der klimatisch geeigneten Gebieten projiziert werden (IV).
Lediglich Arten, wie die Asiatische Buschmücke "Aedes japonicus" (III) und auch kältetolerantere Sandmücken, wie "Phlebotomus ariasi" und "Phlebotomus mascittii" (IV) scheinen weniger von diesen klimatischen Veränderungen zu profitieren und könnten in Zukunft sogar aktuell geeignete Gebiete verlieren (klimawandelinduzierte Arealverkleinerung). Bei "Aedes japonicus" konnte dies auf eine engeren Nische mit einem Optimum bei vergleichsweise niedrigen Temperaturen zurückgeführt werden (III).
Am Beispiel von "Aedes albopictus" wurden ferner Umweltfaktoren identifiziert, die die Verbreitung der Art limitieren (II). Als wärmeliebende Art spielen bei "Aedes albopictus" in Mitteleuropa insbesondere die niedrigen Temperaturen eine Rolle, während in Zukunft die Sommertrockenheit in Südeuropa zunehmend eine Rolle spielen könnte.
Nischenmodellierung stellt trotz ihrer vereinfachenden Annahmen und Unsicherheiten, eine hilfreiche Methode zur Untersuchung klimawandelinduzierter Arealverschiebungen dar. Mit Hilfe der Modellierungsergebnisse konnten Gebiete mit einem hohen Etablierungsrisiko für die Vektorarten identifiziert werden, welche daher im Fokus künftiger Überwachungsprogramme stehen sollten. In Zukunft könnten mehr Vektorarten geeignete Bedingungen in Mitteleuropa finden, wodurch die Vektordiversität zunehmen wird. Dadurch könnte auch das Risiko für einen Ausbruch der durch die Vektoren übertragenen Krankheiten steigen.
Auch wenn das Vorhandensein eines kompetenten Vektors eine unerlässliche Voraussetzung für den Ausbruch einer Infektionskrankheit darstellt, gibt es noch weitere Faktoren, wie das Vorhandensein des Erregers. In Bezug auf die Risikoabschätzung vektorassoziierter Krankheiten sollten neben der Verbreitung des Vektors und des Erregers auch die abiotischen Bedingungen für die Entwicklung des Erregers berücksichtigt werden. Neben neu eingewanderten Arten sollten zudem auch die heimischen Arten in Bezug auf ihre Vektorkompetenz untersucht werden, da diese ebenfalls als potentielle Vektoren dienen und somit das Gesundheitsrisiko weiter erhöhen könnten.
Diese Arbeit beschäftigt sich mit inversen Problemen für partielle Differentialgleichungen. Moderne Lösungsverfahren solcher inversen Probleme müssen die zugehörige partielle Differentialgleichung (PDGL) oft sehr häufig lösen. Mit Hinblick auf die Rechenzeit solcher Verfahren stellt das häufige Lösen der PDGL den Hauptanteil der benötigten Rechenzeit dar. Daraus resultiert die Grundidee dieser Arbeit: es sollen Lösungsverfahren von inversen Problemen beschleunigt werden, indem die für die Vorwärtslösung benötigte Rechenzeit verringert wird. Genauer gesagt soll anstatt der Vorwärtslösung eine Approximation an diese, welche kostengünstig zu berechnen ist, verwendet werden. Für die Bestimmung einer kostengünstigen Annäherung an die Vorwärtslösung wird die Reduzierte Basis Methode, eine Modellreduktionstechnik, verwendet.
Das Ziel der klassischen Reduzierten Basis Methode ist es einen globalen Reduzierte Basis Raum (RB-Raum) zu konstruieren. Dabei handelt es sich um einen niedrigdimensionalen Teilraum des Lösungsraumes der PDGL, welcher für jeden Parameter aus dem Parameterraum eine gute Näherung der PDGL-Lösung liefert. Eine beispielhafte Methode zur Konstruktion eines solchen Raumes ist es, geschickt Parameter auszuwählen und die dazu gehörigen PDGL-Lösungen als Basisvektoren des RB-Raumes zu verwenden. Die orthogonale Projektion der PDGL auf diesen RB-Raum liefert die entsprechenden Reduzierte Basis Lösungen. Das Besondere in dieser Arbeit ist, dass die betrachteten PDGLn einen sehr hochdimensionalen und unbeschränkten Parameterraum besitzen, und es ist bekannt, dass dies für die Reduzierte Basis Methode eine immense Schwierigkeit darstellt.
In Kapitel 1 wird ein schlechtgestelltes inverses Modellproblem, die Rekonstruktion der Wärmeleitfähigkeit eines Gegenstandes aus der Messung der Temperatur desselben, eingeführt und das nichtlineare Landweber-Verfahren als iteratives Regularisierungsverfahren zur Lösung dieses inversen Problems vorgestellt. Die Grundlagen der Reduzierten Basis Methode werden dargelegt und es wird erläutert, warum die klassische Variante der Methode in diesem Kontext der Bildrekonstruktion versagt. Daraufhin wird der neuartig Ansatz, ein adaptiver Reduzierte Basis Ansatz, entwickelt. Die folgenden Schritte bilden die Grundlage dieses adaptiven Reduzierte Basis Ansatzes:
1. Sei ein RB-Raum gegeben, so projiziere den Lösungsalgorithmus des inversen Problems auf diesen RB-Raum.
2. Generiere mit Hilfe dieses projizierten Verfahrens neue Iterierte bis entweder eine Iterierte das inverse Problem löst oder bis der RB-Raum erweitert werden muss.
3. Im ersten Fall wird das Verfahren beendet, im zweiten Fall wird die zur aktuellen Iterierten gehörige Vorwärtslösung verwendet um den RB-Raum zu verbessern. Danach wird mit dem ersten Schritt fortgefahren.
Es wird also nach und nach ein lokal approximierender RB-Raum konstruiert, indem Parameter für neue Basisvektoren mittels einer projizierten Variante des Lösungsalgorithmus des inversen Problems gefunden werden. Das neuartige Reduzierte Basis Landweber-Verfahren ist das Hauptresultat von Kapitel 1, wobei das Verfahren ausführlich numerisch untersucht und mit dem ursprünglichen Landweber-Verfahren verglichen wird.
In Kapitel 2 dieser Arbeit soll der zuvor entwickelte adaptive Reduzierte Basis Ansatz auf ein komplexes und praxisrelevantes Problem angewandt werden. Insbesondere soll die dadurch entstehende neue Methode mit Hinblick auf Konvergenz theoretisch ausführlich untersucht werden. Daher widmet sich der zweite Teil dieser Arbeit dem Problem der Magnet Resonanz Elektrischen Impedanztomographie (MREIT).
Bei der MREIT handelt es sich um ein Bildgebungsverfahren, welches während der letzten drei Jahrzehnte entwickelt wurde. Dabei wird ein Gegenstand, an welchen Elektroden angeheftet sind, in einen Kernspintomographen gelegt und es ist das Ziel des Verfahrens die elektrische Leitfähigkeit des Gegenstandes zu bestimmen. Die dazu benötigten Daten werden folgendermaßen gewonnen: indem Strom an einer der Elektroden angelegt wird, wird ein Stromfluss erzeugt, welcher wiederum eine Änderung der Magnetflussdichte induziert. Diese kann mit Hilfe des Kernspintomographen gemessen werden, wodurch man einen vollen Satz innerer Daten zur Hand hat, sodass hoch aufgelöste Bilder der elektrischen Leitfähigkeit des Gegenstandes rekonstruiert werden können.
Als Lösungsalgorithmus für dieses praxisrelevante Problem wird der bereits bekannte Harmonische Bz Algorithmus vorgestellt. Das Problem und der Algorithmus werden mit Hinblick auf Konvergenz des Verfahrens untersucht und ein Konvergenzresultat, welches die bestehende Konvergenztheorie hin zu einem approximativen Harmonischen Bz Algorithmus erweitert, wird bewiesen. Dabei hängt das Resultat nicht davon ab welche Art von Approximation an die Vorwärtslösung der entsprechenden PDGL im approximativen Harmonischen Bz Algorithmus verwendet wird solange diese einer Regularitäts- und einer Qualitätsbedingung genügt. Damit folgt das zweite Hauptresultat dieser Arbeit: die numerische Konvergenz des Harmonischen Bz Algorithmus. Es soll dabei hervorgehoben werden, dass Konvergenzresultate im Bereich der inversen Probleme (sofern es sie gibt) meistens die Kenntnis der exakten Vorwärtslösung annehmen, sodass keine numerische Konvergenz des zugehörigen Verfahrens folgt (in einer numerischen Implementation wird stets eine Approximation an die Vorwärtslösung verwendet). Somit ist dieses Konvergenzresultat ein Schritt hin zur numerischen Konvergenz anderer Lösungsverfahren von inversen Problemen.
Da das theoretische Resultat von der Art der Approximation nicht abhängt, erhält man ebenfalls die Konvergenz des neuartigen Reduzierte Basis Harmonischen Bz Algorithmus, welcher die Kombination des in Kapitel 1 entwickelten adaptiven Reduzierte Basis Ansatzes und des Harmonischen Bz Algorithmus ist. In einer kurzen numerischen Untersuchung wird festgestellt, dass dieser Reduzierte Basis Harmonische Bz Algorithmus schneller als der Harmonische Bz Algorithmus ist, wobei die Qualität der Rekonstruktion gleichbleibend ist. Somit funktioniert der entwickelte adaptive Reduzierte Basis Ansatz auch angewandt auf dieses komplexe praxisrelevante inverse Problem der MREIT.
Nukleinsäuren besitzen neben der Speicherung und Übertragung der genetischen Information weitere vielfältige Funktionen in einem komplexen und dynamischen Netzwerk von gleichzeitig ablaufenden Prozessen in der Zelle. Die gezielte Kontrolle bestimmter Nukleinsäuren kann helfen, die jeweiligen Prozesse zu studieren oder auch zu manipulieren. Photoaktive Verbindungen, wie photolabile Schutzgruppen oder Photoschalter, sind ideal dazu geeignet die Struktur und Funktion von Nukleinsäuren zu studieren. Photolabile Schutzgruppen werden dazu meistens auf die Nukleobase installiert und stören die Watson-Crick Basenpaarung. Dies verhindert die Ausbildung einer Sekundärstruktur oder die Möglichkeit einen stabilen Doppelstrang zu bilden. Licht ist ein nicht-invasives Trigger-signal und kann mit hoher Orts- und Zeitauflösung angewendet werden, um selektiv die temporär geschützten Nukleinsäuren in der Zelle zu aktivieren.
Das erste Projekt dieser Arbeit ist eine Kooperation mit der Arbeitsgruppe von Prof. Erin Schuman (MPI für Hirnforschung) und beschäftigt sich mit der lichtgesteuerten Regulation der miR-181a Aktivität in hippocampalen Neuronen von Ratten. Die Langzeitpotenzierung (LTP) ist der primäre Mechanismus von synaptischer Plastizität und somit essentiell für Lernen und Gedächtnis. Die langfristige Aufrechterhaltung von LTP erfordert eine gesteigerte (lokale) Proteinbiosynthese, ein Prozess, der noch nicht vollständig aufgeklärt ist. Die miR-181a reguliert die Genexpression von zwei für synaptische Plastizität wichtigen Proteinen, GluA2 und CaMKIIα. Mit einem lichtaktivierbaren AntimiR sollte der Einfluss der miR-181a auf die lokale Proteinsynthese von CaMKIIα und GluA2 untersucht werden. Photolabile Schutzgruppen sollen eine ortsaufgelöste Aktivierung des AntimiRs in den Dendriten ermöglichen. Ein Tracking-Fluorophor sollte die Lokalisierung des AntimiRs und eine gezielte Lichtaktivierung ermöglichen. Die Bindung der miRNA sollte fluoreszent visualisiert werden können, um eine Korrelation zwischen der inhibierten Menge an miR-181a und den neu synthetisierten CaMKIIα-Molekülen zu untersuchen. In diesem Projekt wurden drei Konzepte zur Synthese von lichtregulierbaren AntimiR-Sonden verglichen: Das erste Konzept verwendete eine Thiazolorange-basierte Hybridisierungssonde nach Seitz et al. Allerdings war mit diesem Konzept der Fluoreszenzanstieg zur Visualisierung der Hybridisierung zu gering. Im zweiten Konzept wurde ein dual-Fluorophor markierter Molecular Beacon entwickelt, bei dem die photolabilen Schutzgruppen in der Schleifen-Region die Hybridisierung der miR-181a vor Belichtung verhinderten. Nach Optimierung der Stammlänge, Anzahl und Position der photolabilen Schutzgruppen, sowie Auswahl des idealen Fluorophor-Quencher Paars, konnte nach UV-Bestrahlung in Anwesenheit der miR-181a ein signifikanter Anstieg des Hybridisierungsreporter-Fluorophors gemessen werden. Das dritte Konzept untersuchte lichtaktivierbare Hairpin-Sonden, bei denen ein Gegenstrang (Blockierstrang) über einen photospaltbaren Linker mit dem AntimiR verknüpft wurde. Dabei musste die optimale Länge des Blockierstrangs und die Anzahl der photo-spaltbaren Linker im Blockierstrang ermittelt werden, sodass die miR-181a erst nach Photoaktivierung das AntimiR binden und den Quencher-markierten Strang verdrängen konnte. Die in vitro Experimente vom Arbeitskreis Schuman waren zu dem Zeitpunkt des Einreichens dieser Arbeit noch nicht abgeschlossen. Erste Ergebnisse zeigten, dass der mRNA und Protein-Level von CaMKIIα eines gesamten hippocampalen Neurons durch ein nicht-lichtaktivierbare AntimiR um den Faktor ~1,5 gesteigert werden konnte. Zudem konnte durch die lokale Bestrahlung einer lichtaktivierbaren Hairpin-Sonde die lokale Gen-expression von CaMKIIα in einem Dendriten deutlich gesteigert werden.
Das zweite Projekt dieser Arbeit beschäftigte sich mit der reversiblen Lichtregulation von DNA und RNA durch Azobenzol Photoschalter. Azobenzole eignen sich ideal für die Regulation der Duplexstabilität, denn das planare trans-Azobenzol kann zwischen die Basen interkalieren und somit einen Doppelstrang stabilisieren. UV-Licht überführt das trans-Isomer in das cis-Isomer. Dies ist gewinkelt, benötigt mehr Platz und stört dadurch die Stabilität eines Nukleinsäuredoppelstrangs. Entscheidend für die Effizienz der Regulation der Duplexstabilität ist der Linker, der das Azobenzol mit der Nukleinsäure verknüpft. Während vorangegange Studien von Asanuma et al. unnatürliche Linker (D-Threoninol, tAzo) verwendeten, wurde in dieser Studie das Azobenzol mit der C1‘-Position von (Desoxy-)Ribose C-Nukleoside verknüpft, um Azobenzol (pAzo und mAzo) zu erhalten. Der Riboselinker sollte die helikale Natur der Nukleinsäure optimal nachahmen und möglichst wenig Störung des Ribose-Phosphat-Rückgrats bewirken. Thermische Stabilitätsstudien zeigten, dass UV-Licht induzierte trans-zu-cis Isomerisierung den Schmelzpunkt eines RNA- und DNA-Duplexes um 5,9 und 4,6 °C erniedrigte. Dabei führte der Austausch eines Nukleotids gegen pAzo oder mAzo zu einer effektiveren Regulation der Duplexstabilität als der zusätzliche Einbau eines Azobenzol C-Nukleosids in die Sequenz. Ein Vergleich mit dem in der Literatur etablierten System, tAzo, zeigte, dass pAzo und mAzo teilweise einen stärkeren Duplexdestabilisierungseffekt nach UV-Bestrahlung bewirkten.
...
Personen- und Organisationsmerkmale als Gelingensbedingungen im pädagogischen Vorbereitungsdienst
(2018)
Die vorliegende Arbeit greift die defizitäre empirische Befundlage zur Wahrnehmung der zweiten Ausbildungsphase des Lehrerberufs – dem Referendariat – auf. Sie geht der Frage nach, wie das Belastungserleben der Referendare mit Merkmalen der Person oder Organisation verknüpft ist. Bestehende Forschungsaktivtäten legen ihren Fokus auf die Wahrnehmung erfahrener Lehrkräfte im Beruf. Es fehlt an Studien, die das Erleben im Referendariat diskutieren. Die vorliegende, primär explorativ ausgerichtete Arbeit nimmt diese Ausbildungsphase in den Blick. Die Datenbasis der Arbeit bildet die Evaluationsstudie „Pädagogische Entwicklungsbilanzen an Studienseminaren“ (PEB-Sem), die in Hessen zum Einsatz kam. Es werden Daten von 3808 Referendaren sekundäranalytisch ausgewertet. Da die Beschreibung der Untersuchungsgruppe im Referendariat selbst wenig Vergleichsmöglichkeiten zur Absicherung der Daten bietet, wurde PEB-Sem im Praxissemester bei einer Vergleichsgruppe von Lehramtsstudierenden an der Goethe-Universität eingesetzt.
Personale Merkmale im Umgang mit Belastungen wurden über objektive Aspekte (Alter, Geschlecht, Lehramtsstufe, pädagogische Vorerfahrungen) sowie über Persönlichkeitscharakteristika (Selbstwirksamkeitserwartungen, Resilienz) operationalisiert. Merkmale der Organisation des Vorbereitungsdiensts wurden über Skalen erhoben, welche die Ausbildungsbeziehungen zwischen Referendaren und Ausbildern, Mentoren sowie der Seminarleitung oder die Kohärenz der Ausbildung erfassen.
In den Ergebnissen der Analyse personenbezogener Merkmale zeigt sich, dass vor allem die Resilienz das Belastungserleben der Referendare erklären kann, während die pädagogischen Vorerfahrungen oder die Selbstwirksamkeitserwartungen nur einen geringen Anteil der Belastungswahrnehmung erklären können. Die Belastung in der Ausbildung wird über die Zentralstellung des Leistungsdrucks, der durch die bewerteten Unterrichtsbesuche, Zeitdruck oder auch die Prüfungsbelastung zum Ende der Ausbildung entsteht, maßgeblich bestimmt. Zwischen den Faktoren der Organisation und der Belastungswahrnehmung, wie sie z.B. für die Unterstützung durch die Ausbilder und Mentoren untersucht wurden, konnten nur schwache Zusammenhänge zur Belastung nachgewiesen werden. Die vergleichende Betrachtung von Referendaren und Studierenden im Praxissemester kann Unterschiede im Erleben dieser beiden Ausbildungsabschnitte herausarbeiten. Die berufliche Erfahrung, welche die Referendare den Studierenden voraushaben, wirkt sich, entgegen der Annahme, nicht positiv auf die Belastungswahrnehmung aus: Referendare zeigen sich stärker belastet als Lehramtsstudierende. Bezogen auf die Unterschiede in der Einschätzung der Resilienz sind es wieder die Lehramtsstudierenden, die im Vergleich zu den Referendaren über eine stärkere Widerstandfähigkeit verfügen.
Die vergleichende Betrachtung beider Ausbildungsphasen vermitteln ein besseres Verständnis und eine größere Nähe zum jeweiligen Ausbildungskontext. Die Befunde der Studie deuten auf die Notwendigkeit hin, sich mit Unsicherheiten und Belastungen, die durch die Bewertungssituationen und den Anpassungsdruck an die Erwartungen der Ausbilder und Mentoren entstehen können, stärker zu befassen. An diese Ergebnisse lassen sich Implikationen für die Praxis und mögliche Ansatzpunkte für weitere Forschungsbemühen anschließen.
Entwicklung von Immunisierungsstrategien zur Induktion hoher funktionaler Antikörperantworten
(2018)
Neuartige Viren und Erreger, die sich antigenetisch tiefgreifend von bekannten Varianten unterscheiden, können verheerende Epidemien auslösen, da weder gegen diese Erreger eine Immunität in der Bevölkerung besteht, noch prophylaktische oder therapeutische Maßnahmen verfügbar sind. Eine prophylaktisch vermittelte Immunität durch Impfung stellt die bei Weitem effektivste Methode zur Vorbeugung viraler Infektionen dar, jedoch sind die Entwicklungs- und Herstellungszeiten eines neuen Impfstoffs in der Regel mit der Ausbruchsdynamik nicht kompatibel. Inzwischen steht zwar eine überschaubare Anzahl antiviraler Medikamente zur Verfügung, doch ist die Wahrscheinlichkeit gering, dass diese meist hoch spezifischen Wirkstoffe gegen neu auftretende Viren aktiv sind. Das beispiellose Ausmaß der Ebola-Epidemie 2014 führte zum Einsatz experimenteller antikörperbasierter Therapien, welche das Potential der passiven Vermittlung von temporärem Immunschutz naiver Personen verdeutlicht. Für viele neuartige Viren ist die Entwicklung von Therapieansätzen allerdings noch nicht entsprechend weit fortgeschritten. Zudem bedingt eine Verwendung des eigentlichen Erregers oft hohe Sicherheitsmaßnahmen, was die Arbeit erschwert. Aus diesem Grund werden Notfalltherapien benötigt, die schnell in klinisch relevanter Qualität und Quantität unter niedrigen biologischen Sicherheitsmaßnahmen produziert werden können.
Diese Arbeit basiert auf der zentralen Hypothese, dass die Induktion von hohen Titern funktioneller Antikörperantworten die Basis für einen breiteren Schutz gegen antigenetisch entferntere Virusstämme sowie für die schnelle Produktion von therapeutischen Antiseren darstellt.
Um diese Hypothese zu testen und Einblicke in verschiedene Aspekte dieses Prozesses zu bekommen, wurde zunächst die Nutzung von Adjuvanzien als Zusätze für Impfstoffe am Beispiel des pandemischen A(H1N1)pdm09-Impfstoffs untersucht. Neben den alljährlichen Epidemien, die von saisonalen Influenza-A-Viren der Subtypen H1N1 oder H2N3 verursacht werden, können neuartige Subtypen zu weltweiten Pandemien führen. Während die saisonalen Influenza-Impfstoffe in der Regel keine Adjuvanzien enthalten, wurden einige pandemische H1N1-Impfstoffe aus 2009 mit einem reduzierten Antigengehalt formuliert und mit squalenbasierten Adjuvanzien kombiniert, um eine ausreichende Wirksamkeit bei größerer Verfügbarkeit zu gewährleisten. Zur Charakterisierung des Effekts dieser Adjuvanzien auf die Immunantworten wurden Frettchen mit 2 µg des kommerziellen H1N1pmd09-Impfstoffes alleine sowie in Kombination mit verschiedenen Adjuvanzien immunisiert, die Antikörpertiter gegen homologe und heterologe Influenzastämme untersucht und mit dem Schutz vor einer Infektion korreliert. Dabei zeigte sich, dass die Verwendung squalenbasierter Adjuvanzien die funktionalen Antikörperantworten um das 100-fache erhöhte und zu einer signifikant reduzierten Viruslast nach der Infektion mit dem homologen pandemischen Virus führte. Während in keiner Gruppe Antikörper gegen die heterologen Hämagglutinin-(HA-)Proteine H3, H5, H7 und H9 nachweisbar waren, induzierten mit squalenbasierten Adjuvanzien kombinierte Impfstoffe subtypenspezifische Antikörper gegen das N1 Neuraminidase-(NA-)Protein einschließlich H5N1. Darüber hinaus führte die Immunisierung mit squalenbasierten Adjuvanzien zu einer besseren Kontrolle der Influenzavirus-Replikation in den oberen Atemwegen.
Anschließend wurde im zweiten Teil dieser Arbeit unter Einbeziehung der gewonnenen Erkenntnisse eine Immunisierungsstrategie zur schnellen Produktion therapeutischer Hyper-immunseren entwickelt, wobei unterschiedliche Antigenexpressionssysteme miteinander verglichen wurden. Während in den frühen Stadien eines Ausbruchs Rekonvaleszenzseren nicht ohne weiteres verfügbar sind, können Antiseren tierischen Ursprungs innerhalb eines kurzen Zeitraums hergestellt werden. Die Herausforderung liegt in der schnellen Induktion einer schützenden Immunität, wobei die effiziente Produktion und Reinigung von Hyperimmunserum in klinisch relevanten Mengen ebenso essenziell ist wie die Anpassungsfähigkeit der Immunisierungsstrategie an neue oder hinsichtlich ihrer Antigenizität veränderte Viren. Hierzu wurden verschiedene Immunisierungsstrategien in Mäusen und Kaninchen verglichen, die unterschiedliche Expressionssysteme für das Modellantigen Ebolavirus-Glykoprotein (EBOV-GP) verwenden: (i) Ebolavirus-ähnliche Partikel (VLP), (ii) das rekombinante modifizierte Vacciniavirus Ankara (MVA) sowie (iii) das rekombinante Virus der vesikulären Stomatitis (VSV). Im Ergebnis induzierte eine dreimalige Immunisierung mit VLPs in Kombination mit squalenhaltigem Adjuvans neutralisierende Antikörpertiter, die vergleichbar mit der Immunisierung mit replikationskompetentem VSVΔG/EBOV-GP waren. Dies deutet darauf hin, dass nicht die De-novo-Antigenexpression, sondern vielmehr die mehrfache Präsentation des Antigens in nativer Konformation für die Produktion von neutralisierenden Antikörpern essenziell ist. Darüber hinaus waren die funktionalen Antikörpertiter aller Kaninchenseren in der In-vitro-Analyse gegen das Wildtypvirus 10- bis 100-fach höher als der Durchschnitt, der in mit VSVΔG/EBOV-GP geimpften Probanden beobachtet wurde. Die Etablierung eines optimierten mehrstufigen Reinigungsverfahrens unter Verwendung einer zweistufigen Ammoniumsulfat-Präzipitation, gefolgt von einer Protein-A-Affinitätschromatographie, führte zu aufgereinigten IgG-Präparationen mit nahezu unveränderter neutralisierender Aktivität, die über neun Tage im xenogenen In-vivo-Modell stabil waren. Die signifikante Erhöhung von totalen und funktionalen Antikörpertitern in Kombination mit einer größeren Breite der Antikörperantwort im Kontext von squalenbasierten Adjuvanzien stützt die Hypothese dieser Arbeit. Adjuvantierte Immunisierungsstrategien sind damit ein vielversprechender Ansatz nicht nur zur Wirksamkeitssteigerung von Subunit- und Proteinimpfstoffen, sondern auch zur schnellen Herstellung von therapeutischen Antiseren.
Um molekulare Mechanismen in biologischen Prozessen zu verstehen, ist es unerlässlich biologisch aktive Verbindungen zu kontrollieren. Dabei spielt besonders die Aktivierung bzw. Desaktivierung von Genabschnitten eine zentrale Rolle in der gegenwärtigen chemischen, biologischen und medizinischen Forschung. Nukleinsäuren sind dabei offenkundige Zielmoleküle, da sie die Genexpression auf unterster Ebene regulieren und auf vielfältige Art und Weise an biologischen Prozessen beteiligt sind. Um solch eine genaue Steuerung zu erreichen, werden Nukleinsäuren häufig photolabil modifiziert und unter die Kontrolle von Licht gebracht. Da hochentwickelte Technologien es erlauben Photonen bestimmter Energie unter präziser räumlicher und zeitlicher Auflösung zu dosieren, ist Licht als nicht invasives Triggersignal ein besonders geeignetes Werkzeug um molekulare Prozesse zu kontrollieren.
Die Verwendung photolabiler Schutzgruppen („cage“) ermöglicht es, diese lichtaktivierbaren Nukleinsäuren („caged compound“) herzustellen. Üblicherweise werden Oligonukleotide damit an funktionsbestimmenden Stellen versehen, woraufhin die Funktion der Oligonukleotide unterdrückt wird. Die biologische Aktivität kann durch Bestrahlung mit Licht wieder hergestellt werden, da die photolabile Schutzgruppe durch den Lichtimpuls abgespalten wird. Neben der zeitweiligen Maskierung der Nukleinsäureaktivität existiert auch eine Methode, die als „photoaktivierbarer Strangbruch“ (‘‘caged strand break‘‘) bezeichnet wird. Dabei werden mit Hilfe von photolabilen Linkern (‘‘Verknüpfer‘‘) lichtinduzierte Strangbrüche in Oligonukleotiden ausgelöst, um so beispielsweise die Struktur eines Nukleinsäurestrangs zu zerstören. Die Idee der photoaktivierbaren Strangbrüche ist nicht neu, dennoch werden photolabile Schutzgruppen überwiegend nach der erstgenannten Strategie verwendet. Im Rahmen dieses Promotionsvorhabens wurden neue photosensitive Linkerbausteine für Oligonukleotide entwickelt und hergestellt, welche sich vor allem im Hinblick auf die Anwendbarkeit in lebenden biologischen Systemen von den bisherigen photolabilen Linkern unterscheiden.
Im ersten Projekt wurde ein nicht-nukleosidischer, photolabiler Linker, basierend auf dem Cumaringrundgerüst, entwickelt. Das Ziel war hier, vor allem, einen zweiphotonenaktiven Linker für biologische Anwendungen und Zweiphotonen-Fragestellungen nutzbar zu machen. Bisherige Zweiphotonen-Linker konnten hauptsächlich nur für Proteinverknüpfungen bzw. Neurotransmitter verwendet werden oder mussten chemisch umständlich (z.B. Click-Chemie) und postsynthetisch in Oligonukleotide eingeführt werden. Der neu entwickelte Zweiphotonen-Linker wurde als Phosphoramiditbaustein für die Oligonukelotid-Festphasensynthese synthetisiert, was einen problemlosen und automatisierten Einbau garantiert. Mit einem modifizierten Oligonukleotid konnten die photochemischen Eigenschaften des Linkers bestimmt und mit Hilfe eines fluoreszenzbasierten Verdrängungsassays und Lasertechniken der Zweiphotonen-Effekt visualisiert werden. Dazu wurde ein Hairpin-DNA-Strang hergestellt, welcher eine Linkermodifikation im Bereich der Loopregion enthält. Durch eine Thiolmodifikation am 5‘-Ende des Oligonukleotidstranges war es möglich, diesen in einem Maleimid-funktionalisierten Hydrogel zu fixieren. Ein DNA-Duplex mit einem Fluorophor/Quencherpaar und einer korrespondierenden Sequenz zum modifizierten Hairpin-Strang wurde ebenfalls dem System zugegeben, allerdings wurde dieser nicht fixiert, um Diffusion zu ermöglichen. Durch die räumliche Nähe des Fluorophors zum Quencher konnte im unbelichteten Zustand zunächst keine Fluoreszenz gemessen werden. Mit einem (Femtosekunden-)gepulsten Laser und dem damit verbundenen Bindungsbruch im Hairpin-Strang durch Zweiphotonen-Effekte wurde es dem fluoreszierenden Strang des DNA-Duplex ermöglicht, sich vom Quencher-Strang zu lösen und an den fixierten Strang zu hybridisieren. Das Photolyse-Ereignis konnte so in ein lokales Fluoreszenzsignal übersetzt und detektiert werden.
Der eindeutige Beweis, dass es sich tatsächlich um ein Zweiphotonen-induziertes Ereignis handelt, konnte durch die dreidimensional aufgelöste Photolyse und über die quadratische Anhängigkeit des Fluoreszenzsignals von der eingestrahlten Laserleistung erbracht werden.
Die generelle Kompatibilität des Cumarin-Linkers mit biologischen Systemen konnte in Zellkulturexperimenten gezeigt werden. Dazu wurde eine Transkriptionsfaktor-DNA Decoy-Strategie entwickelt, in der Linker-modifizierte DNA Decoys an regulatorische Transkriptionsfaktoren binden und diese aber auch photochemisch wieder freisetzen können („catch and release-Strategie“). Zellkulturexperimente, um mit dieser Methode das Transkriptionsfaktor-gesteuerte und endogene Gen für Cyclooxygenase-2 (COX2) zu regulieren, lieferten keine aussagekräftigen Ergebnisse. Daher wurden die verwendeten Zellen dahingehend manipuliert, sodass sie das Protein GFP (grün fluoreszierendes Protein) in Abhängigkeit von der Anwesenheit eines Transkriptionsfaktors exprimieren. Das so durch die Zellen verursachte Fluoreszenzsignal steht in direkter Abhängigkeit zur Decoy-Aktivität. Mit Hilfe modifizierter GFP-Decoys konnte hierbei eine Regulation auf Transkriptionsebene in biologischen Organismen erreicht werden. Mit dem Electrophoretic Mobility Shift Assay (EMSA), einer molekularbiologischen in vitro-Analysetechnik, wurden die Interaktionen zwischen modifizierten Decoys und dem Transkriptionsfaktor untersucht.
...
This thesis is concerned with systematic investigations of electronic noise in novel condensed matter systems. Although fluctuations are frequently considered a nuisance, that is, a disturbance limiting the accuracy of scientific measurements, in many cases they can reveal fundamental information about the inherent system dynamics. During the past decades, the study of electronic fluctuations has evolved into an indispensable tool in condensed matter physics.
The focus of the present work lies both in a further development of the fluctuation spectroscopy technique and in the study of materials of current interest. In particular, a comprehensive study of the charge carrier dynamics in the archetypal diluted magnetic semiconductors (Ga,Mn)As and (Ga,Mn)P was performed. In spite of extensive research work carried out during the last years, there still exists no theoretical consensus on the precise mechanism of ferromagnetic order and the electronic structure in these materials. Moreover, disorder and correlation effects complicate the understanding of these compounds.
Fluctuation spectroscopy experiments presented in this work provide strong evidence that a percolation transition is observed in samples with localized charge carriers, since the normalized resistance noise magnitude displays a significant enhancement around the Curie temperature. In addition, this quantity exhibits a power law scaling behavior as a function of the resistance, which is in good agreement with theoretical models of percolating systems.
By contrast, it was found that the resistance noise in metallic samples is mainly dominated by the physics of defects such as manganese interstitials and arsenic antisites. Furthermore, first noise studies were carried out on hafnia- and yttria-based resistive random access memories. In these memristor devices, the rupture and re-formation of oxygen deficient conducting filaments caused by the electric field and Joule heating driven motion of mobile anions lead to an unusual resistance switching behavior. For the first time, comparative noise measurements on oxygen deficient and stoichiometric hafnium oxide devices, as well as on novel yttrium oxide based devices were performed in this work. Finally, new strategies for noise measurements of highly insulating and extremely low-resistive samples were developed and realized. In detail, an experimental setup for the measurements of dielectric polarization fluctuations in insulating systems was designed and successfully tested. Here, the polarization noise of a sample is measured as current or voltage fluctuations produced within a capacitance cell. The study of dielectric polarization noise allows for conclusions to be drawn regarding equilibrium structural dynamics in insulators such as relaxor ferroelectrics. On the other hand, as successfully demonstrated for a heavy-fermion compound, focused ion beam etching enables to introduce a meander-shaped geometry in single crystal platelets, in order to strongly enhance the sample resistance and thus make resistance noise measurements possible. First results indicate a connection of the noise properties with the Kondo effect in the investigated material.
Infections with the hepatitis B virus (HBV) or the hepatitis C virus (HCV) lead to complications like the development of cirrhosis or hepatocellular carcinoma. These complications end up in 887,000 and 500,000 deaths per year, respectively. Since the development of new direct acting antiviral agents for HCV in the past years a complete cure of an HCV infection can be achieved in the majority of the patients. In contrast, a complete cure of a chronic HBV infection still remains a challenging problem as current treatment regimens mainly suppress the viral replication and cccDNA as well as integrated DNA still persist in these patients. Several viral and host factors were described to impair the efficacy of treatment regimens or influence the course of the infection. Therefore, in this work viral factors as well as host factors were investigated in HBeAg negative chronic HBV infected patients and in chronic HCV infected patients. In the present study, it was demonstrated that mutations and/or deletions in the HBV basal core promoter (BCP), the precore and the preS domain occur in a genotype-specifc pattern in HBeAg negative HBV infected patients. While the BCP double mutation A1762T/G1764A was found with the highest prevalence in genotype E infected patients, the precore mutation G1896A occurred mostly in genotype B infected patients. Variants in the preS domain could be detected with the highest frequency in patients infected with genotype C. In patients, who had to start an antiviral therapy during the course of the disease, mutations in the precore region could be detected with a higher frequency in the samples right before treatment start in comparison to the baseline sample.
While different HBV genotypes and preS mutations were not associated with HBV-DNA serum levels, precore mutations as well as BCP mutations were significantly associated with HBV-DNA levels. Furthermore, precore mutations showed lower and preS mutations higher HBsAg levels. The HBsAg serum levels varied significantly among the different genotypes. Since HBsAg levels < 1000 IU/ml have been described as a prognostic marker in several studies, the prevalence of patients with HBsAg < 1000 IU/ml was analyzed among the genotypes A - E. While most of the patients infected with HBV genotype B had HBsAg < 1000 IU/ml, only a few patients infected HBV genotype E and A had HBsAg < 1000 IU/ml.
Furthermore, HBV genotype A genomes derived from patients harboring a) A1762T/ G1764A (BCP), b) G1896A/G1899A (precore), c) 15 aa deletion in preS1, d) no mutation (reference genome) were cloned and analyzed in vitro. An enhanced expression but reduced secretion of viral genomes was found in the preS-deletion- and the precore-variant. No differences in the HBsAg production and secretion were observed in the cloned precore- or BCP-variant, while the preS-deletion-variant was characterized with an elevated HBsAg release.
Regarding the secretion of viral and subviral particles, a genotype-specifc pattern of the L/M/SHBs ratio was detected in the serum of patients infected with genotypes A - E. This pattern did not change in the serum of patients, who started antiviral treatment. Secreted HBsAg containing particles displayed a higher density as well as a higher filaments/spheres ratio in genotypes B and D compared to genotypes A, C and E. Population-based and deep sequencing revealed large deletions in the preS domain or preS2 start codon mutations in a certain number of the viral genomes. Theoretically, these mutations/deletions should influence the molecular weight of the expressed protein or abolish the expression of the protein at all. In contrast, LHBs/MHBs were detectable and appeared at the same molecular weight in these patient samples in comparison to patient samples without these mutations. Furthermore, in the in vitro analyses comparing the reference genome and the preS1-deletion genome, it was shown that the deletion indeed influenced the molecular weight of LHBs. Therefore, HBsAg might be expressed from a genetically different source than the released viral genomes, meaning the integrated DNA.
Additionally, in the present study the prevalence of resistance associated substitutions (RASs) in the viral genes NS3, NS5A and NS5B of chronic HCV infected patients was analyzed in correlation to single nucleotide polymorphisms (SNPs) in the interferon-λ4 (IFNL4) gene of the infected patients. No significant correlation was found between IFNL4 SNPs and RASs within NS3/NS5B in the present cohort. In contrast, the frequently detected NS5A RAS Y93H could be significantly associated with beneficial IFNL4 SNPs and a high baseline viral load in HCV genotype 1-infected patients.
Taken together, the present study demonstrated that viral genome mutations as well as the morphology of secreted particles occur in a genotype-dependent pattern in HBeAg negative HBV infected patients with no need of antiviral therapy. As the amount of serum qHBsAg levels varied among the different genotypes, the HBsAg cut-off < 1000 IU/ml should be adapted individually among the various genotypes. Because the composition of the secreted subviral particles varied between the different genotypes, a genotype-specific immune-response might be induced in these patients. Additionally, the results of the present study indicate that in HBeAg negative HBV infected patients with mutations or deletions in the preS domain MHBs and LHBs might be expressed from the integrated DNA and therefore from a genetically different source than the released viral genomes.
Aside from that, the finding of a significant association of the NS5A RAS Y93H with beneficial IFNL4 SNPs in chronic HCV infected patients may explain a lack of a correlation or an inverse correlation of treatment response with the IFNL4 genotype in some NS5A inhibitor-containing IFN-free regimens.
The results of this thesis lie in the area of convex algebraic geometry, which is the intersection of real algebraic geometry, convex geometry, and optimization.
We study sums of nonnegative circuit polynomials (SONC) and their related cone, both geometrically and in application to polynomial optimization. SONC polynomials are certain sparse polynomials having a special structure in terms of their Newton polytopes and supports, and serve as a certificate of nonnegativity for real polynomials, which is independent of sums of squares.
The first part of this thesis is dedicated to the convex geometric study of the SONC cone. As main results we show that the SONC cone is full-dimensional in the cone of nonnegative polynomials, we exactly determine the number of zeros of a nonnegative circuit polynomial, and we give a complete and explicit characterization of the number of zeros of SONC polynomials and forms. Moreover, we provide a first approach to the study of the exposed faces of the SONC cone and their dimensions.
In the second part of the thesis we use SONC polynomials to tackle constrained polynomial optimization problems (CPOPs).
As a first step, we derive a lower bound for the optimal value of CPOP based on SONC polynomials by using a single convex optimization program, which is a geometric program (GP) under certain assumptions. GPs are a special type of convex optimization problems and can be solved in polynomial time. We test the new method experimentally and provide examples comparing our new SONC/GP approach with Lasserre's relaxation, a common approach for tackling CPOPs, which approximates nonnegative polynomials via sums of squares and semidefinite programming (SDP). The new approach comes with the benefit that in practice GPs can be solved significantly faster than SDPs. Furthermore, increasing the degree of a given problem has almost no effect on the runtime of the new program, which is in sharp contrast to SDPs.
As a second step, we establish a hierarchy of efficiently computable lower bounds converging to the optimal value of CPOP based on SONC polynomials. For a given degree each bound is computable by a relative entropy program. This program is also a convex optimization program, which is more general than a geometric program, but still efficiently solvable via interior point methods.
Im Rahmen dieser Arbeit wurden sRNAs des halophilen Archaeons Haloferax volcanii hinsichtlich ihrer biologischen und ihrer regulatorischen Funktion charakterisiert.
Um einen Überblick über die biologischen Funktionen archaealer sRNAs zu erhalten, wurde eine umfassende phänotypische Charakterisierung von 27 sRNA-Deletionsmutanten im Vergleich zum Wildtyp ausgewertet. Im Zuge dieser phänotypischen Charakterisierungen wurden zehn verschiedene Wachstumsbedingungen, morphologische Unterschiede und Veränderungen in der Zellmotilität untersucht. Hierbei zeigten nahezu alle Deletionsmutanten unter mindestens einer der getesteten Bedingungen phänotypische Unterschiede. Durch den Verlust von sRNAs wurden sowohl sogenannte Gain-of-function als auch Loss-of-function Phänotypen beobachtet. Haloarchaeale sRNAs spielen eine wichtige Rolle beim Wachstum mit verschiedenen Salzkonzentrationen, mit verschiedenen Kohlenstoffquellen und beim Schwärmverhalten, sind jedoch weniger in die Adaptation an diverse Stressbedingungen involviert.
Zur näheren Charakterisierung der regulatorischen Funktion archaealer sRNAs wurden sRNA362, sRNAhtsf468 und sRNA479 mittels molekulargenetischer Methoden wie Northern Blot-Analyse und DNA-Mikroarray sowie bioinformatischer in silico-Analyse untersucht. Das Expressionslevel von sRNA362 konnte bestimmt und potentielle Zielgene für sRNAhtsf468 und sRNA479 identifiziert werden.
Eine vorangegangene Studie zeigte den Einfluss von sRNA30 unter Hitzestress und führte zur Identifikation differentiell produzierter Proteine in Abwesenheit der sRNA. In dieser Arbeit wurde mittels Northern Blot-Analysen die Expression der sRNA30 charakterisiert. Das Wachstum in An- und Abwesenheit von sRNA30 wurde bei 42°C und 51°C phänotypisch charakterisiert und der regulatorische Einfluss der sRNA auf die mRNA differentiell regulierter Proteine durch Northern Blot-Analyse überprüft. Eine Transkriptomanalyse mittels DNA-Mikroarray nach Hitzeschock-Induktion führte zur Identifikation differentiell regulierter Gene involviert in Transportprozesse, Metabolismus, Transkriptionsregulation und die Expression anderer sRNAs. Die differentielle Regulation des Proteoms nach Hitzeschockinduktion in An- und Abwesenheit von sRNA30 konnte bestätigt werden.
Desweiteren wurde in dieser Arbeit sRNA132 und deren phosphatabhängige Regulation der Ziel-mRNA HVO_A0477-80 näher charakterisiert. Eine Induktionskinetik nach Phosphatentzug bestätigte die Bedeutung von sRNA132 für die verstärkte Expression des Operons HVO_A0477-80 unter Phosphatmangel-Bedingungen und verwies auf die Existenz weiterer Regulationsmechanismen. Während vor und nach Phosphatentzug kein Unterschied bezüglich der Zellmorphologie von Wildtyp und Deletionsmutante zu erkennen war, führte das Wachstum mit einem starken Phosphatüberschuss von 5 mM zu einer Zellverlängerung der Deletionsmutante. Die Kompetition der nativen 3‘-UTR des Operons HVO_A0477-80 mit einer Vektor-kodierten artifiziellen 3‘-UTR legt eine Regulation über die Bindung von sRNA132 an die 3‘-UTR nahe. Der Transkriptomvergleich nach Phosphatentzug in An- und Abwesenheit von sRNA132 führte zur Identifikation des Phosphoregulons der sRNA. Zu diesem Phosphoregulon gehören unter anderem zwei Glycerinphosphat-Dehydrogenasen, Transkriptionsregulatoren, eine Polyphosphatkinase und eine Glycerolphosphodiesterase. Zudem waren die Transkriptlevel der beiden ABC-Transporter HVO_A0477-80 und HVO_2375-8 für anorganisches Phosphat und des Transporters HVO_B0292-5 für Glycerinaldehyd-3-Phosphat in Abwesenheit der sRNA verringert. Die beiden ABC-Transportsysteme für anorganisches Phosphat wurden im Rahmen dieser Arbeit deletiert und weiter charakterisiert. Es konnte gezeigt werden, dass das ABC-Transportsystem HVO_2375-8 bei geringen Phosphatkonzentrationen leicht induziert wird und das Transkriptlevel in Anwesenheit von sRNA132 erhöht ist. Wachstumsversuche der jeweiligen Deletionsmutante in direkter Konkurrenz mit dem Wildtyp zeigten, dass keiner der beiden ABC-Transporter den anderen vollständig ersetzen kann und der Wildtyp mit beiden intakten ABC-Transportern unter phosphatlimitierenden Bedingungen einen Wachstumsvorteil besitzt. In silico-Analysen der Promotorbereiche von sRNA und ABC-Transporter legen zudem die Existenz von P-Boxen nahe.
Crystal growth and characterization of cerium- and ytterbium-based quantum critical materials
(2018)
In der Festkörperphysik werden heutzutage Themen wie Supraleitung, Magnetismus und Quantenkritikalität sowohl von experimenteller als auch von theoretischer Seite stark untersucht. Quantenkritikalität und Quantenphasenübergänge können in Systemen erforscht werden, für welche ein Kontroll Parameter existiert, durch den z.B. eine magnetische Ordnung soweit unterdrückt wird, bis der Phasenübergang bei Null Kelvin, bei einem quantenkritischen Punkt (QCP), stattfindet. Vorzugsweise wird quantenkritisches Verhalten an Einkristallen untersucht, da diese in sehr reiner Qualität gezüchtet werden können und da deren gemessenen physikalischen Eigenschaften ausschließlich intrinsisch sind und nicht durch Verunreinigungseffekte überlagert werden. Der Schwerpunkt dieser Arbeit lag auf der Züchtung von Einkristallen und der Charakterisierung von Materialien, die quantenkritische Phänomene aufweisen. Als Ausgangsstoffe dienten dabei Elemente höchstmöglicher Reinheit. Es wurden die Serie YbNi4(P1-xAsx)2 mit einem ferromagnetischen QCP bei x=0,1, die Verbindung YbRh2Si2 mit einem feldinduzierten QCP bei Bcrit = 60mT und die Serie Ce(Ru1-xFex)PO mit einem QCP bei x = 0,86 untersucht. Für alle Verbindungen wurde das Züchtungsverfahren entwickelt, dann wurden Einkristalle gezüchtet und charakterisiert. Die Züchtung wurde zum einen mittels der Bridgman-Methode, zum anderen mit der Czochralski Methode durchgeführt. Neben struktureller und chemischer Charakterisierung der Einkristalle mittels Röntgen-Pulverdiffraktometrie, Laue-Methode und Energie-dispersiver Röntgen-Spektroskopie, wurden auch deren spezifische Wärme, elektrischer Widerstand und Magnetisierung im Temperaturbereich 1,8 – 300 K untersucht. Im weiteren Verlauf wurden die Kristalle in verschiedenen Kooperationen untersucht und bis in den Tieftemperatur- Bereich (20 mK), bei YbRh2Si2 bis in den Submillikelvin-Bereich, charakterisiert. Ausserdem wurden im Rahmen dieser Dissertation Einkristalle weiterer antiferromagnetischer Verbindungen SmRh2Si2, GdRh2Si2, GdIr2Si2, HoRh2Si2 und HoIr2Si2 gezüchtet. Bei diesen Verbindungen stand die Untersuchung elektronischer Oberflächenzustände mittels winkelaufgelöster Photoemissionsspektroskopie im Vordergrund.
Die Forschungsarbeit leistet einen kriminologischen Beitrag zur Systematisierung des Phänomens der sekundären Viktimisierung bei Opfern sexualisierter Gewalt und zeigt gleichzeitig Präventionsansätze auf, die sekundäre Viktimisierung verhindern sollen.
„Sekundäre Viktimisierung“ als die sogenannte „zweite Opferwerdung“ durch soziale Fehlreaktionen einzelner Personen oder gesellschaftlicher Gruppen sowie die Prävention dieses Phänomens ist im Detail noch wenig erforscht. Der Fokus des Forschungs- und Erkenntnisinteresses richtet sich auf die Zielgruppe der Opfer sexualisierter Gewalt, die in ihrer Kindheit sexuell missbraucht und als Erwachsene sekundär viktimisiert wurden. Es wird angenommen, dass Sexualstraftaten, die von den Opfern im Kindesalter erlitten werden, in besonderem Maße die persönliche Unversehrtheit verletzen und dass somit eine zusätzliche sekundäre Viktimisierung als besonders belastend empfunden wird.
Zunächst wird im theoretischen Teil auf wesentliche Begriffe wie sexualisierte Gewalt in Verbindung mit primärer und sekundärer Viktimisierung eingegangen und nimmt deren kriminologische Einordnung vor, stellt das Ausmaß sowie die Spezifika des Phänomens in den Fokus. Dabei wird zunächst der Opferbegriff ausführlich diskutiert, wobei der Opferperspektive viel Raum gegeben wird. Ein weiterer Schwerpunkt liegt auf der Darstellung des aktuellen Forschungsstandes zur sekundären Viktimisierung, insbesondere mit Bezug zu sexualisierter Gewalt.
Im Zentrum des qualitativen Forschungsansatzes stehen folgende Fragen: „Welche Strukturen prägen die Situationen sekundärer Viktimisierung?“ und „Wie ist Prävention von sekundärer Viktimisierung möglich?“. Auf der Grundlage der Forschungsergebnisse wurde ein Präventionskonzept mit praxisorientierten Empfehlungen entwickelt. Zunächst sind typische Strukturen sekundärer Viktimisierung analysiert und in einem Modell verdeutlicht worden. Es ist zu unterscheiden zwischen Strukturen, die sekundäre Viktimisierung begünstigen (Risikofaktoren) sowie Strukturen, die sekundärer Viktimisierung vorbeugen (Schutzfaktoren). Anhand der identifizierten Schutzfaktoren entstand das Modell zur Prävention sekundärer Viktimisierung, aus denen konkrete Präventionsansätze abzuleiten sind.
Hervorgehoben wird die kriminologische Orientierung der Arbeit; wenngleich die Kriminologie interdisziplinär einzuordnen ist, dominiert bei der Analyse die kriminalsoziologische Verortung und speziell die viktimologische Ausrichtung.
Die vorliegende Dissertation beschäftigt sich mit der moderierenden Rolle der Elaboriertheit des sportbezogenen Selbstaspekts auf die Verarbeitung selbstrelevanter Informationen im Sport.
Im ersten Kapitel werden aus einer übergeordneten Perspektive heraus zunächst die beiden im Mittelpunkt der Dissertation stehenden Konstrukte Selbst und Identität in einen historischen Kontext gesetzt und begrifflich umrissen. Im Anschluss werden verschiedene Modelle des Selbst vorgestellt. Dabei wird aufgezeigt, dass insbesondere in der sportpsychologischen Forschung bislang eher Inhalte und weniger Strukturen und Prozesse des Selbstkonzepts im Mittelpunkt standen. In der vorliegenden Dissertation wird das Selbst bzw. die Identität als komplexes, dynamisches System aufgefasst, das sowohl die Informationsverarbeitung beeinflusst als auch durch Prozesse der Informationsverarbeitung beeinflusst wird. Im Anschluss stehen Theorien der Selbstwerterhöhung und der Selbstkonsistenz im Mittelpunkt, deren Vertreter unterschiedliche Vorhersagen für die Verarbeitung konsistenter und von der eigenen Selbsteinschätzung positiv abweichender Rückmeldungen postulieren: Während Selbstwerterhöhungstheorien eine Präferenz für positives Feedback vorhersagen, bevorzugen Personen laut Selbstkonsistenztheorien solches Feedback, das mit ihrer eigenen Selbsteinschätzung übereinstimmt. Anschließend werden mit der Art der Reaktion (affektiv vs. kognitiv) und der Elaboriertheit des betroffenen Selbstaspekts zwei Variablen vorgestellt, die moderieren, ob die Informationsverarbeitung eher konsistenztheoretischen (kognitive Reaktion, hohe Elaboriertheit) oder selbstwerterhöhenden (affektive Reaktion, geringe Elaboriertheit) Vorhersagen folgt.
Ausführlicher werden dann mit dem Exercise Self-Schema und der Exercise Identity zwei sportbezogene Konstrukte vorgestellt, die zur Operationalisierung der Elaboriertheit des entsprechenden Selbstaspekts genutzt werden können. Hierbei wird sowohl auf die Messung als auch auf den empirischen Forschungsstand eingegangen und es wird dargestellt, dass die beiden Konstrukte zwar unterschiedlichen theoretischen Denklinien entstammen, auf operationaler Ebene aber weitgehend austauschbar sind.
Das zweite Kapitel enthält einen Überblick über die drei durchgeführten quantitativen empirischen Studien. Studie 1 (N = 530) beschreibt die Übersetzung und Validierung der Exercise Identity Scale ins Deutsche. Dabei wird neben den beiden in der Literatur diskutierten Ein- und Zwei-Faktor-Modellen auch ein Bifaktor-Modell als mögliche Alternative geprüft. Zusätzlich wird die Invarianz der Skala über die Zeit (Abstand: 14 Tage) mit einer Teilstichprobe, die Invarianz zwischen Männern und Frauen mit der Gesamtstichprobe sowie die konvergente Validität über Korrelationen mit verwandten Konstrukten getestet.
Die Studien 2 und 3 widmen sich der eigentlichen Forschungsfrage nach der moderierenden Wirkung der Elaboriertheit auf die Verarbeitung von sportbezogenem selbstrelevantem Feedback. In Studie 2 (Onlinestudie) wird die Elaboriertheit über das Exercise Self-Schema operationalisiert (N = 472). In dieser Studie zeigt sich, dass Personen – unabhängig davon, ob sie ein Selbstschema im Bereich sportlichen Trainings aufweisen oder nicht – Feedback, das von ihrer eigenen Selbsteinschätzung positiv abweicht, gegenüber mit ihrer Selbsteinschätzung übereinstimmendem (konsistentem) Feedback vorziehen. In Studie 3 (Laborstudie, N = 215) werden einige Limitationen der Onlinestudie adressiert, indem u. a. das fingierte Feedback nach einem objektiveren (physiologischen) Test gegeben und die Elaboriertheit mithilfe der kontinuierlichen Exercise Identity Scale gemessen wird. Auch hier zeigt sich die vermutete moderierende Wirkung der Exercise Identity nicht: Bei der affektiven Reaktion dominiert das Selbstwerterhöhungsmotiv; bei der kognitiven zeigt sich zwar ein kleiner Effekt, der allerdings erwartungswidrig ausfällt (Personen mit geringerer Exercise Identity bevorzugten konsistentes gegenüber positivem Feedback). In beiden Studien zeigt sich darüber hinaus ein moderierender Effekt der Elaboriertheit des sportbezogenen Selbstaspekts hinsichtlich des zur Kontrolle mit in das Versuchsdesign einbezogenen negativen Feedbacks.
Im dritten Kapitel wird eine Gesamtdiskussion der Ergebnisse aus einer übergeordneten Perspektive vorgenommen. Die Befunde werden in den bisherigen empirischen Forschungsstand eingeordnet und es werden Grenzen der durchgeführten Studien diskutiert. Implikationen für zukünftige Forschung werden u. a. im Hinblick auf eine Verbindung zwischen der grundlagenorientierten kognitiv-motivationalen Perspektive der vorliegenden Arbeit und einer eher anwendungsorientierten Perspektive im Sinne der Förderung einer Bindung an sportliche Aktivität diskutiert.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine ‚Schutzfunktion‘ vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste.
Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
The enzyme acetyl-CoA carboxylase (ACC) plays a fundamental role in the fatty acid metabolism. It regulates the first and rate limiting step in the biosynthesis of fatty acids by catalyzing the carboxylation of acetyl-CoA to malonyl-CoA and exists as two different isoforms, ACC1 and ACC2. In the last few years, ACC has been reported as an attractive drug target for treating different diseases, such as insulin resistance, hepatic steatosis, dyslipidemia, obesity, metabolic syndrome and nonalcoholic fatty liver disease. An altered fatty acid metabolism is also associated with cancer cell proliferation. In general, the inhibition of ACC provides two possibilities to regulate the fatty acid metabolism: It blocks the de novo lipogenesis in lipogenic tissues and stimulates the mitochondrial fatty acid β-oxidation. Surprisingly, the role of ACC in human vascular endothelial cells has been neglected so far. This work aimed to investigate the role of the ACC/fatty acid metabolism in regulating important endothelial cell functions like proliferation, migration and tube formation.
To investigate the function of ACC, the ACC-inhibitor soraphen A as well as an siRNA-based approach were used. This study revealed that ACC1 is the predominant isoform both in human umbilical vein endothelial cells (HUVECs) and in human dermal microvascular endothelial cells (HMECs). Inhibition of ACC via soraphen A resulted in decreased levels of malonyl-CoA and shifted the lipid composition of endothelial cell membranes. Consequently, membrane fluidity, filopodia formation and the migratory capacity were attenuated. Increasing amounts of longer acyl chains within the phospholipid subgroup phosphatidylcholine (PC) were suggested to overcompensate the shift towards shorter acyl chains within phosphatidylglycerol (PG), which resulted in a dominating effect on regulating the membrane fluidity. Most importantly, this work provided a link between changes in the phospholipid composition and altered endothelial cell migration. The antimigratory effect of soraphen A was linked to a reduced amount of PG and to an increased amount of polyunsaturated fatty acids (PUFAs) within the phospholipid cell membrane. This link was unknown in the literature so far. Interestingly, a reduced filopodia formation was observed upon ACC inhibition via soraphen A, which presumably caused the impaired migratory capacity.
This work revealed a relationship between ACC/fatty acid metabolism, membrane lipid composition and endothelial cell migration. The natural compound soraphen A emerged as a valuable chemical tool to analyze the role of ACC/fatty acid metabolism in regulating important endothelial cell functions. Furthermore, regulating endothelial cell migration via ACC inhibition promises beneficial therapeutic perspectives for the treatment of cell migration-related disorders, such as ischemia reperfusion injury, diabetic angiopathy, macular degeneration, rheumatoid arthritis, wound healing defects and cancer.
Quantum chromodynamics (QCD) is the theory of the strong interaction between quarks and gluons. Due to Confinement, at lower energies quarks and gluons are bound into colorless states called hadrons. QCD is also asymptotically free, i.e. at large energies or densities it enters a deconfined state, termed quark-gluon plasma (QGP), where quarks and gluons are quasi-free. This transition occurs at an energy scale around 200 MeV where QCD cannot be treated perturbatively. Instead it can be formulated on a space-time grid. The resulting theory, lattice quantum chromodynamics (LQCD), can be simulated efficiently on high performance parallel-computing clusters. In recent years graphic processing units (GPUs), which outperform CPUs in terms of parallel-computing and memory bandwidth capabilities, became very popular for LQCD computations. In this work the QCD deconfinement transition is studied using CL2QCD, a LQCD application that runs efficiently on GPUs. Furthermore, CL2QCD is extended by a Rational Hybrid Monte Carlo algorithm for Wilson fermions to allow for simulations of an odd number of quark flavors.
Due to the sign-problem LQCD simulations are restricted to zero or very small baryon densities, where, in the limit of infinite quark mass QCD has a first order deconfinement phase transition associated to the breaking of the global centre symmetry. Including dynamical quarks breaks this symmetry explicitly. Lowering their mass weakens the first order transition until it terminates in a second order Z2 point. Beyond this point the transition is merely an analytic crossover. As the lattice spacing is decreased, the reduction of discretization errors causes the region of first order transitions to expand towards lower masses. In this work the deconfinement critical point with 2 and 3 flavors of standard Wilson fermions is studied. To this end several kappa values are simulated on temporal lattice extents 6,8,10 (4) for two flavors (three flavors) and various aspect ratios (spatial lattice extent / temporal lattice extent) so as to extrapolate to the thermodynamic limit, applying finite size scaling. For two flavors an estimate is done if and when a continuum extrapolation is possible.
The chiral and deconfinement phase transitions at zero density for light and heavy quarks, respectively, have analytic continuations to purely imaginary chemical potential, where no sign-problem exists and LQCD simulations can be applied. At some critical value of the imaginary chemical potential, the transitions meet the endpoint of the Roberge-Weiss transition between adjacent Z3 sectors. For light and heavy quarks the transition lines meet in a triple point, while for intermediate masses they meet in a second order point. At the boundary between these regimes the junction is a tricritical point, as shown in studies with two and three flavors of staggered and Wilson quarks on lattices with a temporal lattice extent of 4. Employing finite size scaling the nature of this point as a function of the quark mass is studied in this work for two flavors of Wilson fermions with a temporal lattice extent of 6. Of particular interest is the change of the location of tricritical points compared to an earlier study on lattices with temporal extent of 4.
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
Powerful environment perception systems are a fundamental prerequisite for the successful deployment of intelligent vehicles, from advanced driver assistance systems to self-driving cars. Arguably the most essential task of such systems is the reliable detection and localization of obstacles in order to avoid collisions. Two particularly challenging scenarios in this context are represented by small, unexpected obstacles on the road ahead, and by potentially dynamic objects observed from a large distance. Both scenarios become exceedingly critical when the ego-vehicle is traveling at high speed. As a consequence, two major requirements placed on environment perception systems are the capability of (a) high-sensitivity generic object detection and (b) high-accuracy obstacle distance estimation. The present thesis addresses both requirements by proposing novel approaches based on stereo vision for spatial perception.
First, this work presents a novel method for the detection of small, generic obstacles and objects at long range directly from stereo imagery. The detection is based on sound statistical tests using local geometric criteria which are applicable to both static and moving objects. The approach is not limited to predefined sets of semantic object classes and does not rely on restrictive assumptions on the environment, such as oversimplified global ground surface models. Free-space and obstacle hypotheses are evaluated based on a statistical model of the input image data in order to avoid a loss of sensitivity through intermediate processing steps. In addition to the detection result, the algorithm simultaneously yields refined estimates of object distances, originating from an implicit optimization of the geometric obstacle hypothesis models. The proposed detection system provides multiple flexible output representations, ranging from 3D obstacle point clouds to compact mid-level obstacle segments to bounding box representations of object instances suitable for model-based tracking. The core algorithm concept lends itself to massive parallelization and can be implemented efficiently on dedicated hardware. Real-time execution is demonstrated on a test vehicle in real-world traffic. For a thorough quantitative evaluation of the detection performance, two dedicated datasets are employed, covering small and hard-to-detect obstacles in urban environments as well as distant dynamic objects in highway driving scenarios. The proposed system is shown to significantly outperform current general purpose obstacle detection approaches in both setups, providing a considerable increase in detection range while reducing the false positive rate at the same time.
Second, this work considers the high-accuracy estimation of object distances from stereo vision, particularly at long range. Several new methods for optimizing the stereo-based distance estimates of detected objects are proposed and compared to state-of-the-art concepts. A comprehensive statistical evaluation is performed on an extensive dedicated dataset, establishing reference values for the accuracy limits actually achievable in practice. Notably, the refined distance estimates implicitly provided by the proposed obstacle detection system are shown to yield highly accurate results, on par with the top-performing dedicated stereo matching algorithms considered in the analysis.
Ziel der Arbeit ist es, den frühen Zweitspracherwerb bei Kinder mit einer Spezifischen Sprachentwicklungsstörung (specific language impairment, SLI) zu charakterisieren. Im Vergleich zwischen sprachunauffälligen Kindern mit Deutsch als Zweitsprache (DaZ-TD) und und sprachauffälligen Kindern (DaZ-SLI) wird für die morpho-syntaktischen Bereiche Finitheit und Verbstellung sowie Kasus untersucht, anhand welcher Entwicklungsmuster sich zwischen einem unauffälligen und einem auffälligen DaZ-Erwerb unterscheiden lässt. Dabei werden die folgenden übergeordneten Fragen (F) beantwortet. (F1) Gibt es Unterschiede in Bezug auf Fehlerarten und -häufigkeiten zwischen DaZ-TD und DaZ-SLI Kindern? (F2) Gibt es persistierende Defizite bei DaZ-SLI Kindern verglichen mit DaZ-TD Kindern?
Untersucht wurden über einen Zeitraum von zwei Jahren 33 DaZ-Kinder, elf davon mit einer SLI. Zu Beginn der Erhebungen waren die DaZ-TD Kinder im Durchschnitt 3;8 Jahre alt und hatten 11 KM zum Deutschen. Die DaZ-SLI waren zu MZP 1 durchschnittlich 7;1 Jahre alt (45 KM). Zu insgesamt vier MZP wurden elizitierte Produktionsdaten mittels des standardisierten Verfahrens LiSe-DaZ (Schulz & Tracy 2011) erhoben. Sowohl die Methode der elizitierten Produktion als auch die längsschnittlichen Analysen einer großen Gruppe von Kindern mit DaZ erlaubten es, Aussagen über das Erwerbsalter bzw. persistierende Defizite und Entwicklungsmuster, insbesondere bei SLI, zu treffen. Entwicklungsverzögerungen (delay) und ggf. vom DaZ-TD Erwerb abweichende Entwicklungsmuster (deviance) wurden abgebildet.
Mit der Beantwortung der Fragen leistet die Arbeit in zweierlei Hinsicht einen Beitrag. Erstens wird mit Blick auf die Spracherwerbsforschung gezeigt, dass DaZ-SLI Kinder entwicklungsverzögert sind und sowohl ø-Stämme in V2 als auch Schwierigkeiten im Erwerb von Dativ in Präpositionalphrasen auf eine SLI bei Kindern mit DaZ hinweisen. Zweitens wird aus Sicht der Linguistik dafür argumentiert, dass zum einen ø-Stämme in V2 kovert finit sind und zum anderen in Modellen der Kasuszuweisung von einer dreigliedrigen Struktur, also einer Unterscheidung zwischen strukturellem, lexikalischem und inhärentem Kasus, ausgegangen werden muss.
Die Arbeit knüpft an damit an verschiedene Erwerbsstudien an. Hinsichtlich des Erwerbs von Finitheit und Verbstellung war bisher ungeklärt, ob auch die DaZ-SLI Kinder zwischen en-Infinitiven und ø-Stämmen hinsichtlich der jeweiligen Position im Satz unterscheiden, wie bereits für den DaZ-TD Erwerb nachgewiesen. Die vorliegende Studie wies dieses Erwerbsmuster auch für den DaZ-SLI Erwerb nach und schließt sich damit bisherigen Studien hinsichtlich kovert finiter ø-Stämme in V2 an. Studien zum Kasuserwerb bei DaZ, die auf den linguistisch relevanten Unterschied in der Kasuszuweisung, d.h. strukturell vs. nicht-strukturell (inhärent und lexikalisch), eingehen, gab es nur wenige. Die Frage, ob in der Kasustheorie von einem zwei- oder dreigliedrigen Modell ausgegangen werden muss, war neben der Frage nach möglicherweise abweichenden Erwerbsmustern und persistierenden Erwerbsschwierigkeiten bei DaZ-SLI bislang ungeklärt. In der vorliegenden Studie wurde gezeigt, dass DaZ-SLI Kinder verglichen mit DaZ-TD Kindern ähnliche Fehlermuster zeigen, aber insbesondere der Dativ in PPs stark verzögert erworben wird. Die Studie schließt den Ergebnissen zum simultan bilingualen Erwerb an und postuliert ein dreigliedriges Kasussystem.
Insgesamt zeigt die vorliegende Studie erstmals anhand elizitierter Längsschnittdaten, dass DaZ-SLI Kinder bis ins Schulalter persistierende Probleme im Erwerb von Finitheit und Verbstellung sowie Kasus haben. Verglichen mit DaZ-TD Kindern erwerben sie diese Bereiche - wenn überhaupt - deutlich verzögert (delay). In den Fehlertypen unterscheiden sich die beiden Erwerbstypen hingegen nicht (deviance).
Licht ist ein wertvolles Werkzeug zur Regulation biochemischer Reaktionsabläufe. Denn die Applikation von Licht erlaubt eine sehr präzise Einflussnahme auf den Ort und den Startzeitpunkt der zu untersuchenden Reaktionen. Als nichtinvasives Medium bietet die Lichtkontrolle bei der Wahl einer geeigneten Anregungswellenlänge den Vorteil nur minimal in einen lebenden Organismus einzugreifen. Um eine solche lichtbasierte Kontrolle für biologische Anwendungen zu realisieren, ist die Anwesenheit einer lichtsensitiven Verbindung nötig. Ein Konzept der lichtsensitiven Verbindungen ist die sogenannte photolabile Schutzgruppe. Im Allgemeinen handelt es sich hierbei um einen Chromophor der temporär an ein Biomolekül angebracht wurde, um dessen biologische Aktivität zu unterdrücken.
In dieser Arbeit wurde dieses Konzept auf das Antibiotikum Puromycin angewendet, welches durch das synthetische Anbringen der Cumarin-Schutzgruppe DEACM in seiner biologischen Aktivität behindert und durch einen Lichtpuls wieder freigesetzt wurde. DEACM st eine photolabile Schutzgruppe mit breitem Anwendungsspektrum, da es im Vergleich zu anderen Cumarin-Derivaten vorteilhafte photophysikalische Eigenschaften aufweist. Zum einen ist durch den 7-Diethylamino-Substituenten das Absorptionsmaximum dieser Verbindung um etwa 20 nm bathochrom verschoben. Zum anderen zeichnet sich dieses Derivat durch einen erheblich erhöhten Extinktionskoeffizienten aus, sodass eine Freisetzungsreaktion mit einer geringeren Lichtdosis induziert werden kann, was weniger Stress für die Zellen in lebenden Systemen bedeutet.
Die antibiotische Wirkung von Puromycin beruht auf der strukturellen Ähnlichkeit zum5'-Ende von Tyrosyl-tRNA, wodurch sich das Antibiotikum kondonunspezifisch während der Translation der Proteinsynthese an das Ribosom anlagern kann. Anschließend wird die naszierende Polypeptidkette auf das Puromycin transferiert. Da diese neue Bindung unter biologischen Bedingungen nicht spaltbar ist, führt dies zu einer verfrühten Freisetzung des Polypeptid-Puromycin-Fragments. Schließlich ist die Proteinsynthese vollständig abgebrochen.
Die Motivation zur photoinduzierten Kontrolle von Puromycin besteht in der Vielzahl an biologischen Applikationsmöglichkeiten, da die lichtregulierte Freisetzung der biologischen Aktivität als Trigger für sich anschließende biochemische Abläufe verwendet werden kann. Durch das hier gezeigte System kann in Kombination mit anderen Techniken (z.B. NMR) die posttranslationale Proteinfaltung beobachtet werden, welche als hochgradig komplexer Prozess bisher nicht verstanden ist. Eine weitere Motivationsgrundlage ist die Anwendung von DEACM-puromycin in Nervenzellen. Hier kann durch die Photofreisetzung die Proteinsynthese in den Dendriten der Neuronen beobachtet werden, wodurch Rückschlüsse auf neurodegenerative Krankheiten möglich sein sollten, wie z.B. Alzheimer-Krankheit. In dieser Arbeit konnte in-vitro nachgewiesen werden, dass die antibiotische Wirkung von Puromycin mittels Licht kontrollierbar ist. Aus der photophysikalischen Grundcharakterisierung ging hervor, dass DEACM-puromycin einen hohen Extinktionskoeffizienten bei Wellenlängen größer als 380 nm aufweist. Folglich kann zur Induktion der Photolyse eine geringere Lichtdosis mit energiearmer Strahlung als bei dem Vorläufersystem NVOC-puromycin verwendet werden, angesichts dessen ist das hier vorgestellte DEACM-puromycin für Anwendungen in Zellen zu empfehlen.
Über die Kombination von quantenchemischen Rechnungen und spektroskopischen Methoden konnten die frühen Schritte der Freisetzungsreaktion bestimmt und quantifiziert werden. Zudem zeigte sich ein Einfluss der Lösungsmittelzusammensetzung auf die Uncaging-Schritte. In Gegenwart eines protischen Lösungsmittels wird der zum Uncaging in Konkurrenz stehende Prozess der Fluoreszenz unterdrückt, wodurch die Freisetzungsschritte effektiver werden. Zudem führt die Präsenz von Protonen zu einer Stabilisierung des ionischen Intermediates, sodass die Bildung dessen beschleunigt ablaufen kann. Die Spaltung der photolabilen Schutzgruppen vom Puromycin findet mit einer Rate von 0,71*10^8 s-1 statt, welche im Vergleich zu Vorgängersystem um eine Größenordnung größer ist. Die Wiederherstellung der biologischen Aktivität resultiert aber erst nach einem anschließenden Decarboxylierungsschritt. Mithilfe von IR-Messungen konnte die Decarboxylierung beobachtet und daraus die Quantenausbeute zu 2,5% determiniert werden. Die so bestimmte Quantenausbeute entspricht etwa dem Zweifachen von NVOC-puromycin, sodass die hier untersuchte Verbindung eindeutig als das effizientere System zu betrachten ist. Die hier beschriebenen Ergebnisse zeigen, dass DEACM-puromycin vorteilhafte photophysikalische Eigenschafen aufweist, die diese Verbindung zu einem wertvollen Hilfsmittel für eine Vielzahl von lichtkontrollierten Untersuchungen in biologischer Umgebung macht. Zudem wurden Einblicke in den Reaktionsmechanismus gegeben, die das Verständnis der photolytischen Spaltung von Carbamat-geschützten Cumarinen erstmals auf der ultrakurzen Zeitskala ermöglicht.
In this thesis we introduce the imaginary projection of (multivariate) polynomials as the projection of their variety onto its imaginary part, I(f) = { Im(z_1, ... , z_n) : f(z_1, ... , z_n) = 0 }. This induces a geometric viewpoint to stability, since a polynomial f is stable if and only if its imaginary projection does not intersect the positive orthant. Accordingly, the thesis is mainly motivated by the theory of stable polynomials.
Interested in the number and structure of components of the complement of imaginary projections, we show as a key result that there are only finitely many components which are all convex. This offers a connection to the theory of amoebas and coamoebas as well as to the theory of hyperbolic polynomials.
For hyperbolic polynomials, we show that hyperbolicity cones coincide with components of the complement of imaginary projections, which provides a strong structural relationship between these two sets. Based on this, we prove a tight upper bound for the number of hyperbolicity cones and, respectively, for the number of components of the complement in the case of homogeneous polynomials. Beside this, we investigate various aspects of imaginary projections and compute imaginary projections of several classes explicitly.
Finally, we initiate the study of a conic generalization of stability by considering polynomials whose roots have no imaginary part in the interior of a given real, n-dimensional, proper cone K. This appears to be very natural, since many statements known for univariate and multivariate stable polynomials can be transferred to the conic situation, like the Hermite-Biehler Theorem and the Hermite-Kakeya-Obreschkoff Theorem. When considering K to be the cone of positive semidefinite matrices, we prove a criterion for conic stability of determinantal polynomials.
The endoplasmic-reticulum-associated protein degradation pathway ensures quality control of newly synthesized soluble and membrane proteins of the secretory pathway. Proteins failing to fold into their native structure are processed in a multistep process and finally ubiquitinated and degraded by the proteasome in order to protect the cell from proteotoxic stress. My thesis covers structural as well as functional studies of various protein components that constitute the protein complexes that are responsible for this process.
One sub-project addressed the mechanism of glycan recognition by Yos9 as part of the ERAD substrate selection. NMR solution structures of the mannose-6-phosphate homology (MRH) domain of Yos9 both in a free and glycan bound conformation reveal a gripping movement of loop regions upon binding of correctly processed glycan structures.
The main projects focused on revealing the mechanism of efficient ubiquitin chain assembly by the ERAD ubiquitination machinery. This included the investigation of the role of the ERAD components Cue1 and Ubc7 in processive ubiquitin chain formation, how ubiquitin chain conformations change during elongation, how the conformation of a chain is impacted by interacting proteins and finally understand the activity regulation of the ERAD E2 enzyme Ubc7 by its cognate RING E3 ligases. Nuclear magnetic resonance (NMR) analysis and fluorescence-based ubiquitination assays show that the CUE domain of Cue1 contributes with its proximal binding preference as well as with its position dependent accelerating effect to efficient ubiquitin chain formation. This is required to efficiently drive degradation of substrates. Specific ubiquitin binding events dictate and coordinate the spatial arrangement of the E2 enzyme relative to the distal tip of a chain. This process can be further accelerated by RING E3 ligases that promote Ubc7 activity by more than ~20 fold via inducing allosteric changes around the catalytic cysteine. My results additionally suggest a model where Ubc7 dimerization results in proximity induced activation of the E2. This data ensures rapid diubiquitin formation that is followed by a CUE domain assisted chain elongation mechanism where Cue1 acts in an E4 like fashion.
How ubiquitin binding events can modulate the conformations of a ubiquitin chain were investigated by pulsed electron-electron double resonance (PELDOR) spectroscopy combined with molecular modeling. This shows that K48-linked diubiquitin samples a broad conformational space which can be modulated in distinct ways. The CUE domain of Cue1 uses conformational selection of pre-populated open conformations to support ubiquitin chain elongation. In contrast, deubiquitinating enzymes shift the conformational distribution to weakly or even non-populated conformations to allow cleavage of the isopeptide bond that connects adjacent ubiquitins. Ubiquitin chain elongation increases the sampled conformational space and suggests that this high conformational flexibility might contribute to efficient proteasomal recognition.
Für das bessere Verständnis der Nukleosynthese der schweren Elemente im s-Prozess wurde im Rahmen dieser Arbeit die Messung zur Bestimmung der Neutroneneinfangsreaktion von 83Kr durchgeführt. Als Messinstrument wurde DANCE am LANL verwendet, ein 4pi-Kalorimeter zur Detektion der entstehenden g-Kaskaden bei (n,g)-Reaktionen. Darüber hinaus wurden außerdem noch Proben mit 85Kr und 86Kr vermessen.
Die Herausforderung an diesem Experiment bestand vor allem in der Probenherstellung. Das Edelgas Kr erforderte eine Neukonstruktion der normalerweise bei DANCE verwendeten Probenhalterung. Das Hauptaugenmerk lag auf der Maximierung der Kr-Exposition durch den Neutronenstrahl. Im Gegenzug wurde versucht das umgebende Material nach Möglichkeit keinen Neutronen auszusetzen. Für die Isotope 83,86Kr wurden Hochdruckgaskugeln verwendet, die an der Goethe-Universität Frankfurt gefüllt und in eine der neuen Probenhalterungen eingesetzt wurden. Zur Beachtung des bei der Messung entstehenden Untergrundes wurde eine Messung mit baugleicher Probenhalterung und leerer Gaskugel durchgeführt. Da bereits kleine Mengen 85Kr eine hohe Radioaktivität aufweisen, wurde eine in einen Stahlzylinder eingeschweißte, existierende Quelle verwendet.
Bei der Analyse zu 86Kr wurde schnell eine zu starke Verunreinigung der Kr-Probe mit Xe offensichtlich, einen signifikanten Anteil des Spektrums ausmachte. Aus diesem Grund kam es vor allem zu Problemen den korrekten Untergrund von den 86Kr Messdaten zu subtrahieren. Die weitere Bestimmung inklusive Streukorrekturen, Normierung anhand des Flussmonitors und DICEBOX/GEANT3 Effizienzbestimmung lieferte zwar einen energieabhängigen Wirkungsquerschnitt, dieser zeigte allerdings große Abweichungen von den evaluierten ENDF/B-VII.1 Daten, was besonders ersichtlich in der deutlichsten 86Kr Resonanz bei 5515 eV zu erkennen war. Aus diesem Grund konnte aus den Messdaten kein MACS extrahiert werden.
Bei einer Untersuchung der Aktivität der 85Kr-Probe mit Hilfe der einzelnen BaF2-Detektoren in der DANCE Kugel zeigte sich zunächst eine um fast einen Faktor vier geringere Aktivität als vom Hersteller angegeben. Auch bei der weiteren Analyse traten massive Untergrundprobleme auf. Die Form des Stahlzylinders, in dem das Kr-Gasgemisch eingeschweißt war, konnte aufgrund seiner Form nur schwer im Strahlrohr untergebracht werden. Beim Experiment selbst zeigte sich dann, dass Teile der Halterung vom Neutronenstrahl getroffen wurden, was einen Untergrund mit sehr hohem Q-Wert erzeugte, der nicht durch ein Esum Fenster entfernt werden konnte. Durch eine Beschädigung der Halterung mit der Probe kam es darüber hinaus zu Abweichungen mit der verwendeten Leerhalterung. All das führte trotz einer langen Messzeit von fast 18 d dazu, dass nur ein sehr schwaches Signal von der eigentlichen Kr-Probe zu erkennen war. Es wurde eine mögliche 85Kr Resonanz bei 675 eV gefunden, allerdings ist die endgültige Zuordnung aufgrund der nicht eindeutigen Untergrundsituation äußerst schwierig. Im Vorfeld des Kr-Experimentes wurde eine Messung von RbCl an DANCE durchgeführt, da ursprünglich zu erwarten war, dass bereits ein Teil des 85Kr zu 85Rb zerfallen war. Durch diese Messung sollte dieser Anteil leicht von der späteren Messung zu subtrahieren sein. Allerdings trat ein unerwartetes Problem während der Datenaufnahme auf. Die Verbindung der DAQ Boards wurde getrennt, wodurch ca. 3/4 der Detektoren nicht mehr zeitsynchron liefen. Im Zuge dieser Arbeit wurde eine Rekonstruktion dieser Daten angestrebt. Durch Modifikationen am FARE Code, der zur Auswertung verwendet wurde, konnte Flugzeitspektren für jeden Beschleunigerpuls erzeugt werden. Es zeigte sich zunächst ein offensichtlicher Trend einer Verschiebung der getrennten Boards zu späteren Zeiten. Durch mehrere Fits an die Abweichungsverteilung und anschließende Korrektur konnte zunächst ein Spektrum wiederhergestellt werden, das vergleichbar mit den unbeschädigten Daten war. Bei einer detaillierten Analyse dieser neu gewonnen Daten zeigte sich jedoch eine Nichtlinearität in der Zeitverschiebung. Dies resultierte letztlich in einer Korrektur des Spektrums, allerdings nicht in einem Koinzidenzfenster von 10 ns, das für eine Wirkungsquerschnittsanalyse notwendig ist. Es wurde geschlussfolgert, dass durch die geringe Statistik in den einzelnen Flugzeitspektren solch eine Genauigkeit nicht zu erreichen ist.
Die Messung des Neutroneneinfangsquerschnitts von 83Kr konnte im Zuge dieser Arbeit erfolgreich durchgeführt werden. Es wurden zwei Messungen mit verschiedenen Strömen kombiniert. Eine Messung mit 40 µA wurde durchgeführt, um Pile-Up in der größten Resonanz bei 28 eV zu reduzieren. Die zweite Messung diente dann dem Sammeln von ausreichend Statistik in den nicht resonanten Bereichen. Die eingesetzte Leerkugel erlaubte eine saubere Subtraktion des Untergrundes von Probenhalterung, Gaskugel und Umgebung. Für die Skalierung der Messergebnisse wurde eine weitere Messung mit einer 5000 Å dicken Goldfolie durchgeführt. Zur Bestimmung der Detektoreffizienz konnten zunächst die durch den Neutroneneinfang entstandenen Abregungskaskaden der 84Kr Kerne mit DICEBOX modelliert werden. Diese Kaskaden wurden dann anschließend in GEANT3 Simulationen verwendet, um die Effizienz bestimmen zu können. Mit diesen Methoden erhielt man die Maxwell-gemittelten Wirkungsquerschnitte von kT = 5 keV - 100 keV. Bei der für den s-Prozess wichtigen Temperatur von kT = 30 keV wurde der Querschnitt bestimmt zu: MACS (30 keV) = (256,6 +- 14,2 (stat) +- 18,1(sys)) mb.
Dieser Wert ist in guter Übereinstimmung mit dem in der KADoNIS v0.3 Datenbank angegebenen Wert von MACS;KADoNIS (30 keV) = (243 +- 15) mb. Mit den so gewonnenen Wirkungsquerschnitten wurden außerdem die Reaktionsraten berechnet. Bei den anschließenden Netzwerkrechnungen mit dem Programm NETZ wurden die Auswirkungen der in dieser Arbeit gewonnenen Wirkungsquerschnitte im Vergleich zu den KADoNIS v0.3 Werten betrachtet. Dabei zeigte sich eine leicht erhöhte Produktion der stabilen Isotope 84Kr, 86Kr, 85Rb und 87Rb, sowie eine leichte Unterproduktion der stabilen Isotope 86-88Sr in der Hauptkomponente des s-Prozess. Ein ähnliches Bild zeigte sich in der He-Brennphase der schwachen Komponente. Der in dieser Arbeit gemessene Wirkungsquerschnitt bei hohen Temperaturen ist geringer als der in KADoNIS v0.3 angegebene, weswegen es bei der Simulation mit NETZ zu einer stark erhöhten Produktion von 83Kr in der C-Brennphase kommt.
Compact objects - black holes and neutron stars - are fascinating objects, not only for the astrophysicists, but for a wide range of researchers, including astronomers, theoretical physicists, particle and nuclear physicists, condensed matter physicists and arguably for the layman as well.
First theorized in the first part of the twentieth century, for a long time these objects have been considered just exotic ideas or mathematical curiosities. Pulsar were however detected in the late 1960s and readily identified as rotating, radiating neutron stars, while the first candidate black hole, Cygnus X-1, was observed in 1972. Since then the interest in these objects has steadily grown.
The reasons behind this interest are easily understood considering that compact object dwell at the intersection of many different areas of physics, and are ideal laboratories to explore the interplay between these areas.
Black holes, which are purely gravitational objects, are perfectly suited to study the nature of gravity, its manifestations such as gravitational waves, and the differences between various theories of gravity in the regime where they are expected to be most relevant, i.e. the strong field regime. However, just like any massive astrophysical object, black holes are interested by accretion phenomena, which are thought to be the power source of some very bright astrophysical emitters of electromagnetic signals, such as active galactic nuclei or X-ray binaries.
At the same time, black holes exist in a variety of different mass scales, from stellar mass to supermassive black holes billions of times heavier. The latter play a very important and yet not fully understood role in the formation and evolution of galaxies, as well as in shaping the large scale structure of the universe, making them relevant to cosmology as well.
Neutron stars share with black holes the characteristic of being gravitationally dominated systems; but because they are composed of baryon matter, they display a much richer behaviour. It has been realized early on that the matter in neutron star cores reaches extreme densities, exceeding the one in atomic nuclei. This means that neutron stars could provide invaluable information on the behaviour of matter in such extreme conditions (which are impossible to achieve in laboratory experiments), such as details of the nucleonic interaction, the properties of hyperons or of quark-gluon plasmas.
...
The mission of the Compressed Baryonic Matter (CBM) experiment is to investigate the phase diagram of strongly interacting matter in the region of high net-baryon densities and moderate temperatures. According to various transport models, matter densities of more than 5 times saturation density can be reached in collisions between gold nuclei at beam energies between 5 and 11 GeV per nucleon, which will be available at FAIR. The core detector of the CBM experiment is the Silicon Tracking System (STS), which is used to measure the tracks of up to 700 particles per collision with high efficiency (>95%) and good momentum resolution (<1.5%). The technological and experimental challenge is to realize a detector system with very low material budget, in order to reduce multiple scattering of the particles, and a free-streaming data readout chain, in order to achieve reaction rates up to 10 MHz together with an online event reconstruction and selection.
The STS comprises 8 tracking stations positioned between 30 cm and 100 cm downstream the target inside a magnetic field, covering polar emission angles up to 25 degrees. A station consists of vertical structures with increasing number (between 8 and 16, depending on station number), each structure carrying between 2 and 10 double-sided microstrip silicon sensors, which are connected through low-mass microcables to the readout electronics placed at the detector periphery outside the active detector area.
The work presented in this thesis focuses on the detector performance simulation and local hit pattern reconstruction in the STS. For efficient detector design and reconstruction performance, a reliable detector response model is of utmost importance. Within this work, a realistic detector response model was designed and implemented in the CBM software framework. The model includes non-uniform energy loss of an incident particle within a sensor, electric field of a planar p-n junction, Lorentz shift of the charge carriers, their diffusion, and the influence of parasitic capacitances. The developed model has been verified with experimental data from detector tests in a relativistic proton beam. Cluster size distributions at different beam incident angles are sensitive to charge sharing effects and were chosen as an observable for the verification. Taking into account parasitic capacitances further improves the agreement with measured data.
Using the developed detector response model, the cluster position finding algorithm was improved. For two-strip clusters, a new, unbiased algorithm has been developed, which gives smaller residuals than the Centre-Of-Gravity algorithm. For larger clusters, the head-tail algorithm is used as the default one. For an estimate of the track parameters, the Kalman Filter based track fit requires not only hit positions but their uncertainties as an input. A new analytic method to estimate the hit position errors has been designed in this work. It requires as input neither measured spatial resolution nor information about an incident particle track. The method includes all the sources of uncertainties independently, namely: the cluster position finding algorithm itself, the non-uniform energy loss of incident particles, the electronics noise, and the discretisation of charge in the readout chip.
The verification with simulations shows improvements in hit and track pull distributions as well as x²-distributions in comparison to the previous simple approach. The analytic method improves the track parameters reconstruction by 5-10%.
Several STS module prototypes have been tested in a relativistic proton beam. A signal to-noise ratio was obtained at the level of 10-15 for modules made of 30 cm long microcable and of either one or two 6.2 x 6.2 cm² CiS sensors.
First simulations have shown that this signal-to-noise ratio is sufficient to reach the required efficiency and momentum resolution. The high-radiation environment of CBM operation will deteriorate the sensor performance. Radiation hardness of sensors has been studied in the beam with sensors irradiated to 2 x 10[hoch 14] 1MeV [neq/cm²], twice the lifetime dose expected for CBM operation. Charge collection efficiency drops by 17-25%, and simultaneously noise levels increase 1.5-1.75 times. The simulations show that if all sensors in the STS setup are exposed to such a fluence uniformly, the track reconstruction efficiency drops from 95.5% to 93.2% and the momentum resolution degrades from 1.6% to 1.7%.
Im ersten Projekt der vorliegenden Arbeit wurden CD - 1 Mäuse mit drei unterschiedlichen Diäten für zwei Wochen ad libitum gefüttert. Die Diäten bestanden aus zwei kohlenhydratarmen, fettreichen Diäten und einer Standard Haltungsdiät. Die kohlenhydratarmen, fettreichen Diäten enthielten entweder Triheptanoin (dreifach mit Heptanoat verestertes Glycerol) oder Soja - Öl als Fettkomponente (jeweils 35 % der Gesamtkalorien). Nach zwei Wochen wurde ein ischämischer Schlaganfall für 90 min. mithilfe eines Silikonfadens induziert. Die Leber, das Blut und das Gehirn wurden nach dem Schlaganfall entnommen und die Konzentrationen der Metabolite β - Hydroxybutyrat, Glukose, Laktat und Citrat wurden mit der zuvor etablierten GC - MS-Methode ermittelt. Unter gleichen Bedingungen wurde eine Mikrodialysestudie durchgeführt.
Bei den Tieren, die die kohlenhydratarmen, fettreichen Diäten erhielten, konnte in den Leber - und Hirnhomogenaten, im Plasma sowie im Mikrodialysat eine Ketose festgestellt werden. Die BHB Konzentrationen durch eine Soja Diät erreichten im Leberhomogenat bis zu 4 mM, im Plasma bis zu 1,5 mM, im Hirnhomogenat bis zu 1,5 mM und im Mikrodialysat bis zu 30 µM. Um eine Aussage treffen zu können, ob das Gehirn die von der Leber produzierten Ketonkörper als Energiesubstrate nutzen kann, wurde eine Folgestudie (unter gleichen Bedingungen) durchgeführt. Bei dieser Studie wurde der Zeitpunkt der Gewebeentnahme 60 min. nach Entfernen des Fadens (Reperfusion) gewählt. In den Leber – und Hirnhomogenaten konnten erniedrigte Konzentrationen des Ketonkörpers BHB nachgewiesen werden. Die nicht operierten Tiere, die eine fettreiche Diät erhielten, hatten erhöhte Konzentrationen an Citrat in den genannten Geweben. Durch den Abbau des Ketonkörpers BHB können bei Verstoffwechslung in Geweben außerhalb der Leber, zwei Moleküle Acetyl - CoA gebildet werden. Diese gebildeten Acetyl - CoA Moleküle können in den Citratzyklus eingespeist werden.
Um diesen Befund mechanistisch besser verstehen zu können, wurde den Mäusen Propranolol (ein unselektiver β - Blocker) verabreicht, und zwar kurz nachdem der Faden die mittlere Zerebralarterie verschlossen hatte. Als Folge blieb bei den fettreich gefütterten Tieren die zuvor beobachtete Ketose, aus. Daraus wurde geschlossen, dass die auftretende Ketose bei den fettreich gefütterten Tieren durch adrenerge β - Rezeptoren vermittelt wurde. Zusammengefasst kann eine fettreiche bzw. ketogene Ernährung im Falle einer Ischämie die Versorgung des Gehirns durch die Bildung von Ketonkörper gewährleisten.
Die zu beobachtende hepatische Ketogenese aus dem ersten Projekt hat die Frage entstehen lassen, ob eine akute Gabe von β - Hydroxybutyrat (BHB) bei Entfernen des Fadens schützende Effekte auf das Verhalten bzw. die Mitochondrien als Kraftwerke der Zelle hat. Hierzu wurde BHB bei Reperfusion gegeben und die Wirkungen dieser Einmalgabe nach 24 h untersucht. Als erster Schritt wurde der Nachweis erbracht, dass eine exogene Gabe von BHB das Gehirn erreicht. Im zweiten Schritt wurde das Verhalten der Mäuse nach 24 h untersucht. Hierbei erbrachte die Gabe von BHB eine signifikante Verbesserung der sensorischen und motorischen Fähigkeiten der Mäuse. Die metabolischen Veränderungen nach 24 h wurden erneut in Leberhomogenaten und Plasma vermessen. Eine Einzelgabe von BHB bewirkte eine milde Ketose auch 24 h nach Reperfusion der mittleren Zerebralarterie. Um eine detailliertere Erkenntnis über die Wirkung von BHB zu erlangen, wurden die Mitochondrien als potentielles Ziel für BHB in den Fokus genommen. Die Einmalgabe von BHB verhinderte ein Absinken der Komplex – II Aktivität. Außerdem kann die Aktivität der Citratsynthase unter der Gabe von BHB erhalten werden, sodass die Mitochondrien vor allem im wichtigen Zeitraum nach der Reperfusion geschützt werden. Im Rahmen der Untersuchungen der Mitochondrien wurden unterschiedliche Substrateinflüsse auf die Respiration der isolierten Mitochondrien getestet. Bei Zugabe von BHB, Oxalacetat + Acetat oder Citrat zu dem Respirationsmedium stieg die Respiration der Mitochondrien an. Im Falle von Glukose, Propranolol oder Acetat wird die Respiration verringert. Bei Zugabe von Laktat, verbleibt die Respiration auf Ausgangsniveau. Abschließend ist festzustellen, dass die Einzelgabe von BHB nach 24 h das Verhalten der Mäuse verbessert, eine milde Ketose induziert, sowie Mitochondrien und die Citratsynthase gegen ischämische Ereignisse schützt.
Um die in dieser Arbeit gezeigten Daten über metabolische Veränderungen zeigen zu können, musste eine vorherige Etablierung der GC – MS Analytik vollzogen werden. Auf der einen Seite musste die Probenvorbereitung, aber auch die gesamte Vermessung der Proben aufgebaut werden. Es wurden insgesamt 11 Analyte in vier unterschiedlichen Kompartimenten quantifiziert. Die Nachweisgrenze lag bei diesen 11 Analyten bei 0,01 - 1 ng/µl, was einer umgerechneten Stoffmengenkonzentration von 0,5 - 10 µM entspricht. Mithilfe dieser Methode können optional weitere Substanzen aus verschiedenen Geweben zugänglich gemacht werden. Diese Arbeit bietet hierzu eine Anleitung, wie die Etablierung erfolgen kann. Im Rahmen der Probenvorbereitung wurden alle Schritte systematisch verbessert. Dazu wurden Wiederholungsmessungen für unterschiedliche Modalitäten vollzogen. Die Abundance und die Zeitbeständigkeit waren die wesentlichen Beurteilungskriterien. So wurden die Daten für die Extraktionseffektivität, die Lösungsmittelabhängigkeit der Silylierung, der Zusatz von Hünig - Base sowie die Temperatur und Zeitabhängigkeit der Silylierung in dieser Arbeit erarbeitet. Die Quantifizierung wurde anhand von internen Standardverbindungen durchgeführt. Die jeweiligen Response – Faktoren blieben über die gesamte Zeit nach der Etablierung konstant und erlaubten die Quantifizierung mit geringen Fehlern. Die Beurteilung der ermittelten Daten über die Validierung wurden anhand von geltenden Regelwerken der pharmazeutischen Industrie entschieden. Es wurde ein Protokoll entwickelt, das im Rahmen der universitären Forschung eine vertrauenswürdige Aussage über Veränderungen von Metabolitenspiegeln in vielen Geweben der Maus und der Ratte geben kann.