Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204)
Is part of the Bibliography
- no (204)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
In dieser Arbeit wurden mittels Fragebogen chronobiologische - hier als Chronobiologika bezeichnet -, biologische und soziale Parameter von Patienten mit einer definierten Malignomerkrankung (Mamma-Karzinom, Kolon-Karzinom, Lymphom) bestimmt und auf Zusammenhänge überprüft. Die Chronobiologika wurden für die Zeit vor der Erkrankung sowie für den Zeitpunkt der Befragung erhoben und die Veränderungen berechnet. Die Parameter vor der Erkrankung wurden bei der Gruppe der Patienten mit Mamma-Karzinom mit einer repräsentativen Referenzgruppe (Gesundheitsmonitor des Jahres 2013 der Bertelsmann Stiftung) auf Unterschiede verglichen. Es wurde insbesondere untersucht, ob Zusammenhänge zwischen den Veränderungen der Chronobiologika und der unter der Chemotherapie empfundenen Belastung (= Distress) bestehen.
Dazu wurden im Rahmen einer multizentrischen Studie bei 378 Personen anhand eines Fragebogens auf Basis des Munich ChronoType Questionnaires (MCTQ) Angaben zu ihrem Schlaf-Wach-Rhythmus, ihrer Malignomerkrankung, deren Therapie, der darunter empfundenen Belastung und dem Lebensstil ausgewertet. Ein besonderes Augenmerk wurde dabei auf den Chronotyp, den Social Jetlag und das Schlafdefizit gelegt.
Es ließen sich nur wenige Unterschiede in den Chronobiologika zum Zeitpunkt vor der Erkrankung und dem aktuellen pathologischen Zustand, zwischen den Malignomgruppen, zwischen den Gruppen mit und ohne Chemotherapie sowie zwischen den Gruppen mit geringem und hohem Distress finden.
Im Rahmen der Malignomerkrankung kam es zu Veränderungen im Schlaf-Wach-Rhythmus der Teilnehmer: So wurden Einschlaf- und Aufwachzeit sowie der Chronotyp früher in den Tagesverlauf verlegt. Der Social Jetlag und das Schlafdefizit verminderten sich. Die Einschlaflatenz wurde länger. Diese Veränderungen fanden sich bevorzugt bei Patienten mit Mamma-Karzinom, Chemotherapie und hohem Distress. Der Distress war bei Frauen und jüngeren Personen stärker ausgeprägt.
Die Studienpopulation zeigte im Vergleich zur vorgenannten Referenzgruppe in allen Altersgruppen einen späteren Chronotyp, einen höheren Social Jetlag und einen höheren Anteil an Berufstätigen.
Die beschriebenen Veränderungen im Schlaf-Wach-Rhythmus ließen sich im Wesentlichen mit der veränderten Berufstätigkeit und dem subjektiven Distress im Rahmen der Erkrankung und ihrer Therapie erklären. So fanden sich die stärksten Veränderungen in den Chronobiologika bei Patienten mit hohem Distress und einer Aufgabe der Berufstätigkeit. Die Unterschiede zwischen der Referenzgruppe und der Gruppe der Patientinnen mit Mamma-Karzinom lassen sich tatsächlich mit einer Krankheitsprädisposition oder durch soziokulturelle Besonderheiten in der Studienpopulation gegenüber der Normalbevölkerung (Referenzgruppe) erklären.
Ce travail, dont le titre est : Le modèle d’immersion réciproque en question : enseigner en classe bilingue à New York et à Francfort / Das Two-Way-Immersion Modell im Fokus: Zweisprachig unterrichten in New York und Frankfurt/Main, a pour objectif de répondre à la problématique suivante : Comment la conceptualisation du modèle d’enseignement bilingue d’immersion réciproque influence les pratiques éducatives (didactiques et pédagogiques) des enseignants, et pourquoi?
Afin de répondre à cette question, j’ai choisi d’étudier un modèle bilingue spécifique, le modèle bilingue d’immersion réciproque (ou « Two-Way-Immersion ») qui, dans la façon dont il intègre deux groupes d’élèves locuteurs de différentes langues qui apprennent les uns des autres, m’a semblé reposer sur une conceptualisation de l’enseignement bilingue dépassant une vision monolingue de ce dernier. Je montrerai dans la thèse, qu’en réalité, un même modèle peut se décliner différemment selon les choix didactiques et pédagogiques et selon les contextes de sa mise en œuvre et que seule une analyse approfondie peut permettre d’en révéler toute la complexité. À cette fin, j’ai observé des classes bilingues à New York et à Francfort, classes qui ont ensuite constitué mon terrain d’étude.
La thèse est organisée en 5 chapitres. Le premier chapitre propose un passage en revue de la littérature scientifique sur l’enseignement bilingue dans divers contextes. Le deuxième chapitre est consacré à la méthodologie de recherche que j’ai choisi d’utiliser pour explorer la complexité de mon objet de recherche. Les deux chapitres suivants proposent une analyse sociolinguistique de chaque contexte, New York (3) et Francfort (4). Le dernier chapitre, (5), est consacré à l’analyse des données récoltées (des entretiens, des observations de séances, des documents d’élèves et divers documents pédagogiques). Mon objectif, dans ce chapitre, est de montrer comment les orientations influencent les choix didactiques et pédagogiques des enseignants et ont un impact sur les pratiques de classe.
Ein Hauptziel dieser Arbeit war die spektroskopische Charakterisierung einer neuartigen photolabilen Schutzgruppe (Photocage). Diese besteht aus dem weitverbreiteten (7-Diethylaminocumarin)methyl (DEACM), welches zusätzlich mit einer Art Antenne (ATTO 390) ausgestattet ist. Letztere soll die Zwei-Photonen-Absorption (2PA) erleichtern, was neben dem Energietransfer von der Antenne zur photolabilen Schutzgruppe sowie die Freisetzungsreaktion eines gebundenen Effektormoleküls untersucht wurde. Der Nachweis der erhöhten 2PA wurde durch Zwei-Photonen-induzierte Fluoreszenz erbracht, welche die Bestimmung des Zwei-Photonen-Einfangquerschnitts ermöglicht. Die 2PA wurde durch Messungen mit variierender Anregungsenergie an Rhodamin B und dem neuartigen Antennen-Photocage-System bestätigt, welche eine fast perfekte quadratische Abhängigkeit der Fluoreszenzintensität nach vorangegangener 2PA widerspiegelten. Die Werte des Zwei-Photonen-Einfangquerschnitts der neuartigen photolabilen Schutzgruppe sind über alle Wellenlängen hinweg größer als die von DEACM-OH. Der Beweis eines intramolekularen Energietransfers von der Antenne zu DEACM erfolgte durch transiente Absorptionsspektroskopie. Hierfür wurde der Photocage mit 365nm angeregt, was überwiegend die Antenne adressiert. Ein intramolekularer Energietransfer konnte mit einer Zeitkonstante von 20 ps beobachtet werden, welcher wahrscheinlich von einem nachgelagerten Ladungstransfer von DEACM auf ATTO 390 begleitet wurde. Die Funktionalität des neuartigen Photocages wurde durch Aufnahme von Absorptionsspektren im IR-Bereich während kontinuierlicher Belichtung bei 365 nm untersucht. Hierbei konnte die Entstehung der intensiven Absorption von Kohlendioxid aufgrund der Photodecarboxylierung detektiert werden. Absorptionsänderungen während kontinuierlicher Belichtung wurden ebenfalls im UV/Vis-Bereich detektiert, in welchen eine hypsochrome Verschiebung der langwelligen Absorptionsbande sowie ein Anstieg der Absorption festgestellt wurden. Hieraus konnte eine Quantenausbeute der Freisetzungsreaktion von 1,5% ermittelt werden. Die Ergebnisse zum Antennen-Photocage-System zeigen auf, dass durch Anbringen einer Antenne die 2PA verbessert werden kann, ohne die Funktionalität des Freisetzungsprozesses negativ zu beeinflussen. In einem nächsten Schritt zielen Verbesserungen des untersuchten Photocages darauf ab, den Ladungstransfer zu unterdrücken. Die Validierung dieses Ansatzes sollte die Einführung anderer Antennen mit erhöhten Zwei-Photonen-Einfangquerschnitten, wie z.B. Quantenpunkte, weiter motivieren. Der zweite Ergebnisteil dieser Arbeit konzentriert sich auf drei verschiedene Photosysteme, die sich durch eine sehr kurzlebige Fluoreszenz auszeichnen, welche mit einem Kerrschalter aufgenommen wurde. Das erste der drei untersuchten Systeme umfasst eine kooperative BODIPY-DTE-Dyade(Bordipyrromethen-Dithienylethen), die einen hocheffizienten photochromen Förster-Resonanzenergietransfer aufweist. Dieser wurde durch verkürzte Lebenszeiten der Differenzsignale im transienten Absorptionsspektrum der Dyade im photostationären Zustand abgeleitet. In diesem stellt BODIPY-DTE eine hochkonjugierte Einheit dar, welches durch die geschlossene Form des photochromen DTEs einen Energietransfer vom photoangeregten BODIPY zum DTE ermöglicht. Bei diesem Prozess wird die Fluoreszenz des Donors um einige Größenordnungen reduziert. Die Ergebnisse der transienten Absorptionsmessung wurde durch ein zeitaufgelöstes Fluoreszenzexperimentbestätigt. Die detektierte Fluoreszenztransiente zerfällt mit einer Zeitkonstante von etwa 15 ps und weist somit sehr hohe Ähnlichkeit mit dem Signal des Grundzustandsbleichens (GSB) aus dem transienten Absorptionsexperiment auf. Des Weiteren wurde die photochrome Ringschlussreaktion eines wasserlöslichen Indolylfulgimids spektroskopisch charakterisiert. Transiente Absorptionsmessungen geben einen direkten Einblick in den Mechanismus der Reaktion, in welcher, nach Photoanregung, die Relaxation aus dem Franck-Condon Bereich und die schnelle biphasische Relaxation des Moleküls über die konische Durchschneidung abgeleitet werden kann. Zusätzlich wurden zeitaufgelöste Fluoreszenzmessungen mit Hilfe des Kerrschalters durchgeführt, da die stimulierte Emission (SE) in transienten Absorptionsmessungen durch die Überlagerung mehrerer Signale nicht vollständig zu erkennen war. Die globale Lebensdaueranalyse der mit dem Kerrschalter aufgenommenen Breitband-Fluoreszenz lieferte drei Zeitkonstanten, welche wesentliche Übereinstimmung mit den Zeitkonstanten aus der globalen Lebensdaueranalyse der transienten Absorptionsmessungen aufweisen. Schlussendlich wurde die Deaktivierung des elektronisch angeregten Zustands des flavinbindenden Dodecins aus Mycobacterium tuberculosis mit Hilfe von unterschiedlichen spektroskopischen Methoden charakterisiert. Stationäre Fluoreszenzmessungen bei unterschiedlichen pH-Werten zeigten bei pH 5 eine im Vergleich zu nahezu physiologischen Bedingungen (pH 7,5)reduzierte Fluoreszenz auf. Auffällig ist, dass diese Beobachtungen durch transiente Absorptionsmessungen nicht bestätigt werden konnten, da diese eine große Ähnlichkeit bezüglich der Dynamik und der spektralen Signatur zueinander besaßen. Ein negatives Signal, hervorgerufen durch die SE, wurde hierbei nicht gefunden. Allerdings konnte in den zerfallsassoziierten Spektren eine spektrale Signatur beobachtet werden, die auf eine SE hindeutete, welche allerdings mit größeren positiven Signalen überlagert ist. Dieser Aspekt wurde in einer Kerrschalter-Messung untersucht, in der eine schwache Emission bei pH 7,5 festgestellt werden konnte. Zusätzlich wies die Zerfallsdynamik der Emission Übereinstimmung mit dem GSB-Signal aus den transienten Absorptionsmessungen auf.
Entwicklung von Immunisierungsstrategien zur Induktion hoher funktionaler Antikörperantworten
(2018)
Neuartige Viren und Erreger, die sich antigenetisch tiefgreifend von bekannten Varianten unterscheiden, können verheerende Epidemien auslösen, da weder gegen diese Erreger eine Immunität in der Bevölkerung besteht, noch prophylaktische oder therapeutische Maßnahmen verfügbar sind. Eine prophylaktisch vermittelte Immunität durch Impfung stellt die bei Weitem effektivste Methode zur Vorbeugung viraler Infektionen dar, jedoch sind die Entwicklungs- und Herstellungszeiten eines neuen Impfstoffs in der Regel mit der Ausbruchsdynamik nicht kompatibel. Inzwischen steht zwar eine überschaubare Anzahl antiviraler Medikamente zur Verfügung, doch ist die Wahrscheinlichkeit gering, dass diese meist hoch spezifischen Wirkstoffe gegen neu auftretende Viren aktiv sind. Das beispiellose Ausmaß der Ebola-Epidemie 2014 führte zum Einsatz experimenteller antikörperbasierter Therapien, welche das Potential der passiven Vermittlung von temporärem Immunschutz naiver Personen verdeutlicht. Für viele neuartige Viren ist die Entwicklung von Therapieansätzen allerdings noch nicht entsprechend weit fortgeschritten. Zudem bedingt eine Verwendung des eigentlichen Erregers oft hohe Sicherheitsmaßnahmen, was die Arbeit erschwert. Aus diesem Grund werden Notfalltherapien benötigt, die schnell in klinisch relevanter Qualität und Quantität unter niedrigen biologischen Sicherheitsmaßnahmen produziert werden können.
Diese Arbeit basiert auf der zentralen Hypothese, dass die Induktion von hohen Titern funktioneller Antikörperantworten die Basis für einen breiteren Schutz gegen antigenetisch entferntere Virusstämme sowie für die schnelle Produktion von therapeutischen Antiseren darstellt.
Um diese Hypothese zu testen und Einblicke in verschiedene Aspekte dieses Prozesses zu bekommen, wurde zunächst die Nutzung von Adjuvanzien als Zusätze für Impfstoffe am Beispiel des pandemischen A(H1N1)pdm09-Impfstoffs untersucht. Neben den alljährlichen Epidemien, die von saisonalen Influenza-A-Viren der Subtypen H1N1 oder H2N3 verursacht werden, können neuartige Subtypen zu weltweiten Pandemien führen. Während die saisonalen Influenza-Impfstoffe in der Regel keine Adjuvanzien enthalten, wurden einige pandemische H1N1-Impfstoffe aus 2009 mit einem reduzierten Antigengehalt formuliert und mit squalenbasierten Adjuvanzien kombiniert, um eine ausreichende Wirksamkeit bei größerer Verfügbarkeit zu gewährleisten. Zur Charakterisierung des Effekts dieser Adjuvanzien auf die Immunantworten wurden Frettchen mit 2 µg des kommerziellen H1N1pmd09-Impfstoffes alleine sowie in Kombination mit verschiedenen Adjuvanzien immunisiert, die Antikörpertiter gegen homologe und heterologe Influenzastämme untersucht und mit dem Schutz vor einer Infektion korreliert. Dabei zeigte sich, dass die Verwendung squalenbasierter Adjuvanzien die funktionalen Antikörperantworten um das 100-fache erhöhte und zu einer signifikant reduzierten Viruslast nach der Infektion mit dem homologen pandemischen Virus führte. Während in keiner Gruppe Antikörper gegen die heterologen Hämagglutinin-(HA-)Proteine H3, H5, H7 und H9 nachweisbar waren, induzierten mit squalenbasierten Adjuvanzien kombinierte Impfstoffe subtypenspezifische Antikörper gegen das N1 Neuraminidase-(NA-)Protein einschließlich H5N1. Darüber hinaus führte die Immunisierung mit squalenbasierten Adjuvanzien zu einer besseren Kontrolle der Influenzavirus-Replikation in den oberen Atemwegen.
Anschließend wurde im zweiten Teil dieser Arbeit unter Einbeziehung der gewonnenen Erkenntnisse eine Immunisierungsstrategie zur schnellen Produktion therapeutischer Hyper-immunseren entwickelt, wobei unterschiedliche Antigenexpressionssysteme miteinander verglichen wurden. Während in den frühen Stadien eines Ausbruchs Rekonvaleszenzseren nicht ohne weiteres verfügbar sind, können Antiseren tierischen Ursprungs innerhalb eines kurzen Zeitraums hergestellt werden. Die Herausforderung liegt in der schnellen Induktion einer schützenden Immunität, wobei die effiziente Produktion und Reinigung von Hyperimmunserum in klinisch relevanten Mengen ebenso essenziell ist wie die Anpassungsfähigkeit der Immunisierungsstrategie an neue oder hinsichtlich ihrer Antigenizität veränderte Viren. Hierzu wurden verschiedene Immunisierungsstrategien in Mäusen und Kaninchen verglichen, die unterschiedliche Expressionssysteme für das Modellantigen Ebolavirus-Glykoprotein (EBOV-GP) verwenden: (i) Ebolavirus-ähnliche Partikel (VLP), (ii) das rekombinante modifizierte Vacciniavirus Ankara (MVA) sowie (iii) das rekombinante Virus der vesikulären Stomatitis (VSV). Im Ergebnis induzierte eine dreimalige Immunisierung mit VLPs in Kombination mit squalenhaltigem Adjuvans neutralisierende Antikörpertiter, die vergleichbar mit der Immunisierung mit replikationskompetentem VSVΔG/EBOV-GP waren. Dies deutet darauf hin, dass nicht die De-novo-Antigenexpression, sondern vielmehr die mehrfache Präsentation des Antigens in nativer Konformation für die Produktion von neutralisierenden Antikörpern essenziell ist. Darüber hinaus waren die funktionalen Antikörpertiter aller Kaninchenseren in der In-vitro-Analyse gegen das Wildtypvirus 10- bis 100-fach höher als der Durchschnitt, der in mit VSVΔG/EBOV-GP geimpften Probanden beobachtet wurde. Die Etablierung eines optimierten mehrstufigen Reinigungsverfahrens unter Verwendung einer zweistufigen Ammoniumsulfat-Präzipitation, gefolgt von einer Protein-A-Affinitätschromatographie, führte zu aufgereinigten IgG-Präparationen mit nahezu unveränderter neutralisierender Aktivität, die über neun Tage im xenogenen In-vivo-Modell stabil waren. Die signifikante Erhöhung von totalen und funktionalen Antikörpertitern in Kombination mit einer größeren Breite der Antikörperantwort im Kontext von squalenbasierten Adjuvanzien stützt die Hypothese dieser Arbeit. Adjuvantierte Immunisierungsstrategien sind damit ein vielversprechender Ansatz nicht nur zur Wirksamkeitssteigerung von Subunit- und Proteinimpfstoffen, sondern auch zur schnellen Herstellung von therapeutischen Antiseren.
Ribonukleinsäure (ribonucleic acid, RNA) wirkt bei der Proteinbiosynthese nicht nur als Informationsüberträger, sondern kann auch beispielsweise durch sogenannten Riboschalter (auch Riboswitches) regulatorische Funktionen übernehmen. Riboschalter sind komplett aus RNA aufgebaut und man kann sie sich als molekulare Schalter vorstellen, die die Genexpression kontrollieren. Konzeptionell besteht ein Riboswitch aus zwei Untereinheiten, dem Aptamer und der Expressionsplattform. Das Aptamer bindet, üblicherweise sehr spezifisch, kleine organische Moleküle, aber auch Ionen. Diese Ligandenbindung induziert Änderungen in der Struktur des Riboswitches, welche wiederum die Expressionsplattform beeinflussen. Je nach Riboswitch ermöglicht oder verhindert dies schließlich die Genexpression. Die vorliegende Doktorarbeit beschäftigt sich mit der Entwicklung und Etablierung von Methoden der optischen Spektroskopie zur Aufklärung von RNA-Dynamiken und -Strukturen im Allgemeinen und der Erforschung von Aptamerbindungsmechanismen im Besonderen.
Eine der dazu verwendetet Methoden ist die FTIR-Spektroskopie. Hierfür wurden zunächst kritische Parameter wie verschiedenste Messeinstellungen oder die Probenpräparation ausgiebig an RNA-Modellsträngen getestet. Dabei war es möglich, eine kleine Spektrenbibliothek als internen Standard aufzubauen. Gleichzeitig konnte gezeigt werden, dass kleinere RNA-Oligonukleotide (< ca. 20 Nukleobasen) gut mittels FTIR-Methoden untersucht werden können. Anschließend wurde eine statische Bindungsstudie am adenosin- sowie am guanosinbindenden Aptamer vorgenommen.
Die zweite hier vorgestellte Methode zur Untersuchung von RNA-Molekülen ist die Fluoreszenzspektroskopie. Im Gegensatz zur FTIR-Spektroskopie ist dazu allerdings eine Modifizierung der RNA durch ein Fluoreszenzlabel nötig. Deshalb beschäftigt sich der Hauptteil dieser Doktorarbeit mit der Charakterisierung und der Anwendung des quasi bifunktionellen RNA-Markers (auch RNA-Labels) Çmf. So wurden zunächst die photophysikalischen und photochemischen Eigenschaften des Markers untersucht. Dabei konnte gezeigt werden, dass Çmf sich als lokale Sonde eignet, da es empfindlich auf Änderungen der Mikroumgebung in Lösung reagiert. Durch direkten Vergleich der optischen Eigenschaften von Çmf mit den entsprechenden Eigenschaften des Spinlabels Çm war es möglich, den starken Fluoreszenzlöschungseffekt (sog. quenching) des Çm aufzuklären. So kann davon ausgegangen werden, dass die Fluoreszenz des Çm durch eine sehr schnelle interne Konversion (IC) in einen dunklen Dublettzustand (D1) gelöscht wird.
Im nächsten Schritt wurde Çmf in RNA-Modellstränge eingebaut, um den Einfluss der RNA auf die Photochemie des Markers zu untersuchen. Dabei konnte gezeigt werden, dass sich dessen Fluoreszenzsignal abhängig von den direkten Nachbarbasen sowie abhängig vom Hybridisierungszustand signifikant ändert. Gleichzeitig konnte keine deutliche Veränderung der Stabilität der Modellstränge festgestellt werden. So konnte also nachgewiesen werden, dass sich Çmf sehr gut als lokale Sonde in RNA eignet. Im Speziellen wurde aus den Ergebnissen geschlossen, dass der Fluorophor für Ligandenbindungsstudien herangezogen werden kann.
Deshalb wurde Çmf schließlich an mehreren verschiedenen Stellen in das neomycinbindende Aptamer (N1) eingebaut, um dessen Bindungskinetik zu untersuchen. Mittels Stopped-Flow-Messungen war es möglich, die Bindungsdynamik des Aptamers zu beobachten. Anhand dieser transienten Daten konnte ein Zweischrittbindungsmodell abgeleitet werden. Dabei bindet Neomycin zunächst unspezifisch an das weitgehend vorgeformte Aptamer. Anschließend kommt es durch die Ausbildung von Wasserstoffbrücken zu einer spezifischen Bindung des Liganden am Aptamer.
Im dritten Teil dieser Arbeit geht es ebenfalls um die Entwicklung und Etablierung eines spektroskopischen Werkzeuges. Dabei stehen allerdings Rhodopsine im Mittelpunkt der Aufmerksamkeit. Hierbei handelt es sich um Membrantransportproteine, die nach optischer Anregung einen sehr schnellen Photozyklus mit mehreren Intermediaten durchlaufen. Es ist möglich, diese Intermediate dank transienter Absorptionsmessungen mit sehr guter zeitlicher und spektraler Auflösung zu beobachten. Allerdings besteht der Bedarf, diese Intermediate statisch zu präparieren, um sie näher charakterisieren und mit anderen Methoden, wie z.B. der Festkörper-NMR, vergleichen zu können.
Ein spektroskopisches Werkzeug zum Präparieren von frühen Photointermediaten ist kryogenes Einfangen (sog. Cryotrapping) dieser Intermediate. Im Rahmen dieser Arbeit wurden das Cryotrapping und die anschließende statische UV/vis-Absorptionsspektroskopie der fixierten (getrappten) Zustände optimiert und an einer Reihe von Rhodopsinen (ChR2, GPR) demonstriert.
Personen- und Organisationsmerkmale als Gelingensbedingungen im pädagogischen Vorbereitungsdienst
(2018)
Die vorliegende Arbeit greift die defizitäre empirische Befundlage zur Wahrnehmung der zweiten Ausbildungsphase des Lehrerberufs – dem Referendariat – auf. Sie geht der Frage nach, wie das Belastungserleben der Referendare mit Merkmalen der Person oder Organisation verknüpft ist. Bestehende Forschungsaktivtäten legen ihren Fokus auf die Wahrnehmung erfahrener Lehrkräfte im Beruf. Es fehlt an Studien, die das Erleben im Referendariat diskutieren. Die vorliegende, primär explorativ ausgerichtete Arbeit nimmt diese Ausbildungsphase in den Blick. Die Datenbasis der Arbeit bildet die Evaluationsstudie „Pädagogische Entwicklungsbilanzen an Studienseminaren“ (PEB-Sem), die in Hessen zum Einsatz kam. Es werden Daten von 3808 Referendaren sekundäranalytisch ausgewertet. Da die Beschreibung der Untersuchungsgruppe im Referendariat selbst wenig Vergleichsmöglichkeiten zur Absicherung der Daten bietet, wurde PEB-Sem im Praxissemester bei einer Vergleichsgruppe von Lehramtsstudierenden an der Goethe-Universität eingesetzt.
Personale Merkmale im Umgang mit Belastungen wurden über objektive Aspekte (Alter, Geschlecht, Lehramtsstufe, pädagogische Vorerfahrungen) sowie über Persönlichkeitscharakteristika (Selbstwirksamkeitserwartungen, Resilienz) operationalisiert. Merkmale der Organisation des Vorbereitungsdiensts wurden über Skalen erhoben, welche die Ausbildungsbeziehungen zwischen Referendaren und Ausbildern, Mentoren sowie der Seminarleitung oder die Kohärenz der Ausbildung erfassen.
In den Ergebnissen der Analyse personenbezogener Merkmale zeigt sich, dass vor allem die Resilienz das Belastungserleben der Referendare erklären kann, während die pädagogischen Vorerfahrungen oder die Selbstwirksamkeitserwartungen nur einen geringen Anteil der Belastungswahrnehmung erklären können. Die Belastung in der Ausbildung wird über die Zentralstellung des Leistungsdrucks, der durch die bewerteten Unterrichtsbesuche, Zeitdruck oder auch die Prüfungsbelastung zum Ende der Ausbildung entsteht, maßgeblich bestimmt. Zwischen den Faktoren der Organisation und der Belastungswahrnehmung, wie sie z.B. für die Unterstützung durch die Ausbilder und Mentoren untersucht wurden, konnten nur schwache Zusammenhänge zur Belastung nachgewiesen werden. Die vergleichende Betrachtung von Referendaren und Studierenden im Praxissemester kann Unterschiede im Erleben dieser beiden Ausbildungsabschnitte herausarbeiten. Die berufliche Erfahrung, welche die Referendare den Studierenden voraushaben, wirkt sich, entgegen der Annahme, nicht positiv auf die Belastungswahrnehmung aus: Referendare zeigen sich stärker belastet als Lehramtsstudierende. Bezogen auf die Unterschiede in der Einschätzung der Resilienz sind es wieder die Lehramtsstudierenden, die im Vergleich zu den Referendaren über eine stärkere Widerstandfähigkeit verfügen.
Die vergleichende Betrachtung beider Ausbildungsphasen vermitteln ein besseres Verständnis und eine größere Nähe zum jeweiligen Ausbildungskontext. Die Befunde der Studie deuten auf die Notwendigkeit hin, sich mit Unsicherheiten und Belastungen, die durch die Bewertungssituationen und den Anpassungsdruck an die Erwartungen der Ausbilder und Mentoren entstehen können, stärker zu befassen. An diese Ergebnisse lassen sich Implikationen für die Praxis und mögliche Ansatzpunkte für weitere Forschungsbemühen anschließen.
Die forensische Entomologie nutzt nekrophage Insekten, hauptsächlich Dipteren und ihre juvenilen Stadien, zur Schätzung der minimalen Leichenliegezeit. Dem liegt zugrunde, dass nekrophage Dipteren binnen Minuten nach dem Todeseintritt potentiell in der Lage sind, einen Leichnam zu detektieren und zu besiedeln. Das anschließende Wachstum und die Entwicklung der juvenilen Stadien erfolgt als Funktion von der Art und der Umgebungstemperatur.
Mit Hilfe von Laborstudien konnten bislang für einige forensisch relevante Fliegenarten Entwicklungsdaten erhoben werden, die eine Altersbestimmung der sich an einem Leichnam entwickelnden Larven und Puppen erlauben und so eine Schätzung der minimalen Leichenliegezeit ermöglichen. Als Nährsubstrat für Laborstudien werden tierische Gewebe verwendet. Eine Übertragbarkeit der Daten auf humanes Gewebe wurde aber bislang nicht verifiziert. In der vorliegenden Arbeit wurde das larvale Wachstum und die juvenile Entwicklungsgeschwindigkeit der forensisch relevanten Schmeißfliege Calliphora vicina (Diptera: Calliphoridae) auf humanem Muskelgewebe untersucht und mit dem Wachstum auf Schweineleber, magerem Schweinemuskelfleisch und Schweinehackfleisch verglichen. Die auf humanem Gewebe heranwachsenden Individuen waren mit bis zu 3,5 mm signifikant länger als die Individuen, die sich auf Leber und dem mageren Schweinemuskelfleisch entwickelten. Bei der Verwendung von Hackfleisch vom Schwein zeigte sich kein Unterschied. Darauf basierend wird die Empfehlung ausgesprochen, für zukünftige Entwicklungsstudien Schweinehackfleisch als Ersatz für humanes Gewebe zu verwenden.
Zahlreiche Anleitungen zur Asservierung forensisch-entomologischer Spuren empfehlen das Sammeln getrennt nach Körperregionen eines Leichnams. Dies soll eine mögliche gewebespezifische Entwicklungsrate berücksichtigen. Das für die vorliegende Arbeit durchgeführte systematische Absammeln von Fliegenlarven von 51 Leichnamen getrennt nach Körperregionen zeigte keine artspezifischen Präferenzen für bestimmte Gewebe oder Körperregionen. Das Artenspektrum entsprach größtenteils dem aufgrund von Studien an Schweinekadavern zu erwartendem Artenspektrum für Deutschland und Mitteleuropa. Insgesamt konnten 15 Schmeißfliegenarten nachgewiesen werden, von denen in der Regel mehrere gleichzeitig an einem Leichnam zu finden waren. Dies zeigt, dass ein Faktor wie interspezifische Konkurrenz in Zukunft mehr Beachtung in der Forschung erhalten sollte.
Bislang wurde in der forensischen Entomologie die minimale Leichenliegezeit durch die Untersuchung juveniler Stadien von Fliegen eingegrenzt. Eine eventuell mögliche Ausweitung dieses Zeitfensters könnte durch eine Altersbestimmung der adulten Fliegen oder der leeren Puparien gelingen. Der Nachweis, dass die dafür untersuchten Fliegen bzw. Puparien tatsächlich von dem fraglichen Leichnam stammen, war bislang nicht möglich. Die forensische relevante Schmeißfliege Lucilia sericata wurde in der vorliegenden Arbeit auf humanem Gewebe und Gewebe von elf weiteren Tierarten großgezogen. Durch die Analyse stabiler Kohlen- und Stickstoffisotope konnte ein von diesen elf Tierarten abgrenzbares humanes Isotopenprofil sowohl für die adulten Fliegen von L. sericata, als auch für ihre leeren Puparien detektiert werden. Dieses Profil spiegelte die Nahrungszusammensetzung der Wirte wider.
Die vorliegende Arbeit erhebt Daten zur Entwicklung einer forensisch relevanten Schmeißfliegenart auf humanem Gewebe, belegt das bislang lediglich am tierischen Modell erhobene Schmeißfliegeninventar als für menschliche Leichen relevant und hinterfragt die gewebespezifische Asservierungsempfehlung als ein akademisches Artefakt. Auf dieser Basis konnten Empfehlungen für die Weiterzucht fallrelevanter entomologischer Spuren ausgesprochen werden, die gerichtsverwertbar sind und die Verwendung von tierischem Gewebe oder Tierkadaver in der forensisch-entomologischen Forschung legitimieren. Die Analyse stabiler Isotope legt darüber hinaus einen neuen, innovativen Grundstein für die routinemäßige Spurenzuordnung älterer Entwicklungsstadien und ist damit Vorreiter auf dem Gebiet der forensischen Entomologie.
In this research project we aimed to generate genetically modified megakaryocytes and platelets, by targeting protein expression to their secretory alpha-granules to delivery ectopic or therapeutic proteins, to be stored and kept there until an external stimulus triggers platelet activation and platelet secretion takes place. During platelet activation, the therapeutic proteins would then be released to the extracellular space, either as a soluble protein or exposed as a transmembrane protein on the cell surface of platelets. For long-term approaches, genetic modifications must be introduced at the hematopoietic stem cell level.
AIMS: As first approach, we aimed to characterize the lineage-specificity of expression of six different promoter fragments in lentiviral vectors: the murine platelet factor 4 (mPf4) 1222 bp (-1074 to +148), human glycoprotein Ib alpha (hGP1BA) 595 bp (-265 to +330), a short and a longer fragment of the human glycoprotein 6 (hGP6 / hGP6s) 351 bp (-322 to +29) / 726 bp (-697 to +29), as well the human glycoprotein 9 (GP9) promoter 794 bp (-782 to -12). These promoter fragments were included as internal cellular promoters in self-inactivating lentiviral vectors (SIN), using an enhanced green fluorescent protein (eGFP) as gene reporter. GFP detection was evaluated in vitro (in transduced non-megakaryocitc blood cell progenitors and in-vitro differentiated megakaryocytes) and in vivo (Bone marrow cells, blood cells and spleen cells). For targeting of proteins to the secretory alpha granules of megakaryocytes and platelets, we followed two strategies: A) The sorting signal of the cytokine RANTES was fused N-terminally to the destabilized GFP, d2eGFP (RANTES. d2eGFP), to deliver the protein into the granules as soluble cargo. B) The transmembrane granular targeting sequence of P-selectin (the transmembrane domain and cytoplasmic tail (referred as TDCT) was fused to d2eGFP or the B domain deleted codon optimized human coagulation Factor VIII cDNA (referred as BDcohFVIII_TDCT or FVIII_TDCT), to deliver the protein into the membrane of alpha granules. These two strategies were tested in-vitro, from transduced differentiated megakaryocytes in liquid cultures, and in-vivo, by analysis of genetically modified platelets by means of Laser Scanning Confocal Microscopy (LSM) in colocalization analysis (performed at the single cell level) and fluorescence intensity analysis.
RESULTS: GFP expression in blood cells from transplanted mice was significantly higher in platelets, with a smaller background promoter activity in leukocytes and erythrocytes. The highest expression was observed from the mPf4-vector, followed by hGP1BA, hGP6 and hGP6s vectors, identifying the hGP6 vectors as the most restricted to the megakaryocyte and platelet lineage. Analysis in bone marrow cells showed that hGP6-vectors have the lowest activity in the hematopoietic stem and progenitor cells (HSPC) with less than 10% of GFP positive stem cells. Surprisingly, the mPf4 and hGP1BA vectors were both highly active in the HSPC, in a range of 20 to 70% of GFP-positive cells. Polyploidization in later stages of MK-maturation of in-vitro Mks differentiated from Mpl-/- lineage marker negative cells were recovered after gene transfer of the thrombopoietin receptor Mpl, under the control of MK-specific vectors in differentiated into MKs. These results were corroborated in in-vivo analysis, where Mpl-/- mice transplanted with lin-BM cells transduced with the mPf4.Mpl and hGP6.Mpl vectors, showed significantly elevated platelet counts compared to control mice transplanted with a GFP-encoding control vector (PGK-GFP). In the Fluorescent intensity and colocalization analysis of transduced megakaryocytes with the targeting vectors, we observed a significant difference in the GFP targeting compared with those MK transduced with the non-targeting vectors. The median of the WCC values observed from the RANTES.d2eGFP targeting vector was 0.8 (80 % of colocalization) with P-selectin stained granules, and 0.7 (70%) with von Willebrand Factor stained granules. In the case of the non-targeting vector SFFV.d2eGFP the median of the WCC observed were <0.3 (30%) both in P-selectin and von Willebrand Factor stained granules. We observed as well that the GFP signal of MK transduced with the P-selectin.d2eGFP fusion overlapped the signals emitted by P-selectin and von Willebrand factor stained granules, not just in LSM-digitalized images but in the fluorescens intensity analysis as well, indicating a clear signal of GFP colocalization. Likewise, an evident signal overlap between the targeted FVIII (FVIII_TDCT) with the P-selectin / von Willebrand marker was observed. Colocalization and fluorescens intensity analysis performed on activated platelets from transplanted mice with the targeting vectors, corroborated what was previously observed in in-vitro megakaryocytes. The genetic modification of megakaryocyte and platelets will allow in the furture, not just the development of new generation of cells with advanced functions, but it will help us to elucidate new mechanisms and pathways of important cellular processes, by modifying cell function and cell interactions.
Pretubulysin (PT), a biosynthetic precursor of the myxobacterial compound tubulysin D, was recently identified as a novel microtubule-targeting agent (MTA) causing microtubule destabilization. MTAs are the most frequently used chemotherapeutic drugs. They are well studied regarding their direct cytotoxic effects against various tumors as well as for their anti-angiogenic and vascular-disrupting action addressing endothelial cells of the tumor vasculature. However, the impact of MTAs on endothelial cells of the non-tumor vasculature has been largely neglected, although tumor cell interactions with the healthy endothelium play a crucial role in the process of cancer metastasis. Besides their use as potent anti-cancer drugs, some MTAs such as colchicine are traditionally used or recommended for the therapy of inflammatory diseases. Here, too, the role of endothelial cells has been largely neglected, although the endothelium is crucially involved in regulating the process of inflammation.
In the present study, the impact of PT on tumor-endothelial cell interactions was therefore analyzed in vitro to gain insights into the mechanism underlying its anti-metastatic effect that was recently confirmed in vivo. In the second part of this work, the influence of PT and other MTAs, namely the microtubule-destabilizing compounds vincristine (VIN) and colchicine (COL) and the microtubule-stabilizing drug paclitaxel (PAC), on leukocyte-endothelial cell interactions was investigated in vitro and in vivo (only PT). It is important to mention that in all in vitro experiments solely endothelial cells and not tumor cells or leukocytes were treated with the MTAs to strictly focus on the role of the endothelium in the action of these compounds.
The impact of PT on tumor-endothelial cell interactions was analyzed in vitro by cell adhesion and transendothelial migration assays as well as immunocytochemistry using the breast cancer cell line MDA-MB-231 and primary human umbilical vein endothelial cells (HUVECs). The treatment of HUVECs with PT increased the adhesion of MDA cells onto the endothelial monolayer, whereas their transendothelial migration was reduced by the compound. Thereafter, the influence of PT on the endothelial cell adhesion molecules (CAMs) E-selectin, N-cadherin, ICAM-1, VCAM-1 and galectin-3 and on the CXCL12/CXCR4 chemokine system was examined, since they might be involved in the PT-triggered tumor cell adhesion. Interestingly, although PT induced the upregulation of ICAM-1, VCAM-1, N-cadherin and CXCL12, cell adhesion assays using neutralizing antibodies or the CXCL12 inhibitor AMD3100 revealed that all these molecules were dispensable for the PT-evoked tumor cell adhesion. As PT induces the formation of interendothelial gaps and MDA cells might adhere onto components of the underlying extracellular matrix (ECM), the precise location of MDA cells attached to the PT-treated endothelial monolayer was investigated. Instead of a direct interaction between tumor and endothelial cells, this work showed that MDA cells preferred to adhere to the ECM component collagen that was exposed within PT-triggered endothelial gaps. Both the PT-evoked increase in tumor cell adhesion onto and the decrease in trans-endothelial migration were completely abolished when β1-integrins were blocked on MDA cells. Similar results were obtained when endothelial cells were treated with VIN and COL but not PAC, indicating that the observed effects of PT depend on its microtubule-destabilizing activity.
The impact of PT, VIN, COL and PAC on leukocyte-endothelial cell interactions was analyzed in vivo (only PT) by intravital microscopy of the mouse cremaster muscle and in vitro by cell adhesion assays using the monocyte-like cell line THP-1 and TNFα-activated human dermal microvascular endothelial cells (HMEC-1). While PT did not affect the rolling of leukocytes on the endothelium, their firm adhesion onto and transmigration through the activated endothelium was reduced by PT in vivo. In accordance, the treatment of HMEC-1 with PT, VIN and COL decreased the TNFα-induced adhesion of THP-1 cells onto the endothelial monolayer, whereas PAC had no influence on this process. Thereafter, the influence of PT, VIN, COL and PAC on endothelial ICAM-1 and VCAM-1 was examined, since these molecules are substantially involved in the firm adhesion of leukocytes onto the endothelium. The cell surface protein expression of ICAM-1 and VCAM-1 was reduced by PT, VIN and COL in activated endothelial cells, whereas PAC did only slightly affect the TNFα-induced upregulation of VCAM-1. As the pro-inflammatory transcription factor NFκB plays a crucial role in the TNFα-induced expression of these CAMs, the impact of the MTAs on the NFκB promotor activity was investigated. While PT, VIN and COL decreased the activation of NFκB in activated endothelial cells, PAC did not affect this process. However, in contrast to the strong effects regarding the cell surface protein expression of ICAM-1 and VCAM-1, the effects of PT, VIN and COL on the NFκB activity was rather low. Thus, the used MTAs might also affect other relevant signaling pathways and/or the intracellular transport of CAMs might be influenced by the impact of the MTAs on the microtubule network.
Taken together, the current study provides – at least in part – an explanation for the anti-metastatic potential of PT and gives first insights into the use of PT and VIN as anti-inflammatory drugs. Moreover, this work highlights the endothelium as an attractive target for the development of new anti-cancer and anti-inflammatory drugs.
Cell-free-synthesized voltage-gated proton channels: Approaches to the study of protein dynamics
(2018)
We often only realize how important health is when diseases manifest themselves through their symptoms and, ultimately, in a diagnosis. Over time, we suffer from many diseases starting with the first childhood disease to colds to gastrointestinal infections. Most diseases pass harmlessly and symptoms fade away. However, not all diseases are so harmless. Alzheimer’s disease, breast cancer, Parkinson’s disease, and colorectal cancer usually cause severe illness with high mortality rates. In pharmaceutical research, efforts are therefore being made to determine the molecular basis of them in order to provide patients with potential relief and, at best, healing. A special group of regulators, involved in the previously mentioned diseases, are voltage-gated proton channels. Thus, the understanding of their structure, function, and potential drug interaction is of great importance for humanity.
Voltage-gated proton channels are localized in the cell membrane. As their name indicates, they are controlled by voltage changes. Depolarization of the cell membrane induces conformational changes that open these channels allowing protons to pass through. Here, the transfer is based on a passive process driven by a concentration gradient between two individual compartments separated by the cell membrane. Voltage-gated proton channels are highly selective for protons and show a temperature- and pH-dependent gating behavior. However, little is known about their channeling mechanism. Previous experimental results are insufficient for understanding the key features of proton channeling.
In this thesis, for the first time, the cell-free production of voltage-sensing domains (VSD) of human voltage-gated proton channels (hHV1) and zebrafish voltage-sensing phosphatases (DrVSP) is described. Utilizing the cell free approach, parameters concerning protein stability, folding and labeling can be easily addressed. Furthermore, the provision of a membrane mimetic in form of detergent micelles, nanodiscs, or liposomes for co-translational incorporations of these membrane proteins is simple and efficient. Both VSDs were successfully produced up to 3 mg/ml. Furthermore, the cell-free synthesis enabled for the first time studies of lipid-dependent co-translational VSD insertions into nanodiscs and liposomes. Cell-free produced VSDs were shown to be active, and to exist mainly as dimers. In addition, also their activation was stated to be lipid-dependent, which has not been described so far. Solution-state NMR experiments were performed with fully and selectively labeled cell-free produced VSDs. With respect to the development of potential drug candidates, I could demonstrate the inhibition of the VSDs by 2-guanidinobenzimidazole (2GBI). Determined KD values were comparable to literature data for the human construct. For the first time, a low affinity for 2GBI of the zebrafish VSD could be described.
In future, the combination of a fast, easy and cheap cell-free production of fully or selectively labeled VSDs and their analysis by solution state NMR will enable structure determinations as well as inhibitor binding studies and protein dynamic investigations of those proteins. The results of these investigations will serve as a basis for example for the development of new drugs. In addition, a detailed description of the lipid-dependent activity might be helpful in controlling the function of voltage-gated proton channels in cancer cells and thereby reducing their growth or disturbing their cell homeostasis in general.
Vorhofflimmern entsteht unter anderem durch ein Ungleichgewicht zwischen sympathischem und parasympathischem autonomen Nervensystem. Sowohl invasive Ansätze via Ablation oder Denervierung als auch minimalinvasive Ansätze via Elektrostimulation liefern erfolgsversprechende Ergebnisse in Bezug auf Beeinflussung eines bestehenden Vorhofflimmerns.
Interessanterweise konnte durch Akupunktur des Tragus eine Reduktion von Vorhofflimmer-Rezidiven nach Kardioversion erreicht werden. Ziel dieser Studie war die Evaluation von Akupunktur-induzierten kardialen (vegetativen) Effekten bei gesunden Probanden.
Herzgesunde männliche Probanden (n=24) wurden im Bereich des Vagus-Innervationsgebietes an der Concha inferior des Ohres (Herzpunkt 100, OHR) sowie an einem klassischen Akupunktur-Punkt des Herzens (ventralen Unterarm, P6/Neiguan, ARM) akupunktiert. Eine „Placebo“-Akupunktur eines Punktes, der gegen Gonarthrose-Schmerzen helfen soll (Magenpunkt 35), diente als Kontrolle. Die Hälfte der Probanden erhielt eine zusätzliche Messung ohne Akupunktur, um Effekte durch das alleinige Platzieren einer Nadel zu untersuchen.
Um eine Aktivierung des ANS zu bewirken und Veränderungen quantifizieren zu können, wurden 12-Kanal Langzeit-EKG Messungen wie folgt durchgeführt: 30 Minuten (min) in liegender Position unter Akupunktur, Entfernung der Akupunkturnadel, 5 min liegend, 5 min sitzend, 5 min stehend, 5 min sitzend.
Es erfolgten Analysen folgender Parameter der Herzfrequenzvariabilität: Herzfrequenz, SDNN, RMSSD, HF, LF, LF/HF. Des Weiteren wurden Periodic Dynamics Repolarization und Deceleration Capacity untersucht.
Verglichen mit Placebo-Akupunktur wurde sowohl durch Akupunktur am OHR als auch am ARM die Herzfrequenz in liegender und sitzender Körperpositionen signifikant gesenkt (Phasen 30L, 5S1, 5S2, ∆5L-5S1, ∆5S1-5ST).
Während die Akupunktur am OHR vor allem die SDNN signifikant erhöhte, führte die Akupunktur am ARM zu einer signifikanten Steigerung von RMSSD und dem parasympathischen Leistungsdichtespektrum-Parameter HF. Der Quotient LF/HF wurde ebenfalls signifikant gesenkt.
Kein Unterschied bestand zwischen Placebo-Akupunktur und Messung ohne Akupunktur, sodass postuliert werden kann, dass das alleinige Platzieren einer Nadel keinen nennenswerten Effekt auf das autonome Nervensystem besitzt.
Die Ergebnisse der Studie zeigen, dass eine Akupunktur an Orten, die mit dem autonomen Nervensystem verschaltet sind, zu einer Modulation des parasympathischen kardialen autonomen Nervensystems führen kann.
Eine Modulation der parasympathisch-sympathischen Balance durch minimalinvasive Zusatzbehandlung, wie in unserer Studie, könnte möglicherweise bei Patienten mit Vorhofflimmern zusätzlich zu medikamentöser oder nach invasiver Behandlung wie der Pulmonalvenenisolation das Therapieresultat verbessern und die Rezidivrate verringern.
The genetic mutation of the coagulation factor VIII (fVIII) results in a defective or missing protein, leading to a malfunctioning blood coagulation. The resulting disease is called hemophilia A. Depending on the severity of the mutation, affected patients experience an increased risk of pathologic bleeding after minor trauma or even sudden bleeding events. Substitution therapies with extrinsic fVIII exist using plasmatic or recombinant fVIII products. Due to an insufficient immune tolerance towards substituted fVIII, about 30 % of patients develop allogenic neutralizing antibodies (inhibitors) against substituted fVIII products. The gold standard of treating inhibitors is the immune tolerance induction (ITI), where patients are given frequent, high doses of fVIII to induce an immune tolerance. ITI therapy fails in about 30 % of patients. Mechanisms of action of ITI are part of research, as insufficient knowledge about mechanisms and prognostic factors complicate treatment. For example, the development of anti-idiotypic antibodies, which occur naturally as a regulatory mechanism of the immune system, are being studied. Such anti-idiotypes have been detected in immunoglobuline preparations and in patients after successful ITI.
Inhibitors interfere with fVIII function in coagulation by binding functional epitopes within fVIII domains. Inhibitors against the A2 and C2 domain are predominantly found, however also the C1 domain has been shown to be highly immunogenic in some patients. The polyclonality of inhibitors aggravates the understanding and treatment of these. The present project therefore focusses on the selection of synthetic anti-idiotypic antibodies to target inhibitors in patients. The phage display method was applied to, for one, isolate anti-idiotypic single chain variable fragments (scFvs) specific against human polyclonal anti-fVIII antibodies and second against two C1 domain-specific inhibitory monoclonal antibodies (mAbs).
In the first project, anti-fVIII antibodies were purified from human plasma to serve as target molecules. A previous project showed that using full plasma as a target did not yield anti-idiotypic antibodies from phage display. For the purification, protein A chromatography and fVIII coupled Affi Gel® chromatography were applied. The isolated antibodies were next used as targets for the selection of anti-idiotypic scFvs. Analysis revealed that none of the selected phages solely bound the anti-fVIII antibody target. Consequently, the test protocol was modified, which resulted in a reduction of unspecific binders. Yet, no target-specific binders were isolated from phage pools. Reason for this may have been the high diversity of the polyclonal antibody target and the limited diversity of the phage libraries.
The aim of the second project, was the selection and characterization of scFvs, that target the paratopes of C1 domain-specific mAbs GMA8011 and LE2E9. From a therapeutic viewpoint, the preparation of an anti-idiotypic antibody pool, tailored to each patient’s inhibitor population, could help neutralize inhibitors in patients. Ultimately, one GMA8011-specific scFv-carrying phage clone (H2C1) and two specifics to LE2E9 (H3G7, H3F10) were isolated. In further experiments, only the GMA8011-specific scFv showed competitive behavior in presence of fVIII, pointing towards an anti-idiotypic binding to the inhibitor paratope. The LE2E9-specific scFvs did not prevent binding of the inhibitor to fVIII. Hence, no anti-idiotypic behavior could be determined. For further characterization, selected scFvs were genetically fused to Fc antibody fragments and recombinantly produced. In this antibody format, all three scFvs showed concentration dependent binding to the target and the isotype control. The binding specificity to the target, observed in phage context, could not be reproduced. Competition experiments with fVIII confirmed that none of the scFvs bound the paratope of their target inhibitor.
The selection of anti-idiotypic scFvs from phage display libraries proves to be effortful. Polyclonal anti-fVIII antibodies purified from hemophilic plasma appear to be unsuitable as a target for phage display, likely due to the high diversity of the target molecules. Furthermore, the preparation of an individualized anti-idiotypic pools for patients by selecting scFvs against single inhibitory mAbs proves to be difficult. The selection of scFvs against anti-C1 inhibitors GMA8011 and LE2E9 produced three promising scFv-carrying phages. However, analysis could not detect anti-idiotypic behavior. Further research with inhibitors, monoclonal and polyclonal, and anti-idiotypic antibodies should be performed to bring better insight into the highly complex paratope-epitope interaction.
All lifeforms have to sense changes in their environment and adapt to possibly detrimental conditions. On a cellular level, the highly elaborate proteostasis network (PN) consisting of housekeeping and stress-induced proteins, confers this tolerance against stress and maintains cellular protein homoestasis. This is essential for survival, as an accumulation of stress-induced protein aggregation will eventually affect the functionality of crucial cellular components and ultimately lead to cell death. The guardians of this balance are the molecular chaperones and their activity-regulating co-haperones. They are engaged in all aspects of protein biogenesis, maintenance and degradation, especially during stress.
The heat shock proteins (HSPs) are the major chaperones in mammals and encompass constitutive and stress-induced isoforms. Among them, the HSP70 and the HSP90 family are the most abundant HSPs and their activity is involved in a great variety of homoestasis and stress-induced tasks.
As part of the protein triage the E3 ligase CHIP (C-terminal HSC70-interacting protein) is an essential activity regulating co-chaperone of HSP70 and HSP90 which provides a link between chaperone mediated protein-folding and various degradation pathways. Due to its decisive function, CHIP is involved in a wide array of cellular processes, especially in clearing misfolded HSP70 client proteins that are prone to aggregate. As a consequence, CHIP was reported to confer protection against many aggregation-induced pathologies of the neuronal system. Additionally, CHIP has been identified as a critical factor in various types of cancer and is implied to affect the development and the longevity of mammals.
Despite the significant progress in the understanding of CHIP’s structure and function, many aspects surrounding its chaperone dependency and its substrate recognition remain unclear. Moreover, due to the variety of substrates in diverse cellular pathways, there are yet many connections to elucidate between CHIP and components of the cellular proteostasis network.
The work of this thesis was focused on the role of CHIP in acute stress response and the corresponding status of chaperone association. Moreover, it was investigated if CHIP, as the connecting ligase of folding and degradation systems, might also provide a link between the PN and the reorganisation of the cellular architecture upon stress exposure.
This has become of increasing interest as recent reports highlight the importance of spatial sequestration in protein quality control.
To this end, subcellular distribution of CHIP was analysed by live-cell microscopy during heat stress. It became obvious that during the heat-induced challenge of the chaperone system, CHIP migrated to new cellular sites. Further experiments suggested that the observed migration to the plasma membrane is a chaperone-independent process and in vitro reconstitution of membrane association confirmed the competitive nature of membranes and chaperones for CHIP binding. A detailed in vivo and in vitro analysis of the newly observed membrane association of CHIP revealed a distinct lipid specificity and a novel direct association with lipids. Binding experiments with recombinantly purified deletion mutants of CHIP identified the TPR domain and a positive patch in the coiled-coil domain as main determinants for the lipid association. Through biochemical and biophysical approaches, the structural integrity and functionality of CHIP upon membrane binding was confirmed and further characterised.
Moreover, mass spectrometry analysis provided a high confidence identification of chaperone-free interactors of CHIP at the plasma membrane and other membranous compartments.
In accordance with the lipid specificity, the Golgi apparatus was one of these sites. Only chaperone-free CHIP had a significant effect on the morphology of the organelle, again confirming the competitive role of chaperones and lipids. With respect to the physiological consequences of the changed localisation of CHIP, preliminary results indicated increased cell death when the ligase localises to cellular membranes. The results lead to the conclusion that CHIP acts as an initiator of early stress adaptation and as a sensor for the severity and strength of the stress reaction.
Reactive oxygen species (ROS) are involved in various signalling mechanisms. Redox homeostasis is important in cancer cells, since they are dependent on upregulated antioxidant defence pathways to cope with elevated ROS levels. Therefore, targeting the antioxidant defence system and/ or increasing ROS to a lethal level may be a feasible strategy to counteract cancer cell progression.
Acute lymphoblastic leukaemia (ALL) is the most frequent malignant childhood cancer, displaying on one side resistance to cell death induction and on the other side elevated ROS levels. Therefore, inducing ferroptosis, a ROS- and iron-dependent cell death pathway might be useful to trigger cell death in ALL as a novel treatment strategy. In the first study of this thesis we observed that RSL3, a glutathione (GSH) peroxidase 4 (GPX4) inhibitor, triggered ROS accumulation and lipid peroxidation which contributed to ferroptotic cell death. These observations were based on suppression of RSL3 stimulated cell death using different ferroptosis inhibitors like Ferrostatin-1 (Fer-1), Liproxstatin-1 (Lip-1), as well as iron chelator Deferoxamine (DFO) and the vitamin E derivate α-Tocopherol (α-Toc). RSL3-triggered ROS and lipid peroxide production were also inhibited through Fer-1 and α-Toc. Furthermore, lipoxygenases (LOX) were activated upon RSL3 stimulation and contributed to ferroptotic cell death in ALL as well. Selective inhibition of LOX with the 12/15-LOX inhibitor Baicalein and the pan-LOX inhibitor nordihydroguaiaretic acid (NDGA) abolished RSL3-induced ROS production, lipid peroxidation and cell death. In addition, RSL3 induced lipid peroxide-dependent ferroptotic cell death in FAS-associated Death Domain (FADD)-deficient, death receptor-induced apoptosis resistant cells, demonstrating that ferroptosis might circumvent apoptosis resistance.
The second part of the study revealed that RSL3 and Erastin (Era), a GSH-depleting agent, inhibiting the cystine/glutamate antiporter system xc- and ferroptosis inducer, cooperated with the Smac mimetic BV6 to trigger cell death in ALL cells. RSL3/BV6 and Era/BV6 combination-induced cell death was dependent on ROS accumulation, but independent of caspases and key modulators of necroptosis. RSL3/BV6-treated ALL cells exhibited classical features of ferroptotic cell death with iron-dependency, ROS accumulation and lipid peroxidation which was diminished through either pharmacological inhibition (Fer-1, DFO, α-Toc) or genetic inhibition by overexpressing GPX4. Interestingly, Era/BV6-induced cell death in ALL cells was independent of iron but dependent on ROS accumulation, since α-Toc rescued from Era/BV6-triggered ROS production, lipid peroxidation and cell death. Moreover, inhibition of lipid peroxide formation through the addition of Fer-1 or by overexpressing GPX4 failed to rescue from Era/BV6-triggered cell death, even if Era/BV6-stimulated lipid peroxidation was diminished. Likewise, Fer-1 protected from RSL3/BV6-, but not from Era/BV6-generated ROS production, leading to the assumption that other ROS besides lipid-based ROS contributed to cell death in Era/BV6-treated cells. In summary, while RSL3/BV6 induced ferroptosis in ALL, Era/BV6 stimulated a ROS dependent cell death, which was neither dependent on iron nor caspases or receptor-interacting protein (RIP) kinase 1 nor 3. Additionally, using Erastin alone did not trigger ferroptotic cell death in ALL. Finally, with these two studies we tried to unravel the molecular pathway of ferroptosis by using RSL3 and Erastin as well described ferroptosis stimulators. Here, we demonstrate the possibility of a novel treatment strategy to reactivate programmed cell death by impeding redox homeostasis in ALL.
Since ALL failed to induce ferroptosis upon Erastin treatment, we investigated in the third part of this thesis a new model system to induce ferroptosis upon Erastin and RSL3 exposure. Previous studies revealed that rhabdomyosarcoma (RMS) cells might be susceptible to oxidative stress-induced compounds. To this end, we used Erastin as a prototypic ferroptosis stimulus and GSH-depleting agent and demonstrated that GSH depletion, ROS and lipid ROS accumulation contributed to cell death. Additionally, Fer-1, Lip-1, DFO, lipophilic vitamin E derivate α-Toc and GSH, a cofactor of GPX4, protected from Erastin stimulated ROS accumulation, lipid peroxidation and cell death. Also, the use of a broad spectrum protein kinase C (PKC) inhibitor Bisindolylmaleimide I (Bim1), a PKCα and ß selective inhibitor Gö6976 and siRNA-mediated knockdown of PKCα suppressed Erastin-mediated cell death in RMS. Moreover broad spectrum nicotinamide-adenine dinucleotide phosphate (NADPH) oxidase (NOX) inhibitor Diphenyleneiodonium (DPI) and a more selective NOX1/4 isoform inhibitor GKT137831 abrogated Erastin-generated ROS formation, lipid peroxidation and cell death. With this, we demonstrate that RMS are vulnerable to ferroptotic cell death and investigated the molecular mechanism of ferroptosis by unravelling that PKC and NOX could have a pivotal role in ROS-mediated ferroptosis signalling in RMS. In this regard, ferroptosis inducers may act as a possible novel treatment strategy for RMS, especially those with poor clinical outcome.
Zur Behandlung von chronisch entzündlichen Erkrankungen besteht nach wie vor ein dringendes medizinisches Bedürfnis, da die bisher eingesetzten Medikamente gerade in der Langzeittherapie zu schwerwiegenden Nebenwirkungen führen können. Um chronisch entzündliche Erkrankungen in Zukunft adäquat therapieren zu können, sind bereits verschiedene neuartige Ansätze in klinischer bzw. präklinischer Entwicklung. Ein möglicher Ansatz besteht in einer dualen Hemmung der mikrosomalen Prostaglandin E2 Synthase-1 (mPGES-1) und der 5-Lipoxygenase (5-LO). Im Rahmen dieser Arbeit wurden die Struktur-Wirkungs-Beziehungen (SAR) von zwei verschiedenen Leitstrukturen an der 5 LO und der mPGES 1 untersucht. Die erste Leitstruktur entstammt aus den Arbeiten von Waltenberger et al. und besitzt im Grundgerüst eine Sulfonamidstruktur. In dieser Arbeit ist es gelungen, durch eine gezielte Untersuchung der Struktur-Wirkungsbeziehungen, die Leitstruktur I an der 5 LO und der mPGES-1 in ihrer Potenz zu optimieren. Die Leitstruktur (IC50: 5-LO (zellfrei) = 5.7 µM, IC50: 5 LO (PMNL) = 3.7 µM, IC50: mPGES-1 = 4.5 µM) konnte durch Variation in allen drei Positionen modifiziert werden, so dass die optimierte Struktur 170 (IC50: 5-LO (zellfrei) = 2.3 µM, IC50: 5-LO (PMNL) = 0.4 µM, IC50: mPGES-1 = 0.7 µM) entstanden ist. Für die Verbindung 170 wurden die pharmakokinetischen Eigenschaften, wie Löslichkeit und metabolische Stabilität, sowie der Wirkmechanismus auf molekularer Ebene bestimmt. Ebenso konnte für Verbindung 170 auch in vivo anti-entzündliche Eigenschaften festgestellt werden.
Die zweite Leitstruktur stammt ebenfalls aus den Arbeiten von Waltenberger et al. und besitzt im Grundgerüst eine Mercaptobenzothiazol-Grundstruktur. Aufgrund der Ähnlichkeit zu den bekannten Pirinixinsäurederivaten wurde auch hier für die Untersuchung der Struktur-Wirkungs-Beziehungen zunächst eine Kettenverlängerung an der Alkylkette vorgenommen. Es ließ sich auch hier durch eine gezielte SAR, die Leitstruktur bis hin zum submikromolaren Bereich in Verbindung 219 optimieren. Gleichzeitig ist es gelungen in Verbindung 219 einer der am potentesten dual ausgeglichensten dualen 5 LO/mPGES-1 Inhibitoren zu identifizieren.
Zusammenfassend lässt sich sagen, dass in dieser Arbeit es gelungen ist durch gezielte Untersuchungen der Struktur-Wirkungs-Beziehungen zwei verschiedene Substanzklassen zu dualen 5-LO/mPGES-1 Inhibitoren zu optimieren. Ebenso konnte für Substanz 170 auch in vivo anti-entzündliche Eigenschaften festgestellt werden. Diese Arbeit soll dazu beitragen, das therapeutische Potential von dualen 5-LO/mPGES-1 Inhibitoren als anti-entzündliche Wirkstoffe in Zukunft besser einschätzen zu können.
Der ligandaktivierte Transkriptionsfaktor Farnesoid X Rezeptor (FXR) ist neben seiner Funktion als Regulator des Gallensäurehaushaltes auch in vielen anderen metabolischen Prozessen wie Glukose- und Lipidhomöostase involviert und besitzt antiinflammatorische Eigenschaften. Gerade bei hepatischen, gastrointestinalen und systemischen Erkrankungen erscheint FXR daher als interessante Zielstruktur zur Behandlung metabolischer Erkrankungen. Basierend auf den natürlichen Liganden von FXR, den Gallensäuren, wurde Obeticholsäure (OCA) als seminsynthetisches Derivat der endogenen Chenodesoxycholsäure zu einem potenten FXR-Agonisten entwickelt. OCA wurde in mehreren Studien auf seine therapeutische Wirkung bei hepatisch-entzündlichen Krankheitsbildern wie der primären biliären Cholangitis (PBC), der nicht-alkoholischen Fettleber (engl: non-alcoholic fatty liver disease, NAFLD) und der daraus folgenden nicht-alkoholischen Steatohepatitis (NASH) getestet. Mittlerweile ist OCA als Zweitlinientherapie der PBC auf dem Arzneimittelmarkt zuge-lassen. Neben OCA gibt es noch eine große Anzahl an weiteren FXR-Liganden, deren strukturelle Diversität von Steroiden bis nicht-steroidalen kleinen Molekülen (engl: small molecules) reicht. Trotz dieser Erfolge muss das Therapiepotential von FXR noch weiter ausgebaut werden. Die meisten verfügbaren Liganden besitzen in vitro zwar eine hohe Potenz, können in ihrem pharmakokinetischen Profil oder ihrer Selektivität gegenüber anderen nukleären Rezeptoren aber nicht überzeugen.
Die hier vorliegende Arbeit hat sich mit der Entwicklung unterschiedlicher Liganden für FXR beschäftigt und diese in vitro und teilweise auch in vivo charakterisiert, um sie entsprechend ihrer Wirkungsweise einzuordnen und ein besseres Verständnis der regulatorischen Funktion von FXR zu erlangen.
Modulation von FXR bezieht sich nicht nur auf die agonistische Aktivierung, sondern setzt sich auch mit Antagonismus auseinander. Neben einigen Krankheitsbildern, die aus einer Überexpression von FXR resultieren, werden Antagonisten als Werkzeug (engl: tool compound) zur Aufklärung von konformellen Veränderungen von FXR und deren Auswirkung auf bestimmte Signalwege benötigt. Für die Erforschung solcher FXR-Antagonisten sollte das Potential nicht-steroidaler Antirheumatika (engl: non-steroidal anti-rheumatic drugs, NSAIDs) als etwaige Leitstrukturen untersucht werden, da in einer Veröffentlichung von Lu et al. ein FXR-Antagonismus durch NSAIDs postuliert wurde. Beim Versuch der Reproduktion der Ergebnisse von Lu et al. mit den drei NSAIDs Ibuprofen, Indometacin und Diclofenac wurde festgestellt, dass die Effekte auf den ersten Blick antagonistisch erscheinen, aber bei genaueren biochemischen Untersuchungen zweifelsfrei als Zytotoxizität identifiziert wurden.
FXR-Antagonisten wie Guggulsteron oder Gly-MCA sind auf ihre therapeutische Wirksamkeit unter-sucht worden, aber die genaue Wirkweise ist noch nicht aufgeklärt. Aufgrund ihrer steroidalen Grundstruktur ist ihre Selektivität gegenüber anderen nukleären Rezeptoren fraglich. Die überschaubare Anzahl an publizierten nicht-steroidalen FXR-Antagonisten besitzt zwar moderate IC50-Werte, ihre strukturelle Diversität und Selektivität ist aber limitiert. Zur Entwicklung neuer potenter FXR-Antagonisten, die aus kleinen Molekülen (engl: small molecules) aufgebaut sind, wurde eine N-Phenylbenzamid-Leitstruktur ausgewählt. Diese Leitstruktur wurde im Rahmen der SAR-Unter-suchungen zur Entwicklung von Anthranilsäurederivaten als FXR-Partialagonisten innerhalb des Arbeitskreises entdeckt. Ausgehend von dieser Leitstruktur wurde eine mehrstufige, systematische SAR-Untersuchung durchgeführt, wodurch ein sehr potenter FXR-Antagonist entwickelt werden konnte, der anschließend umfangreich biochemisch auf FXR-Modulation, Selektivität, Löslichkeit, Toxizität und metabolische Stabilität charakterisiert wurde.
Neben dem Verständnis eines Modulationsmechanismus ist die konkrete Anwendung eines FXR-Liganden zu therapeutischen Zwecken von großem Interesse. Die Beteiligung von FXR in unterschiedlichen metabolischen Prozessen macht den Rezeptor zu einem begehrten Ansatzpunkt für die Wirkstoffentwicklung. Doch die Behandlung eines multifaktoriellen Krankheitsbildes (z.B. metabolisches Syndrom, NASH) sollte sich nicht nur auf einen der gestörten Signalwege beziehen, da diese Erkrankungen durch mehrere Faktoren ausgelöst oder beeinflusst werden. Der semisynthetische FXR-Agonist OCA zeigte innerhalb der FLINT-Studie sowohl antientzündliche und antifibrotische Effekte, als auch eine Verbesserung der metabolischen Parameter mit Blick auf NAFLD und NASH. Die lösliche Epoxidhydrolase (engl: soluble epoxidhydrolase, sEH) besitzt nachweislich anti-inflammatorische und antisteatotische Effekte in der Leber. Aus diesem Grund wurde eine Leitstruktur entwickelt, die eine duale Modulation aus FXR-Aktivierung und sEH-Inhibition erzeugt. Dafür wurden die Pharmakophore eines im Arbeitskreis entwickelten FXR-Partialagonisten sowie eines potenten sEH-Inhibitors miteinander verknüpft. Zur Weiterentwicklung einer ausgewogenen hohen Potenz beider Modulationsfaktoren wurden mehrere unterschiedliche SAR-Untersuchungen als translationales Projekt in mehreren Arbeiten durchgeführt. In der hier vorliegenden Arbeit konnten dieses SAR-Untersuchungen zusammengeführt und weiterentwickelt werden. Dabei wurde ein ausgewogener und hochpotenter dualer Modulator erhalten, der umfassend in vitro und in vivo charakterisiert wurde. Die gezielte duale Aktivität, die mit dieser Substanz erreicht wurde, führt in einem Krankheitsbild zu synergistischer Ergänzung zweier Therapieoptionen. Jedoch kann eine unerwünschte Promiskuität über verwandten nukleären Faktoren zu Nebenwirkungen führen. Die Ursache dafür kann eine saure Funktion darstellen. Ein sehr potenter nicht-azider FXR-Agonist mit einem subnanomolaren EC50-Wert konnte im Arbeitskreis entwickelt werden. Diese Verbindung ist FXR-selektiv, hat keinen toxischen Effekt auf HepG2-Zellen und eine moderate metabolische Halbwertszeit. Die qRT-PCR-Untersuchung direkter und indirekter FXR-Zielgene zeigte eine verstärkte Expression nach der Inkubation mit der nicht-aziden Substanz. Dadurch lässt sich das Prinzip der Nebenwirkungsminderung durch nicht-azide Verbindungen beweisen.
Insgesamt konnte in dieser Arbeit gezeigt werden, wie vielfältig und vielversprechend eine FXR-Modulation aufgebaut sein kann. Zum einen konnte über eine ausgeprägte biochemische Evaluation eine Differenzierung zwischen FXR-Antagonismus und Zelltoxizität bewiesen werden, worauf sich aufbauend eine genaue in vitro-Charakterisierung von neuen N-phenylbenzamidbasierten FXR-Antagonisten durchführen ließ, die ausgehend von einer moderat potenten Leitstruktur zu einer sehr potenten optimierten Substanz entwickelt wurden. FXR-Antagonismus und die dazu passenden tool compounds sind nicht nur von Bedeutung zum besseren Verständnis der unterschiedlichen Bindungsmodi des FXR, sondern auch potentielle Therapieansätze zur Behandlung von Krankheiten, in denen eine FXR-Überexpression stattfindet. Die agonistische Modulation von FXR wurde genauer betrachtet in der in vitro-Untersuchung nicht-azider FXR-Agonisten, die durch das Fehlen einer sauren Funktion ein hohes Maß an Selektivität und dabei eine geringe Toxizität aufwiesen. Synergistische Effekte zur Behandlung eines multifaktoriellen Krankheitsbildes durch die Kombination von FXR-Partialagonismus und sEH-Inhibition konnte durch die Entwicklung der potenten und balancierten Substanz sowohl in vitro als auch in vivo bewiesen werden, wodurch diese Verbindung ein vielversprechender Kandidat für weitere klinische Entwicklung ist.
Im Rahmen dieser Arbeit wurden sRNAs des halophilen Archaeons Haloferax volcanii hinsichtlich ihrer biologischen und ihrer regulatorischen Funktion charakterisiert.
Um einen Überblick über die biologischen Funktionen archaealer sRNAs zu erhalten, wurde eine umfassende phänotypische Charakterisierung von 27 sRNA-Deletionsmutanten im Vergleich zum Wildtyp ausgewertet. Im Zuge dieser phänotypischen Charakterisierungen wurden zehn verschiedene Wachstumsbedingungen, morphologische Unterschiede und Veränderungen in der Zellmotilität untersucht. Hierbei zeigten nahezu alle Deletionsmutanten unter mindestens einer der getesteten Bedingungen phänotypische Unterschiede. Durch den Verlust von sRNAs wurden sowohl sogenannte Gain-of-function als auch Loss-of-function Phänotypen beobachtet. Haloarchaeale sRNAs spielen eine wichtige Rolle beim Wachstum mit verschiedenen Salzkonzentrationen, mit verschiedenen Kohlenstoffquellen und beim Schwärmverhalten, sind jedoch weniger in die Adaptation an diverse Stressbedingungen involviert.
Zur näheren Charakterisierung der regulatorischen Funktion archaealer sRNAs wurden sRNA362, sRNAhtsf468 und sRNA479 mittels molekulargenetischer Methoden wie Northern Blot-Analyse und DNA-Mikroarray sowie bioinformatischer in silico-Analyse untersucht. Das Expressionslevel von sRNA362 konnte bestimmt und potentielle Zielgene für sRNAhtsf468 und sRNA479 identifiziert werden.
Eine vorangegangene Studie zeigte den Einfluss von sRNA30 unter Hitzestress und führte zur Identifikation differentiell produzierter Proteine in Abwesenheit der sRNA. In dieser Arbeit wurde mittels Northern Blot-Analysen die Expression der sRNA30 charakterisiert. Das Wachstum in An- und Abwesenheit von sRNA30 wurde bei 42°C und 51°C phänotypisch charakterisiert und der regulatorische Einfluss der sRNA auf die mRNA differentiell regulierter Proteine durch Northern Blot-Analyse überprüft. Eine Transkriptomanalyse mittels DNA-Mikroarray nach Hitzeschock-Induktion führte zur Identifikation differentiell regulierter Gene involviert in Transportprozesse, Metabolismus, Transkriptionsregulation und die Expression anderer sRNAs. Die differentielle Regulation des Proteoms nach Hitzeschockinduktion in An- und Abwesenheit von sRNA30 konnte bestätigt werden.
Desweiteren wurde in dieser Arbeit sRNA132 und deren phosphatabhängige Regulation der Ziel-mRNA HVO_A0477-80 näher charakterisiert. Eine Induktionskinetik nach Phosphatentzug bestätigte die Bedeutung von sRNA132 für die verstärkte Expression des Operons HVO_A0477-80 unter Phosphatmangel-Bedingungen und verwies auf die Existenz weiterer Regulationsmechanismen. Während vor und nach Phosphatentzug kein Unterschied bezüglich der Zellmorphologie von Wildtyp und Deletionsmutante zu erkennen war, führte das Wachstum mit einem starken Phosphatüberschuss von 5 mM zu einer Zellverlängerung der Deletionsmutante. Die Kompetition der nativen 3‘-UTR des Operons HVO_A0477-80 mit einer Vektor-kodierten artifiziellen 3‘-UTR legt eine Regulation über die Bindung von sRNA132 an die 3‘-UTR nahe. Der Transkriptomvergleich nach Phosphatentzug in An- und Abwesenheit von sRNA132 führte zur Identifikation des Phosphoregulons der sRNA. Zu diesem Phosphoregulon gehören unter anderem zwei Glycerinphosphat-Dehydrogenasen, Transkriptionsregulatoren, eine Polyphosphatkinase und eine Glycerolphosphodiesterase. Zudem waren die Transkriptlevel der beiden ABC-Transporter HVO_A0477-80 und HVO_2375-8 für anorganisches Phosphat und des Transporters HVO_B0292-5 für Glycerinaldehyd-3-Phosphat in Abwesenheit der sRNA verringert. Die beiden ABC-Transportsysteme für anorganisches Phosphat wurden im Rahmen dieser Arbeit deletiert und weiter charakterisiert. Es konnte gezeigt werden, dass das ABC-Transportsystem HVO_2375-8 bei geringen Phosphatkonzentrationen leicht induziert wird und das Transkriptlevel in Anwesenheit von sRNA132 erhöht ist. Wachstumsversuche der jeweiligen Deletionsmutante in direkter Konkurrenz mit dem Wildtyp zeigten, dass keiner der beiden ABC-Transporter den anderen vollständig ersetzen kann und der Wildtyp mit beiden intakten ABC-Transportern unter phosphatlimitierenden Bedingungen einen Wachstumsvorteil besitzt. In silico-Analysen der Promotorbereiche von sRNA und ABC-Transporter legen zudem die Existenz von P-Boxen nahe.
With the discovery of light beyond human visibility, scientists strove to extend the range of observation to invisible parts of the light’s spectrum. Realising that light of all frequencies is part the same physical phenomenon, brought a leap in understanding about electromagnetic waves. With the development of more advanced technology, detectors with higher sensitivity for adjacent frequencies to the visible were built. From this, with each new observable wavelength, more insight into otherwise invisible processes and phenomenons were observed. Hand in hand with this went the enhancement of the output power of corresponding sources. This has lead to higher sensitivity setups throughout the spectrum, leading to observations which have given a deeper understanding in various fields of science. Nowadays, detectors and emitters in many different regions of the invisible electro magnetic spectrum have found their way in our every day life. Innovations in technology has lead to practical applications such as X-rays in medicine, motion sensors and remote controls using infrared light, distance sensors and data transmission using radar and radio devices. The frequency regions above infrared are optically generated and below radar can be produced using electric methods. There is no straight line that separates these frequencies. There rather is a whole intermediate region known as the terahertz (THz) regime. Due to the lack of sensitive detectors and efficient sources, the THz frequency region has not been exploited for application use on a widespread basis so far. It combines properties from the surrounding frequency ranges which make it an ideal spectrum for various applications. Consequently, THz radiation and THz imaging are active fields of research.
The work presented in this thesis consists of the development and testing of novel THz imaging concepts, which uses a THz antenna coupled field effect transistor (TeraFET) detector. Two detection principles are applied using two different optical setups. The first uses a pulsed optical parametric oscillator (OPO) THz source where the optical output power is detected. The source relies on a nonlinear effect of a lithium niobate crystal to generate tunable THz pulses from a Q-switched pump laser. The THz signal is detected and amplified by a double stage operational amplifier for monitoring the real time 20 ns pulses on an oscilloscope where a signal to noise ratio (SNR) of ⇠ 25 at a frequency range from 0.75 to 1.1 THz is reached. Imaging of the area of interest with a resolution of 1.2 mm is achieved through raster scanning of the THz pulses. Also spectroscopy with a frequency resolution of ⇠ 50 GHz is demonstrated using a para-aminobenzoic acid sample. The second setup utilises two synchronised electronic multiplier chain sources where their output is mixed on the detector. To form a heterodyne detection setup, the intermediate frequency is fed to a lock-in amplifier which then amplifies the so called beat signal from the TeraFET detector. One source is fixed relative to the detector even through scanning to ensure a stable signal. This detection method allows for amplitude and phase detection for every scanning position, making numerical light field propagation and object reconstruction possible. Numerical focussing is a key feature achieving a lateral resolution of the input transmittance of ⇡ 2 mm.
After the introduction, the second chapter describes the setup, measurement results and challenges which arise using a TeraFET together with the pulsed THz source “Firefly-THz”. In the description of the setup, special attention is given to the shielding of the detector and the electronics. General findings discuss first the overall performance and later spectroscopy and imaging as application examples. Another subsection continues with potential noise sources before the chapter is concluded. Chapter three expands on the topic of Fourier optics from a theoretical point of view. First, parts of the theory of the Fourier Transform (FT) are set out for the reader and how the Fast Fourier Transform (FFT) results from the Discrete Fourier Transform (DFT). This approach is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on electro magnetic field propagation through an optical system. The boundary conditions are chosen to be practical relevant to make predictions on measurements presented in chapter four. The following fourth chapter describes the realisation of a heterodyne THz detection setup. Before the measurement results are presented, the setup and its electric configuration are shown. The results come close to the analytical predictions so that the same algorithm which propagates the field from an object to the Fourier plane is used to propagate the measured field back to the object. The influence of phase noise on the measurement results are discussed before simulation and measurement is compared. The last chapter in this thesis concludes on the findings in the pulsed THz detection and the heterodyne THz Fourier imaging and gives an outlook for both configurations.
Die vorliegende Promotionsarbeit befasst sich mit der retrospektiven Untersuchung von dentalen Implantaten, die nach Augmentation mit einem synthetischen Knochenersatzmaterial Nanobone® (Artoss, Rostock, Germany) inseriert wurden.
Ziel der vorangegangenen Studie war die Untersuchung, ob durch die Verkürzung der Einheilzeit von 6 auf 3 Monaten ein vergleichbares Ergebnis an Knochenneubildung erreicht werden kann. Es konnte gezeigt werden, dass eine Sinusbodenaugmentation mit dem synthetischen Knochenersatzmaterial Nanobone® schon nach einer Einheilzeit von 3 Monaten ein suffizientes Implantatbett vorweist und somit eine langzeitstabile Implantatrestauration (3-Jahres Follow up) ermöglicht.
Im Rahmen des 10-Jahres Follow-up konnten 12 der insgesamt 14 Patienten klinisch nachuntersucht werden.
Somit standen für die durchgeführte Nachuntersuchung noch 24 der insgesamt 27 Implantate zur Verfügung.
Hiervon wurden 17 Implantate nach 3 Monaten und 7 Implantate nach 6 Monaten inseriert.
Zehn Jahre nach der primären Augmentation und zweizeitigen Implantation zeigten sich bei der Nachuntersuchung 22 der 24 Implantate stabil und reizfrei in situ.
Die Parameter, die in der klinischen Untersuchung erhoben wurden waren, neben der festen und stabilen in situ Insertion der Implantate, eine Periotest-Messung (Medizintechnik Gulden, Modautal, Deutschland), das Bluten auf Sondieren (Bleeding on probing, BOP), die Bestimmung des Plaqueindex sowie die Untersuchung des Weichgewebes auf Rezessionen und Weichgewebsdehiszenzen.
Zwei der 24 Implantate mussten explantiert werden, eines davon bereits ein Jahr nach Implantation aufgrund von progredienten Entzündungszeichen und Lockerung.
Dies entspricht einer mittleren Implantatüberlebensrate von 91,66% oder einer Verlustrate von 8,34%.
Anders als im 3 Jahres Follow-up zeigte sich im Gruppenvergleich 3- zu 6 Monaten ein deutlicher Unterschied mit einer Implantatüberlebensrate in der 6- Monatsgruppe von 100% (7 von 7 Implantaten in situ) zu einer Implantatüberlebensrate der 3-Monatsgruppe von 88,24% (15 von 17 Implantaten in situ).
Somit ergibt sich ein deutlich besseres Outcome 10 Jahre post implantationem im Sinne einer erhöhten Implantatüberlebensrate und einer niedrigeren Komplikationsrate für die 6-Monatskontrollgruppe im Vergleich zu den Patienten, bei denen bereits 3 Monate post augmentationem implantiert wurde.
Die vorliegenden Untersuchungen zeigen, dass die Langzeitergebnisse nach Verwendung von alloplastischen KEM NanoBone®, auch nach 10 Jahren, mit vergleichbaren Langzeitergebnissen zu autologen Knochenersatz zur Knochenaugmentation im Oberkieferbereich mit gegebenenfalls kombinierter Sinusbodenaugmentation und zweizeitiger Implantatversorgung einhergehen.
This thesis is concerned with systematic investigations of electronic noise in novel condensed matter systems. Although fluctuations are frequently considered a nuisance, that is, a disturbance limiting the accuracy of scientific measurements, in many cases they can reveal fundamental information about the inherent system dynamics. During the past decades, the study of electronic fluctuations has evolved into an indispensable tool in condensed matter physics.
The focus of the present work lies both in a further development of the fluctuation spectroscopy technique and in the study of materials of current interest. In particular, a comprehensive study of the charge carrier dynamics in the archetypal diluted magnetic semiconductors (Ga,Mn)As and (Ga,Mn)P was performed. In spite of extensive research work carried out during the last years, there still exists no theoretical consensus on the precise mechanism of ferromagnetic order and the electronic structure in these materials. Moreover, disorder and correlation effects complicate the understanding of these compounds.
Fluctuation spectroscopy experiments presented in this work provide strong evidence that a percolation transition is observed in samples with localized charge carriers, since the normalized resistance noise magnitude displays a significant enhancement around the Curie temperature. In addition, this quantity exhibits a power law scaling behavior as a function of the resistance, which is in good agreement with theoretical models of percolating systems.
By contrast, it was found that the resistance noise in metallic samples is mainly dominated by the physics of defects such as manganese interstitials and arsenic antisites. Furthermore, first noise studies were carried out on hafnia- and yttria-based resistive random access memories. In these memristor devices, the rupture and re-formation of oxygen deficient conducting filaments caused by the electric field and Joule heating driven motion of mobile anions lead to an unusual resistance switching behavior. For the first time, comparative noise measurements on oxygen deficient and stoichiometric hafnium oxide devices, as well as on novel yttrium oxide based devices were performed in this work. Finally, new strategies for noise measurements of highly insulating and extremely low-resistive samples were developed and realized. In detail, an experimental setup for the measurements of dielectric polarization fluctuations in insulating systems was designed and successfully tested. Here, the polarization noise of a sample is measured as current or voltage fluctuations produced within a capacitance cell. The study of dielectric polarization noise allows for conclusions to be drawn regarding equilibrium structural dynamics in insulators such as relaxor ferroelectrics. On the other hand, as successfully demonstrated for a heavy-fermion compound, focused ion beam etching enables to introduce a meander-shaped geometry in single crystal platelets, in order to strongly enhance the sample resistance and thus make resistance noise measurements possible. First results indicate a connection of the noise properties with the Kondo effect in the investigated material.
In dieser Arbeit soll identifiziert werden, welcher der zahlreichen Vertreter einer Arzneistoffklasse sich letztlich auf dem Markt durchsetzen kann und ob bestimmte pharmakokinetische, pharmakodynamische, klinische oder praktische Substanzeigenschaften retrospektiv für den Markterfolg einer Substanz verantwortlich gemacht werden können. Zudem stellt sich die Frage, ob und in wie fern Analogpräparate einen Nutzen in der Arzneimitteltherapie mit sich bringen, obwohl ihnen zum Zeitpunkt ihrer Markteinführung nur ein geringer Innovationsgrad zugebilligt wurde. Um derartige Rückschlüsse ziehen zu können wurden exemplarisch folgende fünf Arzneistoffklassen untersucht, die sich durch eine Vielzahl an Vertretern auszeichnen: Arsphenamine, Sulfonamide, Benzodiazepine, Glucocorticoide sowie Betablocker. Der Untersuchungszeitraum bemisst sich folglich vom Anfang des 20. Jahrhunderts, als industriell gefertigte, chemisch definierte hochpotente Wirkstoffe die Therapie zu bestimmen begannen, bis etwa zum letzten Drittel des 20. Jahrhunderts als Preise und Kostenerstattungsfragen zusätzlich zu Substanzeigenschaften für den Markterfolg mitbestimmend wurden.
The results of this thesis lie in the area of convex algebraic geometry, which is the intersection of real algebraic geometry, convex geometry, and optimization.
We study sums of nonnegative circuit polynomials (SONC) and their related cone, both geometrically and in application to polynomial optimization. SONC polynomials are certain sparse polynomials having a special structure in terms of their Newton polytopes and supports, and serve as a certificate of nonnegativity for real polynomials, which is independent of sums of squares.
The first part of this thesis is dedicated to the convex geometric study of the SONC cone. As main results we show that the SONC cone is full-dimensional in the cone of nonnegative polynomials, we exactly determine the number of zeros of a nonnegative circuit polynomial, and we give a complete and explicit characterization of the number of zeros of SONC polynomials and forms. Moreover, we provide a first approach to the study of the exposed faces of the SONC cone and their dimensions.
In the second part of the thesis we use SONC polynomials to tackle constrained polynomial optimization problems (CPOPs).
As a first step, we derive a lower bound for the optimal value of CPOP based on SONC polynomials by using a single convex optimization program, which is a geometric program (GP) under certain assumptions. GPs are a special type of convex optimization problems and can be solved in polynomial time. We test the new method experimentally and provide examples comparing our new SONC/GP approach with Lasserre's relaxation, a common approach for tackling CPOPs, which approximates nonnegative polynomials via sums of squares and semidefinite programming (SDP). The new approach comes with the benefit that in practice GPs can be solved significantly faster than SDPs. Furthermore, increasing the degree of a given problem has almost no effect on the runtime of the new program, which is in sharp contrast to SDPs.
As a second step, we establish a hierarchy of efficiently computable lower bounds converging to the optimal value of CPOP based on SONC polynomials. For a given degree each bound is computable by a relative entropy program. This program is also a convex optimization program, which is more general than a geometric program, but still efficiently solvable via interior point methods.
Systemerkrankungen der arteriellen Gefäße stellen eine häufige Todesursache in Deutschland und der westlichen Welt dar. Hierbei sind vor allem die auf Grundlage von Arteriosklerose entstehende Koronare Herzerkrankung sowie der Myokardinfarkt zu nennen. Ursache des Myokardinfarktes ist eine Minderperfusion und damit bedingte Ischämie des Myokardgewebes. Ziel einer jeden Minderperfusion ist die therapeutisch schnellstmögliche Reperfusion. Ischämie- und Hypoxie-bedingt entstehen hierbei durch inflammatorische Prozesse, Ansammlung toxischer Metabolite, veränderter Protein-Expressionsmuster sowie durch das reperfundierende Blut der sogenannte Ischämie-Reperfusionsschaden. Dieser komplexe Effekt lässt sich über dem hinaus auch bei Organtransplantationen beobachten.
Die vorliegende Arbeit beschreibt den Versuch den Ischämie-Reperfusionsschaden durch den Einfluss von mTOR-Inhibition im humanen Gefäßmodel zu quantifizieren. Hierbei wurden die mTOR-Inhibitoren Sirolimus und Everolimus verwendet. Beide Immunsuppressiva finden aktuell unter anderem klinische Anwendung nach Organtransplantationen. Bereits in einigen Studien konnten positive Effekte von Sirolimus als auch Everolimus auf den Ischämie-Reperfusionsschaden nachgewiesen werden. Dieser Versuch sollte nun weitere zielführende Erkenntnisse hinsichtlich mTOR-Inhibition und proinflammatorischer Prozesse sowie der Expression von Zell-Adhäsionsmolekülen im humanen Gefäßmodell liefern. Ebenso sollte die Qualität des Bioreaktors als adäquates Humangefäß-Perfusionsmodell evaluiert werden.
Als Versuchsgrundlage wurde hierbei eine Ischämiezeit der Gefäße von vier bis fünf Stunden festgelegt. Die verwendeten Gefäße wurden in der Folge nach standardisierten Kriterien (Präoxygenierung, Heparinisierung, 37° Grad Celsius Temperatur, Blutgruppe AB Rhesusfaktor negativ, Hämatokritwert 30%) zwei Stunden lang mittels Vollblut im Bioreaktormodel reperfundiert. Unterschieden wurde hierbei eine Gefäßkontrollgruppe (n=7), von einer Sirolimus-Gruppe (n=6, standardisierte Blutkonzentration 10ng/ml) und einer Everolimus-Gruppe (n=7, standardisierte Blutkonzentration 5 ng/ml). Nach standardisierten Zeitpunkten der Reperfusion (0 Minuten, 15 Minuten, 30 Minuten, 60 Minuten und 120 Minuten) wurden jeweils Blutproben dem simulierten Kreislauf entnommen. Mittels Blutgasanalyse wurde über die Bestimmung des Sauerstoffpartialdrucks, des Kohlendioxidpartialdrucks sowie des pH-Wertes eine qualitative Evaluierung des Bioreaktors als humanes Gefäßmodel vorgenommen. Des Weiteren dienten die Blutproben zur Erfassung der proinflammatorischer Marker Interleukin-6, TNF-α, sowie VEGF während der unterschiedlichen Zeitpunkte der Blutentnahme. Nach Beendigung der Reperfusion wurden Gefäßproben mittels immunhistochemischen Verfahren auf die Expression der Zell-Adhäsionsmoleküle CD31 sowie CD11b hin untersucht.
Aufgrund durchgeführter Versuche konnte gezeigt werden, dass in der Kontrollgruppe die Interleukin-6- sowie VEGF-Spiegel signifikant im Zuge der Reperfusion anstiegen. Sirolimus als auch Everolimus konnten demgegenüber einen signifikanten Anstieg dieser proinflammatorischen Signalmoleküle verhindern. Im Vergleich des proinflammatorischen TNF-α konnte allerdings ein signifikanter Einfluss der mTOR-Inhibitoren nicht bestätigt werden. Hinsichtlich des Expressionsmusters konnte Sirolimus als auch Everolimus eine signifikante Reduktion von sowohl CD31-positiven als auch CD11b-positiven Zellen im Vergleich zur Kontrollgruppe aufzeigen.
In der Zusammenschau lässt sich aus den erhobenen Daten schlussfolgern, dass der Bioreaktor als humanes Gefäßmodell ein suffizientes Perfusionssystem darstellt. Sirolimus als auch Everolimus können über ihren Wirkungsmechanismus der mTOR-Inhibition einen Anstieg proinflammatorischen Moleküle zum Teil verhindern. Den größten Einfluss auf den Ischämie-Reperfusionsschaden nehmen Sirolimus als auch Everolimus hierbei mittels der Suppression von Zell-Adhäsionsmolekülen CD31 und CD11b.
In this thesis we introduce the imaginary projection of (multivariate) polynomials as the projection of their variety onto its imaginary part, I(f) = { Im(z_1, ... , z_n) : f(z_1, ... , z_n) = 0 }. This induces a geometric viewpoint to stability, since a polynomial f is stable if and only if its imaginary projection does not intersect the positive orthant. Accordingly, the thesis is mainly motivated by the theory of stable polynomials.
Interested in the number and structure of components of the complement of imaginary projections, we show as a key result that there are only finitely many components which are all convex. This offers a connection to the theory of amoebas and coamoebas as well as to the theory of hyperbolic polynomials.
For hyperbolic polynomials, we show that hyperbolicity cones coincide with components of the complement of imaginary projections, which provides a strong structural relationship between these two sets. Based on this, we prove a tight upper bound for the number of hyperbolicity cones and, respectively, for the number of components of the complement in the case of homogeneous polynomials. Beside this, we investigate various aspects of imaginary projections and compute imaginary projections of several classes explicitly.
Finally, we initiate the study of a conic generalization of stability by considering polynomials whose roots have no imaginary part in the interior of a given real, n-dimensional, proper cone K. This appears to be very natural, since many statements known for univariate and multivariate stable polynomials can be transferred to the conic situation, like the Hermite-Biehler Theorem and the Hermite-Kakeya-Obreschkoff Theorem. When considering K to be the cone of positive semidefinite matrices, we prove a criterion for conic stability of determinantal polynomials.
Antimicrobial resistance became a serious threat to the worldwide public health in this century. A better understanding of the mechanisms, by which bacteria infect host cells and how the host counteracts against the invading pathogens, is an important subject of current research. Intracellular bacteria of the Salmonella genus have been frequently used as a model system for bacterial infections. Salmonella are ingested by contaminated food or water and cause gastroenteritis and typhoid fever in animals and humans. Once inside the gastrointestinal tract, Salmonella can invade intestinal epithelial cells. The host cell can fight against intracellular pathogens by a process called xenophagy. For complex systems, such as processes involved in the bacterial infection of cells, computational systems biology provides approaches to describe mathematically how these intertwined mechanisms in the cell function. Computational systems biology allows the analysis of biological systems at different levels of abstraction. Functional dependencies as well as dynamic behavior can be studied. In this thesis, we used the Petri net formalism to gain a better insight into bacterial infections and host defense mechanisms and to predict cellular behavior that can be tested experimentally. We also focused on the development of new computational methods.
In this work, the first realization of a mathematical model of the xenophagic capturing of Salmonella enterica serovar Typhimurium in epithelial cells was developed. The mathematical model expressed in the Petri net formalism was constructed in an iterative way of modeling and analyses. For the model verification, we analyzed the Petri net, including a computational performance of knockout experiments named in silico knockouts, which was established in this work. The in silico knockouts of the proposed Petri net are consistent with the published experimental perturbation studies and, thus, ensures the biological credibility of the Petri net. In silico knockouts that have not been experimentally investigated yet provide hypotheses for future investigations of the pathway.
To study the dynamic behavior of an epithelial cell infected with Salmonella enterica serovar Typhimurium, a stochastic Petri net was constructed. In experimental research, a decision like "Which incubation time is needed to infect half of the epithelial cells with Salmonella?" is based on experience or practicability. A mathematical model can help to answer these questions and improve experimental design. The stochastic Petri net models the cell at different stages of the Salmonella infection. We parameterized the model by a set of experimental data derived from different literature sources. The kinetic parameters of the stochastic Petri net determine the time evolution of the bacterial infection of a cell. The model captures the stochastic variation and heterogeneity of the intracellular Salmonella population of a single cell over time. The stochastic Petri net is a valuable tool to examine the dynamics of Salmonella infections in epithelial cells and generate valuable information for experimental design.
In the last part of this thesis, a novel theoretical method was introduced to perform knockout experiments in silico. The new concept of in silico knockouts is based on the computation of signal flows at steady state and allows the determination of knockout behavior that is comparable to experimental perturbation behavior. In this context, we established the concept of Manatee invariants and demonstrated the suitability of their application for in silico knockouts by reflecting biological dependencies from the signal initiation to the response. As a proof of principle, we applied the proposed concept of in silico knockouts to the Petri net of the xenophagic recognition of Salmonella. To enable the application of in silico knockouts for the scientific community, we implemented the novel method in the software isiKnock. isiKnock allows the automatized performance and visualization of in silico knockouts in signaling pathways expressed in the Petri net formalism. In conclusion, the knockout analysis provides a valuable method to verify computational models of signaling pathways, to detect inconsistencies in the current knowledge of a pathway, and to predict unknown pathway behavior.
In summary, the main contributions of this thesis are the Petri net of the xenophagic capturing of Salmonella enterica serovar Typhimurium in epithelial cells to study the knockout behavior and the stochastic Petri net of an epithelial cell infected with Salmonella enterica serovar Typhimurium to analyze the infection dynamics. Moreover, we established a new method for in silico knockouts, including the concept of Manatee invariants and the software isiKnock. The results of these studies are useful to a better understanding of bacterial infections and provide valuable model analysis techniques for the field of computational systems biology.
Cells within a tissue form highly complex, cellular interactions. This architecture is lost in twodimensional cell cultures. To close the gap between two-dimensional cell cultures and in vivo tissues, three-dimensional cell cultures were developed. Three-dimensional cellular aggregates such as spheroids, organoids, or embryoid bodies have been established as an essential tool in many different aspects of life science, including tumour biology, drug screening and embryonic development. To fully take advantage of the third dimension, imaging techniques are essential. The emerging field of “imagebased systems biology” exploits the information in images and builds a connection between experimental and theoretical investigation of biological processes at a spatio-temporal level. Such interdisciplinary approaches strongly depend on the development of protocols to establish threedimensional cell cultures, innovations in sample preparation, well-suited imaging techniques and quantitative segmentation methods.
Although three-dimensional cell cultures and image-based systems biology provide a great potential, two-dimensional methods are still not completely replaced by three-dimensional methods. The knowledge about many biological processes relies on two-dimensional experiments. This is mainly due to methodical and technical hurdles. Therefore, this thesis provides a significant contribution to overcome these hurdles and to further develop three-dimensional cell cultures. I established computational as well as experimental methods related to three-dimensional cellular aggregates and investigated fundamental, cellular processes such as adhesion, growth and differentiation.
My study examined MMA training, and thereby the ‘back region’ of MMA, where the ‘everyday life’ of MMA takes place. I enquired into how MMA training corresponds with MMA’s self-description, namely the somehow self-contradicting notion that MMA fights would be dangerous combative goings-on of approximately real fighting, but that MMA fighters would be able to approach these incalculable and uncontrolla-ble combative dangers as calculable and controllable risks.235 Conducting an ethnog-raphy in which I focused on the combination of participation and observation, I stud-ied how the specific interaction organisations of the three core training practices of MMA training provide the training students with specific combative experiences and how they thereby construct the social reality that is MMA training....
Die vorliegende Arbeit beschäftigt sich mit dem Thema Stemmatologie, d.h. primär der Rekonstruktion der Kopiergeschichte handschriftlich fixierter Dokumente. Zentrales Objekt der Stemmatologie ist das Stemma, eine visuelle Darstellung der Kopiergeschichte, welche i.d.R. graphtheoretisch als Baum bzw. gerichteter azyklischer Graph vorliegt, wobei die Knoten Textzeugen (d.s. die Textvarianten) darstellen während die Kanten für einzelne Kopierprozesse stehen. Im Mittelpunkt des Wissenschaftszweiges steht die Frage des Autorenoriginals (falls ein einziges solches existiert haben sollte) und die Frage der Rekonstruktion seines Textes. Das Stemma selbst ist ein Mittel zu diesem Hauptzweck (Cameron 1987). Der durch für manuelle Kopierprozesse kennzeichnende Abweichungen zunehmend abgewandelte Originaltext ist meist nicht direkt überliefert. Ziel der Arbeit ist es, die semi-automatische Stemmatologie umfassend zu beschreiben und durch Tools und analytische Verfahren weiterzuentwickeln. Der erste Teil der Arbeit beschreibt die Geschichte der computer-assistierten Stemmatologie inkl. ihrer klassischen Vorläufer und mündet in der Vorstellung eines einfachen Tools zur dynamischen graphischen Darstellung von Stemmata. Ein Exkurs zum philologischen Leitphänomen Lectio difficilior erörtert dessen mögliche psycholinguistische Ursachen im schnelleren lexikalischen Zugriff auf hochfrequente Lexeme. Im zweiten Teil wird daraufhin die existenziellste aller stemmatologischen Debatten, initiiert durch Joseph Bédier, mit mathematischen Argumenten auf Basis eines von Paul Maas 1937 vorgeschlagenen stemmatischen Models beleuchtet. Des Weiteren simuliert der Autor in diesem Kapitel Stemmata, um den potenziellen Einfluss der Distribution an Kopierhäufigkeiten pro Manuskript abzuschätzen.
Im nächsten Teil stellt der Autor ein eigens erstelltes Korpus in persischer Sprache vor, welches ebenso wie 3 der bekannten artifiziellen Korpora (Parzival, Notre Besoin, Heinrichi) qualitativ untersucht wird. Schließlich wird mit der Multi Modal Distance eine Methode zur Stemmagenerierung angewandt, welche auf externen Daten psycholinguistisch determinierter Buchstabenverwechslungswahrscheinlichkeiten beruht. Im letzten Teil arbeitet der Autor mit minimalen Spannbäumen zur Stemmaerzeugung, wobei eine vergleichende Studie zu 4 Methoden der Distanzmatrixgenerierung mit 4 Methoden zur Stemmaerzeugung durchgeführt, evaluiert und diskutiert wird.
Heat stress transcription factors (Hsfs) have an essential role in heat stress response (HSR) and thermotolerance by controlling the expression of hundreds of genes including heat shock proteins (Hsps) with molecular chaperone functions. Hsf family in plants shows a striking multiplicity, with more than 20 members in many species. In Solanum lycopersicum HsfA1a was reported to act as the master regulator of the onset of HSR and therefore is essential for basal thermotolerance. Evidence for this was provided by the analysis of HsfA1a co-suppression (A1CS) transgenic plants, which exhibited hypersensitivity upon exposure to heat stress (HS) due to the inability of the plants to induce the expression of many HS-genes including HsfA2, HsfB1 and several Hsps. Completion of tomato genome sequencing allowed the completion of the Hsf inventory, which is consisted of 27 members, including another three HsfA1 genes, namely HsfA1b, HsfA1c and HsfA1e.
Consequently, the suppression effect of the short interference RNA in A1CS lin e was re-evaluated for all HsfA1 genes. We found that expression of all HsfA1 proteins was suppressed in A1CS protoplasts. This result suggested that the model of single master regulator needs to be re-examined.
Expression analysis revealed that HsfA1a is constitutively expressed in different tissues and in response to HS, while HsfA1c and HsfA1e are minimally expressed in general, and show an induction during fruit ripening and a weak upregulation in late HSR. Instead HsfA1b shows preferential expression in specific tissues and is strongly and rapidly induced in response to HS. At the protein level HsfA1b and HsfA1e are rapidly degraded while HsfA1a and HsfA1c show a higher stability. In addition, HsfA1a and HsfA1c show a nucleocytosolic distribution, while HsfA1b and HsfA1e a strong nuclear retention.
A major property of a master regulator in HSR is thought to be its ability to cause a strong transactivation of a wide range of genes required for the initial activation of protective mechanisms. GUS reporter assays as well as analysis of transcript levels of several endogenous transcripts in protoplasts transiently expressing HsfA1 proteins revealed that HsfA1a can stimulate the transcription of many genes, while the other Hsfs have weaker activity and only on limited set of target genes. The low activity of HsfA1c and HsfA1e can be attributed to the lower DNA capacity of the two factors as judged by a GUS reporter repressor assay.
HsfA1a has been shown to have synergistic activity with the stress induced HsfA2 and HsfB1. The formation of such complexes is considered as important for stimulation of transcription and long term stress adaptation. All HsfA1 members show synergistic activity with HsfA2, while only HsfA1a act as co-activator of HsfB1 and HsfA7. Interestingly, HsfA1b shows an exceptional synergistic activity with HsfA3, suggesting that different Hsf complexes might regulate different HS-related gene networks. Altogether these results suggest that HsfA1a has unique characteristics within HsfA1 subfamily. This result is interesting considering the very high sequencing similarity among HsfA1s, and particularly among HsfA1a and HsfA1c.
To understand the molecular basis of this discrepancy, a series of domain swapping mutants between HsfA1a and HsfA1c were generated. Oligomerization domain and C-terminal swaps did not affect the basal activity or co-activity of the proteins. Remarkably, an HsfA1a mutant harbouring the N-terminus of HsfA1c shows reduced activity and co-activity, while the reciprocal HsfA1c with the N-terminus of HsfA1a cause a gain of activity and enhanced DNA binding capacity.
Sequence analysis of the DBD of HsfA1 proteins revealed a divergence in the highly conserved C-terminus of the turn of β3-β4 sheet. As the vast majority of HsfA1 proteins, HsfA1a at this position comprises an Arg residue (R107), while HsfA1c a Leu and HsfA1e a Cys. An HsfA1a-R107L mutant has reduced DNA binding capacity and consequently activity. Therefore, the results presented here point to the essential function of this amino acid residue for DNA binding function. Interestingly, the mutation did not affect the activity of the protein on Hsp70-1, suggesting that the functionality of the DBD and consequently the transcription factor on different promoters with variable heat stress element number and architecture is dependent on structural peculiarities of the DBD.
In conclusion, the unique properties including expression pattern, transcriptional activities, stability, DBD-peculiarities are likely responsible for the dominant function of HsfA1a as a master regulator of HSR in tomato. Instead, other HsfA1-members are only participating in HSR or developmental regulations by regulating a specific set of genes. Furthermore, HsfA1b and HsfA1e are likely function as stress primers in specific tissues while HsfA1c as a co-regulator in mild HSR. Thereby, tomato subclass A1 presents another example of function diversity not only within the Hsf family but also within the Hsf-subfamily of closely related members. The diversification based on DBD peculiarities is likely to occur in potato as well. Therefore this might have eliminated the functional redundancy observed in other species such as Arabidopsis thaliana but has probably allowed the more refined regulation of Hsf networks possibly under different stress regimes, tissues and cell types.
Photolabile protecting groups (PPGs, cages, photocages) are molecules which can block the activity of a functional group and be removed by irradiation of light of an appropriate wavelength. One of the goals of this work was to design new photolabile protecting groups, based on a literature known one. The far-UV absorbing diethylamino benzyl (DEAMb) photocage, developed by Wang et al., was selected as structural basis for this work. In order to trigger the uncaging reaction with longer wavelengths (≥365 nm), thus allowing also biological applications, its structure was optimized. This was done by elongating the π-orbital conjugation using biphenyl derivatives instead of a single aromatic moiety. The photocage was loaded with glutamic acid as the leaving group.
The highest bathochromic shift was shown by compounds, which had the smallest sterical hindrance imposed on the second aromatic ring. The absorption spectrum was more redshifted if the second aromatic ring contained an electron withdrawing group. However, the stronger the substituents electron withdrawing strength was, the lower the uncaging quantum yield was. It was rationalized, that this is due to a decreased excited state electron density at the benzylic carbon of the DEAMb core which is necessary to trigger bond dissociation. This has been confirmed using TDDFT (time-dependent density functional theory) computations done by Jan von Cosel, Konstantin Falahati and Carsten Hamerla (from the group of Irene Burghardt). The best uncaging quantum yield was 42% for m-phenyl substituted DEAMb, while if a strong electron withdrawing group was present (nitro group), there was no photoactivity at all.
In order to achieve a better π-orbital conjugation of the non-coplanar biphenyl derivatives, a C-C bond was introduced between the benzylic carbon and the second aromatic ring. The resulting planar compounds belong to the fluorene class. The computational data predicted the photochemical meta effect to some extent to be preserved in these molecules. A set of fluorene derivatives was synthesized and photochemically characterized. The molar absorption coefficients of all prepared fluorene derivatives were higher than for any of the biphenyl derivatives. Quantum yields of the acetate release ranged between 3-42%, thus being as good as the best glutamic acid releasing biphenyl compounds. The highest uncaging cross section of the acetate release from the prepared fluorene derivatives was above 5000 M^-1 cm^-1. This value proves the high potential of the new fluorene based photocages developed in this work. Furthermore, release of hydroxide ion from fluorenol could be shown along with generation of, presumably, fluorenyl cation. These intriguing results paves a way for further exploration of fluorene based photocages for the release of bad leaving groups.
The second part of this work describes the custom synthesis of 13C labeled compounds for the VIPER (VIbrationally Promoted Electronic Resonance) project. In the VIPER pulse sequence, a molecule is vibrationally excited by a narrow band IR-pump pulse. The following Vis-pump pulse will promote the vibrationally pre-excited molecules to an electronically excited state. This Vis-pump pulse is offresonant for the not vibrationally pre-selected species and only resonant with the molecules, which are already pre-excited by the IR-pump pulse. Since the IR absorption bands usually are well resolved, a selective excitation of one molecule in an ensemble of similar ones is possible in the IR frequency range. Isotopologues and isotopomers are an extreme case of molecules which are near identical and differ only by isotopic composition or position. As a result in solution and at room temperature they have an identical UV-Vis absorption spectrum but different IR spectrum. This allows vibrational excitation of only one isotopologue (or isotopomer).
Isotopic labels were introduced in known photocages: 7-diethylamino coumarin (DEACM) and para-hydroxy phenacyl (pHP). The position for isotopic label incorporation in these molecules was guided by computations done by Jan von Cosel and Carsten Neumann. To allow control of the photoreactions in an ultrafast timescale, an IR active leaving group was used. The uncaging behavior of the prepared molecules in steady state was tested using chromatography (HPLC) and spectroscopy (1H NMR, FTIR and UV-Vis). The VIPER experiments were performed by Daniela Kern-Michler, Carsten Neumann, Nicole Mielke and Luuk van Wilderen (from the group of Jens Bredenbeck). A selective uncaging of only the vibrationally pre-excited molecules could be achieved.
Die Bestrahlung atmungsbewegter Tumoren stellt eine Herausforderung für die moderne Strahlentherapie dar. In der vorliegenden Arbeit werden zu Beginn die physikalischen, technischen und medizinischen Grundlagen vorgestellt, um dem Leser den Einstieg in die komplexe Thematik zu erleichtern. Des Weiteren werden verschiedene Techniken zur Bestrahlung atmungsbewegter Zielvolumina vorgestellt. Auch wird auf die Sicherheitssäume eingegangen, die notwendig sind, um Fehler in der Bestrahlungskette beim Festlegen des Planungszielvolumens für die Bestrahlung auszugleichen.
Im Rahmen dieser Arbeit wurde ein Konzept entwickelt, wodurch sich der Sicherheitssaum von bewegten Tumoren in der Radiochirurgie mit dem Tumor-Tracking-System des Cyberknifes noch weiter verkleinern lässt. Somit kann die sogenannte therapeutische Breite der Behandlung weiter vergrößert werden kann. Dafür wurden ein 4D-CT und ein Gating-System in den klinischen Betrieb aufgenommen. Die entwickelte Technik basiert auf den zehn individuellen Atemphasen des 4D-CTs und lässt eine Berücksichtigung bewegter Risikostrukturen bereits während der Bestrahlungsplanung zu. Diese Methode wurde mit aktuellen Bestrahlungstechniken mittels eines Vergleichs der Bestrahlungspläne anhand von zehn Patientenfällen verglichen. Zur Erstellung der Bestrahlungspläne kamen die Bestrahlungsplanungssysteme von Varian (Eclipse 13.5) und Accuray (Multiplan 4.6) zum Einsatz. Es wurden insbesondere die Bestrahlungsdosen an den Risikoorganen und die Volumina ausgewählter Isodosen betrachtet. Hier zeigte sich eine klare Abhängigkeit von der Belastung des gesunden Gewebes von der verwendeten Bestrahlungstechnik. Dies lässt die Schlussfolgerung zu, dass mit einer Reduzierung des Sicherheitssaums, welcher abhängig von der verwendeten Planungs- und Bestrahlungstechnik ist, eine Vergrößerung der therapeutischen Breite einhergeht. Zusätzlich bleibt bei einer geringen Belastung des umliegenden gesunden Gewebes die Möglichkeit für eine weitere Bestrahlung offen.
Anschließend wurden anhand von berechneten Testplänen Messungen an einem für diese Arbeit modifizierten Messphantom am Varian Clinac DHX und am Cyberknife VSI durchgeführt. Hier wurden die beim Planvergleich verwendeten Bestrahlungstechniken verwendet, um einen Abgleich von berechneter und tatsächlich applizierter Dosis zu erhalten. Das verwendete Messphantom simuliert die Atmung des Patienten und lässt gleichzeitig eine Verifikation der Dosisverteilung mit EBT3-Filmen sowie Messungen mit Ionisationskammern zu. Es zeigte sich, dass für die Techniken, welche aktiv die Atmung berücksichtigen (Synchrony am Cyberknife und Gating am Varian Clinac), selbst im Niedrigdosisbereich eine gute Übereinstimmung zwischen Messung und Berechnung der Dosisverteilung vorliegt. Sobald die Bewegung des Zielvolumens bereits bei der Bestrahlungsplanung berücksichtigt wird, steigt die Übereinstimmung weiter an. Für Techniken, welche die Atmung lediglich bei der Zielvolumen-Definition einbeziehen (ITV-Konzept), liegen sowohl die mit Ionisationskammern gemessenen Werte als auch die Übereinstimmung von berechneter und gemessener Dosisverteilung außerhalb des Toleranzbereichs.
Eine weitere Frage dieser Arbeit befasst sich mit der Treffsicherheit des Tumor-Tracking-Systems des Cyberknifes (Synchrony). Hier wurden Messungen mit dem XSightLung-Phantom und unterschiedlichen Sicherheitssäumen, welche die Bewegung des Tumors ausgleichen sollen, durchgeführt. Dies geschah sowohl mit dem für das Phantom vorgesehenen Würfel mit Einschüben für EBT3-Filme als auch mit einem Film-Sanchwich aus Flab-Material zur Untersuchung einer dreidimensionalen Dosisverteilung. Die Analyse der Filme ergab, dass es zumindest an einem Phantom mit einer einfachen kraniokaudalen Bewegung nicht nötig ist, die Bewegung des Zielvolumens durch einen asymmetrischen Sicherheitssaum in Bewegungsrichtung zu kompensieren um die Abdeckung des Zielvolumens mit der gewünschten Dosis zu gewährleisten.
Durch diese Arbeit konnten zusätzlich weitere wertvolle Erkenntnisse für den klinischen Alltag gewonnen werden: bei der Untersuchung der Bewegung von Tumoren in freier Atmung sowie bei maximaler Inspiration und Exspiration zeigte sich, dass zum Teil die Tumorbewegung in maximalen Atemlagen (3-Phasen-CT) deutlich von der freien Atmung abweicht. Dies lässt den Schluss zu, dass für eine Bestrahlung in freier Atmung ein 4D-CT die Tumorbewegung deutlich realistischer widerspiegelt als ein 3-Phasen-CT, zumal letzteres eine größere Dosisbelastung für den Patienten bedeutet.
Ebenfalls konnte anhand einer retrospektiven Untersuchung von Lungentumoren gezeigt werden, dass für die Berechnung von Bestrahlungsplänen für Tumoren in inhomogenem Gewebe der Ray-Tracing-Algorithmus die Dosis im Zielvolumen teilweise sehr stark überschätzt. Um eine realistische Dosisverteilung zu erhalten, sollte deshalb insbesondere bei Tumoren in der Lunge auf den Monte-Carlo-Algorithmus zurückgegriffen werden.
This thesis presents the first measurement of the proton capture reaction on the isotope 124Xe performed in inverse kinematics. The experiment was carried out in June 2016 at the Experimental Storage Ring (ESR) at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, Germany.
124Xe is one of about 35 p-nuclei that cannot be produced via neutron-induced nucleo- synthesis as the vast majority of heavy elements. Its production and destruction provide important information about the nucleosynthesis of the p-nuclei. Measuring the 124Xe(p,g)125Cs reaction also gives strong constraints for its reverse 125Cs(g,p)124Xe reaction.
Fully stripped 124Xe ions repeatedly passed a H2 gas jet target at five different energies between 5.5 MeV/u and 8 MeV/u. An electron cooler compensated for the energy loss in the target and reduced the beam momentum spread. The reaction product 125Cs55+ has a smaller magnetic rigidity than 124Xe54+. Therefore 125Cs55+ was deflected towards smaller radii in the first dipole after the target area and thereby separated from 124Xe54+. It was detected with a position-sensitive Double-Sided Silicon Strip Detector (DSSSD). The novelty of this experiment was the installation of the DSSSD inside the ultra-high vacuum of the storage ring using a newly designed manipulator.
Three High-Purity Germanium X-ray detectors were used to measure the X-rays following the Radiative Electron Capture (REC) events into 124Xe53+. The REC cross sections are well-known and were used to determine the luminosity.
The 124Xe(p,g)125Cs cross sections at ion beam energies between 5.5 MeV/u and 8 MeV/u were determined relatively to the K-REC cross sections and finally compared to the theoretically predicted cross sections. While theoretical predictions of the TENDL database are lower than the measured ones by a factor of up to seven, the NON-SMOKER data are higher by a factor of up to two, except of the cross section at 7 MeV/u, where NON-SMOKER data are slightly lower than the experimental value.
For the first time, a proton capture cross section could be measured in inverse kinematics close to the astrophysically relevant Gamow window. This allows the direct determination of the (p,g) cross section of isotopes with half-lives down to several minutes, which is not possible with any other technique.
Quantum chromodynamics (QCD) is the theory of the strong interaction between quarks and gluons. Due to Confinement, at lower energies quarks and gluons are bound into colorless states called hadrons. QCD is also asymptotically free, i.e. at large energies or densities it enters a deconfined state, termed quark-gluon plasma (QGP), where quarks and gluons are quasi-free. This transition occurs at an energy scale around 200 MeV where QCD cannot be treated perturbatively. Instead it can be formulated on a space-time grid. The resulting theory, lattice quantum chromodynamics (LQCD), can be simulated efficiently on high performance parallel-computing clusters. In recent years graphic processing units (GPUs), which outperform CPUs in terms of parallel-computing and memory bandwidth capabilities, became very popular for LQCD computations. In this work the QCD deconfinement transition is studied using CL2QCD, a LQCD application that runs efficiently on GPUs. Furthermore, CL2QCD is extended by a Rational Hybrid Monte Carlo algorithm for Wilson fermions to allow for simulations of an odd number of quark flavors.
Due to the sign-problem LQCD simulations are restricted to zero or very small baryon densities, where, in the limit of infinite quark mass QCD has a first order deconfinement phase transition associated to the breaking of the global centre symmetry. Including dynamical quarks breaks this symmetry explicitly. Lowering their mass weakens the first order transition until it terminates in a second order Z2 point. Beyond this point the transition is merely an analytic crossover. As the lattice spacing is decreased, the reduction of discretization errors causes the region of first order transitions to expand towards lower masses. In this work the deconfinement critical point with 2 and 3 flavors of standard Wilson fermions is studied. To this end several kappa values are simulated on temporal lattice extents 6,8,10 (4) for two flavors (three flavors) and various aspect ratios (spatial lattice extent / temporal lattice extent) so as to extrapolate to the thermodynamic limit, applying finite size scaling. For two flavors an estimate is done if and when a continuum extrapolation is possible.
The chiral and deconfinement phase transitions at zero density for light and heavy quarks, respectively, have analytic continuations to purely imaginary chemical potential, where no sign-problem exists and LQCD simulations can be applied. At some critical value of the imaginary chemical potential, the transitions meet the endpoint of the Roberge-Weiss transition between adjacent Z3 sectors. For light and heavy quarks the transition lines meet in a triple point, while for intermediate masses they meet in a second order point. At the boundary between these regimes the junction is a tricritical point, as shown in studies with two and three flavors of staggered and Wilson quarks on lattices with a temporal lattice extent of 4. Employing finite size scaling the nature of this point as a function of the quark mass is studied in this work for two flavors of Wilson fermions with a temporal lattice extent of 6. Of particular interest is the change of the location of tricritical points compared to an earlier study on lattices with temporal extent of 4.
Krebs ist eine bedeutende Todesursache, und Krebsfrüherkennungsuntersuchungen in Form von Screeningmaßnahmen sind ein möglicher Ansatz, die spezifische Mortalität der jeweiligen Krebsart zu senken. Die Studienlage zeigt allerdings nur für die Koloskopie als Darmkrebsscreeningmaßnahme einen eindeutigen Nutzen. Brust-, Haut-und Gebärmutterhalskrebsfrüherkennung sind im Vergleich dazu wenig untersucht, und die entsprechenden Studien zeigen zum Teil widersprüchliche Ergebnisse. Eine Beschränkung der Maßnahmen auf Risikogruppen könnte die Kosten-Nutzen-Bilanz der Screeningmaßnahmen möglicherweise ins Positive verschieben. Derzeit raten gesetzliche Empfehlungen für die gesamte Bevölkerung ab einem festgelegten Alter zur Teilnahme an Darm-, Brust-, Haut- und Gebärmutterhalskrebsfrüherkennungs-untersuchungen, wobei die Inanspruchnahme je nach Untersuchung und Studie stark variiert. Hausärzte können als Ansprechpartner der Patienten zur Entscheidungsfindung für oder gegen eine Untersuchung beitragen. Um ihre Bedeutung in diesem Zusammenhang zu untersuchen, ist es sinnvoll, die Einstellung von Hausärzten gegenüber Krebsfrüherkennungsuntersuchen, sowie deren Empfehlung und mögliche Gründe für oder gegen eine Empfehlung zu erfassen. Hierzu wurde im Rahmen dieser Dissertation ein Fragebogen erstellt.
Die mittels des Fragebogens durchgeführte Datenerhebung stellt einen Teil des am Institut für Allgemeinmedizin Frankfurt durchgeführten Projektes „Onkologie in der Hausarztpraxis“ dar. Zur Entwicklung des Fragebogens wurde zunächst eine Literaturrecherche durchgeführt. Im weiteren Verlauf wurde ein Itempool erstellt, der thematisch sowohl auf den Ergebnissen der Recherche, als auch auf qualitativen telefonischen Interviews beruhte, die im Rahmen des oben beschriebenen Projektes „Onkologie in der Hausarztpraxis“ durchgeführt wurden. Aus diesem Itempool wurden zur Beantwortung folgender Forschungsfragen 28 Items zur weiteren Ausarbeitung ausgewählt:
1) Welche Einstellung haben Hausärzte gegenüber den gesetzlich empfohlenen, populationsbasierten Krebsfrüherkennungsuntersuchungen?
2) Unterscheidet sich die hausärztliche Einstellung in Abhängigkeit davon, ob die jeweilige Untersuchung populationsbasiert oder auf definierte Risikogruppen angewandt wird?
3) Für welche Risikogruppen halten die Hausärzte die verschiedenen Krebsfrüh-erkennungsuntersuchungen für sinnvoll?
4) Welche Gründe für oder gegen die Empfehlung von Krebsfrüherkennungsuntersu-chungen werden angegeben?
Die Konstruktion der einzelnen Fragen und Antwortskalen, die Formulierung von Handlungsanweisungen und die Gestaltung des Fragebogens mit Anschreiben, Titelseite und Layout erfolgte auf Basis von publizierten Expertenempfehlungen für eine qualitativ hochwertige Fragebogenkonstruktion. Der entstandene Fragebogen wurde anschließend einem Pretest unterzogen, der aus einer Stichprobe und einer kognitiven Testung bestand. Die Stichprobe wurde mit 35 Lehrärzten des Instituts für Allgemeinmedizin Frankfurt durchgeführt. Drei von ihnen sowie ein weiterer, vom Institut unabhängiger Hausarzt wurden im Verlauf für die kognitive Testung befragt. Auf Grundlage dieses Pretests wurde der Fragebogen nochmals angepasst.
Durch diesen Schritt wurden die 28 ausgewählten Items auf 19 Fragen reduziert, die gemeinsam mit neun Fragen zur Erhebung persönlicher Daten den fertigen Fragebogen bilden. Kriterien, die im Rahmen des Pretests zu Veränderungen geführt haben, waren erhöhte Non-Response-Raten, Hinweise auf mangelndes Fragenverständnis sowie geringe Relevanz einzelner Antwortoptionen. Zur Qualitätsprüfung wurde der fertige Fragebogen mittels einer publizierten Fragencheckliste auf mögliche Kritikpunkte hin getestet. Die Vorgehensweise zur Entwicklung des Fragebogens entsprach gängigen Empfehlungen von Experten. Der entwickelte Fragebogen stellt ein geeignetes Instrument zur Beantwortung der in der Einleitung gestellten Forschungsfragen dar, und leistet einen Beitrag zur Analyse der hausärztlichen Einstellung und Empfehlung zu Krebsfrüherkennungsuntersuchungen.
Hämophilie A ist eine X-chromosomal rezessiv vererbte Krankheit, die aufgrund von Mutationen innerhalb des Gens von Gerinnungsfaktor VIII (FVIII) zum funktionellen Defekt oder zum Fehlen des körpereigenen FVIII führt. FVIII zirkuliert als Heterodimer und besteht aus einer schweren Kette mit der Domänenstruktur A1-A2-B und einer leichten Kette mit der Domänenstruktur A3-C1-C2. Bei Patienten unter Prophylaxe wird durch regelmäßige Substitution mit rekombinanten oder aus Plasma gewonnenen FVIII-Präparaten die Hämostase wiederhergestellt. Allerdings entwickeln hierbei etwa 30% der Patienten mit einer schweren Hämophilie eine FVIII-spezifische Immunantwort in Form von neutralisierenden Antikörpern (Inhibitoren). Die sogenannte Immuntoleranz-Therapie (engl. immune tolerance induction therapy, ITI) ist bisher die einzige etablierte Therapie, die zu einer dauerhaften Eradikation der FVIII-Inhibitoren und Induktion von Toleranz gegenüber FVIII führen kann. Die Therapie beruht auf einer meist täglichen Gabe hoher FVIII-Dosen, welche sich, je nach Behandlungsdauer, über Wochen bis hin zu Jahren erstrecken kann. Bei etwa 30% der Patienten ist diese Therapie nicht erfolgreich. Für solche Patienten besteht die Gefahr lebensbedrohlicher, unkontrollierbarer Blutungen und erheblicher Gelenkschäden.
Die spezifische Ansteuerung des Membran-gebundenen Immunglobulin G (mIg) des B-Zellrezeptors (BZR) mithilfe von Immuntoxinen ist eine mögliche Option zur selektiven Eliminierung FVIII-spezifischer B-Zellen und somit zur Eradikation von FVIII-Inhibitoren. Solche Immuntoxine bestehen aus einer zellbindenden und einer zytotoxischen Domäne, welche nach Internalisierung zur Apoptose der Zielzelle führen soll. Da FVIII aufgrund der Größe als zellbindende Domäne ungeeignet ist, beschäftigt sich die vorliegende Arbeit mit der Entwicklung und Evaluierung alternativer Immuntoxine zur selektiven Eliminierung FVIII-spezifischer B-Zellen. Die FVIII-spezifische Immunantwort ist zwar polyklonal, jedoch vor allem gegen A2- und die C2-Domäne gerichtet. Aus diesem Grund wurden die humane A2- und C2-Domäne (hA2, hC2) als zellbindende Domäne verwendet und jeweils genetisch an eine verkürzte Version des Exotoxin A (ETA) aus Pseudomonas aeruginosa fusioniert, bei welcher die natürliche zellbindende Domäne entfernt wurde. Die rekombinanten Proteine wurden bakteriell produziert und im Anschluss an die Aufreinigung biochemisch charakterisiert. Während das bakterielle Expressionssystem für hA2-ETA nicht geeignet war, konnte hC2-ETA neben weiteren Kontrollproteinen mit korrekter Konformation der hC2-Domäne hergestellt und aufgereinigt werden.
Die Fähigkeit zur selektiven Eliminierung hC2-spezifischer B-Zellen wurde im weiteren Verlauf sowohl in vitro mithilfe einer hC2-spezifischen Hybridomazelllinie als auch ex vivo und in vivo mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen untersucht.
Durch Inkubation der hC2-spezifischen Hybridomazelllinie mit hC2-ETA konnten ca. 38 % der Zellen eliminiert werden. Weitere Untersuchungen der Zelllinie ergaben, dass diese keinen vollständigen funktionalen B-Zellrezeptor auf der Oberfläche exprimierte, welcher für die Bindung und die korrekte Internalisierung des Immuntoxins notwendig ist. Aufgrund dessen eignet sich diese Zelllinie nicht als Modell für eine genauere Analyse der in vitro Eliminierungseffizienz von hC2-ETA.
Weitere Analysen mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen haben jedoch gezeigt, dass durch ex vivo Inkubation der Splenozyten mit hC2-ETA, alle hC2-spezifischen B-Zellen vollständig, selektiv und konzentrations-abhängig eliminiert werden konnten. Auch die mehrfache Applikation von hC2-ETA in FVIII-immunisierten FVIII-knockout Mäusen führte bei der Hälfte der Tiere zur vollständigen Eliminierung aller hC2-spezifischen B-Zellen. Eine Reduktion des hC2-spezifischen Antikörpersignals konnte nach Gabe von hC2-ETA in allen behandelten Tieren beobachtet werden. Die unvollständige Eliminierung in der Hälfte der Tiere ist vermutlich auf die Präsenz hC2-spezifischer Antikörper zurückzuführen, die einen Teil des applizierten Immuntoxins neutralisiert haben, sodass nicht alle hC2-spezifischen Gedächtnis-B-Zellen erreicht und eliminiert werden konnten. Um die Eliminierungseffizienz von hC2-ETA weiter zu erhöhen, müsste das Behandlungsprotokoll geändert werden. Sowohl eine Verlängerung des Behandlungszeitraums als auch eine kombinierte Therapie aus FVIII und hC2-ETA sollte zu einer erhöhten Bioverfügbarkeit des Toxins und dadurch zu einer gesteigerten Eliminierungseffizienz führen.
Die Ausweitung des hier vorgestellten Ansatzes auf weitere FVIII-Domänen ist generell möglich, jedoch muss hierzu ein alternatives Expressionssystem aufgrund des eukaryotischen Ursprungs von FVIII in Betracht gezogen werden. Die hier vorgestellten Ergebnisse zeigen dennoch, dass FVIII-Domänen-Immuntoxine ein wirkungsvolles Mittel sind, um FVIII-spezifische B-Zellen selektiv zu eliminieren. Die Anpassung der Gabe von FVIII-Domänen-Immuntoxinen an die individuelle Immunantwort des Patienten könnte das Auftreten von Nebenwirkungen minimieren. Außerdem könnte eine kombinierte Therapie aus ITI und FVIII-Domänen-Immuntoxinen die Zeit bis zur Induktion von Toleranz verkürzen und die Chancen für den generellen Therapieerfolg erhöhen.
A sound and well-functioning legal system will encourage growth in investment and create opportunities for investors. Trademarks as part of intellectual property play an important role in the future development of a country. A mark or symbol is needed in order to give products and services identity and to distinguish them and their qualities from identical or similar products and services of a competitor.
This research studies, examines and analyses the degree, nature and function of trademark protection within the legal system of Afghanistan and compare them with the Paris, Madrid and TRIPs agreements. It has been divided into four chapters: Chapter one provides general information and an overview of the current legal system of Afghanistan. Chapter two studies and analyses international agreements pertaining to the legal protection of trademark. It also critically assesses the ATML compatibility with these agreements: and answers the research question of to what extent the ATML provisions are compatible with them. Chapter three provides information on the different purposes of trademarks from a development perspective and compares the purposes provided by the ATML. Finally, chapter four assesses and examines the acquisition, assignment and termination of trademarks. The conclusions and findings of the thesis are the final section of this research.
Afghanistan, as a transitioning economy, has not developed a solid legal and practical foundation for providing comprehensive protection mechanisms for trademarks as have been articulated in developed countries and international agreements. Accordingly, the Afghan government has not entirely integrated these needs into its legal system and there are some inconsistencies of the ATML with these agreements.
One more challenge is the lack of appropriate legal institutions for issuing, managing, administering and protecting of trademarks. The establishment of a well-functioning administrative institution will serve to fulfil the objectives of the laws. Therefore, the CBR office holds the administrative responsibility for processing the registration of trademarks.
However, the methods and facilities of the CBR office remain outdated, and the office does not have the capacity to provide applicants with up-to-date administrative and technical facilities.
Therefore, legal protection of trademark in Afghanistan is linked not only to the existence of a well functioning of laws, regulations, clear procedures, mechanism and guidelines but also to an efficient and well-functioning administrative office.
The purpose of this thesis is to achieve two highly interconnected yet distinct tasks. On the one hand, the thesis explains how foreign investment insurance works by focusing on the law governing the relationships between involved actors. On the other hand, it provides a critique of the operation of foreign investment insurance as an investment protection instrument by mainly drawing on critical studies of the investment protection regime.
The main question this thesis attempts to answer is how foreign investment insurance works. I construe foreign investment insurance as a typical insurance product and focus on the operation of insurance arrangements from a legal perspective. Ideas about how insurance should be deployed in any given social, political or economic context are instrumental in the development of insurers, insurance products and insurance techniques. The thesis examines investment insurers, the products they offer and their techniques to identify and deal with so-called political risks.
Another important question concerns the notion of political risk. What are considered political risks in the context of investment insurance and how are they conceptualized by investment insurance providers? Investment insurers have largely adopted a business-oriented political risk definition which denotes governmental intervention in foreign investment as political risk without regard to the objectives of government actions. Descriptive studies explain political risk by replicating investment insurers’ categorization of basic coverages that include expropriation, currency inconvertibility and remittance transfer restrictions, political violence and breach of contract. Yet recent studies have increasingly provided in-depth analyses on the notion of political risk as well as on the specific categories of political risk, particularly expropriation. The thesis draws on these studies to critically discuss the concept of political risk as it is used by investment insurance providers.
I focus on foreign investment insurance provided by OPIC and MIGA due to their mandate to promote economic development in the capital-importing countries and for their historical role as the major providers of investment insurance. While focus is on MIGA and OPIC, the thesis offers a general account of the operation of foreign investment insurance by incorporating the available information on investment insurance industry and the international governance of investment insurance. The central issues explored in this thesis such as the principle of subrogation and the notion of political risk help me generalize the study as these issues are characterized similarly with respect to each public investment insurance provider.
The case studies and most examples in this thesis are based on expropriation risk insurance.
Smut fungi (Ustilaginomycotina) were previously defined as plant parasites that produced blackish or brownish masses of teliospores in or on various organs of plants. Each teliospore germinates to form a single basidium with usually four basidiospores that subsequently grow as a saprobic, yeast-like, haploid stage. The Ustilaginomycotina are a highly diverse group with about 1,700 species in 115 different genera. All of the species were united in a single order, the Ustilaginales, in late 19th century. These teliospore producing fungi are now considered the classic smut fungi. Towards the end of the 20th century, new ideas were brought into this classification system. Most notable was the comparative work regarding the ultrastructure of septal pores and the anatomy of the interaction zones between host and parasite. This work changed the whole concept of smut fungi and their evolutionary relationships. These results were subsequently supported by molecular phylogenetic studies. Both lines of investigation led to the classification of the smut fungi into four different classes, Ustilaginomycetes, Exobasidiomycetes, Malasseziomycetes and Moniliellomycetes (see chapter 1.3).
A reliable taxonomy that reflects phylogenies needed in order to estimate the diversity and the relationships between the diverse groups of smut fungi. In the last 20 years, molecular investigations based mostly on rDNA loci, e.g. ITS (internal transcribed spacer) or LSU (large subunit), have revealed the evolutionary relationships between many taxa of smut fungi. However, there are few phylogenetic studies available for smut fungi (see chapter 1.5.1), and much work is needed to develop backbone phylogenetic trees and to resolve species complexes of many smut fungi.
This thesis reports the results of six different studies that aimed to develop new and improved tools for the phylogenetic analyses of smut fungi, and then apply these methods to selected groups of smut fungi. The first study (Kruse et al. 2017a, Chapter 3) developed a method to improve the amplification of ITS sequences of some smut fungi. Due to its high discrimination value, the ITS gene region is widely used as a barcoding locus for species delimitation of fungi. For this purpose, the general ITS primers ITS1 and ITS4 or more specific modifications, e.g. ITS1F for Ascomycota, ITS4B for Basidiomycota or M-ITS1 for smut fungi, were used. As these primer combinations often yielded unsatisfactory results, due to coamplification of other (contaminant) fungi or the host plant DNA, improvement of the amplification of the ITS region was needed. In order to design new smut specific primers for the ITS region, a representative set of several sequences of the flanking regions of the ITS region (LSU and SSU) of smut fungi, plants and other fungi were downloaded from GenBank. A set of primers was designed on this dataset. These primers were tested on a representative set of about 70 different smut genera under different PCR conditions. Finally, three different primers, one forward primer, smITS-F, and two reverse primers, smITS-R1 and -R2, were selected as the best ones. The following tests with different combinations of these primers, and also under inclusion of the M-ITS1 primer, showed only slight differences in the number of different genera that successfully amplified. But there were some differences regarding the genera that amplified. A broader test on 205 samples in 39 genera showed that the PCR efficiency of the newly designed primers was much better than the primer set ITS4/M-ITS1. With the primers designed in this study almost no non-target ITS was amplified, giving new opportunities especially for amplifying ancient DNA or DNA from older herbarium samples. However, many species groups remain unresolved by only one gene region.
The second study (Kruse et al. 2017c, Chapter 4) found new loci and suitable primers that better resolved multi-locus trees. To date, the most frequently used loci for making multi-locus trees are SSU (small subunit), LSU (large subunit) and ITS (internal transcribed spacer). While the LSU is not always sufficient to distinguish between closely related species, it is highly discriminative above the species level. In an effort to increase the phylogenetic resolution of smut phylogenies, some protein-coding genes were used, including rpb1, rpb2, and atp6 with varying success (see Chapter 2.1.2). As most of these loci are seldom used or sometimes only work on pure cultures because of their low specifity, new protein-coding loci were identified that produced reliable phylogenetic trees. Based on five available genomes, potential gene loci were filtered for possible primers. Initially, 40 different primer combinations for 14 gene loci were tested on a set of twelve different genera of smut fungi. The best candidates were selected and optimized during further tests. Finally, 22 different forward primers and 17 different reverse primers for nine different gene regions were developed, with each differentiating at least one genus of smut fungi (preferably for Ustilaginomycetes). The different primers showed varying discriminative power for different smut genera. They worked best for the Ustilaginaceae, based on the primer designed from Ustilaginomycetes genomes. These new primer sets and loci have the potential to resolve different species groups within the smut fungi and furthermore to produce reliable phylogenetic trees with high resolution. To prove their applicability, three species complexes were investigated in-depth, two from the Ustilaginomycetes and one from the Exobasidiomycetes.
...
Ziel der Arbeit ist es, den frühen Zweitspracherwerb bei Kinder mit einer Spezifischen Sprachentwicklungsstörung (specific language impairment, SLI) zu charakterisieren. Im Vergleich zwischen sprachunauffälligen Kindern mit Deutsch als Zweitsprache (DaZ-TD) und und sprachauffälligen Kindern (DaZ-SLI) wird für die morpho-syntaktischen Bereiche Finitheit und Verbstellung sowie Kasus untersucht, anhand welcher Entwicklungsmuster sich zwischen einem unauffälligen und einem auffälligen DaZ-Erwerb unterscheiden lässt. Dabei werden die folgenden übergeordneten Fragen (F) beantwortet. (F1) Gibt es Unterschiede in Bezug auf Fehlerarten und -häufigkeiten zwischen DaZ-TD und DaZ-SLI Kindern? (F2) Gibt es persistierende Defizite bei DaZ-SLI Kindern verglichen mit DaZ-TD Kindern?
Untersucht wurden über einen Zeitraum von zwei Jahren 33 DaZ-Kinder, elf davon mit einer SLI. Zu Beginn der Erhebungen waren die DaZ-TD Kinder im Durchschnitt 3;8 Jahre alt und hatten 11 KM zum Deutschen. Die DaZ-SLI waren zu MZP 1 durchschnittlich 7;1 Jahre alt (45 KM). Zu insgesamt vier MZP wurden elizitierte Produktionsdaten mittels des standardisierten Verfahrens LiSe-DaZ (Schulz & Tracy 2011) erhoben. Sowohl die Methode der elizitierten Produktion als auch die längsschnittlichen Analysen einer großen Gruppe von Kindern mit DaZ erlaubten es, Aussagen über das Erwerbsalter bzw. persistierende Defizite und Entwicklungsmuster, insbesondere bei SLI, zu treffen. Entwicklungsverzögerungen (delay) und ggf. vom DaZ-TD Erwerb abweichende Entwicklungsmuster (deviance) wurden abgebildet.
Mit der Beantwortung der Fragen leistet die Arbeit in zweierlei Hinsicht einen Beitrag. Erstens wird mit Blick auf die Spracherwerbsforschung gezeigt, dass DaZ-SLI Kinder entwicklungsverzögert sind und sowohl ø-Stämme in V2 als auch Schwierigkeiten im Erwerb von Dativ in Präpositionalphrasen auf eine SLI bei Kindern mit DaZ hinweisen. Zweitens wird aus Sicht der Linguistik dafür argumentiert, dass zum einen ø-Stämme in V2 kovert finit sind und zum anderen in Modellen der Kasuszuweisung von einer dreigliedrigen Struktur, also einer Unterscheidung zwischen strukturellem, lexikalischem und inhärentem Kasus, ausgegangen werden muss.
Die Arbeit knüpft an damit an verschiedene Erwerbsstudien an. Hinsichtlich des Erwerbs von Finitheit und Verbstellung war bisher ungeklärt, ob auch die DaZ-SLI Kinder zwischen en-Infinitiven und ø-Stämmen hinsichtlich der jeweiligen Position im Satz unterscheiden, wie bereits für den DaZ-TD Erwerb nachgewiesen. Die vorliegende Studie wies dieses Erwerbsmuster auch für den DaZ-SLI Erwerb nach und schließt sich damit bisherigen Studien hinsichtlich kovert finiter ø-Stämme in V2 an. Studien zum Kasuserwerb bei DaZ, die auf den linguistisch relevanten Unterschied in der Kasuszuweisung, d.h. strukturell vs. nicht-strukturell (inhärent und lexikalisch), eingehen, gab es nur wenige. Die Frage, ob in der Kasustheorie von einem zwei- oder dreigliedrigen Modell ausgegangen werden muss, war neben der Frage nach möglicherweise abweichenden Erwerbsmustern und persistierenden Erwerbsschwierigkeiten bei DaZ-SLI bislang ungeklärt. In der vorliegenden Studie wurde gezeigt, dass DaZ-SLI Kinder verglichen mit DaZ-TD Kindern ähnliche Fehlermuster zeigen, aber insbesondere der Dativ in PPs stark verzögert erworben wird. Die Studie schließt den Ergebnissen zum simultan bilingualen Erwerb an und postuliert ein dreigliedriges Kasussystem.
Insgesamt zeigt die vorliegende Studie erstmals anhand elizitierter Längsschnittdaten, dass DaZ-SLI Kinder bis ins Schulalter persistierende Probleme im Erwerb von Finitheit und Verbstellung sowie Kasus haben. Verglichen mit DaZ-TD Kindern erwerben sie diese Bereiche - wenn überhaupt - deutlich verzögert (delay). In den Fehlertypen unterscheiden sich die beiden Erwerbstypen hingegen nicht (deviance).
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
G-protein coupled receptors (GPCRs) are a predominant class of cell-surface receptors in eukaryotic life. They are responsible for the perception of a broad range of ligands and involved in a multitude of physiological functions. GPCRs are therefore of crucial interest for biological and pharmaceutical research. Molecular analysis and functional characterisation of GPCRs is frequently hampered by challenges in efficient large-scale production, non-destructive purification and long-term stability. Cell-free protein synthesis (CFPS) provides new production platforms for GPCRs by extracting the protein synthesis machinery of the cell in an open system that allows target-oriented modulations of the synthesis process and direct access to the nascent polypeptide chain. CFPS is fast, reliable and highly adaptable. Unfortunately, highly productive cell-free synthesis of GPCRs is often opposed by low product quality. This thesis was aimed to adapt and improve some of the new possibilities for the cell-free production of GPCRs in high yield and quality for structural and pharmaceutical analysis. An E. coli based CFPS system was applied to synthesise various turkey and human Beta-adrenergic receptor (Beta1AR) derivatives as well as human Endothelin receptors type A and B (ETA and ETB) constructs. Both receptor families are important drug targets and pharmacologically addressed in the treatment of several cardiovascular diseases. CF-synthesis was mainly performed in presence of nanodiscs (ND), which are reconstituted high density lipoprotein particles forming discoidal bilayer patches with a diameter varyring from 6 to approx. 15 nm. The supplementation of ND in the CF-synthesis reaction caused the co-translational solubilisation of the freshly synthesised GPCRs. The fraction of the solubilised GPCR that was correctly folded was analysed by the competence to bind its ligand alprenolol or Endothelin-1, respectively. Both the solubilisation efficiency and the ability to fold in a ligand binding competent state was strongly affected by the lipid composition of the supplied ND. Best results were generally achieved with lipids having phosphoglycerol headgroups and unsaturated fatty acid chains with 18 carbon atoms. Furthermore, thermostabilisation by introduction of point mutations had a large positive impact on the folding efficiency of both Beta1AR and ETB receptor. Formation of a conserved disulphide bridge in the extracellular region was additionally found to be crucial for the function of the ETB receptor. Disulphide bridge formation could be enhanced by applying a glutathione-based redox system in the CFPS. Further improvements in the quality of ETB receptor could be made by the enrichment of heat-shock chaperones in the CF-reaction. Depending on the receptor type and DNA-template, roughly 10 – 30 nmol (350 – 1500 µg) of protein could be synthesised in 1 ml of CF-reaction mixture. After the applied optimisation steps, the fractions of correctly folded receptor could be improved by several orders of magnitude and were finally in between 35% for the thermostabilised turkey Beta1AR, 9% for the thermostabilised ETB receptor, 6.5% for the non-stabilised ETB receptor, 1 - 5% for non-stabilised turkey Beta1AR and for human Beta1AR isoforms and 0.1% for ETA receptor. Therefore, between 2 and 120 µg of GPCR could be synthesised in a ligand binding competent form, depending on the receptor and its modifications. Correctly folded turkey Beta1AR and ETB receptors were thermostable at 30°C and could be stored at 4°C for several weeks after purification. Yields of the thermostabilised turkey Beta1AR were sufficient to purify the receptor in a two-step process by ligand-binding chromatography to obtain pure and correctly folded receptor in the lipid bilayer of a ND. Furthermore, a lipid dependent ligand screen could be demonstrated with the turkey Beta1AR and significant alterations in binding affinities to currently in-use pharmaceuticals were found. The established protocols are therefore suitable and highly competetive for a variety of applications such as screening of GPCR ligands, analysis of lipid effects on GPCR function or for the systematical biochemical characterisation of GPCRs. Most promising for future approaches appears to address the suspected bottlenecks of intial insertion of the GPCR-polypeptide chain in the ND bilayer and the thermal stability of the receptors. Nevertheless, the estabilised protocols for the analysed targets in this thesis are already highly competitive to previously published production protocols either in cell-based or cell-free systems with regard to yield of functional protein, speediness and costs. Moreover, the direct accessibility and other general characteristics of cell-free synthesis open a large variety of possible applications and this work can therefore contribute to the molecular characterisation of this important receptor type and to the development of new pharmaceuticals.
A lot of software systems today need to make real-time decisions to optimize an objective of interest. This could be maximizing the click-through rate of an ad displayed on a web page or profit for an online trading software. The performance of these systems is crucial for the parties involved. Although great progress has been made over the years in understanding such online systems and devising efficient algorithms, a fine-grained analysis and problem specific solutions are often missing. This dissertation focuses on two such specific problems: bandit learning and pricing in gross-substitutes markets.
Bandit learning problems are a prominent class of sequential learning problems with several real-world applications. The classical algorithms proposed for these problems, although optimal in a theoretical sense often tend to overlook model-specific proper- ties. With this as our motivation, we explore several sequential learning models and give efficient algorithms for them. Our approaches, inspired by several classical works, incorporate the model-specific properties to derive better performance bounds.
The second part of the thesis investigates an important class of price update strategies in static markets. Specifically, we investigate the effectiveness of these strategies in terms of the total revenue generated by the sellers and the convergence of the resulting dynamics to market equilibrium. We further extend this study to a class of dynamic markets. Interestingly, in contrast to most prior works on this topic, we demonstrate that these price update dynamics may be interpreted as resulting from revenue optimizing actions of the sellers. No such interpretation was known previously. As a part of this investigation, we also study some specialized forms of no-regret dynamics and prediction techniques for supply estimation. These approaches based on learning algorithms are shown to be particularly effective in dynamic markets.
Most of the elements in the universe are produced via charged-particle fusion reactions during the primordial nucleosynthesis and different stellar burning stages, as well as via neutron-capture reactions. Around 35 heavy, proton-rich isotopes are bypassed by those reaction paths, the p nuclei. A series of photo-disintegration reactions occurring in supernovae, called the γ process, was suggested as a mechanisms to produce the p nuclei. Numerical simulations of the γ process have been unable to reproduce the observed abundances of the light p isotopes. Recent models showed that a series of proton capture reactions could provide the observed abundances. Hence, the cross sections of the crucial capture reactions have to be measured in order to test those assumptions.
Radiative proton captures in addition to the γ-process could reproduce the observed abundance pattern. This thesis presents preparations of a proton capture measurement on the radioactive 91Nb in standard kinematics with a calorimetric 4π setup. The 91Nb(p,γ)92Mo reaction might be the key to explain the production of one of the most abundant p-nuclei, 92Mo. So far, no experimental data for this reaction is available.
We produced a sample of 91Nb, with a half-life of 680 yr, at the Physikalisch Technische Bundesanstalt in Braunschweig, Germany, by irradiating 92Mo with protons in the energy range of 12 – 20MeV. 91Nb was produced via the reaction 92Mo(p,2p)91Nb and via 92Mo(p,pn)91Mo, where 91Mo decays to 91Nb with a half-life of 15.5min. To predict the amount of produced 91Nb the cross section of 92Mo(p, 2p) was measured. It was found to be higher than the value given by theoretical calculations with TALYS. Finally, 91Nb was chemically separated from the molybdenum carried at Paul-Scherrer- Institut, Villigen, Switzerland.
In-beam total absorption cross-section measurement of the reaction 91Nb(p,γ)92Mo with 2 MeV protons at FRANZ is planed with the produced 91Nb. A 4π BaF2 detector consisting of 41 crystals will be used. During this experiment we will measure the sum energy and the multiplicity of each event. The freshly produced 91Nb constitutes only a minor component of the sample material. The sum energy and multiplicity are crucial to distinguish the desired 91Nb(p,γ) from all the other more dominant reactions. The expected multiplicity and the efficiency of the setup were carefully simulated with DICEBOX and GEANT4. It was possible to show that background reactions can be effectively suppressed. The most important background contributions could be identified and result from 92Mo(p,γ), 19F(p,γ), and 19F(p,α).
Compact objects - black holes and neutron stars - are fascinating objects, not only for the astrophysicists, but for a wide range of researchers, including astronomers, theoretical physicists, particle and nuclear physicists, condensed matter physicists and arguably for the layman as well.
First theorized in the first part of the twentieth century, for a long time these objects have been considered just exotic ideas or mathematical curiosities. Pulsar were however detected in the late 1960s and readily identified as rotating, radiating neutron stars, while the first candidate black hole, Cygnus X-1, was observed in 1972. Since then the interest in these objects has steadily grown.
The reasons behind this interest are easily understood considering that compact object dwell at the intersection of many different areas of physics, and are ideal laboratories to explore the interplay between these areas.
Black holes, which are purely gravitational objects, are perfectly suited to study the nature of gravity, its manifestations such as gravitational waves, and the differences between various theories of gravity in the regime where they are expected to be most relevant, i.e. the strong field regime. However, just like any massive astrophysical object, black holes are interested by accretion phenomena, which are thought to be the power source of some very bright astrophysical emitters of electromagnetic signals, such as active galactic nuclei or X-ray binaries.
At the same time, black holes exist in a variety of different mass scales, from stellar mass to supermassive black holes billions of times heavier. The latter play a very important and yet not fully understood role in the formation and evolution of galaxies, as well as in shaping the large scale structure of the universe, making them relevant to cosmology as well.
Neutron stars share with black holes the characteristic of being gravitationally dominated systems; but because they are composed of baryon matter, they display a much richer behaviour. It has been realized early on that the matter in neutron star cores reaches extreme densities, exceeding the one in atomic nuclei. This means that neutron stars could provide invaluable information on the behaviour of matter in such extreme conditions (which are impossible to achieve in laboratory experiments), such as details of the nucleonic interaction, the properties of hyperons or of quark-gluon plasmas.
...
Für das bessere Verständnis der Nukleosynthese der schweren Elemente im s-Prozess wurde im Rahmen dieser Arbeit die Messung zur Bestimmung der Neutroneneinfangsreaktion von 83Kr durchgeführt. Als Messinstrument wurde DANCE am LANL verwendet, ein 4pi-Kalorimeter zur Detektion der entstehenden g-Kaskaden bei (n,g)-Reaktionen. Darüber hinaus wurden außerdem noch Proben mit 85Kr und 86Kr vermessen.
Die Herausforderung an diesem Experiment bestand vor allem in der Probenherstellung. Das Edelgas Kr erforderte eine Neukonstruktion der normalerweise bei DANCE verwendeten Probenhalterung. Das Hauptaugenmerk lag auf der Maximierung der Kr-Exposition durch den Neutronenstrahl. Im Gegenzug wurde versucht das umgebende Material nach Möglichkeit keinen Neutronen auszusetzen. Für die Isotope 83,86Kr wurden Hochdruckgaskugeln verwendet, die an der Goethe-Universität Frankfurt gefüllt und in eine der neuen Probenhalterungen eingesetzt wurden. Zur Beachtung des bei der Messung entstehenden Untergrundes wurde eine Messung mit baugleicher Probenhalterung und leerer Gaskugel durchgeführt. Da bereits kleine Mengen 85Kr eine hohe Radioaktivität aufweisen, wurde eine in einen Stahlzylinder eingeschweißte, existierende Quelle verwendet.
Bei der Analyse zu 86Kr wurde schnell eine zu starke Verunreinigung der Kr-Probe mit Xe offensichtlich, einen signifikanten Anteil des Spektrums ausmachte. Aus diesem Grund kam es vor allem zu Problemen den korrekten Untergrund von den 86Kr Messdaten zu subtrahieren. Die weitere Bestimmung inklusive Streukorrekturen, Normierung anhand des Flussmonitors und DICEBOX/GEANT3 Effizienzbestimmung lieferte zwar einen energieabhängigen Wirkungsquerschnitt, dieser zeigte allerdings große Abweichungen von den evaluierten ENDF/B-VII.1 Daten, was besonders ersichtlich in der deutlichsten 86Kr Resonanz bei 5515 eV zu erkennen war. Aus diesem Grund konnte aus den Messdaten kein MACS extrahiert werden.
Bei einer Untersuchung der Aktivität der 85Kr-Probe mit Hilfe der einzelnen BaF2-Detektoren in der DANCE Kugel zeigte sich zunächst eine um fast einen Faktor vier geringere Aktivität als vom Hersteller angegeben. Auch bei der weiteren Analyse traten massive Untergrundprobleme auf. Die Form des Stahlzylinders, in dem das Kr-Gasgemisch eingeschweißt war, konnte aufgrund seiner Form nur schwer im Strahlrohr untergebracht werden. Beim Experiment selbst zeigte sich dann, dass Teile der Halterung vom Neutronenstrahl getroffen wurden, was einen Untergrund mit sehr hohem Q-Wert erzeugte, der nicht durch ein Esum Fenster entfernt werden konnte. Durch eine Beschädigung der Halterung mit der Probe kam es darüber hinaus zu Abweichungen mit der verwendeten Leerhalterung. All das führte trotz einer langen Messzeit von fast 18 d dazu, dass nur ein sehr schwaches Signal von der eigentlichen Kr-Probe zu erkennen war. Es wurde eine mögliche 85Kr Resonanz bei 675 eV gefunden, allerdings ist die endgültige Zuordnung aufgrund der nicht eindeutigen Untergrundsituation äußerst schwierig. Im Vorfeld des Kr-Experimentes wurde eine Messung von RbCl an DANCE durchgeführt, da ursprünglich zu erwarten war, dass bereits ein Teil des 85Kr zu 85Rb zerfallen war. Durch diese Messung sollte dieser Anteil leicht von der späteren Messung zu subtrahieren sein. Allerdings trat ein unerwartetes Problem während der Datenaufnahme auf. Die Verbindung der DAQ Boards wurde getrennt, wodurch ca. 3/4 der Detektoren nicht mehr zeitsynchron liefen. Im Zuge dieser Arbeit wurde eine Rekonstruktion dieser Daten angestrebt. Durch Modifikationen am FARE Code, der zur Auswertung verwendet wurde, konnte Flugzeitspektren für jeden Beschleunigerpuls erzeugt werden. Es zeigte sich zunächst ein offensichtlicher Trend einer Verschiebung der getrennten Boards zu späteren Zeiten. Durch mehrere Fits an die Abweichungsverteilung und anschließende Korrektur konnte zunächst ein Spektrum wiederhergestellt werden, das vergleichbar mit den unbeschädigten Daten war. Bei einer detaillierten Analyse dieser neu gewonnen Daten zeigte sich jedoch eine Nichtlinearität in der Zeitverschiebung. Dies resultierte letztlich in einer Korrektur des Spektrums, allerdings nicht in einem Koinzidenzfenster von 10 ns, das für eine Wirkungsquerschnittsanalyse notwendig ist. Es wurde geschlussfolgert, dass durch die geringe Statistik in den einzelnen Flugzeitspektren solch eine Genauigkeit nicht zu erreichen ist.
Die Messung des Neutroneneinfangsquerschnitts von 83Kr konnte im Zuge dieser Arbeit erfolgreich durchgeführt werden. Es wurden zwei Messungen mit verschiedenen Strömen kombiniert. Eine Messung mit 40 µA wurde durchgeführt, um Pile-Up in der größten Resonanz bei 28 eV zu reduzieren. Die zweite Messung diente dann dem Sammeln von ausreichend Statistik in den nicht resonanten Bereichen. Die eingesetzte Leerkugel erlaubte eine saubere Subtraktion des Untergrundes von Probenhalterung, Gaskugel und Umgebung. Für die Skalierung der Messergebnisse wurde eine weitere Messung mit einer 5000 Å dicken Goldfolie durchgeführt. Zur Bestimmung der Detektoreffizienz konnten zunächst die durch den Neutroneneinfang entstandenen Abregungskaskaden der 84Kr Kerne mit DICEBOX modelliert werden. Diese Kaskaden wurden dann anschließend in GEANT3 Simulationen verwendet, um die Effizienz bestimmen zu können. Mit diesen Methoden erhielt man die Maxwell-gemittelten Wirkungsquerschnitte von kT = 5 keV - 100 keV. Bei der für den s-Prozess wichtigen Temperatur von kT = 30 keV wurde der Querschnitt bestimmt zu: MACS (30 keV) = (256,6 +- 14,2 (stat) +- 18,1(sys)) mb.
Dieser Wert ist in guter Übereinstimmung mit dem in der KADoNIS v0.3 Datenbank angegebenen Wert von MACS;KADoNIS (30 keV) = (243 +- 15) mb. Mit den so gewonnenen Wirkungsquerschnitten wurden außerdem die Reaktionsraten berechnet. Bei den anschließenden Netzwerkrechnungen mit dem Programm NETZ wurden die Auswirkungen der in dieser Arbeit gewonnenen Wirkungsquerschnitte im Vergleich zu den KADoNIS v0.3 Werten betrachtet. Dabei zeigte sich eine leicht erhöhte Produktion der stabilen Isotope 84Kr, 86Kr, 85Rb und 87Rb, sowie eine leichte Unterproduktion der stabilen Isotope 86-88Sr in der Hauptkomponente des s-Prozess. Ein ähnliches Bild zeigte sich in der He-Brennphase der schwachen Komponente. Der in dieser Arbeit gemessene Wirkungsquerschnitt bei hohen Temperaturen ist geringer als der in KADoNIS v0.3 angegebene, weswegen es bei der Simulation mit NETZ zu einer stark erhöhten Produktion von 83Kr in der C-Brennphase kommt.
Ausgangspunkt der Dissertation bilden 2.700 keltische und römische Fundmünzen sowie zahlreiche Produktionsreste aus Bunt- und Edelmetall, die auf dem Castellberg, Kreis Bitburg-Prüm, geborgen wurden. Die Funde stammen zum überwiegenden Teil aus den großflächigen Ausgrabungen und Prospektionen, die im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Schwerpunktprogramms „Romanisierung“ durchgeführt wurden.
Nach bisherigem Forschungsstand befand sich auf dem ausgedehnten Bergplateau vom 2. bis 1. Jh. v. Chr. ein Oppidum der Treverer. Im Verlauf der römischen Okkupation entwickelten sich an diesem Platz ein gallo-römisches Heiligtum sowie eine Zivilsiedlung, welche eine Platzkontinuität bis zum Beginn des 5. Jh. n. Chr. aufweisen.
Aufgrund der komplexen Siedlungsabfolge sowie der gut dokumentierten archäologischen Kontexte nehmen die Funde vom Castellberg eine Schlüsselrolle für die Erforschung der latènezeitlichen Münzprägung Nordgalliens ein und bieten beste Voraussetzungen, Zirkulation und Funktion von Münzen in diesem Raum bis zur Spätantike zu untersuchen.
Wesentliches Ziel der Studie bilden die Erfassung und Dokumentation der genannten Funde sowie deren archäologische, archäometrische und numismatische Auswertung auf Grundlage der erschlossenen Fundkontexte.
Zu Beginn stehen methodische Überlegungen zur chronologischen Einordnung und zur histographischen Darstellung des Fundgutes.
Die anschließenden Betrachtungen widmen sich dem antiken Geldbegriff. Die Auseinandersetzung mit der Wertgrundlage des antiken Geldes stellt eine Voraussetzung dar, um das Vorkommen von Münzen aus archäologischen Kontexten historisch angemessen zu beschreiben und damit die Funktion von und den Umgang mit Geld in der Antike zu erfassen.
Einen Schwerpunkt der Arbeit stellen die nachfolgenden quellenkritischen Untersuchungen zu den Bedingungen des Zustandekommens und der Überlieferung der Münzfunde dar. Anhand des Fundmaterials vom Castellberg werden exemplarisch die Auswirkungen antiker und nachantiker selektiver Faktoren dargelegt. Durch den Abgleich mit strukturell vergleichbaren Fundplätzen wird anschließend eine Überprüfung und Erweiterung der Ergebnisse vorgenommen, wobei insbesondere Fragen nach den antiken Selektionsmechanismen im Vordergrund stehen.
Im Anschluss erfolgt die Auswertung der Fundmünzen aus den Ausgrabungen und Prospektionen. Mit Hilfe von Befundanalysen, Münzkartierungen und Münzreihenauswertungen werden die einzelnen Fundkomplexe detailliert auf ihre zeitlichen und räumlichen Verhältnisse hin untersucht. Auf diesem Weg gelingt es, weiterführende Erkenntnisse zur Genese, Entwicklung und zum Ende des spätlatènezeitlichen Oppidums sowie des gallo-römischen Vicus und Heiligtums auf dem Castellberg zu gewinnen.
Am Ende der Arbeit stehen Fragen zum treverischen Münzwesen im Vordergrund. Neben dem umfangreichen Material vom Castellberg wurden zahlreiche weitere keltische Münzen von Vergleichsfundplätzen als Materialbasis für die vorgenommenen Stempelstudien, Gewichtsuntersuchungen und Metallanalysen herangezogen.
Es wird zunächst aufgezeigt, dass die bisher gebräuchliche Typologie der treverischen Silberprägung weiter zu differenzieren und präzisieren ist. Die Ergebnisse führen ferner zu Konsequenzen für die relativchronologische Fixierung der betreffenden Münztypen.
Die nachfolgenden Stempelstudien konzentrieren sich auf die beiden frühesten Silbermünztypen der Treverer; es werden Art und Umfang dieser Prägungen aufgezeigt sowie Rückschlüsse für die Fertigungstechnik der Prägestempel gezogen.
Einen zentralen Aspekt der Dissertation bildet die abschließende Auswertung der Metallanalysen an ausgewählten Münztypen der Treverer, Remer und Leuker. Die Analysen geben Auskunft über die Spezifika der betreffenden Emissionen und liefern ein ergänzendes Bild zu den numismatischen Studien. Des Weiteren wird dargelegt, inwieweit die Herkunft der ausgemünzten Erze nachvollzogen werden kann.
Ausgehend von dem bedeutenden Neufund einer Patrize sowie zahlreichen Funden von Münzschrötlingen, Fehlgüssen und Metallschmelzresten vom Castellberg wird darüber hinaus die Frage geklärt, ob auf dem Plateau eine treverische Prägestätte zu lokalisieren ist und welche Münztypen dort geprägt wurden. Weitere Funde von Prägewerkzeugen aus dem Untersuchungsgebiet werfen grundlegende Fragen zu den Fertigungstechniken auf, denen in diesem Zusammenhang ebenso nachgegangen wird.
Die Untersuchungen liefern erstmals konkrete Erkenntnisse zu Ablauf und Organisation des Münzwesens der Treverer sowie zu strukturellen Veränderungen, die im Zusammenhang mit dem Gallischen Krieg und der nachfolgenden römischen Einflussnahme zu sehen sind.
Heat stress transcription factors (Hsfs) are required for transcriptional changes during heat stress (HS) thereby playing a crucial role in the heat stress response (HSR). The target genes of Hsfs include heat shock proteins (Hsps), other Hsfs and genes involved in protection of the cell from irreversible damages due to exposure to elevated temperatures. Among 27 Hsfs in Solanum lycopersicum, HsfA1a, HsfA2 and HsfB1 constitute a functional triad which regulates important aspects of the HSR. HsfA1a is constitutively expressed and described as the master regulator of stress response and thermotolerance. Activation of HsfA1a under elevated temperatures leads to the induction of HsfA2 and HsfB1 which further stimulate the transcription of HS-responsive genes by forming highly active complexes with HsfA1a. Despite the well-established role of these three Hsfs in tomato HSR, information about functional relevance of other Hsfs is currently missing.
The heat stress inducible HsfA7 belongs alongside with HsfA2 to a phylogenetically distinct clade. Thereby the two proteins share high homology and a functional redundancy has been assumed. However, HsfA7 function and contribution to stress responses have not been investigated into detail in any plant species.
Tomato HsfA7 protein accumulates already at moderately elevated temperatures (~35°C) while HsfA2 becomes dominant at higher temperatures (>40°C). HsfA7 pre-mRNA undergoes complex and temperature-dependent alternative splicing resulting in several transcripts that encode for three protein isoforms. HsfA7-I contains a functional nuclear export signal (NES) and shows nucleocytoplasmic shuttling while HsfA7-II and HsfA7-III have a truncated NES which leads to the strong nuclear retention of the protein. Differences in the nucleocytoplasmic equilibrium have a major impact on the stability of protein isoforms, as nuclear retention is associated with increased protein turnover. Consequently, HsfA7-I shows a higher stability and can be detected even after 24 hours of stress attenuation, while HsfA7-II is rapidly degraded. The degradation of these factors is mediated by the ubiquitin-proteasome pathway.
HsfA7 can physically interact with HsfA1a and HsfA3 and form co-activator (“superactivator”) complexes with a very high transcriptional activity as shown on different HS-inducible promoters. In order for the complex to be successfully transferred to the nucleus and confer its activity it needs a functional nuclear localization signal (NLS) of HsfA7. In contrast, the activator (AHA) motif of HsfA7 is not essential for its co-activator function. Interestingly, while interaction of HsfA7 with either HsfA3 or HsfA1a stabilizes HsfA7 isoforms, concomitantly this leads to an increased turnover of HsfA1a and HsfA3. In contrast, HsfA2 has a stabilizing effect on the master regulator HsfA1a.
Thus, HsfA7 knockout mutants generated by CRISPR/Cas9 gene editing, show increased HsfA1a levels and a stronger induction of HS-related genes at 35°C compared to wild-type plants and HsfA2 knockout mutants. Consequently, HsfA7 knockout seedlings exhibit increased thermotolerance as shown by the enhanced hypocotyl elongation under a prolonged mild stress treatment at 35°C. In summary, these results highlight the importance of HsfA7 in regulation of cellular responses at elevated temperatures. Under moderately elevated temperatures, the accumulation of HsfA7 and its subsequent interaction with HsfA1a, leads to increased turnover of the latter, thereby ensuring a milder transcriptional activation of temperature-responsive genes like Hsps. In turn, in response to further elevated temperatures, HsfA2 becomes the dominant stress-induced Hsf. HsfA2 forms co-activator complexes with HsfA1a which in contrast to HsfA7, allows the stabilization of the master regulator, leading to the stronger expression of HS-responsive genes required for survival. Thereby, this study uncovers a new regulatory mechanism, where the temperature-dependent competitive interaction of HsfA2 and HsfA7 with HsfA1a control the fate of the master regulator and consequently the activity of temperature-responsive networks.
Most of the elements heavier than iron are produced through neutron capture reactions in the s- and r -process. The overall path of the s-process is well understood and can be accurately reproduced in network simulations. However, there are still some neutron capture reactions of unstable nuclei involved in the s-process, which were not yet measured due to the difficulty in producing suitable targets. In those cases, theoretical models have to be used to estimate the missing cross section.
One example is the branching point nucleus 86Rb, whose neutron capture cross section cannot be directly measured due to its short half life of 18.86 days. It is, however, also possible to measure its inverse, the 87Rb(g,n) reaction in order to obtain the 86Rb(n,g) cross section through the principle of detailed balance.
Natural rubidium was irradiated with a quasi-monoenergetic photon beam in the energy range between 10.7 MeV and 16 MeV in order to investigate the photo-dissociation cross section of 87Rb. The results are presented in this thesis. Not only the total cross section of 87Rb(g,n), but also the partial production cross section of the ground and isomeric state of 84Rb through the 85Rb(g,n) reaction was measured.
Not all isotopes can be reached via neutron capture reaction, and are therefore bypassed by the s- and r -process. These 35 proton-rich isotopes are called p-nuclei and are produced in the γ-process by a chain of photo-disintegration reactions in Type II supernovae. Network calculations of Type II supernova show that the γ-process can explain the production of most p-nuclei, but some – especially 92/94Mo and 96/98Ru – are heavily underproduced. While this could be the result of deficiencies in the corresponding stellar models or insufficient knowledge of the involved reaction rates, it is also possible that the missing p-nuclei are synthesized in other production scenarios.
An alternative scenario for 92Mo is the production via a chain of proton capture reactions in Type Ia supernovae. One important reaction in this chain is the 90Zr(p,g) reaction. The reaction cross section was already measured several times, but the results were inconclusive. In the present work, the 90 Zr(p,g) reaction was measured using the in-beam gamma-ray spectroscopy technique and the discrepancies between the data sets could be largely explained.
Die Sepsis ist mit einer hohen Letalität im Krankenhaus verbunden. Ein wesentlicher Auslöser der Sepsis ist das Endotoxin. Es führt zu Entzündungsreaktionen im Organismus mit Ausbildung eines septischen Schocks bis hin zum Multiorganversagen. Zudem führt es zu Veränderungen im Gerinnungssystem mit unterschiedlich schweren Ausprägungen. Das Endotoxin wird physiologisch im menschlichen Körper durch IgM neutralisiert. In dieser Studie wurde der Effekt von IgM angereichertem intravenösen Immunglobulin auf die Endotoxinaktivität untersucht. Zusätzlich wurden die Auswirkungen einer IgM-IVIg-Therapie auf Entzündungsparameter und auf viskoelastische und konventionelle Gerinnungsparameter betrachtet. Patienten mit schwerer Sepsis und septischem Schock auf einer anästhesiologisch-chirurgischen Intensivstation wurden rekrutiert. Nach dem Studieneinschluss von 15 Patienten erfolgte die Implementierung einer neuen SOP, in der die Anwendung von IgM-IVIg (5g/kg/d für 3 Tage) integriert wurde. Daraus bildeten sich eine Kontroll- und eine IgM-IVIg Gruppe. Der Beobachtungszeitraum umfasste 4 Tage. Es wurde der Endotoxin Activity Assay® (EAA®) zur Messung der Endotoxinaktivität an Vollblutproben durchgeführt. Die durchgeführte Rotationsthrombelastometrie ROTEM® diente neben der Messung der Gerinnungszeiten auch zur Erfassung der mechanischen und zeitlichen Stabilität eines Blutgerinnsels. Als Maß für die Aggregation von Thrombozyten diente die Impedanzaggregometrie Multiplate®. Die Routinelaborparameter wurden nach allgemeinem Standard erhoben. Eingeschlossen wurden die Daten von 26 Patienten. Die IgM-IVIg-Gruppe zeigte am ersten Tag, 6 und 12 Stunden nach Behandlungsbeginn, eine Reduktion der Endotoxinaktivität (0,51±0,06 vs. 0,26±0,07, p<0,05) und unterschied sich signifikant im Vergleich zur Kontrollgruppe 6 Stunden nach Behandlungsbeginn (0,26±0,07 vs. 0,43±0,07, p<0,05). Die Thrombozytenzahl war signifikant höher in der IgM-IVIg- Gruppe im Beobachtungszeitraum (200/nl±43 vs. 87/nl±20, p<0,05). Die Fibrinogenkonzentration war in der Kontrollgruppe am zweiten (311mg/dl±37 vs. 475mg/dl±47 (p=0,015)) und am vierten Tag (307mg/dl±35 vs. 420mg/dl±16 (p=0,017)) signifikant niedriger. Es konnten keine Unterschiede in den thromboelastometrischen oder aggregometrischen Untersuchungen, oder bei den Entzündungsparametern beobachtet werden. Die präsentierten Ergebnisse müssen aufgrund der geringen Stichprobengröße sorgsam interpretiert werden. Dennoch könnten die Ergebnisse die Basis für weitere Studien in der Zukunft sein, die auf IgM-IVIg als eine therapeutische Option bei Patienten mit einer hohen Endotoxinaktivität abzielen. In der vorliegenden Studie fanden wir Hinweise, dass eine IgM-IVIg-Therapie bei Patienten mit schwerer Sepsis und septischem Schock die Endotoxinaktivität vermindert. Zudem scheint IgM-IVIg bei o.g. Patienten eine pathognomonische Thrombozytopenie positiv zu modelieren.
Strong convergence rates for numerical approximations of stochastic partial differential equations
(2018)
In this thesis and in the research articles which this thesis consists of, respectively, we focus on strong convergence rates for numerical approximations of stochastic partial differential equations (SPDEs). In Part I of this thesis, i.e., Chapter 2 and Chapter 3, we study higher order numerical schemes for SPDEs with multiplicative trace class noise based on suitable Taylor expansions of the Lipschitz continuous coefficients of the SPDEs under consideration. More precisely, Chapter 2 proves strong convergence rates for a linear implicit Euler-Milstein scheme for SPDEs and is based on an unpublished manuscript written by the author of this thesis. This chapter extends an earlier result1 by slightly lowering the assumptions posed on the diffusion coefficient and a different approximation of the semigroup. In Chapter 3 we introduce an exponential Wagner-Platen type numerical scheme for SPDEs and prove that this numerical approximation method converges in the strong sense with oder up to 3/2−. Moreover, we illustrate how the (mixed) iterated stochastic-deterministic integrals, that are part of our numerical scheme, can be simulated exactly under suitable assumptions.
The second part of this thesis, i.e. Chapter 4 and Chapter 5, is devoted to strong convergence rates for numerical approximations of SPDEs with superlinearly growing nonlinearities driven by additive space-time white noise. More specifically, in Chapter 4, we prove strong convergence with rate in the time variable for a class of nonlinearity-truncated numerical approximation schemes for SPDEs and provide examples that fit into our abstract setting like stochastic Allen-Cahn equations. Finally, in Chapter 5, we extend this result with spatial approximations and establish strong convergence rates for a class of full-discrete nonlinearity truncated numerical approximation schemes for SPDEs. Moreover, we apply our strong convergence result to stochastic Allen-Cahn equations and provide lower and upper bounds which show that our strong convergence result can, in general, not essentially be improved.
The production cross section and the transverse momentum distribution of charged particles is measured in pp collisions at √s = 2.76 TeV, 5.02 TeV, 7 TeV and 13 TeV, as well as for Pb-Pb collision at √s_NN = 5.02 TeV and Xe-Xe at √s_NN = 5.44 TeV in ALICE at the LHC. The measurement is performed in the transverse momentum region of 0.15 < p_T < 50 GeV/c and in the pseudorapidity range of |η| < 0.8. The precision of the measurement has been substantially enhanced as a result of the improved corrections, by taking into account a more realistic particle composition in the MC simulations. As a result, the systematic uncertainties have been reduced by more than a factor two in all systems and energies.
The average transverse momentum <p_T> results show a faster-than-linear increase with the center-of-mass energy and follow a similar trend with respect to previous measurements. The analysis of the p_T spectra in multiplicity intervals show a weak center-of-mass energy dependence when they are compared to their respective inelastic (INEL) pp measurement. The average multiplicity as a function of the collision energy shows a quadratic trend, and the comparison with other ALICE multiplicity measurements exhibits a remarkable agreement, within uncertainties.
The transverse momentum spectra in pp collisions are compared to state-of-the-art MC simulations, EPOS LHC and PYTHIA 8 event generators; none of them is able to reproduce the distributions over the full p_T range.
The differential cross section in pp collisions is an essential observable for the study of the Quark Gluon Plasma (QGP) created in ultra-relativistic heavy-ion collisions. The absence of a medium formation in pp collisions serves as an essential baseline for studies of particle production and suppression due to parton energy-loss in the QGP. Since pp collisions at √s = 5.44 TeV were not measured by ALICE, the pp reference at this energy was constructed by using a power law interpolation between the s = 5.02 TeV and 7 TeV data. The pp results are compared to the particle production in Pb-Pb collisions at √s_NN = 5.02 TeV and Xe-Xe collisions at √s_NN = 5.44 TeV.
The nuclear modification factor R_AA for Pb-Pb and Xe-Xe collisions was calculated and a strong suppression of high-p_T particles is observed in central collisions. The R AA in different systems allows for a differential study of the parton energy loss in the QGP. The comparison of the R AA in multiplicity intervals between the two systems provide insights into the path length dependence of a parton that propagates in the medium.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
Einleitung: Die häufigste Komplikation nach einer totalen Thyreoidektomie ist der postoperative sekundäre Hypoparathyreoidismus. Eine Prävention dieser Komplikation wäre erstrebenswert. Nicht nur dass die Patienten unter den Symptomen (wie z.B. Kribbelparästhesien) leiden, auch der Krankenhausaufenthalt wird meist verlängert und es wird ein höherer Aufwand an diagnostischen Maßnahmen und Medikamenten in der Folge notwendig.
Um das Auftreten des sekundären Hypoparathyreoidismus einzuschränken sind schon einige Studien durchgeführt worden, die u.a. ein erhöhtes Risiko für Patienten mit einem präoperativen Vitamin D3-Defizit aufzeigten.
Der Einfluss dieses Vitamin D3-Defizits wird in der vorliegenden prospektiven, multizentrischen, randomisiert kontrollierten Studie näher untersucht. Es sollte geklärt werden, ob eine präoperative Prophylaxe mit Vitamin D3 eine Verminderung der Hypokalzämierate gegenüber einer Kontrollgruppe bewirken kann.
Da sich der sekundäre Hypoparathyreoidismus als multifaktorielles Geschehen darstellt, sind in dieser Studie weitere Risikofaktoren untersucht worden.
Zusätzlich sollten eine Veränderung der Lebensqualität und die Belastung der Patienten durch Hypoparathyreoidismus-Symptome beurteilt werden.
Material und Methoden: Im Zeitraum vom 23.07.2014 bis zum 26.10.2016 wurden 246 Patienten an sechs verschiedenen Kliniken rekrutiert. Das Durchschnittsalter der 61 Männer und 185 Frauen lag bei 49 Jahren (Min.: 22 Jahre, Max.: 81 Jahre). Alle Patienten unterzogen sich einer totalen Thyreoidektomie als Ersteingriff an der Schilddrüse.
Die Patienten wurden in zwei Gruppen randomisiert, wobei die Interventionsgruppe präoperativ über drei Tage eine Vitamin D3–Prophylaxe (0,5µg, jeweils morgens und abends) einnahm. Neben dieser Intervention wurde nicht in die standardmäßige Behandlung der Patienten eingegriffen, um eine möglichst praxisnahe Untersuchung zu gewährleisten.
Bei allen Patienten wurde präoperativ und mindestens am ersten Tag postoperativ der Serumcalcium-Wert bestimmt. Der Beobachtungszeitraum erstreckte sich über ca. 30 Tage postoperativ, in dem auch weitere Parameter untersucht wurden. U.a. wurden die Patienten gebeten den SF-36-Fragebogen nach Bullinger et al (1) und den Hypoparathyreoidismus-Fragebogen nach Bohrer et al (2) auszufüllen. Mit diesen Fragebögen sollten die empfundene Lebensqualität der Patienten und die Belastung durch Hypoparathyreoidismus-Symptome abgefragt werden.
Ergebnisse: Die Untersuchungsgruppen zeigten keinen signifikanten Unterschied in Bezug auf das Auftreten einer postoperativen Hypokalzämie. Insofern eine Hypokalzämie auftrat, konnte die Normokalzämie in der Interventionsgruppe signifikant schneller erreicht werden. Aufgrund dieses Ergebnisses konnte eine NNT für jede Klinik errechnet werden. Diese Werte ließen eine Skalierung zu, durch die jedes Klinikum für sich eine Nützlichkeit der Intervention anhand der Hypokalzämie-Rate errechnen kann.
Herausgefunden werden konnte ebenfalls, dass die Kliniken signifikant unterschiedliche Hypokalzämie-Raten aufwiesen. Je nach Hypokalzämie-Rate der Klinik bewirkte die Intervention abweichende Veränderungen (von einer Verschlechterung um 20% bis zu einer Verbesserung um 24, 6%).
Zu den signifikanten Risikofaktoren für eine postoperative Hypokalzämie zählten in dieser Studie das weibliche Geschlecht, ein relativ junges Alter (44,7 ±10,6 Jahre im Gegensatz zu 50,5 ±12 Jahre) und die intraoperative Identifizierung von mehr als drei Nebenschilddrüsen. Weiterhin zeigte sich, dass sich bei hypokalzämen Patienten der Krankenhausaufenthalt signifikant verlängerte.
Beim SF-36-Fragebogen zeigte sich ein signifikanter Unterschied zwischen den prä- und postoperativen Werten der Frauen. Der Belastungsscore des Hypoparathyreoidismus-Fragebogens hingegen zeigte nur bei den Frauen der Interventionsgruppe eine signifikante Verbesserung zu den präoperativen Werten.
Schlussfolgerung: Die prophylaktische Vitamin D3-Gabe präoperativ konnte zwar keine Verminderung der Hypokalzämie-Rate in der Interventionsgruppe bewirken, aber bei aufgetretener Hypokalzämie eine schnellere Erholung des Calcium-Spiegels bewirken. Die postoperative Belastung durch Hypokalzämiesymptome wurde durch die Vitamin D3-Prophylaxe von Frauen signifikant gemildert empfunden. Eine Vitamin D3-Prophylaxe ist daher empfehlenswert. Der Nutzen der Intervention steigt allerdings mit der jeweiligen institutionellen Hypokalzämie-Rate. Bemerkenswert ist, dass die Kliniken sich in vielen Parametern gleichen, aber letztlich das chirurgische Vorgehen den größten Einfluss auf die Hypokalzämie-Rate zu haben scheint und die Intervention in Form der Gabe einer Vitamin D3-Prophylaxe überlagert hat.
Die Abstrahlung von internen Schwerewellen in atmosphärischen Strahlströmen und Temperaturfronten trägt vermutlich mit einem signifikanten Beitrag zum gesamten Schwerewellenspektrum bei. Das physikalische Verständnis der dabei ablaufenden Prozesse ist derzeit allerdings noch zu gering ausgeprägt, um eine adäquate mathematische Darstellung für operationelle Wetter- und Klimamodelle zu entwickeln. In dieser Arbeit wird der Mechanismus dieser Schwerewellenquelle in numerischen Simulationen des differenziell geheizten rotierenden Annulusexperiments erforscht. Dieses Experiment besitzt eine im Vergleich zur Atmosphäre deutlich verringerte Anzahl an Freiheitsgraden und eignet sich besonders gut zum Studium der Dynamik der mittleren Breiten. Analoge Untersuchungen werden in einem äquivalenten kartesischen Modellsystem vorgenommen, in dem periodische Bedingungen in den beiden horizontalen Raumrichtungen vorliegen.
Im Gegensatz zur Annuluskonfiguration, in der nachweislich auch eine Schwerwellenabstrahlung an den Zylinderwänden erfolgt, kommt in dieser Konfiguration nur die interne Dynamik als Schwerewellenquelle in Frage. Die nichtlinearen Simulationen beider Modellkonfigurationen zeigen eine großskalige barokline Wellenstruktur, die ein atmosphärenähnliches Jet-Front System beinhaltet. Darin eingelagert werden vier voneinander isolierte Schwerewellenpakete in der Annuluskonfiguration sowie zwei Schwerewellenpakete im doppeltperiodischen Modellsystem charakterisiert. Um den zugrundeliegenden Quellmechanismus zu untersuchen, erfolgt eine Aufspaltung der Zustandsvariablen in einen balancierten und einen unbalancierten Anteil, wobei erstgenannter das geostrophische und hydrostatische Gleichgewicht erfüllt und letztgenannter das Schwerewellensignal enthält. Die Strömungsaufspaltung bildet die Grundlage für die Entwicklung eines tangential-linearen Modells für den unbalancierten Strömungsanteil. Hierbei wird eine systematische Umformulierung der dynamischen Grundgleichungen hinsichtlich der Wechselwirkung beider Strömungsanteile vollzogen. Insbesondere wird der rein balancierte Antrieb der unbalancierten Strömung freigelegt, um dessen Einfluss auf die Schwerewellenaktivität zu quantifizieren. Die anschließenden tangential-linearen Simulationen zeigen, dass drei der vier Schwerewellenpakete in der Annuluskonfiguration in der internen Strömung generiert werden. Ein verbleibendes Wellenpaket entsteht an der inneren Zylinderwand, ehe es in das innere Modellvolumen propagiert. Darüber hinaus wird deutlich, dass der rein balancierte interne Antrieb der Schwerewellen einen signifikanten Beitrag zur Schwerewellengenerierung leistet. Im doppeltperiodischen Modellsystem gibt es eine nahezu perfekte Übereinstimmung zwischen den unbalancierten Strömungsmustern in den tangential-linearen und den nichtlinearen Simulationen. Auch dort nimmt der balancierte Antrieb eine zentrale Rolle bei der Schwerewellenabstrahlung ein. Die abschließende Gegenüberstellung verschiedener, voneinander unabhängiger Gleichgewichtskonzepte macht deutlich, dass die balancierte Strömung der führenden Ordnung in der Rossbyzahl bereits eine erstaunliche Übereinstimmung mit der vollen Strömung liefert. Zudem erbringt die Anwendung einer Lagrange'schen Filtermethode den Nachweis, dass die Vertikalbewegungen und die horizontalen Divergenzsignale in der Annuluskonfiguration fast ausschließlich auf die Schwerewellenaktivität zurückzuführen sind.
In the course of this thesis we discuss a certain kind of supersolid, the lattice-supersolid, which can be realized using quantum gases in an optical lattice trap. The lattice-supersolid, which simultaneously possesses off-diagonal and diagonal long-range order in its density matrix and also breaks the discrete translational symmetry of an underlying lattice, is induced by self-ordering of the gas due to strong long-range van der Waals interactions. In the considered scenario, the interactions are facilitated by the excitation of atomic Rydberg states, which exhibit enhanced van der Waals forces.
In the first part of this thesis (chapters 1-3), we review the relevant basics of quantum gases, Rydberg physics and introduce the extended Bose-Hubbard model. We start with the relevant methods and devices of the vast toolbox available in common quantum gas experiments, as well as consider the main concepts behind superfluidity and supersolidity. This is followed by an introduction of some basic concepts of Rydberg atoms in quantum many-body systems, with a focus on the facilitation of long-range interactions and the implementation in a theoretical model. Thereafter a brief introduction is given, on the realization of the Bose-Hubbard model in optical lattice systems and its extension to include Rydberg states, which concludes the introductory part of this thesis.
In the following part (chapters 4-6), we introduce the theoretical tools used to derive the results presented in the final part. First, an introduction to a real-space extension of bosonic dynamical mean-field theory (RB-DMFT) for bosonic systems with long-range interactions in the Hartree approximation is given. This method is based on the non-perturbative self-consistent evaluation of the lattice Green’s function, which also incorporates the effect of nearest neighbor correlations due to the non-condensed particles. Then we focus on a quasiparticle expansion of the Bose-Hubbard model, which has its foundation in linearized fluctuations of a static mean-field ground-state, allowing for the prediction of a vast range of experimentally relevant observables. Lastly, we introduce an efficient truncation scheme for the local bosonic Fock-basis, which allows for the simulation of phases with high condensate density at a vastly reduced computational effort.
In the final part (chapters 7 and 8), we discuss the application of both methods to itinerant bosonic gases in two-dimensional optical lattices, in order to predict the equilibrium ground-state phases, as well as the signatures of supersolidity and its formation in spectral functions and the dynamic and static structure factor. Specifically, we focus on two limiting cases. Firstly, we consider a two-component gas, as realized by two hyperfine ground states, for example, of rubidium-87, where one component is off-resonantly excited to a Rydberg state, which generates a soft-core shaped interaction potential. Secondly, we discuss the opposing limit, using near-resonant excitations
of Rydberg states, where the interacting component now directly corresponds to the Rydberg state, which interacts via a van der Waals potential. In both cases we discuss the rich variety of supersolid phases, which are found for a wide range of parameters. We also discuss how some of these phases can be realized in experiment.
In the subsequent appendices (A to D) we discuss some methodological details. Most notably, we consider the possible Fock-extension of the Hartree approximation (appendix A), introduced in the RB-DMFT treatment of the extended Bose-Hubbard model.
Massenspektrometrie-basierte Proteomuntersuchungen erfolgen auch heute überwiegend nach dem sogenannten Bottom-Up-Ansatz, d.h. die Identifizierung von Proteinen erfolgt auf der Basis von Peptiden, die chromatographisch gut voneinander getrennt werden können und massenspektrometrisch leichter zu analysieren sind als Proteine. Nach Identifikation der Peptide kann rekonstruiert werden, welche Proteine ursprünglich in der Probe vorgelegen haben. Zentraler Arbeitsschritt der Probenvorbereitung ist daher die Zerlegung des Proteins, die entweder chemisch oder - wie in den meisten Fällen – enzymatisch erfolgt. Trypsin ist das mit Abstand am häufigsten genutzte Enzym, da es eine hohe Schnittspezifität aufweist und sehr effizient ist. Der Trypsin-Verdau ist darüber hinaus sehr robust, d.h. er zeigt eine hohe Toleranz gegenüber Verunreinigungen, und zudem werden Peptide erzeugt, die sowohl gute Ionisations- als auch gute Fragmentierungseigenschafen aufweisen. Die durch Trypsin gebildeten Peptide enthalten neben dem basischen N-Terminus eine weitere basische Aminosäure am C-Terminus, so dass sie leicht zumindest doppelt-geladene Ionen bilden können und sehr häufig aussagekräftige C-terminale Fragmentioneserien liefern.
Neben den zahlreichen Vorteilen gibt es allerdings auch Nachteile. So können nach einem tryptischen Verdau in Abhängigkeit von der Verteilung der Schnittstellen Peptide entstehen, die entweder zu klein sind, um eine verlässliche Zuordnung zu einem Protein zu erlauben oder die zu groß sind für den Massenbereich des gewählten Massenanalysators. Eine vielversprechende Alternative zu Trypsin wäre ArgC, welches C-Terminal zu Argininen schneidet und somit im Durchschnitt größere Peptide mit Ionisations- und Fragmentierungseigenschaften ähnlich zu tryptischen Peptiden erzeugt. Das Enzym ArgC weist jedoch nur eine geringe Schnittspezifität auf und sein Trypsin-ähnliches Verhalten – also das Schneiden auch hinter Lysin - wurde öfters beobachtet und wird auch vom Hersteller angegeben. Ziel dieser Arbeit war die Entwicklung einer Verdaumethode, die Peptide erzeugt, die ausschließlich auf Argininen enden.
Das Resultat der zu entwickelnden Verdaumethode sollte somit dem eines idealen enzymatichen ArgC-Verdaues entsprechen. Realisiert wurde der ArgC-ähnliche-Verdau durch den Einsatz von Trypsin, dessen enzymatischer Schnitt durch die chemische Derivatizierung der Substrat-Lysine auf Arginine reduziert wurde. Neben dem weiteren Einsatz von Trypsin sollte dieser "Quasi-Arg-C-Verdau" weitere systematische Vorteile für Proteomanalysen realisieren: Zum Ersten sollte die Anzahl von Fehlschnitt-Peptiden, die sich bei Trypsin insbesondere an Lysinen mit saurer chemischer Umgebung ergeben, reduziert werden, zum Zweiten sollten die Arg-C-Peptide sowohl durch ihre gewachsende Größe, als auch durch das mit dem C-terminalen Arginin verbesserte Fragmentierungsverhalten höhere Score-Werte bei der bioninformatischen Auswertung der MS-Daten ergeben.
Im ersten Teil wurden zunächst bioinformatische Werkzeuge entwickelt, die MALDI-MS-Dateien automatisiert prozessierten. Die entwickelten Programme umfassen die Identifizierung und relative Quantifizierung von Proteinen aus diesen Dateien. Des Weiteren wurde ein Programm zur Analyse von MALDI-ISD-Dateien entwickelt. Automatisierte Auswertungen gelangen durch die Erstellung von Workflows in der Datenanalyseplattform KNIME. Diese Workflows kombinieren in Python geschriebene Skripte und Funktionalitäten frei verfügbarer Programme wie "MSConvert" und "mMass".
Nach Erstellung der bioinformatischen Werkzeuge wurde die Methodenentwicklung zur Modifizierung der Lysine für verschiedene Reagenzien durchgeführt. Die Auswahl fiel auf vier Substanzen, von denen bekannt ist, dass sie unter milden Reaktionsbedingung im quantitativen Ausmaß mit Aminogruppen reagieren. Diese waren Sulfo-NHS-Acetat, Propionsäureanhydrid, Diethylpyrocarbonat und die reduktive Methylierung mit Formaldehyd und Picolin-Boran. Die Reaktionsbedingungen mussten zunächst für Proteine optimiert werden, da die publizierten Protokolle hauptsächlich zur Derivatizierung von Peptiden verwendet worden waren. Anschließend wurden die optimierten Protokolle für eine Protein- und Proteomprobe eingesetzt und die Resultate miteinander verglichen. Die Untersuchungen führten zu dem Ergebnis, dass sowohl auf Protein- als auch auf Proteomebene die Propionylierung des Lysins die besten Resultaten zeigte. Insbesondere ist hervorzuheben, dass alle ArgC-ähnlichen Ansätze unabhängig vom eingesetzten Reagenz zu besseren Ergebnissen in jeder der Untersuchungen führte als der klassische enzymatische ArgC-Verdau.
...
This research investigated variation in the pronunciations of three RP vowels phonemes /e/, /ɜ:/ and /ə/, among Ewe speakers of English in Ghana. It focused on variation at both individual and societal levels, investigating how social relations within these structures influenced the use of the three vowels among the speakers. In this study, social structures were seen as a system where individual members depended on one another and were linked through multiple ties. The distribution of the vowels was in respect with the social variables: age, gender and education, including dialect and social network. The study used a corpus of word-list recorded in a face-to-face interview from 96 participants selected through stratification and networking across two dialect regions: Aŋlɔ and Eveme. Using both aural and acoustic analyses, coupled with ANOVA and t-test, the study has shown that the three RP vowels exist in Ghana Eve English as independent phonemes. Each of them however has allophonic variants; /e/ has variants [e̠], [ɪ] and [ɜ:]; /ɜ:/ has [eː] and [ɜ:], while /ə/ has [ə], [ɪ], [o] and [ʌ] as its variants. The choice of the variants of /ɜ:/ and /e/ have been found to depend on speaker age, gender, and social network. But the geographical location of the speaker will largely determine how these vowels are spoken. Phonological contexts as well as speaker idiosyncrasy are also likely to condition the choice of some of these variants, however, their effects seem less important as determinant of the differences observed than those of the social factors. It is evident that age, gender and class differentiations that have been widely reported cannot be universal, they can vary from one society to another. Also though social structures as well as social relations in a speech community can play significant roles in the individual’s linguistic repertoire, the attitude of the speaker and the phonological contexts of a segment can have a huge impact on the use of that variable.
Unter Web-based Trainings (WBTs) versteht man multimediale, interaktive und thematisch abgeschlossene Lerneinheiten in einem Browser. Seit der Entstehung des Internets in den 1990er Jahren sind diese ein wichtiger und etablierter Baustein bei der Konzeption und Entwicklung von eLearning-Szenarien. Diese Lerneinheiten werden üblicherweise von Lehrenden mit entsprechenden Autorensystemen erstellt. In selteneren Fällen handelt es sich bei deren Umsetzungen um individuell programmierte Einzellösungen. Betrachtet man WBTs aus der Sicht der Lernenden, dann lässt sich feststellen, dass zunehmend auch nicht explizit als Lerneinheiten erstellte Inhalte genutzt werden, die jedoch genau den Bedürfnissen des jeweiligen Lernenden entsprechen (im Rahmen des informellen und selbstgesteuerten Lernens). Zum einen liegt das an der zunehmenden Verfügbarkeit und Vielfalt von „alternativen Lerninhalten“ im Internet generell (freie Lizenzen und innovative Autorentools). Zum anderen aber auch an der Möglichkeit, diese Inhalte von überall aus und zu jeder Zeit einfach finden zu können (mobiles Internet, Suchmaschinen und Sprachassistenten) bzw. eingeordnet und empfohlen zu bekommen (Empfehlungssysteme und soziale Medien).
Aus dieser Veränderung heraus ergibt sich im Rahmen dieser Dissertation die zentrale Fragestellung, ob das Konzept eines dedizierten WBT-Autorensystems den neuen Anforderungen von frei verfügbaren, interaktiven Lerninhalten (Khan Academy, YouTube und Wikipedia) und einer Vielzahl ständig wachsender und kostenfreier Autorentools für beliebige Web-Inhalte (H5P, PowToon oder Pageflow) überhaupt noch gerecht wird und wo in diesem Fall genau die Alleinstellungsmerkmale eines WBTs liegen?
Zur Beantwortung dieser Frage beschäftigt sich die Arbeit grundlegend mit dem Begriff „Web-based Training“, den über die Zeit geänderten Rahmenbedingungen und den daraus resultierenden Implikationen für die Entwicklung von WBT-Autorensystemen. Mittels des gewählten Design-based Research (DBR)-Ansatzes konnte durch kontinuierliche Zyklen von Gestaltung, Durchführung, Analyse und Re-Design am Beispiel mehrerer eLearning-Projekte der Begriff WBT neudefininiert bzw. reinterpretiert werden, so dass sich der Fokus der Definition auf das konzentriert, was WBTs im Vergleich zu anderen Inhalten und Funktionen im Internet im Kern unterscheidet: dem Lehr-/Lernaspekt (nachfolgend Web-based Training 2.0 (WBT 2.0)).
Basierend auf dieser Neudefinition konnten vier Kernfunktionalitäten ausgearbeitet werden, die die zuvor genannten Herausforderungen adressieren und in Form eines Design Frameworks detailliert beschreiben. Untersucht und entwickelt wurden die unterschiedlichen Aspekte und Funktionen der WBTs 2.0 anhand der iterativen „Meso-Zyklen“ des DBR-Ansatzes, wobei jedes der darin durchgeführten Projekte auch eigene Ergebnisse mit sich bringt, welche jeweils unter didaktischen und vor allem aber technischen Gesichtspunkten erörtert wurden. Die dadurch gewonnenen Erkenntnisse flossen jeweils in den Entwicklungsprozess der LernBar ein („Makro-Zyklus“), ein im Rahmen dieser Arbeit und von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität, entwickeltes WBT-Autorensystem. Dabei wurden die Entwicklungen kontinuierlich unter Einbezug von Nutzerfeedbacks (jährliche Anwendertreffen, Schulungen, Befragungen, Support) überprüft und weiterentwickelt.
Abschließend endet der letzte Entwicklungszyklus des DBR-Ansatzes mit der Konzeption und Umsetzung von drei WBT 2.0-Systemkomponenten, wodurch sich flexibel beliebige Web-Inhalte mit entsprechenden WBT 2.0-Funktionalitäten erweitern lassen, um auch im Kontext von offenen Lehr-/Lernprozessen durchgeführte Aktivitäten transparent, nachvollziehbar und somit überprüfbar zu machen (Constructive Alignment).
Somit bietet diese Forschungsarbeit einen interdisziplinären, nutzerzentrierten und in der Praxis erprobten Ansatz für die Umsetzung und den Einsatz von WBTs im Kontext offener Lehr-/Lernprozesse. Dabei verschiebt sich der bisherige Fokus von der reinen Medienproduktion hin zu einem ganzheitlichen Ansatz, bei dem der Lehr-/Lernaspekt im Vordergrund steht (Lernbedarf erkennen, decken und überprüfen). Entscheidend ist dabei, dass zum Decken eines Lernbedarfs sämtliche zur Verfügung stehenden Ressourcen des Internets genutzt werden können, wobei WBTs 2.0 dazu lediglich den didaktischen Prozess definieren und diesen für die Lehrenden und Lernende transparent und zugänglich machen.
WBTs 2.0 profitieren dadurch zukünftig von der zunehmenden Vielfalt und Verfügbarkeit von Inhalten und Funktionen im Internet und ermöglichen es, den Entwicklern von WBT 2.0-Autorensystemen sich auf das Wesentliche zu konzentrieren: den Lehr-/Lernprozess.
Natural products are valuable sources for biologically active compounds, which can be utilized as pharmaceuticals. Thereby, the synthesis is based purely on biosynthetic grounds often conducted by so-called megaenzymes. One major biosynthetic pathway is the acetate pathway including polyketide and fatty acid synthesis, which encompass one of the largest classes of chemically diverse natural products. These have medicinal relevance due to their antibacterial, antifungal, anthelmintic, immunosuppressive and antitumor properties.
Due to the high structural and functional similarity between polyketide synthases and type I animal fatty acid synthases (FASs), FAS can serve as a paradigm for the whole class of multifunctional enzymes. To fully exploit the biosynthetic potential of FASs, a good access to the enzyme is of essential importance. In this regard, Escherichia coli remains an unchallenged heterologous host due to low culturing costs, particularly fast mutagenesis cycles and relatively easy handling. Surprisingly, no sufficient expression strategy for an animal FAS in E. coli has yet been reported, as it turned out that the only approach was not reproducible.
We commenced our analysis with searching for an appropriate FAS homolog that fulfills our requirements of high protein quality, sufficient yield and ensured functionality. After extensive screening of different variants, culturing conditions and co-expression strategies, we identified the murine FAS (mFAS) as our protein of choice. The established purification strategy using tags at both termini led to a reproducible and sufficient access to the protein in excellent quality. The enzyme was further biochemically characterized including an enzyme kinetic investigation of fatty acid synthesis and an examination whether different acyl-CoA substrates can serve as priming units. This adds mFAS to our repertoire of manageable megaenzymes paving the way to exploit the catalytic efficiency in regards of microbial custom-compound synthesis.
With a strong focus on deepening our understanding of the working mode of such megaenzymes, rather than analyzing respective biosynthetic products, we have addressed the question whether mFAS itself can be engineered towards PKSs or whether properties of mFAS can be exploited to engineer PKSs. This approach was conducted on three levels of complexity from function of individual domains via organization of domains to form modules to the interplay of two modules in bimodular constructs.
Fatty acid synthesis begins with the loading of acyl moieties onto the FAS, which is conducted by a domain called malonyl-/acetyltransferase (MAT). This domain was in-depth characterized due to its important role of choosing the substrates that are built in the final compound. Our analysis comprised structural and functional aspects providing crystal structures of two different acyl-bound states and kinetic parameters for the hydrolysis and transacylation reaction using twelve exemplary CoA-esters. For this purpose, we have successfully established a continuous fluorometric assay using the α-ketoglutarate dehydrogenase as a coupled enzyme, which converts the liberated coenzyme A into Nicotinamide adenine dinucleotide. These data revealed an extensive substrate ambiguity of the MAT domain, which had not been reported to that extent before. Further, we could demonstrate that the fold fulfills both criteria for the evolvability of an enzyme by expressing MAT in different structural arrangements (robustness) and by altering the substrate ambiguity within a mutagenesis study (plasticity). Taken these aspects together, we are persuaded that the MAT domain can serve as a versatile tool for PKSs engineering in potential FAS/PKS hybrid systems.
On the higher level of complexity, we investigated the architectural variability of the mFAS fold, which constitutes a fundamental basis for a broader biosynthetic application. We could rebuild all four module types occurring in typical modular PKSs confirming a high degree of modularity within the fold. Not only structural, but also functional integrity of these modules was validated by using triacetic acid lactone formation and ketoreductase activity. Especially the latter analysis, made it possible to quantify effects of the engineering within the processing part by respective enzyme kinetic parameters. Expanding our focus beyond a singular module, we have utilized the mFAS fold for designing up to 380 kDa large bimodular constructs. In this approach, a loading didomain was attached N-terminally containing an additional MAT and acyl carrier protein (ACP) domain. Two constructs could be expressed and purified in excellent quality to investigate the influence of an altered overall architecture on fatty acid synthesis. By comparison with appropriate controls, a functional effect of the additional loading module could indeed be proven in the bimodular systems. Those constructs allow a comprehensive analysis of the underlying molecular mechanism in the future and serve as a potential model system to study the transition from iterative to vectorial polyketide synthesis in vitro.
Hintergrund:
Zur Klärung der klinischen Relevanz einer Milbensensibilisierung bei Kindern und Jugendlichen mit Asthma bronchiale ist die spezifische bronchiale Allergenprovokation (BAP) der Goldstandard. Aufgrund der technischen und personellen Voraussetzungen, sowie der potentiellen Gefahr einer schweren asthmatischen Spätreaktion ist die BAP nur eingeschränkt in spezialisierten Zentren verfügbar. Im Gegensatz dazu zeichnet sich nasale Allergenprovokation (NPT) durch ein hohes Maß an Patientensicherheit aus und kann ambulant durchgeführt werden. In dieser Studie sollte daher ein Vergleich zwischen der BAP vs. NPT erfolgen und klären inwiefern die NPT eine vorteilhafte Alternative im Diagnostikalgorithmus darstellen kann.
Methodik:
Von 157 untersuchten Patienten mit asthmatischen Beschwerden und positivem Pricktest (Dermatophagoides pteronyssinus; Dermatophagoides farinae) erfüllten 74 die Ein- / Ausschlusskriterien in vollem Umfang (Alter MW: 9,1 + 3,1 Jahre). Nach der BAP und der Messung des eNO, erfolgte eine Blutentnahme zur Bestimmung von Blutbild und spezifischem IgE, ggf. konnte Nasensekret gewonnen werden. Im Anschluss wurde innerhalb von 12 Wochen eine NPT mit Milbenallergen in aufsteigender Verdünnung durchgeführt. Hierbei wurde das Ergebnis zum einen mittels Symptomscore nach Lebel evaluiert, sowie die nasale Obstruktion mittels Peak Nasal Inspiratory Flow Meter (PNIF) bestimmt. Zum Abschluss beantworteten die Patienten einen standardisierten Fragebogen zur Lebensqualität mit Rhinokonjunktivitis (RQLQ).
Ergebnisse:
In der BAP konnten 57 Patienten mit einer bronchialen Frühreaktion (FEV1 - Abfall Mean bei 29,2% ± 7,4) identifiziert werden, von diesen wurden 41 mittels Lebelsymptomscore und 19 mittels PNIF erkannt. Während der Symptomscore nach Lebel damit eine ausreichende Sensitivität von 71,9 % und einen positiv prädiktiven Wert (PPV) von 89,1 % erreichte, war die Sensitivität für den PNIF mit 33,3 % ungenügend bei einem PPV von 82,6 %. Die negativ prädiktiven Werte lagen bei 42,8 %, respektive 25,4 %. Sowohl das eNO größer oder gleich 10 ppb (AUC 0,78) als auch das kumulative spez. IgE größer oder gleich 25,5 kU/l (AUC 0,72) erwiesen sich als gute Prädiktoren einer bronchialen Frühreaktion (EAR), eine Korrelation mit dem Symptomscore nach Lebel konnte jedoch nicht festgestellt werden.
Schlussfolgerung:
Unsere Ergebnisse zeigen für den Symptomscore nach Lebel eine hohe Vorhersagekraft zur Detektion einer EAR in der bronchialen Milbenprovokation. Ein negativer Score konnte eine asthmatische Reaktion jedoch nicht ausreichend ausschließen. Für den PNIF fanden wir keine ausreichende Testvalidität. Besonders bei pädiatrischen Patienten ist zu berücksichtigen, dass diese Messung stark von der individuellen Leistungsfähigkeit beeinflusst wird. Zudem weisen die nasale und bronchiale Mukosa lokale Unterschiede auf, sodass eine nasale Reaktion nicht identisch mit einer EAR ist. Bei Kindern und Jugendlichen mit Asthma bronchiale ist die BAP daher nicht vollständig durch die NPT ersetzbar. Besonders im ambulanten Bereich findet die NPT jedoch ihre Berechtigung, durch die deutlich geringeren Testanforderungen bei einem hohen Maß an Patientensicherheit. Darüber hinaus gehen rhinitische Beschwerden häufig einem Asthma bronchiale voraus, sodass auch falsch positive Testergebnisse im Lebel - Score berücksichtigt werden sollten. Neben dem Symptomscore identifizierten wir sowohl das spezifische IgE als auch das eNO als valide Prädiktoren einer EAR, eine direkte Korrelation zum NPT konnte jedoch nicht gefunden werden.
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
Bei Autismus-Spektrum-Störungen (ASS) handelt es sich um genetisch komplexe Störungen mit hoher Erblichkeit. Als zugrundeliegender Pathomechanismus von ASS werden unter anderem Veränderungen der neuronalen Entwicklung diskutiert. Der Phänotyp von ASS ist definiert durch Einschränkungen in der sozialen Interaktion und Kommunikation sowie repetitives und stereotypes Verhalten. Genkopiepolymorphismen (englisch „copy number variations“/CNVs), also Deletionen oder Duplikationen einer chromosomalen Region, wurden wiederholt in Probanden mit ASS identifiziert. Hierbei ist in ASS die Region 16p11.2 mit am häufigsten von CNVs betroffen. Einige Gene aus diesem chromosomalen Abschnitt wurden bereits funktionell charakterisiert. Dennoch können die Befunde der bisherigen Einzelgenstudien nicht alle Aspekte erklären, die durch 16p11.2 CNVs hervorgerufen werden. Ziel dieser Studie war es daher, ein weiteres neuronal assoziiertes Kandidatengen dieser Region zu identifizieren und im Anschluss funktionell im Kontext der neuronalen Differenzierung zu charakterisieren.
Das SH-SY5Y Neuroblastom-Zellmodell wurde auf Transkriptom- und morphologischer Ebene auf seine Eignung als Modell für neuronale Differenzierung untersucht und bestätigt. Eine Analyse der Expressionen aller Gene der 16p11.2-Region zeigte, dass das Gen Quinolinat-Phosphoribosyltransferase (QPRT) eine vergleichsweise hohe Expression mit der stärksten und robustesten Regulierung über die Zeit aufwies. Eine de novo Deletion der 16p11.2-Region wurde in einem Patienten im Vergleich zu seinen Eltern validiert. In Patienten-spezifischen lymphoblastoiden Zelllinien derselben Familie konnten wir eine Gendosis-abhängige Expression von QPRT auf RNA-Ebene bestätigen. In SH-SY5Y-Zellen korrelierte die Expression von QPRT signifikant mit der Entwicklung von Neuriten während der Differenzierung. Um QPRT funktionell zu charakterisieren, benutzten wir drei verschiedene Methoden zur Reduktion der QPRT-Gendosis: (i) knock down (KD) durch siRNA, (ii) chemische Inhibition durch Phthalsäure und (iii) knock out (KO) über CRISPR/Cas9-Geneditierung. Eine Reduktion von QPRT durch siRNA führte zu einer schwachen Veränderung der neuronalen Morphologie differenzierter SH-SY5Y-Zellen. Die chemische Inhibition sowie der genetische KO von QPRT waren letal für differenzierende aber nicht für proliferierende Zellen. Eine Metabolitenanalyse zeigte keine Veränderungen des QPRT-assoziierten Tryptophanstoffwechsels. Gene, welche auf Transkriptomebene im Vergleich zwischen KO- und Kontrollzellen differenziell reguliert vorlagen, waren häufig an Prozessen der neuronalen Entwicklung sowie an der Bildung, Stabilität und Funktion synaptischer Strukturen beteiligt. Die Liste differenziell regulierter Gene enthielt außerdem überdurchschnittlich viele ASS-Risikogene und ko-regulierte Gengruppen waren assoziiert mit der Entwicklung des dorsolateralen präfrontalen Cortex, des Hippocampus sowie der Amygdala.
In dieser Studie zeigten wir einen kausalen Zusammenhang zwischen QPRT und der neuronalen Differenzierung in vitro sowie einen Einfluss von QPRT auf die Regulation von ASS-assoziierten Genen und Gen-Netzwerken. Funktionell standen diese Gene im Kontext mit synaptischen Vorgängen, welche durch Veränderungen zu einem Exzitations-Inhibitions-Ungleichgewicht und letztendlich zum Zelltod von Neuronen führen können. Unsere Ergebnisse heben in Summe die wichtige Rolle von QPRT in der Krankheitsentstehung von ASS, insbesondere in Trägern einer 16p11.2 Deletion, hervor.
Nachdem die Sicherheit der Blutprodukte in den letzten Jahrzehnten vor allem bei transfusionsmedizinisch relevanten Viren wie HIV-1, HCV und HBV wesentlich durch die Einführung von molekularen Nachweismethoden auf Restrisiken unter 1 zu 1 Million reduziert werden konnte, liegt der aktuelle Fokus der Transfusionsmedizin auf der Vermeidung von bakteriellen Übertragungen. Dabei stehen vor allem die Thrombozytenkonzentrate im Vordergrund, da diese bei Raumtemperatur gelagert werden und somit für viele Bakterien ideale Wachstumsbedingungen darstellen. Die vorliegende Arbeit hat dabei in vier aufeinander aufbauenden Phasen systematisch die klinische Effizienz eines photochemischen Pathogeninaktivierungsverfahrens untersucht.
Phase 1: Darstellung des Wachstumsverhaltens von 8 transfusionsmedizinisch relevanten Keimen mittels der Spiking-Versuche in Thrombozytenkonzentraten. Für die nachfolgenden Phasen sind nur die Bakterienstämme ausgewählt worden, die nachweislich zu einer Vermehrung in Thrombozytenkonzentraten geeignet sind.
Phase 2: In den Experimenten mit Vollblutkonzentraten zeigt sich bei der Spikingkonzentration von 100 CFU/Beutel für alle ausgewählten Keime eine 100%ige Inaktivierungseffizienz. Bei der Anfangskonzentration von 1000 CFU/Beutel ergibt sich für den Keim Klebsiella pneumoniae (PEI-B-08-09) eine Inaktivierungseffizienz von 75% und für den Keim Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime haben in den Experimenten mit der höheren Spikingkonzentration eine Inaktivierungseffizienz von 100%.
Phase 3: Für den Keim Klebsiella pneumoniae (PEI-B-08-09) zeigt sich in den Experimenten mit Pool-TKs schon bei der niedrigen Anfangskonzentration eine Inaktivierungseffizienz von 75%. Bei der Spikingkonzentration von 1000 CFU/Beutel ergibt sich erneut für die Keime Klebsiella pneumoniae und Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime weisen sowohl bei der niedrigen als auch bei der hohen Bakterienkonzentration eine 100%ige Pathogeninaktivierungseffizienz auf.
Phase 4: In den Experimenten mit Apherese-TKs zeigt sich für alle untersuchten Keime sowohl bei der niedrigen als auch bei der hohen Spikingkonzentration eine 100%ige Inaktivierungseffizienz.
Aus diesen Experimenten geht hervor, dass man mittels photochemischen Pathogeninaktivierungsverfahrens keine 100%ige Inaktivierungseffizienz erreichen kann. Vielmehr ist die Inaktivierungseffizienz zum einen von der bakteriellen Ausgangskonzentration, zum anderen aber auch vom Zeitpunkt der Anwendung des Verfahrens abhängig. Somit sollte der Begriff „ Pathogeninaktivierungsverfahren“ besser durch den Begriff des Pathogenreduktionsverfahrens ersetzt werden. Ferner wird anhand der Ergebnisse deutlich, dass die Anwendung von Pathogenreduktionsverfahren möglichst schnell nach der Spende erfolgen sollte. In diesem Zusammenhang haben Apherese-Thrombozytenkonzentrate gegenüber Pool-Thrombozytenkonzentraten einen Sicherheitsvorteil.
Deep learning and isolation based security for intrusion detection and prevention in grid computing
(2018)
The use of distributed computational resources for the solution of scientific problems, which require highly intensive data processing is a fundamental mechanism for modern scientific collaborations. The Worldwide Large Hadron Collider Computing Grid (WLCG) is one of the most important examples of a distributed infrastructure for scientific projects and is one of the pioneering examples of grid computing. The WLCG is the global grid that analyzes data from the Large Hadron Collider (LHC) at the European Organization for Nuclear Research (CERN), with 170 sites in 40 countries and more than 600,000 processing cores. The grid service providers grant users access to resources that they can utilize on demand for the execution of custom software applications used for the analysis of data. The code that the users can execute is completely flexible, and commonly there are no significant restrictions. This flexibility and the availability of immense computing power increases the security challenges of these environments. Attackers are a concern for grid administrators. These attackers may request the execution of software with a malicious code that gives them the possibility of compromising the underlying institutions’ infrastructure. Grid systems need security countermeasures to keep the user code running, without allowing access to critical components but whilst still retaining flexibility. The administrators of grid systems also need to be continuously monitoring the activities that the applications are carrying out. An analysis of these activities is necessary to detect possible security issues, to identify ongoing incidents and to perform autonomous responses. The size and complexity of grid systems make manual security monitoring and response expensive and complicated for human analysts. Legacy intrusion detection and prevention systems (IDPS) such as Snort and OSSEC are traditionally used for security incident monitoring in the grid, cloud, clusters and standalone systems. However, IDPS are limited due to the use of hardcoded fixed rules that need to be updated continuously to cope with different threats.
This thesis introduces an architecture for improving security in grid computing. The architecture integrates the use of security by isolation, behavior monitoring and deep learning (DL) for the classification of real-time traces of the running user payloads also known as grid jobs. The first component of the proposal, the Linux containers (LCs), are used to provide isolation between grid jobs and to gather specific traceable information about the behavior of individual jobs. LCs offer a safe environment for the execution of arbitrary user scripts or binaries, protecting the sensitive components of the grid member organizations. The containers consist of a software sandboxing technique and form a lightweight alternative to other technologies such as virtual machines (VMs) that usually implement a full machine-level emulation and can, therefore, significantly affect the performance. This performance loss is commonly unacceptable in high-throughput computing scenarios. Containers enable the collection of monitoring information from the processes running inside them. The data collected via the LCs monitoring is employed to feed a DL-based IDPS.
DL methods can acquire knowledge from experience, which eliminates the need for operators to formally specify all the knowledge that a system requires. These methods can improve IDPS by building models that are utilized to detect security incidents automatically, having the ability to generalize to new classes of issues. DL can produce lower false positive rates for intrusion detection, but also provides a measure of false negatives, which can be improved with new training data. Convolutional neural networks (CNNs) are utilized for the distinction between regular and malicious job classes. A set of samples is collected from regular production grid jobs from the grid infrastructure of “A Large Ion Collider Experiment” (ALICE) and malicious Linux binaries from a malware research website. The features extracted from these samples are utilized for the training and validation of the machine learning (ML) models. The utilization of a generative approach to enhance the required training data is also proposed. Recurrent neural networks (RNN) are used as generative models for the simulation of training data that complements and improves the real collected dataset. This data augmentation strategy is useful to supplement the lack of training data in ML processes.
...
Microsporidia are a group of parasites that infect a wide range of species, many of which play important roles in agriculture and human disease. At least 14 microsporidian species have been confirmed to cause potentially lifethreatening infectious diseases in both immunocompromised and immunocompetent humans. Approximately 1,400 species of microsporidia have been described. Depending on their host and habitat they are classified into three groups, the aquasporidia, the terresporidia and the marinosporidia.
Microsporidia were originally classified as fungi by Naegeli (1857). However, their lack of typical eukaryotic components – such as mitochondria, Golgi bodies or peroxisomes – suggested to place the microsporidia together with other amitochondriate protists within the Archezoa kingdom. This "microsporidia-early" hypothesis was further supported by molecular phylogenies inferred from individual genes. Despite this evidence, the placement of microsporidia as an early branching eukaryote remained a topic for debate. The phylogeny of microsporidia is prone to suffer from biases in their reconstruction. The high evolutionary rate of microsporidian proteins tends to place these proteins together with other fast evolving lineages, a phenomenon known as long-branch attraction. In 1996, the first molecular phylogenetic studies placed the microsporidia inside the fungi.
Subsequently, several further studies located the microsporidia at different positions inside the fungal clade. Since then, microsporidia have been considered as members of the Ascomycota, Zygomycota, Cryptomycota, or as a sister group to the Ascomycota and Basidiomycota, or even as the sister group of all fungi.
The difficulties in determining the evolutionary origin of microsporidia are not only caused by their lack of several cellular components but also by their reduced genomes and metabolism. Being obligate intracellular parasites, microsporidia successfully reduced their genome sizes, down to the range of bacteria. As the smallest eukaryotic genome described so far, the genome of Encephalitozoon intestinalis is just 2.3 Mbp, about half the size of the one of Escherichia coli. Due to their low number of protein coding genes (less than 4,000), microsporidia are thought to retain only genes essential for their survival and development. Furthermore, several key metabolic pathways are missing in the microsporidia, such as the citric acid cycle, oxidative phosphorylation, or the de novo biosynthesis of nucleotides. As a result they are in an obligatory dependence on many primary metabolites from the hosts. However, the presence of hsp70 protein suggests a more complex genome of the microsporidian ancestor. Consequently, the small microsporidian genomes and the reduced metabolism would be consequences of a secondary loss process that molded the contemporary microsporidia from a functionally more complex ancestral species. However, it remains unclear whether the last common ancestor (LCA) of the microsporidia was already reduced, or whether the genome compaction was lineage-specific and started from a more complex LCA.
We investigated the evolutionary history of the contemporary microsporidia through the reconstruction and analysis of their LCA. As a first step in our analysis, we have developed and implemented a software facilitating an intuitive data analysis of the large presence absence-patterns resulting from the tracing of microsporidian proteins in gene sets of many different species. These so called phylogenetic profiles can now be dynamically visualized and explored with PhyloProfile. The software allows the integration of other additional information layers into the phylogenetic profile, such as the similarity of feature architecture (FAS) between the protein under study and its orthologs. The FAS score can be displayed along the presence-absence pattern, which can help to identify orthologs that have likely diverged in function. PhyloProfile closes the methodological gap that existed between tools to generate large phylogenetic profiles to delineate the evolutionary history and the contemporary distribution of large – and ultimately complete – gene sets, and the more function-oriented analysis of individual protein. In the next step we tackled the problem of how to transfer functional annotation from one protein to another. We have developed HamFAS that integrates a targeted ortholog search based on the HaMStR algorithm with a weighted assessment of feature architecture similarities (FAS) between orthologs. In brief, for a seed protein we identify orthologs in reference species in which proteins have been functionally annotated based on manually curated assignments to KEGG Ortholog (KO) groups. The FAS scores between the orthologs and seed proteins are calculated. Subsequently, we compute pairwise FAS scores for all reference proteins within a KO group. A group's mean FAS score serves then as cutoff that must be exceeded to warrant transfer of its KO identifier to the seed. A benchmark using a manually curated yeast protein set showed that HamFAS yields the best precision (98.5%) when compared with two state-of-the-art annotation tools, KAAS and BlastKOALA. Furthermore, HamFAS achieves a higher sensitivity. On average HamFAS annotates almost 50% more proteins than KAAS or BlastKOALA.
With this extended bioinformatics toolbox at hand, we aimed at reconstructing the evolutionary history of the microsporidia. We generated a robust phylogeny of microsporidia using a phylogenomics approach. As a data basis, we identified a set of microsporidian proteins encoded by 80 core genes with one-to-one orthologs. A maximum likelihood analysis of this data
with 48 fungi and additionally in 13 species from more distantly related such as animals and plants combined in a supermatrix strongly supported the hypothesis that microsporidia form the sister group of the fungi. We confirmed that the data explains this microsporidia-fungi relationship significantly better than any other of the previously proposed phylogenetic hypotheses.
On the basis of this phylogeny, and of the phylogenetic profiles of microsporidian proteins, we then focused on reconstructing the dynamics microsporidian genome evolution. Between 2% of the proteins in the compact microsporidia Encephalitozoon intestinalis and up to 49% of the proteins of Edhazardia aedis are private for individual microsporidian species. A comparison of the sequence characteristics of these proteins to that of proteins with orthologs in other microsporidian species revealed individual differences. Yet, without further evidences it remains unclear whether these private genes are indeed lineage-specific innovations contributing to the adaptation of each microsporidium to its host, or whether these are artifacts introduced in the process of gene annotation. A total of 14,410 microsporidian proteins could then be grouped into 1605 orthologous groups that can be traced back to the last common ancestor of the microsporidia (LCA set). We found that 94% of the microsporidian LCA proteins could be tracked back to the last eukaryotic common ancestor. The high evolutionary age of these proteins, together with the resistance against gene loss in the microsporidia suggests that the corresponding functions are essential for eukaryotic life. Further 3% of the LCA proteins could be dated to the common ancestor microsporidia share with the fungi. Only 3% of the LCA proteins appear as microsporidia specific inventions. These proteins are potentially of importance for the evolutionary of the obligate parasitic lifestyle nowadays shared by all microsporidia.
The functional annotation and metabolic pathway analysis of the microsporidian LCA protein set gave us more insight into the adaptation of the microsporidia to their parasitic lifestyle and the origin of the microsporidian genome reduction. The presence of E1 and E3 components of the pyruvate dehydrogenase complex and the mitochondrial hsp70 protein support an ancestral presence of mitochondria in the ancestral microsporidia. In addition, several ancient proteins that complement gapped metabolic pathways were found in the microsporidian LCA. They suggested a more complex genome and metabolism in the LCA. However, our reconstruction of the metabolic network of the microsporidian LCA still lacks many main pathways. For example, the TCA cycle for effective energy production, and key enzymes that are required for in vivo synthesis of critical metabolites like purines and pyrimidines appear absent. We therefore find that the parasitic lifestyle and the genome reduction already occurred in the microsporidian LCA. This ancestral state was followed by further losses and gains during the evolution of each individual microsporidian lineage.
In conclusion, I described for the first time the in vivo functions of PAK2 during cardiac development and its requirement for heart contractility
AIM1 – Characterization of Pak2a and Pak2b functions during cardiovascular system development: description of the phenotype triggered by the loss of expression of pak2b in the pak2a mutant Firstly, in addition to the confirmation of the published data regarding the pak2a mutant and morphant phenotype, I showed that pak2bbns159 mutant does not exhibit morphological defects, neither in the ISV formation nor in the brain vascular patterning. More importantly, I analyzed in more details the phenotypic consequences of pak2a and pak2b loss of expression in the trunk and brain vasculatures. Indeed, the lack of blood flow in the embryos, was associated with central arteries migration defects and reduced lumen in these central arteries and the ISVs. Moreover, pak2a and pak2b loss of expression resulted in cardiac failure.
AIM2 – Role of Pak2 on cardiac contractility From 40 -46 hpf, I found a weaker heart contractility in the pak2ami149/mi149;pak2bbns159/bns159. Although, the PAK proteins have been shown to impact the actin cytoskeleton organization, the heart morphological defects associated with the altered contractility, were not associated with acto-myosin filament reorganization. However, by analyzing in more details the structure of the sarcomeres, I was able to demonstrate that the proteins constituting the sarcomeres were strongly affected and showed an altered spatial organization. Then, I also described the effects of the loss of expression of both paralogs on the junctional protein localization. I demonstrated the loss of Pak2 function resulted in junction protein rearrangement in the cardiomyocytes in the pak2ami149/mi149;pak2bbns159/bns159 mutants at 40 and 46 hpf.
Thus, I was able for the first time to demonstrate in vivo PAK2 functions during cardiac development and its requirement for proper cardiac contractility activity.
AIM3 – Decipher mechanism of Pak2 signaling cascade involved during cardiac development Both pak2a and pak2b WT mRNAs were able to rescue the pak2ami149/mi149;pak2bbns159/bns159 mutant heart defects and the results indicated that these paralogs share overlapping function during cardiac development. Moreover, although I was not able to examine the control transgenic lines, myocardial and endothelial specific pak2a overexpression did not ameliorate the mutant cardiac deficiency. Thus,the absence of rescue by reactivating pak2a in cardiomyocytes indicates a non-cell autonomous function of Pak2a on cardiomyocytes.
For the first time, this study allowed to follow PAK2 in vivo functions during cardiovascular development. More importantly, its role on heart contractility regulation would enable further investigations to generate new tools for the treatment of cardiomyopathies.
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
Due to the resurrection of data-hungry models (such as deep convolutional neural nets), there is an increasing demand for large-scale labeled datasets and benchmarks in the computer vision fields (CV). However, collecting real data across diverse scene contexts along with high-quality annotations is often expensive and time-consuming, especially for detailed pixel-level label prediction tasks such as semantic segmentation, etc. To address the scarcity of real-world training sets, recent works have proposed the use of computer graphics (CG) generated data to train and/or characterize performance of modern CV systems. CG based virtual worlds provide easy access to ground truth annotations and control over scene states. Most of these works utilized training data simulated from video games and pre-designed virtual environments and demonstrated promising results. However, little effort has been devoted to the systematic generation of massive quantities of sufficiently complex synthetic scenes for training scene understanding algorithms. In this work, we develop a full pipeline for simulating large-scale datasets along with per-pixel ground truth information. Our simulation pipeline constitutes of mainly two components: (a) a stochastic scene generative model that automatically synthesizes traffic scene layouts by using marked point processes coupled with 3D CAD objects and factor potentials, (b) an annotated-image rendering tool that renders the sampled 3D scene as RGB image with a chosen rendering method along with pixel-level annotations such as semantic labels, depth, surface normals etc. This pipeline is capable of automatically generating and rendering a potentially infinite variety of outdoor traffic scenes that can be used to train convolutional neural nets (CNN).
However, several recent works, including our own initial experiments demonstrated that the CV models that are trained naively on simulated data lack generalization capabilities to real-world scenes. This opens up several fundamental questions about what is it lacking in simulated data compared to real data and how to use it effectively. Furthermore, there has been a long debate since 1980’s on the usefulness of CG generated data for tuning CV systems. Primarily, the impact of modeling errors and computational rendering approximations, due to various choices in the rendering pipeline, on trained CV systems generalization performance is still not clear. In this thesis, we take a case study in the context of traffic scenarios to empirically analyze the performance degradations when CV systems trained with virtual data are transferred to real data. We first explore system performance tradeoffs due to the choice of the rendering engine (e.g., Lambertian shader (LS), ray-tracing (RT), and Monte-Carlo path tracing (MCPT)) and their parameters. A CNN architecture, DeepLab, that performs semantic segmentation, is chosen as the CV system being evaluated. In our case study, involving traffic scenes, a CNN trained with CG data samples generated with photorealistic rendering methods (such as RT or MCPT), shows already a reasonably good performance on real-world testing data from CityScapes benchmark. Use of samples from an elementary rendering method, i.e., LS, degraded the performance of CNN by nearly 20%. This result conveys that training data must be photorealistic enough for better generalizability of the trained CNN models. Furthermore, the use of physics-based MCPT rendering improved the performance by 6% but at the cost of more than three times the rendering time. This MCPT generated dataset when augmented with just 10% of real-world training data from CityScapes dataset, the performance levels achieved are comparable to that of training CNN with the complete CityScapes dataset.
The next aspect we study in the thesis involves the impact of choice of parameter settings of scene generation model on the generalization performance of CNN models trained with the generated data. Towards this end, we first propose an algorithm to estimate our scene generation model parameters given an unlabeled real world dataset from the target domain. This unsupervised tuning approach utilizes the concept of generative adversarial training, which aims at adapting the generative model by measuring the discrepancy between generated and real data in terms of their separability in the space of a deep discriminatively-trained classifier. Our method involves an iterative estimation of the posterior density of prior distributions for the generative graphical model used in the simulation. Initially, we assume uniform distributions as priors over parameters of a scene described by our generative graphical model. As iterations proceed the uniform prior distributions are updated sequentially to distributions for the simulation model parameters that leads to simulated data with statistics that are closer to the distributions of the unlabeled target data.
...
The subject of this dissertation is the aesthetic and political significance of photography for Bertolt Brecht's theatrical work and writing. Since the investigation of the gestus concept from the perspective of the politics of images—which draws attention to the fact that every image has a memory, mostly a political one—photography stands out and reveals the precise moment of the interruption of the dramatic action and, thereby, holds a significant gestus. The dissertation highlights the importance of photography’s examination for Brecht, besides featuring the extent to which his theatre responded to and dealt with the technical condition of its own time. If a gestus is recognisable as an interruption, through the observation of the detail, two different gestus appear: the gestus of the scene and the gestus of the photograph. In other words, the actor and photographer produce a double gestus with different levels of interpretation. The comparison between such a static photo and the notion of interruption in Bertolt Brecht’s works opens new grounds in Brechtian studies, and even in more general theatre studies.
Role of npas4l and Hif pathway in endothelial cell specification and specialization in vertebrates
(2018)
Cardiovascular development requires two main steps, vasculogenesis and angiogenesis. During vasculogenesis, angioblasts, the precursors of endothelial cells (ECs), specify from the mesoderm and coalesce to form the axial vessels of the vertebrate embryo. Many questions regarding the transcriptional waves initiating and sustaining angioblast specification are still unanswered. The identity of cloche, a gene essential for EC differentiation in zebrafish, was only recently discovered by our group, and very little is known about its upstream regulators or its molecular mechanism of action. I described the molecular players involved in orchestrating npas4l expression, upstream of angioblast specification. By using genetic models and chemical treatments, I identified FGF-Erk axis and BMP signaling to be involved in npas4l regulation. I also showed that eomesa is a potent inducer of npas4l expression. In addition, in vitro experiments indicated that murine Eomes promotes EC specification, acting upstream of Etv2 and Tal1. Using a combination of gain-of-function and loss-of-function models for npas4l, I identified primary and secondary downstream effectors of npas4l. I showed that Npas4l binding sites are present in the promoter of genes involved in hematoendothelial specification, such as tal1, lmo2 and etv2. Importantly, I reported that npas4l is sufficient and necessary to promote the EC specification program. By performing a combined analysis of the developed datasets, I recovered putative genes with a potential role in EC specification. One of the most promising candidates was tspan18b. I generated a mutant allele for tspan18b and observed angiogenic defects in tspan18b-/- embryos, confirming a role for this gene in zebrafish cardiovascular development. I showed that Npas4l binds etv2 promoter in zebrafish. In mammalian embryonic stem cells, however, Etv2 promoter is bound by HIF-1α, a transcription factor homolog to Npas4l. Interestingly, Eomes knockdown in vitro lead to a significant reduction of Hif-1α expression. To test the function of Hif-1α in vivo, I took advantage of a murine loss-of-function model.
Hif-1α mouse mutant embryos exhibit a significant decrease in Etv2 expression, when compared with WT siblings. These data suggest a model where mammals lost npas4l during evolution and HIF-1α acquired a new function, replacing npas4l role in EC specification. I compared the phenotype of Hif-1α mouse mutant with zebrafish hif-1α loss-of- function models. Importantly, zebrafish hif-1α mutant did not show defects in vasculogenesis or EC specification, but in EC specialization, during HSC development. I showed that hypoxia is a potent inducer of HSC formation, and hif-1α as well as hif-2α act upstream of notch1, vegfaa and evi1 in hemogenic endothelial specification.
Conclusions
In this work, I explored the molecular mechanisms underlying EC specification in vertebrates, analyzing the role of bHLH-PAS transcription factors in this biological process. I identified the upstream regulators and the downstream effectors of npas4l, describing a novel role for tspan18b in zebrafish cardiovascular development. Npas4l is a transcription factor necessary and sufficient for angioblast differentiation in zebrafish, but the gene was lost in the mammalian lineage. hif-1α and hif-2α, paralogous genes of npas4l, are involved in the establishment of EC heterogeneity and specifically in the specification of hemogenic endothelium in zebrafish. Murine Hif-1α, however, is responsible for Etv2 regulation, indicating a role for hypoxia inducible factor in initiating the EC specification program in mouse, similarly to npas4l function in zebrafish.
Identification and characterization of hypoxia-regulated long non-coding RNAs in endothelial cells
(2018)
RNA deep sequencing of the human transcriptome revealed that almost ~84 % of the genome are transcribed, however, only 2 % of all transcripts encode for proteins. All remaining transcripts are referred to as non-coding RNAs and can be divided into small non-coding RNAs (<200 nt) and long non-coding RNAs (lncRNAs; >200 nt). Studies throughout the last decade suggest a broad functional spectrum for lncRNAs. Regarding the cardiovascular field, several studies could show that lncRNAs are implicated in various aspects of endothelial cell biology. The response to hypoxia and the regulation of angiogenesis are key events in the context of several diseases. Therefore, the aim of this study was to determine the influence of hypoxia on lncRNA expression in human umbilical vein endothelial cells and furthermore, to characterize the lncRNA function on a molecular level. ...
Die Analyse früher Entwicklungsstadien von Säugetierembryonen und daraus gewonnener Stammzelllinien kann entscheidende Erkenntnisse im Bereich der Reproduktionsbiologie und der regenerativen Medizin hervorbringen. Dabei spielt die Maus, als geeignetes Modellsystem für die Übertragbarkeit auf den Menschen eine wichtige Rolle, in erster Linie weil die Blastozysten der Maus verglichen mit menschliche Blastozysten eine morphologische Ähnlichkeit aufweisen. Humane embryonale Stammzelllinien haben großes Potential für die Anwendung in der regenerativen Medizin und vergleichend dazu wurde Gen-Targeting in embryonalen Stammzellen verwendet, um tausende neuer Mausstämme zu generieren. Die Gewinnung embryonaler Stammzellen erfolgt im Blastozystenstadium, diese können dann nach Injektion in eine andere Blastozyste zur Entwicklung aller Gewebearten, einschließlich der Keimbahngewebe, beitragen (Martin, 1981; Evans and Kaufman 1981).
Ursache einer Fehlgeburt können vor allem Defekte in der Entwicklung des Trophoblasten und des primitive Entoderms (PrE) sein, dabei sind ca. 5 % der Paare betroffen die versuchen ein Kind zu bekommen (Stephenson and Kutteh, 2007). Eine Untersuchung dieser Zelllinien im Mausmodell könnte weitere Erkenntnisse für die Gründe einer Fehlentwicklung liefern. Trophoblasten Stammzelllinien können aus den Blastozysten der Maus und dem extraembryonalen Ektoderm von bereits implantieren Embryonen gewonnen werden (Tanaka et al., 1998). Diese Zelllinien geben Aufschluss über die Entwicklung des Trophoblasten, fördern die Entwicklung der Plazenta und sind gleichzeitig ein gutes Modellsystem um die Implantation des Embryos im Uterus näher zu untersuchen. Zellen des primitive Entoderms (PrE) beeinflussen das im Dottersack vorhandene extraembryonale Entoderm, welches dort als “frühe Plazenta” fungiert und für die Versorgung des Embryos mit Nährstoffen zuständig ist (Cross et al., 1994). Des Weiteren besitzt das Entoderm einen induktiven Einfluss auf die Bildung von anterioren Strukturen und die Bildung von Endothelzellen sowie Blutinseln (Byrd et al., 2002).
Extraembryonale Endodermstammzellen (XEN Zellen) können aus Blastozysten gewonnen und in embryonale Stammzellen (ES-Zellen) umgewandelt werden (Fujikura et al., 2002; Kunath et al., 2005). Es war jedoch nicht bekannt, ob XEN-Zellen auch aus Postimplantations-Embryonen gewonnen werden können. XEN-Zellen tragen in vivo zur Entwicklung des Darmendoderms bei (Kwon et al., 2008; Viotti et al., 2014) und könnten als alternative, selbsterneuernde Quelle für extraembryonale Endoderm-abgeleitete Zellen dienen, die zur Herstellung von Geweben für die regenerative Medizin verwendet werden könnten (Niakan et al., 2013).
In der Embryogenese der Maus zeigt sich an Tag E3.0 eine kompakte Morula die sich allmählich in das Trophektoderm (TE) differenziert, welches wiederum den Embryonalknoten (“innere Zellmasse”) umschließt (Johnson and Ziomek, 1981). Ein wichtiger Schritt im Rahmen der Entwicklung findet an Tag E3.5 statt, in diesem Zeitraum gehen aus dem Embryonalknoten der pluripotente Epiblast und das primitive Entoderm hervor. Im späten Blastozystenstadium an Tag E4.5 liegt das PrE als Zellschicht entlang der Oberfläche der Blastocoel-Höhle. Aus dem Epiblast entwickeln sich im weiteren Verlauf der Embryo, das Amnion und das extraembryonale Mesoderm des Dottersacks. Die Zellen des Trophektoderm führen zur Entwicklung der Plazenta. Das PrE differenziert sich im Zuge der Weiterentwicklung in das viszerale Entoderm (VE) und das parietale Entoderm (PE) des Dottersacks (Chazaud et al., 2006; Gardner and Rossant, 1979; Plusa et al., 2008). VE umgibt den Epiblast und extraembryonisches Ektoderm (ExE). PE-Zellen wandern entlang der inneren Oberfläche von TE und sezernieren zusammen mit Trophoblasten-Riesenzellen Basalmembranproteine, um die Reichert-Membran zu bilden (Hogan et al., 1980). Die Reichert-Membran besteht aus Basalmembranproteinen, einschließlich Kollagenen und Lamininen, die zwischen den parietalen Endoderm- und Trophoblastzellen liegen. Diese Membran wirkt als ein Filter, der dem Embryo den Zugang zu Nährstoffen ermöglicht, während er eine Barriere zu den Zellen der Mutter bildet (Gardner, 1983).
...
The enzyme acetyl-CoA carboxylase (ACC) plays a fundamental role in the fatty acid metabolism. It regulates the first and rate limiting step in the biosynthesis of fatty acids by catalyzing the carboxylation of acetyl-CoA to malonyl-CoA and exists as two different isoforms, ACC1 and ACC2. In the last few years, ACC has been reported as an attractive drug target for treating different diseases, such as insulin resistance, hepatic steatosis, dyslipidemia, obesity, metabolic syndrome and nonalcoholic fatty liver disease. An altered fatty acid metabolism is also associated with cancer cell proliferation. In general, the inhibition of ACC provides two possibilities to regulate the fatty acid metabolism: It blocks the de novo lipogenesis in lipogenic tissues and stimulates the mitochondrial fatty acid β-oxidation. Surprisingly, the role of ACC in human vascular endothelial cells has been neglected so far. This work aimed to investigate the role of the ACC/fatty acid metabolism in regulating important endothelial cell functions like proliferation, migration and tube formation.
To investigate the function of ACC, the ACC-inhibitor soraphen A as well as an siRNA-based approach were used. This study revealed that ACC1 is the predominant isoform both in human umbilical vein endothelial cells (HUVECs) and in human dermal microvascular endothelial cells (HMECs). Inhibition of ACC via soraphen A resulted in decreased levels of malonyl-CoA and shifted the lipid composition of endothelial cell membranes. Consequently, membrane fluidity, filopodia formation and the migratory capacity were attenuated. Increasing amounts of longer acyl chains within the phospholipid subgroup phosphatidylcholine (PC) were suggested to overcompensate the shift towards shorter acyl chains within phosphatidylglycerol (PG), which resulted in a dominating effect on regulating the membrane fluidity. Most importantly, this work provided a link between changes in the phospholipid composition and altered endothelial cell migration. The antimigratory effect of soraphen A was linked to a reduced amount of PG and to an increased amount of polyunsaturated fatty acids (PUFAs) within the phospholipid cell membrane. This link was unknown in the literature so far. Interestingly, a reduced filopodia formation was observed upon ACC inhibition via soraphen A, which presumably caused the impaired migratory capacity.
This work revealed a relationship between ACC/fatty acid metabolism, membrane lipid composition and endothelial cell migration. The natural compound soraphen A emerged as a valuable chemical tool to analyze the role of ACC/fatty acid metabolism in regulating important endothelial cell functions. Furthermore, regulating endothelial cell migration via ACC inhibition promises beneficial therapeutic perspectives for the treatment of cell migration-related disorders, such as ischemia reperfusion injury, diabetic angiopathy, macular degeneration, rheumatoid arthritis, wound healing defects and cancer.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
Einleitung: Die chronische Hepatitis C gehört zu den häufigen Ursachen einer Leberzirrhose. Durch die Entwicklung von direkt antiviralen Medikamenten (direct acting antiviral agent, DAA) können Heilungsraten von über 90% bei chronischer Hepatitis C erreicht werden. Der Einfluss des Therapieerfolgs auf Fibroseregression und portale Hypertension ist insbesondere für Patienten mit Leberzirrhose bisher nicht ausreichend geklärt. Elastographische Messungen von Leber und Milz können als Surrogatmarker zur nicht-invasiven Evaluation von Fibroseregression und Rückgang von portaler Hypertension dienen. Ziel der vorliegenden Arbeit war die Evaluation der Dynamik von Leberfibrose und portaler Hypertension mittels transienter Elastographie der Leber (L-TE) und Acoustic Radiation Force Impulse Elastographie von Leber (L-ARFI) und Milz (M-ARFI) bei Patienten mit DAA-induziertem anhaltendem virologischen Ansprechen (sustained virological response, SVR) und Hepatitis C Virus (HCV) assoziierter Leberzirrhose.
Patienten und Methoden: In dieser prospektiven, monozentrischen Studie wurden Daten von 56 Patienten mit chronischer Hepatitis C und assoziierter Leberzirrhose analysiert, die eine SVR nach 12-24 Wochen antiviraler Hepatitis C Therapie mit DAA's erreichten. Dabei wurden zu vier Zeitpunkten (Therapiebeginn [BL], Therapieende [EOT], 24 Wochen nach Therapieende [FU24] und 48 Wochen nach Therapieende [FU48]) Messungen vorgenommen. Zusätzlich wurden Leberzirrhose assoziierte Scores und Komplikationen sowie Laborparameter erhoben.
Ergebnisse: Die elastographischen Messungen der Leber zeigten signifikante Verbesserungen im Studienverlauf, am stärksten während der antiviralen Therapie. Im L-TE zeigten sich Verbesserungen zwischen BL [Median(Min-Max), 32,45(9,1-75)kPa] und FU48[Median (Min-Max), 17,1 (3,7-59,3) kPa] (p<0,0001) und im L-ARFI zwischen BL [Median (Min-Max), 2,7 (1,2-4,1) m/s] und FU24 [Median (Min-Max), 2,5 (1,2-3,9)m/s (p=0,011), wobei signifikante Verbesserungen (≥30%) bei 35/49 (71%) Patienten im L-TE und bei 6/55 (11%) im L-ARFI auftraten. Die M-ARFI Messungen als Korrelat der portalen Hypertension, zeigten kaum Veränderungen. Die medianen Werte blieben zwischen BL [Median (Min-Max), 3,4 (1,9-4,3) m/s] und FU48 [Median (Min-Max), 3,4(2-4,4) m/s] konstant (p=0,9). Nur 2/54 (4%) der Patentien zeigten signifikante Verbesserungen. In der univariaten Analyse zeigten sich 65 als positive Einflussfaktoren der L-TE- und L-ARFI-Verbesserung ein MELD Score bis 10 sowie ein BMI bis 30 kg/m².
Diskussion und Schlussfolgerung: In Zusammenschau der Ergebnisse kann bei einem Teil der Patienten von einer Fibroseregression und dem Rückgang der portalen Hypertension nach DAA-basierter, interferon-freier antiviraler Therapie ausgegangen werden. Die mittels L-ARFI und L-TE gemessene Verbesserung der Lebersteifigkeit unter antiviraler Therapie scheint auf einer Verbesserung von Nekroinflammation und Leberfibrose zu basieren. Bei Nichtbeachtung des Einflusses der Nekroinflammation auf nicht-invasive Messungen der Lebersteifigkeit kann es zur Überschätzung der Fibroseregression nach SVR kommen. Da es sich bei der Zirrhose- bzw. Fibroseregression anscheinend um einen langsamen Prozess handelt, sind ausreichend lange Nachbeobachtungszeiten in entsprechenden Studien zu fordern. Für die mit einer Leberzirrhose assoziierte portale Hypertension gelten ähnliche Überlegungen.
Particle physics is living it’s golden age: petabytes of high precision data are being recorded at experimental facilities such as the Relativistic Heavy Ion Collider (RHIC) and the Large Hadron Collider (LHC). Despite the significant theoretical progress achieved in the last years the complete understanding of the internal structure of protons, not computable with perturbative QCD, remains as one of the most challenging unsolved problems in the physics of elementary interactions. Besides its fundamental interest, pinning down the relevant degrees of freedom and their properties, such as their spatial distribution, has profound implications in several phenomenological aspects of high-energy collisions. Currently one of the subjects undergoing intense study is the possibility that droplets of quark-gluon plasma (QGP) are being created not only in heavy ion collisions but in more dilute systems such as high-multiplicity proton-proton interactions. This is a data driven debate as it is rooted in the similar patterns observed across the different collision systems at the LHC (p+p,p+Pb and Pb+Pb) in the flow harmonic analyses: one of the golden probes of QGP formation specially sensitive to the initial collision geometry. Another domain in which the proton structure plays a central role is the description of multi-parton interactions, the mechanism that dominates the underlying event at LHC energies, in Monte Carlo event generators. All in all a precise characterization of the hadronic structure is a crucial ingredient of the physics program of the LHC.
A full characterization of a hadron would require momentum, spatial and spin information, the so-called Wigner distribution. So far obtaining this information experimentally has not been achieved. From a theoretical point of view several complications arise such as non-universality and breaking of factorization theorems. Then, in general, the description of the hadron structure relies on phenomenological tools that require theoretical modeling constrained by experimental data. The main goal of this thesis to characterize the transverse structure of the proton. For that purpose, a wide variety of phenomenological problems that are sensitive to the proton structure have been addressed.
First, elastic scattering data on proton-proton interactions constitutes a powerful probe of the geometry of the collision. A dedicated analysis of this observable focusing on the extraction of the inelasticity density from it at √s=62.5 GeV and √s=7 TeV is presented. In the TeV regime, a unexpected phenomenon, dubbed the hollowness effect, arises: the inelasticity density, a measurement of how effective is the collision producing secondary particles, reaches its maximum at non-zero impact parameter. We provide the first dynamical explanation of the hollowness effect by constructing the elastic scattering amplitude in impact parameter representation according to the Glauber model. For that purpose we relied on a composite description of the proton. More concretely, the relevant degrees of freedom that participate in the scattering process were considered to be gluonic hot spots. The probability distribution for the transverse positions of hot spots inside the proton includes repulsive short-range correlations between all pairs of hot spots controlled by an effective repulsive core rc that effectively enlarges the mean transverse separation distance between them. The main results extracted from this work are as follows. To begin with, we found that our model was not able to describe a growing behavior of the inelasticity density at zero impact parameter in the absence of non-trivial spatial correlations. However, even in the presence of correlations, the emergence of the hollowness effect couldn’t be described when the number of hot spots was smaller than 3. Both features set solid constraints in the proton structure within our model. Finally, we pinpoint the transverse diffusion of the hot spots with increasing collision energy to be the dynamical mechanism underlying the onset of the hollowness effect.
A convenient playground to test further implications of this novel geometric description of the proton are the initial state properties of high energy proton-proton interactions in the context of QGP physics. The parametrization of the geometry of the collision is mandatory in any theoretical model attempting to describe the striking experimental results that suggest collective behavior in proton-proton interactions at the LHC, such as the non-zero value of the flow harmonic coefficients (vn). A quantitative way to characterize the initial geometry anisotropy of the overlap region is to compute the spatial eccentricity moments (εn) that fluctuate on an event by event basis. For that purpose we develop a Monte Carlo Glauber event generator. A systematic investigation of the effect of non-trivial spatial correlations in the spatial eccentricity moments from ISR to LHC energies within our Monte Carlo Glauber approach is presented. We found that both the eccentricity (ε2) and the triangularity (ε3) are affected by the inclusion of short-range repulsive correlations. In particular, the correlated scenario yielded larger values of ε2(3) in ultra-central collisions while reducing them in minimum bias.
Moreover, we explore not only the eccentricities mean but their fluctuations in terms of symmetric cumulants. The experimental measurement by the CMS Collaboration at √s=13 TeV indicates a anti-correlation of v2 and v3 around the same number of tracks in the three collision systems available at the LHC. We lay out, for the first time in the literature, a particular mechanism that permits an anti-correlation of ε2 and ε3 in the highest centrality bins as dictated by data. When modeling the proton as composed by 3 gluonic hot spots, the most common assumption in the literature, we find that the inclusion of spatial correlations is indispensable to reproduce the negative sign. Further, we perform a systematic investigation of the parameter space of the model i.e. radius of the hot spot, radius of the proton, repulsive core and number of hot spots in each proton. Our results suggest that the interplay of the different scales is decisive and confirm the discriminating power of this observable on initial state models. Together with their drastic impact on the description of the hollowness effect and the absolute values of the eccentricities, the symmetric cumulant study adds evidence to the fact that the inclusion of spatial correlations between the sub nucleonic degrees of freedom of the proton modifies the initial state properties of p+p interactions at LHC energies.
The multistep-processes leading to the formation of tumors have been extensively studied in the past decades, leading to the identification of “hallmarks of cancer”. They are characteristic changes in biological processes that discriminate tumor cells from healthy cells. Increasing knowledge on the molecular structures associated with tumorigenesis allowed their specific inhibition in targeted anti-cancer therapy. However, successful targeted anti-cancer therapy is only available for a limited subset of diseases, so the continuous investigation of tumorigenic mechanisms is required to tackle the immense diversity of neoplastic entities.
AVEN and FUSE binding protein 1 (FUBP1) display the ability to regulate apoptosis and cell cycle progression. Thus, the proteins are associated with hallmarks of cancer (resisting cell death and uncontrolled proliferation). Indeed, aberrant expression of AVEN and FUBP1 could be demonstrated in multiple cancers. In contrast, there is only little knowledge on the physiological function of AVEN and FUBP1. The lack of knowledge results in part from the embryonic lethality of the homozygous knockout of Aven and Fubp1 in mouse models, limiting the gain of information by analyzing these animals.
In this study, I generated conditional Aven and Fubp1 knockout mice to investigate their physiological function.
By analyzing reporter mice expressing β-galactosidase under the control of the endogenous Aven promoter, I identified Aven promoter activity to be both tissue- and cell type-specific and dependent on the developmental stage. Detecting apoptotic cell death by immunohistochemistry did not reveal increased apoptosis in Aven knockout mice, suggesting a functional role of AVEN besides apoptosis inhibition during embryogenesis.
Basing on the significant Aven promoter activity detected in the adult brain and in the mammary gland, I generated and characterized conditional Aven knockout mice with Aven deletion restricted to cells within the brain or the mammary gland. AVEN depletion in these tissues was not embryonic lethal and the affected tissues displayed a normal histology.
Since aberrant Aven expression had been associated with hematologic malignancies, I also analyzed mice with an Aven knockout in the hematopoietic system. Depletion of AVEN in the blood cells had no effect on hematopoietic stem and progenitor cell frequencies. Consequently, AVEN seems to be dispensable for the maintenance and differentiation of stem, progenitor and mature blood cells, at least as far as the expression of particular differentiation markers was concerned.
As loss of AVEN in the analyzed tissues did not affect the viability of mice and did not produce any other obvious phenotype, the exact role of AVEN that is essential for embryo survival remains to be identified.
To study the oncogenic potential of AVEN, I investigated the role of AVEN in a mouse model for breast carcinogenesis. While AVEN expression seemed to be increased in breast tumors, tumor onset and progression were not altered in mice with depleted AVEN expression in the mammary gland. Consistently, Aven knockout tumor cells were neither less proliferative nor more prone to undergo apoptosis than Aven wildtype tumor cells. Cell culture experiments demonstrated that AVEN expression is upregulated by estrogen. Knockdown of AVEN in the breast cancer cell line MCF-7 slightly increased UV irradiation-induced apoptosis and accelerated metabolism. So while AVEN does not promote development or progression of breast tumors, enhanced AVEN expression in ER+ breast cancers might contribute to chemotherapy resistance.
To study the physiological role of FUBP1, I generated a conditional Fubp1 knockout mouse model. While the insertion of loxP sites into the Fubp1 locus was occasionally embryonic lethal, some mice with a cell type-specific deletion of Fubp1 in hematopoietic cells or EPO receptor expressing cells were born alive. In these mice, frequencies of hematopoietic stem and progenitor cells as well as erythrocytes were unaltered. These results conflict with previous publications. However, compensating mechanisms might be responsible for the discrepancies between the observed phenotypes and reported FUBP1 function.
In cell culture studies, I could demonstrate that the previously reported upstream regulation of FUBP1 by TAL1 depended on an intact GATA motif in the FUBP1 promoter and that binding of GATA1 to the FUBP1 promoter increased during erythropoiesis.
To identify new FUBP1 target genes with relevance for erythropoiesis, I performed differential gene expression analysis in cells with wildtype and depleted FUBP1 expression. RNA-sequencing and PCR-arrays revealed only moderate differences in the expression of genes that are components of the EPO receptor signaling pathway as well as genes associated with apoptosis and proliferation of hematopoietic cells. By regulating the transcription of these genes, FUBP1 could contribute to efficient erythropoiesis.
Licht ist ein wertvolles Werkzeug zur Regulation biochemischer Reaktionsabläufe. Denn die Applikation von Licht erlaubt eine sehr präzise Einflussnahme auf den Ort und den Startzeitpunkt der zu untersuchenden Reaktionen. Als nichtinvasives Medium bietet die Lichtkontrolle bei der Wahl einer geeigneten Anregungswellenlänge den Vorteil nur minimal in einen lebenden Organismus einzugreifen. Um eine solche lichtbasierte Kontrolle für biologische Anwendungen zu realisieren, ist die Anwesenheit einer lichtsensitiven Verbindung nötig. Ein Konzept der lichtsensitiven Verbindungen ist die sogenannte photolabile Schutzgruppe. Im Allgemeinen handelt es sich hierbei um einen Chromophor der temporär an ein Biomolekül angebracht wurde, um dessen biologische Aktivität zu unterdrücken.
In dieser Arbeit wurde dieses Konzept auf das Antibiotikum Puromycin angewendet, welches durch das synthetische Anbringen der Cumarin-Schutzgruppe DEACM in seiner biologischen Aktivität behindert und durch einen Lichtpuls wieder freigesetzt wurde. DEACM st eine photolabile Schutzgruppe mit breitem Anwendungsspektrum, da es im Vergleich zu anderen Cumarin-Derivaten vorteilhafte photophysikalische Eigenschaften aufweist. Zum einen ist durch den 7-Diethylamino-Substituenten das Absorptionsmaximum dieser Verbindung um etwa 20 nm bathochrom verschoben. Zum anderen zeichnet sich dieses Derivat durch einen erheblich erhöhten Extinktionskoeffizienten aus, sodass eine Freisetzungsreaktion mit einer geringeren Lichtdosis induziert werden kann, was weniger Stress für die Zellen in lebenden Systemen bedeutet.
Die antibiotische Wirkung von Puromycin beruht auf der strukturellen Ähnlichkeit zum5'-Ende von Tyrosyl-tRNA, wodurch sich das Antibiotikum kondonunspezifisch während der Translation der Proteinsynthese an das Ribosom anlagern kann. Anschließend wird die naszierende Polypeptidkette auf das Puromycin transferiert. Da diese neue Bindung unter biologischen Bedingungen nicht spaltbar ist, führt dies zu einer verfrühten Freisetzung des Polypeptid-Puromycin-Fragments. Schließlich ist die Proteinsynthese vollständig abgebrochen.
Die Motivation zur photoinduzierten Kontrolle von Puromycin besteht in der Vielzahl an biologischen Applikationsmöglichkeiten, da die lichtregulierte Freisetzung der biologischen Aktivität als Trigger für sich anschließende biochemische Abläufe verwendet werden kann. Durch das hier gezeigte System kann in Kombination mit anderen Techniken (z.B. NMR) die posttranslationale Proteinfaltung beobachtet werden, welche als hochgradig komplexer Prozess bisher nicht verstanden ist. Eine weitere Motivationsgrundlage ist die Anwendung von DEACM-puromycin in Nervenzellen. Hier kann durch die Photofreisetzung die Proteinsynthese in den Dendriten der Neuronen beobachtet werden, wodurch Rückschlüsse auf neurodegenerative Krankheiten möglich sein sollten, wie z.B. Alzheimer-Krankheit. In dieser Arbeit konnte in-vitro nachgewiesen werden, dass die antibiotische Wirkung von Puromycin mittels Licht kontrollierbar ist. Aus der photophysikalischen Grundcharakterisierung ging hervor, dass DEACM-puromycin einen hohen Extinktionskoeffizienten bei Wellenlängen größer als 380 nm aufweist. Folglich kann zur Induktion der Photolyse eine geringere Lichtdosis mit energiearmer Strahlung als bei dem Vorläufersystem NVOC-puromycin verwendet werden, angesichts dessen ist das hier vorgestellte DEACM-puromycin für Anwendungen in Zellen zu empfehlen.
Über die Kombination von quantenchemischen Rechnungen und spektroskopischen Methoden konnten die frühen Schritte der Freisetzungsreaktion bestimmt und quantifiziert werden. Zudem zeigte sich ein Einfluss der Lösungsmittelzusammensetzung auf die Uncaging-Schritte. In Gegenwart eines protischen Lösungsmittels wird der zum Uncaging in Konkurrenz stehende Prozess der Fluoreszenz unterdrückt, wodurch die Freisetzungsschritte effektiver werden. Zudem führt die Präsenz von Protonen zu einer Stabilisierung des ionischen Intermediates, sodass die Bildung dessen beschleunigt ablaufen kann. Die Spaltung der photolabilen Schutzgruppen vom Puromycin findet mit einer Rate von 0,71*10^8 s-1 statt, welche im Vergleich zu Vorgängersystem um eine Größenordnung größer ist. Die Wiederherstellung der biologischen Aktivität resultiert aber erst nach einem anschließenden Decarboxylierungsschritt. Mithilfe von IR-Messungen konnte die Decarboxylierung beobachtet und daraus die Quantenausbeute zu 2,5% determiniert werden. Die so bestimmte Quantenausbeute entspricht etwa dem Zweifachen von NVOC-puromycin, sodass die hier untersuchte Verbindung eindeutig als das effizientere System zu betrachten ist. Die hier beschriebenen Ergebnisse zeigen, dass DEACM-puromycin vorteilhafte photophysikalische Eigenschafen aufweist, die diese Verbindung zu einem wertvollen Hilfsmittel für eine Vielzahl von lichtkontrollierten Untersuchungen in biologischer Umgebung macht. Zudem wurden Einblicke in den Reaktionsmechanismus gegeben, die das Verständnis der photolytischen Spaltung von Carbamat-geschützten Cumarinen erstmals auf der ultrakurzen Zeitskala ermöglicht.
Zwangsmaßnahmen stellen in der psychiatrischen Versorgung ein umstrittenes Thema dar. Obwohl soweit wie möglich eine zwangsfreie Psychiatrie angestrebt wird, können psychiatrische Erkrankungen in einzelnen Fällen die Selbstbestimmungsfähigkeit der Patienten einschränken und Zwangsmaßnahmen notwendig machen. Diese können eine erhebliche Belastung für die betroffenen Patienten darstellen und bringen das medizinische Personal unter Umständen in ein ethisches Dilemma zwischen Fürsorgepflicht für erkrankte Patienten und deren Autonomiewahrung. Da sowohl national als auch international noch kein einheitlicher Konsens bezüglich möglicher Prädiktoren einer Zwangseinweisung und deren Auswirkung auf den Therapieverlauf erreicht wurde, besteht dazu noch weiterer Forschungsbedarf.
Um diese Lücke zu verkleinern, wurde eine aktuelle, retrospektive Studie auf der Grundlage der besonderen rechtlichen Situation in Hessen bezüglich des Hessischen Freiheitsentzugsgesetzes (HFEG) durchgeführt. Hierfür wurden die Patientenakten aller volljährigen Patienten, die freiwillig oder unfreiwillig (nach §10 HFEG, §1906 BGB und §1 HFEG) auf eine der drei geschützten Stationen der Psychiatrie des Universitätsklinikums Frankfurt am Main während der Quartale I/2015 und II/2015 aufgenommen wurden, ausgewertet. Dabei wurden die Unterschiede der freiwillig und der unfreiwillig aufgenommenen Patienten in soziodemographischen Prädiktoren und die Auswirkung des Aufnahmemodus auf den Therapieverlauf durch Signifikanzprüfungen und dem Verfahren der logistischen Regression betrachtet. Analysiert wurden 543 Patienten, von denen ca. 70% freiwillig und 30% unfreiwillig aufgenommen wurden.
Es konnten vier mögliche Prädiktoren einer unfreiwilligen Aufnahme identifiziert werden: Initiierung der Aufnahme, Aufnahmezeitpunkt, Hauptdiagnose und somatische Nebendiagnosen. Eine unfreiwillige Aufnahme wurde eher durch Passanten, den Betreuer/die Einrichtung oder Nachbarn/Freunde initiiert, während freiwillige Aufnahmen eher durch die Familie oder Eigeninitiative motiviert waren. Die Betrachtung der Initiierung einer Aufnahme erfolgte in der Literatur bisher selten. Übereinstimmend mit anderen Studien wurden zwangseingewiesene Patienten eher wochentags außerhalb der Kernarbeitszeiten oder am Wochenende/Feiertag aufgenommen, während freiwillige Aufnahmen vermehrt in der Kernarbeitszeit stattfanden. Die Diagnosen F0 und F4 erwiesen sich in der Regressionsanalyse als Risikofaktoren für eine Zwangseinweisung, wodurch der in der Literatur bestehende Kenntnisstand eines Zusammenhangs zwischen der Diagnose und dem Aufnahmemodus bestätigt wurde. Unfreiwillig aufgenommene Patienten wiesen zudem signifikant weniger somatische Nebendiagnosen auf. Der Einfluss der Nebendiagnosen ist in der Literatur noch nicht ausreichend untersucht, auch wenn die Ergebnisse der vorhandenen Studien größtenteils mit der vorliegenden Studie übereinstimmen.
Hinsichtlich des Therapieverlaufs unterschieden sich die beiden Gruppen in den Variablen Aufenthaltsdauer, Unterbringung im Verlauf, Zwangsfixierung, Zwangsmedikation, medikamentöse Einstellung, Antidepressiva und andere Medikamente. Zwangseingewiesene Patienten zeigten eine kürzere Aufenthaltsdauer, was möglicherweise der besonderen rechtlichen Situation in Hessen geschuldet ist. Sie wurden zudem häufiger im Verlauf des Aufenthalts untergebracht, waren öfter von Zwangsmaßnahmen wie Fixierungen oder Zwangsmedikationen betroffen und erhielten generell weniger Medikamente. Möglicherweise wurde dies durch eine fehlende Behandlungsmotivation oder eine kürzere Aufenthaltsdauer bedingt. In zusätzlichen Analysen zeigte sich, dass sich einfach und mehrfach aufgenommene Patienten in Baseline-Parametern nicht signifikant unterschieden.
Auch wenn Limitierungen wie das Vorliegen einer unizentrischen Studie oder einem Auswertungszeitraum von einem halben Jahr vorliegen, geben die in dieser Studie gefundenen Zusammenhänge wichtige Hinweise, um das Zustandekommen und die Auswirkungen von Zwangseinweisungen besser zu verstehen. Mit dieser Studie als Vergleichsgrundlage kann in Zukunft eine erstmalige Evaluierung der PsychKHG-Einführung in Hessen durchgeführt werden.
Hintergrund und Fragestellung: Nomogramme können durch individuelle Prognoseberechnungen Patienten helfen, Therapieentscheidungen zu treffen sowie ihre Gesundheitskompetenz durch ein besseres Krankheitsverständnis zu fördern. Nomogramme sind graphische Darstellungen von Regressionsgleichungen, mit denen sich verschiedene Endpunkte berechnen lassen. In der vorliegenden Arbeit sollen neben Hintergrundwissen zu Nomogrammen auch Gütekriterien für eine kritische Nutzung von Nomogrammen im klinischen Alltag sowie eine Übersicht empfehlenswerter Nomogramme vorgestellt werden.
Methode: Es fand eine systematische Literaturrecherche in der Datenbank Medline im Zeitraum von September 2014 bis Mai 2016 statt. Gesucht wurde auf englischer Sprache nach Nomogrammen in der Urologie anhand des Suchterms „Nomogram AND urology“. Einschlusskriterien für die Betrachtung waren vorhandener Abstract sowie englische oder deutsche Sprache. Die Bewertung der Nomogramme fand unter folgenden Gesichtspunkten statt: Fallzahl, Aktualität, Validierung, Gütekriterien sowie klinische Anwendung.
Ergebnis: Insgesamt hat die Literaturrecherche 311 Nomogramme in der Urologie zu verschiedenen Erkrankungen und Organsystemen identifizieren können. Für die Bereiche Urodynamik, Nebenniere, entzündliche Erkrankungen der Harnwege, Penis, Urolithiasis, Urothelkarzinome, Nierenkarzinome und Prostatakarzinome sind 122 extern validierte Nomogramme gefunden worden. Dabei wurde die fehlerhafte Nutzung des Nomogrammbegriffs deutlich, zumal Tabellen, Perzentilenkurven und Diagramme als solche beschrieben wurden. Hinsichtlich der Qualität der publizierten Modelle gibt es noch Verbesserungsbedarf. So sind viele publizierte Modelle nicht extern validiert oder nur einem Datensplitting unterzogen worden, was die Übertragbarkeit in fremde Populationen behindert. Weiterhin bestehen Mängel bei der Konzeption der Studien zur Nomogramm-Entwicklung, bei der Rekrutierung der Patienten und bei der Datenqualität.
Fazit: Die vorliegende Arbeit identifiziert die klinisch sinnvollsten und erprobten Nomogramme für den Einsatz in der Praxis (siehe Tabellen 1-9). Durch Fortschritte in Medizin und Technik können Nomogramme mit Hilfe von hochqualitativen Daten sowie einheitlicher Qualitätsstandards zur Entwicklung und Etablierung dieser in Zukunft einen wertvollen, klinisch sinnvollen Einsatz zur Verbesserung der Therapieentscheidung bei Patienten erfahren. Neue Biomarker, insbesondere auf Grundlage von Genomanalysen, sowie optimierte bildgebende Verfahren könnten zukünftig Bestandteil von Nomogrammen werden. Weiterhin sollte die Evaluation des klinischen Nutzens der Nomogramme sowie ein Vergleich der Modelle unter gleichen Bedingungen in Zukunft erfolgen, bevor diese im klinischen Alltag Anwendung finden.
Mycophenolate-Mofetil (MMF) clinically used as CellCept is inserted as immunosuppressive xenobiotic drug for preventing transplantate rejection. It is well known that MMF works selectively through inhibiting the IMPDH which is an essential enzyme in the de novo pathway for biosynthesis of guanosine Nukleotides.
In this study, we investigated the effects of MMF on the astrocytes, because astrocytes are important glial cells of the CNS with various functions in the healthy tissue, such as being involved in the neuronal differentiation, axonal growth and regulation of the environmental composition. They also build up the scared tissue during acute CNS lesions by releasing neurotoxic substances such as NO and different inflammatory Zytokines, e.g. IL-1ß and TNF-a, which even influence the microglial cell proliferation, migration and activity. Therefore, astrocytes are impressingly involved in the extent of the neuronal damage.
Our observations revealed an influence of astrocytic proliferation dependent on the concentration of the serum (10%, 5%, 2%, 1% and serum free medium) used for the in vitro cultivation: the more the serum part in the medium the more the extent of the cell proliferation. The proliferation of astrocytes cultured in serum free medium can be increased by Corticotropin Releasing Factor (CRF) 10µM and Guanosine application. Dose-dependent MMF led to a suppression of the astrocytic proliferation which is antagonisable with Guanosine only.
The number of the isolated proliferating astrocytes labeled by BrdU was significantly reduced after simultaneous treatment with serum (10% or 1%) and dose-dependent MMF (10µg/ ml, 1µg/ ml and 0,1µg/ ml) application, whereas LPS showed no effect on the proliferating rate. But, as measured by ELISA, with LPS conditioned medium contained relevant amounts of TNF-a and NO, but surprisingly not of IL-1ß. There were a significant reduction of cytokine and NO amounts determined in the astrocytic conditioned medium treated only with MMF dependent of the concentration (10µg/ml, 1µg/ml and 0,1µg/ml). Even the simultaneous treatment with LPS and MMF revealed compared to the LPS stimulated astrocytic group a measurable significant decrease of TNF-a. The treatment of the astrocytic cultures with guanosine lifted up the effects of MMF on TNF-a secretion. Therefore, we conclude, that the immunosuppressive drug MMF might have a neuroprotective and scar formation modulating effect through the antiproliferative potency on astrocytic cells and modulating character of the microenvironment by influencing the TNF-a secretion. Moreover, these regulatory effect on microglial cells are described as suppression (Hailer NP,Wirjatijana F,Roser N,Hirschebeth GT,Korf HW,Dehghani F,2001).
Die digitale Pathologie ist ein neues, aber stetig wachsendes, Feld in der Medizin. Die kontinuierliche Entwicklung von verbesserten digitalen Scannern erlaubt heute das Abscannen von kompletten Gewebeschnitten und Whole Slide Images gewinnen an Bedeutung. Ziel dieser Arbeit ist die Methodenentwicklung zur Analyse von Whole Slide Images des klassischen Hodgkin Lymphoms. Das Hodgkin-Lymphom, oder Morbus Hodgkin, ist eine Tumorerkrankung des Lymphsystems, bei der die monoklonalen Tumorzellen in der Regel von B-Lymphozyten im Vorläuferstadium abstammen.
Etwas mehr als 9.000 Hodgkin-Lymphom-Fälle werden jährlich in den USA diagnostiziert. Zwar ist die 5-Jahre-Überlebensrate für Hodgkin-Lymphome mit 85,3 % vergleichsweise hoch, dennoch werden etwa 1.100 Todesfälle pro Jahr in den USA registriert. Auf mikroskopischer Ebene sind die Hodgkin-Reed-Sternberg Zellen (HRS-Zellen) typisch für das klassische Hodgkin Lymphom. HRS-Zellen haben einen oder mehrere Zellkerne, die stark vergrößert sind und eine grobe Chromatinstruktur aufweisen. Immunhistologisch gibt es für HRS-Zellen charakterisierende Marker, so sind HRS-Zellen positiv für den Aktivierungsmarker CD30.
Neben der konventionellen Mikroskopie, ermöglichen Scanner das Digitalisieren von ganzen Objektträgern (Whole Slide Image). Whole Slide Images werden bisher wenig in der Routinediagnostik eingesetzt. Ein großer Vorteil von digitalisierten Gewebeschnitten bietet sich bei der computergestützten Analyse. Automatisierte Bildanalyseverfahren wie Zellerkennung können Pathologen bei der Diagnose unterstützen, indem sie umfassende Statistiken zur Anzahl und Verteilung von immungefärbten Zellen bereitstellen.
Die untersuchten immunohistologischen Bilder wurden vom Dr. Senckenbergisches Institut für Pathologie des Universitätsklinikums Frankfurt bereit gestellt. Die betrachteten Gewebeschnitte sind gegen CD30 immungefärbt, einem Membranrezeptor, welcher in HRS-Zellen und aktivierten Lymphozyten exprimiert wird. Die Gewebeschnitte wurden mit einem Aperio ScanScope slide scanner digitalisiert und liegen mit einer hohen Auflösung von 0,25 μm pro Pixel vor. Bei den vorliegenden Gewebeschnittgrößen ergeben sich Bilder mit bis zu 90.000 x 90.000 Pixeln.
Der untersuchte Bilddatensatz umfasst 35 Bilder von Lymphknotengewebeschnitten der drei Krankheitsbilder: Gemischtzelliges klassisches Hodgkinlymphom, noduläres klassisches Hodgkinlymphom und Lymphadenitis. Die Bildverarbeitungspipeline wurden teils neu implementiert, teils von etablierten Bilderkennungssoftware und -bibliotheken wie CellProfiler und Java Advanced Imaging verwendet. CD30-positive Zellobjekte werden in den Gewebeschnitten automatisiert erkannt und neben der globalen Position im Whole Slide Image weitere Morphologiedeskriptoren berechnet, wie Fläche, Feret-Durchmesser, Exzentrität und Solidität. Die Zellerkennung zeigt mit 84 % eine hohe Präzision und mit 95 % eine sehr gute Sensitivität.
Es konnte gezeigt werden, dass in Lymphadenitisfällen im Schnitt deutlich weniger CD30- positive Zellen präsent sind als in klassisches Hodgkinlymphom. Während hier im Schnitt nur rund 3.000 Zellen gefunden wurden, lag der Durchschnitt für das Mischtyp klassisches Hodgkinlymphom bei rund 19.000 CD30 positiven Zellen. Während die CD30-positiven Zellen in Lymphadenitisfällen relativ gleichmäßig verteilt sind, bilden diese in klassischen Hodgkinlymphom-Fällen Zellcluster höherer Dichte.
Die berechneten Morphologiedeskriptoren bieten die Möglichkeit die Gewebeschnitte und den Krankheitsverlauf näher zu beschreiben. Zudem sind bisher Größe und Erscheinungsbild der HRS-Zellen hauptsächlich anhand manuell ausgewählter Zellen bestimmt worden. Ein Maß für die Ausdehnung der Zellen ist der maximale Feret-Durchmesser. Bei CD30-Zellen im klassischen Hodgkinlymphom liegt dieser im Durchschnitt bei 20 μm und ist somit deutlich größer als die durchschnittlich gemessenen 15 μm in Lymphadenitis.
Es wurde ein graphentheoretischer Ansatz gewählt, um die CD30 positiven Zellen und ihre räumliche Nachbarschaft zu modellieren. In CD30-Zellgraphen von klassischen Hodgkinlymphom-Gewebeschnitten ist der durchschnittliche Knotengrad gegenüber den von Lymphadenitis-Bildern stark erhöht. Der Vergleich mit Zufallsgraphen zeigt, dass die beobachteten Knotengradverteilungen nicht für eine zufällige Verteilung der Zellen im Gewebeschnitt sprechen. Eigenschaften und Verteilung von Communities in CD30-Zellgraphen können hinzugenommen werden, um klassisches Hodgkinlymphom Gewebeschnitte näher zu charakterisieren.
Diese Arbeit zeigt, dass die Auswertung von Whole Slide Image unterstützend zur Verbesserung der Diagnose möglich ist. Die mehr als 400.000 automatisch erkannten CD30-positiven Zellobjekte wurden morphologisch beschrieben, und zusammen mit ihrer Position im Gewebeschnitt ist die Betrachtung wichtiger Eigenschaften des klassischen Hodgkinlymphoms realisierbar. Zellgraphen können durch weitere Zelltypen erweitert werden und auf andere Krankheitsbilder angewendet werden.
Seit einigen Jahren ist bekannt, dass Sphingolipide nicht nur eine strukturgebende Funktion in der Plasmamembran aufweisen, sondern ebenfalls als Botenstoffe intra- und extrazellulär aktiv sind. Sphingosin-1-Phosphat (S1P) bildet dabei einen Schlüssel-Metaboliten, da es verschiedene Zellfunktionen wie Wachstum und Zelltod beeinflusst. Es wird durch zwei Isoformen der Sphingosinkinasen, SK1 und SK2, gebildet. Die SK1 wurde bereits gut untersucht und es konnte gezeigt werden, dass sie eine wichtige Rolle beim Zellwachstum einnimmt und einen entscheidender Regulator bei inflammatorischen Erkrankungen und Krebs darstellt. Über die SK2 ist soweit wenig bekannt und die Ergebnisse sind zum Teil kontrovers. Sowohl pro-proliferative als auch anti-proliferative Funktionen der SK2 wurden beschrieben. Andererseits handelt meine Arbeit von Nierenfibrose, da beschrieben wurde, dass Sphingolipide einen wichtigen Einfluss auf die Entwicklung chronischer Nierenerkrankungen nehmen. Nierenfibrose stellt das Endstadium chronischer Nierenerkrankungen dar und führt zu einer Akkumulation der Extrazellulärmatrix, Organvernarbung und zum Verlust der Nierenfunktion. Die SK1 spielt dabei eine protektive Rolle bei der Entstehung von Nierenfibrose. Deshalb sollte in dieser Arbeit die Rolle der Sk2 bei der Entstehung von Nierenfibrose untersucht werden.
Im ersten Teil meiner Arbeit wurde das Mausmodell der unilateralen Ureterobstruktion (UUO) verwendet, welches zur Entwicklung einer tubulointerstitiellen Nephritits und nachfolgender Fibrose führt. Es konnte dabei gezeigt werden, dass sowohl die Protein-Expression als auch die Aktivität der SK2 im fibrotischen Nierengewebe gesteigert wurden. Allgemein wiesen die SK2-/--Mäuse eine verminderte Fibrose in Folge des UUO auf im Vergleich zu den Wildtyp-Mäusen. Dies wurde bestätigt durch eine reduzierte Kollagenakkumulation, sowie eine verminderte Protein-Expression von Fibronektin-1, Kollagen-1, α-smooth muscle actin, connective tissue growth factor (CTGF) und Plasminogen-Aktivator-Inhibitor1 (PAI-1). Diese Effekte gingen einher mit einer gesteigerten Protein-Expression des inhibitorischen Smad7 und erhöhten Sphingosin-Spiegeln in SK2-/--UUO-Nieren. Auf mechanistischer Ebene vermindern die erhöhten Sphingosin-Spiegel die durch transforming growth factor-β (TGFβ) induzierte Kollagenakkumulation, die PAI-1- und CTGF-Expression, aber induzieren die Smad7-Expression in primären Nierenfibroblasten. In einem komplementären Versuch mit hSK2 tg-Mäusen wurde eine verstärkte Entstehung von Nierenfibrose mit erhöhter Kollagenakkumulation, sowie erhöhte Protein-Expressionen von Fibronektin-1, Kollagen-1, α-smooth muscle actin, CTGF und PAI-1 festgestellt. Die Smad7-Expression dagegen war vermindert.
Im zweiten Teil meiner Arbeit stand der glomeruläre Teil der Niere im Fokus und es wurde untersucht, ob die Überexpression der SK2 zu einer phänotypischen Veränderung der glomerulären Mesangiumzellen führt. Mesangiumzellen wurden dazu aus den hSK2 tg-Mäuse isoliert und charakterisiert. Es konnte gezeigt werden, dass hSK2 und mSK2 in den transgenen Zellen hauptsächlich in der zytosolischen Fraktion lokalisiert sind, während S1P ausschließlich im Kern akkumulierte. Weiterhin konnte eine verminderte Proliferation unter normalen Wachstumsbedingungen der hSK2 tg-Zellen im Vergleich zu den Kontrollzellen beobachtet werden. Die Zellen reagierten auch sensitiver auf Stress-induzierte Apoptose. Auf molekularer Ebene konnte dies durch eine reduzierte ERK- und Akt/PKB-Aktivierung erklärt werden. Nach Staurosporin-Behandlung wurde Apoptose durch den intrinsischen, mitochondrialen Apoptosesignalweg induziert. Dabei konnte eine reduzierte anti-apoptotische Bcl-xL-Expression und vermehrte Prozessierung von Caspase-9 und Caspase-3 und PARP beobachtet werden.
Zusammenfassend konnte in dieser Arbeit gezeigt werden, dass eine verminderte tubulointerstitielle Fibrose-Entstehung durch die Deletion der SK2, sowie anti-proliferative und Apoptose-induzierende Effekte durch die SK2 in Mesangiumzellen nachgewiesen werden konnten. Somit könnten SK2-Inhibitoren die Entstehung tubulointerstitieller Fibrose und mit Proliferation assoziierte Erkrankungen wie mesangioproliferative Glomerulonephritis positiv beeinflussen.
Einleitung: Feedback ist ein elementarer Bestandteil effektiven Lernens, auch im Medizinstudium, insbesondere beim Erlernen praktischer Fertigkeiten. Feedback kann in verschieden Formen gegeben werden, die Einfluss auf das Erlernen und Behalten der Fertigkeit haben.
Videofeedback, auf der Grundlage von Videoaufzeichnungen einer Tätigkeit, erscheint hierbei eine effektive Methode zum Verstärken des Lerneffektes bei komplexen praktischen Fertigkeiten darzustellen.
Das Ziel der vorliegenden Arbeit war die vergleichende Effektivitätsanalyse von Videofeedback im Vergleich zu mündlichem Feedback auf das Erlernen des sterilen Arbeitens bei der Wundversorgung als Beispiel für eine komplexe praktische Fertigkeit.
Methode: Medizinstudierende an der Goethe-Universität Frankfurt am Main absolvieren im Rahmen ihrer curricularen Ausbildung im 2. bzw. 3. klinischen Semester das dreiwöchige Blockpraktikum Chirurgie. Hierbei durchlaufen sie das einwöchige „Training praktischer Fertigkeiten“ im Skillslab. Im Rahmen dieses aus 12 Modulen bestehenden Trainings absolvieren die Studierenden unter anderem das Modul „Wundversorgung“. In dieser 210-minütigen Trainingseinheit erlernen und üben sie die Versorgung einer einfacher Schnittwunden (von der Anamnese über das sterile Abdecken bis zum Anlegen des Verbandes) unter Anleitung und Supervision eines Peer-Tutors.
Im Rahmen der vorliegenden Arbeit wurden die Studierenden in eine Interventions- und eine Kontrollgruppe randomisiert. Die Interventionsgruppe wurde beim Üben auf Video aufgezeichnet. Im Anschluss erhielten die Studierenden anhand der Videoaufzeichnung Feedback durch einen Peer-Tutor. Die Kontrollgruppe erhielt nach dem Üben Feedback durch den Peer-Tutor ohne Videoaufzeichnung.
Direkt im Anschluss an das Modul absolvierten die Studierenden zwei strukturierte checklistenbasierte formative Prüfungsstationen im Sinne von zwei Objective Structured Clinical Examination-Stationen (OSCE); 2 bis 3 Monate nach dem Training erfolgte die zweite Datenerhebung im Rahmen des summativen curricularen OSCE als Abschlussprüfung des Blockpraktikums Chirurgie.
Ergebnisse: Insgesamt nahmen 107 Studenten an der vorliegenden Studie teil. Am Messzeitpunkt 1 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe. Am Messzeitpunkt 2 mussten an der Prüfungsstation „Wundversorgung“ 39 Studierende durch veränderte und damit nicht mehr vergleichbare Prüfungsbedingungen ausgeschlossen werden. An der zweiten Prüfungsstation konnten alle Studierenden in die Auswertung inkludiert werden. Auch am Messzeitpunkt 2 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe.
Schlussfolgerung: Im Kontext des curricularen chirurgischen Training praktischer Fertigkeiten konnte für das Erlernen des sterilen Arbeitens kein Unterschied zwischen reinem mündlichen Feedback und Videofeedback nachgewiesen werden.
Ziel der Studie war es, das Auftreten von Fatigue, Depression und Einschränkungen der Lebensqualität zu untersuchen bei einem an nichtmuskelinvasivem Blasenkrebs erkrankten Patienten unter BCG-Therapie. Die Hypothese war, dass es keinen Unterschied zu dem Validierungskollektiv der genutzten Fragebögen gibt. Zum Ende der Auswertung wurden die Ergebnisse mit dem Patientenkollektiv der mit Mitomycin behandelten Patienten (Dissertation Fr. Elena Walther) und BPH-bzw. Prostatakarzinom-Patienten (Dissertation Fr. Dr Daniela Drescher) verglichen. Ausgegeben wurden 400 Fragebögen an Patienten betreut in urologischen Praxen deutschlandweit. Zuvor war die Studie von der Ethikkommission der Landesärztekammer Hessen bewilligt worden. Der Fragebogen wurde vollständig anonymisiert, ein Rückschluss auf die Identität der Teilnehmer ist nicht möglich. Die Testinstrumente setzten sich zusammen aus dem sozioökonomischen Status, dem Brief Fatigue Inventory (BFI), dem EORTC-QLQ-C30, dem Beck Depression Inventar und dem EORTC-Blasenmodul QLQ-NMIBC24. Ausgewertet wurden 67 Fragebögen. Das Geschlecht der teilnehmenden Patienten war überwiegend männlich, 58, versus 9, weiblich. Das Mindestalter lag bei 45, das Höchstalter bei 91 Jahren. Die Mehrheit der Patienten (46) waren verheiratet, zusammenlebend. 50 % der Probanden verfügten über einen Hauptschulabschluss, 22 bzw. 15 % über einen Hochschul- bzw. Realschulabschluss. Die Mehrzahl der Patienten nahm keine Psychopharmaka ein (85 %). Es konnte gezeigt werden, dass die Lebensqualität der Patienten gut ist, gemessen der der Krebsdiagnose und der begleitenden belastenden intravesikalen Therapie. 73 Entscheidende Faktoren für die guten Ergebnisse schienen in diesem Patientenkollektiv die Lebensumstände zu sein, da herausgearbeitet werden konnte, dass Patienten, zusammenlebend mit Partner beim QLQ-C30- Fragebogen beim emotionalen Teil der Fragen bessere Ergebnisse zeigten. Bei den kognitiven Einschränkungen war das Alter ein negativer Einflussfaktor. Die körperlichen Einschränkungen waren trotz des hohen Durchschnittsalters der Teilnehmer eher gering. Der Anteil an Patienten mit schwerer Fatigue war mit 6 von 67 Teilnehmern sehr gering. Der Vergleich mit anderen Patientengruppen, wie Prostatakarzinom- und BPHPatienten und mit Mitomycin behandelten Patienten ergab keine signifikanten Unterschiede. Der größte limitierende Faktor dieser Arbeit war die geringe Patientenzahl. Dies ist umso bedeutsamer, da alle den Themenbereich untersuchenden Studien so geringe Patientenzahlen aufweisen. In der täglichen Praxis scheint es schwierig, noch zusätzliche Befragungen durchzuführen, die über das normale Maß hinausgehen. Die im Fragebogen abgefragten Punkte sind allerdings sehr wichtig für den Therapieerfolg, da Patienten mit einer schlechten Lebensqualität oder einer Depression, die sich unter Therapie entwickelt eher dazu geneigt sein werden, die Behandlung abzubrechen. Wünschenswert wäre weitere Studien mit größerer Patientenzahl, um den Einfluss des Alters und der Lebensumstände noch besser untersuchen zu können. Auch Unterschiede zwischen Männern und Frauen könnten so besser aufgearbeitet werden. Es wäre sehr wichtig, diese Studien durchzuführen, um Standards in der Versorgung der Patienten zu erarbeiten, beispielsweise Messinstrumente, die gut in den Alltag zu integrieren sind, um Krankheiten oder Begleitsymptome aufzudecken, die den Krankheitsverlauf negativ beeinflussen.
Ziel der Studie war es, das Auftreten von Fatigue, Depression und Einschränkungen der Lebensqualität zu untersuchen bei einem an nichtmuskelinvasivem Blasenkrebs erkrankten Patienten unter BCG-Therapie. Die Hypothese war, dass es keinen Unterschied zu dem Validierungskollektiv der genutzten Fragebögen gibt. Zum Ende der Auswertung wurden die Ergebnisse mit dem Patientenkollektiv der mit Mitomycin behandelten Patienten (Dissertation Fr. Elena Walther) und BPH-bzw. Prostatakarzinom-Patienten (Dissertation Fr. Dr Daniela Drescher) verglichen. Ausgegeben wurden 400 Fragebögen an Patienten betreut in urologischen Praxen deutschlandweit. Zuvor war die Studie von der Ethikkommission der Landesärztekammer Hessen bewilligt worden. Der Fragebogen wurde vollständig anonymisiert, ein Rückschluss auf die Identität der Teilnehmer ist nicht möglich. Die Testinstrumente setzten sich zusammen aus dem sozioökonomischen Status, dem Brief Fatigue Inventory (BFI), dem EORTC-QLQ-C30, dem Beck Depression Inventar und dem EORTC Blasenmodul QLQ-NMIBC24. Ausgewertet wurden 67 Fragebögen. Das Geschlecht der teilnehmenden Patienten war überwiegend männlich, 58, versus 9, weiblich. Das Mindestalter lag bei 45, das Höchstalter bei 91 Jahren. Die Mehrheit der Patienten (46) waren verheiratet, zusammenlebend. 50 % der Probanden verfügten über einen Hauptschulabschluss, 22 bzw. 15 % über einen Hochschul- bzw. Realschulabschluss. Die Mehrzahl der Patienten nahm keine Psychopharmaka ein (85 %). Es konnte gezeigt werden, dass die Lebensqualität der Patienten gut ist, gemessen der der Krebsdiagnose und der begleitenden belastenden intravesikalen Therapie. Entscheidende Faktoren für die guten Ergebnisse schienen in diesem Patien tenkollektiv die Lebensumstände zu sein, da herausgearbeitet werden konnte, dass Patienten, zusammenlebend mit Partner beim QLQ-C30-Fragebogen beim emotionalen Teil der Fragen bessere Ergebnisse zeigten. Bei den kognitiven Einschränkungen war das Alter ein negativer Einflussfaktor. Die körperlichen Einschränkungen waren trotz des hohen Durchschnittsalters der Teilnehmer eher gering. Der Anteil an Patienten mit schwerer Fatigue war mit 6 von 67 Teilnehmern sehr gering.
Der Vergleich mit anderen Patientengruppen, wie Prostatakarzinom- und BPH-Patienten und mit Mitomycin behandelten Patienten ergab keine signifikanten Unterschiede. Der größte limitierende Faktor dieser Arbeit war die geringe Patientenzahl. Dies ist umso bedeutsamer, da alle den Themenbereich untersuchenden Studien so geringe Patientenzahlen aufweisen. In der täglichen Praxis scheint es schwierig, noch zusätzliche Befragungen durchzuführen, die über das normale Maß hinausgehen. Die im Fragebogen abgefragten Punkte sind allerdings sehr wichtig für den Therapieerfolg, da Patienten mit einer schlechten Lebensqualität oder einer Depression, die sich unter Therapie entwickelt eher dazu geneigt sein werden, die Behandlung abzubrechen. Wünschenswert wäre weitere Studien mit größerer Patientenzahl, um den Einfluss des Alters und der Lebensumstände noch besser untersuchen zu können. Auch Unterschiede zwischen Männern und Frauen könnten so besser aufgearbeitet werden. Es wäre sehr wichtig, diese Studien durchzuführen, um Standards in der Versorgung der Patienten zu erarbeiten, beispielsweise Messinstrumente, die gut in den Alltag zu integrieren sind, um Krankheiten oder Begleitsymptome aufzudecken, die den Krankheitsverlauf negativ beeinflussen.
The fungal interaction with plants is a 400 million years old phenomenon, which presumably assisted in the plants’ establishment on land. In a natural ecosystem, all plant-ranging from large trees to sea-grasses-are colonized by fungal endophytes, which can be detected inter- and intracellularly within the tissues of apparently healthy plants, without causing obvious negative effects on their host. These ubiquitous and diverse microorganisms are likely playing important roles in plant fitness and development. However, the knowledge on the ecological functions of fungal root endophytes is scarce. Among possible functions of endophytes, they are implicated in mutualisms with plants, which may increase plant resistance to biotic stressors like herbivores and pathogens, and/or to abiotic factors like soil salinity and drought. Also, endophytes are fascinating microorganisms in regard to their high potential to produce a great spectrum of secondary metabolites with expected ecological functions. However, evidences suggest that the interactions between host plants and endophytes are not static and endophytes express different symbiotic lifestyles ranging from mutualism to parasitism, which makes difficult to predict the ecological roles of these cryptic microorganisms. To reveal the ecological function of fungal root endophytes, this doctoral thesis aims at assessing fungal root endophytes interactions with different plants and their effects on plant fitness, based on their phylogeny, traits, and competition potential in settings encompassing different abiotic contexts. To understand the cryptic implication of nonmycorrhizal endophytes in ecosystem processes, we isolated a diverse spectrum of fungal endophytes from roots of several plant species growing in different natural contexts and tested their effects on different model plants under axenic laboratory conditions. Additionally,we aimed at investigating the effect of abiotic and biotic variables on the outcome of interactions between fungal root endophytes and plants.
In summary, the morphological and physiological traits of 128 fungal endophyte strains within ten fungal orders were studied and artificial experimental systems were used to reproduce their interactions with three plant species under laboratory conditions. Under defined axenic conditions, most endophytes behaved as weak parasites, but their performance varied across plant species and fungal taxa. The variation in the interactions was partly explained by convergent fungal traits that separate groups of endophytes with potentially different niche preferences. According to my findings, I predict that the functional complementarity of strains is essential in structuring natural root endophytic communities. Additionally, the responses of plant-endophyte interactions to different abiotic factors, namely nutrient availability, light intensity, and substrate’s pH, indicate that the outcome of plant-fungus relationships may be robust to changes in the abiotic environment. The assessment of the responses of plant endophyte interactions to biotic context, as combinations of selected dominant root fungal endophytes with different degrees of trait similarity and shared evolutionary history, indicates that frequently coexisting root-colonizing fungi may avoid competition in inter-specific interactions by occupying specific niches, and that their interactions likely define the structure of root-associated fungal communities and influence the microbiome impacts on plant fitness.
In conclusion, my findings suggest that dominant fungal lineages display different ecological preferences and complementary sets of functional traits, with different niche preferences within root tissues to avoid competition. Also, their diverse effects on plant fitness is likely host-isolate dependent and robust to changes in the abiotic environment when these encompass the tolerance range of either symbiont.
Universities typically offer video-based courses and internships to prepare prospective teachers for classroom management. Empirical studies have shown the effectiveness of analyzing video clips in programs for teacher training. However, no empirical studies have explored the relationship between the teaching experience of prospective teachers and the effectivity of video-based courses on classroom management. The research question was: How can classroom management competency be effectively conveyed in video-based courses regarding the differences in practical experiences of prospective teachers. Theory on cognitive load and situated learning suggests that prospective teachers with teaching experience could benefit more from a situated instructional strategy, whereas prospective teachers without this experience benefit more from a cognitive instructional strategy.
The sample consisted of a total of 87 prospective teachers belonging to a first cohort that had participated in an internship and a second cohort that had not yet participated. Participants of both cohorts were randomly assigned to a course following one of the two instructional strategies. A video test was designed to assess classroom management competence. Additionally, measurements of prospective teachers’ attentiveness and their self-efficacy at the start of the internship were included.
The study showed a significant main effect between pretest and posttest. However, neither a significant difference in the effectiveness between the two instructional strategies nor between the two cohorts was found (first order). Also, the effectiveness of the instructional strategy was not influenced by the availability of teaching experience (second order). Scores on the video test were not significantly related to prospective teachers’ attentiveness. The prospective teachers that participated in the course before participation in the internship rated their own classroom management significantly lower than the prospective teachers that participated in the course after participating in their internship.
These results firstly indicate that there was no significant difference in cognitive load between the groups, implying that both instructional strategies are suitable for the conveying of classroom management competence within universities. Secondly, the current study has found no evidence that the trait of attentiveness influences prospective teachers’ performance within video tests. Thirdly, these results give reason to believe that the valid assessment of self-efficacy on classroom management depends on the degree of familiarity with the topic, for example, through previous dealings within video-based courses. The limited reliability of the new video test should be taken into account when interpreting the results of the current study.
Metabolic engineering can serve to convert microorganisms to
microbial cell factories with the goal of producing various chemicals. Commonly used strategies to modify metabolic pathways include deletions and overexpression of genes, as well as the introduction of heterologous genes or genes which have been optimized for the host organism or for a reaction of interest. Aside from these classic metabolic engineering strategies, researchers have also implemented pathway compartmentalization strategies, which mimic nature’s strategies of colocalizing enzymes for pathway optimization.
In this thesis, classic metabolic engineering strategies were combined with pathway compartmentalization strategies. For pathway compartmentalization, mitochondria and peroxisomes were harnessed, and additionally a new strategy to create artificial subcellular organelles was evaluated. In the latter approach, the so-called Zera peptide was fused to the enzymes of interest. Zera consists of the first 113 amino acids of the plant storage protein γ-Zein (Zea mays). Natively, plant storage proteins accumulate in endoplasmic reticulum (ER)-derived vesicles in plant seeds and serve as an amino acid source for the germinating plant. In this thesis, it was shown that Zera also induces the formation of artificial, ER-derived vesicles in Saccharomyces cerevisiae. Furthermore, it was shown that Zera fusion enzymes remained active, albeit with sometimes reduced activity.
In line with the goal of compartmentalizing pathways in these artificial, Zera-induced vesicles, a new tool was developed to determine the pH in the ER of S. cerevisiae and in the ER-derived vesicles. pHluorin, a pH-sensitive green fluorescent protein (GFP) variant, is commonly used to analyze the cytosolic pH or the pH of subcellular organelles. In this thesis, it was shown that pHluorin has very low fluorescence intensity and pH sensitivity in the ER and in Zera-induced ER-derived vesicles. Therefore, a superfolder variant of pHluorin was developed which allows reliable pH measurements in these compartments and can be used to analyze whether the organellar or vesicular pH suits a pathway of interest....
Funktionelle und strukturelle Charakterisierung von SLC-Transportern in eukaryotischen Systemen
(2018)
Die evolutionäre Voraussetzung für die Entwicklung komplexer, differenzierter Organismen bildet die Separierung der Zelle in Reaktionsräume, die so genannte Kompartimentierung. Das Prinzip der Kompartimentierung ermöglicht zahlreiche lebensnotwendige, biochemische Prozesse, wie die Konservierung von Energie durch Protonengradienten in der Atmungskette oder parallele, gegenläufige Stoffwechselwege. Zelluläre Kompartimente werden häufig durch Biomembranen gebildet, welche aus einer zweilagigen Lipidschicht bestehen. Lipidmoleküle in einer Zelle sind meistens amphipathisch, das bedeutet, sie bestehen aus einer polaren, hydrophilen Kopfgruppe und einem unpolaren, hydrophopen Ende (Abbildung 1). Die Lipidzusammensetzung in einer Biomembran ist sehr divers und unterscheidet sich in verschiedenen Organismen und Organellen. Phosphoglyceride bilden den Hauptbestandteil der Lipidschicht. Phosphoglyceride besteht aus einem Glycerin Rückgrat, welches an dem C1- und C2-Atom mit zwei Fettsäuren verestert und an dem C3-Atom mit einem Phosphorsäurediester verbunden ist. ...
NADH:ubiquinone oxidoreductase (Complex Ⅰ) is the first and largest enzyme in the respiratory chain. It catalyzes the transfer of two electrons from NADH to ubiquinone via a series of enzyme-bound redox centers - Flavin mononucleotide (FMN) and iron-sulfur (Fe-S) clusters – and couples the exergonic reaction with the endergonic translocation of four protons across the membranes. Bacteria contain the minimal form of complex I, which is composed of 14 conserved core subunits with a molecular mass of around 550 kDa. Complex Ⅰ has an L-shaped structure which can be subdivided into two major parts (arms). The hydrophilic arm protruding into the bacterial cytosol (or mitochondrial matrix) harbors the binding site for the substrate NADH, the two- to one-electron switch FMN and all one-electron transferring Fe-S clusters and therefore considered as the catalytic unit. The membrane arm consists of the membranespanning subunits and conducts the proton pumping process. The Quinone binding site is located at the interface of both arms. ...
Die Vasektomie stellt eine der einfachsten und effektivsten Methoden der permanenten Empfängnisverhütung dar. Trotzdem bevorzugen mehr Paare die Tubenligatur der Frau, die verglichen mit der Vasektomie sowohl größere Kosten als auch größere Risiken mit sich bringt. Durch mangelnde Informationen haben immer noch viele Männer Angst, dass sich eine Vasektomie negativ auf ihr Sexualleben auswirken könnte. Mit dieser Studie sollten diese Auswirkungen näher untersucht werden, um Männern und auch ihren Partnerinnen die Angst vor möglichen negativen Konsequenzen zu nehmen.
Hierfür wurden 294 vasektomierten Männern und ihren Partnerinnen drei Fragebögen zugeschickt. 95 Männer beantwortete den allgemeinen Fragebogen, 90 den IIEF und 74 Frauen den FSFI Fragebogen. Die Ergebnisse wurden mit Kontrollgruppen aus der Literatur verglichen.
Im IIEF-Fragebogen erreichten die vasektomierten Männer in allen fünf Domänen signifikant höhere Scores als das Vergleichskollektiv mit einer erektilen Dysfunktion aus der Literatur. In vier der fünf Domänen erreichten sie signifikant höhere Scores als die gesunde Kontrollgruppe aus der Literatur. Nur in der Domäne „generelle Zufriedenheit“ gab es keinen signifikanten Unterschied.
Die Partnerinnen der vasektomierten Männer erreichten in allen 19 Fragen des FSFI-Fragebogens sowie in allen sechs Domänen signifikant höhere Scores als Patientinnen mit einer sexuellen Dysfunktion aus der Literatur. In allen 19 Fragen und fünf der sechs Domänen gab es keinen signifikanten Unterschied zu der gesunden Kontrollgruppe aus der Literatur. Lediglich in der Domäne „Erregung“ hatten die Partnerinnen vasektomierter Männer signifikant bessere Ergebnisse.
Die Vasektomie hat keine negativen Auswirkungen auf das Sexualleben des Paares. Die Zufriedenheit der Partnerinnen wird nicht negativ beeinflusst. Die vasektomierten Männer sind mit ihrem Sexualleben sogar zufriedener und erzielen signifikant bessere Werte im IIEF-Fragebogen als eine nicht-vasektomierte Kontrollgruppe.
Acute myeloid leukemia (AML) is a clonal malignancy of hematopoietic stem cells (HSCs) characterized by expansion of myeloid blasts in the bone marrow. It has been shown that autophagy is a degradative process, which delivers cytoplasmic components to lysosomes to prevent malignant transformation by maintaining HSC integrity. Besides its function as a bulk degradation machinery to recycle cytoplasmic components during limited energy supply, autophagy also serves as an intracellular quality control mechanism. Selective autophagy requires autophagy receptors such as p62 to specifically bridge the targeted cargos into autophagosomes. p62 is known as a central signaling hub involved in pro-oncogenic signaling pathways and autophagic degradation pathways. However, little is known about the role of p62 as a selective autophagy receptor in AML. This study aims to elucidate the precise function of p62 as an autophagy receptor in leukemia development and maintenance.
In silico analysis revealed that high p62 expression was significantly associated with poor overall survival of adult patients with de novo AML, suggesting that p62 may promote leukemia maintenance. To address the functional role of p62 in leukemia, genome editing by CRISPR/Cas9 was used to knockout p62 in four human AML cell lines. Importantly, p62 loss reduced cell proliferation in all four cell lines. This observation could be transferred to a murine leukemia cell model in which leukemic transformation of lineage-depleted bone marrow (ldMBM) cells was induced by overexpression of the human transcriptional coactivator MN1. Knockdown of p62 by shRNA in MN1-driven leukemia cells impaired proliferation and decreased colony forming ability without altering apoptosis. This indicates that p62 is crucial for leukemia proliferation in vitro. To further characterize the role of p62 in leukemia development and maintenance a murine AML transplantation model was established. Therefore, ldMBM cells isolated from WT and p62-/- mice were transduced with MN1 and transplanted into lethally irradiated mice. As expected, all mice developed fatal myeloid proliferation. Notably, p62 loss in MN1-driven leukemia significantly prolonged survival in mice and caused a more immature phenotype. Consistent with the in vitro results, ex vivo analysis of p62-/- leukemic cells displayed decreased colony-forming ability, although p62 loss did not affect composition and function of HSCs. Moreover, re-transplantation of primary MN1-driven leukemia cells attenuated leukemia progression upon p62 loss. These findings support a decisive role of p62 in leukemia development and maintenance.
To gain molecular insight into the function of p62 during myeloid transformation an interactome analysis of murine MN1-driven leukemia cells was performed. This revealed first that p62 predominantly interacts with mitochondrial proteins and second that inhibition of autophagic degradation causes accumulation of p62-bound mitochondria. This leads to the first assumption that loss of p62 may provoke mitochondrial accumulation with increasing mitochondrial damage and second that p62 may mediate degradation of mitochondria by mitophagy. Indeed, in the absence of p62, accumulation of dysfunctional mitochondria was detected by morphological changes of the mitochondria, increased mitochondrial ROS and impaired mitochondrial respiration capacity. Furthermore, induction of PINK1/Parkin-independent mitophagy revealed that loss of p62 caused impaired degradation of mitochondrial proteins and reduced translocation of damaged mitochondria into autophagosomes. Taken together, p62 is required for effective degradation of dysfunctional mitochondria by mitophagy in AML.
Due to the fact that p62 is a multifunctional protein, rescue experiments with different mutants of p62 were performed to clarify if p62-mediated mitophagy contributes to leukemia proliferation. Notably, the autophagy-deficient mutant (disabled to bind autophagosomes) reduced cell growth and colony-forming ability to the same extent as knockdown of p62, as the clustering-deficient mutant (disabled to form aggregates) displayed an intermediate phenotype. Strikingly, only the autophagy-deficient mutant failed to rescue mitophagy.
In conclusion, this study demonstrates the prominent role of p62 as a selective autophagy receptor for mitochondrial quality control which contributes to leukemia development and maintenance. Therefore, targeting selective autophagy opens new venues in the treatment of AML.
Object recognition is such an everyday task it seems almost mundane. We look at the spaces around us and name things seemingly effortlessly. Yet understanding how the process of object recognition unfolds is a great challenge to vision science. Models derived from abstract stimuli have little predictive power for the way people explore "naturalistic" scenes and the objects in them. Naturalistic here refers to unaltered photographs of real scenes. This thesis therefore focusses on the process of recognition of the objects in such naturalistic scenes. People can, for instance, find objects in scenes much more efficiently than models derived from abstract stimuli would predict. To explain this kind of behavior, we describe scenes not solely in terms of physical characteristics (colors, contrasts, lines, orientations, etc.) but by the meaning of the whole scene (kitchen, street, bathroom, etc.) and of the objects within the scene (oven, fire hydrant, soap, etc.). Object recognition now refers to the process of the visual system assigning meaning to the object.
The relationship between objects in a naturalistic scene is far from random. Objects do not typically float in mid-air and cannot take up the same physical space. Moreover, certain scenes typically contain certain objects. A fire hydrant in the kitchen would seem like an anomaly to the average observer. These "rules" can be described as the "grammar" of the scene. Scene grammar is involved in multiple aspects of scene- and object perception. There is, for instance, evidence that overall scene category influences identification of individual objects. Typically, experiments that directly target object recognition do not involve eye movements and studies that involve eye movements are not directly aimed at object recognition, but at gaze allocation. But eye movements are abundant in everyday life, they happen roughly 4 times per second. Here we therefore present two studies that use eye movements to investigate when object recognition takes place while people move their eyes from object to object in a scene. The third study is aimed at the application of novel methods for analyzing data from combined eye movement and neurophysiology (EEG) measurements.
One way to study object perception is to violate the grammar of a scene by placing an object in a scene it does not typically occur in and measuring how long people look at the so-called semantic inconsistency, compared to an object that one would expect in the given scene. Typically, people look at semantic inconsistencies longer and more often, signaling that it requires extra processing. In Study 1 we make use of this behavior to ask whether object recognition still happens when it is not necessary for the task. We designed a search task that made it unnecessary to register object identities. Still, participants looked at the inconsistent objects longer than consistent objects, signaling they did indeed process object and scene identities. Interestingly, the inconsistent objects were not remembered better than the consistent ones. We conclude that object and scene identities (their semantics) are processed in an obligatory fashion; when people are involved in a task that does not require it. In Study 2, we investigate more closely when the first signs of object semantic processing are visible while people make eye movements.
Although the finding that semantic inconsistencies are looked at longer and more often has been replicated often, many of these replications look at gaze duration over a whole trial. The question when during a trial differences between consistencies occur, has yielded mixed results. Some studies only report effects of semantic consistency that accumulate over whole trials, whereas others report influences already on the duration of the very first fixations on inconsistent objects. In study 2 we argue that prior studies reporting first fixation duration may have suffered from methodological shortcomings, such as low trial- and sample sizes, in addition to the use of non-robust statistics and data descriptions. We show that a subset of fixations may be influenced more than others (as is indicated by more skewed fixation duration distributions). Further analyses show that the relationship between the effect of object semantics on fixation durations and its effect on oft replicated cumulative measures is not straightforward (fixation duration distributions do not predict dwell effects) but the effect on both measures may be related in a different way. Possibly, the processing of object meaning unfolds over multiple fixations, only when one fixation does not suffice. However, it would be very valuable to be able to study how processing continues, after a fixation ends.
Study 3 aims to make such a measure possible by combining EEG recordings with eye tracking measurements. Difficulties in analyzing eye tracking–EEG data exist because neural responses vary with different eye movements characteristics. Moreover, fixations follow one another in short succession, causing neural responses to each fixation to overlap in time. These issues make the well-established approach of averaging single trial EEG data into ERPs problematic. As an alternative, we propose the use of multiple regression, explicitly modelling both temporal overlap and eye movement parameters. In Study 3 we show that such a method successfully estimates the influence of covariates it is meant to control for. Moreover, we discuss and explore what additional covariates may be modeled and in what way, in order to obtain confound-free estimates of EEG differences between conditions. One important finding is that stimulus properties of physically variable stimuli such as complex scenes, can influence EEG signals and deserve close consideration during experimental design or modelling efforts. Overall, the method compares favorably to averaging methods.
From the studies in this thesis, we directly learn that object recognition is a process that happens in an obligatory fashion, when the task does not require it. We also learn that only a subset of first fixations to objects are affected by the processing of object meaning and its fit to its surroundings. Comparison between first fixation and first dwell effects suggest that, in active vision, object semantics processing sometimes unfolds over multiple fixations. And finally, we learn that regression-based methods for combined eye tracking-EEG analysis provide a plausible way forward for investigating how object recognition unfolds in active vision.
Infections with the hepatitis B virus (HBV) or the hepatitis C virus (HCV) lead to complications like the development of cirrhosis or hepatocellular carcinoma. These complications end up in 887,000 and 500,000 deaths per year, respectively. Since the development of new direct acting antiviral agents for HCV in the past years a complete cure of an HCV infection can be achieved in the majority of the patients. In contrast, a complete cure of a chronic HBV infection still remains a challenging problem as current treatment regimens mainly suppress the viral replication and cccDNA as well as integrated DNA still persist in these patients. Several viral and host factors were described to impair the efficacy of treatment regimens or influence the course of the infection. Therefore, in this work viral factors as well as host factors were investigated in HBeAg negative chronic HBV infected patients and in chronic HCV infected patients. In the present study, it was demonstrated that mutations and/or deletions in the HBV basal core promoter (BCP), the precore and the preS domain occur in a genotype-specifc pattern in HBeAg negative HBV infected patients. While the BCP double mutation A1762T/G1764A was found with the highest prevalence in genotype E infected patients, the precore mutation G1896A occurred mostly in genotype B infected patients. Variants in the preS domain could be detected with the highest frequency in patients infected with genotype C. In patients, who had to start an antiviral therapy during the course of the disease, mutations in the precore region could be detected with a higher frequency in the samples right before treatment start in comparison to the baseline sample.
While different HBV genotypes and preS mutations were not associated with HBV-DNA serum levels, precore mutations as well as BCP mutations were significantly associated with HBV-DNA levels. Furthermore, precore mutations showed lower and preS mutations higher HBsAg levels. The HBsAg serum levels varied significantly among the different genotypes. Since HBsAg levels < 1000 IU/ml have been described as a prognostic marker in several studies, the prevalence of patients with HBsAg < 1000 IU/ml was analyzed among the genotypes A - E. While most of the patients infected with HBV genotype B had HBsAg < 1000 IU/ml, only a few patients infected HBV genotype E and A had HBsAg < 1000 IU/ml.
Furthermore, HBV genotype A genomes derived from patients harboring a) A1762T/ G1764A (BCP), b) G1896A/G1899A (precore), c) 15 aa deletion in preS1, d) no mutation (reference genome) were cloned and analyzed in vitro. An enhanced expression but reduced secretion of viral genomes was found in the preS-deletion- and the precore-variant. No differences in the HBsAg production and secretion were observed in the cloned precore- or BCP-variant, while the preS-deletion-variant was characterized with an elevated HBsAg release.
Regarding the secretion of viral and subviral particles, a genotype-specifc pattern of the L/M/SHBs ratio was detected in the serum of patients infected with genotypes A - E. This pattern did not change in the serum of patients, who started antiviral treatment. Secreted HBsAg containing particles displayed a higher density as well as a higher filaments/spheres ratio in genotypes B and D compared to genotypes A, C and E. Population-based and deep sequencing revealed large deletions in the preS domain or preS2 start codon mutations in a certain number of the viral genomes. Theoretically, these mutations/deletions should influence the molecular weight of the expressed protein or abolish the expression of the protein at all. In contrast, LHBs/MHBs were detectable and appeared at the same molecular weight in these patient samples in comparison to patient samples without these mutations. Furthermore, in the in vitro analyses comparing the reference genome and the preS1-deletion genome, it was shown that the deletion indeed influenced the molecular weight of LHBs. Therefore, HBsAg might be expressed from a genetically different source than the released viral genomes, meaning the integrated DNA.
Additionally, in the present study the prevalence of resistance associated substitutions (RASs) in the viral genes NS3, NS5A and NS5B of chronic HCV infected patients was analyzed in correlation to single nucleotide polymorphisms (SNPs) in the interferon-λ4 (IFNL4) gene of the infected patients. No significant correlation was found between IFNL4 SNPs and RASs within NS3/NS5B in the present cohort. In contrast, the frequently detected NS5A RAS Y93H could be significantly associated with beneficial IFNL4 SNPs and a high baseline viral load in HCV genotype 1-infected patients.
Taken together, the present study demonstrated that viral genome mutations as well as the morphology of secreted particles occur in a genotype-dependent pattern in HBeAg negative HBV infected patients with no need of antiviral therapy. As the amount of serum qHBsAg levels varied among the different genotypes, the HBsAg cut-off < 1000 IU/ml should be adapted individually among the various genotypes. Because the composition of the secreted subviral particles varied between the different genotypes, a genotype-specific immune-response might be induced in these patients. Additionally, the results of the present study indicate that in HBeAg negative HBV infected patients with mutations or deletions in the preS domain MHBs and LHBs might be expressed from the integrated DNA and therefore from a genetically different source than the released viral genomes.
Aside from that, the finding of a significant association of the NS5A RAS Y93H with beneficial IFNL4 SNPs in chronic HCV infected patients may explain a lack of a correlation or an inverse correlation of treatment response with the IFNL4 genotype in some NS5A inhibitor-containing IFN-free regimens.
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience (cf. Bryant & Veroff, 2007; Dewey, 2005; Wolf, 2013).
Adopting a dual process approach (Dietrich, 2004; Evans & Stanovich, 2013; Lewis, Tamborini & Weber, 2014; Mukhopadhyay, 2014; Schwarz, 2011; Smith & Neumann, 2005) – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the essential yet poorly understood paradox of losing oneself in the music on the one hand, and the act of meta-awareness (i.e., rational and controlled sense of self) on the other, b) its corresponding psycho-phenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment (a purely pleasurable response), lasting impression (a meaningful response related to mixed emotion), and behavioral intention (future-planned seeking/ avoidance response). Moreover, a dynamically-conceived conceptualization of absorption was proposed in terms of a temporary phase taking place amidst a variety of other cognitive responses to music, including concentration, mind wandering, and mindfulness. Finally, a questionnaire commonly-used for assessing alterations in consciousness (Phenomenology of Consciousness Inventory; Pekala, 1991) was evaluated in the context of music listening, before using it in the development of a self-report questionnaire aimed at measuring absorptive states in or by music. To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.
Situated within an overarching neurocognitive model for music engagement and consistent with several aesthetic theories converging (Benson, 1993; Dewey, 2005; Wolf, 2013), aesthetic absorption was conceptualized as, and later confirmed to be, structured by experiential and meta-consciousness or – in terms of dual process terminology – intuitive type I and reflective type II processing. Two forms of music absorption were empirically identified and labeled as zoning in and tuning in (cf. Schooler, 2007). These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state (i.e., positive vs. mixed emotions). These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory (Schwarz, 2011), postulating that positive emotions (e.g., happiness) are differently processed than negatively-tinted types of emotions (e.g., nostalgia), it was concluded that music-induced rumination (a negatively-valenced experience related to the self and represented by the feeling of sadness) ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection (Takano & Tanno, 2009; Trapnell & Campbell, 1999). Further examining the construct’s latent structure, it was shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. This finding cautions against subtyping absorption experiences as being qualitatively distinct, and assuming it to be guided by ‘special’ mechanisms. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind – operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention. Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Future research should examine whether the same applies for absorption and meta-awareness, preferably making use of more advanced measures for the latter.
Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated, but, in terms of dual processing, that they represent different levels of consciousness. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate long-lasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
Finally, dual process approach and measures provided by research on altered-states-of-consciousness (ASC) experiences offer new and fruitful perspectives to conceptualize aesthetic absorption and examine its mechanisms. Several major research questions lie ahead in understanding the phenomenological experience and aesthetic role of absorption, including the future comparison between subjective experiences of ASCs across varying music and non-music induction methods (e.g., hypnosis), listening conditions (e.g., live concert experience), and musical ‘cultures’ (human societies, musical styles, classes).
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience.
Adopting a dual process approach – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the paradox of losing oneself in the music on the one hand, and meta-awareness on the other, b) its corresponding psychophenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment, lasting impression, and behavioral intention.
To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.Aesthetic absorption was confirmed to be structured– in terms of dual process terminology – by intuitive type I and reflective type II processing. Two forms of music absorption were empirically
identified and labeled as zoning in and tuning in. These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state.
These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory, postulating that positive emotions are differently processed than negatively-tinted types of emotions, it was
concluded that music-induced rumination ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection. It was also shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind - operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention.
Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate longlasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.