Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204)
Is part of the Bibliography
- no (204) (remove)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
Das Ziel dieser Dissertation war es die biologische Rolle der Ubiquitinierung und die Bedeutung für Alterungsprozesse im filamentösen Ascomyceten Podospora anserina zu untersuchen. Folgende Ergebnisse wurden dabei erzielt:
1. Ubiquitinierte Proteine wurden nachgewiesen und die Deubiquitinierung von Proteinen konnte durch den Einsatz der Inhibitoren Urea, PR-619 und PIC erfolgreich inhibiert werden, was die Anwesenheit aktiver Deubiquitinasen in P. anserina beweist. Zudem wurden erstmalig ubiquitinierte Proteine in P. anserina unter den zur Aufreinigung
gewählten Bedingungen über die Technik der LC-MS/MS identifiziert.
2. Insgesamt wurden 1745 ubiquitinierte Proteine in P. anserina identifiziert, was ca. 16,4 % des gesamten Proteoms darstellt. Somit wurde erstmalig das Ubiquitinom des Ascomyceten P. anserina charakterisiert, welches Proteine aus allen zellulären Kompartimenten enthält.
3. Die erste im Rahmen dieser Arbeit durchgeführte umfassende Studie altersabhängiger Veränderungen im Ubiquitinom eines Organismus zeigt eine Herabregulation der Ubiquitinierung im Alter in der gesamten Zelle. Dem gegenüber steigt die Ubiquitinierung an den Mitochondrien leicht an und unterstreicht die Rolle einer mitochondrialen Qualitätskontrolle durch diesen Prozess.
4. Die Untersuchung der am Ubiquitinierungsprozess beteiligten E3-Ligase PaMUS10 zeigt, dass es sich bei Mus10 um ein essentielles Gen in P. anserina handelt, da die Deletion zu starken mitochondrialen Beeinträchtigungen und dem sofortigen Absterben des Organismus direkt nach der Keimung führt.
5. Zur weiteren Untersuchung von PaMus10 wurde erstmalig und vollständig ein Hygromycin-basiertes „Knockdown“-System in P. anserina etabliert, was die detaillierte Untersuchung eines essentiellen Gens in diesem Organismus ermöglichte. Durch dessen Einsatz konnte eine reduzierte Fertilität, eine verkürzte Lebensspanne sowie Veränderungen der mitochondrialen Morphologie und Funktion als direkte Folge einer PaMus10-Herabregulation nachgewiesen werden.
6. PaMUS10 ist vorwiegend cytosolisch lokalisiert wird aber unter oxidativem Stress oder in gealterten Kulturen an die Mitochondrien rekrutiert, was einen vergleichbaren Mechanismus zur menschlichen E3-Ligase PARKIN darstellt.
7. Der Verlust von PaMUS10 verursacht ein Präseneszenzsyndrom und führt zum vorzeitigen Absterben des Organismus, wohingegen die zusätzliche Expression von PaMus10::Gfp offenbar positive Effekte nach sich zieht, da hier eine deutliche Verlängerung der Lebensspanne beobachtet wurde.
8. Der Vergleich der beiden Ubiquitinome von ∆PaMus10/PaMus10 und Wthph1/2 zeigt eine massive Reduzierung der globalen Ubiquitinierung, welche offenbar durch das Fehlen von PaMUS10 ausgelöst wird und damit dessen Funktion als E3-Ligase untermauert.
9. Im Rahmen der hier durchgeführten Substratanalyse wurden insgesamt 131 Proteine identifiziert, von denen ca. 20 % dem Mitochondrium zugeordnet werden können. Aufgrund der diversen biologischen Prozesse und Funktionen dieser Substrate ist PaMUS10 sowohl in die Ubiquitinierung cytosolischer als auch mitochondrialer Proteine involviert und greift womöglich sogar als zentraler Schalter in die gesamte zelluläre Homöostase ein.
Aufgrund der nicht unerheblichen Zahl der identifizierten ubiquitinierten Proteine (Ubiquitinom) und den fatalen Auswirkungen, die der Verlust einer E3-Ligase in diesem Organismus nach sich zieht, lässt sich folgende grundlegende Erkenntnis formulieren:
Die Ubiquitinierung spielt in P. anserina eine bedeutende Rolle zur Aufrechterhaltung zellulärer Prozesse insbesondere der mitochondrialen Homöostase und beeinflusst dadurch positiv die Entwicklung und Alterung in diesem Organismus.
Ribonukleinsäure (ribonucleic acid, RNA) wirkt bei der Proteinbiosynthese nicht nur als Informationsüberträger, sondern kann auch beispielsweise durch sogenannten Riboschalter (auch Riboswitches) regulatorische Funktionen übernehmen. Riboschalter sind komplett aus RNA aufgebaut und man kann sie sich als molekulare Schalter vorstellen, die die Genexpression kontrollieren. Konzeptionell besteht ein Riboswitch aus zwei Untereinheiten, dem Aptamer und der Expressionsplattform. Das Aptamer bindet, üblicherweise sehr spezifisch, kleine organische Moleküle, aber auch Ionen. Diese Ligandenbindung induziert Änderungen in der Struktur des Riboswitches, welche wiederum die Expressionsplattform beeinflussen. Je nach Riboswitch ermöglicht oder verhindert dies schließlich die Genexpression. Die vorliegende Doktorarbeit beschäftigt sich mit der Entwicklung und Etablierung von Methoden der optischen Spektroskopie zur Aufklärung von RNA-Dynamiken und -Strukturen im Allgemeinen und der Erforschung von Aptamerbindungsmechanismen im Besonderen.
Eine der dazu verwendetet Methoden ist die FTIR-Spektroskopie. Hierfür wurden zunächst kritische Parameter wie verschiedenste Messeinstellungen oder die Probenpräparation ausgiebig an RNA-Modellsträngen getestet. Dabei war es möglich, eine kleine Spektrenbibliothek als internen Standard aufzubauen. Gleichzeitig konnte gezeigt werden, dass kleinere RNA-Oligonukleotide (< ca. 20 Nukleobasen) gut mittels FTIR-Methoden untersucht werden können. Anschließend wurde eine statische Bindungsstudie am adenosin- sowie am guanosinbindenden Aptamer vorgenommen.
Die zweite hier vorgestellte Methode zur Untersuchung von RNA-Molekülen ist die Fluoreszenzspektroskopie. Im Gegensatz zur FTIR-Spektroskopie ist dazu allerdings eine Modifizierung der RNA durch ein Fluoreszenzlabel nötig. Deshalb beschäftigt sich der Hauptteil dieser Doktorarbeit mit der Charakterisierung und der Anwendung des quasi bifunktionellen RNA-Markers (auch RNA-Labels) Çmf. So wurden zunächst die photophysikalischen und photochemischen Eigenschaften des Markers untersucht. Dabei konnte gezeigt werden, dass Çmf sich als lokale Sonde eignet, da es empfindlich auf Änderungen der Mikroumgebung in Lösung reagiert. Durch direkten Vergleich der optischen Eigenschaften von Çmf mit den entsprechenden Eigenschaften des Spinlabels Çm war es möglich, den starken Fluoreszenzlöschungseffekt (sog. quenching) des Çm aufzuklären. So kann davon ausgegangen werden, dass die Fluoreszenz des Çm durch eine sehr schnelle interne Konversion (IC) in einen dunklen Dublettzustand (D1) gelöscht wird.
Im nächsten Schritt wurde Çmf in RNA-Modellstränge eingebaut, um den Einfluss der RNA auf die Photochemie des Markers zu untersuchen. Dabei konnte gezeigt werden, dass sich dessen Fluoreszenzsignal abhängig von den direkten Nachbarbasen sowie abhängig vom Hybridisierungszustand signifikant ändert. Gleichzeitig konnte keine deutliche Veränderung der Stabilität der Modellstränge festgestellt werden. So konnte also nachgewiesen werden, dass sich Çmf sehr gut als lokale Sonde in RNA eignet. Im Speziellen wurde aus den Ergebnissen geschlossen, dass der Fluorophor für Ligandenbindungsstudien herangezogen werden kann.
Deshalb wurde Çmf schließlich an mehreren verschiedenen Stellen in das neomycinbindende Aptamer (N1) eingebaut, um dessen Bindungskinetik zu untersuchen. Mittels Stopped-Flow-Messungen war es möglich, die Bindungsdynamik des Aptamers zu beobachten. Anhand dieser transienten Daten konnte ein Zweischrittbindungsmodell abgeleitet werden. Dabei bindet Neomycin zunächst unspezifisch an das weitgehend vorgeformte Aptamer. Anschließend kommt es durch die Ausbildung von Wasserstoffbrücken zu einer spezifischen Bindung des Liganden am Aptamer.
Im dritten Teil dieser Arbeit geht es ebenfalls um die Entwicklung und Etablierung eines spektroskopischen Werkzeuges. Dabei stehen allerdings Rhodopsine im Mittelpunkt der Aufmerksamkeit. Hierbei handelt es sich um Membrantransportproteine, die nach optischer Anregung einen sehr schnellen Photozyklus mit mehreren Intermediaten durchlaufen. Es ist möglich, diese Intermediate dank transienter Absorptionsmessungen mit sehr guter zeitlicher und spektraler Auflösung zu beobachten. Allerdings besteht der Bedarf, diese Intermediate statisch zu präparieren, um sie näher charakterisieren und mit anderen Methoden, wie z.B. der Festkörper-NMR, vergleichen zu können.
Ein spektroskopisches Werkzeug zum Präparieren von frühen Photointermediaten ist kryogenes Einfangen (sog. Cryotrapping) dieser Intermediate. Im Rahmen dieser Arbeit wurden das Cryotrapping und die anschließende statische UV/vis-Absorptionsspektroskopie der fixierten (getrappten) Zustände optimiert und an einer Reihe von Rhodopsinen (ChR2, GPR) demonstriert.
An die Soziologie werden zunehmend Fragen des ökonomischen Nutzens und der gesellschaftlichen Relevanz herangetragen. Ein Wissen um den gesellschaftlichen Impact soziologischen Wissens und die Artikulation eines Nutzens für die Praxis sind wertvolle Werkzeuge im Kampf um die Alimentation soziologischer Forschung. Aber wie wird soziologisches Wissen überhaupt angewendet? Um diese Frage zu beantworten, wird soziologisches Wissen definiert und dessen Anwendung expliziert. Unter Zuhilfenahme von Wissenschaftstheorie und Wissenssoziologie wird zunächst eine Definition erarbeitet. Anschließend werden Forschungsgebiete, die sich mit der Anwendung von (soziologischen) Wissen beschäftigen, vorgestellt – allen voran die soziologische Verwendungsforschung. Darauf aufbauend wird eine Explikation der Anwendung soziologischen Wissens erarbeitet, vor dessen Hintergrund aktuelle Bemühungen, soziologisches Wissen stärker anzuwenden, betrachtet werden. Die abschließende Diskussion beschäftigt sich mit den Möglichkeiten und Restriktionen der Anwendung soziologischen Wissens und betont die Rolle der Soziologie als kritische gesellschaftliche Aufklärungsinstanz.
Unter Web-based Trainings (WBTs) versteht man multimediale, interaktive und thematisch abgeschlossene Lerneinheiten in einem Browser. Seit der Entstehung des Internets in den 1990er Jahren sind diese ein wichtiger und etablierter Baustein bei der Konzeption und Entwicklung von eLearning-Szenarien. Diese Lerneinheiten werden üblicherweise von Lehrenden mit entsprechenden Autorensystemen erstellt. In selteneren Fällen handelt es sich bei deren Umsetzungen um individuell programmierte Einzellösungen. Betrachtet man WBTs aus der Sicht der Lernenden, dann lässt sich feststellen, dass zunehmend auch nicht explizit als Lerneinheiten erstellte Inhalte genutzt werden, die jedoch genau den Bedürfnissen des jeweiligen Lernenden entsprechen (im Rahmen des informellen und selbstgesteuerten Lernens). Zum einen liegt das an der zunehmenden Verfügbarkeit und Vielfalt von „alternativen Lerninhalten“ im Internet generell (freie Lizenzen und innovative Autorentools). Zum anderen aber auch an der Möglichkeit, diese Inhalte von überall aus und zu jeder Zeit einfach finden zu können (mobiles Internet, Suchmaschinen und Sprachassistenten) bzw. eingeordnet und empfohlen zu bekommen (Empfehlungssysteme und soziale Medien).
Aus dieser Veränderung heraus ergibt sich im Rahmen dieser Dissertation die zentrale Fragestellung, ob das Konzept eines dedizierten WBT-Autorensystems den neuen Anforderungen von frei verfügbaren, interaktiven Lerninhalten (Khan Academy, YouTube und Wikipedia) und einer Vielzahl ständig wachsender und kostenfreier Autorentools für beliebige Web-Inhalte (H5P, PowToon oder Pageflow) überhaupt noch gerecht wird und wo in diesem Fall genau die Alleinstellungsmerkmale eines WBTs liegen?
Zur Beantwortung dieser Frage beschäftigt sich die Arbeit grundlegend mit dem Begriff „Web-based Training“, den über die Zeit geänderten Rahmenbedingungen und den daraus resultierenden Implikationen für die Entwicklung von WBT-Autorensystemen. Mittels des gewählten Design-based Research (DBR)-Ansatzes konnte durch kontinuierliche Zyklen von Gestaltung, Durchführung, Analyse und Re-Design am Beispiel mehrerer eLearning-Projekte der Begriff WBT neudefininiert bzw. reinterpretiert werden, so dass sich der Fokus der Definition auf das konzentriert, was WBTs im Vergleich zu anderen Inhalten und Funktionen im Internet im Kern unterscheidet: dem Lehr-/Lernaspekt (nachfolgend Web-based Training 2.0 (WBT 2.0)).
Basierend auf dieser Neudefinition konnten vier Kernfunktionalitäten ausgearbeitet werden, die die zuvor genannten Herausforderungen adressieren und in Form eines Design Frameworks detailliert beschreiben. Untersucht und entwickelt wurden die unterschiedlichen Aspekte und Funktionen der WBTs 2.0 anhand der iterativen „Meso-Zyklen“ des DBR-Ansatzes, wobei jedes der darin durchgeführten Projekte auch eigene Ergebnisse mit sich bringt, welche jeweils unter didaktischen und vor allem aber technischen Gesichtspunkten erörtert wurden. Die dadurch gewonnenen Erkenntnisse flossen jeweils in den Entwicklungsprozess der LernBar ein („Makro-Zyklus“), ein im Rahmen dieser Arbeit und von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität, entwickeltes WBT-Autorensystem. Dabei wurden die Entwicklungen kontinuierlich unter Einbezug von Nutzerfeedbacks (jährliche Anwendertreffen, Schulungen, Befragungen, Support) überprüft und weiterentwickelt.
Abschließend endet der letzte Entwicklungszyklus des DBR-Ansatzes mit der Konzeption und Umsetzung von drei WBT 2.0-Systemkomponenten, wodurch sich flexibel beliebige Web-Inhalte mit entsprechenden WBT 2.0-Funktionalitäten erweitern lassen, um auch im Kontext von offenen Lehr-/Lernprozessen durchgeführte Aktivitäten transparent, nachvollziehbar und somit überprüfbar zu machen (Constructive Alignment).
Somit bietet diese Forschungsarbeit einen interdisziplinären, nutzerzentrierten und in der Praxis erprobten Ansatz für die Umsetzung und den Einsatz von WBTs im Kontext offener Lehr-/Lernprozesse. Dabei verschiebt sich der bisherige Fokus von der reinen Medienproduktion hin zu einem ganzheitlichen Ansatz, bei dem der Lehr-/Lernaspekt im Vordergrund steht (Lernbedarf erkennen, decken und überprüfen). Entscheidend ist dabei, dass zum Decken eines Lernbedarfs sämtliche zur Verfügung stehenden Ressourcen des Internets genutzt werden können, wobei WBTs 2.0 dazu lediglich den didaktischen Prozess definieren und diesen für die Lehrenden und Lernende transparent und zugänglich machen.
WBTs 2.0 profitieren dadurch zukünftig von der zunehmenden Vielfalt und Verfügbarkeit von Inhalten und Funktionen im Internet und ermöglichen es, den Entwicklern von WBT 2.0-Autorensystemen sich auf das Wesentliche zu konzentrieren: den Lehr-/Lernprozess.
Die forensische Entomologie nutzt nekrophage Insekten, hauptsächlich Dipteren und ihre juvenilen Stadien, zur Schätzung der minimalen Leichenliegezeit. Dem liegt zugrunde, dass nekrophage Dipteren binnen Minuten nach dem Todeseintritt potentiell in der Lage sind, einen Leichnam zu detektieren und zu besiedeln. Das anschließende Wachstum und die Entwicklung der juvenilen Stadien erfolgt als Funktion von der Art und der Umgebungstemperatur.
Mit Hilfe von Laborstudien konnten bislang für einige forensisch relevante Fliegenarten Entwicklungsdaten erhoben werden, die eine Altersbestimmung der sich an einem Leichnam entwickelnden Larven und Puppen erlauben und so eine Schätzung der minimalen Leichenliegezeit ermöglichen. Als Nährsubstrat für Laborstudien werden tierische Gewebe verwendet. Eine Übertragbarkeit der Daten auf humanes Gewebe wurde aber bislang nicht verifiziert. In der vorliegenden Arbeit wurde das larvale Wachstum und die juvenile Entwicklungsgeschwindigkeit der forensisch relevanten Schmeißfliege Calliphora vicina (Diptera: Calliphoridae) auf humanem Muskelgewebe untersucht und mit dem Wachstum auf Schweineleber, magerem Schweinemuskelfleisch und Schweinehackfleisch verglichen. Die auf humanem Gewebe heranwachsenden Individuen waren mit bis zu 3,5 mm signifikant länger als die Individuen, die sich auf Leber und dem mageren Schweinemuskelfleisch entwickelten. Bei der Verwendung von Hackfleisch vom Schwein zeigte sich kein Unterschied. Darauf basierend wird die Empfehlung ausgesprochen, für zukünftige Entwicklungsstudien Schweinehackfleisch als Ersatz für humanes Gewebe zu verwenden.
Zahlreiche Anleitungen zur Asservierung forensisch-entomologischer Spuren empfehlen das Sammeln getrennt nach Körperregionen eines Leichnams. Dies soll eine mögliche gewebespezifische Entwicklungsrate berücksichtigen. Das für die vorliegende Arbeit durchgeführte systematische Absammeln von Fliegenlarven von 51 Leichnamen getrennt nach Körperregionen zeigte keine artspezifischen Präferenzen für bestimmte Gewebe oder Körperregionen. Das Artenspektrum entsprach größtenteils dem aufgrund von Studien an Schweinekadavern zu erwartendem Artenspektrum für Deutschland und Mitteleuropa. Insgesamt konnten 15 Schmeißfliegenarten nachgewiesen werden, von denen in der Regel mehrere gleichzeitig an einem Leichnam zu finden waren. Dies zeigt, dass ein Faktor wie interspezifische Konkurrenz in Zukunft mehr Beachtung in der Forschung erhalten sollte.
Bislang wurde in der forensischen Entomologie die minimale Leichenliegezeit durch die Untersuchung juveniler Stadien von Fliegen eingegrenzt. Eine eventuell mögliche Ausweitung dieses Zeitfensters könnte durch eine Altersbestimmung der adulten Fliegen oder der leeren Puparien gelingen. Der Nachweis, dass die dafür untersuchten Fliegen bzw. Puparien tatsächlich von dem fraglichen Leichnam stammen, war bislang nicht möglich. Die forensische relevante Schmeißfliege Lucilia sericata wurde in der vorliegenden Arbeit auf humanem Gewebe und Gewebe von elf weiteren Tierarten großgezogen. Durch die Analyse stabiler Kohlen- und Stickstoffisotope konnte ein von diesen elf Tierarten abgrenzbares humanes Isotopenprofil sowohl für die adulten Fliegen von L. sericata, als auch für ihre leeren Puparien detektiert werden. Dieses Profil spiegelte die Nahrungszusammensetzung der Wirte wider.
Die vorliegende Arbeit erhebt Daten zur Entwicklung einer forensisch relevanten Schmeißfliegenart auf humanem Gewebe, belegt das bislang lediglich am tierischen Modell erhobene Schmeißfliegeninventar als für menschliche Leichen relevant und hinterfragt die gewebespezifische Asservierungsempfehlung als ein akademisches Artefakt. Auf dieser Basis konnten Empfehlungen für die Weiterzucht fallrelevanter entomologischer Spuren ausgesprochen werden, die gerichtsverwertbar sind und die Verwendung von tierischem Gewebe oder Tierkadaver in der forensisch-entomologischen Forschung legitimieren. Die Analyse stabiler Isotope legt darüber hinaus einen neuen, innovativen Grundstein für die routinemäßige Spurenzuordnung älterer Entwicklungsstadien und ist damit Vorreiter auf dem Gebiet der forensischen Entomologie.
Einleitung: Feedback ist ein elementarer Bestandteil effektiven Lernens, auch im Medizinstudium, insbesondere beim Erlernen praktischer Fertigkeiten. Feedback kann in verschieden Formen gegeben werden, die Einfluss auf das Erlernen und Behalten der Fertigkeit haben.
Videofeedback, auf der Grundlage von Videoaufzeichnungen einer Tätigkeit, erscheint hierbei eine effektive Methode zum Verstärken des Lerneffektes bei komplexen praktischen Fertigkeiten darzustellen.
Das Ziel der vorliegenden Arbeit war die vergleichende Effektivitätsanalyse von Videofeedback im Vergleich zu mündlichem Feedback auf das Erlernen des sterilen Arbeitens bei der Wundversorgung als Beispiel für eine komplexe praktische Fertigkeit.
Methode: Medizinstudierende an der Goethe-Universität Frankfurt am Main absolvieren im Rahmen ihrer curricularen Ausbildung im 2. bzw. 3. klinischen Semester das dreiwöchige Blockpraktikum Chirurgie. Hierbei durchlaufen sie das einwöchige „Training praktischer Fertigkeiten“ im Skillslab. Im Rahmen dieses aus 12 Modulen bestehenden Trainings absolvieren die Studierenden unter anderem das Modul „Wundversorgung“. In dieser 210-minütigen Trainingseinheit erlernen und üben sie die Versorgung einer einfacher Schnittwunden (von der Anamnese über das sterile Abdecken bis zum Anlegen des Verbandes) unter Anleitung und Supervision eines Peer-Tutors.
Im Rahmen der vorliegenden Arbeit wurden die Studierenden in eine Interventions- und eine Kontrollgruppe randomisiert. Die Interventionsgruppe wurde beim Üben auf Video aufgezeichnet. Im Anschluss erhielten die Studierenden anhand der Videoaufzeichnung Feedback durch einen Peer-Tutor. Die Kontrollgruppe erhielt nach dem Üben Feedback durch den Peer-Tutor ohne Videoaufzeichnung.
Direkt im Anschluss an das Modul absolvierten die Studierenden zwei strukturierte checklistenbasierte formative Prüfungsstationen im Sinne von zwei Objective Structured Clinical Examination-Stationen (OSCE); 2 bis 3 Monate nach dem Training erfolgte die zweite Datenerhebung im Rahmen des summativen curricularen OSCE als Abschlussprüfung des Blockpraktikums Chirurgie.
Ergebnisse: Insgesamt nahmen 107 Studenten an der vorliegenden Studie teil. Am Messzeitpunkt 1 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe. Am Messzeitpunkt 2 mussten an der Prüfungsstation „Wundversorgung“ 39 Studierende durch veränderte und damit nicht mehr vergleichbare Prüfungsbedingungen ausgeschlossen werden. An der zweiten Prüfungsstation konnten alle Studierenden in die Auswertung inkludiert werden. Auch am Messzeitpunkt 2 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe.
Schlussfolgerung: Im Kontext des curricularen chirurgischen Training praktischer Fertigkeiten konnte für das Erlernen des sterilen Arbeitens kein Unterschied zwischen reinem mündlichen Feedback und Videofeedback nachgewiesen werden.
Hintergrund:
Zur Klärung der klinischen Relevanz einer Milbensensibilisierung bei Kindern und Jugendlichen mit Asthma bronchiale ist die spezifische bronchiale Allergenprovokation (BAP) der Goldstandard. Aufgrund der technischen und personellen Voraussetzungen, sowie der potentiellen Gefahr einer schweren asthmatischen Spätreaktion ist die BAP nur eingeschränkt in spezialisierten Zentren verfügbar. Im Gegensatz dazu zeichnet sich nasale Allergenprovokation (NPT) durch ein hohes Maß an Patientensicherheit aus und kann ambulant durchgeführt werden. In dieser Studie sollte daher ein Vergleich zwischen der BAP vs. NPT erfolgen und klären inwiefern die NPT eine vorteilhafte Alternative im Diagnostikalgorithmus darstellen kann.
Methodik:
Von 157 untersuchten Patienten mit asthmatischen Beschwerden und positivem Pricktest (Dermatophagoides pteronyssinus; Dermatophagoides farinae) erfüllten 74 die Ein- / Ausschlusskriterien in vollem Umfang (Alter MW: 9,1 + 3,1 Jahre). Nach der BAP und der Messung des eNO, erfolgte eine Blutentnahme zur Bestimmung von Blutbild und spezifischem IgE, ggf. konnte Nasensekret gewonnen werden. Im Anschluss wurde innerhalb von 12 Wochen eine NPT mit Milbenallergen in aufsteigender Verdünnung durchgeführt. Hierbei wurde das Ergebnis zum einen mittels Symptomscore nach Lebel evaluiert, sowie die nasale Obstruktion mittels Peak Nasal Inspiratory Flow Meter (PNIF) bestimmt. Zum Abschluss beantworteten die Patienten einen standardisierten Fragebogen zur Lebensqualität mit Rhinokonjunktivitis (RQLQ).
Ergebnisse:
In der BAP konnten 57 Patienten mit einer bronchialen Frühreaktion (FEV1 - Abfall Mean bei 29,2% ± 7,4) identifiziert werden, von diesen wurden 41 mittels Lebelsymptomscore und 19 mittels PNIF erkannt. Während der Symptomscore nach Lebel damit eine ausreichende Sensitivität von 71,9 % und einen positiv prädiktiven Wert (PPV) von 89,1 % erreichte, war die Sensitivität für den PNIF mit 33,3 % ungenügend bei einem PPV von 82,6 %. Die negativ prädiktiven Werte lagen bei 42,8 %, respektive 25,4 %. Sowohl das eNO größer oder gleich 10 ppb (AUC 0,78) als auch das kumulative spez. IgE größer oder gleich 25,5 kU/l (AUC 0,72) erwiesen sich als gute Prädiktoren einer bronchialen Frühreaktion (EAR), eine Korrelation mit dem Symptomscore nach Lebel konnte jedoch nicht festgestellt werden.
Schlussfolgerung:
Unsere Ergebnisse zeigen für den Symptomscore nach Lebel eine hohe Vorhersagekraft zur Detektion einer EAR in der bronchialen Milbenprovokation. Ein negativer Score konnte eine asthmatische Reaktion jedoch nicht ausreichend ausschließen. Für den PNIF fanden wir keine ausreichende Testvalidität. Besonders bei pädiatrischen Patienten ist zu berücksichtigen, dass diese Messung stark von der individuellen Leistungsfähigkeit beeinflusst wird. Zudem weisen die nasale und bronchiale Mukosa lokale Unterschiede auf, sodass eine nasale Reaktion nicht identisch mit einer EAR ist. Bei Kindern und Jugendlichen mit Asthma bronchiale ist die BAP daher nicht vollständig durch die NPT ersetzbar. Besonders im ambulanten Bereich findet die NPT jedoch ihre Berechtigung, durch die deutlich geringeren Testanforderungen bei einem hohen Maß an Patientensicherheit. Darüber hinaus gehen rhinitische Beschwerden häufig einem Asthma bronchiale voraus, sodass auch falsch positive Testergebnisse im Lebel - Score berücksichtigt werden sollten. Neben dem Symptomscore identifizierten wir sowohl das spezifische IgE als auch das eNO als valide Prädiktoren einer EAR, eine direkte Korrelation zum NPT konnte jedoch nicht gefunden werden.
This research investigated variation in the pronunciations of three RP vowels phonemes /e/, /ɜ:/ and /ə/, among Ewe speakers of English in Ghana. It focused on variation at both individual and societal levels, investigating how social relations within these structures influenced the use of the three vowels among the speakers. In this study, social structures were seen as a system where individual members depended on one another and were linked through multiple ties. The distribution of the vowels was in respect with the social variables: age, gender and education, including dialect and social network. The study used a corpus of word-list recorded in a face-to-face interview from 96 participants selected through stratification and networking across two dialect regions: Aŋlɔ and Eveme. Using both aural and acoustic analyses, coupled with ANOVA and t-test, the study has shown that the three RP vowels exist in Ghana Eve English as independent phonemes. Each of them however has allophonic variants; /e/ has variants [e̠], [ɪ] and [ɜ:]; /ɜ:/ has [eː] and [ɜ:], while /ə/ has [ə], [ɪ], [o] and [ʌ] as its variants. The choice of the variants of /ɜ:/ and /e/ have been found to depend on speaker age, gender, and social network. But the geographical location of the speaker will largely determine how these vowels are spoken. Phonological contexts as well as speaker idiosyncrasy are also likely to condition the choice of some of these variants, however, their effects seem less important as determinant of the differences observed than those of the social factors. It is evident that age, gender and class differentiations that have been widely reported cannot be universal, they can vary from one society to another. Also though social structures as well as social relations in a speech community can play significant roles in the individual’s linguistic repertoire, the attitude of the speaker and the phonological contexts of a segment can have a huge impact on the use of that variable.
Das Ziel dieser Dissertation war es, die biologische Relevanz der F1Fo-ATP-Synthase für den Alterungsprozess des Ascomyceten P. anserina aufzuklären sowie die Funktion der Dimerisierungsuntereinheiten PaATPE und PaATPG genauer zu untersuchen. Folgende Ergebnisse wurden dabei erzielt:
1. Der Verlust einer Dimerisierungsuntereinheit führt in P. anserina zum Verlust der Dimerisierungsfähigkeit der F1Fo-ATP-Synthase. Dieses Ereignis resultiert in einer vorzeitigen Anhäufung von Seneszenzmerkmalen, einer starken Verkürzung der Lebensspanne und einem beschleunigten Alterungsprozess. Der Phänotyp der Stämme ∆PaAtpe und ∆PaAtpg lässt sich erfolgreich revertieren. Dadurch konnte bestätigt werden, dass der beobachtete Phänotyp der Deletionsstämme auf den Verlust der Dimerisierungsgene zurückzuführen ist.
2. Die konstitutive Überexpression des PaAtpe-Gens führt zu einer Verlängerung der Lebensspanne, die allerdings nicht abhängig von einer Erhöhung der Dimer-Menge, sondern auf eine Verlängerung der Mitochondriennetzwerke und eine erhöhte Atmung zurückzuführen ist.
3. Obwohl die Lebensspannen der untersuchten PaAtpg_OEx-Stämme voneinander abweichen, ist der auf den Organismus ausgeübte Effekt der PaAtpg-Überexpression positiv. Dabei lässt sich eine Erhöhung der Dimer-Menge auch in diesen Stämmen nicht nachweisen und eine Veränderung der Mitochondrienmorphologie tritt nur in einem der fünf untersuchten Stämme auf, was hier allerdings mit dem größten Effekt auf die Lebensspanne korreliert.
4. Die gleichzeitige Überexpression der Gene PaAtpe und PaAtpg führt interessanterweise zu einer Aufhebung der durch die PaAtpe-Überexpression hervorgerufenen positiven Effekte. Die generierte Doppelmutante weist somit wildtypische Eigenschaften auf. Eine Erhöhung der Dimer-Menge kann trotz Überexpression beider Gene nicht festgestellt werden.
5. Trotz gleicher Funktion in der Dimerbildung der F1Fo-ATP-Synthase ist das Expressionsniveau der Dimerisierungsgene in P. anserina unterschiedlich. Bereits im Wildtyp wird das PaAtpe-Gen weniger transkribiert als das PaAtpg-Gen. Letzteres wird durch die PaAtpe-Überexpression sowohl in den PaAtpe_OEx-Mutanten als auch in der Doppelmutante herunterreguliert. Auch im Wildtyp kommt es zu einer altersabhängigen Herunterregulierung des PaAtpg-Gens.
6. Im Wildtyp nimmt die Dimer-Menge im Alter ab und es kommt zu einer altersbedingten Änderung der Superkomplexe von S1 zu S0. Dies sind Hinweise auf eine altersabhängige Remodellierung der Cristae-Membran, die möglicherweise zum Seneszenzphänotyp von P. anserina beiträgt. Somit ist die Aufrechterhaltung des Dimers von großer Bedeutung für die Gewährleistung mitochondrialer Funktionen des Organismus.
Die F1Fo-ATP-Synthase spielt in ihrer dimeren Form eine bedeutende Rolle in der Aufrechterhaltung der Mitochondrienfunktion und gewährleistet den Ablauf von lebenswichtigen mitochondrialen Prozessen, die für die Erhaltung der zellulären Homöostase von essentieller Bedeutung sind.
In den letzten Jahren findet die Wirkung von Polyphenolen auf den Alterungsprozess oder zur Behandlung von Krankheiten immer mehr Beachtung. Das Ziel dieser Arbeit war die Aufklärung der Wirkmechanismen der Polyphenole Gossypol, Curcumin und Quercetin, um Hinweise für neue oder verbesserte Therapieansätze zu erhalten. Die dazu durchgeführten Untersuchungen lieferten folgende Ergebnisse:
1. Der Ascomycet "P. anserina" eignet sich als Modellorganismus zur Untersuchung der Wirkmechanismen verschiedener Polyphenole, da die bereits aus der Literatur bekannten Effekte auf das Überleben höherer Organismen auch in "P. anserina" beobachtet wurden.
2. Die Mitochondrienfunktion spielt auf unterschiedliche Art eine Rolle in der Kompensation von Dysfunktionen oder Stressbedingungen in der Zelle und wirkt somit positiv auf die Regulation der Lebensspanne von "P. anserina". In der "PaSod3"-Deletionsmutante wurde eine Verschiebung der mitochondrialen Atmung von einer Komplex I-abhängigen hin zu einer vermehrt Komplex II-abhängigen Atmung festgestellt. Die damit verbundene Abnahme des mitochondrialen Membranpotentials dient neben der bereits bekannten hohen Superoxid-Menge als Signal zur Mitophagie-Induktion. Auch die Anpassung der Mitochondrienfunktion durch die erhöhte Bildung von mtRSCs, wie im Falle von Gossypol oder Quercetin, kann zur Kompensation von Dysfunktionen beitragen bzw. sie abschwächen.
3. Es gibt keinen grundlegenden gemeinsamen Wirkmechanimus der drei untersuchten Polyphenole. Zwar spielt Wasserstoffperoxid bei verschiedenen Stoffen eine Rolle, aber nicht bei allen. Zusätzlich wurde gezeigt, dass Wasserstoffperoxid abhängig von der vorherrschenden Konzentration wirkt und daher auch keine Allgemeingültigkeit des Effektes vorherzusagen ist. In niedrigen Konzentrationen sorgt Wasserstoffperoxid z. B. für eine Induktion der Autophagie und damit einhergehende eine Lebensverlängerung. Im Gegensatz dazu wirken hohe Wasserstoffperoxid-Konzentrationen lebensverkürzend und lösen verschiedene Formen von Zelltod aus.
4. Die Curcumin-vermittelte Langlebigkeit wurde das erste Mal in Verbindung mit einer funktionellen Autophagie gebracht. Im Detail führt die Behandlung mit Curcumin durch eine PaSOD1-abhängige leichte Erhöhung der Wasserstoffperoxid-Menge zu einer Induktion von nicht-selektiver Autophagie. Die induzierte Autophagie ist Ursache der Lebensverlängerung durch Curcumin.
5. Gossypol wirkt in Abhängigkeit der mitochondrialen Permeabilitäts-Transitionspore bzw. von ihrem Regulator Cyclophilin D. Hierbei verstärkt die deutlich erhöhte Wasserstoffperoxid-Menge wahrscheinlich die Induktion von programmiertem Zelltod. Gleichzeitig wird eine cytoprotektive Form von Autophagie und ein scheinbar ATG-unabhängiger Abbau von Mitochondrien induziert.
6. Quercetin wirkt in "P. anserina" abhängig vom Methylierungs-Status. Untersuchungen mit Mutanten der "O"-Methyltransferase PaMTH1 ergaben die Notwendigkeit der Anwesenheit von PaMTH1 für den lebensverlängernden Effekt von Quercetin. Analysen mit dem methylierten Derivat Isorhamnetin verdeutlichten diese Abhängigkeit und zeigten zudem, dass Quercetin sowohl in der methylierten als auch unmethylierten Form Effekte hervorruft. Jedoch sind nur die Effekte des unmethylierten Quercetin unabhängig von der Lebensverlängerung und eher schädlich für die Zelle.
Die vorliegende Arbeit befasst sich mit der Medikamentenadhärenz an die Therapie mit oralen Antikoagulanzien (OAT) in der Schlaganfall-Sekundärprophylaxe und leitet auf Basis einer prospektiven Untersuchung Rückschlüsse über das Einnahmeverhalten unter verschiedenen Behandlungsformen ab.
Orale Antikoagulanzien werden erfolgreich zur Schlaganfallprävention bei Patienten mit Vorhofflimmern eingesetzt. Über Jahrzehnte waren Vitamin K-Antagonisten (VKA) die einzige Therapieoption, in der Praxis jedoch mit Schwierigkeiten verbunden, wie etwa Medikamenten- und Nahrungsmittelinteraktionen sowie häufige Gerinnungskontrollen. Als ab dem Jahr 2011 die ersten nicht-Vitamin K oralen Antikoagulanzien (NOAK) zugelassen wurden (zunächst Rivaroxaban und Dabigatran), lag ein besonderes Augenmerk auf der Frage, ob die fehlenden Gerinnungskontrollen und dadurch selteneren Arztkontakte unter Einnahme von NOAK einen negativen Einfluss auf die Adhärenz ausüben könnte.
In der vorliegenden Studie wurden prospektiv Daten zur Adhärenz und Persistenz in Bezug auf die Therapie mit OAT zu Zwecken der Schlaganfall-Sekundärprophylaxe gesammelt. Hierbei stand die Selbsteinschätzung der Patienten anhand der 8-Punkte-Morisky Medication Adherence Scale (MMAS-8) im Vordergrund. Die Daten der Untersuchung wurden an drei großen akademischen Schlaganfallzentren der Universitätskliniken Frankfurt, Würzburg und Marburg (Klinikum Fulda) erhoben. Während des Zeitraums Oktober 2011 bis September 2012 wurden alle 596 Patienten mit der Entlassungsdiagnose eines ischämischen Schlaganfalls oder einer transient ischämischen Attacke in Kombination mit Vorhofflimmern in die Studie aufgenommen. Dabei bildeten diejenigen 324 Patienten, die nach Entlassung eine orale Antikoagulation (VKA, Dabigatran oder Rivaroxaban) erhielten, die Untersuchungskohorte dieser Arbeit. Ein Jahr nach Entlassung wurden in einem Follow-up (1) die Adhärenz bzw. Persistenz in Bezug auf die verschriebene Medikation, (2) etwaige Therapiewechsel und deren Gründe, sowie (3) patientenseitige Einflussfaktoren erfragt.
Insgesamt konnte eine sterblichkeitskorrigierte Antwortrate von 73,3% (209 Patienten) erzielt werden. Von diesen Patienten erhielten 92,8% weiterhin eine Art der oralen Antikoagulation. Auch innerhalb der spezifischen ursprünglich verschriebenen OAT konnte eine gute Persistenz festgestellt werden (VKA 80,9%; NOAK 74,8%; P=0,243), wobei Dabigatran tendenziell, aber nicht-signifikant, am schwächsten abschnitt. Sofern Wechsel zwischen verschiedenen Formen der OAT erfolgten, wurden diese zumeist mit Nachteilen der jeweiligen Wirkstoffeigenschaften, wie z.B. gastrointestinale Nebenwirkungen, eine Verschlechterung der Nierenfunktion, sowie die vereinfachte Einnahme anderer Antikoagulanzien mit nur einer täglichen Dosis, begründet.
Zusätzlich stellte sich im Rahmen einer multivariaten Analyse insbesondere der Grad der Behinderung (Modifizierte Rankin Skala, mRS) zum Zeitpunkt des Follow-ups als signifikanter Einflussfaktor auf die Adhärenz heraus. Die Wahl der OAT hatte hingegen keinen relevanten Einfluss.
Zusammenfassend wurde in der Studie eine sehr gute Einnahmetreue von über 90% beobachtet, sofern man konventionelle und neue Antikoagulanzien in Summe zählt. Zudem wurde gezeigt, dass die Wahl der spezifischen OAT keinen signifikant positiven oder negativen Einfluss auf die Adhärenz nach sich zieht. Dieses Ergebnis widerspricht der Befürchtung einer generell niedrigeren Adhärenz an NOAK. Vielmehr könnte eine Erweiterung der Therapieoptionen durch die neuen oralen Antikoagulanzien es erlauben, besser auf spezielle Patientenbedürfnisse wie beispielsweise Medikamentenverträglichkeit oder Komorbiditäten einzugehen, und in Folge die Einnahmetreue zu Zwecken der Schlaganfall-Sekundärprophylaxe zu verbessern.
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
Die Tuberkulose ist eine der bedeutendsten Infektionskrankheiten weltweit. In Deutschland spielt sie eine untergeordnete Rolle und betrifft hauptsächlich Risikogruppen. Bisher wurde noch keine mehrere Jahre umfassende Arbeit zur Epidemiologie der Tuberkulose anhand molekularbiologischer Faktoren in einer deutschen Stadt veröffentlicht. In dieser Arbeit wurden mittels 24-loci MIRU-VNTR und Spoligotypisierung die Mykobakterienstämme von Patienten in Frankfurt am Main aus dem Zeitraum von 2008 bis 2016 genetisch typisiert und aus Fällen mit übereinstimmendem DNA-Fingerabdruck bestehende molekulare Cluster identifiziert, um in Zusammenschau mit epidemiologischen Patientendaten die Übertragungswege in Frankfurt am Main besser zu verstehen. Dabei wurden mittels logistischer Regression Risikofaktoren für Clusterzugehörigkeit identifiziert, einzelne Cluster auf epidemiologische Plausibilität hin untersucht und die Bedeutung der Tuberkulose vor dem Hintergrund zunehmender Migration beschrieben.
Insgesamt wurden im Studienzeitraum 61 molekulare Cluster identifiziert. Der Clusteranteil (28,6%) und der Anteil rezenter Übertragung (18,7%) lagen in der Größenordnung anderer Niedriginzidenzländer. Es dominierten kleine Cluster, nur vereinzelt kam es zu Infektionsketten mit mehr als 3 Fällen. Obwohl 81% der Patienten aus dem Ausland stammten und nur 19% aus Deutschland, hatten Migranten ein signifikant niedrigeres Risiko, einem Cluster anzugehören als Deutsche. Unter den Clustern bestanden 42,6% sowohl aus Patienten deutscher als auch Patienten nichtdeutscher Herkunft. Im Ausland geborene Patienten in gemischten Clustern lebten zum Diagnosezeitpunkt durchschnittlich bereits 10 Jahre in Deutschland und stammten mehrheitlich aus europäischen Ländern. Eine TB-Übertragung von kürzlich eingewanderten Patienten auf einheimische Bürger fand in begrenztem Umfang statt, begründet aber keine Ängste vor einer erhöhten Gefährdung der in Deutschland geborenen Bevölkerung im Hinblick auf die Tuberkulose in Frankfurt am Main.
Nur 9,8% der molekularen Cluster konnten epidemiologisch bestätigt werden. Infektionswege, die über das familiäre Umfeld oder bestimmte Risikomilieus (Drogen, Obdachlosigkeit) hinausgehen, ließen sich anamnestisch nur schwer erfassen. Männer, in Deutschland geborene Personen und iv-drogenabhängige Personen wiesen ein erhöhtes Risiko auf, sich vor Ort mit Tuberkulose zu infizieren oder die Erkrankung auf andere zu übertragen. Dies trifft vermutlich auch auf andere deutsche Großstädte zu und betont die Notwendigkeit einer Integration von iv-Drogenabhängigen in die medizinische Regelversorgung und die Bedeutung einer Zusammenarbeit von öffentlichem Gesundheitsdienst und entsprechenden Hilfseinrichtungen.
Es ist von einer Überschätzung des Clusteranteils mittels 24-loci MIRU-VNTR auszugehen, weshalb für zukünftige Arbeiten die feinere Typisierung und somit eine zuverlässigere Identifikation von Clustern mittels Whole Genome Sequencing wünschenswert ist. Für die bundesweite Verbesserung der TB-Kontrolle ist weiterhin eine enge Zusammenarbeit zwischen den Gesundheitsämtern erforderlich. Um zu untersuchen, wie sich die TB-Epidemiologie von Frankfurt am Main im bundesweiten Vergleich darstellt, sind ähnlich angelegte Arbeiten aus anderen deutschen Großstädten notwendig.
The production cross section and the transverse momentum distribution of charged particles is measured in pp collisions at √s = 2.76 TeV, 5.02 TeV, 7 TeV and 13 TeV, as well as for Pb-Pb collision at √s_NN = 5.02 TeV and Xe-Xe at √s_NN = 5.44 TeV in ALICE at the LHC. The measurement is performed in the transverse momentum region of 0.15 < p_T < 50 GeV/c and in the pseudorapidity range of |η| < 0.8. The precision of the measurement has been substantially enhanced as a result of the improved corrections, by taking into account a more realistic particle composition in the MC simulations. As a result, the systematic uncertainties have been reduced by more than a factor two in all systems and energies.
The average transverse momentum <p_T> results show a faster-than-linear increase with the center-of-mass energy and follow a similar trend with respect to previous measurements. The analysis of the p_T spectra in multiplicity intervals show a weak center-of-mass energy dependence when they are compared to their respective inelastic (INEL) pp measurement. The average multiplicity as a function of the collision energy shows a quadratic trend, and the comparison with other ALICE multiplicity measurements exhibits a remarkable agreement, within uncertainties.
The transverse momentum spectra in pp collisions are compared to state-of-the-art MC simulations, EPOS LHC and PYTHIA 8 event generators; none of them is able to reproduce the distributions over the full p_T range.
The differential cross section in pp collisions is an essential observable for the study of the Quark Gluon Plasma (QGP) created in ultra-relativistic heavy-ion collisions. The absence of a medium formation in pp collisions serves as an essential baseline for studies of particle production and suppression due to parton energy-loss in the QGP. Since pp collisions at √s = 5.44 TeV were not measured by ALICE, the pp reference at this energy was constructed by using a power law interpolation between the s = 5.02 TeV and 7 TeV data. The pp results are compared to the particle production in Pb-Pb collisions at √s_NN = 5.02 TeV and Xe-Xe collisions at √s_NN = 5.44 TeV.
The nuclear modification factor R_AA for Pb-Pb and Xe-Xe collisions was calculated and a strong suppression of high-p_T particles is observed in central collisions. The R AA in different systems allows for a differential study of the parton energy loss in the QGP. The comparison of the R AA in multiplicity intervals between the two systems provide insights into the path length dependence of a parton that propagates in the medium.
Die vorliegende Untersuchung wurde mit dem Ziel durchgeführt, fördernde und hemmende Einflussfaktoren auf die Entstehung und Durchführung von translationaler Forschung näher bestimmen zu können. Dazu wurden im Verlauf der Forschung sechs Gruppen von möglichen Einflussfaktoren untersucht. Diese waren 1) externe politische, 2) institutsbezogene, 3) soziale (auf soziale Rollen und sozialen Status bezogene), 4) epistemische, 5) forschungskulturelle und 6) individuelle Faktoren.
Translationale Forschung wurde als Spezialform interdisziplinärer Forschung konzeptualisiert. Auch bei dieser wird Wissen aus mehr als einer wissenschaftlichen Disziplin herangezogen, um ein disziplinübergreifendes Problem zu lösen. Das Besondere an der translationalen Forschung ist jedoch, dass zusätzlich mindestens eine der beteiligten Disziplinen grundlagenorientiert und eine andere anwendungsorientiert ist. Der Vorteil besteht darin, dass fortan der Wissensbestand beider Disziplinen kombiniert werden kann. Ein Nachteil ergibt sich daraus, dass die Wissensbestände untereinander nicht ohne Weiteres anschlussfähig sind und eine „Übersetzung“ durch die unterschiedlichen Praxisbezüge der beteiligten Disziplinen erschwert wird. Die translationalen Forschung muss neben dieser noch einer weiteren Herausforderung begegnen: Denn sie gewinnt ihre Erkenntnisse unter Laborbedingungen, wo Umweltfaktoren praktisch keine Rolle spielen. Dadurch lassen sich ihre Ergebnisse nicht unbedingt in die klinische Praxis transferieren. Kurz gesagt: Was im Labor eine bestimmte Wirkung erzielt hat, entfaltet diese Wirkung nicht automatisch am Patienten.
Im Rahmen der Dissertation wurden sechs translationale Forschungsprojekte aus Berlin-Buch aus der Zeit zwischen 1959 und 1989 untersucht. Aufgrund der in der DDR etablierten, staatlichen Überführungspolitik konnte insbesondere der Einfluss externen politischen Drucks auf diese Forschungsprojekte untersucht werden. Als Quellen dienten archivierte Akten, graue Literatur, zur damaligen Zeit publizierte Fachliteratur und Interviews mit Forschern, die damals an diesen Projekten beteiligt waren. Da es an soziologischer Literatur spezifisch zu translationaler Forschung bisher mangelt, wurden mehrere Einzelstudien aus der soziologischen und wissenschaftshistorischen Forschung herangezogen. Die Untersuchungsergebnisse erweitern den Forschungsstand zur interdisziplinären Forschung und zu Praxisbezügen von Forschung.
Die untersuchten Fallstudien zeigen exemplarisch, dass es die von der Staatsführung der DDR gewollten anwendungsorientierten medizinischen Forschungsprojekte auch in Berlin-Buch gegeben hat. Entgegen der Erwartung zeigen sie aber auch, dass translationale Forschung nicht speziell gefördert (mit Ressourcen oder einem besonderen Commitment) wurde und es somit oft vom Zufall abhängig war, ob diese (vorzeitig) beendet wurde oder nicht. Darüber hinaus konnten Anhaltspunkte dafür gefunden werden, dass translationale Forschung im Wesentlichen auf epistemischen (fachlichen) Schnittstellen beruht, die von anwendungsorientierten Biomedizinern meist aus persönlichem Interesse aufgegriffen werden, wenn sie als solche erkannt werden und wenn entsprechende Ressourcen zur Forschung zur Verfügung stehen.
Somit konnte widerlegt werden, dass das so genante „Translationsproblem“ darauf zurückzuführen ist, dass Kliniker und Forscher kein Interesse haben, miteinander zu kommunizieren oder zu forschen. Ein Problem stellt lediglich dar, dass epistemische Schnittstellen meist zufällig (oft als Nebenprodukte von disziplinärer Forschung) sichtbar werden und es an kurzfristig verfügbaren Ressourcen fehlen kann, um diesen nachzugehen. Hinzu kommt der erhöhte Aufwand, der sich durch das Einbeziehen von Forschern aus anderen Disziplinen ergibt und das vergleichsweise hohe Risiko, dass medizinische Anwendungen, die auf translationaler Forschung aufbauen, unter komplexen Umweltbedingungen (am Patienten) nicht mehr die gewünschte Wirkung entfalten. Die untersuchten Fallstudien haben jedoch auch gezeigt, dass translationale Infrastrukturen und regelmäßiges Peer Review Forschern dabei helfen können, Ergebnisse translationaler Forschung auf ihre Tauglichkeit in der Klinik zu prüfen. Das Risiko des Scheiterns lässt sich jedoch nicht vollständig ausschließen.
A sound and well-functioning legal system will encourage growth in investment and create opportunities for investors. Trademarks as part of intellectual property play an important role in the future development of a country. A mark or symbol is needed in order to give products and services identity and to distinguish them and their qualities from identical or similar products and services of a competitor.
This research studies, examines and analyses the degree, nature and function of trademark protection within the legal system of Afghanistan and compare them with the Paris, Madrid and TRIPs agreements. It has been divided into four chapters: Chapter one provides general information and an overview of the current legal system of Afghanistan. Chapter two studies and analyses international agreements pertaining to the legal protection of trademark. It also critically assesses the ATML compatibility with these agreements: and answers the research question of to what extent the ATML provisions are compatible with them. Chapter three provides information on the different purposes of trademarks from a development perspective and compares the purposes provided by the ATML. Finally, chapter four assesses and examines the acquisition, assignment and termination of trademarks. The conclusions and findings of the thesis are the final section of this research.
Afghanistan, as a transitioning economy, has not developed a solid legal and practical foundation for providing comprehensive protection mechanisms for trademarks as have been articulated in developed countries and international agreements. Accordingly, the Afghan government has not entirely integrated these needs into its legal system and there are some inconsistencies of the ATML with these agreements.
One more challenge is the lack of appropriate legal institutions for issuing, managing, administering and protecting of trademarks. The establishment of a well-functioning administrative institution will serve to fulfil the objectives of the laws. Therefore, the CBR office holds the administrative responsibility for processing the registration of trademarks.
However, the methods and facilities of the CBR office remain outdated, and the office does not have the capacity to provide applicants with up-to-date administrative and technical facilities.
Therefore, legal protection of trademark in Afghanistan is linked not only to the existence of a well functioning of laws, regulations, clear procedures, mechanism and guidelines but also to an efficient and well-functioning administrative office.
Microsporidia are a group of parasites that infect a wide range of species, many of which play important roles in agriculture and human disease. At least 14 microsporidian species have been confirmed to cause potentially lifethreatening infectious diseases in both immunocompromised and immunocompetent humans. Approximately 1,400 species of microsporidia have been described. Depending on their host and habitat they are classified into three groups, the aquasporidia, the terresporidia and the marinosporidia.
Microsporidia were originally classified as fungi by Naegeli (1857). However, their lack of typical eukaryotic components – such as mitochondria, Golgi bodies or peroxisomes – suggested to place the microsporidia together with other amitochondriate protists within the Archezoa kingdom. This "microsporidia-early" hypothesis was further supported by molecular phylogenies inferred from individual genes. Despite this evidence, the placement of microsporidia as an early branching eukaryote remained a topic for debate. The phylogeny of microsporidia is prone to suffer from biases in their reconstruction. The high evolutionary rate of microsporidian proteins tends to place these proteins together with other fast evolving lineages, a phenomenon known as long-branch attraction. In 1996, the first molecular phylogenetic studies placed the microsporidia inside the fungi.
Subsequently, several further studies located the microsporidia at different positions inside the fungal clade. Since then, microsporidia have been considered as members of the Ascomycota, Zygomycota, Cryptomycota, or as a sister group to the Ascomycota and Basidiomycota, or even as the sister group of all fungi.
The difficulties in determining the evolutionary origin of microsporidia are not only caused by their lack of several cellular components but also by their reduced genomes and metabolism. Being obligate intracellular parasites, microsporidia successfully reduced their genome sizes, down to the range of bacteria. As the smallest eukaryotic genome described so far, the genome of Encephalitozoon intestinalis is just 2.3 Mbp, about half the size of the one of Escherichia coli. Due to their low number of protein coding genes (less than 4,000), microsporidia are thought to retain only genes essential for their survival and development. Furthermore, several key metabolic pathways are missing in the microsporidia, such as the citric acid cycle, oxidative phosphorylation, or the de novo biosynthesis of nucleotides. As a result they are in an obligatory dependence on many primary metabolites from the hosts. However, the presence of hsp70 protein suggests a more complex genome of the microsporidian ancestor. Consequently, the small microsporidian genomes and the reduced metabolism would be consequences of a secondary loss process that molded the contemporary microsporidia from a functionally more complex ancestral species. However, it remains unclear whether the last common ancestor (LCA) of the microsporidia was already reduced, or whether the genome compaction was lineage-specific and started from a more complex LCA.
We investigated the evolutionary history of the contemporary microsporidia through the reconstruction and analysis of their LCA. As a first step in our analysis, we have developed and implemented a software facilitating an intuitive data analysis of the large presence absence-patterns resulting from the tracing of microsporidian proteins in gene sets of many different species. These so called phylogenetic profiles can now be dynamically visualized and explored with PhyloProfile. The software allows the integration of other additional information layers into the phylogenetic profile, such as the similarity of feature architecture (FAS) between the protein under study and its orthologs. The FAS score can be displayed along the presence-absence pattern, which can help to identify orthologs that have likely diverged in function. PhyloProfile closes the methodological gap that existed between tools to generate large phylogenetic profiles to delineate the evolutionary history and the contemporary distribution of large – and ultimately complete – gene sets, and the more function-oriented analysis of individual protein. In the next step we tackled the problem of how to transfer functional annotation from one protein to another. We have developed HamFAS that integrates a targeted ortholog search based on the HaMStR algorithm with a weighted assessment of feature architecture similarities (FAS) between orthologs. In brief, for a seed protein we identify orthologs in reference species in which proteins have been functionally annotated based on manually curated assignments to KEGG Ortholog (KO) groups. The FAS scores between the orthologs and seed proteins are calculated. Subsequently, we compute pairwise FAS scores for all reference proteins within a KO group. A group's mean FAS score serves then as cutoff that must be exceeded to warrant transfer of its KO identifier to the seed. A benchmark using a manually curated yeast protein set showed that HamFAS yields the best precision (98.5%) when compared with two state-of-the-art annotation tools, KAAS and BlastKOALA. Furthermore, HamFAS achieves a higher sensitivity. On average HamFAS annotates almost 50% more proteins than KAAS or BlastKOALA.
With this extended bioinformatics toolbox at hand, we aimed at reconstructing the evolutionary history of the microsporidia. We generated a robust phylogeny of microsporidia using a phylogenomics approach. As a data basis, we identified a set of microsporidian proteins encoded by 80 core genes with one-to-one orthologs. A maximum likelihood analysis of this data
with 48 fungi and additionally in 13 species from more distantly related such as animals and plants combined in a supermatrix strongly supported the hypothesis that microsporidia form the sister group of the fungi. We confirmed that the data explains this microsporidia-fungi relationship significantly better than any other of the previously proposed phylogenetic hypotheses.
On the basis of this phylogeny, and of the phylogenetic profiles of microsporidian proteins, we then focused on reconstructing the dynamics microsporidian genome evolution. Between 2% of the proteins in the compact microsporidia Encephalitozoon intestinalis and up to 49% of the proteins of Edhazardia aedis are private for individual microsporidian species. A comparison of the sequence characteristics of these proteins to that of proteins with orthologs in other microsporidian species revealed individual differences. Yet, without further evidences it remains unclear whether these private genes are indeed lineage-specific innovations contributing to the adaptation of each microsporidium to its host, or whether these are artifacts introduced in the process of gene annotation. A total of 14,410 microsporidian proteins could then be grouped into 1605 orthologous groups that can be traced back to the last common ancestor of the microsporidia (LCA set). We found that 94% of the microsporidian LCA proteins could be tracked back to the last eukaryotic common ancestor. The high evolutionary age of these proteins, together with the resistance against gene loss in the microsporidia suggests that the corresponding functions are essential for eukaryotic life. Further 3% of the LCA proteins could be dated to the common ancestor microsporidia share with the fungi. Only 3% of the LCA proteins appear as microsporidia specific inventions. These proteins are potentially of importance for the evolutionary of the obligate parasitic lifestyle nowadays shared by all microsporidia.
The functional annotation and metabolic pathway analysis of the microsporidian LCA protein set gave us more insight into the adaptation of the microsporidia to their parasitic lifestyle and the origin of the microsporidian genome reduction. The presence of E1 and E3 components of the pyruvate dehydrogenase complex and the mitochondrial hsp70 protein support an ancestral presence of mitochondria in the ancestral microsporidia. In addition, several ancient proteins that complement gapped metabolic pathways were found in the microsporidian LCA. They suggested a more complex genome and metabolism in the LCA. However, our reconstruction of the metabolic network of the microsporidian LCA still lacks many main pathways. For example, the TCA cycle for effective energy production, and key enzymes that are required for in vivo synthesis of critical metabolites like purines and pyrimidines appear absent. We therefore find that the parasitic lifestyle and the genome reduction already occurred in the microsporidian LCA. This ancestral state was followed by further losses and gains during the evolution of each individual microsporidian lineage.
Die vorliegende Arbeit beschäftigt sich mit dem Thema Stemmatologie, d.h. primär der Rekonstruktion der Kopiergeschichte handschriftlich fixierter Dokumente. Zentrales Objekt der Stemmatologie ist das Stemma, eine visuelle Darstellung der Kopiergeschichte, welche i.d.R. graphtheoretisch als Baum bzw. gerichteter azyklischer Graph vorliegt, wobei die Knoten Textzeugen (d.s. die Textvarianten) darstellen während die Kanten für einzelne Kopierprozesse stehen. Im Mittelpunkt des Wissenschaftszweiges steht die Frage des Autorenoriginals (falls ein einziges solches existiert haben sollte) und die Frage der Rekonstruktion seines Textes. Das Stemma selbst ist ein Mittel zu diesem Hauptzweck (Cameron 1987). Der durch für manuelle Kopierprozesse kennzeichnende Abweichungen zunehmend abgewandelte Originaltext ist meist nicht direkt überliefert. Ziel der Arbeit ist es, die semi-automatische Stemmatologie umfassend zu beschreiben und durch Tools und analytische Verfahren weiterzuentwickeln. Der erste Teil der Arbeit beschreibt die Geschichte der computer-assistierten Stemmatologie inkl. ihrer klassischen Vorläufer und mündet in der Vorstellung eines einfachen Tools zur dynamischen graphischen Darstellung von Stemmata. Ein Exkurs zum philologischen Leitphänomen Lectio difficilior erörtert dessen mögliche psycholinguistische Ursachen im schnelleren lexikalischen Zugriff auf hochfrequente Lexeme. Im zweiten Teil wird daraufhin die existenziellste aller stemmatologischen Debatten, initiiert durch Joseph Bédier, mit mathematischen Argumenten auf Basis eines von Paul Maas 1937 vorgeschlagenen stemmatischen Models beleuchtet. Des Weiteren simuliert der Autor in diesem Kapitel Stemmata, um den potenziellen Einfluss der Distribution an Kopierhäufigkeiten pro Manuskript abzuschätzen.
Im nächsten Teil stellt der Autor ein eigens erstelltes Korpus in persischer Sprache vor, welches ebenso wie 3 der bekannten artifiziellen Korpora (Parzival, Notre Besoin, Heinrichi) qualitativ untersucht wird. Schließlich wird mit der Multi Modal Distance eine Methode zur Stemmagenerierung angewandt, welche auf externen Daten psycholinguistisch determinierter Buchstabenverwechslungswahrscheinlichkeiten beruht. Im letzten Teil arbeitet der Autor mit minimalen Spannbäumen zur Stemmaerzeugung, wobei eine vergleichende Studie zu 4 Methoden der Distanzmatrixgenerierung mit 4 Methoden zur Stemmaerzeugung durchgeführt, evaluiert und diskutiert wird.
Cells within a tissue form highly complex, cellular interactions. This architecture is lost in twodimensional cell cultures. To close the gap between two-dimensional cell cultures and in vivo tissues, three-dimensional cell cultures were developed. Three-dimensional cellular aggregates such as spheroids, organoids, or embryoid bodies have been established as an essential tool in many different aspects of life science, including tumour biology, drug screening and embryonic development. To fully take advantage of the third dimension, imaging techniques are essential. The emerging field of “imagebased systems biology” exploits the information in images and builds a connection between experimental and theoretical investigation of biological processes at a spatio-temporal level. Such interdisciplinary approaches strongly depend on the development of protocols to establish threedimensional cell cultures, innovations in sample preparation, well-suited imaging techniques and quantitative segmentation methods.
Although three-dimensional cell cultures and image-based systems biology provide a great potential, two-dimensional methods are still not completely replaced by three-dimensional methods. The knowledge about many biological processes relies on two-dimensional experiments. This is mainly due to methodical and technical hurdles. Therefore, this thesis provides a significant contribution to overcome these hurdles and to further develop three-dimensional cell cultures. I established computational as well as experimental methods related to three-dimensional cellular aggregates and investigated fundamental, cellular processes such as adhesion, growth and differentiation.
Cells within a tissue form highly complex, cellular interactions. This architecture is lost in two-dimensional (2D) cell cultures. To close the gap between 2D cell cultures and in vivo tissues, three-dimensional (3D) cell cultures such as spheroids or embryoid bodies were developed. To fully take advantage of the third dimension, imaging techniques are essential. The emerging field of "image-based systems biology" exploits the information in images and builds a connection between experimental and theoretical investigation of biological processes. Such interdisciplinary approaches strongly depend on the development of protocols to establish 3D cell cultures, innovations in sample preparation, well-suited imaging techniques and quantitative segmentation methods.
Although 3D cell cultures and image-based systems biology provide a great potential, 2D methods are still not completely replaced by 3D methods. This is mainly due to methodical and technical hurdles. Therefore, this thesis provides a significant contribution to overcome these hurdles and to further develop 3D cell cultures. I established computational and experimental methods related to 3D aggregates and investigated fundamental, cellular processes such as adhesion, growth and differentiation.
The automatic segmentation method "PAS" and "LoS" were developed in the context of this thesis. They extract essential biological properties such as the projected area or features of cell nuclei from 2D or 3D images of 3D aggregates. Both algorithms show their accuracy robustly over image data from different samples and different microscopes. In addition, the superior performance of PAS and LoS was proven in a comparison with state-of-the-art methods.
The PAS approach served as an essential basis for investigating cellular processes such as adhesion and growth which are tightly regulated to contribute to tissue integrity. These processes are involved in the formation of spheroids. The temporally resolved data of spheroid formation of three mammary epithelial cell lines revealed differences in their formation dynamics as well as in the onset of spheroid formation phases (aggregation, compaction and growth). Despite these differences, adhesion- and growth-associated proteins such as E-cadherin, actin, microtubules, and the focal adhesion kinase show similar importance in a particular phase. Notably, certain proteins (e.g. E-Cadherin) contribute differently to spheroid formation of cells from different cell types in terms of cell adhesion and growth. Overall, analyses of the individual phases of spheroid formation revealed the temporal coordination of fundamental tissue-specific processes. The results contribute to a better understanding of the maintenance and disruption of tissue integrity.
An important but yet unknown process is how cells accomplish to arrange themselves against the gravitational force to form a spheroid. Live imaging with light sheet-based microscopy provides the best solution for a temporally and in particular spatially resolved investigation of spheroid formation. Although the imaging possibilities increase with this particular microscopy technique, available sample preparation methods are rare. Therefore, I have significantly optimized "agarose beaker" as preparation method for 3D long-term imaging of spheroid formation. The data show that upward movement of the cells takes place early. This movement is initiated in the centre of the initially flat cell layer. Subsequently, the cells move from the periphery of the cell layer toward the centre. Cells rearrange within the spheroid which is followed by growth. It is very likely that 3D aggregates form by adopting an energetically favoured, spherical shape by increasing cell-cell or cell-matrix contacts.
Besides the knowledge gained from the examination of the self-assembly process in different contexts, fully formed cellular aggregates can serve as basis to investigate differentiation processes. Differentiation guide cell fate specification during early embryonic development (i.e. preimplantation) and is not fully understood yet. Due to the lack of an in vitro system for preimplantation, I have developed "blastoids". These are 3D multicellular aggregates of mouse embryonic stem cells which represent important phases of preimplantation and beyond. In qualitative and quantitative analyses, a strong similarity was proven between blastoids and the inner cell mass of in vivo mouse embryos. Further results strongly suggest that both, the cell number and the trophectoderm play a subordinate role for cell fate decision during preimplantation. Furthermore, 3D neighbourhood analyses have shown that both, blastoids and mouse embryos, do not show a random "salt-and-pepper" pattern during differentiation. Instead, they show a yet unknown local clustering of cells with identical fates, suggesting local cell interactions that influence cell fate decision. Furthermore, the data indicate that the maturation of the epiblast in the later stages of preimplantation is initiated by an interaction between cells of the epiblast and the primitive endoderm.
Using image-based systems biology, I have investigated fundamental cellular processes such as adhesion, growth and differentiation in the context of tissue integrity and early embryonic development using 3D cellular aggregates. This highly interdisciplinary work is a major contribution to 3D cell biology and demonstrates how cells bind and interact within a complex system. The main methods developed in this thesis as well as the biological findings can be used not only in further biological but also in medical and pharmacological studies. They have the potential to advance our understanding of complex biological systems and to provide new opportunities for practical applications.
Acute myeloid leukemia (AML) is a clonal malignancy of hematopoietic stem cells (HSCs) characterized by expansion of myeloid blasts in the bone marrow. It has been shown that autophagy is a degradative process, which delivers cytoplasmic components to lysosomes to prevent malignant transformation by maintaining HSC integrity. Besides its function as a bulk degradation machinery to recycle cytoplasmic components during limited energy supply, autophagy also serves as an intracellular quality control mechanism. Selective autophagy requires autophagy receptors such as p62 to specifically bridge the targeted cargos into autophagosomes. p62 is known as a central signaling hub involved in pro-oncogenic signaling pathways and autophagic degradation pathways. However, little is known about the role of p62 as a selective autophagy receptor in AML. This study aims to elucidate the precise function of p62 as an autophagy receptor in leukemia development and maintenance.
In silico analysis revealed that high p62 expression was significantly associated with poor overall survival of adult patients with de novo AML, suggesting that p62 may promote leukemia maintenance. To address the functional role of p62 in leukemia, genome editing by CRISPR/Cas9 was used to knockout p62 in four human AML cell lines. Importantly, p62 loss reduced cell proliferation in all four cell lines. This observation could be transferred to a murine leukemia cell model in which leukemic transformation of lineage-depleted bone marrow (ldMBM) cells was induced by overexpression of the human transcriptional coactivator MN1. Knockdown of p62 by shRNA in MN1-driven leukemia cells impaired proliferation and decreased colony forming ability without altering apoptosis. This indicates that p62 is crucial for leukemia proliferation in vitro. To further characterize the role of p62 in leukemia development and maintenance a murine AML transplantation model was established. Therefore, ldMBM cells isolated from WT and p62-/- mice were transduced with MN1 and transplanted into lethally irradiated mice. As expected, all mice developed fatal myeloid proliferation. Notably, p62 loss in MN1-driven leukemia significantly prolonged survival in mice and caused a more immature phenotype. Consistent with the in vitro results, ex vivo analysis of p62-/- leukemic cells displayed decreased colony-forming ability, although p62 loss did not affect composition and function of HSCs. Moreover, re-transplantation of primary MN1-driven leukemia cells attenuated leukemia progression upon p62 loss. These findings support a decisive role of p62 in leukemia development and maintenance.
To gain molecular insight into the function of p62 during myeloid transformation an interactome analysis of murine MN1-driven leukemia cells was performed. This revealed first that p62 predominantly interacts with mitochondrial proteins and second that inhibition of autophagic degradation causes accumulation of p62-bound mitochondria. This leads to the first assumption that loss of p62 may provoke mitochondrial accumulation with increasing mitochondrial damage and second that p62 may mediate degradation of mitochondria by mitophagy. Indeed, in the absence of p62, accumulation of dysfunctional mitochondria was detected by morphological changes of the mitochondria, increased mitochondrial ROS and impaired mitochondrial respiration capacity. Furthermore, induction of PINK1/Parkin-independent mitophagy revealed that loss of p62 caused impaired degradation of mitochondrial proteins and reduced translocation of damaged mitochondria into autophagosomes. Taken together, p62 is required for effective degradation of dysfunctional mitochondria by mitophagy in AML.
Due to the fact that p62 is a multifunctional protein, rescue experiments with different mutants of p62 were performed to clarify if p62-mediated mitophagy contributes to leukemia proliferation. Notably, the autophagy-deficient mutant (disabled to bind autophagosomes) reduced cell growth and colony-forming ability to the same extent as knockdown of p62, as the clustering-deficient mutant (disabled to form aggregates) displayed an intermediate phenotype. Strikingly, only the autophagy-deficient mutant failed to rescue mitophagy.
In conclusion, this study demonstrates the prominent role of p62 as a selective autophagy receptor for mitochondrial quality control which contributes to leukemia development and maintenance. Therefore, targeting selective autophagy opens new venues in the treatment of AML.
The role of the homeobox transcription factor Meis2b in zebrafish heart development and asymmetry
(2018)
Zebrafish heart development: The heart of the zebrafish is the first organ to form and function during embryonic development, and is composed by one atrium and one ventricle. Between 5-17 somites stage, the cardiomyocyte precursors form the bilateral cardiac fields in the anterior lateral plate mesoderm (ALMP); where the endocardial precursors are located anterior to the cardiac fields (Zeng, Wilm et al. 2007). Then, the pools of endocardial andmyocardial precursors fuse at the midline and form the heart disc; where atrial cardiomyocytes are located around, the ventricular cardiomyocytes are located in the centerof the heart disc, and the future endocardium is located in a ventral position relative to the cardiomyocytes (Bakkers 2011). After the heart disc is formed, the cardiomyocyte progenitors start to migrate and rotate asymmetrically to form the heart tube (de Campos-Baptista, Holtzman et al. 2008, Rohr, Otten et al. 2008, Smith, Chocron et al. 2008). This process is followed by a rightward bending of the heart tube, and the arterial and venous poles rotate at different speed and directions (a process known as heart looping) (Smith, Chocron et al. 2008). The heart looping process results in a ventricle located on the right side and a more posterior atrium located on the left side with respect to the midline; at this point the atrium and ventricle are separated by a fine segment called the atrioventricular canal, where the valves will be formed (Staudt and Stainier 2012). The second heart field (SHF) is a pool of cardiac progenitors that are specified later during the formation of the heart disc and until the heart looping stages. The SHF contributes withcells to the distal side of the ventricle, the outflow and inflow tracts, and is important for the specification of the cardiac conduction system (de Pater, Clijsters et al. 2009, Hami, Grimes et al. 2011, Zhou, Cashman et al. 2011, Witzel, Jungblut et al. 2012, Guner-Ataman, Paffett-Lugassy et al. 2013)....
The liver as the biggest endocrine gland of the human body plays a central role in many metabolic pathways such as detoxification, storage of carbohydrates and distribution of lipids. As the liver receives blood supply from the gut by the portal vein, liver cells are often challenged with high concentrations of nutrients and components of our commensal microbiota. Therefore, the immune system of the liver induces a tolerant state, meaning no or low inflammatory reactions to those constant stimuli. Yet, as various pathogens target the liver, the hepatic immune system also needs the capability to induce strong immune responses quickly. Chronical damage to the liver, which can be caused by alcohol, pathogens or toxins, might lead to liver cirrhosis, where the amount of functional liver tissue is decreased dramatically. This pathology can worsen and lead to acute-on-chronic liver failure, whose high mortality is due to high inflammation and multi-organ failure. Interleukin-7 is a cytokine known for its pro-survival functions especially in lymphopoiesis. However, it is also very important for maintenance of mature immune cells in the liver. As mouse experiments have demonstrated an induction of Interleukin-7 in the liver as a response to bacterial lipopolysaccharide, we aimed to characterize the role of Interleukin-7 in hepatic immunoregulation in both health and disease.
The experiments were mostly based on in vitro approaches. Induction of Interleukin-7 in liver cells was analyzed using ELISA, quantitative PCR, and Immunoblotting. Knockdown of signal transduction components was performed by siRNA transfection. Primary immune cells isolated from healthy donor buffy coat were studied for their ability to respond to Interleukin-7. Activation of downstream signal transduction was assessed by Immunoblotting. Functional consequences of Interleukin-7 signaling, such as alterations in cellular metabolism, cellular survival and endotoxin tolerance, were studied in monocyte-derived macrophages. Finally, serum concentrations of Interleukin-7 and frequencies of Interleukin-7 receptor positive immune cells were quantified in patients with compensated or decompensated liver cirrhosis or acute-on-chronic liver failure.
Interleukin-7 expression could be observed in human hepatic cell lines and primary hepatic sinusoidal endothelial cells when stimulated with IFNα or IFNγ, but not IFNλ. IRF-1 was identified as a key regulator of Interleukin-7 expression, as its transcription, translation and nuclear translocation were induced and enhanced upon IFNα or IFNγ, but not IFNλ treatment. We identified LPS-primed macrophages as innate immune target cells of Interleukin-7, which responded by an inhibitory phosphorylation of GSK3. This signal transduction led to enhanced production of pro-inflammatory cytokines and abolished endotoxin tolerance. In parallel, cellular fitness was reduced as demonstrated by reduced intracellular ATP concentration and intracellular WST-1 staining. Finally, we could identify components of the in vitro signal transduction also in liver cirrhosis patients. However, Interleukin-7 serum concentrations were significantly in liver cirrhosis patients compared to healthy controls. In addition, the frequencies of Interleukin-7 receptor positive immune cell populations differed in patients and controls.
We identify Interleukin-7 as a pro-inflammatory cytokine in hepatic immunoregulation. It is part of a cascade where its induction is regulated by type I and type II Interferons and mainly restricted by the presence of IRF1. We demonstrate the importance of Interleukin-7 also for innate immune cells, where the abolishment of endotoxin tolerance may provide an interesting strategy of liver cirrhosis patients. In addition, reduced viability of macrophages in response to Interleukin-7 is a striking contrast to the well-described survival functions in lymphocytes. The decrease of serum Interleukin-7 levels and alterations of Interleukin-7 receptor positive immune cell populations suggest an important role for Interleukin-7 also in the diseased liver. Due to the identified mechanisms of action, Interleukin-7 may be an interesting candidate for immunotherapeutic approaches of liver cirrhosis and acute-on-chronic liver failure.
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience (cf. Bryant & Veroff, 2007; Dewey, 2005; Wolf, 2013).
Adopting a dual process approach (Dietrich, 2004; Evans & Stanovich, 2013; Lewis, Tamborini & Weber, 2014; Mukhopadhyay, 2014; Schwarz, 2011; Smith & Neumann, 2005) – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the essential yet poorly understood paradox of losing oneself in the music on the one hand, and the act of meta-awareness (i.e., rational and controlled sense of self) on the other, b) its corresponding psycho-phenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment (a purely pleasurable response), lasting impression (a meaningful response related to mixed emotion), and behavioral intention (future-planned seeking/ avoidance response). Moreover, a dynamically-conceived conceptualization of absorption was proposed in terms of a temporary phase taking place amidst a variety of other cognitive responses to music, including concentration, mind wandering, and mindfulness. Finally, a questionnaire commonly-used for assessing alterations in consciousness (Phenomenology of Consciousness Inventory; Pekala, 1991) was evaluated in the context of music listening, before using it in the development of a self-report questionnaire aimed at measuring absorptive states in or by music. To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.
Situated within an overarching neurocognitive model for music engagement and consistent with several aesthetic theories converging (Benson, 1993; Dewey, 2005; Wolf, 2013), aesthetic absorption was conceptualized as, and later confirmed to be, structured by experiential and meta-consciousness or – in terms of dual process terminology – intuitive type I and reflective type II processing. Two forms of music absorption were empirically identified and labeled as zoning in and tuning in (cf. Schooler, 2007). These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state (i.e., positive vs. mixed emotions). These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory (Schwarz, 2011), postulating that positive emotions (e.g., happiness) are differently processed than negatively-tinted types of emotions (e.g., nostalgia), it was concluded that music-induced rumination (a negatively-valenced experience related to the self and represented by the feeling of sadness) ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection (Takano & Tanno, 2009; Trapnell & Campbell, 1999). Further examining the construct’s latent structure, it was shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. This finding cautions against subtyping absorption experiences as being qualitatively distinct, and assuming it to be guided by ‘special’ mechanisms. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind – operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention. Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Future research should examine whether the same applies for absorption and meta-awareness, preferably making use of more advanced measures for the latter.
Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated, but, in terms of dual processing, that they represent different levels of consciousness. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate long-lasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
Finally, dual process approach and measures provided by research on altered-states-of-consciousness (ASC) experiences offer new and fruitful perspectives to conceptualize aesthetic absorption and examine its mechanisms. Several major research questions lie ahead in understanding the phenomenological experience and aesthetic role of absorption, including the future comparison between subjective experiences of ASCs across varying music and non-music induction methods (e.g., hypnosis), listening conditions (e.g., live concert experience), and musical ‘cultures’ (human societies, musical styles, classes).
Whereas many writers across all times and cultures have written about the potential aesthetic effects of music experiences which could be labeled as absorption, only limited empirical research has been done on the state aspects of this fascinating aspect of human involvement. What is more, there are still few tested models which explain how people can be absorbed by a piece of music as well as continue to be third-person observers monitoring and even reflecting on that same musical experience.
Adopting a dual process approach – in which human thinking, emotion, and routes to appraisal are defined in terms of an interplay between two distinct systems of psychological processing – this thesis aimed to examine a) the cognitive mechanisms underlying the paradox of losing oneself in the music on the one hand, and meta-awareness on the other, b) its corresponding psychophenomenological profile(s) when listening intentionally to self-chosen music, and c) the different potential of state and trait aspects of absorption and meta-awareness in predicting three indicators of the aesthetic response to music: enjoyment, lasting impression, and behavioral intention.
To this end, a quantitative empirical research method (state and trait questionnaires) was employed in a series of online surveys, using self-selected music as well as pre-determined music by the researcher as stimulus, together approaching a naturalistic listening setting.Aesthetic absorption was confirmed to be structured– in terms of dual process terminology – by intuitive type I and reflective type II processing. Two forms of music absorption were empirically
identified and labeled as zoning in and tuning in. These experience profiles distinguished themselves significantly in terms of the degree in which a music listener maintained his or her meta-awareness, assessed via volitional control, rationality, self-awareness, and memory of the previous event. The overall pattern of consciousness parameters of both types of absorbed listening are suggestive of a unique interchanging between brain networks for intuitive processing and areas related to self-reference, -awareness and -control. The distinction between zoning in and tuning in was further found to be strongly related to the quality of affective state.
These emotions modulate the experiential intensity of absorption, suggesting this experience to be an affect-biased type of attention. Based on the feelings-as-information theory, postulating that positive emotions are differently processed than negatively-tinted types of emotions, it was
concluded that music-induced rumination ‘competes’ with higher-order functions relevant to meta-awareness. From this perspective, the two found absorption types match conceptually with the positively-tinged self-reflection and negatively-tinged self-rumination as two different types of self-focused introspection. It was also shown that being absorbed by music is a continuous phenomenon; a matter of ‘more-or-less’ involvement rather than a ‘unique state of mind’. Consequently, determining ‘music absorbers’ is a matter of imprecise estimation rather than being marked by a clear observable onset. Finally, as expected, an absorbed state of mind - operationalized here as a multidimensional bifactor model – completely mediated the effect of trait absorption, and was a good predictor for enjoyment, lasting impression, and behavioral intention.
Whereas absorption and enjoyment were found to have a mutual positive effect on each other, absorption and meta-awareness were found to be unrelated to each other. Also, meta-awareness contributed little to aesthetic appreciation. The results confirm the need for a dynamic approach to the relationship between state absorption and enjoyment; the one-directional approach common in many research reports does not seem to fully capture the relationship between them. Taken together, this dissertation shows the potential of including the interplay between the trait and state constructs of absorption and meta-awareness in order to better understand the mechanisms underlying aesthetic experiences with music. The present work demonstrated that these two constructs should not be conflated. Moreover, this thesis underlined the power of absorption not only to evoke short-lived pleasurable experiences, but also to stimulate longlasting impressions. Knowing more about absorbed listening and its potential effects, learning to consciously recognize it as it happens, and perhaps regulate and maintain its positive consequences (i.e., savoring), could further improve the way we engage ourselves with music or other aesthetic objects. Only then could we engage in behavior that we’re sure would make us happy rather than seeking out experiences which we hope would make us happy.
Smut fungi (Ustilaginomycotina) were previously defined as plant parasites that produced blackish or brownish masses of teliospores in or on various organs of plants. Each teliospore germinates to form a single basidium with usually four basidiospores that subsequently grow as a saprobic, yeast-like, haploid stage. The Ustilaginomycotina are a highly diverse group with about 1,700 species in 115 different genera. All of the species were united in a single order, the Ustilaginales, in late 19th century. These teliospore producing fungi are now considered the classic smut fungi. Towards the end of the 20th century, new ideas were brought into this classification system. Most notable was the comparative work regarding the ultrastructure of septal pores and the anatomy of the interaction zones between host and parasite. This work changed the whole concept of smut fungi and their evolutionary relationships. These results were subsequently supported by molecular phylogenetic studies. Both lines of investigation led to the classification of the smut fungi into four different classes, Ustilaginomycetes, Exobasidiomycetes, Malasseziomycetes and Moniliellomycetes (see chapter 1.3).
A reliable taxonomy that reflects phylogenies needed in order to estimate the diversity and the relationships between the diverse groups of smut fungi. In the last 20 years, molecular investigations based mostly on rDNA loci, e.g. ITS (internal transcribed spacer) or LSU (large subunit), have revealed the evolutionary relationships between many taxa of smut fungi. However, there are few phylogenetic studies available for smut fungi (see chapter 1.5.1), and much work is needed to develop backbone phylogenetic trees and to resolve species complexes of many smut fungi.
This thesis reports the results of six different studies that aimed to develop new and improved tools for the phylogenetic analyses of smut fungi, and then apply these methods to selected groups of smut fungi. The first study (Kruse et al. 2017a, Chapter 3) developed a method to improve the amplification of ITS sequences of some smut fungi. Due to its high discrimination value, the ITS gene region is widely used as a barcoding locus for species delimitation of fungi. For this purpose, the general ITS primers ITS1 and ITS4 or more specific modifications, e.g. ITS1F for Ascomycota, ITS4B for Basidiomycota or M-ITS1 for smut fungi, were used. As these primer combinations often yielded unsatisfactory results, due to coamplification of other (contaminant) fungi or the host plant DNA, improvement of the amplification of the ITS region was needed. In order to design new smut specific primers for the ITS region, a representative set of several sequences of the flanking regions of the ITS region (LSU and SSU) of smut fungi, plants and other fungi were downloaded from GenBank. A set of primers was designed on this dataset. These primers were tested on a representative set of about 70 different smut genera under different PCR conditions. Finally, three different primers, one forward primer, smITS-F, and two reverse primers, smITS-R1 and -R2, were selected as the best ones. The following tests with different combinations of these primers, and also under inclusion of the M-ITS1 primer, showed only slight differences in the number of different genera that successfully amplified. But there were some differences regarding the genera that amplified. A broader test on 205 samples in 39 genera showed that the PCR efficiency of the newly designed primers was much better than the primer set ITS4/M-ITS1. With the primers designed in this study almost no non-target ITS was amplified, giving new opportunities especially for amplifying ancient DNA or DNA from older herbarium samples. However, many species groups remain unresolved by only one gene region.
The second study (Kruse et al. 2017c, Chapter 4) found new loci and suitable primers that better resolved multi-locus trees. To date, the most frequently used loci for making multi-locus trees are SSU (small subunit), LSU (large subunit) and ITS (internal transcribed spacer). While the LSU is not always sufficient to distinguish between closely related species, it is highly discriminative above the species level. In an effort to increase the phylogenetic resolution of smut phylogenies, some protein-coding genes were used, including rpb1, rpb2, and atp6 with varying success (see Chapter 2.1.2). As most of these loci are seldom used or sometimes only work on pure cultures because of their low specifity, new protein-coding loci were identified that produced reliable phylogenetic trees. Based on five available genomes, potential gene loci were filtered for possible primers. Initially, 40 different primer combinations for 14 gene loci were tested on a set of twelve different genera of smut fungi. The best candidates were selected and optimized during further tests. Finally, 22 different forward primers and 17 different reverse primers for nine different gene regions were developed, with each differentiating at least one genus of smut fungi (preferably for Ustilaginomycetes). The different primers showed varying discriminative power for different smut genera. They worked best for the Ustilaginaceae, based on the primer designed from Ustilaginomycetes genomes. These new primer sets and loci have the potential to resolve different species groups within the smut fungi and furthermore to produce reliable phylogenetic trees with high resolution. To prove their applicability, three species complexes were investigated in-depth, two from the Ustilaginomycetes and one from the Exobasidiomycetes.
...
Die vorliegende Dissertation beschäftigt sich mit der moderierenden Rolle der Elaboriertheit des sportbezogenen Selbstaspekts auf die Verarbeitung selbstrelevanter Informationen im Sport.
Im ersten Kapitel werden aus einer übergeordneten Perspektive heraus zunächst die beiden im Mittelpunkt der Dissertation stehenden Konstrukte Selbst und Identität in einen historischen Kontext gesetzt und begrifflich umrissen. Im Anschluss werden verschiedene Modelle des Selbst vorgestellt. Dabei wird aufgezeigt, dass insbesondere in der sportpsychologischen Forschung bislang eher Inhalte und weniger Strukturen und Prozesse des Selbstkonzepts im Mittelpunkt standen. In der vorliegenden Dissertation wird das Selbst bzw. die Identität als komplexes, dynamisches System aufgefasst, das sowohl die Informationsverarbeitung beeinflusst als auch durch Prozesse der Informationsverarbeitung beeinflusst wird. Im Anschluss stehen Theorien der Selbstwerterhöhung und der Selbstkonsistenz im Mittelpunkt, deren Vertreter unterschiedliche Vorhersagen für die Verarbeitung konsistenter und von der eigenen Selbsteinschätzung positiv abweichender Rückmeldungen postulieren: Während Selbstwerterhöhungstheorien eine Präferenz für positives Feedback vorhersagen, bevorzugen Personen laut Selbstkonsistenztheorien solches Feedback, das mit ihrer eigenen Selbsteinschätzung übereinstimmt. Anschließend werden mit der Art der Reaktion (affektiv vs. kognitiv) und der Elaboriertheit des betroffenen Selbstaspekts zwei Variablen vorgestellt, die moderieren, ob die Informationsverarbeitung eher konsistenztheoretischen (kognitive Reaktion, hohe Elaboriertheit) oder selbstwerterhöhenden (affektive Reaktion, geringe Elaboriertheit) Vorhersagen folgt.
Ausführlicher werden dann mit dem Exercise Self-Schema und der Exercise Identity zwei sportbezogene Konstrukte vorgestellt, die zur Operationalisierung der Elaboriertheit des entsprechenden Selbstaspekts genutzt werden können. Hierbei wird sowohl auf die Messung als auch auf den empirischen Forschungsstand eingegangen und es wird dargestellt, dass die beiden Konstrukte zwar unterschiedlichen theoretischen Denklinien entstammen, auf operationaler Ebene aber weitgehend austauschbar sind.
Das zweite Kapitel enthält einen Überblick über die drei durchgeführten quantitativen empirischen Studien. Studie 1 (N = 530) beschreibt die Übersetzung und Validierung der Exercise Identity Scale ins Deutsche. Dabei wird neben den beiden in der Literatur diskutierten Ein- und Zwei-Faktor-Modellen auch ein Bifaktor-Modell als mögliche Alternative geprüft. Zusätzlich wird die Invarianz der Skala über die Zeit (Abstand: 14 Tage) mit einer Teilstichprobe, die Invarianz zwischen Männern und Frauen mit der Gesamtstichprobe sowie die konvergente Validität über Korrelationen mit verwandten Konstrukten getestet.
Die Studien 2 und 3 widmen sich der eigentlichen Forschungsfrage nach der moderierenden Wirkung der Elaboriertheit auf die Verarbeitung von sportbezogenem selbstrelevantem Feedback. In Studie 2 (Onlinestudie) wird die Elaboriertheit über das Exercise Self-Schema operationalisiert (N = 472). In dieser Studie zeigt sich, dass Personen – unabhängig davon, ob sie ein Selbstschema im Bereich sportlichen Trainings aufweisen oder nicht – Feedback, das von ihrer eigenen Selbsteinschätzung positiv abweicht, gegenüber mit ihrer Selbsteinschätzung übereinstimmendem (konsistentem) Feedback vorziehen. In Studie 3 (Laborstudie, N = 215) werden einige Limitationen der Onlinestudie adressiert, indem u. a. das fingierte Feedback nach einem objektiveren (physiologischen) Test gegeben und die Elaboriertheit mithilfe der kontinuierlichen Exercise Identity Scale gemessen wird. Auch hier zeigt sich die vermutete moderierende Wirkung der Exercise Identity nicht: Bei der affektiven Reaktion dominiert das Selbstwerterhöhungsmotiv; bei der kognitiven zeigt sich zwar ein kleiner Effekt, der allerdings erwartungswidrig ausfällt (Personen mit geringerer Exercise Identity bevorzugten konsistentes gegenüber positivem Feedback). In beiden Studien zeigt sich darüber hinaus ein moderierender Effekt der Elaboriertheit des sportbezogenen Selbstaspekts hinsichtlich des zur Kontrolle mit in das Versuchsdesign einbezogenen negativen Feedbacks.
Im dritten Kapitel wird eine Gesamtdiskussion der Ergebnisse aus einer übergeordneten Perspektive vorgenommen. Die Befunde werden in den bisherigen empirischen Forschungsstand eingeordnet und es werden Grenzen der durchgeführten Studien diskutiert. Implikationen für zukünftige Forschung werden u. a. im Hinblick auf eine Verbindung zwischen der grundlagenorientierten kognitiv-motivationalen Perspektive der vorliegenden Arbeit und einer eher anwendungsorientierten Perspektive im Sinne der Förderung einer Bindung an sportliche Aktivität diskutiert.
The purpose of this thesis is to achieve two highly interconnected yet distinct tasks. On the one hand, the thesis explains how foreign investment insurance works by focusing on the law governing the relationships between involved actors. On the other hand, it provides a critique of the operation of foreign investment insurance as an investment protection instrument by mainly drawing on critical studies of the investment protection regime.
The main question this thesis attempts to answer is how foreign investment insurance works. I construe foreign investment insurance as a typical insurance product and focus on the operation of insurance arrangements from a legal perspective. Ideas about how insurance should be deployed in any given social, political or economic context are instrumental in the development of insurers, insurance products and insurance techniques. The thesis examines investment insurers, the products they offer and their techniques to identify and deal with so-called political risks.
Another important question concerns the notion of political risk. What are considered political risks in the context of investment insurance and how are they conceptualized by investment insurance providers? Investment insurers have largely adopted a business-oriented political risk definition which denotes governmental intervention in foreign investment as political risk without regard to the objectives of government actions. Descriptive studies explain political risk by replicating investment insurers’ categorization of basic coverages that include expropriation, currency inconvertibility and remittance transfer restrictions, political violence and breach of contract. Yet recent studies have increasingly provided in-depth analyses on the notion of political risk as well as on the specific categories of political risk, particularly expropriation. The thesis draws on these studies to critically discuss the concept of political risk as it is used by investment insurance providers.
I focus on foreign investment insurance provided by OPIC and MIGA due to their mandate to promote economic development in the capital-importing countries and for their historical role as the major providers of investment insurance. While focus is on MIGA and OPIC, the thesis offers a general account of the operation of foreign investment insurance by incorporating the available information on investment insurance industry and the international governance of investment insurance. The central issues explored in this thesis such as the principle of subrogation and the notion of political risk help me generalize the study as these issues are characterized similarly with respect to each public investment insurance provider.
The case studies and most examples in this thesis are based on expropriation risk insurance.
How much we trust our own decisions, knowledge or perceptions influences our behavior in many everyday situations. Normally the confidence we have in our decisions is rather accurate, but under certain circumstances the subjective evaluation of a decision and its objective quality can differ heavily. Subjectively over- or underestimating the quality of decisions can lead to disadvantageous behavior. Little is known about how this feeling of confidence about a decision is generated. Is it computed automatically with the decision or does it arise in a different process?
This thesis is based on a publication that contributed to the investigation of this question by comparing the influence of two different forms of spatial attention on decision confidence. Visual spatial attention is a cognitive mechanism that serves to select parts of the visual field, leading to more accurate decisions about the attended items. It can be either voluntarily controlled (endogenous) or reflexively driven by external events (exogenous). In an orientation-matching task participants performed better in both attentional conditions than in a control condition without directed attention. Additionally, we found that only endogenous, but not exogenous attention led the subjects to overestimate the quality of their performance. The possible implications of this “relative overconfidence” were discussed with respect to the theoretical framework of spatial attention and decision confidence. The present findings support the idea that decision confidence is generated in a distinct metacognitive process. Possible ideas for further neurophysiological research are proposed. The thesis concludes with an attempt to integrate the discussion into a broader context of medical research on certain neuropsychiatric symptoms and conditions.
The individual parameter
(2018)
The present thesis tackles the unification of two-dimensional semantic systems, which are designed to deal with context-dependency of a certain kind i.e. indexicality, with dynamic theories of meaning, designed to capture facts about anaphoricity and the distribution of definite and indefinite articles. The need for a more principled look at this unification is twofold. Firstly, there is an overlap of these two families of theories in terms of empirical data, namely third person personal pronouns, as well as definite descriptions. Both kinds of expressions have anaphoric as well as non-anaphoric usages, whereas some of the latter ones can be captured in terms of indexicality. But, on the other hand, no language, especially not German and English, the main sources of data in this thesis, seems to distinguish these two usages formally, i.e. by employing different expressions. Hence the need for a unified framework in which this sort of ambiguity can be treated. Secondly, the theoretical state is dissatisfactory in the sense that the families of theories take very disparate forms that are not easy to relate conceptually.
The overlap in empirical area of application strongly suggests that this dichotomy is an artifact of the way these theories traditionally are developed and justified. This thesis seeks to overcome this state of the field. It proceeds as follows.
The first chapter discusses the way in which theories indexicality are designed. After taking a closer look some hallmarks of these theories such as the notions of index- and context-dependency themselves, double indexing, etc., it develops a notion of index dependency that makes use of a more complex individual parameter than the one that is usually assumed in the literature. Apart from agents and addressees, the two standard components of indices that represent contexts, additional objects are assumed. This leads to a variant of the semantics of deictically used third person expression that is called ‘indexical theory of demonstratives’, which is then investigated further.
The second chapter discusses the classics of dynamic semantics: DRT, DPL, and FCS. It arrives at the common core of all of these theories that consists in the assumption of a novel sort of variable namely active variables as opposed to free and bound ones that are intended to model the behavior of (in)definite descriptions and pronouns. The projection behavior of these variables or discourse referents is described either in (discourse-)syntactic or semantic terms. The chapter also arrives at a new formulation of the uniqueness condition that is thought to be part of the semantics of definite descriptions and sketches an account of transparent negation.
The third chapter then combines the insights of the previous ones by developing the notion of representation that connects the entities of evaluation of the first chapter i.e. indices with those of the second namely sets of assignments, a.k.a. files. The formal language that emerged in the second chapter is endowed with two kinds of variables for situations to allow for double indexing within a dynamic setting. A novel interpretation mechanism for the so designed language is proposed, which is shown to capture not only those aspects that are known to exist in two-dimensional frameworks, but also certain other index-index interactions that are described in yet another body of literature.
The final chapter discusses potential flaws of the theory and sketches an account of allegedly bound indexicals that is compatible with Kaplan’s infamous ban on monsters.
Aim: Long noncoding RNAs (lncRNAs) belong to the interface of epigenetics and exhibit diverse functions. Their features depend on their sequence, genomic location and tertiary structure. The aim was to identify novel lncRNAs and characterise their physiological functions and mechanisms in endothelial cells. Three different approaches were performed:
The hypothesis that pseudogene-annotated lncRNA NONHSAT073641 regulates the expression of their parental gene platelet activating factor acetylhydrolase 1b regulatory subunit 1 (PAFAH1B1) was examined.
The physiological functions and in vivo relevance of most lncRNAs are still unknown, therefore a part of this work aimed to identify lncRNAs in response to a pathophysiological stimulus (high amplitude stretch) in endothelial cells.
The long intergenic noncoding RNA antisense to S1PR1 (LISPR1) gene, is located within the promotor of sphingosine-1-phosphate receptor 1 (S1PR1) and shares a part of the promotor region. This study examined additionally the hypothesis that LISPR1 controls the S1PR1 expression in endothelial cells.
Methods: The angiogenic functions of NONHSAT073641 and LISPR1 were examined with spheroid-outgrowth and scratch wound assays. Furthermore, stretch experiments were performed in order to identify differently expressed lncRNAs in human umbilical vein endothelial cells (HUVECs). In addition, the in vivo relevance of both lncRNAs was examined in samples from pulmonary arterial hypertension patients. Knockdown (e.g. LNA GapmeRs), knockout (CRISPR/ Cas9) and overexpression experiments (e.g. CRISPR activation) were performed to analyse target genes. The molecular mechanism of LISPR1 was investigated with RNA and Chromatin immunoprecipitation.
Results: NONHSAT073641 and PAFAH1B1 exhibited angiogenic function in endothelial cells. It could be observed that NONHSAT073641 is not regulating the expression of PAFAH1B1. The pro-angiogenic feature of PAFAH1B1 might be attributed to the target gene matrix Gla protein (MGP). NONHSAT073641 and PAFAH1B1 were significantly induced in CTEPH samples and might be important in the development of this disease. It could be speculated that NONHSAT073641 is regulating the expression of the cell-cycle regulator BCL2L11 as has been investigated in mice.
LISPR1 is a cis-acting lncRNA which maintains S1PR1 gene transcription by intercepting the transcriptional repressor ZNF354C and enabling Polymerase II (PolII) to bind. ZNF354C regulates S1PR1 expression in HUVECs. However, the role of ZNF354C in pulmonary arterial hypertension (PAH) is unknown. LISPR1 and S1P1 receptor were both significantly depleted in COPD samples. It can be assumed that due to higher S1P production, the signalling is attenuated through reduction of the lncRNA LIPSR1 and thus the receptor S1P1.
The stretch experiments present a possible in vitro model in order to mimic the condition of endothelial cells during high blood pressure, such as in PAH. Referring to published data, it could be confirmed that stretching of endothelial cells alters the gene expression, which is on the other hand linked to cardiovascular disease. In cardiovascular disease mechanical stretch altered genes, which are participating in the vascular remodelling process. The role of differently expressed lncRNAs (TGFβ2-AS1, CTD-2033D15.2, INHBA-AS1, RP11-393I2.4, TAPT1-AS1, TPM1-AS1, CFLAR-AS1 and HIF1α-AS2) upon mechanical stretch is yet not clarified.
Conclusion: NONHSAT073641 and LISPR1 are important for the endothelial angiogenic function. Both lncRNAs were deregulated in PAH samples. The pathophysiological stimulus had an impact on the expression of different lncRNAs (e.g. TGFβ2-AS1) and pathways (e.g. TGF-β) in endothelial cells.
All lifeforms have to sense changes in their environment and adapt to possibly detrimental conditions. On a cellular level, the highly elaborate proteostasis network (PN) consisting of housekeeping and stress-induced proteins, confers this tolerance against stress and maintains cellular protein homoestasis. This is essential for survival, as an accumulation of stress-induced protein aggregation will eventually affect the functionality of crucial cellular components and ultimately lead to cell death. The guardians of this balance are the molecular chaperones and their activity-regulating co-haperones. They are engaged in all aspects of protein biogenesis, maintenance and degradation, especially during stress.
The heat shock proteins (HSPs) are the major chaperones in mammals and encompass constitutive and stress-induced isoforms. Among them, the HSP70 and the HSP90 family are the most abundant HSPs and their activity is involved in a great variety of homoestasis and stress-induced tasks.
As part of the protein triage the E3 ligase CHIP (C-terminal HSC70-interacting protein) is an essential activity regulating co-chaperone of HSP70 and HSP90 which provides a link between chaperone mediated protein-folding and various degradation pathways. Due to its decisive function, CHIP is involved in a wide array of cellular processes, especially in clearing misfolded HSP70 client proteins that are prone to aggregate. As a consequence, CHIP was reported to confer protection against many aggregation-induced pathologies of the neuronal system. Additionally, CHIP has been identified as a critical factor in various types of cancer and is implied to affect the development and the longevity of mammals.
Despite the significant progress in the understanding of CHIP’s structure and function, many aspects surrounding its chaperone dependency and its substrate recognition remain unclear. Moreover, due to the variety of substrates in diverse cellular pathways, there are yet many connections to elucidate between CHIP and components of the cellular proteostasis network.
The work of this thesis was focused on the role of CHIP in acute stress response and the corresponding status of chaperone association. Moreover, it was investigated if CHIP, as the connecting ligase of folding and degradation systems, might also provide a link between the PN and the reorganisation of the cellular architecture upon stress exposure.
This has become of increasing interest as recent reports highlight the importance of spatial sequestration in protein quality control.
To this end, subcellular distribution of CHIP was analysed by live-cell microscopy during heat stress. It became obvious that during the heat-induced challenge of the chaperone system, CHIP migrated to new cellular sites. Further experiments suggested that the observed migration to the plasma membrane is a chaperone-independent process and in vitro reconstitution of membrane association confirmed the competitive nature of membranes and chaperones for CHIP binding. A detailed in vivo and in vitro analysis of the newly observed membrane association of CHIP revealed a distinct lipid specificity and a novel direct association with lipids. Binding experiments with recombinantly purified deletion mutants of CHIP identified the TPR domain and a positive patch in the coiled-coil domain as main determinants for the lipid association. Through biochemical and biophysical approaches, the structural integrity and functionality of CHIP upon membrane binding was confirmed and further characterised.
Moreover, mass spectrometry analysis provided a high confidence identification of chaperone-free interactors of CHIP at the plasma membrane and other membranous compartments.
In accordance with the lipid specificity, the Golgi apparatus was one of these sites. Only chaperone-free CHIP had a significant effect on the morphology of the organelle, again confirming the competitive role of chaperones and lipids. With respect to the physiological consequences of the changed localisation of CHIP, preliminary results indicated increased cell death when the ligase localises to cellular membranes. The results lead to the conclusion that CHIP acts as an initiator of early stress adaptation and as a sensor for the severity and strength of the stress reaction.
Bei Autismus-Spektrum-Störungen (ASS) handelt es sich um genetisch komplexe Störungen mit hoher Erblichkeit. Als zugrundeliegender Pathomechanismus von ASS werden unter anderem Veränderungen der neuronalen Entwicklung diskutiert. Der Phänotyp von ASS ist definiert durch Einschränkungen in der sozialen Interaktion und Kommunikation sowie repetitives und stereotypes Verhalten. Genkopiepolymorphismen (englisch „copy number variations“/CNVs), also Deletionen oder Duplikationen einer chromosomalen Region, wurden wiederholt in Probanden mit ASS identifiziert. Hierbei ist in ASS die Region 16p11.2 mit am häufigsten von CNVs betroffen. Einige Gene aus diesem chromosomalen Abschnitt wurden bereits funktionell charakterisiert. Dennoch können die Befunde der bisherigen Einzelgenstudien nicht alle Aspekte erklären, die durch 16p11.2 CNVs hervorgerufen werden. Ziel dieser Studie war es daher, ein weiteres neuronal assoziiertes Kandidatengen dieser Region zu identifizieren und im Anschluss funktionell im Kontext der neuronalen Differenzierung zu charakterisieren.
Das SH-SY5Y Neuroblastom-Zellmodell wurde auf Transkriptom- und morphologischer Ebene auf seine Eignung als Modell für neuronale Differenzierung untersucht und bestätigt. Eine Analyse der Expressionen aller Gene der 16p11.2-Region zeigte, dass das Gen Quinolinat-Phosphoribosyltransferase (QPRT) eine vergleichsweise hohe Expression mit der stärksten und robustesten Regulierung über die Zeit aufwies. Eine de novo Deletion der 16p11.2-Region wurde in einem Patienten im Vergleich zu seinen Eltern validiert. In Patienten-spezifischen lymphoblastoiden Zelllinien derselben Familie konnten wir eine Gendosis-abhängige Expression von QPRT auf RNA-Ebene bestätigen. In SH-SY5Y-Zellen korrelierte die Expression von QPRT signifikant mit der Entwicklung von Neuriten während der Differenzierung. Um QPRT funktionell zu charakterisieren, benutzten wir drei verschiedene Methoden zur Reduktion der QPRT-Gendosis: (i) knock down (KD) durch siRNA, (ii) chemische Inhibition durch Phthalsäure und (iii) knock out (KO) über CRISPR/Cas9-Geneditierung. Eine Reduktion von QPRT durch siRNA führte zu einer schwachen Veränderung der neuronalen Morphologie differenzierter SH-SY5Y-Zellen. Die chemische Inhibition sowie der genetische KO von QPRT waren letal für differenzierende aber nicht für proliferierende Zellen. Eine Metabolitenanalyse zeigte keine Veränderungen des QPRT-assoziierten Tryptophanstoffwechsels. Gene, welche auf Transkriptomebene im Vergleich zwischen KO- und Kontrollzellen differenziell reguliert vorlagen, waren häufig an Prozessen der neuronalen Entwicklung sowie an der Bildung, Stabilität und Funktion synaptischer Strukturen beteiligt. Die Liste differenziell regulierter Gene enthielt außerdem überdurchschnittlich viele ASS-Risikogene und ko-regulierte Gengruppen waren assoziiert mit der Entwicklung des dorsolateralen präfrontalen Cortex, des Hippocampus sowie der Amygdala.
In dieser Studie zeigten wir einen kausalen Zusammenhang zwischen QPRT und der neuronalen Differenzierung in vitro sowie einen Einfluss von QPRT auf die Regulation von ASS-assoziierten Genen und Gen-Netzwerken. Funktionell standen diese Gene im Kontext mit synaptischen Vorgängen, welche durch Veränderungen zu einem Exzitations-Inhibitions-Ungleichgewicht und letztendlich zum Zelltod von Neuronen führen können. Unsere Ergebnisse heben in Summe die wichtige Rolle von QPRT in der Krankheitsentstehung von ASS, insbesondere in Trägern einer 16p11.2 Deletion, hervor.
This thesis presents the first measurement of the proton capture reaction on the isotope 124Xe performed in inverse kinematics. The experiment was carried out in June 2016 at the Experimental Storage Ring (ESR) at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, Germany.
124Xe is one of about 35 p-nuclei that cannot be produced via neutron-induced nucleo- synthesis as the vast majority of heavy elements. Its production and destruction provide important information about the nucleosynthesis of the p-nuclei. Measuring the 124Xe(p,g)125Cs reaction also gives strong constraints for its reverse 125Cs(g,p)124Xe reaction.
Fully stripped 124Xe ions repeatedly passed a H2 gas jet target at five different energies between 5.5 MeV/u and 8 MeV/u. An electron cooler compensated for the energy loss in the target and reduced the beam momentum spread. The reaction product 125Cs55+ has a smaller magnetic rigidity than 124Xe54+. Therefore 125Cs55+ was deflected towards smaller radii in the first dipole after the target area and thereby separated from 124Xe54+. It was detected with a position-sensitive Double-Sided Silicon Strip Detector (DSSSD). The novelty of this experiment was the installation of the DSSSD inside the ultra-high vacuum of the storage ring using a newly designed manipulator.
Three High-Purity Germanium X-ray detectors were used to measure the X-rays following the Radiative Electron Capture (REC) events into 124Xe53+. The REC cross sections are well-known and were used to determine the luminosity.
The 124Xe(p,g)125Cs cross sections at ion beam energies between 5.5 MeV/u and 8 MeV/u were determined relatively to the K-REC cross sections and finally compared to the theoretically predicted cross sections. While theoretical predictions of the TENDL database are lower than the measured ones by a factor of up to seven, the NON-SMOKER data are higher by a factor of up to two, except of the cross section at 7 MeV/u, where NON-SMOKER data are slightly lower than the experimental value.
For the first time, a proton capture cross section could be measured in inverse kinematics close to the astrophysically relevant Gamow window. This allows the direct determination of the (p,g) cross section of isotopes with half-lives down to several minutes, which is not possible with any other technique.
Die Sepsis ist mit einer hohen Letalität im Krankenhaus verbunden. Ein wesentlicher Auslöser der Sepsis ist das Endotoxin. Es führt zu Entzündungsreaktionen im Organismus mit Ausbildung eines septischen Schocks bis hin zum Multiorganversagen. Zudem führt es zu Veränderungen im Gerinnungssystem mit unterschiedlich schweren Ausprägungen. Das Endotoxin wird physiologisch im menschlichen Körper durch IgM neutralisiert. In dieser Studie wurde der Effekt von IgM angereichertem intravenösen Immunglobulin auf die Endotoxinaktivität untersucht. Zusätzlich wurden die Auswirkungen einer IgM-IVIg-Therapie auf Entzündungsparameter und auf viskoelastische und konventionelle Gerinnungsparameter betrachtet. Patienten mit schwerer Sepsis und septischem Schock auf einer anästhesiologisch-chirurgischen Intensivstation wurden rekrutiert. Nach dem Studieneinschluss von 15 Patienten erfolgte die Implementierung einer neuen SOP, in der die Anwendung von IgM-IVIg (5g/kg/d für 3 Tage) integriert wurde. Daraus bildeten sich eine Kontroll- und eine IgM-IVIg Gruppe. Der Beobachtungszeitraum umfasste 4 Tage. Es wurde der Endotoxin Activity Assay® (EAA®) zur Messung der Endotoxinaktivität an Vollblutproben durchgeführt. Die durchgeführte Rotationsthrombelastometrie ROTEM® diente neben der Messung der Gerinnungszeiten auch zur Erfassung der mechanischen und zeitlichen Stabilität eines Blutgerinnsels. Als Maß für die Aggregation von Thrombozyten diente die Impedanzaggregometrie Multiplate®. Die Routinelaborparameter wurden nach allgemeinem Standard erhoben. Eingeschlossen wurden die Daten von 26 Patienten. Die IgM-IVIg-Gruppe zeigte am ersten Tag, 6 und 12 Stunden nach Behandlungsbeginn, eine Reduktion der Endotoxinaktivität (0,51±0,06 vs. 0,26±0,07, p<0,05) und unterschied sich signifikant im Vergleich zur Kontrollgruppe 6 Stunden nach Behandlungsbeginn (0,26±0,07 vs. 0,43±0,07, p<0,05). Die Thrombozytenzahl war signifikant höher in der IgM-IVIg- Gruppe im Beobachtungszeitraum (200/nl±43 vs. 87/nl±20, p<0,05). Die Fibrinogenkonzentration war in der Kontrollgruppe am zweiten (311mg/dl±37 vs. 475mg/dl±47 (p=0,015)) und am vierten Tag (307mg/dl±35 vs. 420mg/dl±16 (p=0,017)) signifikant niedriger. Es konnten keine Unterschiede in den thromboelastometrischen oder aggregometrischen Untersuchungen, oder bei den Entzündungsparametern beobachtet werden. Die präsentierten Ergebnisse müssen aufgrund der geringen Stichprobengröße sorgsam interpretiert werden. Dennoch könnten die Ergebnisse die Basis für weitere Studien in der Zukunft sein, die auf IgM-IVIg als eine therapeutische Option bei Patienten mit einer hohen Endotoxinaktivität abzielen. In der vorliegenden Studie fanden wir Hinweise, dass eine IgM-IVIg-Therapie bei Patienten mit schwerer Sepsis und septischem Schock die Endotoxinaktivität vermindert. Zudem scheint IgM-IVIg bei o.g. Patienten eine pathognomonische Thrombozytopenie positiv zu modelieren.
Zur Behandlung von chronisch entzündlichen Erkrankungen besteht nach wie vor ein dringendes medizinisches Bedürfnis, da die bisher eingesetzten Medikamente gerade in der Langzeittherapie zu schwerwiegenden Nebenwirkungen führen können. Um chronisch entzündliche Erkrankungen in Zukunft adäquat therapieren zu können, sind bereits verschiedene neuartige Ansätze in klinischer bzw. präklinischer Entwicklung. Ein möglicher Ansatz besteht in einer dualen Hemmung der mikrosomalen Prostaglandin E2 Synthase-1 (mPGES-1) und der 5-Lipoxygenase (5-LO). Im Rahmen dieser Arbeit wurden die Struktur-Wirkungs-Beziehungen (SAR) von zwei verschiedenen Leitstrukturen an der 5 LO und der mPGES 1 untersucht. Die erste Leitstruktur entstammt aus den Arbeiten von Waltenberger et al. und besitzt im Grundgerüst eine Sulfonamidstruktur. In dieser Arbeit ist es gelungen, durch eine gezielte Untersuchung der Struktur-Wirkungsbeziehungen, die Leitstruktur I an der 5 LO und der mPGES-1 in ihrer Potenz zu optimieren. Die Leitstruktur (IC50: 5-LO (zellfrei) = 5.7 µM, IC50: 5 LO (PMNL) = 3.7 µM, IC50: mPGES-1 = 4.5 µM) konnte durch Variation in allen drei Positionen modifiziert werden, so dass die optimierte Struktur 170 (IC50: 5-LO (zellfrei) = 2.3 µM, IC50: 5-LO (PMNL) = 0.4 µM, IC50: mPGES-1 = 0.7 µM) entstanden ist. Für die Verbindung 170 wurden die pharmakokinetischen Eigenschaften, wie Löslichkeit und metabolische Stabilität, sowie der Wirkmechanismus auf molekularer Ebene bestimmt. Ebenso konnte für Verbindung 170 auch in vivo anti-entzündliche Eigenschaften festgestellt werden.
Die zweite Leitstruktur stammt ebenfalls aus den Arbeiten von Waltenberger et al. und besitzt im Grundgerüst eine Mercaptobenzothiazol-Grundstruktur. Aufgrund der Ähnlichkeit zu den bekannten Pirinixinsäurederivaten wurde auch hier für die Untersuchung der Struktur-Wirkungs-Beziehungen zunächst eine Kettenverlängerung an der Alkylkette vorgenommen. Es ließ sich auch hier durch eine gezielte SAR, die Leitstruktur bis hin zum submikromolaren Bereich in Verbindung 219 optimieren. Gleichzeitig ist es gelungen in Verbindung 219 einer der am potentesten dual ausgeglichensten dualen 5 LO/mPGES-1 Inhibitoren zu identifizieren.
Zusammenfassend lässt sich sagen, dass in dieser Arbeit es gelungen ist durch gezielte Untersuchungen der Struktur-Wirkungs-Beziehungen zwei verschiedene Substanzklassen zu dualen 5-LO/mPGES-1 Inhibitoren zu optimieren. Ebenso konnte für Substanz 170 auch in vivo anti-entzündliche Eigenschaften festgestellt werden. Diese Arbeit soll dazu beitragen, das therapeutische Potential von dualen 5-LO/mPGES-1 Inhibitoren als anti-entzündliche Wirkstoffe in Zukunft besser einschätzen zu können.
The results of this thesis lie in the area of convex algebraic geometry, which is the intersection of real algebraic geometry, convex geometry, and optimization.
We study sums of nonnegative circuit polynomials (SONC) and their related cone, both geometrically and in application to polynomial optimization. SONC polynomials are certain sparse polynomials having a special structure in terms of their Newton polytopes and supports, and serve as a certificate of nonnegativity for real polynomials, which is independent of sums of squares.
The first part of this thesis is dedicated to the convex geometric study of the SONC cone. As main results we show that the SONC cone is full-dimensional in the cone of nonnegative polynomials, we exactly determine the number of zeros of a nonnegative circuit polynomial, and we give a complete and explicit characterization of the number of zeros of SONC polynomials and forms. Moreover, we provide a first approach to the study of the exposed faces of the SONC cone and their dimensions.
In the second part of the thesis we use SONC polynomials to tackle constrained polynomial optimization problems (CPOPs).
As a first step, we derive a lower bound for the optimal value of CPOP based on SONC polynomials by using a single convex optimization program, which is a geometric program (GP) under certain assumptions. GPs are a special type of convex optimization problems and can be solved in polynomial time. We test the new method experimentally and provide examples comparing our new SONC/GP approach with Lasserre's relaxation, a common approach for tackling CPOPs, which approximates nonnegative polynomials via sums of squares and semidefinite programming (SDP). The new approach comes with the benefit that in practice GPs can be solved significantly faster than SDPs. Furthermore, increasing the degree of a given problem has almost no effect on the runtime of the new program, which is in sharp contrast to SDPs.
As a second step, we establish a hierarchy of efficiently computable lower bounds converging to the optimal value of CPOP based on SONC polynomials. For a given degree each bound is computable by a relative entropy program. This program is also a convex optimization program, which is more general than a geometric program, but still efficiently solvable via interior point methods.
Structured illumination microscopy (SIM) is part of the super-resolution methods developed at the beginning of this century. To produce a super-resolution image SIM requires three things: 1) illumination of the sample with a periodic pattern, 2) acquisition of multiple images per plane under different pattern’s phases and orientations and 3) the processing of these images has to be carried with a reconstruction algorithm. The result of the reconstruction is an image with a resolution gain that is proportional to the frequency of the pattern (po). The typical SIM set-up uses an epi-fluorescence configuration, thus the interference angle of the beams that create the pattern is restricted by the angular aperture of the objective. Under this restriction the maximum value of po is given by the cut-off frequency of the objective lens and sets at 2 the maximum resolution gain of SIM under linear illumination.
In the first part of this thesis we present the implementation and characterization of the 2D-SIM set-up designed by Dr. Bo-Jui Chang (B-J. Chang et al., PNAS 2017), this design exploits the concept introduced by light-sheet microscopy, i.e. separation of illumination and detection paths to obtain resolution gains larger than the usual two-fold (Chapter 3). The set-up is named coherent structured illumination light-sheet based fluorescence microscopy (csiLSFM) and it consists of a triangular array of three objectives, such that two are used for illumination and one for detection. With the independent illumination arms is possible to interfere two coherent light-sheets at angles beyond the angular aperture of the detection lens, attaining the maximum interference angle of 180° when the light-sheets counter-propagate. This condition delivers a pattern with a po 1.4 times larger than the cut-off frequency (ωo), hence our set-up provides generic resolution gains of 2.4.
The extraction of the high spatial frequencies that produce the resolution gain in the csiLSFM is a challenge due to a low pattern modulation. The low modulation inherently arises because the frequency associated to the pattern period lies beyond the cut-off frequency of the detection lens. To overcome this challenge we developed a filtering strategy that facilitates the withdrawal of information from a SIM data set, simultaneously the proposed filtering process optimizes the reconstruction algorithm by reducing the periodic artifacts that are recurrent in SIM images. In this same chapter we also performed an spectral analysis of the artifacts and determined that they originate from irregularities in the power spectrum that occur due to the partial or total lack of certain spatial frequencies (fig.4.2 and 4.3), our reconstruction reduces this information drops and diminishes the artifact occurrence. The relevance of our reconstruction pipeline is that it delivers a standardized process to enhance the SIM image in a current context in which the commonly used reconstruction algorithms employ empirical tuning to improve it (fig.4.13). Moreover, the pipeline is applicable to the csiLSFM data and also to images acquired with any other 2D-/3D-SIM set-up (fig.4.10 and 4.11).
The processing of various image data sets acquired with the csiLSFM exposed us to the question of how low the modulation of the illumination pattern can be before no super-resolution frequencies can be extracted. Answering this question is important to guarantee that the SIM data contains enough spatial frequencies to provide significant resolution gains. Thus in chapter 5 we developed a quantitative metric to indirectly determine the pattern modulation from the SIM data and find its critical value to use it as evaluation criterion. We called this metric the quality factor (Q-factor) and it represents the normalized strength (amplitude) of the extracted frequencies respect to the Gaussian noise contained in the images. Through simulations we estimated that Q=0.11 is a critical value and a SIM data set requires this as minimum value is to deliver a significant resolution gain. Q works then as an assessment tool for classifying SIM data as optimal or sub-optimal, i.e. Q≥0.11 or Q<0.11. We demonstrated such application with data acquired in various SIM commercial set-ups to prove its feasibility in the field (fig.5.6-5.11)
As mentioned at the beginning of this abstract SIM requires a specialized set-up and a processing algorithm to produce super-resolution images. This thesis contributes to these two areas in the following aspects: first, in its linear version a structured illumination microscope is highly associated to a 2-fold resolution gain. Here we demonstrated the possibility of extending this gain to 2.4 using our custom set-up the csiLSFM. Second, a reconstructed SIM image is prone to artifacts due to the mathematical process it undergoes, here we analyzed the artifact sources and identified them with drops of spatial information in the reconstructed spectrum, based on these conclusions we designed a processing pipeline to facilitate the extraction of spatial frequencies and directly reduce artifacts. A third and final outcome of this thesis is the development and practical implementation of a quantitative index to evaluate the quality of SIM data in terms of its relevant information content (Q-factor). Accordingly, the overall contributions of this work were done in the areas of SIM set-up, SIM reconstruction procedure and SIM data evaluation.
Die Tumorprotein-Familie des Proteins p53 besteht aus drei Familienmitgliedern p53, p63 und p73 mit diversen Funktionen als Transkriptionsfaktoren. p53 war das erste Mitglied dieser Familie, das im Jahre 1979 entdeckt wurde und wurde zunächst als krebsverursachendes Protein eingeordnet, weil es in vielen Tumorgeweben in erhöhter Menge vorgefunden wurde. Es wurde allerdings festgestellt, dass der Großteil dieser gefundenen p53-Proteine funktionsunfähig durch Mutationen in ihrer Aminosäuresequenz waren. Unmutiertes p53 hingegen führt zu einem Stopp von Zellteilung oder sogar Zelltod, sofern die Zellen genetischem Stress durch Strahlung oder mutagene Chemikalien ausgesetzt sind. Heute wird p53 als eines der wichtigsten Tumor-Unterdrückungsproteine betrachtet. Die beiden anderen Familienmitglieder p63 und p73 existieren in einer Vielzahl von Isoformen. Neben carboxyterminaler alternativer mRNA-Prozessierung (α, β, γ, usw. Isoformen) führen zwei unabhängige Promotoren auch zu zwei unterschiedlichen Aminotermini. Hier wird zwischen ΔN- und TA-Isoformen unterschieden. Im Falle von p63 treten zwei dominante Isoformen auf, ΔNp63α und TAp63α. Während ΔNp63α eine Rolle in der Differenzierung von Haut spielt, wurde TAp63α bisher ausschließlich in Eizellen gefunden. Dort hat es die Funktion eines Sensors, der die genetische Integrität der weiblichen Keimbahn sicherstellt. Es liegt in Eizellen in hoher Konzentration vor, allerdings in einer komplett inaktiven Form. Werden Schäden im der Erbgut der Eizelle festgestellt, so wird das Protein aktiviert und kann so den Prozess des Zelltods der Eizelle einleiten. Mutationen oder das Fehlen des p63-Genes führen zu Missbildungen während der Entwicklung und zu unvollständig ausgebildeter Haut. Im Falle von p73 gibt es ebenfalls mehrere Isoformen, wobei die Funktionen und Relevanzen der einzelnen Isoformen bisher nicht komplett geklärt werden konnten. Eine p73-negative Maus hat einen diffusen Phänotyp, der sich durch niedrige Intelligenz, fast sterile Männchen und chronische bronchiale Infektion auszeichnet. Generell sind alle Mitglieder der p53-Familie tetramere Proteine und sind nur in diesem Zustand auch aktiv. Die einzige Ausnahme stellt, wie oben beschrieben, TAp63α dar, das in einem inaktiven dimeren Zustand vorliegt und nur durch Modifikation durch zwei unabhängige Kinasen aktiviert werden kann. Dabei geht es in den tetrameren Zustand über und ist daraufhin aktiv.
Alle drei Proteine haben (anhand ihrer längsten Isoform beschrieben) eine konservierte Domänenstruktur. Am Aminoterminus befindet sich zunächst die transaktivierende-Domäne (TAD), die für Interaktionen mit transkriptionellen Koaktivatioren relevant ist. Danach folgt die stark konservierte Desoxyribonukleinsäure (DNA) bindende Domäne (DBD). Sie stellt sicher, dass der Transkriptionsfaktor sequenzspezifisch an der richtigen Stelle auf die DNA bindet. Weitergehend folgt die Tetramerisierungsdomäne (TD), welche den oligomeren Zustand des Proteins herstellt. Im Falle von p53 endet das Protein an dieser Stelle, bei p63 und p73 folgen noch das Sterile-Alpha-Motiv (SAM) und die Transkription-inhibierende Domäne (TID). Die SAM Domäne wird generell als Interaktionsdomäne beschrieben, es konnte allerdings bis dato kein Interaktionspartner gefunden werden. Die TID hat einen negativen Einfluss auf die transkriptionelle Aktivität der Proteine. Im Falle von TAp63α interagiert sie zusätzlich mit der TAD um den Dimeren Zustand zu stabilisieren.
Histon Acetylasen
Die Acetylierung von Histonen ist neben deren Methylierung die wichtigste Modifikation. Sie ist essenziell für die Transkription innerhalb aller eukaryontischen Lebewesen, da sie durch die Modifikation von Histonen die DNA für die DNA-Polymerase II zugänglich macht. Es gibt insgesamt fünf verschiedene, nicht näher miteinander verwandte Familien von Histonacetylasen. Diese Studie beschäftigt sich ausschließlich mit der KAT3 Familie, bestehend aus den Proteinen p300 und CBP. Beide sind hochgradig konserviert, in gefalteten Bereichen der Proteine erreicht die Sequenzidentität fast 100%. Beide Proteine scheinen sehr ähnliche Aufgaben zu erfüllen, die jedoch nicht komplett identisch sind. Die Fehlfunktion von einem Allel von CBP führt zum Krankheitsbild des Rubinstein-Taybi-Syndrom (RTS), während ein Mangel an p300 sich in Mäusen auf das Gedächtnis auswirkt. Der komplette Verlust beider Allele eines der Proteine ist immer tödlich, genauso wie auch Verlust jeweils eines Allels bei beiden Proteinen. Insgesamt vier unabhängige Domänen in p300/CBP sind in der Lange die transaktivierende Domänen der p53-Familie zu binden. Bei zwei der Domänen handelt es sich um Zinkfinger-Proteine (Taz1 und Taz2), die anderen beiden sind kleine, ausschließlich α-helikale Domänen (Kix und IBiD).
Diese Studie beschäftigt sich mit der Lösung von Strukturen von der transaktivierenden Domäne von p63 und p73 mit der p300-Domäne Taz2. Außerdem wurden die Auswirkungen von direkten Acetylierungen von TAp63α charakterisiert und der Effekt von einem potenten p300/CBP Inhibitor auf Oozyten unter genotoxischem Stress analysiert. Zusätzlich wurde die Phosphorylierungskinetiken von Tap63α wärend der Aktivierung durch Kinasen untersucht.
...
The endoplasmic-reticulum-associated protein degradation pathway ensures quality control of newly synthesized soluble and membrane proteins of the secretory pathway. Proteins failing to fold into their native structure are processed in a multistep process and finally ubiquitinated and degraded by the proteasome in order to protect the cell from proteotoxic stress. My thesis covers structural as well as functional studies of various protein components that constitute the protein complexes that are responsible for this process.
One sub-project addressed the mechanism of glycan recognition by Yos9 as part of the ERAD substrate selection. NMR solution structures of the mannose-6-phosphate homology (MRH) domain of Yos9 both in a free and glycan bound conformation reveal a gripping movement of loop regions upon binding of correctly processed glycan structures.
The main projects focused on revealing the mechanism of efficient ubiquitin chain assembly by the ERAD ubiquitination machinery. This included the investigation of the role of the ERAD components Cue1 and Ubc7 in processive ubiquitin chain formation, how ubiquitin chain conformations change during elongation, how the conformation of a chain is impacted by interacting proteins and finally understand the activity regulation of the ERAD E2 enzyme Ubc7 by its cognate RING E3 ligases. Nuclear magnetic resonance (NMR) analysis and fluorescence-based ubiquitination assays show that the CUE domain of Cue1 contributes with its proximal binding preference as well as with its position dependent accelerating effect to efficient ubiquitin chain formation. This is required to efficiently drive degradation of substrates. Specific ubiquitin binding events dictate and coordinate the spatial arrangement of the E2 enzyme relative to the distal tip of a chain. This process can be further accelerated by RING E3 ligases that promote Ubc7 activity by more than ~20 fold via inducing allosteric changes around the catalytic cysteine. My results additionally suggest a model where Ubc7 dimerization results in proximity induced activation of the E2. This data ensures rapid diubiquitin formation that is followed by a CUE domain assisted chain elongation mechanism where Cue1 acts in an E4 like fashion.
How ubiquitin binding events can modulate the conformations of a ubiquitin chain were investigated by pulsed electron-electron double resonance (PELDOR) spectroscopy combined with molecular modeling. This shows that K48-linked diubiquitin samples a broad conformational space which can be modulated in distinct ways. The CUE domain of Cue1 uses conformational selection of pre-populated open conformations to support ubiquitin chain elongation. In contrast, deubiquitinating enzymes shift the conformational distribution to weakly or even non-populated conformations to allow cleavage of the isopeptide bond that connects adjacent ubiquitins. Ubiquitin chain elongation increases the sampled conformational space and suggests that this high conformational flexibility might contribute to efficient proteasomal recognition.
NADH:ubiquinone oxidoreductase (Complex Ⅰ) is the first and largest enzyme in the respiratory chain. It catalyzes the transfer of two electrons from NADH to ubiquinone via a series of enzyme-bound redox centers - Flavin mononucleotide (FMN) and iron-sulfur (Fe-S) clusters – and couples the exergonic reaction with the endergonic translocation of four protons across the membranes. Bacteria contain the minimal form of complex I, which is composed of 14 conserved core subunits with a molecular mass of around 550 kDa. Complex Ⅰ has an L-shaped structure which can be subdivided into two major parts (arms). The hydrophilic arm protruding into the bacterial cytosol (or mitochondrial matrix) harbors the binding site for the substrate NADH, the two- to one-electron switch FMN and all one-electron transferring Fe-S clusters and therefore considered as the catalytic unit. The membrane arm consists of the membranespanning subunits and conducts the proton pumping process. The Quinone binding site is located at the interface of both arms. ...
The focus of this thesis is the integral membrane protein Escherichia coli diacylglycerol kinase (DGK). It is located within the inner membrane, where it catalyzes the ATP-dependent phosphorylation of diacylglycerol (DAG) to phosphatic acid (PA). DGK is a unique enzyme, which does not share any sequence homology with typical kinases. In spite of its small size, it exhibits a notable complexity in structure and function. The aim of this thesis is the investigation of DGK’s structure and function at an atomic level directly within the native-like lipid bilayer using MAS NMR. This way, a deeper understanding of DGK’s catalytic mechanism should be obtained.
First, the preparation of DGK was optimized, leading to a sample, which provides well-resolved MAS NMR spectra. The high quality MAS NMR spectra formed the foundation for the second step, the resonance assignment of DGK’s backbone and side chains. The assignment was performed at high magnetic field (1H frequency 850 MHz). The sequential assignment of immobile domains was carried out using dipolar coupling based 3D experiments, NCACX, NCOCX and CONCA. The measurement time could be reduced by paramagnetic doping with Gd3+-DOTA in combination with an E-free probehead. The sequential assignment was mainly performed using a uniformly labelled sample (U-13C,15N-DGK). Residual ambiguities could be resolved by reverse labelling (U-13C,15N-DGK-I,L,V). Resonances could be assigned for 82% of the residues, from which 74% were completely assigned. For validation, ssFLYA was applied, which is a generally applicable algorithm for the automatic assignment of protein solid state NMR spectra. Its principal applicability for demanding systems as membrane proteins could be proven for the first time. Overall, ~90% of the manually obtained assignments could be confirmed by ssFLYA. For the completion of DGK’s assignment, J-coupling based 2D experiments, 1H-13C/15N HETCOR and 13C-13C TOBSY, were carried out to detect highly mobile residues. This way, residues of the two termini and the cytosolic loop, which were not detectable by dipolar coupling based experiments, could be assigned tentatively. Whereupon, peaks for arginine and lysine were assigned unambiguously to Arg9 and Lys12. Overall, ~84% of the residues could be assigned by the applied NMR strategy. Furthermore, a secondary structure analysis was carried out. It showed substantial similarities between wild-type DGK, its thermostable mutant determined both by MAS NMR and the crystal structure of wtDGK. However, there are few differences around the flexible regions most likely caused by the high mobility of these regions. During the assignment procedure, no systematic peak doublets or triplets were detected, indicating that the DGK trimer adopts a symmetric conformation. This is in contrast to the X-ray structure, which shows asymmetries between the three subunits. Especially, crystal packing may be a potential source for these structural asymmetries.
On the basis of the nearly complete assignment of DGK, the apo state was compared with the substrate bound states. Perturbations in peak position and intensity of the substrate bound states were analysed for all assigned residues in 3D and 2D spectra. The nucleotide-bound state was emulated by adenylylmethylenediphosphonate (AMP-PCP), a non-hydrolysable ATP analogue, whereas the DAG-bound state was mimicked by 1,2-dioctanoyl-sn-glycerol (DOG, chain length n = 8). Upon nucleotide binding, extensive chemical shift perturbations could be observed. These data provide evidence for a symmetric DGK trimer with all of its three active sites concurrently occupied. Additionally, it could be demonstrated that the nucleotide substrate induces a substantial conformational change. This most likely supports the enzyme in binding of the lipid substrate, indicating positive heteroallostery. In contrast, the overall alterations caused by DOG are very minor. They involve mainly changes in peak intensities. For DGK bound with either AMP-PCP+DOG or only AMP-PCP, a similar spectral fingerprint was observed. This implies that binding of the nucleotide seems to set the enzyme into a catalytic active state, triggering the actual phosphoryl transfer reaction.
The investigation of DGK’s remarkable stability and the cross-talk between its subunits forms the last part of this thesis. This demands for the identification of key intra- and interprotomer contacts, which are of structural or functional importance. For this purpose, 13C-13C DARR and 2D NCOCX spectra with long mixing times were recorded using high field MAS NMR. Additionally, DNP-enhanced 13C−15N TEDOR experiments were conducted on mixed labelled DGK trimers to enable the visualization of interprotomer contacts. With the applied NMR strategy, intra- (Arg32 - Trp25/ Glu28/ Ala29 and Trp112 - Ser61) and interprotomer (ArgNn,e - AspCg/ GluCd/ AsnCg) long-range interactions could be identified.
Strong convergence rates for numerical approximations of stochastic partial differential equations
(2018)
In this thesis and in the research articles which this thesis consists of, respectively, we focus on strong convergence rates for numerical approximations of stochastic partial differential equations (SPDEs). In Part I of this thesis, i.e., Chapter 2 and Chapter 3, we study higher order numerical schemes for SPDEs with multiplicative trace class noise based on suitable Taylor expansions of the Lipschitz continuous coefficients of the SPDEs under consideration. More precisely, Chapter 2 proves strong convergence rates for a linear implicit Euler-Milstein scheme for SPDEs and is based on an unpublished manuscript written by the author of this thesis. This chapter extends an earlier result1 by slightly lowering the assumptions posed on the diffusion coefficient and a different approximation of the semigroup. In Chapter 3 we introduce an exponential Wagner-Platen type numerical scheme for SPDEs and prove that this numerical approximation method converges in the strong sense with oder up to 3/2−. Moreover, we illustrate how the (mixed) iterated stochastic-deterministic integrals, that are part of our numerical scheme, can be simulated exactly under suitable assumptions.
The second part of this thesis, i.e. Chapter 4 and Chapter 5, is devoted to strong convergence rates for numerical approximations of SPDEs with superlinearly growing nonlinearities driven by additive space-time white noise. More specifically, in Chapter 4, we prove strong convergence with rate in the time variable for a class of nonlinearity-truncated numerical approximation schemes for SPDEs and provide examples that fit into our abstract setting like stochastic Allen-Cahn equations. Finally, in Chapter 5, we extend this result with spatial approximations and establish strong convergence rates for a class of full-discrete nonlinearity truncated numerical approximation schemes for SPDEs. Moreover, we apply our strong convergence result to stochastic Allen-Cahn equations and provide lower and upper bounds which show that our strong convergence result can, in general, not essentially be improved.
The thesis deals with the analysis and modeling of point processes emerging from different experiments in neuroscience. In particular, the description and detection of different types of variability changes in point processes is of interest.
A non-stationary rate or variance of life times is a well-known problem in the description of point processes like neuronal spike trains and can affect the results of further analyses requiring stationarity. Moreover, non-stationary parameters might also contain important information themselves. The goal of the first part of the thesis is the (further) development of a technique to detect both rate and variance changes that may occur in multiple time scales separately or simultaneously. A two-step procedure building on the multiple filter test (Messer et al., 2014) is used that first tests the null hypothesis of rate homogeneity allowing for an inhomogeneous variance and that estimates change points in the rate if the null hypothesis is rejected. In the second step, the null hypothesis of variance homogeneity is tested and variance change points are estimated. Rate change points are used as input. The main idea is the comparison of estimated variances in adjacent windows of different sizes sliding over the process. To determine the rejection threshold functionals of the Brownian motion are identified as limit processes under the null of variance homogeneity. The non-parametric procedure is not restricted to the case of at most one change point. It is shown in simulation studies that the corresponding test keeps the asymptotic significance level for a wide range of parameters and that the test power is remarkable. The practical applicability of the procedure is underlined by the analysis of neuronal spike trains.
Point processes resulting from experiments on bistable perception are analyzed in the second part of the thesis. Visual illusions allowing for than more possible perception lead to unpredictable changes of perception. In the thesis data from (Schmack et al., 2015) are used. A rotating sphere with switching perceived rotation direction was presented to the participants of the study. The stimulus was presented continuously and intermittently, i.e., with short periods of „blank display“ between the presentation periods. There are remarkable differences in the response patterns between the two types of presentation. During continuous presentation the distribution of dominance times, i.e., the intervals of constant perception, is a right-skewed and unimodal distribution with a mean of about five seconds. In contrast, during intermittent presentation one observes very long, stable dominance times of more than one minute interchanging with very short, unstable dominance times of less than five seconds, i.e., an increase of variability.
The main goal of the second part is to develop a model for the response patterns to bistable perception that builds a bridge between empirical data analysis and mechanistic modeling. Thus, the model should be able to describe both the response patterns to continuous presentation and to intermittent presentation. Moreover, the model should be fittable to typically short experimental data, and the model should allow for neuronal correlates. Current approaches often use detailed assumptions and large parameter sets, which complicate parameter estimation.
First, a Hidden Markov Model is applied. Second, to allow for neuronal correlates, a Hierarchical Brownian Model (HBM) is introduced, where perception is modeled by the competition of two neuronal populations. The activity difference between these two populations is described by a Brownian motion with drift fluctuating between two borders, where each first hitting time causes a perceptual change. To model the response patterns to intermittent presentation a second layer with competing neuronal populations (coding a stable and an unstable state) is assumed. Again, the data are described very well, and the hypothesis that the relative time in the stable state is identical in a group of patients with schizophrenia and a control group is rejected. To sum up, the HBM intends to link empirical data analysis and mechanistic modeling and provides interesting new hypotheses on potential neuronal mechanisms of cognitive phenomena.
Powerful environment perception systems are a fundamental prerequisite for the successful deployment of intelligent vehicles, from advanced driver assistance systems to self-driving cars. Arguably the most essential task of such systems is the reliable detection and localization of obstacles in order to avoid collisions. Two particularly challenging scenarios in this context are represented by small, unexpected obstacles on the road ahead, and by potentially dynamic objects observed from a large distance. Both scenarios become exceedingly critical when the ego-vehicle is traveling at high speed. As a consequence, two major requirements placed on environment perception systems are the capability of (a) high-sensitivity generic object detection and (b) high-accuracy obstacle distance estimation. The present thesis addresses both requirements by proposing novel approaches based on stereo vision for spatial perception.
First, this work presents a novel method for the detection of small, generic obstacles and objects at long range directly from stereo imagery. The detection is based on sound statistical tests using local geometric criteria which are applicable to both static and moving objects. The approach is not limited to predefined sets of semantic object classes and does not rely on restrictive assumptions on the environment, such as oversimplified global ground surface models. Free-space and obstacle hypotheses are evaluated based on a statistical model of the input image data in order to avoid a loss of sensitivity through intermediate processing steps. In addition to the detection result, the algorithm simultaneously yields refined estimates of object distances, originating from an implicit optimization of the geometric obstacle hypothesis models. The proposed detection system provides multiple flexible output representations, ranging from 3D obstacle point clouds to compact mid-level obstacle segments to bounding box representations of object instances suitable for model-based tracking. The core algorithm concept lends itself to massive parallelization and can be implemented efficiently on dedicated hardware. Real-time execution is demonstrated on a test vehicle in real-world traffic. For a thorough quantitative evaluation of the detection performance, two dedicated datasets are employed, covering small and hard-to-detect obstacles in urban environments as well as distant dynamic objects in highway driving scenarios. The proposed system is shown to significantly outperform current general purpose obstacle detection approaches in both setups, providing a considerable increase in detection range while reducing the false positive rate at the same time.
Second, this work considers the high-accuracy estimation of object distances from stereo vision, particularly at long range. Several new methods for optimizing the stereo-based distance estimates of detected objects are proposed and compared to state-of-the-art concepts. A comprehensive statistical evaluation is performed on an extensive dedicated dataset, establishing reference values for the accuracy limits actually achievable in practice. Notably, the refined distance estimates implicitly provided by the proposed obstacle detection system are shown to yield highly accurate results, on par with the top-performing dedicated stereo matching algorithms considered in the analysis.
In this thesis we introduce the imaginary projection of (multivariate) polynomials as the projection of their variety onto its imaginary part, I(f) = { Im(z_1, ... , z_n) : f(z_1, ... , z_n) = 0 }. This induces a geometric viewpoint to stability, since a polynomial f is stable if and only if its imaginary projection does not intersect the positive orthant. Accordingly, the thesis is mainly motivated by the theory of stable polynomials.
Interested in the number and structure of components of the complement of imaginary projections, we show as a key result that there are only finitely many components which are all convex. This offers a connection to the theory of amoebas and coamoebas as well as to the theory of hyperbolic polynomials.
For hyperbolic polynomials, we show that hyperbolicity cones coincide with components of the complement of imaginary projections, which provides a strong structural relationship between these two sets. Based on this, we prove a tight upper bound for the number of hyperbolicity cones and, respectively, for the number of components of the complement in the case of homogeneous polynomials. Beside this, we investigate various aspects of imaginary projections and compute imaginary projections of several classes explicitly.
Finally, we initiate the study of a conic generalization of stability by considering polynomials whose roots have no imaginary part in the interior of a given real, n-dimensional, proper cone K. This appears to be very natural, since many statements known for univariate and multivariate stable polynomials can be transferred to the conic situation, like the Hermite-Biehler Theorem and the Hermite-Kakeya-Obreschkoff Theorem. When considering K to be the cone of positive semidefinite matrices, we prove a criterion for conic stability of determinantal polynomials.
Trotz aller Unsicherheit und kritischer Infragestellung sind Kunstlandschaftsbezeichnungen – und damit auch der „Mittelrhein“ – als Hilfsbegriffe für die Lokalisierung der Kunstwerke noch immer gebräuchlich. Aber es ist ganz besonders problematisch, vom Mittelrhein um 1500 als „Kunstlandschaft“ zu sprechen. Schon die Umgrenzung der Region fällt unterschiedlich aus, und noch mehr sind die Kriterien schwankend, die im Vergleich zu anderen Regionen den Mittelrhein definieren sollen. Vorherrschend sind bei solchen Vergleichen nach wie vor Stilbegriffe, welche Vorbehalte gegenüber dem Begriff des Stils auch geäußert werden. So ist die Frage, ob die für den Mittelrhein vorgeschlagene Kennzeichnung „Stilheterogenität“ als Kriterium der Abgrenzung tauglich ist oder mehr eine methodische Verlegenheitslösung darstellt.
Die Untersuchung konzentriert sich auf das Schnitzretabel, das als Leitmedium der spätgotischen Kunst im deutschsprachigen Raum zu betrachten ist. Die analysierten Schnitzretabel sind als Fallstudien anzusehen, wobei hier vor allem jene analysiert worden sind, die einen guten Erhaltungszustand aufweisen. Zwar haben die wenigsten ihr ursprüngliches Aussehen bewahrt, aber entweder sind die Veränderungen nur minimal oder der originale Zustand ist gut rekonstruierbar, sodass die Werkgruppe trotz der Eingriffe als repräsentativ gelten kann. Neben den traditionellen Untersuchungsmethoden konnte die Infrarotreflektographie mit beweglicher Kamera (Osiris) eingesetzt werden. Es soll mit der Vorstellung einer Gattung ein Ausschnitt der in der Region präsenten Kunst ohne „mittelrheinische Vorentscheidungen“ gezeigt werden.
Die meisten analysierten Retabel entstammen der Rhein-Main-Region mit Frankfurt und Mainz als Oberzentren des Mittelrheins; Oberwesel, Speyer und Gelnhausen markieren die Grenze für die Auswahl. Die 27 Einzeluntersuchungen finden sich im Katalogteil der Arbeit, während deren zusammenfassende Darstellung – im Hinblick auf Methode, Standort, Auftraggeber, Künstler, Retabeltyp, Bildprogramm sowie Einflüsse – sowie Ergebnisse im Hauptteil besprochen werden.
Ziel der Arbeit ist es, den frühen Zweitspracherwerb bei Kinder mit einer Spezifischen Sprachentwicklungsstörung (specific language impairment, SLI) zu charakterisieren. Im Vergleich zwischen sprachunauffälligen Kindern mit Deutsch als Zweitsprache (DaZ-TD) und und sprachauffälligen Kindern (DaZ-SLI) wird für die morpho-syntaktischen Bereiche Finitheit und Verbstellung sowie Kasus untersucht, anhand welcher Entwicklungsmuster sich zwischen einem unauffälligen und einem auffälligen DaZ-Erwerb unterscheiden lässt. Dabei werden die folgenden übergeordneten Fragen (F) beantwortet. (F1) Gibt es Unterschiede in Bezug auf Fehlerarten und -häufigkeiten zwischen DaZ-TD und DaZ-SLI Kindern? (F2) Gibt es persistierende Defizite bei DaZ-SLI Kindern verglichen mit DaZ-TD Kindern?
Untersucht wurden über einen Zeitraum von zwei Jahren 33 DaZ-Kinder, elf davon mit einer SLI. Zu Beginn der Erhebungen waren die DaZ-TD Kinder im Durchschnitt 3;8 Jahre alt und hatten 11 KM zum Deutschen. Die DaZ-SLI waren zu MZP 1 durchschnittlich 7;1 Jahre alt (45 KM). Zu insgesamt vier MZP wurden elizitierte Produktionsdaten mittels des standardisierten Verfahrens LiSe-DaZ (Schulz & Tracy 2011) erhoben. Sowohl die Methode der elizitierten Produktion als auch die längsschnittlichen Analysen einer großen Gruppe von Kindern mit DaZ erlaubten es, Aussagen über das Erwerbsalter bzw. persistierende Defizite und Entwicklungsmuster, insbesondere bei SLI, zu treffen. Entwicklungsverzögerungen (delay) und ggf. vom DaZ-TD Erwerb abweichende Entwicklungsmuster (deviance) wurden abgebildet.
Mit der Beantwortung der Fragen leistet die Arbeit in zweierlei Hinsicht einen Beitrag. Erstens wird mit Blick auf die Spracherwerbsforschung gezeigt, dass DaZ-SLI Kinder entwicklungsverzögert sind und sowohl ø-Stämme in V2 als auch Schwierigkeiten im Erwerb von Dativ in Präpositionalphrasen auf eine SLI bei Kindern mit DaZ hinweisen. Zweitens wird aus Sicht der Linguistik dafür argumentiert, dass zum einen ø-Stämme in V2 kovert finit sind und zum anderen in Modellen der Kasuszuweisung von einer dreigliedrigen Struktur, also einer Unterscheidung zwischen strukturellem, lexikalischem und inhärentem Kasus, ausgegangen werden muss.
Die Arbeit knüpft an damit an verschiedene Erwerbsstudien an. Hinsichtlich des Erwerbs von Finitheit und Verbstellung war bisher ungeklärt, ob auch die DaZ-SLI Kinder zwischen en-Infinitiven und ø-Stämmen hinsichtlich der jeweiligen Position im Satz unterscheiden, wie bereits für den DaZ-TD Erwerb nachgewiesen. Die vorliegende Studie wies dieses Erwerbsmuster auch für den DaZ-SLI Erwerb nach und schließt sich damit bisherigen Studien hinsichtlich kovert finiter ø-Stämme in V2 an. Studien zum Kasuserwerb bei DaZ, die auf den linguistisch relevanten Unterschied in der Kasuszuweisung, d.h. strukturell vs. nicht-strukturell (inhärent und lexikalisch), eingehen, gab es nur wenige. Die Frage, ob in der Kasustheorie von einem zwei- oder dreigliedrigen Modell ausgegangen werden muss, war neben der Frage nach möglicherweise abweichenden Erwerbsmustern und persistierenden Erwerbsschwierigkeiten bei DaZ-SLI bislang ungeklärt. In der vorliegenden Studie wurde gezeigt, dass DaZ-SLI Kinder verglichen mit DaZ-TD Kindern ähnliche Fehlermuster zeigen, aber insbesondere der Dativ in PPs stark verzögert erworben wird. Die Studie schließt den Ergebnissen zum simultan bilingualen Erwerb an und postuliert ein dreigliedriges Kasussystem.
Insgesamt zeigt die vorliegende Studie erstmals anhand elizitierter Längsschnittdaten, dass DaZ-SLI Kinder bis ins Schulalter persistierende Probleme im Erwerb von Finitheit und Verbstellung sowie Kasus haben. Verglichen mit DaZ-TD Kindern erwerben sie diese Bereiche - wenn überhaupt - deutlich verzögert (delay). In den Fehlertypen unterscheiden sich die beiden Erwerbstypen hingegen nicht (deviance).
Ein Hauptziel dieser Arbeit war die spektroskopische Charakterisierung einer neuartigen photolabilen Schutzgruppe (Photocage). Diese besteht aus dem weitverbreiteten (7-Diethylaminocumarin)methyl (DEACM), welches zusätzlich mit einer Art Antenne (ATTO 390) ausgestattet ist. Letztere soll die Zwei-Photonen-Absorption (2PA) erleichtern, was neben dem Energietransfer von der Antenne zur photolabilen Schutzgruppe sowie die Freisetzungsreaktion eines gebundenen Effektormoleküls untersucht wurde. Der Nachweis der erhöhten 2PA wurde durch Zwei-Photonen-induzierte Fluoreszenz erbracht, welche die Bestimmung des Zwei-Photonen-Einfangquerschnitts ermöglicht. Die 2PA wurde durch Messungen mit variierender Anregungsenergie an Rhodamin B und dem neuartigen Antennen-Photocage-System bestätigt, welche eine fast perfekte quadratische Abhängigkeit der Fluoreszenzintensität nach vorangegangener 2PA widerspiegelten. Die Werte des Zwei-Photonen-Einfangquerschnitts der neuartigen photolabilen Schutzgruppe sind über alle Wellenlängen hinweg größer als die von DEACM-OH. Der Beweis eines intramolekularen Energietransfers von der Antenne zu DEACM erfolgte durch transiente Absorptionsspektroskopie. Hierfür wurde der Photocage mit 365nm angeregt, was überwiegend die Antenne adressiert. Ein intramolekularer Energietransfer konnte mit einer Zeitkonstante von 20 ps beobachtet werden, welcher wahrscheinlich von einem nachgelagerten Ladungstransfer von DEACM auf ATTO 390 begleitet wurde. Die Funktionalität des neuartigen Photocages wurde durch Aufnahme von Absorptionsspektren im IR-Bereich während kontinuierlicher Belichtung bei 365 nm untersucht. Hierbei konnte die Entstehung der intensiven Absorption von Kohlendioxid aufgrund der Photodecarboxylierung detektiert werden. Absorptionsänderungen während kontinuierlicher Belichtung wurden ebenfalls im UV/Vis-Bereich detektiert, in welchen eine hypsochrome Verschiebung der langwelligen Absorptionsbande sowie ein Anstieg der Absorption festgestellt wurden. Hieraus konnte eine Quantenausbeute der Freisetzungsreaktion von 1,5% ermittelt werden. Die Ergebnisse zum Antennen-Photocage-System zeigen auf, dass durch Anbringen einer Antenne die 2PA verbessert werden kann, ohne die Funktionalität des Freisetzungsprozesses negativ zu beeinflussen. In einem nächsten Schritt zielen Verbesserungen des untersuchten Photocages darauf ab, den Ladungstransfer zu unterdrücken. Die Validierung dieses Ansatzes sollte die Einführung anderer Antennen mit erhöhten Zwei-Photonen-Einfangquerschnitten, wie z.B. Quantenpunkte, weiter motivieren. Der zweite Ergebnisteil dieser Arbeit konzentriert sich auf drei verschiedene Photosysteme, die sich durch eine sehr kurzlebige Fluoreszenz auszeichnen, welche mit einem Kerrschalter aufgenommen wurde. Das erste der drei untersuchten Systeme umfasst eine kooperative BODIPY-DTE-Dyade(Bordipyrromethen-Dithienylethen), die einen hocheffizienten photochromen Förster-Resonanzenergietransfer aufweist. Dieser wurde durch verkürzte Lebenszeiten der Differenzsignale im transienten Absorptionsspektrum der Dyade im photostationären Zustand abgeleitet. In diesem stellt BODIPY-DTE eine hochkonjugierte Einheit dar, welches durch die geschlossene Form des photochromen DTEs einen Energietransfer vom photoangeregten BODIPY zum DTE ermöglicht. Bei diesem Prozess wird die Fluoreszenz des Donors um einige Größenordnungen reduziert. Die Ergebnisse der transienten Absorptionsmessung wurde durch ein zeitaufgelöstes Fluoreszenzexperimentbestätigt. Die detektierte Fluoreszenztransiente zerfällt mit einer Zeitkonstante von etwa 15 ps und weist somit sehr hohe Ähnlichkeit mit dem Signal des Grundzustandsbleichens (GSB) aus dem transienten Absorptionsexperiment auf. Des Weiteren wurde die photochrome Ringschlussreaktion eines wasserlöslichen Indolylfulgimids spektroskopisch charakterisiert. Transiente Absorptionsmessungen geben einen direkten Einblick in den Mechanismus der Reaktion, in welcher, nach Photoanregung, die Relaxation aus dem Franck-Condon Bereich und die schnelle biphasische Relaxation des Moleküls über die konische Durchschneidung abgeleitet werden kann. Zusätzlich wurden zeitaufgelöste Fluoreszenzmessungen mit Hilfe des Kerrschalters durchgeführt, da die stimulierte Emission (SE) in transienten Absorptionsmessungen durch die Überlagerung mehrerer Signale nicht vollständig zu erkennen war. Die globale Lebensdaueranalyse der mit dem Kerrschalter aufgenommenen Breitband-Fluoreszenz lieferte drei Zeitkonstanten, welche wesentliche Übereinstimmung mit den Zeitkonstanten aus der globalen Lebensdaueranalyse der transienten Absorptionsmessungen aufweisen. Schlussendlich wurde die Deaktivierung des elektronisch angeregten Zustands des flavinbindenden Dodecins aus Mycobacterium tuberculosis mit Hilfe von unterschiedlichen spektroskopischen Methoden charakterisiert. Stationäre Fluoreszenzmessungen bei unterschiedlichen pH-Werten zeigten bei pH 5 eine im Vergleich zu nahezu physiologischen Bedingungen (pH 7,5)reduzierte Fluoreszenz auf. Auffällig ist, dass diese Beobachtungen durch transiente Absorptionsmessungen nicht bestätigt werden konnten, da diese eine große Ähnlichkeit bezüglich der Dynamik und der spektralen Signatur zueinander besaßen. Ein negatives Signal, hervorgerufen durch die SE, wurde hierbei nicht gefunden. Allerdings konnte in den zerfallsassoziierten Spektren eine spektrale Signatur beobachtet werden, die auf eine SE hindeutete, welche allerdings mit größeren positiven Signalen überlagert ist. Dieser Aspekt wurde in einer Kerrschalter-Messung untersucht, in der eine schwache Emission bei pH 7,5 festgestellt werden konnte. Zusätzlich wies die Zerfallsdynamik der Emission Übereinstimmung mit dem GSB-Signal aus den transienten Absorptionsmessungen auf.
Defossiliation of the energy system is crucial in the face of the impending risks of climate change. Electricity generation by burning fossil fuels is being displaced by renewable energy sources like hydro, wind and solar, driven by support schemes and falling costs from technological advances as well as manufacturing scale effects. The unavoidable shift from flexibly dispatchable generation to weather-dependent spatio-temporally varying generators transforms the generation and distribution of electricity into highly interdependent complex systems in multiple dimensions and disciplines:
In time, different scales, stretching from intra-day, diurnal, synoptic to seasonal oscillations of the weather interact with years and decades of planning and construction of capacity. In space, long-range correlations and local variations of weather systems as well as local bottlenecks in transmission networks affect solutions. The investment decisions about technological mix and spatial distribution of capacity follow economic principles, within restrictions which adapt in social feedback loops to public opinion and lobbyist influences.
In this work, a family of self-consistent models is developed which map physical steady-state operation, capacity investments and exogeneous restrictions of a European electricity system, in higher simultaneous spatial and temporal detail as well as scope than has previously been computationally tractable. Increasing the spatial detail of the renewable resources and co-optimizing the expansion of only a few transmission lines, reveals solutions to serve the European electricity demand at about today’s electricity cost with only 5% of its carbon-dioxide emissions; and importantly their electricity mix differs from the findings at low spatial resolution.
As important intermediate steps,
• new algorithms for the convex optimization of electricity system infrastructure are derived from graph-theoretic decompositions of network flows. Only these enable the investigation of model detail beyond previous computational limitations.
• a comprehensive European electricity network model down to individual substations at the transmission voltage levels is built by combining and completing data from freely available sources.
• a network reduction technique is developed to approximate the detailed model at a sequence of spatial resolutions to investigate the role of spatial scale, and identify a level of spatial resolution which captures all relevant detail, but is still computationally tractable.
• a method to trace the flow of power through the network, which is related to a vector diffusion process on a directed flow graph embedded in a network, is used to analyse the resulting technology mix and its interactions with the power network
The open-source nature of the model and restriction to freely available data encourages an accessible and transparent discussion about the future European electricity system, primarily based on renewable wind and solar resources.