Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204) (remove)
Is part of the Bibliography
- no (204)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
The thesis deals with the analysis and modeling of point processes emerging from different experiments in neuroscience. In particular, the description and detection of different types of variability changes in point processes is of interest.
A non-stationary rate or variance of life times is a well-known problem in the description of point processes like neuronal spike trains and can affect the results of further analyses requiring stationarity. Moreover, non-stationary parameters might also contain important information themselves. The goal of the first part of the thesis is the (further) development of a technique to detect both rate and variance changes that may occur in multiple time scales separately or simultaneously. A two-step procedure building on the multiple filter test (Messer et al., 2014) is used that first tests the null hypothesis of rate homogeneity allowing for an inhomogeneous variance and that estimates change points in the rate if the null hypothesis is rejected. In the second step, the null hypothesis of variance homogeneity is tested and variance change points are estimated. Rate change points are used as input. The main idea is the comparison of estimated variances in adjacent windows of different sizes sliding over the process. To determine the rejection threshold functionals of the Brownian motion are identified as limit processes under the null of variance homogeneity. The non-parametric procedure is not restricted to the case of at most one change point. It is shown in simulation studies that the corresponding test keeps the asymptotic significance level for a wide range of parameters and that the test power is remarkable. The practical applicability of the procedure is underlined by the analysis of neuronal spike trains.
Point processes resulting from experiments on bistable perception are analyzed in the second part of the thesis. Visual illusions allowing for than more possible perception lead to unpredictable changes of perception. In the thesis data from (Schmack et al., 2015) are used. A rotating sphere with switching perceived rotation direction was presented to the participants of the study. The stimulus was presented continuously and intermittently, i.e., with short periods of „blank display“ between the presentation periods. There are remarkable differences in the response patterns between the two types of presentation. During continuous presentation the distribution of dominance times, i.e., the intervals of constant perception, is a right-skewed and unimodal distribution with a mean of about five seconds. In contrast, during intermittent presentation one observes very long, stable dominance times of more than one minute interchanging with very short, unstable dominance times of less than five seconds, i.e., an increase of variability.
The main goal of the second part is to develop a model for the response patterns to bistable perception that builds a bridge between empirical data analysis and mechanistic modeling. Thus, the model should be able to describe both the response patterns to continuous presentation and to intermittent presentation. Moreover, the model should be fittable to typically short experimental data, and the model should allow for neuronal correlates. Current approaches often use detailed assumptions and large parameter sets, which complicate parameter estimation.
First, a Hidden Markov Model is applied. Second, to allow for neuronal correlates, a Hierarchical Brownian Model (HBM) is introduced, where perception is modeled by the competition of two neuronal populations. The activity difference between these two populations is described by a Brownian motion with drift fluctuating between two borders, where each first hitting time causes a perceptual change. To model the response patterns to intermittent presentation a second layer with competing neuronal populations (coding a stable and an unstable state) is assumed. Again, the data are described very well, and the hypothesis that the relative time in the stable state is identical in a group of patients with schizophrenia and a control group is rejected. To sum up, the HBM intends to link empirical data analysis and mechanistic modeling and provides interesting new hypotheses on potential neuronal mechanisms of cognitive phenomena.
Modellierung der klimatischen Habitateignung verschiedener krankheitsübertragender Vektorarten
(2018)
Der Klimawandel hat einen starken Einfluss auf die Verbreitungsgebiete von Arten. Infolgedessen kann sich das Verbreitungsgebiet von Arten verschieben, einschränken oder ausweiten. Bei thermophilen Arten wird vermutet, dass sie von den klimatischen Änderungen profitieren und sie sich wahrscheinlich ausbreiten werden. Eine solche Ausbreitung, wozu auch die Einwanderung von gebietsfremden Arten zählt, hätte nicht nur zahlreiche Konsequenzen für diese Ökosysteme, sondern könnte sich auch zu einem ernsten Gesundheitsrisiko entwickeln, wenn es sich bei den einwandernden Neobiota um Vektorarten handelt.
Stechmücken und Sandmücken, als blutsaugende Insekten, zählen zu den bekanntesten Vektorarten. Sie sind in der Lage, eine Vielzahl von Infektionskrankheiten wie das Denguefieber oder das Gelbfieber, aber auch protozoische Parasiten wie "Leishmania"-Arten zu übertragen. Als thermophile Arten sind viele dieser Vektoren aktuell in ihrer Verbreitung weitgehend auf tropische und subtropische Gebiete beschränkt. Eine Einwanderung in gemäßigtere Gebiete kann zu einer Einschleppung der durch sie übertragenden Erreger führen und damit zum Ausbruch von Infektionskrankheiten. Aufgrund der medizinischen Relevanz dieser Arten ist es essentiell, die räumliche Verbreitung, sowie die abiotischen Ansprüche der Vektorarten zu kennen, um deren mögliche Ausbreitung nachzuvollziehen.
Vor diesem Hintergrund beschäftigte sich die vorliegende kumulative Dissertation mit den klimawandelinduzierten Änderungen der Habitateignung verschiedener medizinisch relevanter Vektorarten. Dabei wurden die zwei invasiven Stechmückenarten "Aedes albopictus" (I-III) und "Aedes japonicus" (III), sowie zehn in Europa bereits vorkommende Sandmückenarten der Gattung "Phlebotomus" (IV), untersucht. Die Arbeit basiert auf vier (ISI-) Publikationen. Unter Verwendung ökologischer Nischenmodellierung wurden geeignete Gebiete unter aktuellen und zukünftigen Klimabedingungen bestimmt. Um dabei sowohl räumliche als auch zeitliche Aspekte zu berücksichtigen, wurden mehrere räumliche Skalen (Deutschland und Europa), sowie Zeitperioden (2030, 2050 und 2070) betrachtet. Des Weiteren wurden verschiedene Ansätze (einzelne Algorithmen und Ensemble-Modelle) zur Modellierung der Habitateignung verwendet.
Die Ergebnisse dieser Dissertation zeigen eine zukünftige klimawandelbedingte Ausweitung der geeigneten Gebiete für viele der betrachteten Vektorarten. So konnte gezeigt werden, dass die Habitateignung für "Aedes albopictus" in Deutschland (I) und in Europa (III) zukünftig deutlich zunimmt. Auch für die Sandmückenarten "Phlebotomus alexandri", "Phlebotomus neglectus", "Phlebotomus papatasi", "Phlebotomus perfiliewi" und "Phlebotomus tobbi" konnte eine deutliche Zunahme der klimatisch geeigneten Gebieten projiziert werden (IV).
Lediglich Arten, wie die Asiatische Buschmücke "Aedes japonicus" (III) und auch kältetolerantere Sandmücken, wie "Phlebotomus ariasi" und "Phlebotomus mascittii" (IV) scheinen weniger von diesen klimatischen Veränderungen zu profitieren und könnten in Zukunft sogar aktuell geeignete Gebiete verlieren (klimawandelinduzierte Arealverkleinerung). Bei "Aedes japonicus" konnte dies auf eine engeren Nische mit einem Optimum bei vergleichsweise niedrigen Temperaturen zurückgeführt werden (III).
Am Beispiel von "Aedes albopictus" wurden ferner Umweltfaktoren identifiziert, die die Verbreitung der Art limitieren (II). Als wärmeliebende Art spielen bei "Aedes albopictus" in Mitteleuropa insbesondere die niedrigen Temperaturen eine Rolle, während in Zukunft die Sommertrockenheit in Südeuropa zunehmend eine Rolle spielen könnte.
Nischenmodellierung stellt trotz ihrer vereinfachenden Annahmen und Unsicherheiten, eine hilfreiche Methode zur Untersuchung klimawandelinduzierter Arealverschiebungen dar. Mit Hilfe der Modellierungsergebnisse konnten Gebiete mit einem hohen Etablierungsrisiko für die Vektorarten identifiziert werden, welche daher im Fokus künftiger Überwachungsprogramme stehen sollten. In Zukunft könnten mehr Vektorarten geeignete Bedingungen in Mitteleuropa finden, wodurch die Vektordiversität zunehmen wird. Dadurch könnte auch das Risiko für einen Ausbruch der durch die Vektoren übertragenen Krankheiten steigen.
Auch wenn das Vorhandensein eines kompetenten Vektors eine unerlässliche Voraussetzung für den Ausbruch einer Infektionskrankheit darstellt, gibt es noch weitere Faktoren, wie das Vorhandensein des Erregers. In Bezug auf die Risikoabschätzung vektorassoziierter Krankheiten sollten neben der Verbreitung des Vektors und des Erregers auch die abiotischen Bedingungen für die Entwicklung des Erregers berücksichtigt werden. Neben neu eingewanderten Arten sollten zudem auch die heimischen Arten in Bezug auf ihre Vektorkompetenz untersucht werden, da diese ebenfalls als potentielle Vektoren dienen und somit das Gesundheitsrisiko weiter erhöhen könnten.
Diese Arbeit beschäftigt sich mit inversen Problemen für partielle Differentialgleichungen. Moderne Lösungsverfahren solcher inversen Probleme müssen die zugehörige partielle Differentialgleichung (PDGL) oft sehr häufig lösen. Mit Hinblick auf die Rechenzeit solcher Verfahren stellt das häufige Lösen der PDGL den Hauptanteil der benötigten Rechenzeit dar. Daraus resultiert die Grundidee dieser Arbeit: es sollen Lösungsverfahren von inversen Problemen beschleunigt werden, indem die für die Vorwärtslösung benötigte Rechenzeit verringert wird. Genauer gesagt soll anstatt der Vorwärtslösung eine Approximation an diese, welche kostengünstig zu berechnen ist, verwendet werden. Für die Bestimmung einer kostengünstigen Annäherung an die Vorwärtslösung wird die Reduzierte Basis Methode, eine Modellreduktionstechnik, verwendet.
Das Ziel der klassischen Reduzierten Basis Methode ist es einen globalen Reduzierte Basis Raum (RB-Raum) zu konstruieren. Dabei handelt es sich um einen niedrigdimensionalen Teilraum des Lösungsraumes der PDGL, welcher für jeden Parameter aus dem Parameterraum eine gute Näherung der PDGL-Lösung liefert. Eine beispielhafte Methode zur Konstruktion eines solchen Raumes ist es, geschickt Parameter auszuwählen und die dazu gehörigen PDGL-Lösungen als Basisvektoren des RB-Raumes zu verwenden. Die orthogonale Projektion der PDGL auf diesen RB-Raum liefert die entsprechenden Reduzierte Basis Lösungen. Das Besondere in dieser Arbeit ist, dass die betrachteten PDGLn einen sehr hochdimensionalen und unbeschränkten Parameterraum besitzen, und es ist bekannt, dass dies für die Reduzierte Basis Methode eine immense Schwierigkeit darstellt.
In Kapitel 1 wird ein schlechtgestelltes inverses Modellproblem, die Rekonstruktion der Wärmeleitfähigkeit eines Gegenstandes aus der Messung der Temperatur desselben, eingeführt und das nichtlineare Landweber-Verfahren als iteratives Regularisierungsverfahren zur Lösung dieses inversen Problems vorgestellt. Die Grundlagen der Reduzierten Basis Methode werden dargelegt und es wird erläutert, warum die klassische Variante der Methode in diesem Kontext der Bildrekonstruktion versagt. Daraufhin wird der neuartig Ansatz, ein adaptiver Reduzierte Basis Ansatz, entwickelt. Die folgenden Schritte bilden die Grundlage dieses adaptiven Reduzierte Basis Ansatzes:
1. Sei ein RB-Raum gegeben, so projiziere den Lösungsalgorithmus des inversen Problems auf diesen RB-Raum.
2. Generiere mit Hilfe dieses projizierten Verfahrens neue Iterierte bis entweder eine Iterierte das inverse Problem löst oder bis der RB-Raum erweitert werden muss.
3. Im ersten Fall wird das Verfahren beendet, im zweiten Fall wird die zur aktuellen Iterierten gehörige Vorwärtslösung verwendet um den RB-Raum zu verbessern. Danach wird mit dem ersten Schritt fortgefahren.
Es wird also nach und nach ein lokal approximierender RB-Raum konstruiert, indem Parameter für neue Basisvektoren mittels einer projizierten Variante des Lösungsalgorithmus des inversen Problems gefunden werden. Das neuartige Reduzierte Basis Landweber-Verfahren ist das Hauptresultat von Kapitel 1, wobei das Verfahren ausführlich numerisch untersucht und mit dem ursprünglichen Landweber-Verfahren verglichen wird.
In Kapitel 2 dieser Arbeit soll der zuvor entwickelte adaptive Reduzierte Basis Ansatz auf ein komplexes und praxisrelevantes Problem angewandt werden. Insbesondere soll die dadurch entstehende neue Methode mit Hinblick auf Konvergenz theoretisch ausführlich untersucht werden. Daher widmet sich der zweite Teil dieser Arbeit dem Problem der Magnet Resonanz Elektrischen Impedanztomographie (MREIT).
Bei der MREIT handelt es sich um ein Bildgebungsverfahren, welches während der letzten drei Jahrzehnte entwickelt wurde. Dabei wird ein Gegenstand, an welchen Elektroden angeheftet sind, in einen Kernspintomographen gelegt und es ist das Ziel des Verfahrens die elektrische Leitfähigkeit des Gegenstandes zu bestimmen. Die dazu benötigten Daten werden folgendermaßen gewonnen: indem Strom an einer der Elektroden angelegt wird, wird ein Stromfluss erzeugt, welcher wiederum eine Änderung der Magnetflussdichte induziert. Diese kann mit Hilfe des Kernspintomographen gemessen werden, wodurch man einen vollen Satz innerer Daten zur Hand hat, sodass hoch aufgelöste Bilder der elektrischen Leitfähigkeit des Gegenstandes rekonstruiert werden können.
Als Lösungsalgorithmus für dieses praxisrelevante Problem wird der bereits bekannte Harmonische Bz Algorithmus vorgestellt. Das Problem und der Algorithmus werden mit Hinblick auf Konvergenz des Verfahrens untersucht und ein Konvergenzresultat, welches die bestehende Konvergenztheorie hin zu einem approximativen Harmonischen Bz Algorithmus erweitert, wird bewiesen. Dabei hängt das Resultat nicht davon ab welche Art von Approximation an die Vorwärtslösung der entsprechenden PDGL im approximativen Harmonischen Bz Algorithmus verwendet wird solange diese einer Regularitäts- und einer Qualitätsbedingung genügt. Damit folgt das zweite Hauptresultat dieser Arbeit: die numerische Konvergenz des Harmonischen Bz Algorithmus. Es soll dabei hervorgehoben werden, dass Konvergenzresultate im Bereich der inversen Probleme (sofern es sie gibt) meistens die Kenntnis der exakten Vorwärtslösung annehmen, sodass keine numerische Konvergenz des zugehörigen Verfahrens folgt (in einer numerischen Implementation wird stets eine Approximation an die Vorwärtslösung verwendet). Somit ist dieses Konvergenzresultat ein Schritt hin zur numerischen Konvergenz anderer Lösungsverfahren von inversen Problemen.
Da das theoretische Resultat von der Art der Approximation nicht abhängt, erhält man ebenfalls die Konvergenz des neuartigen Reduzierte Basis Harmonischen Bz Algorithmus, welcher die Kombination des in Kapitel 1 entwickelten adaptiven Reduzierte Basis Ansatzes und des Harmonischen Bz Algorithmus ist. In einer kurzen numerischen Untersuchung wird festgestellt, dass dieser Reduzierte Basis Harmonische Bz Algorithmus schneller als der Harmonische Bz Algorithmus ist, wobei die Qualität der Rekonstruktion gleichbleibend ist. Somit funktioniert der entwickelte adaptive Reduzierte Basis Ansatz auch angewandt auf dieses komplexe praxisrelevante inverse Problem der MREIT.
Nukleinsäuren besitzen neben der Speicherung und Übertragung der genetischen Information weitere vielfältige Funktionen in einem komplexen und dynamischen Netzwerk von gleichzeitig ablaufenden Prozessen in der Zelle. Die gezielte Kontrolle bestimmter Nukleinsäuren kann helfen, die jeweiligen Prozesse zu studieren oder auch zu manipulieren. Photoaktive Verbindungen, wie photolabile Schutzgruppen oder Photoschalter, sind ideal dazu geeignet die Struktur und Funktion von Nukleinsäuren zu studieren. Photolabile Schutzgruppen werden dazu meistens auf die Nukleobase installiert und stören die Watson-Crick Basenpaarung. Dies verhindert die Ausbildung einer Sekundärstruktur oder die Möglichkeit einen stabilen Doppelstrang zu bilden. Licht ist ein nicht-invasives Trigger-signal und kann mit hoher Orts- und Zeitauflösung angewendet werden, um selektiv die temporär geschützten Nukleinsäuren in der Zelle zu aktivieren.
Das erste Projekt dieser Arbeit ist eine Kooperation mit der Arbeitsgruppe von Prof. Erin Schuman (MPI für Hirnforschung) und beschäftigt sich mit der lichtgesteuerten Regulation der miR-181a Aktivität in hippocampalen Neuronen von Ratten. Die Langzeitpotenzierung (LTP) ist der primäre Mechanismus von synaptischer Plastizität und somit essentiell für Lernen und Gedächtnis. Die langfristige Aufrechterhaltung von LTP erfordert eine gesteigerte (lokale) Proteinbiosynthese, ein Prozess, der noch nicht vollständig aufgeklärt ist. Die miR-181a reguliert die Genexpression von zwei für synaptische Plastizität wichtigen Proteinen, GluA2 und CaMKIIα. Mit einem lichtaktivierbaren AntimiR sollte der Einfluss der miR-181a auf die lokale Proteinsynthese von CaMKIIα und GluA2 untersucht werden. Photolabile Schutzgruppen sollen eine ortsaufgelöste Aktivierung des AntimiRs in den Dendriten ermöglichen. Ein Tracking-Fluorophor sollte die Lokalisierung des AntimiRs und eine gezielte Lichtaktivierung ermöglichen. Die Bindung der miRNA sollte fluoreszent visualisiert werden können, um eine Korrelation zwischen der inhibierten Menge an miR-181a und den neu synthetisierten CaMKIIα-Molekülen zu untersuchen. In diesem Projekt wurden drei Konzepte zur Synthese von lichtregulierbaren AntimiR-Sonden verglichen: Das erste Konzept verwendete eine Thiazolorange-basierte Hybridisierungssonde nach Seitz et al. Allerdings war mit diesem Konzept der Fluoreszenzanstieg zur Visualisierung der Hybridisierung zu gering. Im zweiten Konzept wurde ein dual-Fluorophor markierter Molecular Beacon entwickelt, bei dem die photolabilen Schutzgruppen in der Schleifen-Region die Hybridisierung der miR-181a vor Belichtung verhinderten. Nach Optimierung der Stammlänge, Anzahl und Position der photolabilen Schutzgruppen, sowie Auswahl des idealen Fluorophor-Quencher Paars, konnte nach UV-Bestrahlung in Anwesenheit der miR-181a ein signifikanter Anstieg des Hybridisierungsreporter-Fluorophors gemessen werden. Das dritte Konzept untersuchte lichtaktivierbare Hairpin-Sonden, bei denen ein Gegenstrang (Blockierstrang) über einen photospaltbaren Linker mit dem AntimiR verknüpft wurde. Dabei musste die optimale Länge des Blockierstrangs und die Anzahl der photo-spaltbaren Linker im Blockierstrang ermittelt werden, sodass die miR-181a erst nach Photoaktivierung das AntimiR binden und den Quencher-markierten Strang verdrängen konnte. Die in vitro Experimente vom Arbeitskreis Schuman waren zu dem Zeitpunkt des Einreichens dieser Arbeit noch nicht abgeschlossen. Erste Ergebnisse zeigten, dass der mRNA und Protein-Level von CaMKIIα eines gesamten hippocampalen Neurons durch ein nicht-lichtaktivierbare AntimiR um den Faktor ~1,5 gesteigert werden konnte. Zudem konnte durch die lokale Bestrahlung einer lichtaktivierbaren Hairpin-Sonde die lokale Gen-expression von CaMKIIα in einem Dendriten deutlich gesteigert werden.
Das zweite Projekt dieser Arbeit beschäftigte sich mit der reversiblen Lichtregulation von DNA und RNA durch Azobenzol Photoschalter. Azobenzole eignen sich ideal für die Regulation der Duplexstabilität, denn das planare trans-Azobenzol kann zwischen die Basen interkalieren und somit einen Doppelstrang stabilisieren. UV-Licht überführt das trans-Isomer in das cis-Isomer. Dies ist gewinkelt, benötigt mehr Platz und stört dadurch die Stabilität eines Nukleinsäuredoppelstrangs. Entscheidend für die Effizienz der Regulation der Duplexstabilität ist der Linker, der das Azobenzol mit der Nukleinsäure verknüpft. Während vorangegange Studien von Asanuma et al. unnatürliche Linker (D-Threoninol, tAzo) verwendeten, wurde in dieser Studie das Azobenzol mit der C1‘-Position von (Desoxy-)Ribose C-Nukleoside verknüpft, um Azobenzol (pAzo und mAzo) zu erhalten. Der Riboselinker sollte die helikale Natur der Nukleinsäure optimal nachahmen und möglichst wenig Störung des Ribose-Phosphat-Rückgrats bewirken. Thermische Stabilitätsstudien zeigten, dass UV-Licht induzierte trans-zu-cis Isomerisierung den Schmelzpunkt eines RNA- und DNA-Duplexes um 5,9 und 4,6 °C erniedrigte. Dabei führte der Austausch eines Nukleotids gegen pAzo oder mAzo zu einer effektiveren Regulation der Duplexstabilität als der zusätzliche Einbau eines Azobenzol C-Nukleosids in die Sequenz. Ein Vergleich mit dem in der Literatur etablierten System, tAzo, zeigte, dass pAzo und mAzo teilweise einen stärkeren Duplexdestabilisierungseffekt nach UV-Bestrahlung bewirkten.
...
Personen- und Organisationsmerkmale als Gelingensbedingungen im pädagogischen Vorbereitungsdienst
(2018)
Die vorliegende Arbeit greift die defizitäre empirische Befundlage zur Wahrnehmung der zweiten Ausbildungsphase des Lehrerberufs – dem Referendariat – auf. Sie geht der Frage nach, wie das Belastungserleben der Referendare mit Merkmalen der Person oder Organisation verknüpft ist. Bestehende Forschungsaktivtäten legen ihren Fokus auf die Wahrnehmung erfahrener Lehrkräfte im Beruf. Es fehlt an Studien, die das Erleben im Referendariat diskutieren. Die vorliegende, primär explorativ ausgerichtete Arbeit nimmt diese Ausbildungsphase in den Blick. Die Datenbasis der Arbeit bildet die Evaluationsstudie „Pädagogische Entwicklungsbilanzen an Studienseminaren“ (PEB-Sem), die in Hessen zum Einsatz kam. Es werden Daten von 3808 Referendaren sekundäranalytisch ausgewertet. Da die Beschreibung der Untersuchungsgruppe im Referendariat selbst wenig Vergleichsmöglichkeiten zur Absicherung der Daten bietet, wurde PEB-Sem im Praxissemester bei einer Vergleichsgruppe von Lehramtsstudierenden an der Goethe-Universität eingesetzt.
Personale Merkmale im Umgang mit Belastungen wurden über objektive Aspekte (Alter, Geschlecht, Lehramtsstufe, pädagogische Vorerfahrungen) sowie über Persönlichkeitscharakteristika (Selbstwirksamkeitserwartungen, Resilienz) operationalisiert. Merkmale der Organisation des Vorbereitungsdiensts wurden über Skalen erhoben, welche die Ausbildungsbeziehungen zwischen Referendaren und Ausbildern, Mentoren sowie der Seminarleitung oder die Kohärenz der Ausbildung erfassen.
In den Ergebnissen der Analyse personenbezogener Merkmale zeigt sich, dass vor allem die Resilienz das Belastungserleben der Referendare erklären kann, während die pädagogischen Vorerfahrungen oder die Selbstwirksamkeitserwartungen nur einen geringen Anteil der Belastungswahrnehmung erklären können. Die Belastung in der Ausbildung wird über die Zentralstellung des Leistungsdrucks, der durch die bewerteten Unterrichtsbesuche, Zeitdruck oder auch die Prüfungsbelastung zum Ende der Ausbildung entsteht, maßgeblich bestimmt. Zwischen den Faktoren der Organisation und der Belastungswahrnehmung, wie sie z.B. für die Unterstützung durch die Ausbilder und Mentoren untersucht wurden, konnten nur schwache Zusammenhänge zur Belastung nachgewiesen werden. Die vergleichende Betrachtung von Referendaren und Studierenden im Praxissemester kann Unterschiede im Erleben dieser beiden Ausbildungsabschnitte herausarbeiten. Die berufliche Erfahrung, welche die Referendare den Studierenden voraushaben, wirkt sich, entgegen der Annahme, nicht positiv auf die Belastungswahrnehmung aus: Referendare zeigen sich stärker belastet als Lehramtsstudierende. Bezogen auf die Unterschiede in der Einschätzung der Resilienz sind es wieder die Lehramtsstudierenden, die im Vergleich zu den Referendaren über eine stärkere Widerstandfähigkeit verfügen.
Die vergleichende Betrachtung beider Ausbildungsphasen vermitteln ein besseres Verständnis und eine größere Nähe zum jeweiligen Ausbildungskontext. Die Befunde der Studie deuten auf die Notwendigkeit hin, sich mit Unsicherheiten und Belastungen, die durch die Bewertungssituationen und den Anpassungsdruck an die Erwartungen der Ausbilder und Mentoren entstehen können, stärker zu befassen. An diese Ergebnisse lassen sich Implikationen für die Praxis und mögliche Ansatzpunkte für weitere Forschungsbemühen anschließen.
Entwicklung von Immunisierungsstrategien zur Induktion hoher funktionaler Antikörperantworten
(2018)
Neuartige Viren und Erreger, die sich antigenetisch tiefgreifend von bekannten Varianten unterscheiden, können verheerende Epidemien auslösen, da weder gegen diese Erreger eine Immunität in der Bevölkerung besteht, noch prophylaktische oder therapeutische Maßnahmen verfügbar sind. Eine prophylaktisch vermittelte Immunität durch Impfung stellt die bei Weitem effektivste Methode zur Vorbeugung viraler Infektionen dar, jedoch sind die Entwicklungs- und Herstellungszeiten eines neuen Impfstoffs in der Regel mit der Ausbruchsdynamik nicht kompatibel. Inzwischen steht zwar eine überschaubare Anzahl antiviraler Medikamente zur Verfügung, doch ist die Wahrscheinlichkeit gering, dass diese meist hoch spezifischen Wirkstoffe gegen neu auftretende Viren aktiv sind. Das beispiellose Ausmaß der Ebola-Epidemie 2014 führte zum Einsatz experimenteller antikörperbasierter Therapien, welche das Potential der passiven Vermittlung von temporärem Immunschutz naiver Personen verdeutlicht. Für viele neuartige Viren ist die Entwicklung von Therapieansätzen allerdings noch nicht entsprechend weit fortgeschritten. Zudem bedingt eine Verwendung des eigentlichen Erregers oft hohe Sicherheitsmaßnahmen, was die Arbeit erschwert. Aus diesem Grund werden Notfalltherapien benötigt, die schnell in klinisch relevanter Qualität und Quantität unter niedrigen biologischen Sicherheitsmaßnahmen produziert werden können.
Diese Arbeit basiert auf der zentralen Hypothese, dass die Induktion von hohen Titern funktioneller Antikörperantworten die Basis für einen breiteren Schutz gegen antigenetisch entferntere Virusstämme sowie für die schnelle Produktion von therapeutischen Antiseren darstellt.
Um diese Hypothese zu testen und Einblicke in verschiedene Aspekte dieses Prozesses zu bekommen, wurde zunächst die Nutzung von Adjuvanzien als Zusätze für Impfstoffe am Beispiel des pandemischen A(H1N1)pdm09-Impfstoffs untersucht. Neben den alljährlichen Epidemien, die von saisonalen Influenza-A-Viren der Subtypen H1N1 oder H2N3 verursacht werden, können neuartige Subtypen zu weltweiten Pandemien führen. Während die saisonalen Influenza-Impfstoffe in der Regel keine Adjuvanzien enthalten, wurden einige pandemische H1N1-Impfstoffe aus 2009 mit einem reduzierten Antigengehalt formuliert und mit squalenbasierten Adjuvanzien kombiniert, um eine ausreichende Wirksamkeit bei größerer Verfügbarkeit zu gewährleisten. Zur Charakterisierung des Effekts dieser Adjuvanzien auf die Immunantworten wurden Frettchen mit 2 µg des kommerziellen H1N1pmd09-Impfstoffes alleine sowie in Kombination mit verschiedenen Adjuvanzien immunisiert, die Antikörpertiter gegen homologe und heterologe Influenzastämme untersucht und mit dem Schutz vor einer Infektion korreliert. Dabei zeigte sich, dass die Verwendung squalenbasierter Adjuvanzien die funktionalen Antikörperantworten um das 100-fache erhöhte und zu einer signifikant reduzierten Viruslast nach der Infektion mit dem homologen pandemischen Virus führte. Während in keiner Gruppe Antikörper gegen die heterologen Hämagglutinin-(HA-)Proteine H3, H5, H7 und H9 nachweisbar waren, induzierten mit squalenbasierten Adjuvanzien kombinierte Impfstoffe subtypenspezifische Antikörper gegen das N1 Neuraminidase-(NA-)Protein einschließlich H5N1. Darüber hinaus führte die Immunisierung mit squalenbasierten Adjuvanzien zu einer besseren Kontrolle der Influenzavirus-Replikation in den oberen Atemwegen.
Anschließend wurde im zweiten Teil dieser Arbeit unter Einbeziehung der gewonnenen Erkenntnisse eine Immunisierungsstrategie zur schnellen Produktion therapeutischer Hyper-immunseren entwickelt, wobei unterschiedliche Antigenexpressionssysteme miteinander verglichen wurden. Während in den frühen Stadien eines Ausbruchs Rekonvaleszenzseren nicht ohne weiteres verfügbar sind, können Antiseren tierischen Ursprungs innerhalb eines kurzen Zeitraums hergestellt werden. Die Herausforderung liegt in der schnellen Induktion einer schützenden Immunität, wobei die effiziente Produktion und Reinigung von Hyperimmunserum in klinisch relevanten Mengen ebenso essenziell ist wie die Anpassungsfähigkeit der Immunisierungsstrategie an neue oder hinsichtlich ihrer Antigenizität veränderte Viren. Hierzu wurden verschiedene Immunisierungsstrategien in Mäusen und Kaninchen verglichen, die unterschiedliche Expressionssysteme für das Modellantigen Ebolavirus-Glykoprotein (EBOV-GP) verwenden: (i) Ebolavirus-ähnliche Partikel (VLP), (ii) das rekombinante modifizierte Vacciniavirus Ankara (MVA) sowie (iii) das rekombinante Virus der vesikulären Stomatitis (VSV). Im Ergebnis induzierte eine dreimalige Immunisierung mit VLPs in Kombination mit squalenhaltigem Adjuvans neutralisierende Antikörpertiter, die vergleichbar mit der Immunisierung mit replikationskompetentem VSVΔG/EBOV-GP waren. Dies deutet darauf hin, dass nicht die De-novo-Antigenexpression, sondern vielmehr die mehrfache Präsentation des Antigens in nativer Konformation für die Produktion von neutralisierenden Antikörpern essenziell ist. Darüber hinaus waren die funktionalen Antikörpertiter aller Kaninchenseren in der In-vitro-Analyse gegen das Wildtypvirus 10- bis 100-fach höher als der Durchschnitt, der in mit VSVΔG/EBOV-GP geimpften Probanden beobachtet wurde. Die Etablierung eines optimierten mehrstufigen Reinigungsverfahrens unter Verwendung einer zweistufigen Ammoniumsulfat-Präzipitation, gefolgt von einer Protein-A-Affinitätschromatographie, führte zu aufgereinigten IgG-Präparationen mit nahezu unveränderter neutralisierender Aktivität, die über neun Tage im xenogenen In-vivo-Modell stabil waren. Die signifikante Erhöhung von totalen und funktionalen Antikörpertitern in Kombination mit einer größeren Breite der Antikörperantwort im Kontext von squalenbasierten Adjuvanzien stützt die Hypothese dieser Arbeit. Adjuvantierte Immunisierungsstrategien sind damit ein vielversprechender Ansatz nicht nur zur Wirksamkeitssteigerung von Subunit- und Proteinimpfstoffen, sondern auch zur schnellen Herstellung von therapeutischen Antiseren.
Um molekulare Mechanismen in biologischen Prozessen zu verstehen, ist es unerlässlich biologisch aktive Verbindungen zu kontrollieren. Dabei spielt besonders die Aktivierung bzw. Desaktivierung von Genabschnitten eine zentrale Rolle in der gegenwärtigen chemischen, biologischen und medizinischen Forschung. Nukleinsäuren sind dabei offenkundige Zielmoleküle, da sie die Genexpression auf unterster Ebene regulieren und auf vielfältige Art und Weise an biologischen Prozessen beteiligt sind. Um solch eine genaue Steuerung zu erreichen, werden Nukleinsäuren häufig photolabil modifiziert und unter die Kontrolle von Licht gebracht. Da hochentwickelte Technologien es erlauben Photonen bestimmter Energie unter präziser räumlicher und zeitlicher Auflösung zu dosieren, ist Licht als nicht invasives Triggersignal ein besonders geeignetes Werkzeug um molekulare Prozesse zu kontrollieren.
Die Verwendung photolabiler Schutzgruppen („cage“) ermöglicht es, diese lichtaktivierbaren Nukleinsäuren („caged compound“) herzustellen. Üblicherweise werden Oligonukleotide damit an funktionsbestimmenden Stellen versehen, woraufhin die Funktion der Oligonukleotide unterdrückt wird. Die biologische Aktivität kann durch Bestrahlung mit Licht wieder hergestellt werden, da die photolabile Schutzgruppe durch den Lichtimpuls abgespalten wird. Neben der zeitweiligen Maskierung der Nukleinsäureaktivität existiert auch eine Methode, die als „photoaktivierbarer Strangbruch“ (‘‘caged strand break‘‘) bezeichnet wird. Dabei werden mit Hilfe von photolabilen Linkern (‘‘Verknüpfer‘‘) lichtinduzierte Strangbrüche in Oligonukleotiden ausgelöst, um so beispielsweise die Struktur eines Nukleinsäurestrangs zu zerstören. Die Idee der photoaktivierbaren Strangbrüche ist nicht neu, dennoch werden photolabile Schutzgruppen überwiegend nach der erstgenannten Strategie verwendet. Im Rahmen dieses Promotionsvorhabens wurden neue photosensitive Linkerbausteine für Oligonukleotide entwickelt und hergestellt, welche sich vor allem im Hinblick auf die Anwendbarkeit in lebenden biologischen Systemen von den bisherigen photolabilen Linkern unterscheiden.
Im ersten Projekt wurde ein nicht-nukleosidischer, photolabiler Linker, basierend auf dem Cumaringrundgerüst, entwickelt. Das Ziel war hier, vor allem, einen zweiphotonenaktiven Linker für biologische Anwendungen und Zweiphotonen-Fragestellungen nutzbar zu machen. Bisherige Zweiphotonen-Linker konnten hauptsächlich nur für Proteinverknüpfungen bzw. Neurotransmitter verwendet werden oder mussten chemisch umständlich (z.B. Click-Chemie) und postsynthetisch in Oligonukleotide eingeführt werden. Der neu entwickelte Zweiphotonen-Linker wurde als Phosphoramiditbaustein für die Oligonukelotid-Festphasensynthese synthetisiert, was einen problemlosen und automatisierten Einbau garantiert. Mit einem modifizierten Oligonukleotid konnten die photochemischen Eigenschaften des Linkers bestimmt und mit Hilfe eines fluoreszenzbasierten Verdrängungsassays und Lasertechniken der Zweiphotonen-Effekt visualisiert werden. Dazu wurde ein Hairpin-DNA-Strang hergestellt, welcher eine Linkermodifikation im Bereich der Loopregion enthält. Durch eine Thiolmodifikation am 5‘-Ende des Oligonukleotidstranges war es möglich, diesen in einem Maleimid-funktionalisierten Hydrogel zu fixieren. Ein DNA-Duplex mit einem Fluorophor/Quencherpaar und einer korrespondierenden Sequenz zum modifizierten Hairpin-Strang wurde ebenfalls dem System zugegeben, allerdings wurde dieser nicht fixiert, um Diffusion zu ermöglichen. Durch die räumliche Nähe des Fluorophors zum Quencher konnte im unbelichteten Zustand zunächst keine Fluoreszenz gemessen werden. Mit einem (Femtosekunden-)gepulsten Laser und dem damit verbundenen Bindungsbruch im Hairpin-Strang durch Zweiphotonen-Effekte wurde es dem fluoreszierenden Strang des DNA-Duplex ermöglicht, sich vom Quencher-Strang zu lösen und an den fixierten Strang zu hybridisieren. Das Photolyse-Ereignis konnte so in ein lokales Fluoreszenzsignal übersetzt und detektiert werden.
Der eindeutige Beweis, dass es sich tatsächlich um ein Zweiphotonen-induziertes Ereignis handelt, konnte durch die dreidimensional aufgelöste Photolyse und über die quadratische Anhängigkeit des Fluoreszenzsignals von der eingestrahlten Laserleistung erbracht werden.
Die generelle Kompatibilität des Cumarin-Linkers mit biologischen Systemen konnte in Zellkulturexperimenten gezeigt werden. Dazu wurde eine Transkriptionsfaktor-DNA Decoy-Strategie entwickelt, in der Linker-modifizierte DNA Decoys an regulatorische Transkriptionsfaktoren binden und diese aber auch photochemisch wieder freisetzen können („catch and release-Strategie“). Zellkulturexperimente, um mit dieser Methode das Transkriptionsfaktor-gesteuerte und endogene Gen für Cyclooxygenase-2 (COX2) zu regulieren, lieferten keine aussagekräftigen Ergebnisse. Daher wurden die verwendeten Zellen dahingehend manipuliert, sodass sie das Protein GFP (grün fluoreszierendes Protein) in Abhängigkeit von der Anwesenheit eines Transkriptionsfaktors exprimieren. Das so durch die Zellen verursachte Fluoreszenzsignal steht in direkter Abhängigkeit zur Decoy-Aktivität. Mit Hilfe modifizierter GFP-Decoys konnte hierbei eine Regulation auf Transkriptionsebene in biologischen Organismen erreicht werden. Mit dem Electrophoretic Mobility Shift Assay (EMSA), einer molekularbiologischen in vitro-Analysetechnik, wurden die Interaktionen zwischen modifizierten Decoys und dem Transkriptionsfaktor untersucht.
...
This thesis is concerned with systematic investigations of electronic noise in novel condensed matter systems. Although fluctuations are frequently considered a nuisance, that is, a disturbance limiting the accuracy of scientific measurements, in many cases they can reveal fundamental information about the inherent system dynamics. During the past decades, the study of electronic fluctuations has evolved into an indispensable tool in condensed matter physics.
The focus of the present work lies both in a further development of the fluctuation spectroscopy technique and in the study of materials of current interest. In particular, a comprehensive study of the charge carrier dynamics in the archetypal diluted magnetic semiconductors (Ga,Mn)As and (Ga,Mn)P was performed. In spite of extensive research work carried out during the last years, there still exists no theoretical consensus on the precise mechanism of ferromagnetic order and the electronic structure in these materials. Moreover, disorder and correlation effects complicate the understanding of these compounds.
Fluctuation spectroscopy experiments presented in this work provide strong evidence that a percolation transition is observed in samples with localized charge carriers, since the normalized resistance noise magnitude displays a significant enhancement around the Curie temperature. In addition, this quantity exhibits a power law scaling behavior as a function of the resistance, which is in good agreement with theoretical models of percolating systems.
By contrast, it was found that the resistance noise in metallic samples is mainly dominated by the physics of defects such as manganese interstitials and arsenic antisites. Furthermore, first noise studies were carried out on hafnia- and yttria-based resistive random access memories. In these memristor devices, the rupture and re-formation of oxygen deficient conducting filaments caused by the electric field and Joule heating driven motion of mobile anions lead to an unusual resistance switching behavior. For the first time, comparative noise measurements on oxygen deficient and stoichiometric hafnium oxide devices, as well as on novel yttrium oxide based devices were performed in this work. Finally, new strategies for noise measurements of highly insulating and extremely low-resistive samples were developed and realized. In detail, an experimental setup for the measurements of dielectric polarization fluctuations in insulating systems was designed and successfully tested. Here, the polarization noise of a sample is measured as current or voltage fluctuations produced within a capacitance cell. The study of dielectric polarization noise allows for conclusions to be drawn regarding equilibrium structural dynamics in insulators such as relaxor ferroelectrics. On the other hand, as successfully demonstrated for a heavy-fermion compound, focused ion beam etching enables to introduce a meander-shaped geometry in single crystal platelets, in order to strongly enhance the sample resistance and thus make resistance noise measurements possible. First results indicate a connection of the noise properties with the Kondo effect in the investigated material.
Infections with the hepatitis B virus (HBV) or the hepatitis C virus (HCV) lead to complications like the development of cirrhosis or hepatocellular carcinoma. These complications end up in 887,000 and 500,000 deaths per year, respectively. Since the development of new direct acting antiviral agents for HCV in the past years a complete cure of an HCV infection can be achieved in the majority of the patients. In contrast, a complete cure of a chronic HBV infection still remains a challenging problem as current treatment regimens mainly suppress the viral replication and cccDNA as well as integrated DNA still persist in these patients. Several viral and host factors were described to impair the efficacy of treatment regimens or influence the course of the infection. Therefore, in this work viral factors as well as host factors were investigated in HBeAg negative chronic HBV infected patients and in chronic HCV infected patients. In the present study, it was demonstrated that mutations and/or deletions in the HBV basal core promoter (BCP), the precore and the preS domain occur in a genotype-specifc pattern in HBeAg negative HBV infected patients. While the BCP double mutation A1762T/G1764A was found with the highest prevalence in genotype E infected patients, the precore mutation G1896A occurred mostly in genotype B infected patients. Variants in the preS domain could be detected with the highest frequency in patients infected with genotype C. In patients, who had to start an antiviral therapy during the course of the disease, mutations in the precore region could be detected with a higher frequency in the samples right before treatment start in comparison to the baseline sample.
While different HBV genotypes and preS mutations were not associated with HBV-DNA serum levels, precore mutations as well as BCP mutations were significantly associated with HBV-DNA levels. Furthermore, precore mutations showed lower and preS mutations higher HBsAg levels. The HBsAg serum levels varied significantly among the different genotypes. Since HBsAg levels < 1000 IU/ml have been described as a prognostic marker in several studies, the prevalence of patients with HBsAg < 1000 IU/ml was analyzed among the genotypes A - E. While most of the patients infected with HBV genotype B had HBsAg < 1000 IU/ml, only a few patients infected HBV genotype E and A had HBsAg < 1000 IU/ml.
Furthermore, HBV genotype A genomes derived from patients harboring a) A1762T/ G1764A (BCP), b) G1896A/G1899A (precore), c) 15 aa deletion in preS1, d) no mutation (reference genome) were cloned and analyzed in vitro. An enhanced expression but reduced secretion of viral genomes was found in the preS-deletion- and the precore-variant. No differences in the HBsAg production and secretion were observed in the cloned precore- or BCP-variant, while the preS-deletion-variant was characterized with an elevated HBsAg release.
Regarding the secretion of viral and subviral particles, a genotype-specifc pattern of the L/M/SHBs ratio was detected in the serum of patients infected with genotypes A - E. This pattern did not change in the serum of patients, who started antiviral treatment. Secreted HBsAg containing particles displayed a higher density as well as a higher filaments/spheres ratio in genotypes B and D compared to genotypes A, C and E. Population-based and deep sequencing revealed large deletions in the preS domain or preS2 start codon mutations in a certain number of the viral genomes. Theoretically, these mutations/deletions should influence the molecular weight of the expressed protein or abolish the expression of the protein at all. In contrast, LHBs/MHBs were detectable and appeared at the same molecular weight in these patient samples in comparison to patient samples without these mutations. Furthermore, in the in vitro analyses comparing the reference genome and the preS1-deletion genome, it was shown that the deletion indeed influenced the molecular weight of LHBs. Therefore, HBsAg might be expressed from a genetically different source than the released viral genomes, meaning the integrated DNA.
Additionally, in the present study the prevalence of resistance associated substitutions (RASs) in the viral genes NS3, NS5A and NS5B of chronic HCV infected patients was analyzed in correlation to single nucleotide polymorphisms (SNPs) in the interferon-λ4 (IFNL4) gene of the infected patients. No significant correlation was found between IFNL4 SNPs and RASs within NS3/NS5B in the present cohort. In contrast, the frequently detected NS5A RAS Y93H could be significantly associated with beneficial IFNL4 SNPs and a high baseline viral load in HCV genotype 1-infected patients.
Taken together, the present study demonstrated that viral genome mutations as well as the morphology of secreted particles occur in a genotype-dependent pattern in HBeAg negative HBV infected patients with no need of antiviral therapy. As the amount of serum qHBsAg levels varied among the different genotypes, the HBsAg cut-off < 1000 IU/ml should be adapted individually among the various genotypes. Because the composition of the secreted subviral particles varied between the different genotypes, a genotype-specific immune-response might be induced in these patients. Additionally, the results of the present study indicate that in HBeAg negative HBV infected patients with mutations or deletions in the preS domain MHBs and LHBs might be expressed from the integrated DNA and therefore from a genetically different source than the released viral genomes.
Aside from that, the finding of a significant association of the NS5A RAS Y93H with beneficial IFNL4 SNPs in chronic HCV infected patients may explain a lack of a correlation or an inverse correlation of treatment response with the IFNL4 genotype in some NS5A inhibitor-containing IFN-free regimens.
The results of this thesis lie in the area of convex algebraic geometry, which is the intersection of real algebraic geometry, convex geometry, and optimization.
We study sums of nonnegative circuit polynomials (SONC) and their related cone, both geometrically and in application to polynomial optimization. SONC polynomials are certain sparse polynomials having a special structure in terms of their Newton polytopes and supports, and serve as a certificate of nonnegativity for real polynomials, which is independent of sums of squares.
The first part of this thesis is dedicated to the convex geometric study of the SONC cone. As main results we show that the SONC cone is full-dimensional in the cone of nonnegative polynomials, we exactly determine the number of zeros of a nonnegative circuit polynomial, and we give a complete and explicit characterization of the number of zeros of SONC polynomials and forms. Moreover, we provide a first approach to the study of the exposed faces of the SONC cone and their dimensions.
In the second part of the thesis we use SONC polynomials to tackle constrained polynomial optimization problems (CPOPs).
As a first step, we derive a lower bound for the optimal value of CPOP based on SONC polynomials by using a single convex optimization program, which is a geometric program (GP) under certain assumptions. GPs are a special type of convex optimization problems and can be solved in polynomial time. We test the new method experimentally and provide examples comparing our new SONC/GP approach with Lasserre's relaxation, a common approach for tackling CPOPs, which approximates nonnegative polynomials via sums of squares and semidefinite programming (SDP). The new approach comes with the benefit that in practice GPs can be solved significantly faster than SDPs. Furthermore, increasing the degree of a given problem has almost no effect on the runtime of the new program, which is in sharp contrast to SDPs.
As a second step, we establish a hierarchy of efficiently computable lower bounds converging to the optimal value of CPOP based on SONC polynomials. For a given degree each bound is computable by a relative entropy program. This program is also a convex optimization program, which is more general than a geometric program, but still efficiently solvable via interior point methods.
Im Rahmen dieser Arbeit wurden sRNAs des halophilen Archaeons Haloferax volcanii hinsichtlich ihrer biologischen und ihrer regulatorischen Funktion charakterisiert.
Um einen Überblick über die biologischen Funktionen archaealer sRNAs zu erhalten, wurde eine umfassende phänotypische Charakterisierung von 27 sRNA-Deletionsmutanten im Vergleich zum Wildtyp ausgewertet. Im Zuge dieser phänotypischen Charakterisierungen wurden zehn verschiedene Wachstumsbedingungen, morphologische Unterschiede und Veränderungen in der Zellmotilität untersucht. Hierbei zeigten nahezu alle Deletionsmutanten unter mindestens einer der getesteten Bedingungen phänotypische Unterschiede. Durch den Verlust von sRNAs wurden sowohl sogenannte Gain-of-function als auch Loss-of-function Phänotypen beobachtet. Haloarchaeale sRNAs spielen eine wichtige Rolle beim Wachstum mit verschiedenen Salzkonzentrationen, mit verschiedenen Kohlenstoffquellen und beim Schwärmverhalten, sind jedoch weniger in die Adaptation an diverse Stressbedingungen involviert.
Zur näheren Charakterisierung der regulatorischen Funktion archaealer sRNAs wurden sRNA362, sRNAhtsf468 und sRNA479 mittels molekulargenetischer Methoden wie Northern Blot-Analyse und DNA-Mikroarray sowie bioinformatischer in silico-Analyse untersucht. Das Expressionslevel von sRNA362 konnte bestimmt und potentielle Zielgene für sRNAhtsf468 und sRNA479 identifiziert werden.
Eine vorangegangene Studie zeigte den Einfluss von sRNA30 unter Hitzestress und führte zur Identifikation differentiell produzierter Proteine in Abwesenheit der sRNA. In dieser Arbeit wurde mittels Northern Blot-Analysen die Expression der sRNA30 charakterisiert. Das Wachstum in An- und Abwesenheit von sRNA30 wurde bei 42°C und 51°C phänotypisch charakterisiert und der regulatorische Einfluss der sRNA auf die mRNA differentiell regulierter Proteine durch Northern Blot-Analyse überprüft. Eine Transkriptomanalyse mittels DNA-Mikroarray nach Hitzeschock-Induktion führte zur Identifikation differentiell regulierter Gene involviert in Transportprozesse, Metabolismus, Transkriptionsregulation und die Expression anderer sRNAs. Die differentielle Regulation des Proteoms nach Hitzeschockinduktion in An- und Abwesenheit von sRNA30 konnte bestätigt werden.
Desweiteren wurde in dieser Arbeit sRNA132 und deren phosphatabhängige Regulation der Ziel-mRNA HVO_A0477-80 näher charakterisiert. Eine Induktionskinetik nach Phosphatentzug bestätigte die Bedeutung von sRNA132 für die verstärkte Expression des Operons HVO_A0477-80 unter Phosphatmangel-Bedingungen und verwies auf die Existenz weiterer Regulationsmechanismen. Während vor und nach Phosphatentzug kein Unterschied bezüglich der Zellmorphologie von Wildtyp und Deletionsmutante zu erkennen war, führte das Wachstum mit einem starken Phosphatüberschuss von 5 mM zu einer Zellverlängerung der Deletionsmutante. Die Kompetition der nativen 3‘-UTR des Operons HVO_A0477-80 mit einer Vektor-kodierten artifiziellen 3‘-UTR legt eine Regulation über die Bindung von sRNA132 an die 3‘-UTR nahe. Der Transkriptomvergleich nach Phosphatentzug in An- und Abwesenheit von sRNA132 führte zur Identifikation des Phosphoregulons der sRNA. Zu diesem Phosphoregulon gehören unter anderem zwei Glycerinphosphat-Dehydrogenasen, Transkriptionsregulatoren, eine Polyphosphatkinase und eine Glycerolphosphodiesterase. Zudem waren die Transkriptlevel der beiden ABC-Transporter HVO_A0477-80 und HVO_2375-8 für anorganisches Phosphat und des Transporters HVO_B0292-5 für Glycerinaldehyd-3-Phosphat in Abwesenheit der sRNA verringert. Die beiden ABC-Transportsysteme für anorganisches Phosphat wurden im Rahmen dieser Arbeit deletiert und weiter charakterisiert. Es konnte gezeigt werden, dass das ABC-Transportsystem HVO_2375-8 bei geringen Phosphatkonzentrationen leicht induziert wird und das Transkriptlevel in Anwesenheit von sRNA132 erhöht ist. Wachstumsversuche der jeweiligen Deletionsmutante in direkter Konkurrenz mit dem Wildtyp zeigten, dass keiner der beiden ABC-Transporter den anderen vollständig ersetzen kann und der Wildtyp mit beiden intakten ABC-Transportern unter phosphatlimitierenden Bedingungen einen Wachstumsvorteil besitzt. In silico-Analysen der Promotorbereiche von sRNA und ABC-Transporter legen zudem die Existenz von P-Boxen nahe.
Crystal growth and characterization of cerium- and ytterbium-based quantum critical materials
(2018)
In der Festkörperphysik werden heutzutage Themen wie Supraleitung, Magnetismus und Quantenkritikalität sowohl von experimenteller als auch von theoretischer Seite stark untersucht. Quantenkritikalität und Quantenphasenübergänge können in Systemen erforscht werden, für welche ein Kontroll Parameter existiert, durch den z.B. eine magnetische Ordnung soweit unterdrückt wird, bis der Phasenübergang bei Null Kelvin, bei einem quantenkritischen Punkt (QCP), stattfindet. Vorzugsweise wird quantenkritisches Verhalten an Einkristallen untersucht, da diese in sehr reiner Qualität gezüchtet werden können und da deren gemessenen physikalischen Eigenschaften ausschließlich intrinsisch sind und nicht durch Verunreinigungseffekte überlagert werden. Der Schwerpunkt dieser Arbeit lag auf der Züchtung von Einkristallen und der Charakterisierung von Materialien, die quantenkritische Phänomene aufweisen. Als Ausgangsstoffe dienten dabei Elemente höchstmöglicher Reinheit. Es wurden die Serie YbNi4(P1-xAsx)2 mit einem ferromagnetischen QCP bei x=0,1, die Verbindung YbRh2Si2 mit einem feldinduzierten QCP bei Bcrit = 60mT und die Serie Ce(Ru1-xFex)PO mit einem QCP bei x = 0,86 untersucht. Für alle Verbindungen wurde das Züchtungsverfahren entwickelt, dann wurden Einkristalle gezüchtet und charakterisiert. Die Züchtung wurde zum einen mittels der Bridgman-Methode, zum anderen mit der Czochralski Methode durchgeführt. Neben struktureller und chemischer Charakterisierung der Einkristalle mittels Röntgen-Pulverdiffraktometrie, Laue-Methode und Energie-dispersiver Röntgen-Spektroskopie, wurden auch deren spezifische Wärme, elektrischer Widerstand und Magnetisierung im Temperaturbereich 1,8 – 300 K untersucht. Im weiteren Verlauf wurden die Kristalle in verschiedenen Kooperationen untersucht und bis in den Tieftemperatur- Bereich (20 mK), bei YbRh2Si2 bis in den Submillikelvin-Bereich, charakterisiert. Ausserdem wurden im Rahmen dieser Dissertation Einkristalle weiterer antiferromagnetischer Verbindungen SmRh2Si2, GdRh2Si2, GdIr2Si2, HoRh2Si2 und HoIr2Si2 gezüchtet. Bei diesen Verbindungen stand die Untersuchung elektronischer Oberflächenzustände mittels winkelaufgelöster Photoemissionsspektroskopie im Vordergrund.
Die Forschungsarbeit leistet einen kriminologischen Beitrag zur Systematisierung des Phänomens der sekundären Viktimisierung bei Opfern sexualisierter Gewalt und zeigt gleichzeitig Präventionsansätze auf, die sekundäre Viktimisierung verhindern sollen.
„Sekundäre Viktimisierung“ als die sogenannte „zweite Opferwerdung“ durch soziale Fehlreaktionen einzelner Personen oder gesellschaftlicher Gruppen sowie die Prävention dieses Phänomens ist im Detail noch wenig erforscht. Der Fokus des Forschungs- und Erkenntnisinteresses richtet sich auf die Zielgruppe der Opfer sexualisierter Gewalt, die in ihrer Kindheit sexuell missbraucht und als Erwachsene sekundär viktimisiert wurden. Es wird angenommen, dass Sexualstraftaten, die von den Opfern im Kindesalter erlitten werden, in besonderem Maße die persönliche Unversehrtheit verletzen und dass somit eine zusätzliche sekundäre Viktimisierung als besonders belastend empfunden wird.
Zunächst wird im theoretischen Teil auf wesentliche Begriffe wie sexualisierte Gewalt in Verbindung mit primärer und sekundärer Viktimisierung eingegangen und nimmt deren kriminologische Einordnung vor, stellt das Ausmaß sowie die Spezifika des Phänomens in den Fokus. Dabei wird zunächst der Opferbegriff ausführlich diskutiert, wobei der Opferperspektive viel Raum gegeben wird. Ein weiterer Schwerpunkt liegt auf der Darstellung des aktuellen Forschungsstandes zur sekundären Viktimisierung, insbesondere mit Bezug zu sexualisierter Gewalt.
Im Zentrum des qualitativen Forschungsansatzes stehen folgende Fragen: „Welche Strukturen prägen die Situationen sekundärer Viktimisierung?“ und „Wie ist Prävention von sekundärer Viktimisierung möglich?“. Auf der Grundlage der Forschungsergebnisse wurde ein Präventionskonzept mit praxisorientierten Empfehlungen entwickelt. Zunächst sind typische Strukturen sekundärer Viktimisierung analysiert und in einem Modell verdeutlicht worden. Es ist zu unterscheiden zwischen Strukturen, die sekundäre Viktimisierung begünstigen (Risikofaktoren) sowie Strukturen, die sekundärer Viktimisierung vorbeugen (Schutzfaktoren). Anhand der identifizierten Schutzfaktoren entstand das Modell zur Prävention sekundärer Viktimisierung, aus denen konkrete Präventionsansätze abzuleiten sind.
Hervorgehoben wird die kriminologische Orientierung der Arbeit; wenngleich die Kriminologie interdisziplinär einzuordnen ist, dominiert bei der Analyse die kriminalsoziologische Verortung und speziell die viktimologische Ausrichtung.
Die vorliegende Dissertation beschäftigt sich mit der moderierenden Rolle der Elaboriertheit des sportbezogenen Selbstaspekts auf die Verarbeitung selbstrelevanter Informationen im Sport.
Im ersten Kapitel werden aus einer übergeordneten Perspektive heraus zunächst die beiden im Mittelpunkt der Dissertation stehenden Konstrukte Selbst und Identität in einen historischen Kontext gesetzt und begrifflich umrissen. Im Anschluss werden verschiedene Modelle des Selbst vorgestellt. Dabei wird aufgezeigt, dass insbesondere in der sportpsychologischen Forschung bislang eher Inhalte und weniger Strukturen und Prozesse des Selbstkonzepts im Mittelpunkt standen. In der vorliegenden Dissertation wird das Selbst bzw. die Identität als komplexes, dynamisches System aufgefasst, das sowohl die Informationsverarbeitung beeinflusst als auch durch Prozesse der Informationsverarbeitung beeinflusst wird. Im Anschluss stehen Theorien der Selbstwerterhöhung und der Selbstkonsistenz im Mittelpunkt, deren Vertreter unterschiedliche Vorhersagen für die Verarbeitung konsistenter und von der eigenen Selbsteinschätzung positiv abweichender Rückmeldungen postulieren: Während Selbstwerterhöhungstheorien eine Präferenz für positives Feedback vorhersagen, bevorzugen Personen laut Selbstkonsistenztheorien solches Feedback, das mit ihrer eigenen Selbsteinschätzung übereinstimmt. Anschließend werden mit der Art der Reaktion (affektiv vs. kognitiv) und der Elaboriertheit des betroffenen Selbstaspekts zwei Variablen vorgestellt, die moderieren, ob die Informationsverarbeitung eher konsistenztheoretischen (kognitive Reaktion, hohe Elaboriertheit) oder selbstwerterhöhenden (affektive Reaktion, geringe Elaboriertheit) Vorhersagen folgt.
Ausführlicher werden dann mit dem Exercise Self-Schema und der Exercise Identity zwei sportbezogene Konstrukte vorgestellt, die zur Operationalisierung der Elaboriertheit des entsprechenden Selbstaspekts genutzt werden können. Hierbei wird sowohl auf die Messung als auch auf den empirischen Forschungsstand eingegangen und es wird dargestellt, dass die beiden Konstrukte zwar unterschiedlichen theoretischen Denklinien entstammen, auf operationaler Ebene aber weitgehend austauschbar sind.
Das zweite Kapitel enthält einen Überblick über die drei durchgeführten quantitativen empirischen Studien. Studie 1 (N = 530) beschreibt die Übersetzung und Validierung der Exercise Identity Scale ins Deutsche. Dabei wird neben den beiden in der Literatur diskutierten Ein- und Zwei-Faktor-Modellen auch ein Bifaktor-Modell als mögliche Alternative geprüft. Zusätzlich wird die Invarianz der Skala über die Zeit (Abstand: 14 Tage) mit einer Teilstichprobe, die Invarianz zwischen Männern und Frauen mit der Gesamtstichprobe sowie die konvergente Validität über Korrelationen mit verwandten Konstrukten getestet.
Die Studien 2 und 3 widmen sich der eigentlichen Forschungsfrage nach der moderierenden Wirkung der Elaboriertheit auf die Verarbeitung von sportbezogenem selbstrelevantem Feedback. In Studie 2 (Onlinestudie) wird die Elaboriertheit über das Exercise Self-Schema operationalisiert (N = 472). In dieser Studie zeigt sich, dass Personen – unabhängig davon, ob sie ein Selbstschema im Bereich sportlichen Trainings aufweisen oder nicht – Feedback, das von ihrer eigenen Selbsteinschätzung positiv abweicht, gegenüber mit ihrer Selbsteinschätzung übereinstimmendem (konsistentem) Feedback vorziehen. In Studie 3 (Laborstudie, N = 215) werden einige Limitationen der Onlinestudie adressiert, indem u. a. das fingierte Feedback nach einem objektiveren (physiologischen) Test gegeben und die Elaboriertheit mithilfe der kontinuierlichen Exercise Identity Scale gemessen wird. Auch hier zeigt sich die vermutete moderierende Wirkung der Exercise Identity nicht: Bei der affektiven Reaktion dominiert das Selbstwerterhöhungsmotiv; bei der kognitiven zeigt sich zwar ein kleiner Effekt, der allerdings erwartungswidrig ausfällt (Personen mit geringerer Exercise Identity bevorzugten konsistentes gegenüber positivem Feedback). In beiden Studien zeigt sich darüber hinaus ein moderierender Effekt der Elaboriertheit des sportbezogenen Selbstaspekts hinsichtlich des zur Kontrolle mit in das Versuchsdesign einbezogenen negativen Feedbacks.
Im dritten Kapitel wird eine Gesamtdiskussion der Ergebnisse aus einer übergeordneten Perspektive vorgenommen. Die Befunde werden in den bisherigen empirischen Forschungsstand eingeordnet und es werden Grenzen der durchgeführten Studien diskutiert. Implikationen für zukünftige Forschung werden u. a. im Hinblick auf eine Verbindung zwischen der grundlagenorientierten kognitiv-motivationalen Perspektive der vorliegenden Arbeit und einer eher anwendungsorientierten Perspektive im Sinne der Förderung einer Bindung an sportliche Aktivität diskutiert.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine ‚Schutzfunktion‘ vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste.
Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
The enzyme acetyl-CoA carboxylase (ACC) plays a fundamental role in the fatty acid metabolism. It regulates the first and rate limiting step in the biosynthesis of fatty acids by catalyzing the carboxylation of acetyl-CoA to malonyl-CoA and exists as two different isoforms, ACC1 and ACC2. In the last few years, ACC has been reported as an attractive drug target for treating different diseases, such as insulin resistance, hepatic steatosis, dyslipidemia, obesity, metabolic syndrome and nonalcoholic fatty liver disease. An altered fatty acid metabolism is also associated with cancer cell proliferation. In general, the inhibition of ACC provides two possibilities to regulate the fatty acid metabolism: It blocks the de novo lipogenesis in lipogenic tissues and stimulates the mitochondrial fatty acid β-oxidation. Surprisingly, the role of ACC in human vascular endothelial cells has been neglected so far. This work aimed to investigate the role of the ACC/fatty acid metabolism in regulating important endothelial cell functions like proliferation, migration and tube formation.
To investigate the function of ACC, the ACC-inhibitor soraphen A as well as an siRNA-based approach were used. This study revealed that ACC1 is the predominant isoform both in human umbilical vein endothelial cells (HUVECs) and in human dermal microvascular endothelial cells (HMECs). Inhibition of ACC via soraphen A resulted in decreased levels of malonyl-CoA and shifted the lipid composition of endothelial cell membranes. Consequently, membrane fluidity, filopodia formation and the migratory capacity were attenuated. Increasing amounts of longer acyl chains within the phospholipid subgroup phosphatidylcholine (PC) were suggested to overcompensate the shift towards shorter acyl chains within phosphatidylglycerol (PG), which resulted in a dominating effect on regulating the membrane fluidity. Most importantly, this work provided a link between changes in the phospholipid composition and altered endothelial cell migration. The antimigratory effect of soraphen A was linked to a reduced amount of PG and to an increased amount of polyunsaturated fatty acids (PUFAs) within the phospholipid cell membrane. This link was unknown in the literature so far. Interestingly, a reduced filopodia formation was observed upon ACC inhibition via soraphen A, which presumably caused the impaired migratory capacity.
This work revealed a relationship between ACC/fatty acid metabolism, membrane lipid composition and endothelial cell migration. The natural compound soraphen A emerged as a valuable chemical tool to analyze the role of ACC/fatty acid metabolism in regulating important endothelial cell functions. Furthermore, regulating endothelial cell migration via ACC inhibition promises beneficial therapeutic perspectives for the treatment of cell migration-related disorders, such as ischemia reperfusion injury, diabetic angiopathy, macular degeneration, rheumatoid arthritis, wound healing defects and cancer.
Quantum chromodynamics (QCD) is the theory of the strong interaction between quarks and gluons. Due to Confinement, at lower energies quarks and gluons are bound into colorless states called hadrons. QCD is also asymptotically free, i.e. at large energies or densities it enters a deconfined state, termed quark-gluon plasma (QGP), where quarks and gluons are quasi-free. This transition occurs at an energy scale around 200 MeV where QCD cannot be treated perturbatively. Instead it can be formulated on a space-time grid. The resulting theory, lattice quantum chromodynamics (LQCD), can be simulated efficiently on high performance parallel-computing clusters. In recent years graphic processing units (GPUs), which outperform CPUs in terms of parallel-computing and memory bandwidth capabilities, became very popular for LQCD computations. In this work the QCD deconfinement transition is studied using CL2QCD, a LQCD application that runs efficiently on GPUs. Furthermore, CL2QCD is extended by a Rational Hybrid Monte Carlo algorithm for Wilson fermions to allow for simulations of an odd number of quark flavors.
Due to the sign-problem LQCD simulations are restricted to zero or very small baryon densities, where, in the limit of infinite quark mass QCD has a first order deconfinement phase transition associated to the breaking of the global centre symmetry. Including dynamical quarks breaks this symmetry explicitly. Lowering their mass weakens the first order transition until it terminates in a second order Z2 point. Beyond this point the transition is merely an analytic crossover. As the lattice spacing is decreased, the reduction of discretization errors causes the region of first order transitions to expand towards lower masses. In this work the deconfinement critical point with 2 and 3 flavors of standard Wilson fermions is studied. To this end several kappa values are simulated on temporal lattice extents 6,8,10 (4) for two flavors (three flavors) and various aspect ratios (spatial lattice extent / temporal lattice extent) so as to extrapolate to the thermodynamic limit, applying finite size scaling. For two flavors an estimate is done if and when a continuum extrapolation is possible.
The chiral and deconfinement phase transitions at zero density for light and heavy quarks, respectively, have analytic continuations to purely imaginary chemical potential, where no sign-problem exists and LQCD simulations can be applied. At some critical value of the imaginary chemical potential, the transitions meet the endpoint of the Roberge-Weiss transition between adjacent Z3 sectors. For light and heavy quarks the transition lines meet in a triple point, while for intermediate masses they meet in a second order point. At the boundary between these regimes the junction is a tricritical point, as shown in studies with two and three flavors of staggered and Wilson quarks on lattices with a temporal lattice extent of 4. Employing finite size scaling the nature of this point as a function of the quark mass is studied in this work for two flavors of Wilson fermions with a temporal lattice extent of 6. Of particular interest is the change of the location of tricritical points compared to an earlier study on lattices with temporal extent of 4.