Refine
Year of publication
- 2018 (204) (remove)
Document Type
- Doctoral Thesis (204) (remove)
Has Fulltext
- yes (204) (remove)
Is part of the Bibliography
- no (204)
Keywords
- Lebensqualität (2)
- Spracherwerb (2)
- vascular endothelial cells (2)
- ABCE1 (1)
- ARFI (1)
- Adhärenz (1)
- Afghanistan (1)
- Allosteric inhibition (1)
- Anomalie <Medizin> (1)
- Anwendungsorientierte Forschung (1)
Institute
- Biochemie, Chemie und Pharmazie (44)
- Medizin (39)
- Biowissenschaften (34)
- Physik (21)
- Informatik und Mathematik (17)
- Gesellschaftswissenschaften (8)
- Sprach- und Kulturwissenschaften (8)
- Neuere Philologien (7)
- Biochemie und Chemie (3)
- Kulturwissenschaften (3)
Die forensische Entomologie nutzt nekrophage Insekten, hauptsächlich Dipteren und ihre juvenilen Stadien, zur Schätzung der minimalen Leichenliegezeit. Dem liegt zugrunde, dass nekrophage Dipteren binnen Minuten nach dem Todeseintritt potentiell in der Lage sind, einen Leichnam zu detektieren und zu besiedeln. Das anschließende Wachstum und die Entwicklung der juvenilen Stadien erfolgt als Funktion von der Art und der Umgebungstemperatur.
Mit Hilfe von Laborstudien konnten bislang für einige forensisch relevante Fliegenarten Entwicklungsdaten erhoben werden, die eine Altersbestimmung der sich an einem Leichnam entwickelnden Larven und Puppen erlauben und so eine Schätzung der minimalen Leichenliegezeit ermöglichen. Als Nährsubstrat für Laborstudien werden tierische Gewebe verwendet. Eine Übertragbarkeit der Daten auf humanes Gewebe wurde aber bislang nicht verifiziert. In der vorliegenden Arbeit wurde das larvale Wachstum und die juvenile Entwicklungsgeschwindigkeit der forensisch relevanten Schmeißfliege Calliphora vicina (Diptera: Calliphoridae) auf humanem Muskelgewebe untersucht und mit dem Wachstum auf Schweineleber, magerem Schweinemuskelfleisch und Schweinehackfleisch verglichen. Die auf humanem Gewebe heranwachsenden Individuen waren mit bis zu 3,5 mm signifikant länger als die Individuen, die sich auf Leber und dem mageren Schweinemuskelfleisch entwickelten. Bei der Verwendung von Hackfleisch vom Schwein zeigte sich kein Unterschied. Darauf basierend wird die Empfehlung ausgesprochen, für zukünftige Entwicklungsstudien Schweinehackfleisch als Ersatz für humanes Gewebe zu verwenden.
Zahlreiche Anleitungen zur Asservierung forensisch-entomologischer Spuren empfehlen das Sammeln getrennt nach Körperregionen eines Leichnams. Dies soll eine mögliche gewebespezifische Entwicklungsrate berücksichtigen. Das für die vorliegende Arbeit durchgeführte systematische Absammeln von Fliegenlarven von 51 Leichnamen getrennt nach Körperregionen zeigte keine artspezifischen Präferenzen für bestimmte Gewebe oder Körperregionen. Das Artenspektrum entsprach größtenteils dem aufgrund von Studien an Schweinekadavern zu erwartendem Artenspektrum für Deutschland und Mitteleuropa. Insgesamt konnten 15 Schmeißfliegenarten nachgewiesen werden, von denen in der Regel mehrere gleichzeitig an einem Leichnam zu finden waren. Dies zeigt, dass ein Faktor wie interspezifische Konkurrenz in Zukunft mehr Beachtung in der Forschung erhalten sollte.
Bislang wurde in der forensischen Entomologie die minimale Leichenliegezeit durch die Untersuchung juveniler Stadien von Fliegen eingegrenzt. Eine eventuell mögliche Ausweitung dieses Zeitfensters könnte durch eine Altersbestimmung der adulten Fliegen oder der leeren Puparien gelingen. Der Nachweis, dass die dafür untersuchten Fliegen bzw. Puparien tatsächlich von dem fraglichen Leichnam stammen, war bislang nicht möglich. Die forensische relevante Schmeißfliege Lucilia sericata wurde in der vorliegenden Arbeit auf humanem Gewebe und Gewebe von elf weiteren Tierarten großgezogen. Durch die Analyse stabiler Kohlen- und Stickstoffisotope konnte ein von diesen elf Tierarten abgrenzbares humanes Isotopenprofil sowohl für die adulten Fliegen von L. sericata, als auch für ihre leeren Puparien detektiert werden. Dieses Profil spiegelte die Nahrungszusammensetzung der Wirte wider.
Die vorliegende Arbeit erhebt Daten zur Entwicklung einer forensisch relevanten Schmeißfliegenart auf humanem Gewebe, belegt das bislang lediglich am tierischen Modell erhobene Schmeißfliegeninventar als für menschliche Leichen relevant und hinterfragt die gewebespezifische Asservierungsempfehlung als ein akademisches Artefakt. Auf dieser Basis konnten Empfehlungen für die Weiterzucht fallrelevanter entomologischer Spuren ausgesprochen werden, die gerichtsverwertbar sind und die Verwendung von tierischem Gewebe oder Tierkadaver in der forensisch-entomologischen Forschung legitimieren. Die Analyse stabiler Isotope legt darüber hinaus einen neuen, innovativen Grundstein für die routinemäßige Spurenzuordnung älterer Entwicklungsstadien und ist damit Vorreiter auf dem Gebiet der forensischen Entomologie.
Die vorliegende Arbeit beschäftigt sich mit dem Thema Stemmatologie, d.h. primär der Rekonstruktion der Kopiergeschichte handschriftlich fixierter Dokumente. Zentrales Objekt der Stemmatologie ist das Stemma, eine visuelle Darstellung der Kopiergeschichte, welche i.d.R. graphtheoretisch als Baum bzw. gerichteter azyklischer Graph vorliegt, wobei die Knoten Textzeugen (d.s. die Textvarianten) darstellen während die Kanten für einzelne Kopierprozesse stehen. Im Mittelpunkt des Wissenschaftszweiges steht die Frage des Autorenoriginals (falls ein einziges solches existiert haben sollte) und die Frage der Rekonstruktion seines Textes. Das Stemma selbst ist ein Mittel zu diesem Hauptzweck (Cameron 1987). Der durch für manuelle Kopierprozesse kennzeichnende Abweichungen zunehmend abgewandelte Originaltext ist meist nicht direkt überliefert. Ziel der Arbeit ist es, die semi-automatische Stemmatologie umfassend zu beschreiben und durch Tools und analytische Verfahren weiterzuentwickeln. Der erste Teil der Arbeit beschreibt die Geschichte der computer-assistierten Stemmatologie inkl. ihrer klassischen Vorläufer und mündet in der Vorstellung eines einfachen Tools zur dynamischen graphischen Darstellung von Stemmata. Ein Exkurs zum philologischen Leitphänomen Lectio difficilior erörtert dessen mögliche psycholinguistische Ursachen im schnelleren lexikalischen Zugriff auf hochfrequente Lexeme. Im zweiten Teil wird daraufhin die existenziellste aller stemmatologischen Debatten, initiiert durch Joseph Bédier, mit mathematischen Argumenten auf Basis eines von Paul Maas 1937 vorgeschlagenen stemmatischen Models beleuchtet. Des Weiteren simuliert der Autor in diesem Kapitel Stemmata, um den potenziellen Einfluss der Distribution an Kopierhäufigkeiten pro Manuskript abzuschätzen.
Im nächsten Teil stellt der Autor ein eigens erstelltes Korpus in persischer Sprache vor, welches ebenso wie 3 der bekannten artifiziellen Korpora (Parzival, Notre Besoin, Heinrichi) qualitativ untersucht wird. Schließlich wird mit der Multi Modal Distance eine Methode zur Stemmagenerierung angewandt, welche auf externen Daten psycholinguistisch determinierter Buchstabenverwechslungswahrscheinlichkeiten beruht. Im letzten Teil arbeitet der Autor mit minimalen Spannbäumen zur Stemmaerzeugung, wobei eine vergleichende Studie zu 4 Methoden der Distanzmatrixgenerierung mit 4 Methoden zur Stemmaerzeugung durchgeführt, evaluiert und diskutiert wird.
The liver as the biggest endocrine gland of the human body plays a central role in many metabolic pathways such as detoxification, storage of carbohydrates and distribution of lipids. As the liver receives blood supply from the gut by the portal vein, liver cells are often challenged with high concentrations of nutrients and components of our commensal microbiota. Therefore, the immune system of the liver induces a tolerant state, meaning no or low inflammatory reactions to those constant stimuli. Yet, as various pathogens target the liver, the hepatic immune system also needs the capability to induce strong immune responses quickly. Chronical damage to the liver, which can be caused by alcohol, pathogens or toxins, might lead to liver cirrhosis, where the amount of functional liver tissue is decreased dramatically. This pathology can worsen and lead to acute-on-chronic liver failure, whose high mortality is due to high inflammation and multi-organ failure. Interleukin-7 is a cytokine known for its pro-survival functions especially in lymphopoiesis. However, it is also very important for maintenance of mature immune cells in the liver. As mouse experiments have demonstrated an induction of Interleukin-7 in the liver as a response to bacterial lipopolysaccharide, we aimed to characterize the role of Interleukin-7 in hepatic immunoregulation in both health and disease.
The experiments were mostly based on in vitro approaches. Induction of Interleukin-7 in liver cells was analyzed using ELISA, quantitative PCR, and Immunoblotting. Knockdown of signal transduction components was performed by siRNA transfection. Primary immune cells isolated from healthy donor buffy coat were studied for their ability to respond to Interleukin-7. Activation of downstream signal transduction was assessed by Immunoblotting. Functional consequences of Interleukin-7 signaling, such as alterations in cellular metabolism, cellular survival and endotoxin tolerance, were studied in monocyte-derived macrophages. Finally, serum concentrations of Interleukin-7 and frequencies of Interleukin-7 receptor positive immune cells were quantified in patients with compensated or decompensated liver cirrhosis or acute-on-chronic liver failure.
Interleukin-7 expression could be observed in human hepatic cell lines and primary hepatic sinusoidal endothelial cells when stimulated with IFNα or IFNγ, but not IFNλ. IRF-1 was identified as a key regulator of Interleukin-7 expression, as its transcription, translation and nuclear translocation were induced and enhanced upon IFNα or IFNγ, but not IFNλ treatment. We identified LPS-primed macrophages as innate immune target cells of Interleukin-7, which responded by an inhibitory phosphorylation of GSK3. This signal transduction led to enhanced production of pro-inflammatory cytokines and abolished endotoxin tolerance. In parallel, cellular fitness was reduced as demonstrated by reduced intracellular ATP concentration and intracellular WST-1 staining. Finally, we could identify components of the in vitro signal transduction also in liver cirrhosis patients. However, Interleukin-7 serum concentrations were significantly in liver cirrhosis patients compared to healthy controls. In addition, the frequencies of Interleukin-7 receptor positive immune cell populations differed in patients and controls.
We identify Interleukin-7 as a pro-inflammatory cytokine in hepatic immunoregulation. It is part of a cascade where its induction is regulated by type I and type II Interferons and mainly restricted by the presence of IRF1. We demonstrate the importance of Interleukin-7 also for innate immune cells, where the abolishment of endotoxin tolerance may provide an interesting strategy of liver cirrhosis patients. In addition, reduced viability of macrophages in response to Interleukin-7 is a striking contrast to the well-described survival functions in lymphocytes. The decrease of serum Interleukin-7 levels and alterations of Interleukin-7 receptor positive immune cell populations suggest an important role for Interleukin-7 also in the diseased liver. Due to the identified mechanisms of action, Interleukin-7 may be an interesting candidate for immunotherapeutic approaches of liver cirrhosis and acute-on-chronic liver failure.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
Nach Jakobson (1941) lassen sich in der frühen phonologischen Entwicklung zwei diskrete Phasen unterscheiden. Eine erste Phase, in der vorsprachliche Lalllaute produziert werden und keine phonologischen Kontraste gegeben sind, und eine zweite Phase, die eigentliche Sprachstufe, in der eben diese sprachsystematischen Kontrastbildungen sukzessive ausgebaut werden. Ausgehend von diesem strukturalistischen Paradigma wurden Protowörter, die im Übergang von der Lallphase zur Zielwortproduktion realisiert werden und bei einer relativ stabilen Bedeutungszuweisung keine overte Ähnlichkeit zu Zielwörtern zeigen, entweder als artikulatorische Muster analysiert oder unter der Perspektive der Generativen Grammatik als nicht-phonologische Wortformen gänzlich ignoriert. Im Gegensatz zu diesen tradierten Ansätzen wird in dieser Arbeit ein neuer Ansatz vertreten, nach dem dreidimensionale (mit segmentaler, silbischer und metrischer Ebene) phonologische Repräsentationen ab ovo in der Sprachverarbeitung aktiv sind und sich gemäß der klassischen Kompetenz-Performanz-Unterscheidung in frühen Wortproduktionen auch linguistisch analysieren lassen. Das adäquate Instrumentarium für diese Analyse können gerade nicht zielsprachliche Merkmalskontraste mit bedeutungsunterscheidender Funktion sein, sondern genuin phonologische Kontraste. Zielführend ist hier die Anwendung der Demisilbentheorie von Clements (1990), mit deren Hilfe die phonologische Komplexität von Demisilben nach Maßgabe von Sonorität berechnet werden. Wurde diese Theorie bisher erfolgreich in der Aphasiologie angewendet, wird sie hier erstmals in der Untersuchung der Protowortproduktion, appliziert. Die Daten stammen aus der im Rahmen dieser Arbeit durchgeführten Einzelfallstudie, in der die Spontansprachproduktionen von Kind J., 1;4 Jahre, jeweils einmal wöchentlich für 30 Minuten aufgezeichnet wurden. Die Aufnahmen endeten zu dem Zeitpunkt, als Kind J. keine Protowörter mehr produzierte. Wesentliche Ergebnisse einer linguistisch-qualitativen wie auch einer statistisch-quantitativen Analyse dieser Daten waren, dass Proto- und Zielwortproduktion korrelierten, d.h., bei Abnahme der Protowortproduktion die Zielwortproduktion zunahm; beide Wortklassen tendenziell aus nicht-komplexen Demisilben aufgebaut waren und Protowörter in dem Sinne als Vorläufer von Zielwörtern angesehen werden können, als dass bei ihnen nicht die zielsprachliche Bedeutungszuweisung, sondern die Etablierung phonologischer Repräsentationen maßgeblich ist. Ausgehend von diesen Ergebnissen wird ein differenziertes Schalenmodell der frühen phonologischen Entwicklung vorgestellt, nach welchem der segmentale Merkmalsausbau und seine Integration in die Silbe mittels Sonorität noch vor der metrischen Betonungszuweisung stattfindet. Unter Hinzunahme der Parallelen Architektur von Jackendoff (2002) wird abschließend eine kognitiv-linguistische Definition von Protowörtern gegeben, die nicht zuletzt auch zu diagnostischen Zwecken in der sprachtherapeutischen Praxis gebraucht werden kann.
Heat stress transcription factors (Hsfs) are required for transcriptional changes during heat stress (HS) thereby playing a crucial role in the heat stress response (HSR). The target genes of Hsfs include heat shock proteins (Hsps), other Hsfs and genes involved in protection of the cell from irreversible damages due to exposure to elevated temperatures. Among 27 Hsfs in Solanum lycopersicum, HsfA1a, HsfA2 and HsfB1 constitute a functional triad which regulates important aspects of the HSR. HsfA1a is constitutively expressed and described as the master regulator of stress response and thermotolerance. Activation of HsfA1a under elevated temperatures leads to the induction of HsfA2 and HsfB1 which further stimulate the transcription of HS-responsive genes by forming highly active complexes with HsfA1a. Despite the well-established role of these three Hsfs in tomato HSR, information about functional relevance of other Hsfs is currently missing.
The heat stress inducible HsfA7 belongs alongside with HsfA2 to a phylogenetically distinct clade. Thereby the two proteins share high homology and a functional redundancy has been assumed. However, HsfA7 function and contribution to stress responses have not been investigated into detail in any plant species.
Tomato HsfA7 protein accumulates already at moderately elevated temperatures (~35°C) while HsfA2 becomes dominant at higher temperatures (>40°C). HsfA7 pre-mRNA undergoes complex and temperature-dependent alternative splicing resulting in several transcripts that encode for three protein isoforms. HsfA7-I contains a functional nuclear export signal (NES) and shows nucleocytoplasmic shuttling while HsfA7-II and HsfA7-III have a truncated NES which leads to the strong nuclear retention of the protein. Differences in the nucleocytoplasmic equilibrium have a major impact on the stability of protein isoforms, as nuclear retention is associated with increased protein turnover. Consequently, HsfA7-I shows a higher stability and can be detected even after 24 hours of stress attenuation, while HsfA7-II is rapidly degraded. The degradation of these factors is mediated by the ubiquitin-proteasome pathway.
HsfA7 can physically interact with HsfA1a and HsfA3 and form co-activator (“superactivator”) complexes with a very high transcriptional activity as shown on different HS-inducible promoters. In order for the complex to be successfully transferred to the nucleus and confer its activity it needs a functional nuclear localization signal (NLS) of HsfA7. In contrast, the activator (AHA) motif of HsfA7 is not essential for its co-activator function. Interestingly, while interaction of HsfA7 with either HsfA3 or HsfA1a stabilizes HsfA7 isoforms, concomitantly this leads to an increased turnover of HsfA1a and HsfA3. In contrast, HsfA2 has a stabilizing effect on the master regulator HsfA1a.
Thus, HsfA7 knockout mutants generated by CRISPR/Cas9 gene editing, show increased HsfA1a levels and a stronger induction of HS-related genes at 35°C compared to wild-type plants and HsfA2 knockout mutants. Consequently, HsfA7 knockout seedlings exhibit increased thermotolerance as shown by the enhanced hypocotyl elongation under a prolonged mild stress treatment at 35°C. In summary, these results highlight the importance of HsfA7 in regulation of cellular responses at elevated temperatures. Under moderately elevated temperatures, the accumulation of HsfA7 and its subsequent interaction with HsfA1a, leads to increased turnover of the latter, thereby ensuring a milder transcriptional activation of temperature-responsive genes like Hsps. In turn, in response to further elevated temperatures, HsfA2 becomes the dominant stress-induced Hsf. HsfA2 forms co-activator complexes with HsfA1a which in contrast to HsfA7, allows the stabilization of the master regulator, leading to the stronger expression of HS-responsive genes required for survival. Thereby, this study uncovers a new regulatory mechanism, where the temperature-dependent competitive interaction of HsfA2 and HsfA7 with HsfA1a control the fate of the master regulator and consequently the activity of temperature-responsive networks.
Most of the elements heavier than iron are produced through neutron capture reactions in the s- and r -process. The overall path of the s-process is well understood and can be accurately reproduced in network simulations. However, there are still some neutron capture reactions of unstable nuclei involved in the s-process, which were not yet measured due to the difficulty in producing suitable targets. In those cases, theoretical models have to be used to estimate the missing cross section.
One example is the branching point nucleus 86Rb, whose neutron capture cross section cannot be directly measured due to its short half life of 18.86 days. It is, however, also possible to measure its inverse, the 87Rb(g,n) reaction in order to obtain the 86Rb(n,g) cross section through the principle of detailed balance.
Natural rubidium was irradiated with a quasi-monoenergetic photon beam in the energy range between 10.7 MeV and 16 MeV in order to investigate the photo-dissociation cross section of 87Rb. The results are presented in this thesis. Not only the total cross section of 87Rb(g,n), but also the partial production cross section of the ground and isomeric state of 84Rb through the 85Rb(g,n) reaction was measured.
Not all isotopes can be reached via neutron capture reaction, and are therefore bypassed by the s- and r -process. These 35 proton-rich isotopes are called p-nuclei and are produced in the γ-process by a chain of photo-disintegration reactions in Type II supernovae. Network calculations of Type II supernova show that the γ-process can explain the production of most p-nuclei, but some – especially 92/94Mo and 96/98Ru – are heavily underproduced. While this could be the result of deficiencies in the corresponding stellar models or insufficient knowledge of the involved reaction rates, it is also possible that the missing p-nuclei are synthesized in other production scenarios.
An alternative scenario for 92Mo is the production via a chain of proton capture reactions in Type Ia supernovae. One important reaction in this chain is the 90Zr(p,g) reaction. The reaction cross section was already measured several times, but the results were inconclusive. In the present work, the 90 Zr(p,g) reaction was measured using the in-beam gamma-ray spectroscopy technique and the discrepancies between the data sets could be largely explained.
This thesis investigates whether professionals on the global financial markets, such as investment bankers, traders, and analysts, form a global social class.
Over recent decades, rising inequality has reinvigorated interest in issues of class. Despite the experience of world-wide economic crises demonstrating the global reach of the contemporary economy, the research areas of globalisation and class remain surprisingly disengaged from each other. Especially the question of global class formation remains underexplored.
The first part of this thesis examines why the issue of globalisation remains a niche within research on class. Therefore, the theoretical foundations of the dominant approaches to class are investigated, identifying the causes for the implicit “methodological nationalism” of modern mainstream class analysis in the underlying theories of the economy and social action. Vice-versa, an examination of globalisation theory shows that similar obstacles persist in the theoretical reasoning on inequality from a global perspective, precluding a conceptualisation of global class formation. In dialogue with the few existing approaches to conceptualize class on a global level, a framework for the study of global class formation based on Pierre Bourdieu’s notion of social fields is developed.
In part two of the thesis this framework is employed to examine empirically, whether the global field of finance is currently the source for the formation of a global financial class. The field of finance as the most globalised economic sector is a paradigmatic case for studying the formation of a global class. An interview study on the career trajectories of financial professionals from Frankfurt and Sydney uncovers that despite the legacy of national economic specificities on the institutional level, financial actors draw in their social praxis on global forms of social, cultural, and economic capital and have developed a common culture, worldview, praxis, and habitus, delineating the formation of a global financial class.
Exploring the ability of acoustic infant cry analysis for discriminating developmental pathologies
(2018)
This thesis aims at exploring the ability of acoustic infant cry analysis for discriminating developmental pathologies. Cries of healthy infants as well as cries of infants suffering from cleft lip and palate, hearing impairment, laryngomalacia, asphyxia and brain damage were recorded and acoustically analyzed. The acoustic properties of the infant cries were identified and tested on their suitability to predict the health state of the infants in an reliable, valid and objective way.
To test the reliability of infant cry analysis, Krippendorff’s Alpha coefficient was calculated to test how homogeneous cries of healthy infants as well as cries of infants suffering from various pathologies are.
To asses if valid methods exist for classifying infant cries, different approaches that can be used to differentiate between the groups and to predict the health state of the infants — e.g., analysis of variances, supervised-learning models and auditory discrimination by human listeners — were tested on their validity.
The objectivity of computer-based and human-based classification approaches was explored and techniques to enhance the objectivity for both approaches are proposed.
Computer-based approaches are more objective and reached higher sensitivity and specificity values in their classification to predict the health state of the infants. Especially C5.0 decision trees reached high and therefore promising classification results, even though infant cries have a great statistical spread and can be seen as very heterogeneous and are therefore not very reliable in general.
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
The thesis deals with the analysis and modeling of point processes emerging from different experiments in neuroscience. In particular, the description and detection of different types of variability changes in point processes is of interest.
A non-stationary rate or variance of life times is a well-known problem in the description of point processes like neuronal spike trains and can affect the results of further analyses requiring stationarity. Moreover, non-stationary parameters might also contain important information themselves. The goal of the first part of the thesis is the (further) development of a technique to detect both rate and variance changes that may occur in multiple time scales separately or simultaneously. A two-step procedure building on the multiple filter test (Messer et al., 2014) is used that first tests the null hypothesis of rate homogeneity allowing for an inhomogeneous variance and that estimates change points in the rate if the null hypothesis is rejected. In the second step, the null hypothesis of variance homogeneity is tested and variance change points are estimated. Rate change points are used as input. The main idea is the comparison of estimated variances in adjacent windows of different sizes sliding over the process. To determine the rejection threshold functionals of the Brownian motion are identified as limit processes under the null of variance homogeneity. The non-parametric procedure is not restricted to the case of at most one change point. It is shown in simulation studies that the corresponding test keeps the asymptotic significance level for a wide range of parameters and that the test power is remarkable. The practical applicability of the procedure is underlined by the analysis of neuronal spike trains.
Point processes resulting from experiments on bistable perception are analyzed in the second part of the thesis. Visual illusions allowing for than more possible perception lead to unpredictable changes of perception. In the thesis data from (Schmack et al., 2015) are used. A rotating sphere with switching perceived rotation direction was presented to the participants of the study. The stimulus was presented continuously and intermittently, i.e., with short periods of „blank display“ between the presentation periods. There are remarkable differences in the response patterns between the two types of presentation. During continuous presentation the distribution of dominance times, i.e., the intervals of constant perception, is a right-skewed and unimodal distribution with a mean of about five seconds. In contrast, during intermittent presentation one observes very long, stable dominance times of more than one minute interchanging with very short, unstable dominance times of less than five seconds, i.e., an increase of variability.
The main goal of the second part is to develop a model for the response patterns to bistable perception that builds a bridge between empirical data analysis and mechanistic modeling. Thus, the model should be able to describe both the response patterns to continuous presentation and to intermittent presentation. Moreover, the model should be fittable to typically short experimental data, and the model should allow for neuronal correlates. Current approaches often use detailed assumptions and large parameter sets, which complicate parameter estimation.
First, a Hidden Markov Model is applied. Second, to allow for neuronal correlates, a Hierarchical Brownian Model (HBM) is introduced, where perception is modeled by the competition of two neuronal populations. The activity difference between these two populations is described by a Brownian motion with drift fluctuating between two borders, where each first hitting time causes a perceptual change. To model the response patterns to intermittent presentation a second layer with competing neuronal populations (coding a stable and an unstable state) is assumed. Again, the data are described very well, and the hypothesis that the relative time in the stable state is identical in a group of patients with schizophrenia and a control group is rejected. To sum up, the HBM intends to link empirical data analysis and mechanistic modeling and provides interesting new hypotheses on potential neuronal mechanisms of cognitive phenomena.
Modellierung der klimatischen Habitateignung verschiedener krankheitsübertragender Vektorarten
(2018)
Der Klimawandel hat einen starken Einfluss auf die Verbreitungsgebiete von Arten. Infolgedessen kann sich das Verbreitungsgebiet von Arten verschieben, einschränken oder ausweiten. Bei thermophilen Arten wird vermutet, dass sie von den klimatischen Änderungen profitieren und sie sich wahrscheinlich ausbreiten werden. Eine solche Ausbreitung, wozu auch die Einwanderung von gebietsfremden Arten zählt, hätte nicht nur zahlreiche Konsequenzen für diese Ökosysteme, sondern könnte sich auch zu einem ernsten Gesundheitsrisiko entwickeln, wenn es sich bei den einwandernden Neobiota um Vektorarten handelt.
Stechmücken und Sandmücken, als blutsaugende Insekten, zählen zu den bekanntesten Vektorarten. Sie sind in der Lage, eine Vielzahl von Infektionskrankheiten wie das Denguefieber oder das Gelbfieber, aber auch protozoische Parasiten wie "Leishmania"-Arten zu übertragen. Als thermophile Arten sind viele dieser Vektoren aktuell in ihrer Verbreitung weitgehend auf tropische und subtropische Gebiete beschränkt. Eine Einwanderung in gemäßigtere Gebiete kann zu einer Einschleppung der durch sie übertragenden Erreger führen und damit zum Ausbruch von Infektionskrankheiten. Aufgrund der medizinischen Relevanz dieser Arten ist es essentiell, die räumliche Verbreitung, sowie die abiotischen Ansprüche der Vektorarten zu kennen, um deren mögliche Ausbreitung nachzuvollziehen.
Vor diesem Hintergrund beschäftigte sich die vorliegende kumulative Dissertation mit den klimawandelinduzierten Änderungen der Habitateignung verschiedener medizinisch relevanter Vektorarten. Dabei wurden die zwei invasiven Stechmückenarten "Aedes albopictus" (I-III) und "Aedes japonicus" (III), sowie zehn in Europa bereits vorkommende Sandmückenarten der Gattung "Phlebotomus" (IV), untersucht. Die Arbeit basiert auf vier (ISI-) Publikationen. Unter Verwendung ökologischer Nischenmodellierung wurden geeignete Gebiete unter aktuellen und zukünftigen Klimabedingungen bestimmt. Um dabei sowohl räumliche als auch zeitliche Aspekte zu berücksichtigen, wurden mehrere räumliche Skalen (Deutschland und Europa), sowie Zeitperioden (2030, 2050 und 2070) betrachtet. Des Weiteren wurden verschiedene Ansätze (einzelne Algorithmen und Ensemble-Modelle) zur Modellierung der Habitateignung verwendet.
Die Ergebnisse dieser Dissertation zeigen eine zukünftige klimawandelbedingte Ausweitung der geeigneten Gebiete für viele der betrachteten Vektorarten. So konnte gezeigt werden, dass die Habitateignung für "Aedes albopictus" in Deutschland (I) und in Europa (III) zukünftig deutlich zunimmt. Auch für die Sandmückenarten "Phlebotomus alexandri", "Phlebotomus neglectus", "Phlebotomus papatasi", "Phlebotomus perfiliewi" und "Phlebotomus tobbi" konnte eine deutliche Zunahme der klimatisch geeigneten Gebieten projiziert werden (IV).
Lediglich Arten, wie die Asiatische Buschmücke "Aedes japonicus" (III) und auch kältetolerantere Sandmücken, wie "Phlebotomus ariasi" und "Phlebotomus mascittii" (IV) scheinen weniger von diesen klimatischen Veränderungen zu profitieren und könnten in Zukunft sogar aktuell geeignete Gebiete verlieren (klimawandelinduzierte Arealverkleinerung). Bei "Aedes japonicus" konnte dies auf eine engeren Nische mit einem Optimum bei vergleichsweise niedrigen Temperaturen zurückgeführt werden (III).
Am Beispiel von "Aedes albopictus" wurden ferner Umweltfaktoren identifiziert, die die Verbreitung der Art limitieren (II). Als wärmeliebende Art spielen bei "Aedes albopictus" in Mitteleuropa insbesondere die niedrigen Temperaturen eine Rolle, während in Zukunft die Sommertrockenheit in Südeuropa zunehmend eine Rolle spielen könnte.
Nischenmodellierung stellt trotz ihrer vereinfachenden Annahmen und Unsicherheiten, eine hilfreiche Methode zur Untersuchung klimawandelinduzierter Arealverschiebungen dar. Mit Hilfe der Modellierungsergebnisse konnten Gebiete mit einem hohen Etablierungsrisiko für die Vektorarten identifiziert werden, welche daher im Fokus künftiger Überwachungsprogramme stehen sollten. In Zukunft könnten mehr Vektorarten geeignete Bedingungen in Mitteleuropa finden, wodurch die Vektordiversität zunehmen wird. Dadurch könnte auch das Risiko für einen Ausbruch der durch die Vektoren übertragenen Krankheiten steigen.
Auch wenn das Vorhandensein eines kompetenten Vektors eine unerlässliche Voraussetzung für den Ausbruch einer Infektionskrankheit darstellt, gibt es noch weitere Faktoren, wie das Vorhandensein des Erregers. In Bezug auf die Risikoabschätzung vektorassoziierter Krankheiten sollten neben der Verbreitung des Vektors und des Erregers auch die abiotischen Bedingungen für die Entwicklung des Erregers berücksichtigt werden. Neben neu eingewanderten Arten sollten zudem auch die heimischen Arten in Bezug auf ihre Vektorkompetenz untersucht werden, da diese ebenfalls als potentielle Vektoren dienen und somit das Gesundheitsrisiko weiter erhöhen könnten.
Diese Arbeit beschäftigt sich mit inversen Problemen für partielle Differentialgleichungen. Moderne Lösungsverfahren solcher inversen Probleme müssen die zugehörige partielle Differentialgleichung (PDGL) oft sehr häufig lösen. Mit Hinblick auf die Rechenzeit solcher Verfahren stellt das häufige Lösen der PDGL den Hauptanteil der benötigten Rechenzeit dar. Daraus resultiert die Grundidee dieser Arbeit: es sollen Lösungsverfahren von inversen Problemen beschleunigt werden, indem die für die Vorwärtslösung benötigte Rechenzeit verringert wird. Genauer gesagt soll anstatt der Vorwärtslösung eine Approximation an diese, welche kostengünstig zu berechnen ist, verwendet werden. Für die Bestimmung einer kostengünstigen Annäherung an die Vorwärtslösung wird die Reduzierte Basis Methode, eine Modellreduktionstechnik, verwendet.
Das Ziel der klassischen Reduzierten Basis Methode ist es einen globalen Reduzierte Basis Raum (RB-Raum) zu konstruieren. Dabei handelt es sich um einen niedrigdimensionalen Teilraum des Lösungsraumes der PDGL, welcher für jeden Parameter aus dem Parameterraum eine gute Näherung der PDGL-Lösung liefert. Eine beispielhafte Methode zur Konstruktion eines solchen Raumes ist es, geschickt Parameter auszuwählen und die dazu gehörigen PDGL-Lösungen als Basisvektoren des RB-Raumes zu verwenden. Die orthogonale Projektion der PDGL auf diesen RB-Raum liefert die entsprechenden Reduzierte Basis Lösungen. Das Besondere in dieser Arbeit ist, dass die betrachteten PDGLn einen sehr hochdimensionalen und unbeschränkten Parameterraum besitzen, und es ist bekannt, dass dies für die Reduzierte Basis Methode eine immense Schwierigkeit darstellt.
In Kapitel 1 wird ein schlechtgestelltes inverses Modellproblem, die Rekonstruktion der Wärmeleitfähigkeit eines Gegenstandes aus der Messung der Temperatur desselben, eingeführt und das nichtlineare Landweber-Verfahren als iteratives Regularisierungsverfahren zur Lösung dieses inversen Problems vorgestellt. Die Grundlagen der Reduzierten Basis Methode werden dargelegt und es wird erläutert, warum die klassische Variante der Methode in diesem Kontext der Bildrekonstruktion versagt. Daraufhin wird der neuartig Ansatz, ein adaptiver Reduzierte Basis Ansatz, entwickelt. Die folgenden Schritte bilden die Grundlage dieses adaptiven Reduzierte Basis Ansatzes:
1. Sei ein RB-Raum gegeben, so projiziere den Lösungsalgorithmus des inversen Problems auf diesen RB-Raum.
2. Generiere mit Hilfe dieses projizierten Verfahrens neue Iterierte bis entweder eine Iterierte das inverse Problem löst oder bis der RB-Raum erweitert werden muss.
3. Im ersten Fall wird das Verfahren beendet, im zweiten Fall wird die zur aktuellen Iterierten gehörige Vorwärtslösung verwendet um den RB-Raum zu verbessern. Danach wird mit dem ersten Schritt fortgefahren.
Es wird also nach und nach ein lokal approximierender RB-Raum konstruiert, indem Parameter für neue Basisvektoren mittels einer projizierten Variante des Lösungsalgorithmus des inversen Problems gefunden werden. Das neuartige Reduzierte Basis Landweber-Verfahren ist das Hauptresultat von Kapitel 1, wobei das Verfahren ausführlich numerisch untersucht und mit dem ursprünglichen Landweber-Verfahren verglichen wird.
In Kapitel 2 dieser Arbeit soll der zuvor entwickelte adaptive Reduzierte Basis Ansatz auf ein komplexes und praxisrelevantes Problem angewandt werden. Insbesondere soll die dadurch entstehende neue Methode mit Hinblick auf Konvergenz theoretisch ausführlich untersucht werden. Daher widmet sich der zweite Teil dieser Arbeit dem Problem der Magnet Resonanz Elektrischen Impedanztomographie (MREIT).
Bei der MREIT handelt es sich um ein Bildgebungsverfahren, welches während der letzten drei Jahrzehnte entwickelt wurde. Dabei wird ein Gegenstand, an welchen Elektroden angeheftet sind, in einen Kernspintomographen gelegt und es ist das Ziel des Verfahrens die elektrische Leitfähigkeit des Gegenstandes zu bestimmen. Die dazu benötigten Daten werden folgendermaßen gewonnen: indem Strom an einer der Elektroden angelegt wird, wird ein Stromfluss erzeugt, welcher wiederum eine Änderung der Magnetflussdichte induziert. Diese kann mit Hilfe des Kernspintomographen gemessen werden, wodurch man einen vollen Satz innerer Daten zur Hand hat, sodass hoch aufgelöste Bilder der elektrischen Leitfähigkeit des Gegenstandes rekonstruiert werden können.
Als Lösungsalgorithmus für dieses praxisrelevante Problem wird der bereits bekannte Harmonische Bz Algorithmus vorgestellt. Das Problem und der Algorithmus werden mit Hinblick auf Konvergenz des Verfahrens untersucht und ein Konvergenzresultat, welches die bestehende Konvergenztheorie hin zu einem approximativen Harmonischen Bz Algorithmus erweitert, wird bewiesen. Dabei hängt das Resultat nicht davon ab welche Art von Approximation an die Vorwärtslösung der entsprechenden PDGL im approximativen Harmonischen Bz Algorithmus verwendet wird solange diese einer Regularitäts- und einer Qualitätsbedingung genügt. Damit folgt das zweite Hauptresultat dieser Arbeit: die numerische Konvergenz des Harmonischen Bz Algorithmus. Es soll dabei hervorgehoben werden, dass Konvergenzresultate im Bereich der inversen Probleme (sofern es sie gibt) meistens die Kenntnis der exakten Vorwärtslösung annehmen, sodass keine numerische Konvergenz des zugehörigen Verfahrens folgt (in einer numerischen Implementation wird stets eine Approximation an die Vorwärtslösung verwendet). Somit ist dieses Konvergenzresultat ein Schritt hin zur numerischen Konvergenz anderer Lösungsverfahren von inversen Problemen.
Da das theoretische Resultat von der Art der Approximation nicht abhängt, erhält man ebenfalls die Konvergenz des neuartigen Reduzierte Basis Harmonischen Bz Algorithmus, welcher die Kombination des in Kapitel 1 entwickelten adaptiven Reduzierte Basis Ansatzes und des Harmonischen Bz Algorithmus ist. In einer kurzen numerischen Untersuchung wird festgestellt, dass dieser Reduzierte Basis Harmonische Bz Algorithmus schneller als der Harmonische Bz Algorithmus ist, wobei die Qualität der Rekonstruktion gleichbleibend ist. Somit funktioniert der entwickelte adaptive Reduzierte Basis Ansatz auch angewandt auf dieses komplexe praxisrelevante inverse Problem der MREIT.
Nukleinsäuren besitzen neben der Speicherung und Übertragung der genetischen Information weitere vielfältige Funktionen in einem komplexen und dynamischen Netzwerk von gleichzeitig ablaufenden Prozessen in der Zelle. Die gezielte Kontrolle bestimmter Nukleinsäuren kann helfen, die jeweiligen Prozesse zu studieren oder auch zu manipulieren. Photoaktive Verbindungen, wie photolabile Schutzgruppen oder Photoschalter, sind ideal dazu geeignet die Struktur und Funktion von Nukleinsäuren zu studieren. Photolabile Schutzgruppen werden dazu meistens auf die Nukleobase installiert und stören die Watson-Crick Basenpaarung. Dies verhindert die Ausbildung einer Sekundärstruktur oder die Möglichkeit einen stabilen Doppelstrang zu bilden. Licht ist ein nicht-invasives Trigger-signal und kann mit hoher Orts- und Zeitauflösung angewendet werden, um selektiv die temporär geschützten Nukleinsäuren in der Zelle zu aktivieren.
Das erste Projekt dieser Arbeit ist eine Kooperation mit der Arbeitsgruppe von Prof. Erin Schuman (MPI für Hirnforschung) und beschäftigt sich mit der lichtgesteuerten Regulation der miR-181a Aktivität in hippocampalen Neuronen von Ratten. Die Langzeitpotenzierung (LTP) ist der primäre Mechanismus von synaptischer Plastizität und somit essentiell für Lernen und Gedächtnis. Die langfristige Aufrechterhaltung von LTP erfordert eine gesteigerte (lokale) Proteinbiosynthese, ein Prozess, der noch nicht vollständig aufgeklärt ist. Die miR-181a reguliert die Genexpression von zwei für synaptische Plastizität wichtigen Proteinen, GluA2 und CaMKIIα. Mit einem lichtaktivierbaren AntimiR sollte der Einfluss der miR-181a auf die lokale Proteinsynthese von CaMKIIα und GluA2 untersucht werden. Photolabile Schutzgruppen sollen eine ortsaufgelöste Aktivierung des AntimiRs in den Dendriten ermöglichen. Ein Tracking-Fluorophor sollte die Lokalisierung des AntimiRs und eine gezielte Lichtaktivierung ermöglichen. Die Bindung der miRNA sollte fluoreszent visualisiert werden können, um eine Korrelation zwischen der inhibierten Menge an miR-181a und den neu synthetisierten CaMKIIα-Molekülen zu untersuchen. In diesem Projekt wurden drei Konzepte zur Synthese von lichtregulierbaren AntimiR-Sonden verglichen: Das erste Konzept verwendete eine Thiazolorange-basierte Hybridisierungssonde nach Seitz et al. Allerdings war mit diesem Konzept der Fluoreszenzanstieg zur Visualisierung der Hybridisierung zu gering. Im zweiten Konzept wurde ein dual-Fluorophor markierter Molecular Beacon entwickelt, bei dem die photolabilen Schutzgruppen in der Schleifen-Region die Hybridisierung der miR-181a vor Belichtung verhinderten. Nach Optimierung der Stammlänge, Anzahl und Position der photolabilen Schutzgruppen, sowie Auswahl des idealen Fluorophor-Quencher Paars, konnte nach UV-Bestrahlung in Anwesenheit der miR-181a ein signifikanter Anstieg des Hybridisierungsreporter-Fluorophors gemessen werden. Das dritte Konzept untersuchte lichtaktivierbare Hairpin-Sonden, bei denen ein Gegenstrang (Blockierstrang) über einen photospaltbaren Linker mit dem AntimiR verknüpft wurde. Dabei musste die optimale Länge des Blockierstrangs und die Anzahl der photo-spaltbaren Linker im Blockierstrang ermittelt werden, sodass die miR-181a erst nach Photoaktivierung das AntimiR binden und den Quencher-markierten Strang verdrängen konnte. Die in vitro Experimente vom Arbeitskreis Schuman waren zu dem Zeitpunkt des Einreichens dieser Arbeit noch nicht abgeschlossen. Erste Ergebnisse zeigten, dass der mRNA und Protein-Level von CaMKIIα eines gesamten hippocampalen Neurons durch ein nicht-lichtaktivierbare AntimiR um den Faktor ~1,5 gesteigert werden konnte. Zudem konnte durch die lokale Bestrahlung einer lichtaktivierbaren Hairpin-Sonde die lokale Gen-expression von CaMKIIα in einem Dendriten deutlich gesteigert werden.
Das zweite Projekt dieser Arbeit beschäftigte sich mit der reversiblen Lichtregulation von DNA und RNA durch Azobenzol Photoschalter. Azobenzole eignen sich ideal für die Regulation der Duplexstabilität, denn das planare trans-Azobenzol kann zwischen die Basen interkalieren und somit einen Doppelstrang stabilisieren. UV-Licht überführt das trans-Isomer in das cis-Isomer. Dies ist gewinkelt, benötigt mehr Platz und stört dadurch die Stabilität eines Nukleinsäuredoppelstrangs. Entscheidend für die Effizienz der Regulation der Duplexstabilität ist der Linker, der das Azobenzol mit der Nukleinsäure verknüpft. Während vorangegange Studien von Asanuma et al. unnatürliche Linker (D-Threoninol, tAzo) verwendeten, wurde in dieser Studie das Azobenzol mit der C1‘-Position von (Desoxy-)Ribose C-Nukleoside verknüpft, um Azobenzol (pAzo und mAzo) zu erhalten. Der Riboselinker sollte die helikale Natur der Nukleinsäure optimal nachahmen und möglichst wenig Störung des Ribose-Phosphat-Rückgrats bewirken. Thermische Stabilitätsstudien zeigten, dass UV-Licht induzierte trans-zu-cis Isomerisierung den Schmelzpunkt eines RNA- und DNA-Duplexes um 5,9 und 4,6 °C erniedrigte. Dabei führte der Austausch eines Nukleotids gegen pAzo oder mAzo zu einer effektiveren Regulation der Duplexstabilität als der zusätzliche Einbau eines Azobenzol C-Nukleosids in die Sequenz. Ein Vergleich mit dem in der Literatur etablierten System, tAzo, zeigte, dass pAzo und mAzo teilweise einen stärkeren Duplexdestabilisierungseffekt nach UV-Bestrahlung bewirkten.
...
Personen- und Organisationsmerkmale als Gelingensbedingungen im pädagogischen Vorbereitungsdienst
(2018)
Die vorliegende Arbeit greift die defizitäre empirische Befundlage zur Wahrnehmung der zweiten Ausbildungsphase des Lehrerberufs – dem Referendariat – auf. Sie geht der Frage nach, wie das Belastungserleben der Referendare mit Merkmalen der Person oder Organisation verknüpft ist. Bestehende Forschungsaktivtäten legen ihren Fokus auf die Wahrnehmung erfahrener Lehrkräfte im Beruf. Es fehlt an Studien, die das Erleben im Referendariat diskutieren. Die vorliegende, primär explorativ ausgerichtete Arbeit nimmt diese Ausbildungsphase in den Blick. Die Datenbasis der Arbeit bildet die Evaluationsstudie „Pädagogische Entwicklungsbilanzen an Studienseminaren“ (PEB-Sem), die in Hessen zum Einsatz kam. Es werden Daten von 3808 Referendaren sekundäranalytisch ausgewertet. Da die Beschreibung der Untersuchungsgruppe im Referendariat selbst wenig Vergleichsmöglichkeiten zur Absicherung der Daten bietet, wurde PEB-Sem im Praxissemester bei einer Vergleichsgruppe von Lehramtsstudierenden an der Goethe-Universität eingesetzt.
Personale Merkmale im Umgang mit Belastungen wurden über objektive Aspekte (Alter, Geschlecht, Lehramtsstufe, pädagogische Vorerfahrungen) sowie über Persönlichkeitscharakteristika (Selbstwirksamkeitserwartungen, Resilienz) operationalisiert. Merkmale der Organisation des Vorbereitungsdiensts wurden über Skalen erhoben, welche die Ausbildungsbeziehungen zwischen Referendaren und Ausbildern, Mentoren sowie der Seminarleitung oder die Kohärenz der Ausbildung erfassen.
In den Ergebnissen der Analyse personenbezogener Merkmale zeigt sich, dass vor allem die Resilienz das Belastungserleben der Referendare erklären kann, während die pädagogischen Vorerfahrungen oder die Selbstwirksamkeitserwartungen nur einen geringen Anteil der Belastungswahrnehmung erklären können. Die Belastung in der Ausbildung wird über die Zentralstellung des Leistungsdrucks, der durch die bewerteten Unterrichtsbesuche, Zeitdruck oder auch die Prüfungsbelastung zum Ende der Ausbildung entsteht, maßgeblich bestimmt. Zwischen den Faktoren der Organisation und der Belastungswahrnehmung, wie sie z.B. für die Unterstützung durch die Ausbilder und Mentoren untersucht wurden, konnten nur schwache Zusammenhänge zur Belastung nachgewiesen werden. Die vergleichende Betrachtung von Referendaren und Studierenden im Praxissemester kann Unterschiede im Erleben dieser beiden Ausbildungsabschnitte herausarbeiten. Die berufliche Erfahrung, welche die Referendare den Studierenden voraushaben, wirkt sich, entgegen der Annahme, nicht positiv auf die Belastungswahrnehmung aus: Referendare zeigen sich stärker belastet als Lehramtsstudierende. Bezogen auf die Unterschiede in der Einschätzung der Resilienz sind es wieder die Lehramtsstudierenden, die im Vergleich zu den Referendaren über eine stärkere Widerstandfähigkeit verfügen.
Die vergleichende Betrachtung beider Ausbildungsphasen vermitteln ein besseres Verständnis und eine größere Nähe zum jeweiligen Ausbildungskontext. Die Befunde der Studie deuten auf die Notwendigkeit hin, sich mit Unsicherheiten und Belastungen, die durch die Bewertungssituationen und den Anpassungsdruck an die Erwartungen der Ausbilder und Mentoren entstehen können, stärker zu befassen. An diese Ergebnisse lassen sich Implikationen für die Praxis und mögliche Ansatzpunkte für weitere Forschungsbemühen anschließen.
Entwicklung von Immunisierungsstrategien zur Induktion hoher funktionaler Antikörperantworten
(2018)
Neuartige Viren und Erreger, die sich antigenetisch tiefgreifend von bekannten Varianten unterscheiden, können verheerende Epidemien auslösen, da weder gegen diese Erreger eine Immunität in der Bevölkerung besteht, noch prophylaktische oder therapeutische Maßnahmen verfügbar sind. Eine prophylaktisch vermittelte Immunität durch Impfung stellt die bei Weitem effektivste Methode zur Vorbeugung viraler Infektionen dar, jedoch sind die Entwicklungs- und Herstellungszeiten eines neuen Impfstoffs in der Regel mit der Ausbruchsdynamik nicht kompatibel. Inzwischen steht zwar eine überschaubare Anzahl antiviraler Medikamente zur Verfügung, doch ist die Wahrscheinlichkeit gering, dass diese meist hoch spezifischen Wirkstoffe gegen neu auftretende Viren aktiv sind. Das beispiellose Ausmaß der Ebola-Epidemie 2014 führte zum Einsatz experimenteller antikörperbasierter Therapien, welche das Potential der passiven Vermittlung von temporärem Immunschutz naiver Personen verdeutlicht. Für viele neuartige Viren ist die Entwicklung von Therapieansätzen allerdings noch nicht entsprechend weit fortgeschritten. Zudem bedingt eine Verwendung des eigentlichen Erregers oft hohe Sicherheitsmaßnahmen, was die Arbeit erschwert. Aus diesem Grund werden Notfalltherapien benötigt, die schnell in klinisch relevanter Qualität und Quantität unter niedrigen biologischen Sicherheitsmaßnahmen produziert werden können.
Diese Arbeit basiert auf der zentralen Hypothese, dass die Induktion von hohen Titern funktioneller Antikörperantworten die Basis für einen breiteren Schutz gegen antigenetisch entferntere Virusstämme sowie für die schnelle Produktion von therapeutischen Antiseren darstellt.
Um diese Hypothese zu testen und Einblicke in verschiedene Aspekte dieses Prozesses zu bekommen, wurde zunächst die Nutzung von Adjuvanzien als Zusätze für Impfstoffe am Beispiel des pandemischen A(H1N1)pdm09-Impfstoffs untersucht. Neben den alljährlichen Epidemien, die von saisonalen Influenza-A-Viren der Subtypen H1N1 oder H2N3 verursacht werden, können neuartige Subtypen zu weltweiten Pandemien führen. Während die saisonalen Influenza-Impfstoffe in der Regel keine Adjuvanzien enthalten, wurden einige pandemische H1N1-Impfstoffe aus 2009 mit einem reduzierten Antigengehalt formuliert und mit squalenbasierten Adjuvanzien kombiniert, um eine ausreichende Wirksamkeit bei größerer Verfügbarkeit zu gewährleisten. Zur Charakterisierung des Effekts dieser Adjuvanzien auf die Immunantworten wurden Frettchen mit 2 µg des kommerziellen H1N1pmd09-Impfstoffes alleine sowie in Kombination mit verschiedenen Adjuvanzien immunisiert, die Antikörpertiter gegen homologe und heterologe Influenzastämme untersucht und mit dem Schutz vor einer Infektion korreliert. Dabei zeigte sich, dass die Verwendung squalenbasierter Adjuvanzien die funktionalen Antikörperantworten um das 100-fache erhöhte und zu einer signifikant reduzierten Viruslast nach der Infektion mit dem homologen pandemischen Virus führte. Während in keiner Gruppe Antikörper gegen die heterologen Hämagglutinin-(HA-)Proteine H3, H5, H7 und H9 nachweisbar waren, induzierten mit squalenbasierten Adjuvanzien kombinierte Impfstoffe subtypenspezifische Antikörper gegen das N1 Neuraminidase-(NA-)Protein einschließlich H5N1. Darüber hinaus führte die Immunisierung mit squalenbasierten Adjuvanzien zu einer besseren Kontrolle der Influenzavirus-Replikation in den oberen Atemwegen.
Anschließend wurde im zweiten Teil dieser Arbeit unter Einbeziehung der gewonnenen Erkenntnisse eine Immunisierungsstrategie zur schnellen Produktion therapeutischer Hyper-immunseren entwickelt, wobei unterschiedliche Antigenexpressionssysteme miteinander verglichen wurden. Während in den frühen Stadien eines Ausbruchs Rekonvaleszenzseren nicht ohne weiteres verfügbar sind, können Antiseren tierischen Ursprungs innerhalb eines kurzen Zeitraums hergestellt werden. Die Herausforderung liegt in der schnellen Induktion einer schützenden Immunität, wobei die effiziente Produktion und Reinigung von Hyperimmunserum in klinisch relevanten Mengen ebenso essenziell ist wie die Anpassungsfähigkeit der Immunisierungsstrategie an neue oder hinsichtlich ihrer Antigenizität veränderte Viren. Hierzu wurden verschiedene Immunisierungsstrategien in Mäusen und Kaninchen verglichen, die unterschiedliche Expressionssysteme für das Modellantigen Ebolavirus-Glykoprotein (EBOV-GP) verwenden: (i) Ebolavirus-ähnliche Partikel (VLP), (ii) das rekombinante modifizierte Vacciniavirus Ankara (MVA) sowie (iii) das rekombinante Virus der vesikulären Stomatitis (VSV). Im Ergebnis induzierte eine dreimalige Immunisierung mit VLPs in Kombination mit squalenhaltigem Adjuvans neutralisierende Antikörpertiter, die vergleichbar mit der Immunisierung mit replikationskompetentem VSVΔG/EBOV-GP waren. Dies deutet darauf hin, dass nicht die De-novo-Antigenexpression, sondern vielmehr die mehrfache Präsentation des Antigens in nativer Konformation für die Produktion von neutralisierenden Antikörpern essenziell ist. Darüber hinaus waren die funktionalen Antikörpertiter aller Kaninchenseren in der In-vitro-Analyse gegen das Wildtypvirus 10- bis 100-fach höher als der Durchschnitt, der in mit VSVΔG/EBOV-GP geimpften Probanden beobachtet wurde. Die Etablierung eines optimierten mehrstufigen Reinigungsverfahrens unter Verwendung einer zweistufigen Ammoniumsulfat-Präzipitation, gefolgt von einer Protein-A-Affinitätschromatographie, führte zu aufgereinigten IgG-Präparationen mit nahezu unveränderter neutralisierender Aktivität, die über neun Tage im xenogenen In-vivo-Modell stabil waren. Die signifikante Erhöhung von totalen und funktionalen Antikörpertitern in Kombination mit einer größeren Breite der Antikörperantwort im Kontext von squalenbasierten Adjuvanzien stützt die Hypothese dieser Arbeit. Adjuvantierte Immunisierungsstrategien sind damit ein vielversprechender Ansatz nicht nur zur Wirksamkeitssteigerung von Subunit- und Proteinimpfstoffen, sondern auch zur schnellen Herstellung von therapeutischen Antiseren.
Um molekulare Mechanismen in biologischen Prozessen zu verstehen, ist es unerlässlich biologisch aktive Verbindungen zu kontrollieren. Dabei spielt besonders die Aktivierung bzw. Desaktivierung von Genabschnitten eine zentrale Rolle in der gegenwärtigen chemischen, biologischen und medizinischen Forschung. Nukleinsäuren sind dabei offenkundige Zielmoleküle, da sie die Genexpression auf unterster Ebene regulieren und auf vielfältige Art und Weise an biologischen Prozessen beteiligt sind. Um solch eine genaue Steuerung zu erreichen, werden Nukleinsäuren häufig photolabil modifiziert und unter die Kontrolle von Licht gebracht. Da hochentwickelte Technologien es erlauben Photonen bestimmter Energie unter präziser räumlicher und zeitlicher Auflösung zu dosieren, ist Licht als nicht invasives Triggersignal ein besonders geeignetes Werkzeug um molekulare Prozesse zu kontrollieren.
Die Verwendung photolabiler Schutzgruppen („cage“) ermöglicht es, diese lichtaktivierbaren Nukleinsäuren („caged compound“) herzustellen. Üblicherweise werden Oligonukleotide damit an funktionsbestimmenden Stellen versehen, woraufhin die Funktion der Oligonukleotide unterdrückt wird. Die biologische Aktivität kann durch Bestrahlung mit Licht wieder hergestellt werden, da die photolabile Schutzgruppe durch den Lichtimpuls abgespalten wird. Neben der zeitweiligen Maskierung der Nukleinsäureaktivität existiert auch eine Methode, die als „photoaktivierbarer Strangbruch“ (‘‘caged strand break‘‘) bezeichnet wird. Dabei werden mit Hilfe von photolabilen Linkern (‘‘Verknüpfer‘‘) lichtinduzierte Strangbrüche in Oligonukleotiden ausgelöst, um so beispielsweise die Struktur eines Nukleinsäurestrangs zu zerstören. Die Idee der photoaktivierbaren Strangbrüche ist nicht neu, dennoch werden photolabile Schutzgruppen überwiegend nach der erstgenannten Strategie verwendet. Im Rahmen dieses Promotionsvorhabens wurden neue photosensitive Linkerbausteine für Oligonukleotide entwickelt und hergestellt, welche sich vor allem im Hinblick auf die Anwendbarkeit in lebenden biologischen Systemen von den bisherigen photolabilen Linkern unterscheiden.
Im ersten Projekt wurde ein nicht-nukleosidischer, photolabiler Linker, basierend auf dem Cumaringrundgerüst, entwickelt. Das Ziel war hier, vor allem, einen zweiphotonenaktiven Linker für biologische Anwendungen und Zweiphotonen-Fragestellungen nutzbar zu machen. Bisherige Zweiphotonen-Linker konnten hauptsächlich nur für Proteinverknüpfungen bzw. Neurotransmitter verwendet werden oder mussten chemisch umständlich (z.B. Click-Chemie) und postsynthetisch in Oligonukleotide eingeführt werden. Der neu entwickelte Zweiphotonen-Linker wurde als Phosphoramiditbaustein für die Oligonukelotid-Festphasensynthese synthetisiert, was einen problemlosen und automatisierten Einbau garantiert. Mit einem modifizierten Oligonukleotid konnten die photochemischen Eigenschaften des Linkers bestimmt und mit Hilfe eines fluoreszenzbasierten Verdrängungsassays und Lasertechniken der Zweiphotonen-Effekt visualisiert werden. Dazu wurde ein Hairpin-DNA-Strang hergestellt, welcher eine Linkermodifikation im Bereich der Loopregion enthält. Durch eine Thiolmodifikation am 5‘-Ende des Oligonukleotidstranges war es möglich, diesen in einem Maleimid-funktionalisierten Hydrogel zu fixieren. Ein DNA-Duplex mit einem Fluorophor/Quencherpaar und einer korrespondierenden Sequenz zum modifizierten Hairpin-Strang wurde ebenfalls dem System zugegeben, allerdings wurde dieser nicht fixiert, um Diffusion zu ermöglichen. Durch die räumliche Nähe des Fluorophors zum Quencher konnte im unbelichteten Zustand zunächst keine Fluoreszenz gemessen werden. Mit einem (Femtosekunden-)gepulsten Laser und dem damit verbundenen Bindungsbruch im Hairpin-Strang durch Zweiphotonen-Effekte wurde es dem fluoreszierenden Strang des DNA-Duplex ermöglicht, sich vom Quencher-Strang zu lösen und an den fixierten Strang zu hybridisieren. Das Photolyse-Ereignis konnte so in ein lokales Fluoreszenzsignal übersetzt und detektiert werden.
Der eindeutige Beweis, dass es sich tatsächlich um ein Zweiphotonen-induziertes Ereignis handelt, konnte durch die dreidimensional aufgelöste Photolyse und über die quadratische Anhängigkeit des Fluoreszenzsignals von der eingestrahlten Laserleistung erbracht werden.
Die generelle Kompatibilität des Cumarin-Linkers mit biologischen Systemen konnte in Zellkulturexperimenten gezeigt werden. Dazu wurde eine Transkriptionsfaktor-DNA Decoy-Strategie entwickelt, in der Linker-modifizierte DNA Decoys an regulatorische Transkriptionsfaktoren binden und diese aber auch photochemisch wieder freisetzen können („catch and release-Strategie“). Zellkulturexperimente, um mit dieser Methode das Transkriptionsfaktor-gesteuerte und endogene Gen für Cyclooxygenase-2 (COX2) zu regulieren, lieferten keine aussagekräftigen Ergebnisse. Daher wurden die verwendeten Zellen dahingehend manipuliert, sodass sie das Protein GFP (grün fluoreszierendes Protein) in Abhängigkeit von der Anwesenheit eines Transkriptionsfaktors exprimieren. Das so durch die Zellen verursachte Fluoreszenzsignal steht in direkter Abhängigkeit zur Decoy-Aktivität. Mit Hilfe modifizierter GFP-Decoys konnte hierbei eine Regulation auf Transkriptionsebene in biologischen Organismen erreicht werden. Mit dem Electrophoretic Mobility Shift Assay (EMSA), einer molekularbiologischen in vitro-Analysetechnik, wurden die Interaktionen zwischen modifizierten Decoys und dem Transkriptionsfaktor untersucht.
...
This thesis is concerned with systematic investigations of electronic noise in novel condensed matter systems. Although fluctuations are frequently considered a nuisance, that is, a disturbance limiting the accuracy of scientific measurements, in many cases they can reveal fundamental information about the inherent system dynamics. During the past decades, the study of electronic fluctuations has evolved into an indispensable tool in condensed matter physics.
The focus of the present work lies both in a further development of the fluctuation spectroscopy technique and in the study of materials of current interest. In particular, a comprehensive study of the charge carrier dynamics in the archetypal diluted magnetic semiconductors (Ga,Mn)As and (Ga,Mn)P was performed. In spite of extensive research work carried out during the last years, there still exists no theoretical consensus on the precise mechanism of ferromagnetic order and the electronic structure in these materials. Moreover, disorder and correlation effects complicate the understanding of these compounds.
Fluctuation spectroscopy experiments presented in this work provide strong evidence that a percolation transition is observed in samples with localized charge carriers, since the normalized resistance noise magnitude displays a significant enhancement around the Curie temperature. In addition, this quantity exhibits a power law scaling behavior as a function of the resistance, which is in good agreement with theoretical models of percolating systems.
By contrast, it was found that the resistance noise in metallic samples is mainly dominated by the physics of defects such as manganese interstitials and arsenic antisites. Furthermore, first noise studies were carried out on hafnia- and yttria-based resistive random access memories. In these memristor devices, the rupture and re-formation of oxygen deficient conducting filaments caused by the electric field and Joule heating driven motion of mobile anions lead to an unusual resistance switching behavior. For the first time, comparative noise measurements on oxygen deficient and stoichiometric hafnium oxide devices, as well as on novel yttrium oxide based devices were performed in this work. Finally, new strategies for noise measurements of highly insulating and extremely low-resistive samples were developed and realized. In detail, an experimental setup for the measurements of dielectric polarization fluctuations in insulating systems was designed and successfully tested. Here, the polarization noise of a sample is measured as current or voltage fluctuations produced within a capacitance cell. The study of dielectric polarization noise allows for conclusions to be drawn regarding equilibrium structural dynamics in insulators such as relaxor ferroelectrics. On the other hand, as successfully demonstrated for a heavy-fermion compound, focused ion beam etching enables to introduce a meander-shaped geometry in single crystal platelets, in order to strongly enhance the sample resistance and thus make resistance noise measurements possible. First results indicate a connection of the noise properties with the Kondo effect in the investigated material.
Infections with the hepatitis B virus (HBV) or the hepatitis C virus (HCV) lead to complications like the development of cirrhosis or hepatocellular carcinoma. These complications end up in 887,000 and 500,000 deaths per year, respectively. Since the development of new direct acting antiviral agents for HCV in the past years a complete cure of an HCV infection can be achieved in the majority of the patients. In contrast, a complete cure of a chronic HBV infection still remains a challenging problem as current treatment regimens mainly suppress the viral replication and cccDNA as well as integrated DNA still persist in these patients. Several viral and host factors were described to impair the efficacy of treatment regimens or influence the course of the infection. Therefore, in this work viral factors as well as host factors were investigated in HBeAg negative chronic HBV infected patients and in chronic HCV infected patients. In the present study, it was demonstrated that mutations and/or deletions in the HBV basal core promoter (BCP), the precore and the preS domain occur in a genotype-specifc pattern in HBeAg negative HBV infected patients. While the BCP double mutation A1762T/G1764A was found with the highest prevalence in genotype E infected patients, the precore mutation G1896A occurred mostly in genotype B infected patients. Variants in the preS domain could be detected with the highest frequency in patients infected with genotype C. In patients, who had to start an antiviral therapy during the course of the disease, mutations in the precore region could be detected with a higher frequency in the samples right before treatment start in comparison to the baseline sample.
While different HBV genotypes and preS mutations were not associated with HBV-DNA serum levels, precore mutations as well as BCP mutations were significantly associated with HBV-DNA levels. Furthermore, precore mutations showed lower and preS mutations higher HBsAg levels. The HBsAg serum levels varied significantly among the different genotypes. Since HBsAg levels < 1000 IU/ml have been described as a prognostic marker in several studies, the prevalence of patients with HBsAg < 1000 IU/ml was analyzed among the genotypes A - E. While most of the patients infected with HBV genotype B had HBsAg < 1000 IU/ml, only a few patients infected HBV genotype E and A had HBsAg < 1000 IU/ml.
Furthermore, HBV genotype A genomes derived from patients harboring a) A1762T/ G1764A (BCP), b) G1896A/G1899A (precore), c) 15 aa deletion in preS1, d) no mutation (reference genome) were cloned and analyzed in vitro. An enhanced expression but reduced secretion of viral genomes was found in the preS-deletion- and the precore-variant. No differences in the HBsAg production and secretion were observed in the cloned precore- or BCP-variant, while the preS-deletion-variant was characterized with an elevated HBsAg release.
Regarding the secretion of viral and subviral particles, a genotype-specifc pattern of the L/M/SHBs ratio was detected in the serum of patients infected with genotypes A - E. This pattern did not change in the serum of patients, who started antiviral treatment. Secreted HBsAg containing particles displayed a higher density as well as a higher filaments/spheres ratio in genotypes B and D compared to genotypes A, C and E. Population-based and deep sequencing revealed large deletions in the preS domain or preS2 start codon mutations in a certain number of the viral genomes. Theoretically, these mutations/deletions should influence the molecular weight of the expressed protein or abolish the expression of the protein at all. In contrast, LHBs/MHBs were detectable and appeared at the same molecular weight in these patient samples in comparison to patient samples without these mutations. Furthermore, in the in vitro analyses comparing the reference genome and the preS1-deletion genome, it was shown that the deletion indeed influenced the molecular weight of LHBs. Therefore, HBsAg might be expressed from a genetically different source than the released viral genomes, meaning the integrated DNA.
Additionally, in the present study the prevalence of resistance associated substitutions (RASs) in the viral genes NS3, NS5A and NS5B of chronic HCV infected patients was analyzed in correlation to single nucleotide polymorphisms (SNPs) in the interferon-λ4 (IFNL4) gene of the infected patients. No significant correlation was found between IFNL4 SNPs and RASs within NS3/NS5B in the present cohort. In contrast, the frequently detected NS5A RAS Y93H could be significantly associated with beneficial IFNL4 SNPs and a high baseline viral load in HCV genotype 1-infected patients.
Taken together, the present study demonstrated that viral genome mutations as well as the morphology of secreted particles occur in a genotype-dependent pattern in HBeAg negative HBV infected patients with no need of antiviral therapy. As the amount of serum qHBsAg levels varied among the different genotypes, the HBsAg cut-off < 1000 IU/ml should be adapted individually among the various genotypes. Because the composition of the secreted subviral particles varied between the different genotypes, a genotype-specific immune-response might be induced in these patients. Additionally, the results of the present study indicate that in HBeAg negative HBV infected patients with mutations or deletions in the preS domain MHBs and LHBs might be expressed from the integrated DNA and therefore from a genetically different source than the released viral genomes.
Aside from that, the finding of a significant association of the NS5A RAS Y93H with beneficial IFNL4 SNPs in chronic HCV infected patients may explain a lack of a correlation or an inverse correlation of treatment response with the IFNL4 genotype in some NS5A inhibitor-containing IFN-free regimens.
The results of this thesis lie in the area of convex algebraic geometry, which is the intersection of real algebraic geometry, convex geometry, and optimization.
We study sums of nonnegative circuit polynomials (SONC) and their related cone, both geometrically and in application to polynomial optimization. SONC polynomials are certain sparse polynomials having a special structure in terms of their Newton polytopes and supports, and serve as a certificate of nonnegativity for real polynomials, which is independent of sums of squares.
The first part of this thesis is dedicated to the convex geometric study of the SONC cone. As main results we show that the SONC cone is full-dimensional in the cone of nonnegative polynomials, we exactly determine the number of zeros of a nonnegative circuit polynomial, and we give a complete and explicit characterization of the number of zeros of SONC polynomials and forms. Moreover, we provide a first approach to the study of the exposed faces of the SONC cone and their dimensions.
In the second part of the thesis we use SONC polynomials to tackle constrained polynomial optimization problems (CPOPs).
As a first step, we derive a lower bound for the optimal value of CPOP based on SONC polynomials by using a single convex optimization program, which is a geometric program (GP) under certain assumptions. GPs are a special type of convex optimization problems and can be solved in polynomial time. We test the new method experimentally and provide examples comparing our new SONC/GP approach with Lasserre's relaxation, a common approach for tackling CPOPs, which approximates nonnegative polynomials via sums of squares and semidefinite programming (SDP). The new approach comes with the benefit that in practice GPs can be solved significantly faster than SDPs. Furthermore, increasing the degree of a given problem has almost no effect on the runtime of the new program, which is in sharp contrast to SDPs.
As a second step, we establish a hierarchy of efficiently computable lower bounds converging to the optimal value of CPOP based on SONC polynomials. For a given degree each bound is computable by a relative entropy program. This program is also a convex optimization program, which is more general than a geometric program, but still efficiently solvable via interior point methods.
Im Rahmen dieser Arbeit wurden sRNAs des halophilen Archaeons Haloferax volcanii hinsichtlich ihrer biologischen und ihrer regulatorischen Funktion charakterisiert.
Um einen Überblick über die biologischen Funktionen archaealer sRNAs zu erhalten, wurde eine umfassende phänotypische Charakterisierung von 27 sRNA-Deletionsmutanten im Vergleich zum Wildtyp ausgewertet. Im Zuge dieser phänotypischen Charakterisierungen wurden zehn verschiedene Wachstumsbedingungen, morphologische Unterschiede und Veränderungen in der Zellmotilität untersucht. Hierbei zeigten nahezu alle Deletionsmutanten unter mindestens einer der getesteten Bedingungen phänotypische Unterschiede. Durch den Verlust von sRNAs wurden sowohl sogenannte Gain-of-function als auch Loss-of-function Phänotypen beobachtet. Haloarchaeale sRNAs spielen eine wichtige Rolle beim Wachstum mit verschiedenen Salzkonzentrationen, mit verschiedenen Kohlenstoffquellen und beim Schwärmverhalten, sind jedoch weniger in die Adaptation an diverse Stressbedingungen involviert.
Zur näheren Charakterisierung der regulatorischen Funktion archaealer sRNAs wurden sRNA362, sRNAhtsf468 und sRNA479 mittels molekulargenetischer Methoden wie Northern Blot-Analyse und DNA-Mikroarray sowie bioinformatischer in silico-Analyse untersucht. Das Expressionslevel von sRNA362 konnte bestimmt und potentielle Zielgene für sRNAhtsf468 und sRNA479 identifiziert werden.
Eine vorangegangene Studie zeigte den Einfluss von sRNA30 unter Hitzestress und führte zur Identifikation differentiell produzierter Proteine in Abwesenheit der sRNA. In dieser Arbeit wurde mittels Northern Blot-Analysen die Expression der sRNA30 charakterisiert. Das Wachstum in An- und Abwesenheit von sRNA30 wurde bei 42°C und 51°C phänotypisch charakterisiert und der regulatorische Einfluss der sRNA auf die mRNA differentiell regulierter Proteine durch Northern Blot-Analyse überprüft. Eine Transkriptomanalyse mittels DNA-Mikroarray nach Hitzeschock-Induktion führte zur Identifikation differentiell regulierter Gene involviert in Transportprozesse, Metabolismus, Transkriptionsregulation und die Expression anderer sRNAs. Die differentielle Regulation des Proteoms nach Hitzeschockinduktion in An- und Abwesenheit von sRNA30 konnte bestätigt werden.
Desweiteren wurde in dieser Arbeit sRNA132 und deren phosphatabhängige Regulation der Ziel-mRNA HVO_A0477-80 näher charakterisiert. Eine Induktionskinetik nach Phosphatentzug bestätigte die Bedeutung von sRNA132 für die verstärkte Expression des Operons HVO_A0477-80 unter Phosphatmangel-Bedingungen und verwies auf die Existenz weiterer Regulationsmechanismen. Während vor und nach Phosphatentzug kein Unterschied bezüglich der Zellmorphologie von Wildtyp und Deletionsmutante zu erkennen war, führte das Wachstum mit einem starken Phosphatüberschuss von 5 mM zu einer Zellverlängerung der Deletionsmutante. Die Kompetition der nativen 3‘-UTR des Operons HVO_A0477-80 mit einer Vektor-kodierten artifiziellen 3‘-UTR legt eine Regulation über die Bindung von sRNA132 an die 3‘-UTR nahe. Der Transkriptomvergleich nach Phosphatentzug in An- und Abwesenheit von sRNA132 führte zur Identifikation des Phosphoregulons der sRNA. Zu diesem Phosphoregulon gehören unter anderem zwei Glycerinphosphat-Dehydrogenasen, Transkriptionsregulatoren, eine Polyphosphatkinase und eine Glycerolphosphodiesterase. Zudem waren die Transkriptlevel der beiden ABC-Transporter HVO_A0477-80 und HVO_2375-8 für anorganisches Phosphat und des Transporters HVO_B0292-5 für Glycerinaldehyd-3-Phosphat in Abwesenheit der sRNA verringert. Die beiden ABC-Transportsysteme für anorganisches Phosphat wurden im Rahmen dieser Arbeit deletiert und weiter charakterisiert. Es konnte gezeigt werden, dass das ABC-Transportsystem HVO_2375-8 bei geringen Phosphatkonzentrationen leicht induziert wird und das Transkriptlevel in Anwesenheit von sRNA132 erhöht ist. Wachstumsversuche der jeweiligen Deletionsmutante in direkter Konkurrenz mit dem Wildtyp zeigten, dass keiner der beiden ABC-Transporter den anderen vollständig ersetzen kann und der Wildtyp mit beiden intakten ABC-Transportern unter phosphatlimitierenden Bedingungen einen Wachstumsvorteil besitzt. In silico-Analysen der Promotorbereiche von sRNA und ABC-Transporter legen zudem die Existenz von P-Boxen nahe.
Crystal growth and characterization of cerium- and ytterbium-based quantum critical materials
(2018)
In der Festkörperphysik werden heutzutage Themen wie Supraleitung, Magnetismus und Quantenkritikalität sowohl von experimenteller als auch von theoretischer Seite stark untersucht. Quantenkritikalität und Quantenphasenübergänge können in Systemen erforscht werden, für welche ein Kontroll Parameter existiert, durch den z.B. eine magnetische Ordnung soweit unterdrückt wird, bis der Phasenübergang bei Null Kelvin, bei einem quantenkritischen Punkt (QCP), stattfindet. Vorzugsweise wird quantenkritisches Verhalten an Einkristallen untersucht, da diese in sehr reiner Qualität gezüchtet werden können und da deren gemessenen physikalischen Eigenschaften ausschließlich intrinsisch sind und nicht durch Verunreinigungseffekte überlagert werden. Der Schwerpunkt dieser Arbeit lag auf der Züchtung von Einkristallen und der Charakterisierung von Materialien, die quantenkritische Phänomene aufweisen. Als Ausgangsstoffe dienten dabei Elemente höchstmöglicher Reinheit. Es wurden die Serie YbNi4(P1-xAsx)2 mit einem ferromagnetischen QCP bei x=0,1, die Verbindung YbRh2Si2 mit einem feldinduzierten QCP bei Bcrit = 60mT und die Serie Ce(Ru1-xFex)PO mit einem QCP bei x = 0,86 untersucht. Für alle Verbindungen wurde das Züchtungsverfahren entwickelt, dann wurden Einkristalle gezüchtet und charakterisiert. Die Züchtung wurde zum einen mittels der Bridgman-Methode, zum anderen mit der Czochralski Methode durchgeführt. Neben struktureller und chemischer Charakterisierung der Einkristalle mittels Röntgen-Pulverdiffraktometrie, Laue-Methode und Energie-dispersiver Röntgen-Spektroskopie, wurden auch deren spezifische Wärme, elektrischer Widerstand und Magnetisierung im Temperaturbereich 1,8 – 300 K untersucht. Im weiteren Verlauf wurden die Kristalle in verschiedenen Kooperationen untersucht und bis in den Tieftemperatur- Bereich (20 mK), bei YbRh2Si2 bis in den Submillikelvin-Bereich, charakterisiert. Ausserdem wurden im Rahmen dieser Dissertation Einkristalle weiterer antiferromagnetischer Verbindungen SmRh2Si2, GdRh2Si2, GdIr2Si2, HoRh2Si2 und HoIr2Si2 gezüchtet. Bei diesen Verbindungen stand die Untersuchung elektronischer Oberflächenzustände mittels winkelaufgelöster Photoemissionsspektroskopie im Vordergrund.
Die Forschungsarbeit leistet einen kriminologischen Beitrag zur Systematisierung des Phänomens der sekundären Viktimisierung bei Opfern sexualisierter Gewalt und zeigt gleichzeitig Präventionsansätze auf, die sekundäre Viktimisierung verhindern sollen.
„Sekundäre Viktimisierung“ als die sogenannte „zweite Opferwerdung“ durch soziale Fehlreaktionen einzelner Personen oder gesellschaftlicher Gruppen sowie die Prävention dieses Phänomens ist im Detail noch wenig erforscht. Der Fokus des Forschungs- und Erkenntnisinteresses richtet sich auf die Zielgruppe der Opfer sexualisierter Gewalt, die in ihrer Kindheit sexuell missbraucht und als Erwachsene sekundär viktimisiert wurden. Es wird angenommen, dass Sexualstraftaten, die von den Opfern im Kindesalter erlitten werden, in besonderem Maße die persönliche Unversehrtheit verletzen und dass somit eine zusätzliche sekundäre Viktimisierung als besonders belastend empfunden wird.
Zunächst wird im theoretischen Teil auf wesentliche Begriffe wie sexualisierte Gewalt in Verbindung mit primärer und sekundärer Viktimisierung eingegangen und nimmt deren kriminologische Einordnung vor, stellt das Ausmaß sowie die Spezifika des Phänomens in den Fokus. Dabei wird zunächst der Opferbegriff ausführlich diskutiert, wobei der Opferperspektive viel Raum gegeben wird. Ein weiterer Schwerpunkt liegt auf der Darstellung des aktuellen Forschungsstandes zur sekundären Viktimisierung, insbesondere mit Bezug zu sexualisierter Gewalt.
Im Zentrum des qualitativen Forschungsansatzes stehen folgende Fragen: „Welche Strukturen prägen die Situationen sekundärer Viktimisierung?“ und „Wie ist Prävention von sekundärer Viktimisierung möglich?“. Auf der Grundlage der Forschungsergebnisse wurde ein Präventionskonzept mit praxisorientierten Empfehlungen entwickelt. Zunächst sind typische Strukturen sekundärer Viktimisierung analysiert und in einem Modell verdeutlicht worden. Es ist zu unterscheiden zwischen Strukturen, die sekundäre Viktimisierung begünstigen (Risikofaktoren) sowie Strukturen, die sekundärer Viktimisierung vorbeugen (Schutzfaktoren). Anhand der identifizierten Schutzfaktoren entstand das Modell zur Prävention sekundärer Viktimisierung, aus denen konkrete Präventionsansätze abzuleiten sind.
Hervorgehoben wird die kriminologische Orientierung der Arbeit; wenngleich die Kriminologie interdisziplinär einzuordnen ist, dominiert bei der Analyse die kriminalsoziologische Verortung und speziell die viktimologische Ausrichtung.
Die vorliegende Dissertation beschäftigt sich mit der moderierenden Rolle der Elaboriertheit des sportbezogenen Selbstaspekts auf die Verarbeitung selbstrelevanter Informationen im Sport.
Im ersten Kapitel werden aus einer übergeordneten Perspektive heraus zunächst die beiden im Mittelpunkt der Dissertation stehenden Konstrukte Selbst und Identität in einen historischen Kontext gesetzt und begrifflich umrissen. Im Anschluss werden verschiedene Modelle des Selbst vorgestellt. Dabei wird aufgezeigt, dass insbesondere in der sportpsychologischen Forschung bislang eher Inhalte und weniger Strukturen und Prozesse des Selbstkonzepts im Mittelpunkt standen. In der vorliegenden Dissertation wird das Selbst bzw. die Identität als komplexes, dynamisches System aufgefasst, das sowohl die Informationsverarbeitung beeinflusst als auch durch Prozesse der Informationsverarbeitung beeinflusst wird. Im Anschluss stehen Theorien der Selbstwerterhöhung und der Selbstkonsistenz im Mittelpunkt, deren Vertreter unterschiedliche Vorhersagen für die Verarbeitung konsistenter und von der eigenen Selbsteinschätzung positiv abweichender Rückmeldungen postulieren: Während Selbstwerterhöhungstheorien eine Präferenz für positives Feedback vorhersagen, bevorzugen Personen laut Selbstkonsistenztheorien solches Feedback, das mit ihrer eigenen Selbsteinschätzung übereinstimmt. Anschließend werden mit der Art der Reaktion (affektiv vs. kognitiv) und der Elaboriertheit des betroffenen Selbstaspekts zwei Variablen vorgestellt, die moderieren, ob die Informationsverarbeitung eher konsistenztheoretischen (kognitive Reaktion, hohe Elaboriertheit) oder selbstwerterhöhenden (affektive Reaktion, geringe Elaboriertheit) Vorhersagen folgt.
Ausführlicher werden dann mit dem Exercise Self-Schema und der Exercise Identity zwei sportbezogene Konstrukte vorgestellt, die zur Operationalisierung der Elaboriertheit des entsprechenden Selbstaspekts genutzt werden können. Hierbei wird sowohl auf die Messung als auch auf den empirischen Forschungsstand eingegangen und es wird dargestellt, dass die beiden Konstrukte zwar unterschiedlichen theoretischen Denklinien entstammen, auf operationaler Ebene aber weitgehend austauschbar sind.
Das zweite Kapitel enthält einen Überblick über die drei durchgeführten quantitativen empirischen Studien. Studie 1 (N = 530) beschreibt die Übersetzung und Validierung der Exercise Identity Scale ins Deutsche. Dabei wird neben den beiden in der Literatur diskutierten Ein- und Zwei-Faktor-Modellen auch ein Bifaktor-Modell als mögliche Alternative geprüft. Zusätzlich wird die Invarianz der Skala über die Zeit (Abstand: 14 Tage) mit einer Teilstichprobe, die Invarianz zwischen Männern und Frauen mit der Gesamtstichprobe sowie die konvergente Validität über Korrelationen mit verwandten Konstrukten getestet.
Die Studien 2 und 3 widmen sich der eigentlichen Forschungsfrage nach der moderierenden Wirkung der Elaboriertheit auf die Verarbeitung von sportbezogenem selbstrelevantem Feedback. In Studie 2 (Onlinestudie) wird die Elaboriertheit über das Exercise Self-Schema operationalisiert (N = 472). In dieser Studie zeigt sich, dass Personen – unabhängig davon, ob sie ein Selbstschema im Bereich sportlichen Trainings aufweisen oder nicht – Feedback, das von ihrer eigenen Selbsteinschätzung positiv abweicht, gegenüber mit ihrer Selbsteinschätzung übereinstimmendem (konsistentem) Feedback vorziehen. In Studie 3 (Laborstudie, N = 215) werden einige Limitationen der Onlinestudie adressiert, indem u. a. das fingierte Feedback nach einem objektiveren (physiologischen) Test gegeben und die Elaboriertheit mithilfe der kontinuierlichen Exercise Identity Scale gemessen wird. Auch hier zeigt sich die vermutete moderierende Wirkung der Exercise Identity nicht: Bei der affektiven Reaktion dominiert das Selbstwerterhöhungsmotiv; bei der kognitiven zeigt sich zwar ein kleiner Effekt, der allerdings erwartungswidrig ausfällt (Personen mit geringerer Exercise Identity bevorzugten konsistentes gegenüber positivem Feedback). In beiden Studien zeigt sich darüber hinaus ein moderierender Effekt der Elaboriertheit des sportbezogenen Selbstaspekts hinsichtlich des zur Kontrolle mit in das Versuchsdesign einbezogenen negativen Feedbacks.
Im dritten Kapitel wird eine Gesamtdiskussion der Ergebnisse aus einer übergeordneten Perspektive vorgenommen. Die Befunde werden in den bisherigen empirischen Forschungsstand eingeordnet und es werden Grenzen der durchgeführten Studien diskutiert. Implikationen für zukünftige Forschung werden u. a. im Hinblick auf eine Verbindung zwischen der grundlagenorientierten kognitiv-motivationalen Perspektive der vorliegenden Arbeit und einer eher anwendungsorientierten Perspektive im Sinne der Förderung einer Bindung an sportliche Aktivität diskutiert.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine ‚Schutzfunktion‘ vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste.
Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
The enzyme acetyl-CoA carboxylase (ACC) plays a fundamental role in the fatty acid metabolism. It regulates the first and rate limiting step in the biosynthesis of fatty acids by catalyzing the carboxylation of acetyl-CoA to malonyl-CoA and exists as two different isoforms, ACC1 and ACC2. In the last few years, ACC has been reported as an attractive drug target for treating different diseases, such as insulin resistance, hepatic steatosis, dyslipidemia, obesity, metabolic syndrome and nonalcoholic fatty liver disease. An altered fatty acid metabolism is also associated with cancer cell proliferation. In general, the inhibition of ACC provides two possibilities to regulate the fatty acid metabolism: It blocks the de novo lipogenesis in lipogenic tissues and stimulates the mitochondrial fatty acid β-oxidation. Surprisingly, the role of ACC in human vascular endothelial cells has been neglected so far. This work aimed to investigate the role of the ACC/fatty acid metabolism in regulating important endothelial cell functions like proliferation, migration and tube formation.
To investigate the function of ACC, the ACC-inhibitor soraphen A as well as an siRNA-based approach were used. This study revealed that ACC1 is the predominant isoform both in human umbilical vein endothelial cells (HUVECs) and in human dermal microvascular endothelial cells (HMECs). Inhibition of ACC via soraphen A resulted in decreased levels of malonyl-CoA and shifted the lipid composition of endothelial cell membranes. Consequently, membrane fluidity, filopodia formation and the migratory capacity were attenuated. Increasing amounts of longer acyl chains within the phospholipid subgroup phosphatidylcholine (PC) were suggested to overcompensate the shift towards shorter acyl chains within phosphatidylglycerol (PG), which resulted in a dominating effect on regulating the membrane fluidity. Most importantly, this work provided a link between changes in the phospholipid composition and altered endothelial cell migration. The antimigratory effect of soraphen A was linked to a reduced amount of PG and to an increased amount of polyunsaturated fatty acids (PUFAs) within the phospholipid cell membrane. This link was unknown in the literature so far. Interestingly, a reduced filopodia formation was observed upon ACC inhibition via soraphen A, which presumably caused the impaired migratory capacity.
This work revealed a relationship between ACC/fatty acid metabolism, membrane lipid composition and endothelial cell migration. The natural compound soraphen A emerged as a valuable chemical tool to analyze the role of ACC/fatty acid metabolism in regulating important endothelial cell functions. Furthermore, regulating endothelial cell migration via ACC inhibition promises beneficial therapeutic perspectives for the treatment of cell migration-related disorders, such as ischemia reperfusion injury, diabetic angiopathy, macular degeneration, rheumatoid arthritis, wound healing defects and cancer.
Quantum chromodynamics (QCD) is the theory of the strong interaction between quarks and gluons. Due to Confinement, at lower energies quarks and gluons are bound into colorless states called hadrons. QCD is also asymptotically free, i.e. at large energies or densities it enters a deconfined state, termed quark-gluon plasma (QGP), where quarks and gluons are quasi-free. This transition occurs at an energy scale around 200 MeV where QCD cannot be treated perturbatively. Instead it can be formulated on a space-time grid. The resulting theory, lattice quantum chromodynamics (LQCD), can be simulated efficiently on high performance parallel-computing clusters. In recent years graphic processing units (GPUs), which outperform CPUs in terms of parallel-computing and memory bandwidth capabilities, became very popular for LQCD computations. In this work the QCD deconfinement transition is studied using CL2QCD, a LQCD application that runs efficiently on GPUs. Furthermore, CL2QCD is extended by a Rational Hybrid Monte Carlo algorithm for Wilson fermions to allow for simulations of an odd number of quark flavors.
Due to the sign-problem LQCD simulations are restricted to zero or very small baryon densities, where, in the limit of infinite quark mass QCD has a first order deconfinement phase transition associated to the breaking of the global centre symmetry. Including dynamical quarks breaks this symmetry explicitly. Lowering their mass weakens the first order transition until it terminates in a second order Z2 point. Beyond this point the transition is merely an analytic crossover. As the lattice spacing is decreased, the reduction of discretization errors causes the region of first order transitions to expand towards lower masses. In this work the deconfinement critical point with 2 and 3 flavors of standard Wilson fermions is studied. To this end several kappa values are simulated on temporal lattice extents 6,8,10 (4) for two flavors (three flavors) and various aspect ratios (spatial lattice extent / temporal lattice extent) so as to extrapolate to the thermodynamic limit, applying finite size scaling. For two flavors an estimate is done if and when a continuum extrapolation is possible.
The chiral and deconfinement phase transitions at zero density for light and heavy quarks, respectively, have analytic continuations to purely imaginary chemical potential, where no sign-problem exists and LQCD simulations can be applied. At some critical value of the imaginary chemical potential, the transitions meet the endpoint of the Roberge-Weiss transition between adjacent Z3 sectors. For light and heavy quarks the transition lines meet in a triple point, while for intermediate masses they meet in a second order point. At the boundary between these regimes the junction is a tricritical point, as shown in studies with two and three flavors of staggered and Wilson quarks on lattices with a temporal lattice extent of 4. Employing finite size scaling the nature of this point as a function of the quark mass is studied in this work for two flavors of Wilson fermions with a temporal lattice extent of 6. Of particular interest is the change of the location of tricritical points compared to an earlier study on lattices with temporal extent of 4.
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
Powerful environment perception systems are a fundamental prerequisite for the successful deployment of intelligent vehicles, from advanced driver assistance systems to self-driving cars. Arguably the most essential task of such systems is the reliable detection and localization of obstacles in order to avoid collisions. Two particularly challenging scenarios in this context are represented by small, unexpected obstacles on the road ahead, and by potentially dynamic objects observed from a large distance. Both scenarios become exceedingly critical when the ego-vehicle is traveling at high speed. As a consequence, two major requirements placed on environment perception systems are the capability of (a) high-sensitivity generic object detection and (b) high-accuracy obstacle distance estimation. The present thesis addresses both requirements by proposing novel approaches based on stereo vision for spatial perception.
First, this work presents a novel method for the detection of small, generic obstacles and objects at long range directly from stereo imagery. The detection is based on sound statistical tests using local geometric criteria which are applicable to both static and moving objects. The approach is not limited to predefined sets of semantic object classes and does not rely on restrictive assumptions on the environment, such as oversimplified global ground surface models. Free-space and obstacle hypotheses are evaluated based on a statistical model of the input image data in order to avoid a loss of sensitivity through intermediate processing steps. In addition to the detection result, the algorithm simultaneously yields refined estimates of object distances, originating from an implicit optimization of the geometric obstacle hypothesis models. The proposed detection system provides multiple flexible output representations, ranging from 3D obstacle point clouds to compact mid-level obstacle segments to bounding box representations of object instances suitable for model-based tracking. The core algorithm concept lends itself to massive parallelization and can be implemented efficiently on dedicated hardware. Real-time execution is demonstrated on a test vehicle in real-world traffic. For a thorough quantitative evaluation of the detection performance, two dedicated datasets are employed, covering small and hard-to-detect obstacles in urban environments as well as distant dynamic objects in highway driving scenarios. The proposed system is shown to significantly outperform current general purpose obstacle detection approaches in both setups, providing a considerable increase in detection range while reducing the false positive rate at the same time.
Second, this work considers the high-accuracy estimation of object distances from stereo vision, particularly at long range. Several new methods for optimizing the stereo-based distance estimates of detected objects are proposed and compared to state-of-the-art concepts. A comprehensive statistical evaluation is performed on an extensive dedicated dataset, establishing reference values for the accuracy limits actually achievable in practice. Notably, the refined distance estimates implicitly provided by the proposed obstacle detection system are shown to yield highly accurate results, on par with the top-performing dedicated stereo matching algorithms considered in the analysis.
Ziel der Arbeit ist es, den frühen Zweitspracherwerb bei Kinder mit einer Spezifischen Sprachentwicklungsstörung (specific language impairment, SLI) zu charakterisieren. Im Vergleich zwischen sprachunauffälligen Kindern mit Deutsch als Zweitsprache (DaZ-TD) und und sprachauffälligen Kindern (DaZ-SLI) wird für die morpho-syntaktischen Bereiche Finitheit und Verbstellung sowie Kasus untersucht, anhand welcher Entwicklungsmuster sich zwischen einem unauffälligen und einem auffälligen DaZ-Erwerb unterscheiden lässt. Dabei werden die folgenden übergeordneten Fragen (F) beantwortet. (F1) Gibt es Unterschiede in Bezug auf Fehlerarten und -häufigkeiten zwischen DaZ-TD und DaZ-SLI Kindern? (F2) Gibt es persistierende Defizite bei DaZ-SLI Kindern verglichen mit DaZ-TD Kindern?
Untersucht wurden über einen Zeitraum von zwei Jahren 33 DaZ-Kinder, elf davon mit einer SLI. Zu Beginn der Erhebungen waren die DaZ-TD Kinder im Durchschnitt 3;8 Jahre alt und hatten 11 KM zum Deutschen. Die DaZ-SLI waren zu MZP 1 durchschnittlich 7;1 Jahre alt (45 KM). Zu insgesamt vier MZP wurden elizitierte Produktionsdaten mittels des standardisierten Verfahrens LiSe-DaZ (Schulz & Tracy 2011) erhoben. Sowohl die Methode der elizitierten Produktion als auch die längsschnittlichen Analysen einer großen Gruppe von Kindern mit DaZ erlaubten es, Aussagen über das Erwerbsalter bzw. persistierende Defizite und Entwicklungsmuster, insbesondere bei SLI, zu treffen. Entwicklungsverzögerungen (delay) und ggf. vom DaZ-TD Erwerb abweichende Entwicklungsmuster (deviance) wurden abgebildet.
Mit der Beantwortung der Fragen leistet die Arbeit in zweierlei Hinsicht einen Beitrag. Erstens wird mit Blick auf die Spracherwerbsforschung gezeigt, dass DaZ-SLI Kinder entwicklungsverzögert sind und sowohl ø-Stämme in V2 als auch Schwierigkeiten im Erwerb von Dativ in Präpositionalphrasen auf eine SLI bei Kindern mit DaZ hinweisen. Zweitens wird aus Sicht der Linguistik dafür argumentiert, dass zum einen ø-Stämme in V2 kovert finit sind und zum anderen in Modellen der Kasuszuweisung von einer dreigliedrigen Struktur, also einer Unterscheidung zwischen strukturellem, lexikalischem und inhärentem Kasus, ausgegangen werden muss.
Die Arbeit knüpft an damit an verschiedene Erwerbsstudien an. Hinsichtlich des Erwerbs von Finitheit und Verbstellung war bisher ungeklärt, ob auch die DaZ-SLI Kinder zwischen en-Infinitiven und ø-Stämmen hinsichtlich der jeweiligen Position im Satz unterscheiden, wie bereits für den DaZ-TD Erwerb nachgewiesen. Die vorliegende Studie wies dieses Erwerbsmuster auch für den DaZ-SLI Erwerb nach und schließt sich damit bisherigen Studien hinsichtlich kovert finiter ø-Stämme in V2 an. Studien zum Kasuserwerb bei DaZ, die auf den linguistisch relevanten Unterschied in der Kasuszuweisung, d.h. strukturell vs. nicht-strukturell (inhärent und lexikalisch), eingehen, gab es nur wenige. Die Frage, ob in der Kasustheorie von einem zwei- oder dreigliedrigen Modell ausgegangen werden muss, war neben der Frage nach möglicherweise abweichenden Erwerbsmustern und persistierenden Erwerbsschwierigkeiten bei DaZ-SLI bislang ungeklärt. In der vorliegenden Studie wurde gezeigt, dass DaZ-SLI Kinder verglichen mit DaZ-TD Kindern ähnliche Fehlermuster zeigen, aber insbesondere der Dativ in PPs stark verzögert erworben wird. Die Studie schließt den Ergebnissen zum simultan bilingualen Erwerb an und postuliert ein dreigliedriges Kasussystem.
Insgesamt zeigt die vorliegende Studie erstmals anhand elizitierter Längsschnittdaten, dass DaZ-SLI Kinder bis ins Schulalter persistierende Probleme im Erwerb von Finitheit und Verbstellung sowie Kasus haben. Verglichen mit DaZ-TD Kindern erwerben sie diese Bereiche - wenn überhaupt - deutlich verzögert (delay). In den Fehlertypen unterscheiden sich die beiden Erwerbstypen hingegen nicht (deviance).
Licht ist ein wertvolles Werkzeug zur Regulation biochemischer Reaktionsabläufe. Denn die Applikation von Licht erlaubt eine sehr präzise Einflussnahme auf den Ort und den Startzeitpunkt der zu untersuchenden Reaktionen. Als nichtinvasives Medium bietet die Lichtkontrolle bei der Wahl einer geeigneten Anregungswellenlänge den Vorteil nur minimal in einen lebenden Organismus einzugreifen. Um eine solche lichtbasierte Kontrolle für biologische Anwendungen zu realisieren, ist die Anwesenheit einer lichtsensitiven Verbindung nötig. Ein Konzept der lichtsensitiven Verbindungen ist die sogenannte photolabile Schutzgruppe. Im Allgemeinen handelt es sich hierbei um einen Chromophor der temporär an ein Biomolekül angebracht wurde, um dessen biologische Aktivität zu unterdrücken.
In dieser Arbeit wurde dieses Konzept auf das Antibiotikum Puromycin angewendet, welches durch das synthetische Anbringen der Cumarin-Schutzgruppe DEACM in seiner biologischen Aktivität behindert und durch einen Lichtpuls wieder freigesetzt wurde. DEACM st eine photolabile Schutzgruppe mit breitem Anwendungsspektrum, da es im Vergleich zu anderen Cumarin-Derivaten vorteilhafte photophysikalische Eigenschaften aufweist. Zum einen ist durch den 7-Diethylamino-Substituenten das Absorptionsmaximum dieser Verbindung um etwa 20 nm bathochrom verschoben. Zum anderen zeichnet sich dieses Derivat durch einen erheblich erhöhten Extinktionskoeffizienten aus, sodass eine Freisetzungsreaktion mit einer geringeren Lichtdosis induziert werden kann, was weniger Stress für die Zellen in lebenden Systemen bedeutet.
Die antibiotische Wirkung von Puromycin beruht auf der strukturellen Ähnlichkeit zum5'-Ende von Tyrosyl-tRNA, wodurch sich das Antibiotikum kondonunspezifisch während der Translation der Proteinsynthese an das Ribosom anlagern kann. Anschließend wird die naszierende Polypeptidkette auf das Puromycin transferiert. Da diese neue Bindung unter biologischen Bedingungen nicht spaltbar ist, führt dies zu einer verfrühten Freisetzung des Polypeptid-Puromycin-Fragments. Schließlich ist die Proteinsynthese vollständig abgebrochen.
Die Motivation zur photoinduzierten Kontrolle von Puromycin besteht in der Vielzahl an biologischen Applikationsmöglichkeiten, da die lichtregulierte Freisetzung der biologischen Aktivität als Trigger für sich anschließende biochemische Abläufe verwendet werden kann. Durch das hier gezeigte System kann in Kombination mit anderen Techniken (z.B. NMR) die posttranslationale Proteinfaltung beobachtet werden, welche als hochgradig komplexer Prozess bisher nicht verstanden ist. Eine weitere Motivationsgrundlage ist die Anwendung von DEACM-puromycin in Nervenzellen. Hier kann durch die Photofreisetzung die Proteinsynthese in den Dendriten der Neuronen beobachtet werden, wodurch Rückschlüsse auf neurodegenerative Krankheiten möglich sein sollten, wie z.B. Alzheimer-Krankheit. In dieser Arbeit konnte in-vitro nachgewiesen werden, dass die antibiotische Wirkung von Puromycin mittels Licht kontrollierbar ist. Aus der photophysikalischen Grundcharakterisierung ging hervor, dass DEACM-puromycin einen hohen Extinktionskoeffizienten bei Wellenlängen größer als 380 nm aufweist. Folglich kann zur Induktion der Photolyse eine geringere Lichtdosis mit energiearmer Strahlung als bei dem Vorläufersystem NVOC-puromycin verwendet werden, angesichts dessen ist das hier vorgestellte DEACM-puromycin für Anwendungen in Zellen zu empfehlen.
Über die Kombination von quantenchemischen Rechnungen und spektroskopischen Methoden konnten die frühen Schritte der Freisetzungsreaktion bestimmt und quantifiziert werden. Zudem zeigte sich ein Einfluss der Lösungsmittelzusammensetzung auf die Uncaging-Schritte. In Gegenwart eines protischen Lösungsmittels wird der zum Uncaging in Konkurrenz stehende Prozess der Fluoreszenz unterdrückt, wodurch die Freisetzungsschritte effektiver werden. Zudem führt die Präsenz von Protonen zu einer Stabilisierung des ionischen Intermediates, sodass die Bildung dessen beschleunigt ablaufen kann. Die Spaltung der photolabilen Schutzgruppen vom Puromycin findet mit einer Rate von 0,71*10^8 s-1 statt, welche im Vergleich zu Vorgängersystem um eine Größenordnung größer ist. Die Wiederherstellung der biologischen Aktivität resultiert aber erst nach einem anschließenden Decarboxylierungsschritt. Mithilfe von IR-Messungen konnte die Decarboxylierung beobachtet und daraus die Quantenausbeute zu 2,5% determiniert werden. Die so bestimmte Quantenausbeute entspricht etwa dem Zweifachen von NVOC-puromycin, sodass die hier untersuchte Verbindung eindeutig als das effizientere System zu betrachten ist. Die hier beschriebenen Ergebnisse zeigen, dass DEACM-puromycin vorteilhafte photophysikalische Eigenschafen aufweist, die diese Verbindung zu einem wertvollen Hilfsmittel für eine Vielzahl von lichtkontrollierten Untersuchungen in biologischer Umgebung macht. Zudem wurden Einblicke in den Reaktionsmechanismus gegeben, die das Verständnis der photolytischen Spaltung von Carbamat-geschützten Cumarinen erstmals auf der ultrakurzen Zeitskala ermöglicht.
In this thesis we introduce the imaginary projection of (multivariate) polynomials as the projection of their variety onto its imaginary part, I(f) = { Im(z_1, ... , z_n) : f(z_1, ... , z_n) = 0 }. This induces a geometric viewpoint to stability, since a polynomial f is stable if and only if its imaginary projection does not intersect the positive orthant. Accordingly, the thesis is mainly motivated by the theory of stable polynomials.
Interested in the number and structure of components of the complement of imaginary projections, we show as a key result that there are only finitely many components which are all convex. This offers a connection to the theory of amoebas and coamoebas as well as to the theory of hyperbolic polynomials.
For hyperbolic polynomials, we show that hyperbolicity cones coincide with components of the complement of imaginary projections, which provides a strong structural relationship between these two sets. Based on this, we prove a tight upper bound for the number of hyperbolicity cones and, respectively, for the number of components of the complement in the case of homogeneous polynomials. Beside this, we investigate various aspects of imaginary projections and compute imaginary projections of several classes explicitly.
Finally, we initiate the study of a conic generalization of stability by considering polynomials whose roots have no imaginary part in the interior of a given real, n-dimensional, proper cone K. This appears to be very natural, since many statements known for univariate and multivariate stable polynomials can be transferred to the conic situation, like the Hermite-Biehler Theorem and the Hermite-Kakeya-Obreschkoff Theorem. When considering K to be the cone of positive semidefinite matrices, we prove a criterion for conic stability of determinantal polynomials.
The endoplasmic-reticulum-associated protein degradation pathway ensures quality control of newly synthesized soluble and membrane proteins of the secretory pathway. Proteins failing to fold into their native structure are processed in a multistep process and finally ubiquitinated and degraded by the proteasome in order to protect the cell from proteotoxic stress. My thesis covers structural as well as functional studies of various protein components that constitute the protein complexes that are responsible for this process.
One sub-project addressed the mechanism of glycan recognition by Yos9 as part of the ERAD substrate selection. NMR solution structures of the mannose-6-phosphate homology (MRH) domain of Yos9 both in a free and glycan bound conformation reveal a gripping movement of loop regions upon binding of correctly processed glycan structures.
The main projects focused on revealing the mechanism of efficient ubiquitin chain assembly by the ERAD ubiquitination machinery. This included the investigation of the role of the ERAD components Cue1 and Ubc7 in processive ubiquitin chain formation, how ubiquitin chain conformations change during elongation, how the conformation of a chain is impacted by interacting proteins and finally understand the activity regulation of the ERAD E2 enzyme Ubc7 by its cognate RING E3 ligases. Nuclear magnetic resonance (NMR) analysis and fluorescence-based ubiquitination assays show that the CUE domain of Cue1 contributes with its proximal binding preference as well as with its position dependent accelerating effect to efficient ubiquitin chain formation. This is required to efficiently drive degradation of substrates. Specific ubiquitin binding events dictate and coordinate the spatial arrangement of the E2 enzyme relative to the distal tip of a chain. This process can be further accelerated by RING E3 ligases that promote Ubc7 activity by more than ~20 fold via inducing allosteric changes around the catalytic cysteine. My results additionally suggest a model where Ubc7 dimerization results in proximity induced activation of the E2. This data ensures rapid diubiquitin formation that is followed by a CUE domain assisted chain elongation mechanism where Cue1 acts in an E4 like fashion.
How ubiquitin binding events can modulate the conformations of a ubiquitin chain were investigated by pulsed electron-electron double resonance (PELDOR) spectroscopy combined with molecular modeling. This shows that K48-linked diubiquitin samples a broad conformational space which can be modulated in distinct ways. The CUE domain of Cue1 uses conformational selection of pre-populated open conformations to support ubiquitin chain elongation. In contrast, deubiquitinating enzymes shift the conformational distribution to weakly or even non-populated conformations to allow cleavage of the isopeptide bond that connects adjacent ubiquitins. Ubiquitin chain elongation increases the sampled conformational space and suggests that this high conformational flexibility might contribute to efficient proteasomal recognition.
Für das bessere Verständnis der Nukleosynthese der schweren Elemente im s-Prozess wurde im Rahmen dieser Arbeit die Messung zur Bestimmung der Neutroneneinfangsreaktion von 83Kr durchgeführt. Als Messinstrument wurde DANCE am LANL verwendet, ein 4pi-Kalorimeter zur Detektion der entstehenden g-Kaskaden bei (n,g)-Reaktionen. Darüber hinaus wurden außerdem noch Proben mit 85Kr und 86Kr vermessen.
Die Herausforderung an diesem Experiment bestand vor allem in der Probenherstellung. Das Edelgas Kr erforderte eine Neukonstruktion der normalerweise bei DANCE verwendeten Probenhalterung. Das Hauptaugenmerk lag auf der Maximierung der Kr-Exposition durch den Neutronenstrahl. Im Gegenzug wurde versucht das umgebende Material nach Möglichkeit keinen Neutronen auszusetzen. Für die Isotope 83,86Kr wurden Hochdruckgaskugeln verwendet, die an der Goethe-Universität Frankfurt gefüllt und in eine der neuen Probenhalterungen eingesetzt wurden. Zur Beachtung des bei der Messung entstehenden Untergrundes wurde eine Messung mit baugleicher Probenhalterung und leerer Gaskugel durchgeführt. Da bereits kleine Mengen 85Kr eine hohe Radioaktivität aufweisen, wurde eine in einen Stahlzylinder eingeschweißte, existierende Quelle verwendet.
Bei der Analyse zu 86Kr wurde schnell eine zu starke Verunreinigung der Kr-Probe mit Xe offensichtlich, einen signifikanten Anteil des Spektrums ausmachte. Aus diesem Grund kam es vor allem zu Problemen den korrekten Untergrund von den 86Kr Messdaten zu subtrahieren. Die weitere Bestimmung inklusive Streukorrekturen, Normierung anhand des Flussmonitors und DICEBOX/GEANT3 Effizienzbestimmung lieferte zwar einen energieabhängigen Wirkungsquerschnitt, dieser zeigte allerdings große Abweichungen von den evaluierten ENDF/B-VII.1 Daten, was besonders ersichtlich in der deutlichsten 86Kr Resonanz bei 5515 eV zu erkennen war. Aus diesem Grund konnte aus den Messdaten kein MACS extrahiert werden.
Bei einer Untersuchung der Aktivität der 85Kr-Probe mit Hilfe der einzelnen BaF2-Detektoren in der DANCE Kugel zeigte sich zunächst eine um fast einen Faktor vier geringere Aktivität als vom Hersteller angegeben. Auch bei der weiteren Analyse traten massive Untergrundprobleme auf. Die Form des Stahlzylinders, in dem das Kr-Gasgemisch eingeschweißt war, konnte aufgrund seiner Form nur schwer im Strahlrohr untergebracht werden. Beim Experiment selbst zeigte sich dann, dass Teile der Halterung vom Neutronenstrahl getroffen wurden, was einen Untergrund mit sehr hohem Q-Wert erzeugte, der nicht durch ein Esum Fenster entfernt werden konnte. Durch eine Beschädigung der Halterung mit der Probe kam es darüber hinaus zu Abweichungen mit der verwendeten Leerhalterung. All das führte trotz einer langen Messzeit von fast 18 d dazu, dass nur ein sehr schwaches Signal von der eigentlichen Kr-Probe zu erkennen war. Es wurde eine mögliche 85Kr Resonanz bei 675 eV gefunden, allerdings ist die endgültige Zuordnung aufgrund der nicht eindeutigen Untergrundsituation äußerst schwierig. Im Vorfeld des Kr-Experimentes wurde eine Messung von RbCl an DANCE durchgeführt, da ursprünglich zu erwarten war, dass bereits ein Teil des 85Kr zu 85Rb zerfallen war. Durch diese Messung sollte dieser Anteil leicht von der späteren Messung zu subtrahieren sein. Allerdings trat ein unerwartetes Problem während der Datenaufnahme auf. Die Verbindung der DAQ Boards wurde getrennt, wodurch ca. 3/4 der Detektoren nicht mehr zeitsynchron liefen. Im Zuge dieser Arbeit wurde eine Rekonstruktion dieser Daten angestrebt. Durch Modifikationen am FARE Code, der zur Auswertung verwendet wurde, konnte Flugzeitspektren für jeden Beschleunigerpuls erzeugt werden. Es zeigte sich zunächst ein offensichtlicher Trend einer Verschiebung der getrennten Boards zu späteren Zeiten. Durch mehrere Fits an die Abweichungsverteilung und anschließende Korrektur konnte zunächst ein Spektrum wiederhergestellt werden, das vergleichbar mit den unbeschädigten Daten war. Bei einer detaillierten Analyse dieser neu gewonnen Daten zeigte sich jedoch eine Nichtlinearität in der Zeitverschiebung. Dies resultierte letztlich in einer Korrektur des Spektrums, allerdings nicht in einem Koinzidenzfenster von 10 ns, das für eine Wirkungsquerschnittsanalyse notwendig ist. Es wurde geschlussfolgert, dass durch die geringe Statistik in den einzelnen Flugzeitspektren solch eine Genauigkeit nicht zu erreichen ist.
Die Messung des Neutroneneinfangsquerschnitts von 83Kr konnte im Zuge dieser Arbeit erfolgreich durchgeführt werden. Es wurden zwei Messungen mit verschiedenen Strömen kombiniert. Eine Messung mit 40 µA wurde durchgeführt, um Pile-Up in der größten Resonanz bei 28 eV zu reduzieren. Die zweite Messung diente dann dem Sammeln von ausreichend Statistik in den nicht resonanten Bereichen. Die eingesetzte Leerkugel erlaubte eine saubere Subtraktion des Untergrundes von Probenhalterung, Gaskugel und Umgebung. Für die Skalierung der Messergebnisse wurde eine weitere Messung mit einer 5000 Å dicken Goldfolie durchgeführt. Zur Bestimmung der Detektoreffizienz konnten zunächst die durch den Neutroneneinfang entstandenen Abregungskaskaden der 84Kr Kerne mit DICEBOX modelliert werden. Diese Kaskaden wurden dann anschließend in GEANT3 Simulationen verwendet, um die Effizienz bestimmen zu können. Mit diesen Methoden erhielt man die Maxwell-gemittelten Wirkungsquerschnitte von kT = 5 keV - 100 keV. Bei der für den s-Prozess wichtigen Temperatur von kT = 30 keV wurde der Querschnitt bestimmt zu: MACS (30 keV) = (256,6 +- 14,2 (stat) +- 18,1(sys)) mb.
Dieser Wert ist in guter Übereinstimmung mit dem in der KADoNIS v0.3 Datenbank angegebenen Wert von MACS;KADoNIS (30 keV) = (243 +- 15) mb. Mit den so gewonnenen Wirkungsquerschnitten wurden außerdem die Reaktionsraten berechnet. Bei den anschließenden Netzwerkrechnungen mit dem Programm NETZ wurden die Auswirkungen der in dieser Arbeit gewonnenen Wirkungsquerschnitte im Vergleich zu den KADoNIS v0.3 Werten betrachtet. Dabei zeigte sich eine leicht erhöhte Produktion der stabilen Isotope 84Kr, 86Kr, 85Rb und 87Rb, sowie eine leichte Unterproduktion der stabilen Isotope 86-88Sr in der Hauptkomponente des s-Prozess. Ein ähnliches Bild zeigte sich in der He-Brennphase der schwachen Komponente. Der in dieser Arbeit gemessene Wirkungsquerschnitt bei hohen Temperaturen ist geringer als der in KADoNIS v0.3 angegebene, weswegen es bei der Simulation mit NETZ zu einer stark erhöhten Produktion von 83Kr in der C-Brennphase kommt.
Compact objects - black holes and neutron stars - are fascinating objects, not only for the astrophysicists, but for a wide range of researchers, including astronomers, theoretical physicists, particle and nuclear physicists, condensed matter physicists and arguably for the layman as well.
First theorized in the first part of the twentieth century, for a long time these objects have been considered just exotic ideas or mathematical curiosities. Pulsar were however detected in the late 1960s and readily identified as rotating, radiating neutron stars, while the first candidate black hole, Cygnus X-1, was observed in 1972. Since then the interest in these objects has steadily grown.
The reasons behind this interest are easily understood considering that compact object dwell at the intersection of many different areas of physics, and are ideal laboratories to explore the interplay between these areas.
Black holes, which are purely gravitational objects, are perfectly suited to study the nature of gravity, its manifestations such as gravitational waves, and the differences between various theories of gravity in the regime where they are expected to be most relevant, i.e. the strong field regime. However, just like any massive astrophysical object, black holes are interested by accretion phenomena, which are thought to be the power source of some very bright astrophysical emitters of electromagnetic signals, such as active galactic nuclei or X-ray binaries.
At the same time, black holes exist in a variety of different mass scales, from stellar mass to supermassive black holes billions of times heavier. The latter play a very important and yet not fully understood role in the formation and evolution of galaxies, as well as in shaping the large scale structure of the universe, making them relevant to cosmology as well.
Neutron stars share with black holes the characteristic of being gravitationally dominated systems; but because they are composed of baryon matter, they display a much richer behaviour. It has been realized early on that the matter in neutron star cores reaches extreme densities, exceeding the one in atomic nuclei. This means that neutron stars could provide invaluable information on the behaviour of matter in such extreme conditions (which are impossible to achieve in laboratory experiments), such as details of the nucleonic interaction, the properties of hyperons or of quark-gluon plasmas.
...
The mission of the Compressed Baryonic Matter (CBM) experiment is to investigate the phase diagram of strongly interacting matter in the region of high net-baryon densities and moderate temperatures. According to various transport models, matter densities of more than 5 times saturation density can be reached in collisions between gold nuclei at beam energies between 5 and 11 GeV per nucleon, which will be available at FAIR. The core detector of the CBM experiment is the Silicon Tracking System (STS), which is used to measure the tracks of up to 700 particles per collision with high efficiency (>95%) and good momentum resolution (<1.5%). The technological and experimental challenge is to realize a detector system with very low material budget, in order to reduce multiple scattering of the particles, and a free-streaming data readout chain, in order to achieve reaction rates up to 10 MHz together with an online event reconstruction and selection.
The STS comprises 8 tracking stations positioned between 30 cm and 100 cm downstream the target inside a magnetic field, covering polar emission angles up to 25 degrees. A station consists of vertical structures with increasing number (between 8 and 16, depending on station number), each structure carrying between 2 and 10 double-sided microstrip silicon sensors, which are connected through low-mass microcables to the readout electronics placed at the detector periphery outside the active detector area.
The work presented in this thesis focuses on the detector performance simulation and local hit pattern reconstruction in the STS. For efficient detector design and reconstruction performance, a reliable detector response model is of utmost importance. Within this work, a realistic detector response model was designed and implemented in the CBM software framework. The model includes non-uniform energy loss of an incident particle within a sensor, electric field of a planar p-n junction, Lorentz shift of the charge carriers, their diffusion, and the influence of parasitic capacitances. The developed model has been verified with experimental data from detector tests in a relativistic proton beam. Cluster size distributions at different beam incident angles are sensitive to charge sharing effects and were chosen as an observable for the verification. Taking into account parasitic capacitances further improves the agreement with measured data.
Using the developed detector response model, the cluster position finding algorithm was improved. For two-strip clusters, a new, unbiased algorithm has been developed, which gives smaller residuals than the Centre-Of-Gravity algorithm. For larger clusters, the head-tail algorithm is used as the default one. For an estimate of the track parameters, the Kalman Filter based track fit requires not only hit positions but their uncertainties as an input. A new analytic method to estimate the hit position errors has been designed in this work. It requires as input neither measured spatial resolution nor information about an incident particle track. The method includes all the sources of uncertainties independently, namely: the cluster position finding algorithm itself, the non-uniform energy loss of incident particles, the electronics noise, and the discretisation of charge in the readout chip.
The verification with simulations shows improvements in hit and track pull distributions as well as x²-distributions in comparison to the previous simple approach. The analytic method improves the track parameters reconstruction by 5-10%.
Several STS module prototypes have been tested in a relativistic proton beam. A signal to-noise ratio was obtained at the level of 10-15 for modules made of 30 cm long microcable and of either one or two 6.2 x 6.2 cm² CiS sensors.
First simulations have shown that this signal-to-noise ratio is sufficient to reach the required efficiency and momentum resolution. The high-radiation environment of CBM operation will deteriorate the sensor performance. Radiation hardness of sensors has been studied in the beam with sensors irradiated to 2 x 10[hoch 14] 1MeV [neq/cm²], twice the lifetime dose expected for CBM operation. Charge collection efficiency drops by 17-25%, and simultaneously noise levels increase 1.5-1.75 times. The simulations show that if all sensors in the STS setup are exposed to such a fluence uniformly, the track reconstruction efficiency drops from 95.5% to 93.2% and the momentum resolution degrades from 1.6% to 1.7%.
Im ersten Projekt der vorliegenden Arbeit wurden CD - 1 Mäuse mit drei unterschiedlichen Diäten für zwei Wochen ad libitum gefüttert. Die Diäten bestanden aus zwei kohlenhydratarmen, fettreichen Diäten und einer Standard Haltungsdiät. Die kohlenhydratarmen, fettreichen Diäten enthielten entweder Triheptanoin (dreifach mit Heptanoat verestertes Glycerol) oder Soja - Öl als Fettkomponente (jeweils 35 % der Gesamtkalorien). Nach zwei Wochen wurde ein ischämischer Schlaganfall für 90 min. mithilfe eines Silikonfadens induziert. Die Leber, das Blut und das Gehirn wurden nach dem Schlaganfall entnommen und die Konzentrationen der Metabolite β - Hydroxybutyrat, Glukose, Laktat und Citrat wurden mit der zuvor etablierten GC - MS-Methode ermittelt. Unter gleichen Bedingungen wurde eine Mikrodialysestudie durchgeführt.
Bei den Tieren, die die kohlenhydratarmen, fettreichen Diäten erhielten, konnte in den Leber - und Hirnhomogenaten, im Plasma sowie im Mikrodialysat eine Ketose festgestellt werden. Die BHB Konzentrationen durch eine Soja Diät erreichten im Leberhomogenat bis zu 4 mM, im Plasma bis zu 1,5 mM, im Hirnhomogenat bis zu 1,5 mM und im Mikrodialysat bis zu 30 µM. Um eine Aussage treffen zu können, ob das Gehirn die von der Leber produzierten Ketonkörper als Energiesubstrate nutzen kann, wurde eine Folgestudie (unter gleichen Bedingungen) durchgeführt. Bei dieser Studie wurde der Zeitpunkt der Gewebeentnahme 60 min. nach Entfernen des Fadens (Reperfusion) gewählt. In den Leber – und Hirnhomogenaten konnten erniedrigte Konzentrationen des Ketonkörpers BHB nachgewiesen werden. Die nicht operierten Tiere, die eine fettreiche Diät erhielten, hatten erhöhte Konzentrationen an Citrat in den genannten Geweben. Durch den Abbau des Ketonkörpers BHB können bei Verstoffwechslung in Geweben außerhalb der Leber, zwei Moleküle Acetyl - CoA gebildet werden. Diese gebildeten Acetyl - CoA Moleküle können in den Citratzyklus eingespeist werden.
Um diesen Befund mechanistisch besser verstehen zu können, wurde den Mäusen Propranolol (ein unselektiver β - Blocker) verabreicht, und zwar kurz nachdem der Faden die mittlere Zerebralarterie verschlossen hatte. Als Folge blieb bei den fettreich gefütterten Tieren die zuvor beobachtete Ketose, aus. Daraus wurde geschlossen, dass die auftretende Ketose bei den fettreich gefütterten Tieren durch adrenerge β - Rezeptoren vermittelt wurde. Zusammengefasst kann eine fettreiche bzw. ketogene Ernährung im Falle einer Ischämie die Versorgung des Gehirns durch die Bildung von Ketonkörper gewährleisten.
Die zu beobachtende hepatische Ketogenese aus dem ersten Projekt hat die Frage entstehen lassen, ob eine akute Gabe von β - Hydroxybutyrat (BHB) bei Entfernen des Fadens schützende Effekte auf das Verhalten bzw. die Mitochondrien als Kraftwerke der Zelle hat. Hierzu wurde BHB bei Reperfusion gegeben und die Wirkungen dieser Einmalgabe nach 24 h untersucht. Als erster Schritt wurde der Nachweis erbracht, dass eine exogene Gabe von BHB das Gehirn erreicht. Im zweiten Schritt wurde das Verhalten der Mäuse nach 24 h untersucht. Hierbei erbrachte die Gabe von BHB eine signifikante Verbesserung der sensorischen und motorischen Fähigkeiten der Mäuse. Die metabolischen Veränderungen nach 24 h wurden erneut in Leberhomogenaten und Plasma vermessen. Eine Einzelgabe von BHB bewirkte eine milde Ketose auch 24 h nach Reperfusion der mittleren Zerebralarterie. Um eine detailliertere Erkenntnis über die Wirkung von BHB zu erlangen, wurden die Mitochondrien als potentielles Ziel für BHB in den Fokus genommen. Die Einmalgabe von BHB verhinderte ein Absinken der Komplex – II Aktivität. Außerdem kann die Aktivität der Citratsynthase unter der Gabe von BHB erhalten werden, sodass die Mitochondrien vor allem im wichtigen Zeitraum nach der Reperfusion geschützt werden. Im Rahmen der Untersuchungen der Mitochondrien wurden unterschiedliche Substrateinflüsse auf die Respiration der isolierten Mitochondrien getestet. Bei Zugabe von BHB, Oxalacetat + Acetat oder Citrat zu dem Respirationsmedium stieg die Respiration der Mitochondrien an. Im Falle von Glukose, Propranolol oder Acetat wird die Respiration verringert. Bei Zugabe von Laktat, verbleibt die Respiration auf Ausgangsniveau. Abschließend ist festzustellen, dass die Einzelgabe von BHB nach 24 h das Verhalten der Mäuse verbessert, eine milde Ketose induziert, sowie Mitochondrien und die Citratsynthase gegen ischämische Ereignisse schützt.
Um die in dieser Arbeit gezeigten Daten über metabolische Veränderungen zeigen zu können, musste eine vorherige Etablierung der GC – MS Analytik vollzogen werden. Auf der einen Seite musste die Probenvorbereitung, aber auch die gesamte Vermessung der Proben aufgebaut werden. Es wurden insgesamt 11 Analyte in vier unterschiedlichen Kompartimenten quantifiziert. Die Nachweisgrenze lag bei diesen 11 Analyten bei 0,01 - 1 ng/µl, was einer umgerechneten Stoffmengenkonzentration von 0,5 - 10 µM entspricht. Mithilfe dieser Methode können optional weitere Substanzen aus verschiedenen Geweben zugänglich gemacht werden. Diese Arbeit bietet hierzu eine Anleitung, wie die Etablierung erfolgen kann. Im Rahmen der Probenvorbereitung wurden alle Schritte systematisch verbessert. Dazu wurden Wiederholungsmessungen für unterschiedliche Modalitäten vollzogen. Die Abundance und die Zeitbeständigkeit waren die wesentlichen Beurteilungskriterien. So wurden die Daten für die Extraktionseffektivität, die Lösungsmittelabhängigkeit der Silylierung, der Zusatz von Hünig - Base sowie die Temperatur und Zeitabhängigkeit der Silylierung in dieser Arbeit erarbeitet. Die Quantifizierung wurde anhand von internen Standardverbindungen durchgeführt. Die jeweiligen Response – Faktoren blieben über die gesamte Zeit nach der Etablierung konstant und erlaubten die Quantifizierung mit geringen Fehlern. Die Beurteilung der ermittelten Daten über die Validierung wurden anhand von geltenden Regelwerken der pharmazeutischen Industrie entschieden. Es wurde ein Protokoll entwickelt, das im Rahmen der universitären Forschung eine vertrauenswürdige Aussage über Veränderungen von Metabolitenspiegeln in vielen Geweben der Maus und der Ratte geben kann.
The continuous conversion of natural wildlife habitats into agricultural areas, as well as the fragmentation of the last wildlife refuges, is increasing the interface between people and wildlife. When wildlife negatively impacts on people and vice versa, we speak about human-wildlife conflicts (HWCs). This definition includes losses on both sides and takes into consideration the rooting of most of these conflicts between different groups of interest, such as advocates for nature conservation and economic groups. The centres of highest biodiversity are located in developing countries, which are also characterized by poverty. In African and Asian countries, people living in the vicinity of national parks and other conservation areas mostly receive only little support through the government or conservation organisations. Especially for those people who are dependent on agriculture, damage to fields and harvests can have catastrophic consequences. If the species causing damage is protected by national or even international law, the farmer is not allowed to use lethal methods, but has to approach the authority in charge. If this agency, however, cannot offer appropriate support, resentment, anger or even hate develops, and the support for wildlife conservation activities declines. For this reason, HWCs were declared as one of the most important conservation topics today, being particularly relevant for large and threatened species such as the African and Asian elephant, hippopotamus and the greater one-horned rhino, as well as for large predators. Up to today, no general assessment scheme has been recommended for damage caused by protected wildlife species.
In my study, HWCs in Asia and Africa are compared, focussing on all herbivorous species identified which damaged crops. For the French NGO Awely, des animaux et des hommes, I developed a detailed assessment scheme suitable for all terrestrial ecosystems, and any type of HWCs and any species (Chapter 2). This HWC assessment scheme was used in four different study areas located in two African countries (South Luangwa/Zambia (SL), Tarangire/Tanzania (TA)) and two Asian countries (Bardia/Nepal (BA) and Manas/India (MA)). This scheme ran for six consecutive years (2009 to 2014) for Zambia, Nepal and India and two years (2010 to 2011) for Tanzania. To carry out the assessments, I trained local HWC officers (Awely Red Caps) to assess HWCs by field observations (measurement of damage, identification of species through signs of presence, landscape attributes etc.) and interviews with aggrieved parties (socio economic data). Results of this assessment are presented in Chapters 2-4.
To determine whether elephants prefer or avoid specific crop species, two field experiments were carried out, one in SL and one in BA (Chapter 5 and 6). For this, two test plots were set up and damage by elephants (and other herbivores) were quantified.
Within this doctoral thesis, 3306 damage events of 7408 aggrieved parties were analysed. In three out of the four study areas (SL, BA, MA), elephants caused the highest number of damage events compared to all other wildlife species, however, in TA, most fields were damaged by zebra. Furthermore, the greater one-horned rhino, hippopotamus, wild boar, bushpig, deer and antelope, as well as primates, caused damage to fields and harvests. Damage to houses and other property were nearly exclusively caused by elephants.
With this doctoral thesis I was able to show that season, crop availability, type and the phenological stage of the crop played an important role for crop damaging behavior of herbivores (Chapter 2). Elephants especially damaged rice, maize and wheat and preferred all crop types in a mature stage of growth. In contrast, rhinos preferred wheat to rice and similar to antelope and deer, they preferred crops at earlier stages of growth, before ripening. Crop damage by wildlife species varied strongly in size; most damages fell below 40% of the total harvest per farmer, but in several cases (3 to 8% depending on the study area), harvests were completely destroyed. Interestingly, during times of low nutritional availability in the natural habitat (dry season), crop damages in all four study areas were significantly less than during other seasons.
In all four study areas, crop protection strategies, such as active guarding in the fields, chasing wildlife with noise or fire torches or erecting barriers, were used. In some cases protection strategies were combined. Analysis of data revealed that traditional protection strategies did not reduce the costs of damage (Chapter 3). In some cases, costs of damage, on protected fields were even higher than for unprotected fields. Only in MA did strategic and cohesive guarding significantly reduce crop damage by wildlife species.
Besides damage in the fields, elephants also caused damage to properties in the villages. In search for stored staple crops, they damaged houses, grain stores and kitchens. Such damage was analysed in three study areas (SL, BA, MA) (Chapter 4). Although property damage occurred less frequently compared to crop damage in the fields, the mean cost of this damage was found to be double in BA/MA and four times higher in SL, compared to the costs of crop damage in the fields. It is further remarkable that property damage significantly increased towards the dry season, when the harvest was brought into the villages.
The findings of this study underpin the assumption that wildlife herbivores, especially elephants, are lured to fields and crops because the highly nutritional food (crop) being readily available. Traditional crop protection is cost and labour intensive and does not reduce the costs of damage. For this reason, crop types, which are thought to be not consumed by elephants were systematically tested on their attractiveness in field experiments in SL and BA (Chapter 5 and 6). In SL, lemon grass, ginger and garlic were proven to be less attractive to African elephants than maize and in BA, basil, turmeric, chamomile, coriander, mint, citronella and lemon grass were found to be less attractive to Asian elephants than rice.
The results of this doctoral thesis are relevant for the management of wildlife conservation as they can lead to new approaches to the mitigation of HWCs in African and Asian countries. Finally, specific needs for more scientific research in this field have been identified.
Most of the elements in the universe are produced via charged-particle fusion reactions during the primordial nucleosynthesis and different stellar burning stages, as well as via neutron-capture reactions. Around 35 heavy, proton-rich isotopes are bypassed by those reaction paths, the p nuclei. A series of photo-disintegration reactions occurring in supernovae, called the γ process, was suggested as a mechanisms to produce the p nuclei. Numerical simulations of the γ process have been unable to reproduce the observed abundances of the light p isotopes. Recent models showed that a series of proton capture reactions could provide the observed abundances. Hence, the cross sections of the crucial capture reactions have to be measured in order to test those assumptions.
Radiative proton captures in addition to the γ-process could reproduce the observed abundance pattern. This thesis presents preparations of a proton capture measurement on the radioactive 91Nb in standard kinematics with a calorimetric 4π setup. The 91Nb(p,γ)92Mo reaction might be the key to explain the production of one of the most abundant p-nuclei, 92Mo. So far, no experimental data for this reaction is available.
We produced a sample of 91Nb, with a half-life of 680 yr, at the Physikalisch Technische Bundesanstalt in Braunschweig, Germany, by irradiating 92Mo with protons in the energy range of 12 – 20MeV. 91Nb was produced via the reaction 92Mo(p,2p)91Nb and via 92Mo(p,pn)91Mo, where 91Mo decays to 91Nb with a half-life of 15.5min. To predict the amount of produced 91Nb the cross section of 92Mo(p, 2p) was measured. It was found to be higher than the value given by theoretical calculations with TALYS. Finally, 91Nb was chemically separated from the molybdenum carried at Paul-Scherrer- Institut, Villigen, Switzerland.
In-beam total absorption cross-section measurement of the reaction 91Nb(p,γ)92Mo with 2 MeV protons at FRANZ is planed with the produced 91Nb. A 4π BaF2 detector consisting of 41 crystals will be used. During this experiment we will measure the sum energy and the multiplicity of each event. The freshly produced 91Nb constitutes only a minor component of the sample material. The sum energy and multiplicity are crucial to distinguish the desired 91Nb(p,γ) from all the other more dominant reactions. The expected multiplicity and the efficiency of the setup were carefully simulated with DICEBOX and GEANT4. It was possible to show that background reactions can be effectively suppressed. The most important background contributions could be identified and result from 92Mo(p,γ), 19F(p,γ), and 19F(p,α).
After entorhinal deafferentiation of the hippocampal dentate gyrus a reinnervation of the denervated neurons by axon collaterals can be observed. This process takes place in a matter of weeks. However, the overall functional effect on the hippocampal network is still unclear.
In an effort to investigate this effect of axonal sprouting on the neuronal network of the dentate gyrus we compared the electrophysiological response of the dentate gyrus after electric stimulation in wild-type mice (WT mice) with a normal post-lesion sprouting, with genetically modified mice with an overexpression of the growth-protein CAP23 (cytoskeleton-associated protein 23). CAP23 overexpressing mice (CAP23tg mice) are known to have an enhanced axonal growth and sprouting after lesion.
The mice (both the WT as well as the CAP23tg mice) were deeply anesthetized and a lesion of the perforant path was induced stereotactically with a wire knife. After that the mice were permitted to survive for 4-6 weeks for partial reinnervation of the dentate gyrus before they were again operated and evoked potentials were measured (extracellular recordings of evoked potentials in the dentate gyrus). Non-lesioned litter-mate mice were taken as reference. The sprouting and the correct position of the electrodes was confirmed histologically.
For electrophysiological investigation we assessed laminar profiles and calculated a current-source density (CSD). In lesioned CAP23tg mice compared to lesioned WT mice this CSD-analysis revealed a significant enhancement of the current sink in the area of deafferentiation (outer molecular layer) and a significant excitation in the granule-cell layer.
Our results show that axonal sprouting seems to enhance the excitability of granule-cells. Thus, even if an enhanced axonal sprouting might accelerate the reinnervation of denervated dendrites after lesion, but it also leads to posttraumatic hyperexcitability of the neuronal network. In a therapeutic approach of fascilitating axonal sprouting this hyperexcitability has to be taken into consideration.
Das menschliche Leben erscheint heute als in vielfältiger Weise mit seiner Umwelt verbunden. Bio- und neurowissenschaftliche Forschungen über die Interaktionsweisen mit der Umwelt verändern dabei das Bild des Körpers von einem hierarchisch aufgebauten Organismus zu einem organisch-kognitiv-verteilten Netzwerk. Nicht zuletzt Forschungen zur künstlichen Intelligenz haben gezeigt, dass das menschliche Gehirn nicht isoliert betrachtet werden kann, sondern verkörpert, vernetzt und damit in einer wechselwirkenden Abhängigkeit zu Körpern steht (embedded und extended mind). Epigenetische Forschungen haben ebenfalls auf die Umweltabhängigkeit auch genetischer Prozesse verwiesen (Postgenomik) und damit auf komplexe Wechselwirkungen zwischen Biotischem und Abiotischem aufmerksam gemacht. Diese komplexen Wechselwirkungen und Umweltabhängigkeiten zwischen Lebendigem und Nicht-Lebendigem werden inzwischen zusehends zum Gegenstand menschlicher Selbstorganisation. Sie tauchen in veränderter Form in den Plänen zu den sogenannten Industrien 4.0 auf, wenn es darum geht, intelligente Umgebungen mit dem Menschen interaktiv zu vernetzen. Die hierfür notwendigen digitalen Datenmengen stehen aber nur zur Verfügung, wenn Menschen sich aktiv vernetzen. Die Entstehung digitaler Daten- körper wird dadurch zu einem essentiellen Bestandteil sozialer Teilhabe, wodurch Soziales zum entwicklungsoffenen und unbestimmten Prozess wird. Wie sich Menschen wann und wo vernetzen, ist nicht vorherbestimmt. Digitalisierung ist dabei, so die These der Arbeit, sich zur grundlegenden Praxis menschlicher Vernetzung zu entwickeln.
Die Arbeit geht Digitalisierung aus einer Perspektive koevolutionärer Entstehungs- und Entwicklungszusammenhänge nach und zeigt, dass digitale Praxen zu einer neuen Form menschlicher Selbstorganisation weltweit geworden sind. Angesprochen wird damit, dass Digitalisierung nicht als etwas dem Menschen Äußerliches betrachtet werden kann, sondern in einen größeren kulturellen Entstehungszusammenhang eingebettet werden muss, der bis zu den Anfängen der Menschheit zurückreicht. Um dies zu veranschaulichen, werden in der Arbeit drei verschiedene Wissensformationen benannt, die sich jeweils in unterschiedlicher Art und Weise mit den aktuellen Veränderungen digitalisierter Lebenswelten auseinandersetzen.
Die erste Wissensformation (Kapitel 2) benennt den Humanismus, der im Aufkommen neuer Medientechnologien eine Bedrohung für den Menschen sieht. Eine zweite Wissensformation (Kapitel 3) widmet sich dem „Ende des Humanismus“, indem Ansätze der Science and Technology Studies (STS), der Akteur-Network-Theory (ANT) und des Agentiellen Realismus von Karan Barad diskutiert werden. Mit einer „neuen Ökonomie für eine neue Menschheit“ wird eine dritte Wissensformation (Kapitel 4) benannt, die, von postoperaistischen Ansätzen ausgehend, die These eines „dritten“ oder „kognitiven Kapitalismus“ diskutiert. Hier geht es um die These des Zusammenfallens von Ökonomischem und Sozialem, aus dem neue offene Sozialformationen entstehen. Schließlich wird eine vierte Wissensformation (Kapitel 5) formuliert, die, ausgehend vom Ansatz einer Anthropologie des Medialen (AdM) und dem Modell der Erweiterung kultureller Kapazitäten (EECC) versucht, die als digitalen Wandel bezeichneten Veränderungen in einen größeren Zusammenhang zu stellen.
Mit beiden Ansätzen kann schließlich gezeigt werden, dass sich Veränderungen menschlicher Selbstorganisation immer in der biologischen, individuellen, kulturellen und historisch-sozialen Entwicklungsdimension zugleich vollziehen. Dies lässt sich auch für die Prozesse der Digitalisierung zeigen. Nämlich, dass sich der Mensch als Teil der Natur in einem fortwährenden koevolutionären Prozess befindet. Weder Kultur, noch Soziales, noch Technologien sind unnatürlich. Sie können als „indirekte Biologie“, als „Künstliches“ oder als „Kultur der Biologie“ bezeichnet werden, die der Natur aber nie entkommen. Die Erweiterung kultureller Kapazitäten ist deshalb nicht als eine Ausdehnung des Menschen in die Natur hinaus zu verstehen, sondern bezeichnet die im Laufe der Menschheitsgeschichte komplexer werdenden Reichweiten und Zeittiefen menschlicher Selbstorganisation, die immer auf den drei Ebenen von Phylogenese, Ontogenese, Technogenese und der damit verbundenen Soziogenese basieren.
G-protein coupled receptors (GPCRs) are a predominant class of cell-surface receptors in eukaryotic life. They are responsible for the perception of a broad range of ligands and involved in a multitude of physiological functions. GPCRs are therefore of crucial interest for biological and pharmaceutical research. Molecular analysis and functional characterisation of GPCRs is frequently hampered by challenges in efficient large-scale production, non-destructive purification and long-term stability. Cell-free protein synthesis (CFPS) provides new production platforms for GPCRs by extracting the protein synthesis machinery of the cell in an open system that allows target-oriented modulations of the synthesis process and direct access to the nascent polypeptide chain. CFPS is fast, reliable and highly adaptable. Unfortunately, highly productive cell-free synthesis of GPCRs is often opposed by low product quality. This thesis was aimed to adapt and improve some of the new possibilities for the cell-free production of GPCRs in high yield and quality for structural and pharmaceutical analysis. An E. coli based CFPS system was applied to synthesise various turkey and human Beta-adrenergic receptor (Beta1AR) derivatives as well as human Endothelin receptors type A and B (ETA and ETB) constructs. Both receptor families are important drug targets and pharmacologically addressed in the treatment of several cardiovascular diseases. CF-synthesis was mainly performed in presence of nanodiscs (ND), which are reconstituted high density lipoprotein particles forming discoidal bilayer patches with a diameter varyring from 6 to approx. 15 nm. The supplementation of ND in the CF-synthesis reaction caused the co-translational solubilisation of the freshly synthesised GPCRs. The fraction of the solubilised GPCR that was correctly folded was analysed by the competence to bind its ligand alprenolol or Endothelin-1, respectively. Both the solubilisation efficiency and the ability to fold in a ligand binding competent state was strongly affected by the lipid composition of the supplied ND. Best results were generally achieved with lipids having phosphoglycerol headgroups and unsaturated fatty acid chains with 18 carbon atoms. Furthermore, thermostabilisation by introduction of point mutations had a large positive impact on the folding efficiency of both Beta1AR and ETB receptor. Formation of a conserved disulphide bridge in the extracellular region was additionally found to be crucial for the function of the ETB receptor. Disulphide bridge formation could be enhanced by applying a glutathione-based redox system in the CFPS. Further improvements in the quality of ETB receptor could be made by the enrichment of heat-shock chaperones in the CF-reaction. Depending on the receptor type and DNA-template, roughly 10 – 30 nmol (350 – 1500 µg) of protein could be synthesised in 1 ml of CF-reaction mixture. After the applied optimisation steps, the fractions of correctly folded receptor could be improved by several orders of magnitude and were finally in between 35% for the thermostabilised turkey Beta1AR, 9% for the thermostabilised ETB receptor, 6.5% for the non-stabilised ETB receptor, 1 - 5% for non-stabilised turkey Beta1AR and for human Beta1AR isoforms and 0.1% for ETA receptor. Therefore, between 2 and 120 µg of GPCR could be synthesised in a ligand binding competent form, depending on the receptor and its modifications. Correctly folded turkey Beta1AR and ETB receptors were thermostable at 30°C and could be stored at 4°C for several weeks after purification. Yields of the thermostabilised turkey Beta1AR were sufficient to purify the receptor in a two-step process by ligand-binding chromatography to obtain pure and correctly folded receptor in the lipid bilayer of a ND. Furthermore, a lipid dependent ligand screen could be demonstrated with the turkey Beta1AR and significant alterations in binding affinities to currently in-use pharmaceuticals were found. The established protocols are therefore suitable and highly competetive for a variety of applications such as screening of GPCR ligands, analysis of lipid effects on GPCR function or for the systematical biochemical characterisation of GPCRs. Most promising for future approaches appears to address the suspected bottlenecks of intial insertion of the GPCR-polypeptide chain in the ND bilayer and the thermal stability of the receptors. Nevertheless, the estabilised protocols for the analysed targets in this thesis are already highly competitive to previously published production protocols either in cell-based or cell-free systems with regard to yield of functional protein, speediness and costs. Moreover, the direct accessibility and other general characteristics of cell-free synthesis open a large variety of possible applications and this work can therefore contribute to the molecular characterisation of this important receptor type and to the development of new pharmaceuticals.
An die Soziologie werden zunehmend Fragen des ökonomischen Nutzens und der gesellschaftlichen Relevanz herangetragen. Ein Wissen um den gesellschaftlichen Impact soziologischen Wissens und die Artikulation eines Nutzens für die Praxis sind wertvolle Werkzeuge im Kampf um die Alimentation soziologischer Forschung. Aber wie wird soziologisches Wissen überhaupt angewendet? Um diese Frage zu beantworten, wird soziologisches Wissen definiert und dessen Anwendung expliziert. Unter Zuhilfenahme von Wissenschaftstheorie und Wissenssoziologie wird zunächst eine Definition erarbeitet. Anschließend werden Forschungsgebiete, die sich mit der Anwendung von (soziologischen) Wissen beschäftigen, vorgestellt – allen voran die soziologische Verwendungsforschung. Darauf aufbauend wird eine Explikation der Anwendung soziologischen Wissens erarbeitet, vor dessen Hintergrund aktuelle Bemühungen, soziologisches Wissen stärker anzuwenden, betrachtet werden. Die abschließende Diskussion beschäftigt sich mit den Möglichkeiten und Restriktionen der Anwendung soziologischen Wissens und betont die Rolle der Soziologie als kritische gesellschaftliche Aufklärungsinstanz.
Trotz aller Unsicherheit und kritischer Infragestellung sind Kunstlandschaftsbezeichnungen – und damit auch der „Mittelrhein“ – als Hilfsbegriffe für die Lokalisierung der Kunstwerke noch immer gebräuchlich. Aber es ist ganz besonders problematisch, vom Mittelrhein um 1500 als „Kunstlandschaft“ zu sprechen. Schon die Umgrenzung der Region fällt unterschiedlich aus, und noch mehr sind die Kriterien schwankend, die im Vergleich zu anderen Regionen den Mittelrhein definieren sollen. Vorherrschend sind bei solchen Vergleichen nach wie vor Stilbegriffe, welche Vorbehalte gegenüber dem Begriff des Stils auch geäußert werden. So ist die Frage, ob die für den Mittelrhein vorgeschlagene Kennzeichnung „Stilheterogenität“ als Kriterium der Abgrenzung tauglich ist oder mehr eine methodische Verlegenheitslösung darstellt.
Die Untersuchung konzentriert sich auf das Schnitzretabel, das als Leitmedium der spätgotischen Kunst im deutschsprachigen Raum zu betrachten ist. Die analysierten Schnitzretabel sind als Fallstudien anzusehen, wobei hier vor allem jene analysiert worden sind, die einen guten Erhaltungszustand aufweisen. Zwar haben die wenigsten ihr ursprüngliches Aussehen bewahrt, aber entweder sind die Veränderungen nur minimal oder der originale Zustand ist gut rekonstruierbar, sodass die Werkgruppe trotz der Eingriffe als repräsentativ gelten kann. Neben den traditionellen Untersuchungsmethoden konnte die Infrarotreflektographie mit beweglicher Kamera (Osiris) eingesetzt werden. Es soll mit der Vorstellung einer Gattung ein Ausschnitt der in der Region präsenten Kunst ohne „mittelrheinische Vorentscheidungen“ gezeigt werden.
Die meisten analysierten Retabel entstammen der Rhein-Main-Region mit Frankfurt und Mainz als Oberzentren des Mittelrheins; Oberwesel, Speyer und Gelnhausen markieren die Grenze für die Auswahl. Die 27 Einzeluntersuchungen finden sich im Katalogteil der Arbeit, während deren zusammenfassende Darstellung – im Hinblick auf Methode, Standort, Auftraggeber, Künstler, Retabeltyp, Bildprogramm sowie Einflüsse – sowie Ergebnisse im Hauptteil besprochen werden.
This dissertation discusses the mutual influence between leaders and followers on perception, emotion and behavior, using an attachment theory perspective. Some individuals are more likely to be seen as leaders than others. On the one hand this is determined by the characteristics or attributes as well as skills of the person in question. However, on the other hand, followers’ perception and expectations play a big role as well, in particular which expectations of an ideal leader can be fulfilled by followers’ current leader. Although attachment theory and – styles have only recently entered the organizational psychology literature, this dissertation advances that literature by looking at the role of attachment orientations between leaders and followers. In doing so, this dissertation answers several recent research calls on this topic. The three main subsequent chapters discuss the predictive role of attachment orientations with regard to leader preferences, the transference of behavioural expectations from one leader to another, and the perception of leader prototypicality in groups. The first chapter discusses the connection between implicit leader preferences and attachment orientations as predictors. Results show that avoidant attached individuals prefer a more autonomous and independent leadership style, whereas anxious attached individuals prefer a supportive and team-oriented leadership style. In the second chapter I study the transference of behavioural expectations from one leader to another. Results show that avoidant attached individuals are more likely to engage in this transference process. In addition, I discuss and empirically test the influence of culture with regard to leader transference. In the final chapter, I examine the behavioural influence of attachment orientations on how likely someone is perceived to be a leader in groups. Based on 57 project groups, I find that team members actually perceive avoidant attached individuals to be the most leader-like. Put differently, given certain environmental conditions, insecure attachment orientations can be perceived as leaders. These results show that it is even more important that leaders somewhat adapt to their followers’ preferences and not commit to merely one particular leadership style.
Cells within a tissue form highly complex, cellular interactions. This architecture is lost in two-dimensional (2D) cell cultures. To close the gap between 2D cell cultures and in vivo tissues, three-dimensional (3D) cell cultures such as spheroids or embryoid bodies were developed. To fully take advantage of the third dimension, imaging techniques are essential. The emerging field of "image-based systems biology" exploits the information in images and builds a connection between experimental and theoretical investigation of biological processes. Such interdisciplinary approaches strongly depend on the development of protocols to establish 3D cell cultures, innovations in sample preparation, well-suited imaging techniques and quantitative segmentation methods.
Although 3D cell cultures and image-based systems biology provide a great potential, 2D methods are still not completely replaced by 3D methods. This is mainly due to methodical and technical hurdles. Therefore, this thesis provides a significant contribution to overcome these hurdles and to further develop 3D cell cultures. I established computational and experimental methods related to 3D aggregates and investigated fundamental, cellular processes such as adhesion, growth and differentiation.
The automatic segmentation method "PAS" and "LoS" were developed in the context of this thesis. They extract essential biological properties such as the projected area or features of cell nuclei from 2D or 3D images of 3D aggregates. Both algorithms show their accuracy robustly over image data from different samples and different microscopes. In addition, the superior performance of PAS and LoS was proven in a comparison with state-of-the-art methods.
The PAS approach served as an essential basis for investigating cellular processes such as adhesion and growth which are tightly regulated to contribute to tissue integrity. These processes are involved in the formation of spheroids. The temporally resolved data of spheroid formation of three mammary epithelial cell lines revealed differences in their formation dynamics as well as in the onset of spheroid formation phases (aggregation, compaction and growth). Despite these differences, adhesion- and growth-associated proteins such as E-cadherin, actin, microtubules, and the focal adhesion kinase show similar importance in a particular phase. Notably, certain proteins (e.g. E-Cadherin) contribute differently to spheroid formation of cells from different cell types in terms of cell adhesion and growth. Overall, analyses of the individual phases of spheroid formation revealed the temporal coordination of fundamental tissue-specific processes. The results contribute to a better understanding of the maintenance and disruption of tissue integrity.
An important but yet unknown process is how cells accomplish to arrange themselves against the gravitational force to form a spheroid. Live imaging with light sheet-based microscopy provides the best solution for a temporally and in particular spatially resolved investigation of spheroid formation. Although the imaging possibilities increase with this particular microscopy technique, available sample preparation methods are rare. Therefore, I have significantly optimized "agarose beaker" as preparation method for 3D long-term imaging of spheroid formation. The data show that upward movement of the cells takes place early. This movement is initiated in the centre of the initially flat cell layer. Subsequently, the cells move from the periphery of the cell layer toward the centre. Cells rearrange within the spheroid which is followed by growth. It is very likely that 3D aggregates form by adopting an energetically favoured, spherical shape by increasing cell-cell or cell-matrix contacts.
Besides the knowledge gained from the examination of the self-assembly process in different contexts, fully formed cellular aggregates can serve as basis to investigate differentiation processes. Differentiation guide cell fate specification during early embryonic development (i.e. preimplantation) and is not fully understood yet. Due to the lack of an in vitro system for preimplantation, I have developed "blastoids". These are 3D multicellular aggregates of mouse embryonic stem cells which represent important phases of preimplantation and beyond. In qualitative and quantitative analyses, a strong similarity was proven between blastoids and the inner cell mass of in vivo mouse embryos. Further results strongly suggest that both, the cell number and the trophectoderm play a subordinate role for cell fate decision during preimplantation. Furthermore, 3D neighbourhood analyses have shown that both, blastoids and mouse embryos, do not show a random "salt-and-pepper" pattern during differentiation. Instead, they show a yet unknown local clustering of cells with identical fates, suggesting local cell interactions that influence cell fate decision. Furthermore, the data indicate that the maturation of the epiblast in the later stages of preimplantation is initiated by an interaction between cells of the epiblast and the primitive endoderm.
Using image-based systems biology, I have investigated fundamental cellular processes such as adhesion, growth and differentiation in the context of tissue integrity and early embryonic development using 3D cellular aggregates. This highly interdisciplinary work is a major contribution to 3D cell biology and demonstrates how cells bind and interact within a complex system. The main methods developed in this thesis as well as the biological findings can be used not only in further biological but also in medical and pharmacological studies. They have the potential to advance our understanding of complex biological systems and to provide new opportunities for practical applications.
Acute myeloid leukemia (AML) is a clonal malignancy of hematopoietic stem cells (HSCs) characterized by expansion of myeloid blasts in the bone marrow. It has been shown that autophagy is a degradative process, which delivers cytoplasmic components to lysosomes to prevent malignant transformation by maintaining HSC integrity. Besides its function as a bulk degradation machinery to recycle cytoplasmic components during limited energy supply, autophagy also serves as an intracellular quality control mechanism. Selective autophagy requires autophagy receptors such as p62 to specifically bridge the targeted cargos into autophagosomes. p62 is known as a central signaling hub involved in pro-oncogenic signaling pathways and autophagic degradation pathways. However, little is known about the role of p62 as a selective autophagy receptor in AML. This study aims to elucidate the precise function of p62 as an autophagy receptor in leukemia development and maintenance.
In silico analysis revealed that high p62 expression was significantly associated with poor overall survival of adult patients with de novo AML, suggesting that p62 may promote leukemia maintenance. To address the functional role of p62 in leukemia, genome editing by CRISPR/Cas9 was used to knockout p62 in four human AML cell lines. Importantly, p62 loss reduced cell proliferation in all four cell lines. This observation could be transferred to a murine leukemia cell model in which leukemic transformation of lineage-depleted bone marrow (ldMBM) cells was induced by overexpression of the human transcriptional coactivator MN1. Knockdown of p62 by shRNA in MN1-driven leukemia cells impaired proliferation and decreased colony forming ability without altering apoptosis. This indicates that p62 is crucial for leukemia proliferation in vitro. To further characterize the role of p62 in leukemia development and maintenance a murine AML transplantation model was established. Therefore, ldMBM cells isolated from WT and p62-/- mice were transduced with MN1 and transplanted into lethally irradiated mice. As expected, all mice developed fatal myeloid proliferation. Notably, p62 loss in MN1-driven leukemia significantly prolonged survival in mice and caused a more immature phenotype. Consistent with the in vitro results, ex vivo analysis of p62-/- leukemic cells displayed decreased colony-forming ability, although p62 loss did not affect composition and function of HSCs. Moreover, re-transplantation of primary MN1-driven leukemia cells attenuated leukemia progression upon p62 loss. These findings support a decisive role of p62 in leukemia development and maintenance.
To gain molecular insight into the function of p62 during myeloid transformation an interactome analysis of murine MN1-driven leukemia cells was performed. This revealed first that p62 predominantly interacts with mitochondrial proteins and second that inhibition of autophagic degradation causes accumulation of p62-bound mitochondria. This leads to the first assumption that loss of p62 may provoke mitochondrial accumulation with increasing mitochondrial damage and second that p62 may mediate degradation of mitochondria by mitophagy. Indeed, in the absence of p62, accumulation of dysfunctional mitochondria was detected by morphological changes of the mitochondria, increased mitochondrial ROS and impaired mitochondrial respiration capacity. Furthermore, induction of PINK1/Parkin-independent mitophagy revealed that loss of p62 caused impaired degradation of mitochondrial proteins and reduced translocation of damaged mitochondria into autophagosomes. Taken together, p62 is required for effective degradation of dysfunctional mitochondria by mitophagy in AML.
Due to the fact that p62 is a multifunctional protein, rescue experiments with different mutants of p62 were performed to clarify if p62-mediated mitophagy contributes to leukemia proliferation. Notably, the autophagy-deficient mutant (disabled to bind autophagosomes) reduced cell growth and colony-forming ability to the same extent as knockdown of p62, as the clustering-deficient mutant (disabled to form aggregates) displayed an intermediate phenotype. Strikingly, only the autophagy-deficient mutant failed to rescue mitophagy.
In conclusion, this study demonstrates the prominent role of p62 as a selective autophagy receptor for mitochondrial quality control which contributes to leukemia development and maintenance. Therefore, targeting selective autophagy opens new venues in the treatment of AML.