Refine
Year of publication
- 2017 (182) (remove)
Document Type
- Doctoral Thesis (182) (remove)
Has Fulltext
- yes (182)
Is part of the Bibliography
- no (182) (remove)
Keywords
- ALICE (2)
- FPGA (2)
- Grundschule (2)
- QCD (2)
- Stadtentwicklung (2)
- 1,3-Diamine (1)
- 14 fructidor IX (1)
- 2-Photonen (1)
- Africa (1)
- African Agency (1)
Institute
- Biowissenschaften (32)
- Medizin (31)
- Physik (23)
- Biochemie und Chemie (19)
- Biochemie, Chemie und Pharmazie (15)
- Informatik und Mathematik (9)
- Neuere Philologien (8)
- Psychologie und Sportwissenschaften (7)
- Geowissenschaften (6)
- Erziehungswissenschaften (4)
Kinder aus zugewanderten Familien und aus den unteren Sozialschichten haben es an deutschen Schulen schwer. Zu ihrer Unterstützung werden vielfältige Fördermaßnahmen angeboten. Welche Art der Förderung insbesondere Familien mit Migrationshintergrund benötigen, wird in der vorliegenden Schrift besprochen.
Zur Beantwortung dieser Frage wurde ein Familien-Bildungsprogramm - mittels qualitativer und quantitativer Erhebungsmethoden - evaluiert. In dem Programm werden Familien über die Dauer von zwei Jahren (im Übergang von der 4. in die 5. Klasse) eng begleitet. Das vielfältige Unterstützungsangebot ist dahingehend ausgerichtet, die teilnehmenden Kinder auf ihrem schulischen Weg zu unterstützen. Ebenso möchte das Programm zur Erhöhung der gesellschaftlichen Teilhabe der Familien beitragen.
Erhebliche Leistungsfortschritte erreichen fast alle Kinder im Kompetenzbereich Lesen. Besonders die leistungsschwächeren Kinder haben von der Förderung profitiert. Auch die Rechtschreibkompetenzen haben sich im Schnitt verbessert. Das schulbezogene Fähigkeitsselbstkonzept der Kinder sowie ihre Lern- und Leistungsmotivation bleibt von der Förderung relativ unbeeinflusst. Die Eltern profitieren insbesondere von dem Zugewinn einer konstanten Ansprechperson. Es gelingt den Mitarbeiterinnen ein Stützungs-Setting aufzubauen, welches den Eltern Sicherheit vermittelt und sie zuversichtlicher werden lässt. Daneben wurde eine Reihe differentieller Wirksamkeiten ermittelt (wie Entlastung, Aktivierung, Qualifizierung). Das Ausmaß der Wirksamkeit wird durch spezielle Bedingungen - auf Seite der Teilnehmer und auf Seite der Ausführenden - moderiert.
Die vorliegenden Ergebnisse werden mit Bezug auf Implikationen für die Praxis (in Schulen und Bildungsprogrammen) diskutiert.
The process of urbanization is one of the major causes of the global loss of biodiversity; however, cities nowadays also have the potential to serve as new habitats for wildlife. The European rabbit (Oryctolagus cuniculus, L. 1758) is a typical example of a wildlife species that reaches stable population densities in cities. Due to intense plant and soil damages, German city authorities aim to control high rabbit densities through the application of a yearly hunting regime (e. g., in Munich, Berlin or Frankfurt am Main). In contrast, population densities of O. cuniculus are on decline in German rural areas, i. e., numbers of yearly hunting bags decreased. The aim of my doctoral thesis was to answer the following research questions: Do population densities of the European rabbit correlate with the intensity of urbanization in and around Frankfurt am Main and if so, which factors play a role in varying densities? How are burrow construction behaviors and group sizes, daytime activity patterns and anti-predator behaviors as well as communication behaviors of this mammal affected by urbanization?
In my first study, I focused on population dynamics across 17 different study sites in and around Frankfurt. As one of yet few studies, I invented an approach that quantified the intensity of urbanization (degree of urbanity) of each study site base on four variables: (1) intensity of anthropogenic disturbance per min and ha, (2) number of residents within a radius of 500 m, (3) proportion of artificial ground cover and (4) numbers of anthropogenic objects per ha. Spearman rank correlations confirmed that with increasing degree of urbanity also rabbit and burrow densities increased. The access to dense shrubs, bushes etc. as suitable sites for burrow construction is the most determining factor for rabbit abundances, and therefore I presumed different densities along the rural-to-urban gradient to be driven by shifts in the availability of thick vegetation.
In the second study, I calculated two indices that in both cases classified burrows to be either accumulated, evenly or randomly distributed within study sites. Additionally, in cooperation with local hunters the number of burrow entrances and animals that occupy the same burrow had been determined during the hunting season. With increasing degree of urbanity burrow distribution patterns shifted from accumulated in rural areas towards more evenly distributed within the city center of Frankfurt. This is a clear sign for an increasing access to sites suitable for burrow construction along the rural to-urban gradient. Additional Spearman rank correlations revealed that the external dimensions of burrows decreased (shorter distances between entrances) and that burrows became less complex (fewer entrances) along the rural-to-urban gradient. In accordance, the number of rabbits that commonly shared the same burrow system was highest within rural areas, whereas I found mainly pairs and single individuals within highly urbanized study sites.
In the last study I compared activity patterns, burrow use and percentages of anti-predator behaviors from one hour before sunrise until one hour after sunset of rural, suburban and urban rabbit groups. A linear mixed model (LMM) and Spearman rank correlations confirmed that rabbits located at urban and suburban sites spent more time outside their protective burrows compared to their rural conspecifics. At suburban sites, individuals invested the least amount of time in anti-predator behavior. Results of this third study gave evidence that suburban rabbit populations on one hand benefit from less predation pressure by natural predators in comparison to rural sites, whereas on the other hand are exposed to less intense disturbance by humans compared to urban study sites.
The last study focused on the effects that urbanization had on the latrine-based communication behavior of rabbits. As many other mammals, O. cuniculus exchange information via the deposition of excreta in latrines, and depending on the intended receiver(s), latrines are either formed in central areas for within-group communication or at territorial boundaries, e. g., for between-group communication. The relative importance of within- vs. between-group communication depends on, amongst other factors, population densities and group sizes which I proved both to shift along the considered rural-to-urban gradient. I determined latrine sizes, latrine densities and latrine utilization frequencies relative to their distance to the nearest burrow at 15 different study sites. Latrine densities and utilization frequencies increased with increasing distance from the burrow in suburban and urban populations whereas at rural sites, largest latrines and those containing the most fecal pellets were close to the burrow, suggesting that within-group communication prevailed.
To sum up, for the first time, I was able to relate shifts in the ecology and behavior of the European rabbit as adaptations to a gradual anthropogenic habitat alteration that are typical for “urban exploiters”. Especially the suburban habitat provides high landscape heterogeneity (“edge habitat“) which is essential for high and stable rabbit populations. Moreover, here, comparably low human disturbance and predation pressure are given in contrast to the agriculturally transformed, open landscapes which are nowadays typical for most rural areas in central Europe. I argue that this mainly leads to the observed behavioral changes along the rural-to-urban gradient. Future plans for rural land management actions should aim to increase refuge availability by generating networks of ecotones. This would also benefit species that depend on similar ecosystem structures as the European rabbit and are on decline in Germany.
The venture capital industry holds relevance for entrepreneurs looking for money to finance an innovative project, investors seeking to make money by investing in entrepreneurial firms and governments trying to promote innovation and entrepreneurship. Venture capital investment could facilitate innovation and thus a better economy.
Venture capital has enabled the U.S. to support its entrepreneurial talent by turning ideas into world-famous products and services, building companies from mere business plans to mature and powerful organizations. Three of the five largest U.S. public companies by market capitalization – Apple, Google and Microsoft – received most of their early external funding from venture capital. Having its ups and downs, venture capital investment in the U.S. expanded from virtually zero in the mid-1970s to $8 billion in 1995 and $49.3 billion in 2014. Venture backed companies have been a prime driver of economic growth in the U.S.Across the pacific, venture capital investment in China has grown out of the transition from a centrally planned economy to a free market economy over the past three decades, becoming an important pillar supporting China’s innovation system. In 2015, a total of 2,824 venture capital investment deals provided an aggregate investment of $36.9 billion. Venture capital has long been a hot topic in China’s capital market, particularly since the government decided to boost “mass entrepreneurship and innovation” in 2014.
In the U.S., most venture capital firms are organized as limited partnerships, with the venture capitalists being general partners and the investors limited partners. Studies have shown that investors choose to invest through venture funds as an intermediary rather than placing their investments directly with the entrepreneurs; because of the high risk nature of the entrepreneur’s business, it is hard for them to get bank loans or direct equity investments. Conflicts may also arise, however, between the venture capitalists acting as agents and the investors as principals.5 This agency problem maybe particularly severe, since venture capital provides money for businesses with high potential and high risk, although the limited partnership has certain merits and is still most commonly chosen as the business form for venture capital funds.6 At the same time, the fact that general partners have total control of the partnership business necessitates that the agency problem is addressed by legal rules, contracts and other mechanisms.
Meanwhile, despite the rapid growth of venture capital investments in China, little attention has been paid to the organizational form of venture capital funds. In contrast to the U.S., most Chinese venture funds have been structured as corporations. One may argue that it was due to legislative reasons: that the limited partnership was not recognized by Chinese law when venture capital first appeared in China. However, after adopted a chapter was adopted in the Partnership Enterprise Law (PEL) governing limited partnerships in 2007, most of the venture funds abided by their choice, while those opting for the limited partnership have encountered difficulties: the limited partners are having trouble trusting the general partners with their money and are therefore interfering with the operation of the partnership business, which may lead to dissolution of the partnership.
This thesis applies transaction cost theory to explain the benefits and costs of choosing the limited partnership as a business form in the special context of venture capital investments, showing that the potential agency conflict between the general partners and the limited partners have been mitigated by legal and other mechanismsin the United States, and that the U.S. investors could therefore exploit the merit of the limited partnership form in venture capital financing. In China, investors have different answers to the agency problem. Similarly to the situation in the U.S., Chinese partners also employ contract terms to deal with agency problems, and the legislators enact laws that aim at regulating the limited partnership form; some legislation was even transplanted from the U.S., such as that part of the PEL which governs limited partnerships. It seems, then, that similar mechanisms that deal with agency problems also exist in China. However, given the unique history of the development of China’s innovation system and venture capital market, the effectiveness of these constraints is questionable. Chinese venture capital investors have therefore characteristically behaved differently to U.S. investors. Rather than relying on these questionable mechanisms, Chinese investors as well as the Chinese government have developed different approaches to addressing these agency problems.
In dieser Arbeit wurden thermodynamische Eigenschaften eines chiralen Quark Meson Modelles untersucht. Das chirale Quark Meson Model beschreibt die starke Wechselwirkung über den Austausch von Mesonen und zudem die thermische und dichteabhängige Entwicklung der Quarkmassen im Medium über die chirale Symmetrie.Im SU(2) Model wurde zunächst in mean field approximation gearbeitet, um im Anschluss den divergenten Vakuumterm mit einzubeziehen. Nach eingehender Untersuchung der Ergebnisse, wurden dann die thermischen Mesonenfluktuationen studiert. In beiden Ansätzen verschiebt die Nullpunktsenergie den chiralen Phasenübergang zu höheren Temperaturen, wodurch die Massen bei höheren Temperaturen entarten. Beide Ansätze wurden dann zu einem gemeinsamen Modell kombiniert, um den Einfluss der Mesonenfluktuationen auf Ordnungsparameter, Massen und thermodynamische Grössen zu untersuchen. Als Fazit der Studie kann behauptet werden, dass sich der Einfluss der Mesonenfluktuationen in grösserem Maÿ auf die Thermodynamik, als auf den Ordnungsparameter und die Massen auswirkt. Im SU(3) Modell wurden ebenfalls regularisiert und zudem Vektormesonen mitberücksichtigt, welche die Repulsion zwischen den einzelnen Freiheitsgraden modelliert. Die Zustandsgleichung wird durch den Vakuum Term etwas softer und zeigt ein ähnliches Verhalten im niederen Energiebereich. Untersucht wurde neben der Temperatur T, die Elektron Baryon Rate Ye, die Sigma Meson Masse noch der Einfluss der Vektorkopplung. Aus der Zustandsgleichung konntendann Isentropen im T-mu Phasendiagramm errechnet werden, welche in naher Zukunft Aufschluss über eine dritte Familie von kompakten Sternen in Zusammenhang mit der entsprechenden Supernova Explosion geben könnte. Um die Existenz von kompakten Sternen genauer zu analysieren, wurde das chiraleSU(3) Quark Meson Modell bei T = 0 benutzt, um über die aus dem Formalismusgewonnenen Grössen Druck und Energiedichte die Tolmann-Oppenheimer-Volkoff zu lösen. Diese stellen die Masse-Radius Beziehungen kompakter Objekte dar. Auf der Suche nach Twin Stern Lösungen aus dem chiralen SU(3) Quark Meson Model wurde zunächst ein Modell für Hybridsterne entwickelt. Im untersuchten Parameterbereich fanden wir Hybrid Stern Lösungen, bei welchen der Einfluss der Quarkmaterie auf die Stabilität des Sternes untersucht wurde, denn das Einsetzen des Phasenüberganges übt einen zusätzlichen gravitativen Zug auf die hadronische Kruste aus. Der Stern ist stabil, wenn der Druck der Quarkmaterie diesem zusätzlichen Zug standzuhalten vermag. Für einen zu grossen Sprung in der Energiedichte werden die Lösungen jedoch instabil. Zwillingssterne waren nicht unter den Lösungen, da der Übergangsdruck relativklein sein muss, während der Energiedichtesprung eher gross sein sollte. Das Auftreten zweier stabiler Äste in der Masse Radius Relation kann allerdingsmit dem SU(3) Modell und entsprechendem chiralen Phasenübergang modelliert werden. Für einen gewissen Parameterbereich einhergehend mit kleinem Wert des Vakuum Druckes B konnten Nicht-Linearitäten in der Zustangsgleichungzur Lösung der TOV Gleichung beitragen. Im Weitern ist das Zusammenspiel der Vektorkopplung und der Sigma Mesonen Masse einflussreich auf die Lösungen, welche auf Kausalität, Stabilität und neben der 2 Sonnenmassen Bedingung noch auf Restriktionen vom millisecond pulsar PSR J1748-2446ad untersucht wurden.Mit Weltraummissionen wie etwa NICER (Neutron star Interior CompositionExploreR) sollte die Radiusbestimmung kompakter Objekte in Zukunft bis auf einen Kilometer genau bestimmt werden können. Die Entdeckung von zweiSternen mit der gleichen Masse und unterschiedlichen Radien wäre in der Tat ein Beweis für die Existenz von Zwillingssternen, welche dann die Theorie des Phasenüberganges in dichter Materie untermauern würde. Das Kollaps-Szenario eines Zwillingssternes würde weiteren Aufschluss über Neutrino-Emmissivität, Gamma-ray burster und Gravitationswellen Signale geben können. Dynamische Simulationen in allgemein relativistischem Kontext für compact star merger mit den hier diskutierten Zustandsgleichungen sind bereits in Planung, um Eigenschaftenwie beispielsweise das Temperatur- und Dichteprofil solcher Objekte genauer zu analysieren.
Measuring information processing in neural data: The application of transfer entropy in neuroscience
(2017)
It is a common notion in neuroscience research that the brain and neural systems in general "perform computations" to generate their complex, everyday behavior (Schnitzer, 2002). Understanding these computations is thus an important step in understanding neural systems as a whole (Carandini, 2012;Clark, 2013; Schnitzer, 2002; de-Wit, 2016). It has been proposed that one way to analyze these computations is by quantifying basic information processing operations necessary for computation, namely the transfer, storage, and modification of information (Langton, 1990; Mitchell, 2011; Mitchell, 1993;Wibral, 2015). A framework for the analysis of these operations has been emerging (Lizier2010thesis), using measures from information theory (Shannon, 1948) to analyze computation in arbitrary information processing systems (e.g., Lizier, 2012b). Of these measures transfer entropy (TE) (Schreiber2000), a measure of information transfer, is the most widely used in neuroscience today (e.g., Vicente, 2011; Wibral, 2011; Gourevitch, 2007; Vakorin, 2010; Besserve, 2010; Lizier, 2011; Richter, 2016; Huang, 2015; Rivolta, 2015; Roux, 2013). Yet, despite this popularity, open theoretical and practical problems in the application of TE remain (e.g., Vicente, 2011; Wibral, 2014a). The present work addresses some of the most prominent of these methodological problems in three studies.
The first study presents an efficient implementation for the estimation of TE from non-stationary data. The statistical properties of non-stationary data are not invariant over time such that TE can not be easily estimated from these observations. Instead, necessary observations can be collected over an ensemble of data, i.e., observations of physical or temporal replications of the same process (Gomez-Herrero, 2010). The latter approach is computationally more demanding than the estimation from observations over time. The present study demonstrates how to handles this increased computational demand by presenting a highly-parallel implementation of the estimator using graphics processing units.
The second study addresses the problem of estimating bivariate TE from multivariate data. Neuroscience research often investigates interactions between more than two (sub-)systems. It is common to analyze these interactions by iteratively estimating TE between pairs of variables, because a fully multivariate approach to TE-estimation is computationally intractable (Lizier, 2012a; Das, 2008; Welch, 1982). Yet, the estimation of bivariate TE from multivariate data may yield spurious, false-positive results (Lizier, 2012a;Kaminski, 2001; Blinowska, 2004). The present study proposes that such spurious links can be identified by characteristic coupling-motifs and the timings of their information transfer delays in networks of bivariate TE-estimates. The study presents a graph-algorithm that detects these coupling motifs and marks potentially spurious links. The algorithm thus partially corrects for spurious results due to multivariate effects and yields a more conservative approximation of the true network of multivariate information transfer.
The third study investigates the TE between pre-frontal and primary visual cortical areas of two ferrets under different levels of anesthesia. Additionally, the study investigates local information processing in source and target of the TE by estimating information storage (Lizier, 2012) and signal entropy. Results of this study indicate an alternative explanation for the commonly observed reduction in TE under anesthesia (Imas, 2005; Ku, 2011; Lee, 2013; Jordan, 2013; Untergehrer, 2014), which is often explained by changes in the underlying coupling between areas. Instead, the present study proposes that reduced TE may be due to a reduction in information generation measured by signal entropy in the source of TE. The study thus demonstrates how interpreting changes in TE as evidence for changes in causal coupling may lead to erroneous conclusions. The study further discusses current bast-practice in the estimation of TE, namely the use of state-of-the-art estimators over approximative methods and the use of optimization procedures for estimation parameters over the use of ad-hoc choices. It is demonstrated how not following this best-practice may lead to over- or under-estimation of TE or failure to detect TE altogether.
In summary, the present work proposes an implementation for the efficient estimation of TE from non-stationary data, it presents a correction for spurious effects in bivariate TE-estimation from multivariate data, and it presents current best-practice in the estimation and interpretation of TE. Taken together, the work presents solutions to some of the most pressing problems of the estimation of TE in neuroscience, improving the robust estimation of TE as a measure of information transfer in neural systems.
Glioblastoma multiforme accounts for more than 80% of all malignant gliomas in adults and a minor fraction of new annual cases occurs in children. In the last decades, research shed light onto the molecular patterns underlying human malignancies which resulted in a better understanding of the disease and finally an improved long term survival for cancer patients. However, malignancies of the central nervous system and especially glioblastomas are still related to poor outcomes with median survivals of less than 6 months despite extensive surgery, chemotherapy and radiation. Hence, a better understanding of the molecular mechanism driving and sustaining cancerous mutations in glioblastomas is crucial for the development of targeted therapies. Apoptosis, a form of programmed cell death, is an important feature of eukaryotic cells and crucial for the maintenance of multicellular homeostasis. Because apoptosis is a highly complex and tightly regulated signaling pathway, resisting apoptotic stimuli and avoiding cell death is a hallmark of the cancerous transformation of cells. Hence, targeting molecular structures to reestablish apoptotic signaling in tumor cells is a promising approach for the treatment of malignancies. Smac mimetics are a group of small molecular protein inhibitors that structurally derive from an intracellular protein termed Smac and selectively block Inhibitor of apoptosis (IAP) proteins, which are often aberrantly expressed in cancer. Several studies confirmed the antitumoral effects of Smac mimetics in different human malignancies, including glioblastoma, and give rationales for the development of potent Smac mimetics and Smac mimetic-based combination protocols. This study investigates the antitumoral activity of the bivalent Smac mimetic BV6 in combination with Interferon α. Latter is a well characterized cytokine with an essential role in immunity, cell differentiation and apoptosis. This study further aims to address the molecular mechanisms underlying the antitumoral activity of the combination treatment by using well established molecular cell death assays, flow cytometry, western blot analysis, genetic approaches and selective pharmacological inhibition. Since different Smac mimetics and Smac mimetic-based combination therapies are currently under clinical evaluations, findings of this study may have broad implications for the application of Smac mimetics as clinical cancer therapeutics.
Im Weltall existieren hunderte sehr helle Objekte, die eine hohe konstante Leuchtkraft im Wellenlängenbereich von Gammastrahlung besitzen. Die konstante Leuchtkraft mancher dieser Objekte wird in regelmäßigen Abständen von starken Ausbrüchen, den sogenannten X-Ray-Bursts, unterbrochen. Hauptenergiequelle dieser X-RayBursts ist der „rapid-proton-capture“-Prozess (rp-Prozess). Dieser zeichnet sich durch eine Abfolge von (p,γ)-Reaktionen und β+-Zerfällen aus, die die charakteristischen Lichtkurven produzieren. Für viele am Prozess beteiligte Reaktionen ist der Q-Wert sehr klein, wodurch die Rate der einzelnen Reaktionen von den resonanten Einfängen in die ungebundenen Zustände dominiert wird. Die Unsicherheiten in der Beschreibung der Lichtkurve sind derzeit aufgrund fehlender kernphysikalischer Informationen von vielen am Prozess beteiligten Isotopen sehr groß. Sensitivitätsstudien zeigen, dass dabei die Unsicherheiten der 23Al(p,γ)24Si-Reaktion eine der größten Auswirkungen auf die Lichtkurve hat. Diese werden durch ungenaue und widersprüchliche Informationen zu den ungebundenen Zuständen im kurzlebigen 24Si hervorgerufen.
Um Informationen über die Kernstruktur von 24Si zu erhalten, wurde am National Superconducting Cyclotron Laboratory (NSCL), Michigan, USA, die 23Al(d,n)24Si Transferreaktion untersucht. Der in dieser Form erstmals umgesetzte Versuchsaufbau bestand aus einem Gammadetektor zur Messung der Übergangsenergien des produzierten 24Si, einem Neutronendetektor zur Messung der Winkelverteilung der emittierten Neutronen und einem Massensprektrometer zur Identifikation des produzierten Isotops. Mit diesem Aufbau, der eine Detektion der kompletten Kinematik der (d,nγ)-Reaktion ermöglichte, konnten folgende Erkentnisse gewonnen werden:
Aus der Energie der nachgewiesenen Gammas konnten die Übergänge zwischen den Kernniveaus von 24Si bestimmt und daraus die Energien der einzelnen Zustände ermittelt werden. Dabei konnte neben dem bereits bekannten gebundenen 2+-Zustand (in dieser Arbeit gemessen bei 1874 ± 2,9keV) und dem ungebundenen 2+-Zustand (3448,8 ± 4,6keV), erstmals ein weiterer ungebundener (4+,0+)-Zustand bei 3470,6 ± 6,2 keV beobachtet werden. Zusätzlich konnte die Diskrepanz, die bezüglich der Energie des ungebundenen 2+-Zustands aufgrund früherer Messungen bestand, beseitigt und die Energieunsicherheit reduziert werden.
Aus der Anzahl der nachgewiesenen Gammas konnten ebenfalls die (d,n)-Wirkungsquerschnitte in die einzelnen Zustände von 24Si bestimmt werden. Unter Verwendung der Ergebnisse von DWBA-Rechnungen konnte mithilfe dieser die spektroskopischen Faktoren berechnet werden. Für die angeregten Zustände musste dabei zwischen verschiedenen Drehimpulsüberträgen unterschieden werden. Mittels der Winkelverteilung der nachgewiesenen Neutronen konnte gezeigt werden, dass die Gewichtung anhand der theoretischen spektroskopischen Faktoren zur Berechnung der Anteile des jeweiligen Drehimpulsübertrags am gesamten Wirkungsquerschnitt für den entsprechenden Zustand gute Ergebnisse liefert. Für eine quantitative Bestimmung der spektroskopischen Faktoren der Zustände anhand der Neutronenwinkelverteilungen in 24Si war allerdings die Statistik zu gering. Für den Fall der deutlich häufiger beobachteten 22Mg(d,n)23Al-Reaktion konnte hingegen ein spektroskopischer Faktor für den 23Al-Grundzustand von 0,29 ± 0,04 bestimmt werden. Abschließend wurden die Auswirkungen der gewonnenen Erkenntnisse zur Kernstruktur von 24Si auf die Rate der 23Al(p,γ)-Reaktion untersucht. Dabei konnte aufgrund der besseren Energiebestimmung zum einen die Diskrepanz zwischen den Raten die auf Grundlage der beiden früheren Untersuchungen berechnet wurden und bis zu einem Faktor von 20 voneinander abweichen, beseitigt werden. Zum anderen konnte aufgrund der kleineren Unsicherheit in der Energiebestimmung der Fehlerbereich der Rate verkleinert werden. Die Untersuchungen zeigen, dass die Unsicherheit in der neuen Rate von der Ungenauigkeit der Massenbestimmung der beiden beteiligten Isotope und damit dem Q-Wert der Reaktion dominiert wird. Durch eine bessere Bestimmung des Q-Werts könnte die Unsicherheit in der Rate aufgrund der neuen experimentellen Ergebnisse auf ein Zehntel gesenkt werden.
Das T-lymphoblastische Lymphom (T-LBL) ist eine seltene Form des Non-Hodgkin-Lymphoms (NHL). Als wirksamste Behandlung haben sich intensive Therapien analog zu Protokollen für die akute lymphoblastische Leukämien (ALL) etabliert. Auch bei Erwachsenen werden inzwischen hohe CR-Raten erreicht. Aufgrund einer Rezidivrate von 20–35 % und einem Überleben von 45–75% besteht jedoch der Bedarf einer weiteren Therapieoptimierung. Dieses Ziel wird von der multizentrischen deutschen Studiengruppe für die ALL des Erwachsenen (GMALL) verfolgt, die prospektive Studien durchgeführt und eigene Therapieempfehlungen evaluiert hat.
In der vorliegenden Arbeit wurde die Effektivität der GMALL-Studientherapie T-LBL 1/2004 und der GMALL-Konsensus-Empfehlung für die Therapie neu diagnostizierter T-LBL bei Erwachsenen untersucht. Hauptaugenmerk lag auf der Auswertung der Gesamtergebnisse und der Evaluierung potentiell prognostischer Faktoren. Eine weitere wesentliche Fragestellung war es, die Bedeutung der Mediastinalbestrahlung in der Erstlinientherapie für das Therapieergebnis zu evaluieren. Ein weiterer Schwerpunkt war die Evaluation der Bedeutung eines Interimstagings mittels PET. Zusätzlich wurde die Wirksamkeit verschiedener Salvageansätze bei primärem Therapieversagen und Rezidiv evaluiert.
Ausgewertet wurden Daten von 149 Patienten, die zwischen 2004 und 2013 in zwei konsekutiven Kohorten gemäß der Studie GMALL T-LBL 01/2004 (Kohorte I; n = 101) oder der GMALL-Therapieempfehlung (Kohorte II; n = 48) behandelt wurden. Die empfohlene Therapie beinhaltete zwei Induktionsblöcke, die Reinduktion sowie sechs Konsolidationsblöcke. Die ZNS-Prophylaxe bestand aus intrathekalen Chemotherapiegaben und eine Schädelbestrahlung mit 24 Gy. Patienten, die gemäß der Studie 01/2004 behandelt wurden, sollten nach der Induktion außerdem eine Mediastinalbestrahlung mit 36 Gy erhalten. Patienten ohne CR/CRu nach dem ersten Konsolidationsblock sollten einer Salvagetherapie außerhalb des Studienprotokolls oder der Therapieempfehlung zugeführt werden. Bei mittels CT bestimmter CRu oder PR zu diesem Zeitpunkt wurde zur Sicherung des Remissionsstatus eine PET empfohlen.
Die CR-Rate der Gesamtpopulation lag bei 76 %. Das Gesamtüberleben und das erkrankungsfreie Überleben nach zwei Jahren lagen bei 72 bzw. 70 %. Die Rezidivrate betrug 28 %, die Überlebenswahrscheinlichkeit ein Jahr nach Rezidivdiagnose lag bei 35 %. Es bestand kein statistisch signifikanter Unterschied zwischen den Überlebensraten von Patienten mit und ohne Mediastinalbestrahlung (bestrahlte Patienten der Kohorte vs. Patienten der Kohorte II). Alle Patienten mit computertomographisch ermittelter CRu nach Konsolidation I, bei denen eine konfirmatorische PET durchgeführt wurde (n=21), waren PET-negativ, d. h. in metabolischer CR. Von den PET-evaluierten Patienten mit computertomographisch ermittelter PR (n = 22) waren 55 % PET-negativ. In der Gesamtpopulation wurden zahlreiche potentielle Prognosefaktoren analysiert. Statistische Signifikanz erreichte dabei nur der Allgemeinzustand. Ein ECOG-Score von 0–1 war mit einem günstigeren erkrankungsfreien Überleben assoziiert.
Die Ergebnisse zeigen eine gute Effektivität der GMALL-Therapie. Der Verzicht auf die Mediastinalbestrahlung in der Therapieempfehlung war nicht mit einer Verschlechterung des Therapieergebnisses verbunden. Die Arbeit verdeutlicht die Komplexität der frühen Remissionsbeurteilung mit verschiedenen Verfahren im Versorgungsstandard und unterstreicht den dringenden Bedarf einer standardisierten Remissionsbeurteilung und Referenzbefundung. Die PET erwies sich als wichtiges Instrument des Interimstagings, um eine remissionsabhängige Therapiestratifikation sinnvoll durchführen zu können. Sie zeigte sich zudem als unerlässlich für die korrekte Bewertung der Effektivität von Salvagestrategien und damit für die Therapieoptimierung bei primärer Refraktärität.
Die in dieser Arbeit ausgewerteten Daten bilden die bisher größte berichtete Population einheitlich behandelter erwachsener T-LBL Patienten ab. Die Ergebnisse stellen eine wichtige Grundlage für die weitere Therapieoptimierung im Rahmen der aktuell laufenden GMALL-Studie 08/2013 dar.
In dieser wirtschaftsphilosophischen Arbeit wird die fundamentale Bedeutung einer realistischen Gründe-Perspektive für die Erklärung und Beurteilung ökonomischer Praxis herausgestellt. Die Gründe-Perspektive bezieht sich in systematisierender Form auf alltägliche Interpretations- und Verstehensleistungen und greift zur Erklärung ökonomischer Sachverhalte auf Zuschreibungen mentaler Zustände zurück.
In Abgrenzung von einer Nicht-Gründe-Perspektive, die einer Vielzahl ökonomischer Erklärungsansätze, z.B. experimentell verhaltensökonomischer, behavioristisch orientierter neoklassischer oder evolutionärer Art, zugrunde liegt, wird betont, dass das Geben und Einfordern von Gründen in der ökonomische Sphäre in explanativer, prognostischer und normativer Hinsicht von großer Relevanz ist.
Ökonomische Grundbegriffe wie Präferenz, Axiom oder Nutzen werden thematisiert und deren Stellenwert innerhalb ökonomischer Theorien wird herausgestellt. Die behavioristische Fokussierung auf beobachtbare Wahlhandlungen wird in den Kontext naturalistischer Tendenzen in der Ökonomik gestellt. Dabei werden insbesondere wissenschafts- und erkenntnistheoretische Aspekte unter Bezugnahme auf die Philosophie des Geistes angeführt. Es zeigt sich, dass der Ökonom und Philosoph Don Ross einen in Abgrenzung zu Psychologie und experimenteller Verhaltensökonomik bestimmten Wahlbegriff auf aggregierter Ebene vertritt, unter anderem durch Bezug auf Dennetts Theorie intentionaler Einstellung und Möglichkeiten der Mustererkennung. Im Gegensatz dazu stehen Positionen, die mentale Zustände durch Bezug auf die Kognitionsforschung, stellenweise auch die Neuroökonomik, als real ansehen und für eine Erklärung von Präferenzen heranziehen wollen.
Unter Bezug auf die Position Nida-Rümelins wird die wirtschaftsphilosophische Relevanz von Kohärenz, struktureller Rationalität und einem Gründe-Realismus herausgestellt. Der Bezug auf lebensweltliche Gewissheit und formale Eigenschaften „alltagspsychologischer“ Zugänge soll eine bestimmte Gründe-Perspektive stützen. In welcher Hinsicht eine solche Stützung gerechtfertigt werden kann, wird unter anderem durch Bezug auf wissenschaftliche Theorien zur Alltagspsychologie (folk psychology) dargestellt. Die Vielfalt von Gründen, aus denen ökonomische Akteure handeln und die Personen auch in ökonomischen Kontexten prinzipiell verfügbar sind, wird unter Berücksichtigung spezifischer ökonomischer Rollen betont. Abschließend wird die soziale Bedingtheit von Gründen und die immanente Normativität der ökonomischen Praxis thematisiert. Die Möglichkeit einer normativen Rekonstruktion der Wirtschaftssphäre wird anhand der Theorie sozialer Freiheit von Axel Honneth diskutiert.
Algae as primary producers are highly important in aquatic ecosystems and provide a variety of environmental and anthropogenic services. In small lotic ecosystems in agriculturally influenced landscapes, algae are often the main constituent of the base of the food web and they contribute considerably to biodiversity. Within these small lotic ecosystems, algae are influenced by both natural stressors, such as flow regime and dry-out events, and anthropogenic factors. Agricultural practices especially influence algal communities by introducing plant protection products (PPP) and fertilizers into the water. The impacts of these exposures and how they affect planktonic algae in particular are not yet well studied in small lotic ecosystems. However, the protection of algae as primary producers is of high relevance and was thus included in official biomonitoring programs such as the European Water Framework Directive (WFD) or in risk assessment of e.g. PPPs. Hence, this thesis addresses this knowledge gap and links new information on algal communities in small lotic ecosystems with biomonitoring and risk assessment.
Data was gathered from small ditches and streams in central Germany as well as from laboratory algal assays. A technique to rapidly classify and quantify planktonic and benthic algae based on their photopigment concentration (measured via delayed fluorescence - DF) in ecological and ecotoxicological studies was assessed, both in the laboratory and in the field. This research provides insight into planktonic and benthic algal communities in small streams and ditches in order to improve management and protection strategies in the face of increased agricultural chemical input. ...
Expression, perception and recognition of intense emotions in healthy and depressed individuals
(2017)
Die Fähigkeit die Gefühle anderer zu erkennen und einzuordnen ermöglicht es soziale Situationen richtig einzuschätzen und soziale Beziehungen aufzubauen. Da Emotionen also in unserem Leben eine wichtige Rolle spielen, kann eine Dysregulation der Emotionsverarbeitung auch zu elementaren Einschränkungen führen. Menschen, die unter depressiven Episoden leiden, durchleben beispielsweise regelmäßig Phasen intensiver und anhaltender Traurigkeit. Jedoch ist noch nicht vollständig erklärt, wie es zu dieser verzerrten Emotionswahrnehmung kommt. Diese Dissertation hatte deshalb das Ziel, den Ausdruck, die Wahrnehmung und das Erkennen extremer Emotionen genauer zu beleuchten.
In Studie 1 wurden der Ausdruck und das Erkennen extremer Emotionen untersucht.
Hierbei dienten aus dem Internet bezogene Videosequenzen von Kindern und Erwachsenen als Basis, in denen diese sich in Situationen befanden, die sie extrem negative oder extrem positive Emotionen durchleben ließen. Die Gesichtsausdrücke der Kinder und Erwachsenen wurden dann zum Zeitpunkt der stärksten emotionalen Erregung in ein Bild umgewandelt und von unabhängigen Ratern auf ihre Valenz und ihr Arousal eingeschätzt. Es wurde beobachtet, dass - entgegen der Vorhersage etablierter Emotionstheorien (z.B. Ekman, 1993) – Emotionen hoher positiver und negativer Intensität schwer auseinander zu halten sind. Tatsächlich wurden positive Emotionsausdrücke häufig als negativ eingeschätzt. Eine mögliche Erklärung dafür liefern Aragón und Kollegen (2015). Sie schätzen den Ausdruck negativer Emotionen in positiven Situationen als Emotionsregulationsstrategie ein, die dazu dient ein emotionales Equilibrium wieder herzustellen, das durch die überwältigenden positiven Emotionen aus dem Gleichgewicht gebracht wurde.
In Studie 2 und 3 wurde die Wahrnehmung negativer Emotionen bei depressiven Menschen im Vergleich zu gesunden Kontrollprobanden auf subjektiver und physiologischer Ebene untersucht. Hierbei wurde zunächst im Rahmen von Studie 2 untersucht, ob Parameter des autonomen Nervensystems (ANS) sich zwischen depressiven und gesunden Probanden unterscheiden. ANS-Parameter umfassten Hormone (Cortisol und DHEA), Herzratenvariabilität (HRV), Hautleitfähigkeit (GSR), Hauttemperatur (TEMP) und Atemfrequenz (RSP). Es konnten erhöhte DHEA-Werte, eine erhöhte Hauttemperatur und eine reduzierte Atemfrequenz in der Patientengruppe gefunden werden. Eine erhöhte Hauttemperatur korrelierte zudem mit der Ausprägung depressiver Symptome und der aktuellen Stimmung. Reduzierte HRV-Werte wurden hauptsächlich auf antidepressive Medikation zurückgeführt.
In Studie 3 wurde dann die Reaktion der Probanden auf emotionsevozierende Stimuli verschiedener Valenzkategorien (neutral, leicht negative, hoch negative) untersucht. Hierbei wurden sowohl physiologische Parameter (TEMP, HRV, GSR, RSP) als auch die subjektive Einschätzung der Stimuli bezüglich ihrer Valenz und ihres Arousal erhoben. Die Befunde bezüglich Hauttemperatur und HRV-Werte aus Studie 2 konnten in Studie 3 repliziert
werden. Zudem zeigte sich eine akzentuierte Reaktion der RSP sowie höhere Valenz- und Arousalratings in der Patientengruppe. Das subjektiv intensivere Empfinden der Stimuli bei den Patienten hing zusätzlich mit emotionaler und sozialer Kompetenz zusammen.
In dieser Dissertation konnte gezeigt werden, dass Ausdrücke intensiver Emotionen im Gesicht oft als zweideutig wahrgenommen werden. Um ein genaueres Verständnis der Emotionswahrnehmung bei depressiven Menschen zu erlangen, konnten zudem mehrere Parameter des ANS identifiziert werden, die teils noch nicht untersucht wurden und einer intensiveren Emotionswahrnehmung bei depressiven Patienten zugrunde liegen könnten.
Hierbei wurden zusätzlich Zusammenhänge zu weiteren Aspekten der Depression, wie Defiziten in sozialen Kompetenzen, aufgezeigt. Damit gibt diese Dissertation umfassende Aufschlüsse über Emotionsverarbeitungsprozesse bei gesunden und depressiven Menschen.
Biophysical studies of the translation-regulating add adenine riboswitch from Vibrio vulnificus
(2017)
Bacterial gene expression can be regulated at mRNA level by cis-acting mRNA elements termed riboswitches. Riboswitches operate by conformational switching between a ligand-free and a ligand-bound state with different structures that either activate or inhibit gene expression. This PhD thesis contributes to the molecular level understanding of full-length purine riboswitches. It presents biophysical investigations on the ligand-dependent folding of the full-length translation-regulating add adenine riboswitch from the gram-negative human pathogenic marine bacterium Vibrio vulnificus (Asw). Asw has the typical bipartite riboswitch architecture with a 5’ ligand-sensing aptamer domain and a 3’ regulatory domain termed expression platform. According to the working hypothesis, Asw employs a unique thermodynamically-controlled 3-state conformational switching mechanism between an apoB, an apoA and a holo conformation to regulate translation initiation in a temperature-compensated manner. The two apo conformations are the putative translation-OFF states and the holo conformation is the putative translation-ON state of Asw. In the main project of this PhD thesis, an integrated nuclear magnetic resonance (NMR) and smFRET spectroscopic study of the full-length 112-nucleotide Asw (112Asw) was performed. The adenine-dependent folding of 112Asw was monitored at the level of base pairing interactions by NMR of the RNA imino protons, and at the level of three long-range intramolecular distances by smFRET of immobilized molecules. The integrated NMR and smFRET spectroscopic study of 112Asw yielded two major findings. First, NMR and smFRET both revealed that adenine binding to 112Asw impedes apoB formation by stabilizing the apoA secondary structure in the holo conformation without modulating tertiary structural interactions between the two riboswitch domains. This highlights the central role of competitive P1 and P4 helix formation at the interface of the aptamer and the expression platform for switching the accessibility of the ribosome binding site of 112Asw. Moreover, it strongly corroborates the hypothesis that purine riboswitches in general operate according to the key principle of a spatially decoupled secondary structural allosteric switch that proceeds without ligand-induced tertiary structural interactions between the aptamer domain and the expression platform. Second, it was uncovered by smFRET that the apoA and the holo conformation of 112Asw do not adopt a single folding state at near-physiological Mg2+ concentration. Instead, apoA and holo exhibit a persistent dynamic equilibrium between substates with an undocked (U), a short-lived docked (D1; ~s) and a Mg2+-bound long-lived docked (D2; ~10 s) aptamer kissing loop motif. In the holo conformation, the fractional population of the long-lived docked substate is ~2-fold increased compared to the apoA conformation, but undocked and docked substates are still comparably stable. The here described multiple folding states of the apoA and the holo conformation might have regulatory properties that are in between the apoB translation-OFF state and the holo-D2 translation-ON state. Additonally, an integrated NMR and smFRET analysis of 127-nucleotide Asw (127Asw) is presented. Compared to 112Asw, 127Asw is 3’-elongated by 15 nucleotides of the adenosine deaminase encoding sequence of the add gene from Vibrio vulnificus. 127Asw was chosen as mRNA template for future investigations of the interaction between Asw and the 30S ribosomal subunit. The NMR spectra of 127Asw demonstrated that 127Asw has the same overall secondary structure as 112Asw. Like for 112Asw, the combined NMR and smFRET analysis of 127Asw showed that adenine binding impedes apoB formation and stabilizes a long-lived docked aptamer kissing loop fold. However, compared to 112Asw, 127Asw has a destabilized aptamer kissing loop motif and a stabilized P4 helix in the expression platform. Finally, ligand-observed studies of the transient encounter complex between Asw and the near-cognate ligand hypoxanthine are described. By competition binding WaterLOGSY NMR experiments with hypoxanthine and the adenine analogue 2,6-diaminopurine, it could be shown that hypoxanthine binds to the same binding site of 112Asw as the cognate ligand adenine. The hypoxanthine binding constant measured with the WaterLOGSY method is in the low mM range (1.8 mM) and substantially exceeds the physiological hypoxanthine concentration in E. coli (~0.3 mM), thus ruling out that hypoxanthine binding can significantly impact the translational regulation of Asw in vivo. Also, preliminary FTIR difference spectra of 13C,15N-labelled and unlabelled hypoxanthine in complex with the pbuE adenine riboswitch aptamer and the xpt guanine riboswitch aptamer are discussed. These spectra showed a pattern of multiple IR bands that appeared to be characteristic for the respective complex.
This dissertation provides a comprehensive account of the grammar of relative clause extraposition in English. Based on a systematic review and evaluation of the empirical generalizations and theoretical approaches provided in the literature on generative grammar, it is shown that none of the previous theories is able to account for all the relevant facts. Among the most problematic data are the Principle C and scope effects of relative clause extraposition, cases with obligatory relative clauses, and relative clauses with elliptical NPs as antecedents.
I propose a new analysis of relative clause extraposition within the constraint-based, monostratal grammatical framework of Head-driven Phrase Structure Grammar (HPSG), enhanced with the semantic theory of Lexical Resource Semantics (LRS). Crucially, it is a general analysis of relative clause attachment, since both canonical and extraposed relative clauses are licensed by the same syntactic and semantic constraints. The basic assumption is that a relative clause can be adjoined to any phrase that contains a suitable antecedent of the relative pronoun. The semantic information that licenses the relative clause is introduced by the determiner of the antecedent NP. The techniques of underspecified semantics and the standard semantic representation language used by LRS make it possible to formulate constraints which yield the correct intersective interpretation of the relative clause (arbitrarily distant from its antecedent NP) and at the same time link the scope of the antecedent NP to the adjunction site of the relative clause.
In combination with the revised HPSG binding theory developed in this dissertation, the proposed analysis is able to capture the major properties of relative clause attachment within a unified and internally consistent monostratal constraint-based grammatical framework.
Multicellular organisms require that cells adhere to each other. This cell-cell adhesion is indispensable for the formation and the integrity of epithelial structures, tissues and organs. Mammals have developed four different cell-cell adhesion structures, the adhering junctions, which ensure the tight contact between cells but are also important platforms for communication and exchange in tissues. Two of these adhering junctions are cadherin based, the belt-like adherens junctions and the spot-like desmosomes. Both structures have in common that they are composed of single membrane spanning proteins, the cadherins, which accomplish adhesion in a calcium-dependent manner. The intracellular parts of classical as well as desmosomal cadherins bind to different adaptor proteins of the armadillo-protein family and others which build a protein plaque underneath the membrane and link the cadherins to the actin or intermediate filament cytoskeleton.
Desmosomes are of special importance for tissues that have to withstand mechanical stress. Although they are essential to stabilize tissues they have to be highly flexible and dynamic structures, as processes like wound healing or tissue remodeling require that adhesive interactions can be modulated. The molecular dynamics within desmosomes are not jet understood in detail, but it is assumed that two different membrane associated pools of desmosomal cadherins exist in cells. Cadherins that are incorporated in mature desmosomes are part of the junctional pool, whereas cadherins that are not associated with firm desmosomes and the intermediate filament cytoskeleton belong to the non-junctional pool. Lateral movements between the two pools results in a dynamic equilibrium and allows for example the exchange of old cadherins. Little is known about the breakdown of desmosomal cadherins. Several studies found that desmosome assembly or endocytosis are cholesterol dependent processes and claimed that membrane microdomains play a role in the regulation of desmosome dynamics. Moreover, membrane rafts may be involved in the pathomechanism of the desmosome associated disease pemphigus, were autoantibodies bind to the cadherin desmoglein-3 and trigger its internalization which results in a loss of adhesion in skin cells.
Membrane rafts are cholesterol dependent nanoscale structures of cellular membranes that are able to regulate the distribution of proteins within the plasma membrane and thus form platforms for cell signaling and membrane trafficking. Flotillins are proteins that are associated with membrane rafts and are reported to be involved in processes like endocytosis, endosomal sorting and a multitude of different signaling events. We could recently show that the membrane raft associated proteins flotillin-1 and flotillin-2 bind directly to the armadillo protein y-catenin which can be part of both, the adherens junction and the desmosome. The aim of this study was to eluciadate a possible role of flotillins in the regulation of desmosomes.
HaCaT keratinocytes were chosen as the main cell system for this study and at first the association of desmosomal components with flotillins was analyzed in detail. It was found that flotillins are clearly associated with desmosomal proteins. They colocalize with desmoglein-3 at cell borders and precipitate the other desmogleins. Further binding assays revealed that both flotillins bind to all desmogleins and the long isoforms of the second class of desmosomal cadherins, the desmocollins. The interaction is a direct one and was mapped to the ICS sequence within the cadherins. This close association rendered the question whether flotillins are functionally implicated in desmosome regulation. To address this issue, stable flotillin knockdown HaCaT cells were analyzed in detail. The molecular morphology of desmoglein-3, desmoglein-1 and two plaque proteins was clearly altered in the absence of flotillins. The membrane staining of all tested desmosomal proteins was derailed and disordered. Furthermoore, the loss of flotillins had an impact on the adhesive capacity of HaCaT keratinocytes. The cell-cell adhesion was weakened in the absence of flotillins, which was monitored by an increased fragmentation of knockdown cells in a cell dissociation assay.
In order to find out the mechanism by which flotillins influence the membrane morphology and the adhesiveness in keratinocytes, the association of desmosomal proteins with membrane microdomains was examined, at first. A predominant part of desmoglein-3 is associated with membrane rafts in HaCaT keratinocytes, whereas only a minor part of desmoglein-1 is found there. However, the raft-association of none of the examined proteins was altered in the absence of flotillins. Furthermore, flotillin depletion did not change the distribution of desmogleins with the two different cadherin pools. Less desmoglein-3 is found in the junctional pool of the flotillin depleted cells compared to the control cells, but this is due to an overall diminished desmoglein-3 protein level in these cells.
Flotillins are involved in endocytic processes but their exact role there is under debate. The endocytic uptake of desmosomal cadherins requires intact membrane rafts, but the precise mechanism is still unknown. A possible involvement of flotillins on the endocytosis of desmoglein-3 was addressed next. It is known that the internalization of desmoglein-2 is dependent on the GTPase dynamin, arguing for an involvement of dynamin in the endocytosis of desmoglein-3 as well. When dynamin and thus desmoglein-3 endocytosis was inhibited using chemical compounds, the mislocalization of desmoglein-3 that was observed in flotillin knockdown cells was restored. This suggest that inhibition of desmoglein-3 endocytosis enhances the amount and/or availability of desmoglein-3 at the plasma membrane, which then normalizes the morphological alterations caused by a knockdown of flotillins. Furthermore the morphological alterations in the flotillin knockdown HaCaT cells were found to be similar to the localization of desmoglein-3 that was observed upon treatment of keratinocytes with PV IgG These structures have been described before as linear arrays and are assumed to be sites of endocytic uptake. This strengthens the idea that enhanced desmoglein-3 internalization takes place in the absence of flotillins, which then results in a weakened adhesion.
Altogether this study revealed flotillins as novel players in desmosome mediated cell-cell adhesion processes. By binding to desmosomal cadherins and desmosomal plaque proteins, flotillins stabilize desmosomes at the plasma membrane and are required for a proper cell-cell adhesion.
Mathematische Basiskompetenzen gelten als wichtiger Prädiktor für die schulische Mathematikleistung. Ebenso offenbaren Studien eine prädiktive Wirkung des selbstregulierten Lernens auf die akademische Leistung. Die Ergebnisse mehrerer Studien zeigen, dass Kinder mit Migrationshintergrund im deutschen Schulsystem schlechter abschneiden. Schon in der Grundschule weisen diese Kinder im Fach Mathematik schlechtere Leistungen auf als ihre Mitschüler[innen] ohne Migrationshintergrund. Vermutlich kann dieser Umstand mit schlechteren Ausgangsbedingungen im mathematischen Vorwissen begründet werden. Darüber hinaus spielen auch mangelnde Sprachfähigkeiten in der Unterrichtssprache eine wichtige Rolle. Daher sollten die fehlenden Kompetenzen im Anfangsunterricht entwicklungsorientiert aufgebaut werden. Zusätzlich sollten auch Methoden zum selbstregulierten Lernen frühzeitig vermittelt werden, da diese Fähigkeit die Übertragung fachlicher Förderungen auf weiterführende Inhalte erleichtert und eine Voraussetzung für die gelingende Umsetzung verschiedener Unterrichtsmethoden darstellt. In der Praxis werden entsprechende Konzepte bislang allerdings nur vereinzelt umgesetzt.
In der vorliegenden Studie sollten daher die Lernvoraussetzungen von Kindern mit Migrationshintergrund in den mathematischen Basiskompetenzen und im selbstregulierten Lernen überprüft werden. Im Anschluss hieran sollte erprobt werden, ob sich die Kombination aus einem Training zur Förderung mathematischer Basiskompetenzen sowie einem Programm zur Förderung selbstregulierten Lernens als Unterrichtskonzept für den Anfangsunterricht mit Kindern mit Migrationshintergrund eignet und hiermit die Disparitäten in den Lernvoraussetzungen der migrierten Kinder ausgeglichen werden können. Hierfür wurde das ursprünglich für den vorschulischen Einsatz konzipierte Trainingsprogramm „Mengen, zählen, Zahlen“ (MZZ, Krajewski, Nieding & Schneider 2007) sowie ein von Otto (2007) ausgearbeitetes Konzept mit selbstregulativen Inhalten (SRL) für den unterrichtsintegrierten Einsatz im Erstunterricht adaptiert. Für die Teilnahme an der Studie konnten 30 Grundschulklassen rekrutiert werden. 517 Schüler[innen] wurden klassenweise einer von drei Versuchsbedingungen zugeordnet: (1) Der ersten Experimentalgruppe, in der die Trainingskombination in der Reihenfolge erst SRL, dann MZZ durchgeführt wurde (EGSRL+MZZ) oder (2) der zweiten Experimentalgruppe, die die Trainingskombination in der umgekehrten Reihenfolge (EGMZZ+SRL) erhielt oder (3) der Kontrollgruppe (KG), in der der reguläre Mathematikunterricht erfolgte. Die Durchführung der Trainingskombination wurde von den jeweiligen Mathematiklehrkräften vorgenommen. Vor der Implementierung der Trainingsprogramme erfolgte eine Erfassung der mathematischen Basiskompetenzen, der Fähigkeiten im selbstregulierten Lernen sowie der Fähigkeiten im Wortverständnis. Zur Überprüfung der Wirksamkeit wurden im Anschluss an die Durchführung der Trainingskombination diese Fähigkeiten erneut erhoben. Zudem wurde die Transferwirkung auf die Fähigkeiten im Basisrechnen untersucht. Ein halbes Jahr später erfolgte eine Follow-up-Untersuchung, bei der abermals die Fähigkeiten im selbstregulierten Lernen sowie der Transfer auf das Basisrechnen und die curriculare Mathematikleitung erfasst wurden.
Die Ergebnisse offenbarten für Kinder mit Migrationshintergrund ein schlechteres Vorwissen in den mathematischen Basiskompetenzen. Hinsichtlich der Fähigkeiten im selbstregulierten Lernen konnten keine Unterschiede gefunden werden. Die Ergebnisse des Posttests konnten einen größeren Kompetenzzuwachs in den mathematischen Basiskompetenzen bei den Kindern mit Migrationshintergrund der ersten Experimentalgruppe (EGSRL+MZZ) im Vergleich zu den Kindern mit Migrationshintergrund der Kontrollgruppe nachweisen. Zudem zeigten sich positive Transfereffekte auf das Basisrechnen. Transfereffekte auf die curriculare Mathematikleistung wurden bei den Kindern mit Migrationshintergrund dagegen nicht ersichtlich. Hinsichtlich der Fähigkeiten im selbstregulierten Lernen ließen sich bei den Kindern mit Migrationshintergrund keine Trainingseffekte aufdecken. In Bezug auf die Kompensation der lückenhaften Lernvoraussetzungen in den mathematischen Basiskompetenzen bei Kindern mit Migrationshintergrund konnte für die erste Experimentalgruppe (EGSRL+MZZ) ein höherer Lernzuwachs bei Kindern nicht deutscher Herkunft festgestellt werden. Bei der zweiten Experimentalgruppe (EGMZZ+SRL) zeigten sich zwar keine Unterschiede zwischen Kindern mit und ohne Migrationshintergrund, doch es offenbarte sich, dass Kinder mit deutscher Muttersprache von der Trainingskombination im Hinblick auf ihre mathematischen Basiskompetenzen mehr profitieren. Die Ergebnisse verweisen auf die Bedeutung der sprachlichen Fähigkeiten bei der entwicklungsorientierten Förderung mathematischer Kompetenzen und werden vor dem Hintergrund einer Ausarbeitung zu einem flächendeckend einsetzbaren Unterrichtskonzept diskutiert.
Surface water can contain a complex mixture of organic micropollutants (i.e. residues of pharmaceuticals or biocides). Conventional wastewater treatment plants (WWTPs) do not completely remove a broad range of anthropogenic chemicals and therefore represent a leading point source. To upgrade WWTPs, technical solutions based on oxidative and sorptive processes have been developed and successfully implemented. Acknowledging these substantial advances, this thesis focuses on another key topic and aims to investigate whether improved biological treatment processes likewise effectively remove anthropogenic micropollutants from wastewater. The work conducted on this topic was part of two European research projects (ATHENE, ENDETECH).
The ATHENE project aimed to go beyond the state-of-the-art by developing biological wastewater treatment processes that exploit the full potential of biodegradation. With the objective to explore the potential of complementary strictly anaerobic conditions within the biological wastewater treatment, combinations of aerobic and anaerobic treatments on site of a WWTP were implemented. Based on pre-experiments, two promising treatment combinations were selected for a more comprehensive evaluation. An aerobic treatment was paired with an anaerobic pre-treatment under iron-reducing conditions, and an activated sludge treatment was combined with an anaerobic post-treatment under substrate-limiting conditions. For the evaluation of these processes, an effect-based assessment was applied and combined with chemical data of 31 selected target organic micropollutants as well as ten metabolites. To assess the removal of endocrine disrupting chemicals (EDCs), yeast based reporter gene assays covering seven receptor-mediated mechanisms of action including (anti-)estrogenicity, (anti-) androgenicity, retinoid-like, and dioxin-like activity were conducted. Furthermore, the removal of unspecific toxicity (Microtox assay) and oxidative stress response as a marker for reactive toxicity (AREc32 assay) were analyzed to cover micropollutants acting via a non-specific mechanism of action. Moreover, to assess toxicity of the whole effluent in vivo, standardized in vivo bioassays with four aquatic model species (Desmodesmus subspicatus, Daphnia magna, Lumbriculus variegatus, Potamopyrgus antipodarum) were performed.
The combination of aerobic and anaerobic treatments resulted in a low additional removal of the selected target organic micropollutants (by 14-17%). In contrast, the removal of endocrine and dioxin-like activities (by 17-75%) and non-specific in vitro toxicities (by 27-60%) was significantly enhanced. Compared to technical solutions (i.e. ozonation), the combination with an anaerobic pre-treatment under iron-reducing conditions was likewise effective in removing the estrogenic activity as well as the unspecific toxicity, whereas anti-androgenic activity and dioxin-like activity were less effectively removed. Exposure to effluents of the conventional activated sludge treatment did not induce adverse in vivo effects in the investigated aquatic model species. Accordingly, no further improvement in water quality could be observed. In conclusion, the combination of aerobic and anaerobic treatment processes significantly enhanced the removal of specific and non-specific in vitro toxicities. Thus, an optimization of the biological wastewater treatment can lead to a substantially improved detoxification. These capacities of a treatment technology can only be uncovered by complementary effect-based measurements.
The global objective of the ENDETECH project was to develop a biotechnological solution to eliminate recalcitrant pharmaceuticals in wastewater direct from sites, where high loads are expected (i.e. hospitals). For this purpose, laccase, an enzyme mainly found in wood decaying fungi, was immobilized on ceramic membranes for application in bioreactors. In a proof of principle experiment, the performance of immobilized laccase in removing a mixture of 38 antibiotics without and in combination with a natural mediator (syringaldehyde; SYR) was investigated. For the evaluation of the enzymatic membrane bioreactors, chemical data on the elimination of the selected target antibiotics was combined with the outcomes of two in vitro bioassays. Growth inhibition tests with an antibiotic sensitive Bacillus subtilis strain were conducted to assess the residual antibiotic activity of the effluents, and Microtox assays were performed to detect a potential formation of toxic by-products.
The treatment by laccase without SYR did not reduce the load of antibiotics significantly. In contrast, in combination with a SYR concentration of 10 µmol L-1, 26 out of 38 antibiotics were removed by >50% after 24 h treatment. Moreover, increasing the SYR concentration to 1000 µmol L-1 resulted in a further improvement of the antibiotic removal. 32 out of 38 antibiotics were removed by over 50%, whereby 17 were almost completely eliminated (>90%). However, the treatment with laccase in combination with SYR resulted in a time-dependent increase of unspecific toxicity. While SYR alone did not affect B. subtilis, the combination of laccase with SYR led to a strong time-dependent growth inhibition up to 100%. Similar to that, a time-dependent increase of unspecific toxicity in the Microtox assay was observed. In conclusion, the laccase-mediator process successfully degrades a broad spectrum of antibiotics and thus represents a promising technology to treat wastewater from sites, where high loads are expected. However, further research is required to reduce the formation of unspecific toxicity before an implementation of this technology can be considered.
The theory of strong interactions — Quantum Chromodynamics (QCD) — is well-defined mathematically. However, direct applications of this theory to experiment are rather limited due to significant technical obstacles. Even some general features of QCD remain unclear to date.
Hence, phenomenological input is important and needed for practical applications, e.g. for theoretical analysis of the heavy-ion collision experiments. In this thesis the role of hadronic interactions is studied in the hadron resonance gas (HRG) model — a popular model for the confined phase of QCD. The description of hadronic interactions is based on the famous van der Waals (VDW) equation and its quantum statistical generalization. While this is not the conventional choice for nuclear/hadronic physicspplications, the simplicity of the VDW approach makes it extremely useful.
In particular, this framework allows to include the two most basic ingredients of hadron-hadron interaction: the short-range repulsion, modeled by excluded-volume (EV) corrections, and the intermediate range attraction. The first part of the thesis considers just the repulsive EV interactions between hadrons. A hitherto unknown, but surprisingly strong sensitivity of the long known thermal fits to heavy-ion hadron yield data to the choice of hadron eigenvolumes is uncovered. It challenges the robustness of the chemical freeze-out temperature and baryochemical potential determination from the thermal fits. However, at the same time, the extracted value of the entropy per baryon is found to be a robust observable which depends weakly on this systematic uncertainty of the HRG model.
A Monte Carlo procedure to treat EV interactions in HRG is also introduced in this thesis. It allows to study simultaneous effects of EV and of exact charge conservation in HRG for the first time. Generalizations of the classical VDW equation are required for its applications in hadronic physics. he grand canonical ensemble (GCE) formulation of the classical VDW equation is presented. Remarkably, this important aspect of the VDW equation was not discovered before. The GCE formulation yields the analytic structure of the critical fluctuations, both in the vicinity of and far off the critical point. These critical fluctuations are presently actively being used as probes for the QCD critical point. Another extension is the hitherto undiscovered generalization of the VDW equation to include quantum Bose-Einstein and Fermi-Dirac statistics. It is performed for both single-component and multi-component fluids. The Fermi-Dirac VDW equation is applied for the first time. It is used to describe nucleons and basic properties of nuclear matter. The quantum statistical generalization of the VDW equation developed in this work is quite general, and can be applied for any fluid. Thus, its applications are not restricted to QCD physics, but may also find themselves in chemistry and/or industry. The quantum statistical VDW equation is used to describe baryonic interactions in full HRG. The VDW parameters $a$ and $b$ are fixed to the nuclear ground state and the predictions of the model are confronted with lattice QCD calculations. The inclusion of baryonic interactions leads to a qualitatively different behavior of the fluctuations of conserved charges in the crossover region. In many cases it resembles the lattice data. These results suggest that hadrons do not melt quickly with increasing temperature, as one could conclude on the basis of the common simple ideal HRG model. Calculations at finite chemical potentials show that the nuclear liquid-gas transition manifests itself by non-trivial fluctuations of the net baryon number in heavy ion collisions. In the final part of the thesis the pure glue initial scenario for high-energy hadron and heavy-ion collisions is explored. This scenario is shown not to spoil the existing agreement of the hadronic and electromagnetic observables description in Pb+Pb collisions at energies available at the CERN Large Hadron Collider. Hydrodynamic calculations suggest that collisions of small-sized nuclei at lower collision energies available at the BNL Relativistic Heavy Ion Collider are promising in the search for the traces of the chemically non-equilibrium gluon-dominated phase transition.
Colorectal cancer (CRC) has the third highest incidence and the fourth highest mortality rate worldwide and represents a substantial health care burden and affects the life of millions of people. CRC is a genetic disease caused by the stepwise accumulation of genetic alterations. The initiating event in colorectal carcinogenesis is the aberrant activation of the WNT pathway, but other pathways are also commonly deregulated, including the PI3K/AKT pathway. A number of previous studies using genetically engineered mouse models aimed at dissecting the exact role of PI3K/AKT pathway in CRC, but have yielded in rather conflicting results. Despite the inconsistent results, these studies already put forward the idea that PI3K/AKT signaling in combination with other genetic events might substantially contribute to tumor progression.
Since the PI3K/AKT pathway is frequently activated in CRC, it represents an ideal candidate for therapeutic intervention. Although extensive efforts had led to the development of numerous inhibitors targeting the PI3K/AKT pathway, the diversity of genetic alterations can challenge the identification of the most effective therapeutic targets. Therefore, the discovery of shared tumor-promoting mechanisms downstream of these genetic alterations might unravel new biomarkers and druggable targets. The aim of this study was to elucidate the precise role of PI3K/AKT pathway during the course of colorectal carcinogenesis and to decipher novel pro-tumorigenic molecular mechanisms downstream of PI3K/AKT activation that can be used for therapeutic intervention.
To obtain a better insight into the role of the PI3K/AKT pathway during colorectal carcinogenesis, mice expressing an oncogenic variant of AKT1 (AktE17K) specifically in the intestinal epithelial cells (IEC) were used. At the age of 6 months untreated AktE17K mice showed clearly perturbed intestinal homeostasis, but no tumor formation. To induce colonic tumorigenesis, AktE17K mice were subjected to treatment with the colonic carcinogen azoxymethane (AOM). In response to AOM, AktE17K mice developed invasive but nonmetastatic tumors, which showed strong nuclear accumulation of TP53. To investigate the role of PI3K/AKT signaling specifically in CRC progression, AktE17K mice were crossed to TP53- deficient mice (Tp53ΔIEC). Unlike AktE17K mice, untreated Tp53ΔIECAktE17K, developed highly invasive small intestinal tumors by the age of 6 months. To investigate the role of AKT hyperactivation in colonic tumor progression, Tp53ΔIECAktE17K mice were subjected to AOM treatment. AKT hyperactivation significantly enhanced tumor progression and induced metastatic dissemination.
To get a better insight how AKT signaling can promote tumor progression, whole tumor tissues from AOM-treated Tp53ΔIEC and Tp53ΔIECAktE17K mice were subjected to next generation mRNA sequencing and phospho-proteomic analysis by mass spectrometry. Both analyses indicated that AKT hyperactivation expands the inflammatory tumor microenvironment and upregulates pathways associated with invasion and metastasis. Importantly, Gene Set Enrichment Analysis revealed that AOM-induced colon tumors of Tp53ΔIECAktE17K animals, are highly similar in their gene expression profile to the CMS4 subtype of human CRC, which is associated with worse overall- and relapse-free survival7 . Gene expression analysis also suggested elevated NOTCH signaling in the Tp53ΔIECAktE17K tumors. Interestingly, while the expression of Notch3 mRNA was increased in the tumors of Tp53ΔIECAktE17K mice, the expression of the other NOTCH receptors was unaffected by AKT hyperactivation. In vitro experiments using TP53-deficient mouse tumor organoids with hyperactive AKT signaling confirmed the direct, tumor cell-intrinsic link between AKT activation and increased Notch3 expression. Moreover, inhibition of EZH2 mimicked the effect of AKT hyperactivation on Notch3 expression, suggesting that AKT regulates Notch3 via an epigenetic mechanism.
Knock-down of Notch3 in TP53-deficient mouse tumor organoids with hyperactive AKT signaling resulted in differential regulation of several pathways with potential role in invasion and metastasis and in cell death and survival. Subsequent in vivo experiments confirmed the role of NOTCH3 signaling in CRC progression. Treatment of AOM-induced Tp53ΔIECAkt E17K mice with a NOTCH3 antagonistic antibody or the γ-secretase inhibitor DAPT significantly reduced invasion and metastasis. Importantly, NOTCH3 expression was also found to be associated with human CRC progression, suggesting that NOTCH3 represent a valid target for the treatment of CRC. This work, using genetically engineered mouse models and advanced in vitro techniques, has demonstrated a strong tumor promoting role for PI3K/AKT signaling in CRC progression and has identified NOTCH3 signaling as a potential therapeutic target downstream of the PI3K/AKT pathway.
Colorectal cancer (CRC) has the third highest incidence and the fourth highest mortality rate worldwide and represents a substantial health care burden and affects the life of millions of people. CRC is a genetic disease caused by the stepwise accumulation of genetic alterations. The initiating event in colorectal carcinogenesis is the aberrant activation of the WNT pathway, but other pathways are also commonly deregulated, including the PI3K/AKT pathway. A number of previous studies using genetically engineered mouse models aimed at dissecting the exact role of PI3K/AKT pathway in CRC, but have yielded in rather conflicting results. Despite the inconsistent results, these studies already put forward the idea that PI3K/AKT signaling in combination with other genetic events might substantially contribute to tumor progression. Since the PI3K/AKT pathway is frequently activated in CRC, it represents an ideal candidate for therapeutic intervention. Although extensive efforts had led to the development of numerous inhibitors targeting the PI3K/AKT pathway, the diversity of genetic alterations can challenge the identification of the most effective therapeutic targets. Therefore, the discovery of shared tumor-promoting mechanisms downstream of these genetic alterations might unravel new biomarkers and druggable targets. The aim of this study was to elucidate the precise role of PI3K/AKT pathway during the course of colorectal carcinogenesis and to decipher novel protumorigenic molecular mechanisms downstream of PI3K/AKT activation that can be used for therapeutic intervention.
To obtain a better insight into the role of the PI3K/AKT pathway during colorectal carcinogenesis, mice expressing an oncogenic variant of AKT1 (AktE17K) specifically in the intestinal epithelial cells (IEC) were used. At the age of 6 months untreated AktE17K mice showed clearly perturbed intestinal homeostasis, but no tumor formation. To induce colonic tumorigenesis, AktE17K mice were subjected to treatment with the colonic carcinogen azoxymethane (AOM). In response to AOM, AktE17K mice developed invasive but non-metastatic tumors, which showed strong nuclear accumulation of TP53. To investigate the role of PI3K/AKT signaling specifically in CRC progression, AktE17K mice were crossed to TP53-deficient mice (Tp53ΔIEC). Unlike AktE17K mice, untreated Tp53ΔIEC; AktE17K, developed highly invasive small
intestinal tumors by the age of 6 months. To investigate the role of AKT hyperactivation in colonic tumor progression, Tp53ΔIEC; AktE17K mice were subjected to AOM treatment. AKT hyperactivation significantly enhanced tumor progression and induced metastatic dissemination.
To get a better insight how AKT signaling can promote tumor progression, whole tumor tissues from AOM-treated Tp53ΔIEC and Tp53ΔIEC; AktE17K mice were subjected to next generation mRNA sequencing and phospho-proteomic analysis by mass spectrometry. Both analyses indicated that AKT hyperactivation expands the inflammatory tumor microenvironment and upregulates pathways associated with invasion and metastasis. Importantly, Gene Set Enrichment Analysis revealed that AOM-induced colon tumors of Tp53ΔIEC; AktE17K animals, are highly similar in their gene expression profile to the CMS4 subtype of human CRC, which is associated with worse overall- and relapse-free survival. Gene expression analysis also suggested elevated NOTCH signaling in the Tp53ΔIEC; AktE17K tumors. Interestingly, while the expression of Notch3 mRNA was increased in the tumors of Tp53ΔIEC; AktE17K mice, the expression of the other NOTCH receptors was unaffected by AKT hyperactivation. In vitro experiments using TP53-deficient mouse tumor organoids with hyperactive AKT signaling confirmed the direct, tumor cell-intrinsic link between AKT activation and increased Notch3 expression. Moreover, inhibition of EZH2 mimicked the effect of AKT hyperactivation on Notch3 expression, suggesting that AKT regulates Notch3 via an epigenetic mechanism.
Knock-down of Notch3 in TP53-deficient mouse tumor organoids with hyperactive AKT signaling resulted in differential regulation of several pathways with potential role in invasion and metastasis and in cell death and survival. Subsequent in vivo experiments confirmed the role of NOTCH3 signaling in CRC progression. Treatment of AOM-induced Tp53ΔIEC; AktE17K mice with a NOTCH3 antagonistic antibody or the γ-secretase inhibitor DAPT significantly reduced invasion and metastasis. Importantly, NOTCH3 expression was also found to be associated with human CRC progression, suggesting that NOTCH3 represent a valid target for the treatment of CRC. This work, using genetically engineered mouse models and advanced in vitro techniques, has demonstrated a strong tumor promoting role for PI3K/AKT signaling in CRC progression and has identified NOTCH3 signaling as a potential therapeutic target downstream of the PI3K/AKT pathway.
Verschiedene physikalische Effekte erlauben es Licht so zu führen und zu verändern, dass es Einblicke in für Menschen sonst unzugängliche Bereiche gewährt. Eines von insgesamt drei Elementen dieser Dissertationsschrift ist der Aufbau eines Multiphotonen-Mikroskops. Dieses fortschrittliche Werkzeug erweitert das zur Verfügung stehende Instrumentarium um verschiedene Analysemethoden, allen voran die 2-Photonen-Fluoreszenz-Mikroskopie. Durch geringfügige Modifikationen können auch weitere Methoden, wie beispielsweise stimulierte Raman-Streuung realisiert werden.
Insbesondere die 2-Photonen-Fluoreszenz-Mikroskopie war für das zweite Element dieser Dissertationsschrift von großer Bedeutung. In dieser Studie wurde das Bleichverhalten von Spinach bei 2-Photonen-Absorption untersucht, sowohl an frei in Lösung befindlichen als auch auf einem Träger immobilisierten Spinach-Komplexen. Die Ergebnisse zu den frei in Lösung befindlichen Spinach-Komplexen zeigen, dass die Verstärkung der Fluoreszenz von DFHBI grundsätzlich auch im Fall der 2-Photonen-Absorption eintritt. Dabei wurde ein Ausbleichen der 2-Photonen-induzierten Fluoreszenz für frei in Lösung befindliche Spinach-Komplexe erst bei außerordentlich hohen Intensitäten der Anregungsstrahlung beobachtet. Dieser Befund kann zumindest teilweise auf das Eindiffundieren fluoreszenter Spinach-Komplexe in das sehr kleine Fokalvolumen innerhalb der 2-Photonen-Anregung stattfindet zurückgeführt werden. Für immobilisierte Spinach-Komplexe konnte gezeigt werden, dass eine kontinuierliche Bildaufnahme gegenüber einer Bildaufnahme in Intervallen mit jeweils zusätzlichen Dunkelphasen zur Erholung des reversiblen Bleichens der 2-Photonen-induzierten Fluoreszenz, sowie der generelle Verzicht auf spezielle Belichtungsschemata und Methoden der Datenakquise mit keinen besonderen Nachteilen verbunden ist. Abschließend betrachtet erweist sich Spinach bei 2-Photonen-Anregung als ausgesprochen resistent gegenüber einem irreversiblem Ausbleichen des Fluoreszenzsignals.
Als drittes Element dieser Dissertationsschrift wurde die Dynamik von Chrimson, einem Kanalrhodopsin mit rot-verschobener Absorption mittels zeitaufgelöster Spektroskopie im sichtbaren Spektralbereich untersucht. Sowohl die Anregungswellenlänge als auch der pH-Wert bzw. der Protonierungszustand des Gegenions haben einen messbaren Einfluss auf die Primärreaktion. Diese verlangsamt sich, sobald der pH-Wert abgesenkt oder die Anregungswellenlänge rot-verschoben wird. Darüber hinaus führt eine Rot-Verschiebung der Anregungswellenlänge zu einer geringeren Effizienz der Isomerisation des Retinal-Chromophors. Die Primärreaktion von Chrimson entspricht dabei einem Reaktionsmodell mit einer Verzweigung des Reaktionspfades auf der Energiehyperfläche des angeregten Zustandes. Ein Reaktionspfad führt dabei durch ein lokales Minimum, welches in seiner Ausprägung stark von der elektrostatischen Umgebung des Retinal-Chromophors abhängt. Je nach ursprünglichem Protonierungszustand des Gegenions der Retinal-Schiff-Base wurden große Unterschiede hinsichtlich der beobachteten transienten Absorptionsmuster für den im Anschluss von Chrimson durchlaufenen Photozyklus gefunden. Bei pH 6,0 weist der Photozyklus von Chrimson eine insgesamt deutlich schnellere Kinetik auf, als es für den Photozyklus bei pH 9,5 beobachtet wurde. Es ist bemerkenswert, dass in elektrophysiologischen Messungen für beide Photozyklen eine Öffnung des Ionenkanals gefunden wurde. Die Kanalfunktion von Chrimson ist somit grundsätzlich nicht vom Protonierungszustand des Gegenions abhängig, wenngleich die Kinetik des Ionenkanals durchaus davon beeinflusst wird. Dies deutet auf Unterschiede in den Wechselwirkungen zwischen dem Ionenkanal und dem Gegenion der Retinal-Schiff-Base hin.
Infections with multidrug resistant bacterial strains like Escherichia coli, Klebsiella pneumoniae, Pseudomonas aeruginosa or Acinetobacter baumanii that can accumulate resistance mechanisms against different groups of drugs cause increasing problems for the health care system. Multidrug efflux pumps are able to transport different classes of substances, providing a basic resistance to different antibiotics. Especially when they are overexpressed they can keep bacterial cells alive under antibiotic pressure unless other high level resistance mechanisms like expression of β-lactamases are established. One example for a clinically relevant multidrug efflux pump is the AcrAB/TolC tripartite system of E. coli, that transports a variety of different substrates, including besides antibiotics dyes, detergents, bile salts and organic compounds from the periplasm or the inner membrane out of the cell. AcrB is the inner membrane component of the protein complex that determines not only the substrate specificity of the tripartite system but energises the transport through the whole system process via proton transduction as well. TolC is the outer membrane spanning protein that forms a pore in the outer membrane enabling the system to transport drugs over the latter out of the cell. The periplasmic membrane fusion protein AcrA connects AcrB and TolC in the periplasm completing the channel from the periplasm, respective the inner membrane to the extracellular space. AcrB assembles as trimers, in asymmetric crystal structures each of the protomers adapts a different conformation designated L(oose), T(ight) and O(pen). In the protomers tunnels open up and collaps in different conformations. In the L protomer a periplasmic cleft opens up that can initially bind substrates to the periplasmic part of AcrB. In the T conformation the deep binding pocket opens that is assumed to bind substrates tightly that were bound to the access pocket before. As well in the T conformation a second pathway leading to the deep binding pocket opens that can guide substrates from a groove between transmembrane helices TM7, TM8 and TM9, the TM8 groove, that is connected with socalled tunnel 1 that ends in the deep binding pocket. In the O conformation a new tunnel opens that connects the collapsing deep binding pocket with the periplasmic space, respective the channel through the periplasmic space formed from AcrA and TolC. Substrates were cocrystallised in access and deep binding pocket verifying their role in substrate transport. In the TM8 groove in high resolution crystal structures DDM molecules were cocrystallised in L and T conformation, indicating that the AcrB substrate DDM may utilise this entrance to the deep binding pocket. The asymmetry observed in the AcrB trimers trongly suggests a peristaltic pump mechanism. The functional rotation cycle demands communication between the subunits and tight control of substrate load of protomers during the transport to optimise the ration between protons that are transduced and substrates transported. Indeed it was shown that AcrB transport mechanism is positively cooperative for some β-lactam substrates. For the communication between the subunits it was assumed that ionic interaction between ion pairs established between charged amino acids at the interfaces of protomers in different conformations are of special importance. Thus the amino acids engaged in ionic interactions, respective ion pairs D73-K131, E130-K110, D174-K110, R168, R259-E734 were substituted with non-charged amino acids pairwise and phenotypes were determined in plate dilution assays and MIC experiments. No evidence for a general, substrate independent, reduction of AcrB activity, that would be expected when the ionic residues are of special importance for AcrB function, could be found with the methods applied. Substitutions were not only combined pairwise according to the putative ion pairs but as well in combinations of R168A with D174N, E130Q and K131M. AcrB activity is reduced for the variant R168A_D174N significantly, activity decreases further for quadruple variant E130Q_K131M_ R168A_D174N. Because the reduced activity is only observed in this combination of substitutions the phenotype must result from accumulation of small effects of the single substitutions. R168A may destabilise the protomer interfaces, as its side chain is oriented in direction to the neighbouring protomer at all interfaces, enhancing substratespecific effects of substitutions E130Q, K131M, D174N that are not in all conformations oriented towards the neighbouring protomer but as well along the substrate transport pathway. Further investigations to figure out the details of the effects observed were not conducted because fluctuating expression of the variants hindered experimental procedures.
In another approach TM8 was in focus of the interest. As mentioned above it is a possible substrate entrance in the inner membrane. The linker between TM8 and the periplasmic PC2 subdomain undergoes a coil-to-helix transition when AcrB cycles through L, T and O conformations. Linking the transmembrane part of AcrB that provides the energy for the transport process via proton transduction with the periplasmic part harbouring the major part of the substrate pathway assignes TM8 and the periplasmic linker (859-876) an important role in the function of AcrB. Thus it was investigated with an alanine-scan of residues 859 to 884 and G/P respective P/G exchange followed by phenotype characterisation in growth curve and plate dilution assays of selected variants. In the phenotype determinations none of the variants, except G861P that seems to cause massive sterical restriction in an α-helical region, displayed a general, substrate independent decrease of AcrB activity. Thus it is concluded that the individual properties of amino acids in TM8 and the periplasmic linker are not of general importance for the mechanism of AcrB. The substitution of individual amino acids had impact on uptake of different substrates in plate dilution assays in a substrate dependent manner. The uptake of some substrates, like erythromycin or chloramphenicol is more affected than that of others with rhodamine 6G resistance being only reduced for the G861P variant. A relation between the PSA of substrates and reduced activity of AcrB was observed. in Substrates with higher PSA values are more affected by substitutions in TM8 or periplasmic linker, resulting in the conclusion that substrates with higher PSA are more likely to be taken up via the TM8 groove/tunnel 1 pathway than those with lower PSA values.
Over the last several decades, spinel-structured minerals with the chemical formula AB2O4 (where A and B stand for divalent and trivalent cations, respectively) have attracted more and more attention, particularly with regards to their breakdown at high pressures and temperatures and the nature of the so-called "post-spinel" phases. Spinel-structured phases with different endmember compositions, like magnetite (Fe3O4), hercynite (FeAl2O4) or spinel (MgAl2O4), are known to breakdown differently at high pressure-temperature conditions (e.g., Akaogi et al. 1999; Schollenbruch et al. 2010; Woodland et al. 2012). Such phases are of particular interest when they incorporate ferric (Fe3+) and ferrous (Fe2+) cations as this makes their stability sensitive to redox conditions. Since magnetite and magnesioferrite (MgFe3+ 2O4) have been found as inclusions in diamond (e.g., Stachel et al. 1998; Harte et al. 1999; Wirth et al. 2014; Palot et al. 2016; Jacob et al. 2016), understanding their phase relations is important for setting constraints on the conditions of their formation.
This study aimed to experimentally investigate the phase relations of Fe-Mg spinel-structured phases at conditions of the deep upper mantle and transition zone. Exploring the stability of new post-spinel phases and their characterization were also major goals of this study. Approaching a pyrolitic mantle composition by adding amounts of SiO2 in the system allowed constraints on the relevance of Fe-Mg post-spinel phases coexisting with mantle silicates to be made. ...
Characterizing the hologenome of Lasallia pustulata and tracing genomic footprints of lichenization
(2017)
The lichen symbiosis – consisting of fungal mycobionts and photoautotroph photobionts (green algae or cyanobacteria) – is globally successful. It covers an estimated 6% of the global surface with habitats ranging from deserts to the arctic. This success is reflected in the diversity of the mycobionts, with around 21% of all fungal species participating in lichen symbioses that can be facultative or obligate. Lichenization is furthermore evolutionary old, with fossil evidence for lichens reaching back 415 million years. For an individual fungal lineage, the Lecanoromycetes, the lichenization happened around 300 million years ago. This longstanding symbiotic relationship and the diversity of observed symbiotic dependency make them promising models to study the genomic consequences that follow the establishment of symbioses. Despite this, only little is known about the genomic effects of lichenization and extreme symbiotic dependency. To fill this gap we sequenced the hologenome of the lichen Lasallia pustulata, where the mycobiont could so far not been cultivated, suggesting that it might be more dependent on its symbionts.
As the poor culturability of lichen symbionts renders their genomes inaccessible to standard sequencing practices, we evaluated the extent to which different metagenome sequencing- and de novo assembly-strategies can be used to sequence and reconstruct the genomes of the individual symbionts. We find that the abundances of individual genomes present in the L. pustulata hologenome vary substantially, with the mycobiont being most abundant. Using in silico generated data sets and real Illumina sequencing data for L. pustulata we observe that the skewed abundances prevent a contiguous assembly of the underrepresented genomes when using only short-read sequencing. We conclude that short-read sequencing can offer first insights into lichen hologenomes. The fragmentation of the reconstructions hinders downstream analyses into the genomic consequences of lichenization though, as these are focused on identifying the gain and loss of genes.
We thus demonstrate a hybrid genome assembly strategy that is based on both short- and long-read sequencing. We show that this strategy is capable of creating highly contiguous genome reconstructions, not only for the L. pustulata mycobiont but also its photobiont Trebouxia sp., along with substantial amounts of the bacterial microbiome. A subsequent analysis of the microbiome of L. pustulata – performed over nine different samples collected in Germany and Italy – showed a stable taxonomic composition across the geographic range. We find that Acidobacteriaceae, which are known to thrive in nutrient poor habitats, are the dominant taxa. These would make them well adapted for the co-habitation with L. pustulata, which largely grows on rocks. Whether the Acidobacteriaceae are functionally involved in the lichen symbiosis is unclear so far.
As further comparative genomic studies rely on comprehensive genome annotations, we evaluate the completeness and fidelity of the gene annotations for the mycobiont L. pustulata as well as four further Lecanoromycetes. This reveals that un- and mis-annotated genes impact all evaluated genomes, with artificially joined genes and unannotated genes having the largest impact. In addition to these factors we find that the sequence composition – especially G/C-rich inverted repeats – lead to sequencing errors that interfere with the gene prediction. We minimize the effects of these artifacts through a rigorous curation.
Given the extremely sparse taxon sampling of available green alga genomes, we focus our search for the genomic footprints of lichenization on the mycobionts. We compare the genomes of the Lecanoromycetes to their closest relatives, the Eurotiomycetes and Dothideomycetes. This reveals that the last common ancestor of the Lecanoromycetes has lost around 10% of its genes after they split from the non-lichenized ancestor they share with the Eurotiomycetes. These losses are furthermore enriched, showing an excessive loss of genes involved with the degradation of polysaccharides. The loss of these genes fits a change from an ancestral saprotrophic lifestyle that depends on degrading complex plant matter, to the symbiotic lifestyle that relies on simpler nutrients provided by the photobionts. While the last common ancestor of the Lecanoromycetes additionally gained around 400 genes these could so far not be further characterized due to a lack of functionally annotated reference data.
As the mycobiont L. pustulata could so far not been grown in axenic culture, we initially expected to find an extensive genomic remodeling compared to the other mycobionts that easily grow in culture. We do not find evidence for this. Analyzing both the contraction of gene families and the loss of genes, we observe that L. pustulata and Umbilicaria muehlenbergii – its close relative that is easily grown in culture – share most of these. Furthermore, L. pustulata does not show an excessive loss of evolutionary old and well-conserved genes. These effects are mirrored on the functional level, as neither gene family contractions nor gene losses show a functional enrichment. This is partially due to the lack of functional reference data, analogous to the genes gained in the Lecanoromycetes, rendering their characterization hard. Thus, further studies on the genomic consequences of lichenization and differences in symbiotic dependence will have to be conducted, including larger taxon sets. This will be even more important for the photobionts, as the Chlorophyta are even more sparsely sampled today, hindering an effective functional and evolutionary study.
In der vorliegenden Arbeit sollte der Einfluss von langjährigem Lastkraftwagenfahren auf die posturale Kontrolle untersucht werden. Hierzu wurden die Auswirkungen verschiedener Einflussfaktoren, die mit langjährigem Lastkraftwagenfahren assoziiert sind, im Hinblick auf die posturale Kontrolle analysiert. In diesem Rahmen wurden auf einer Autobahnraststätte in Deutschland 180 (179m/1w) Lastkraftwagenfahrer im Alter von 21 bis 65 Jahren mit einer Berufserfahrung von 1 bis 45 Jahren untersucht. Mit Hilfe eines Fragebogens wurden Informationen über die Arbeitszeit und den Gesundheitszustand der Lastkraftwagenfahrer, wie beispielsweise bestehende Rückenschmerzen oder Sportverhalten, erhoben. Für die Messung der Parameter der posturalen Kontrolle in habitueller Standposition wurde die Druckmessplatte GP Multisens der Firma GeBioM (Münster, Deutschland) verwendet. Es wurde die prozentuale Druckverteilung im Vorfuß-Rückfußbereich für den linken und rechten Fuß gemessen. Des Weiteren konnte die Körperschwankung in frontaler (anterior/posterior) und sagittaler (medial/lateral) Ebene aufgezeichnet werden. Dadurch lassen sich unter anderem Rückschlüsse auf eine Verlagerung des Körperschwerpunktes ziehen. Die statistische Auswertung erfolgte mit Hilfe des Statistikprogrammes BiAS Version 11.0 (2015). Die erhobenen Daten wurden unter Verwendung des Kolmogoroff-Smirnoff-Lillifors-Tests auf Normalverteilung getestet. Das Signifikanzniveau lag bei α=5%. Daneben wurde ein zweiseitiges 95%-Konfidenzintervall sowie der Toleranzbereich der Daten berechnet. Da keine Normalverteilung der Daten vorlag, wurde der Kruskal Wallis Test mit anschließender Bonferoni-Holm Korrektur zum Vergleich der Daten eingesetzt. Die Korrelationen wurden durch einfache, lineare Korrelation nach Pearson oder Rang-Korrelation nach Spearman & Kendall berechnet. Die Studienteilnehmer wurden zusätzlich gemäß ihres BMI, ihrer bereits als Lastkraftwagenfahrer geleisteten Arbeitsjahre, nach bestehenden Rückenschmerzen und nach sportlicher Betätigung jeweils verschiedenen Gruppen zugeordnet. Die Gruppen wurden anschließend hinsichtlich der gemessenen Parameter miteinander verglichen. In Bezug auf ein zunehmendes Alter konnte eine signifikant zunehmende sagittale Schwankung (p ≤ 0,01) sowie eine erhöhte Belastung des rechten Fußes (p ≤ 0,01) gemessen werden. Im Vergleich zwischen normalgewichtigen und übergewichtigen Lastkraftwagenfahrern zeigten sich signifikante Unterschiede hinsichtlich der gemessenen Parameter der posturalen Kontrolle. Es konnte beobachtet werden, dass es mit zunehmenden BMI zu einer erhöhten Schwankung in frontaler (p ≤ 0,04) und sagittaler (p ≤ 0,001) Ebene kommt. Hinsichtlich der Fußdruckbelastung kam es zu keinen signifikanten Veränderungen zwischen den BMI-Gruppen. Lastkraftwagenfahrer mit mehr Arbeitsjahren zeigten erhöhte frontale und sagittale Körperschwankungen. Es lag eine signifikante, positive Korrelation zwischen der frontalen Schwankung und einer Zunahme der Arbeitsjahre (p ≤ 0,04) vor. Auch bei der sagittalen Schwankung bestand eine signifikante Korrelation (p ≤ 0,01). Lediglich bei der Belastung des rechten Vorfußes konnte eine signifikante Korrelation nachgewiesen werden (p ≤ 0,01), während bei den anderen Parametern der Fußbelastung keine signifikante Korrelation belegt werden konnte. Im Gruppenvergleich nach Arbeitsjahren zeigte sich, dass mit ansteigenden Arbeitsjahren als Lastkraftwagenfahrer zu einem Anstieg des BMI kommt. Im Vergleich von Lastkraftwagenfahrern mit und ohne Rückenschmerzen waren keine signifikanten Unterschiede bei den gemessenen Parametern der posturalen Kontrolle nachweisbar. Auch bei der Analyse des Einflusses von sportlicher Aktivität auf die posturale Kontrolle konnte kein Unterschied zwischen der Gruppe mit sportlicher Aktivität und ohne sportliche Aktivität gemessen werden.
Mit dieser Studie konnten die gesundheitsgefährdenden Einflüsse des Lastkraftwagenfahrens auf die posturale Kontrolle nachgewiesen werden. Vor allem das langjährige Sitzen und der erhöhte BMI haben einen Einfluss auf die Körperstabilität und stören die Kompensationsmechanismen der Aufrechterhaltung der posturalen Kontrolle. Die genauen Steuerungsmechanismen der Körperstabilität sind sehr komplex und wurden in dieser Studie nicht im Einzelnen analysiert. Um welche konkreten Strukturen es sich handelt, die durch das langjährige Lastkraftwagenfahren gestört werden, kann mit den Ergebnissen dieser Studie nicht erfasst werden.
This thesis investigated the acquisition of restrictive and appositive interpretations of relative clauses in German-speaking children between the age of 3 and 6 in three experiments.
The theoretical background shows that restrictive relative clauses are semantically less complex than appositive ones. This assumption is supported by observations from a typological overview on the semantic functions attested across languages. It is shown that the existence of appositive relative clauses implies the availability of restrictive readings in a given language. Furthermore, restrictive readings may be favored due to the functioning of general processing principles. Previous research on the acquisition of relative clauses demonstrates that the acquisition of the semantic functions of relative clauses is an understudied area. In contrast, the acquisition of syntactic aspects of relative clauses is well documented. Relative clauses start to be produced in the third year of life and can be interpreted target-like between the age of 4 and 8 depending on their structure. Which semantic interpretation children assign to relative clauses at this age, however, is still an open question.
Based on the formal background and insights from previous studies, three experiments were designed: two picture selection tasks and one acceptability task. The crucial aspect of the experimental design constitutes the interaction of an ordinal number word and the interpretation of the relative clause in sentences like “Take the third car(,) that/which is red”. The scope of the ordinal number reveals whether the relative clause had been attached restrictively at the NP-level or whether it had been attached higher up at the DP shell resulting in an appositive interpretation.
The results of the experiments demonstrate that 4- to 6-year-old German-speaking children and adults prefer restrictive readings over appositive ones. This preference is found within the group data and is mirrored by the results of an individual analysis. In addition, while the majority of children has acquired restrictive readings at the age of 4, appositive interpretations are mastered only by about half of the children between age 4 and 6. Interestingly, 3-year-old children show a different pattern than their older peers. Appositive but not restrictive interpretations seem to be available to these children. Although the results may be taken as evidence that appositivity is acquired before restrictivity in relative clauses by German-speaking children, I propose the contrary. Based on assumptions about the complexity of restrictive and appositive derivations, I argue that the appositive interpretations observed at the age of 3 do not result from a target-like syntactic and semantic representation. I propose that 3-year-old children do not yet identify relative clauses as nominal modifiers. Instead, they are derived from an incorrect attachment of the relative clause higher up in the syntactic tree.
The results of the three experiments are the first to show that neither a prototypical unintegrated prosodic contour nor the presence of a lexical marker, the discourse particle “ja”, or a visual context biasing for appositivity led to an increase of appositive interpretations in the children’s groups. Adults, in contrast, were sensitive to the presence of the discourse particle and the cues from the visual context. As for children, the prosodic format of the relative clauses did not systematically change the interpretation preferences of adults.
The proposed acquisition path may not be specific to German. Instead, it is predicted to hold cross-linguistically and may also be transferred to the interpretation of adjectives. Moreover, the assumptions on how children integrate relative clauses during comprehension may be generalized to other types of subordinate clauses.
Fossile Rohstoffe dienen in unserer heutigen Gesellschaft als Energiequelle und als Rohstofflieferant für Grund-, Feinchemikalien und Pharmazeutika. Sie tragen jedoch zum Klimawandel und Umweltverschmutzung bei. Lignocellulosische Biomasse ist eine erneuerbare und nachhaltige Alternative, die durch biotechnologische Prozesse erschlossen werden kann. Die Bäckerhefe Saccharomyces cerevisiae ist ein sehr gut untersuchter Modellorganismus, für den es zahlreiche genetische Werkzeuge und Analysemethoden gibt. Zudem wird S. cerevisiae häufig in biotechnologischen Prozessen eingesetzt, da diese Hefe robust gegenüber industriellen Bedingungen wie niedrigen pH-Werten, toxischen Chemikalien, osmotischem und mechanischem Stress ist. Die Pentose D-Xylose ist ein wesentlicher Bestandteil von lignocellulosischer Biomasse, die aber nicht natürlicherweise von der Bäckerhefe verwerten werden kann. Für eine kommerzielle Herstellung von Produkten aus lignocellulosischer Biomasse muss S. cerevisiae D-Xylose effektiv verwerten. Für die Bäckerhefe konnten heterologe Stoffwechselwege etabliert werden, damit diese D-Xylose verwerten kann. Für eine effiziente Xyloseverwertung bleiben dennoch zahlreiche Herausforderungen bestehen. Unter anderem nehmen die Zellen D-Xylose über ihre endogenen Hexosetransporter nur langsam auf. Die heterologe Xylose-Isomerase (XI) besitzt in S. cerevisiae eine geringe Aktivität für die Isomerisierung von D-Xylose. Unspezifische Aldosereduktasen konkurrieren mit der Xylose-Isomerase um das gleiche Substrat und produzieren Xylitol, ein starker Inhibitor der Xylose-Isomerase. Eine Möglichkeit die Umsatzrate von Enzymen zu steigern und Substrate vor Nebenreaktionen zu schützen, ist die Anwendung von Substrate Channeling Strategien. Bei Substrate Channeling befinden sich die beteiligten Enzyme in einem Komplex, wodurch die Substrate lokal angereichert werden und von einem aktiven Zentrum zum nächsten weitergeleitet werden, ohne Diffusion in den restlichen Reaktionsraum. In dieser Arbeit wurde untersucht, ob ein Komplex zwischen einem membranständigen Transporter und einem löslichen Enzym konstruiert werden kann, um durch Substrate Channeling eine verbesserte Substrat-Verwertung zu erreichen. Die Xylose-Isomerase aus C. phytofermentans und die endogene Hexose-Permease Gal2 sollten in dieser Arbeit als Modellproteine in S. cerevisiae-Zellen mit Hilfe von Protein-Protein-Interaktionsmodulen (PPIM) in räumliche Nähe zueinander gebracht werden.
Die Expression verschiedener PPIM konnte in S. cerevisiae mittels Western Blot nachgewiesen werden. Auch Fusionsproteine aus unterschiedlichen PPIM wurden in dieser Hefe exprimiert. Die PPIM binden komplementäre PPIM oder kurze Peptidliganden, welche an die Xylose-Isomerase und an den Gal2-Transporter fusioniert wurden. Die Funktionalität beider Proteine wurde mittels in vivo und in vitro Tests untersucht. Die Xylose-Isomerase mit N-terminalen Liganden des WH1-Protein-Protein-Interaktionsmoduls (WH1L-XI) und der Gal2-Transporter mit N-terminalen SYNZIP2-Protein-Protein-Interaktionsmodul (SZ2-Gal2) erwiesen sich als geeignete Kandidaten für weitere Untersuchungen. Mittels indirekter Immunfluoreszenz konnte die Ko-Lokalisierung von SZ2-Gal2 und WH1L-XI, die einander über ein Scaffold-Protein binden, nachgewiesen werden.
Transformanten, in denen ein Komplex aus Transporter, Scaffold-Protein und Xylose-Isomerase gebildet wurde, zeigten bessere Fermentationseigenschaften gegenüber der Scaffold-freien Kontrolle und dem Wildtyp: Sie verwerteten Xylose schneller, bildeten weniger vom unerwünschten Nebenprodukt Xylitol, produzierten mehr Ethanol und wiesen eine höhere Ethanolausbeute auf. Der beobachtete Substrate Channeling Effekt kompensierte die geringere Enzymaktivität der WH1L-XI im Vergleich zum Wildtyp-Protein. Die Wirksamkeit des Substrate Channeling wurde verringert, wenn die Bildung des Komplexes aus Transporter, Scaffold-Protein und Xylose-Isomerase gestört wurde, indem ein getaggtes GFP mit dem Scaffold-Protein um die Bindungsstelle an Gal2 konkurrierte. Dies zeigt, dass die positive Wirkung auf die Komplex-Bildung zwischen XI und Gal2 zurück zu führen ist. Die Fermentationseigenschaften konnten gesteigert werden, indem der zuvor zwischen SZ2-Zipper und Gal2-Transporter verwendete Linker, der aus zehn Aminosäuren von Glycin, Arginin und Prolin (GRP10) bestand, durch einen aus Glycin und Alanin (GA10) ersetzt wurde. Die verbesserten Fermentationseigenschaften beruhten auf einem Substrate Channeling Effekt und einer gesteigerten Aufnahmerate des SZ2-GA10-Gal2-Transporters. Ein Vergleich der Strukturvorhersagen von SZ2-GRP10-Gal2 und SZ2-GA10-Gal2 zeigte, dass der GRP10-Linker einen unstrukturierten, flexiblen Linker ausbildet, während der GA10-Linker eine starre α-Helix ausbildet. Die Struktur und der Transportprozess von Gal2 sind nicht aufgeklärt. Bei verwandten Transportern geht man davon aus, dass Substrate durch Konformationsänderungen ins Innere der Zelle transportiert werden, indem die beiden Domänen gegeneinander klappen. Die α-Helix könnte die Geschwindigkeit der Konformationsänderungen begünstigen.
Durch Kontrollexperimente konnte ausgeschlossen werden, dass die gesteigerten Fermentationseigenschaften eine Folge der Stabilisierung der XI- und Gal2-Fusionsproteine durch das Anfügen des Liganden oder durch Komplexbildung mit dem Scaffold-Protein waren. Substrate Channeling zwischen Gal2 und XI entsteht durch die Komplexbildung mit dem Scaffold-Protein, wodurch sich Gal2 und XI in räumlicher Nähe zueinander befinden. Dieser Effekt beruht möglicherweise zusätzlich aufgrund einer hohen örtlichen Ansammlung dieser Proteine, da die tetramere XI weitere Scaffold-Proteine binden könnte, welche weitere Gal2-Transporter binden könnte. Darüber hinaus sammeln sich Transporter an bestimmten Orten der Membran an und Transporter mit ähnlicher oder gleicher Transmembransequenz tendieren dazu zu ko-lokalisieren. Hierdurch könnten Gal2-XI-Agglomerate entstehen und Xylose wird mit hoher Wahrscheinlichkeit von einer der vielen Xylose-Isomerasen umgesetzt.
Cette recherche retrace l’histoire de la fondation des musées en France englobant les périodes du Directoire, du Consulat et de l’Empire. Cette création des musées se fait à travers des envois gouvernementaux de tableaux à plusieurs villes périphériques. Elle est intimement liée au dit « Décret Chaptal », l’arrêté consulaire du 14 fructidor an IX (1er septembre 1801) qui lance quinze envois dans différentes villes dont Bruxelles, Genève et Mayence, alors considérées comme parties intégrantes du territoire national. Ma thèse est présentée en trois parties, pour valoriser le rôle singulier de Chaptal. Le dépouillement des archives fournit un récit détaillé des prémices de cette politique, de la conception du texte et de la mise en œuvre de cet arrêté avant, pendant et après le Ministère Chaptal. Leur analyse ouvre des perspectives nouvelles sur la politique muséologique initiée par Chaptal dans la continuité des Lumières.
Hintergrund: ei der Behandlung des lokal-begrenzten PCa stellen die radikale Prostatektomie sowie die definitive Radiotherapie den aktuellen Therapiestandard dar. Die Effektivität der High-Dose-Rate(HDR)-Brachytherapie (BRT) als Monotherapie in der kurativen Behandlung des lokalisierten PCa wird im Zusammenhang mit aktuellen Literaturdaten bekräftigt. Die vorliegende Arbeit berichtet die onkologischen Ergebnisse sowie der Langzeittoxizität eines 3-Implantat-Protokolls mittels alleiniger HDR-BRT in der Behandlung von Patienten mit lokal-begrenztem Prostatakarzinom.
Patienten und Methoden: Von Februar 2008 bis Dezember 2012 wurden 450 konsekutive Patienten mit klinisch lokalisiertem Prostatakarzinom mit einer HDR-Monotherapie behandelt. Alle Patienten erhielten drei transperineale Einzel-Fraktion-Implantate von 11, 5 Gy, die an ein intraoperatives echtzeit-transrektales ultraschall-definiertes Planungsbehandlungsvolumen bis zu einer physikalischen Gesamtdosis von 34,5 Gy mit interfraktionärem Intervall von 21 Tagen appliziert wurden. Das biochemische Versagen wurde gemäß der Phoenix Consensus Criteria und die urogenitale/gastrointestinale Toxizität unter Verwendung der Common Toxicity Criteria for Adverse Events Version 3.0 definiert.
Ergebnisse: Die mediane Nachbeobachtungszeit betrug 56,3 Monaten (4,4-91,7 Monate). Die 60- und 90-monatigen Gesamtüberlebensraten, die biochemische Kontrolle und die metastasenfreien Überlebensraten betrugen 96 %, 95 %, 99 % bzw. 94 %, 92 % und 97 %. Die Toxizität wurde pro Ereignis erfasst. Späte Grad-2- und 3-urogenitalen Komplikationen traten bei 14,2 % bzw. 0,8 % der Patienten auf. Ein Patient zeigte Inkontinenz Grad 4, welche mittels permanenter Urostomie behandelt werden musste. Späte Grad-2-gastrointestinale Toxizität betrug 0,4 % und keine Instanzen von Grad-3 oder höherer Spätfolgen wurden gemeldet.
Schlussfolgerung: Unsere Ergebnisse bestätigen die HDR-Brachytherapie als eine sichere und effektive monotherapeutische Behandlungsmethode für klinisch lokalisierten Prostatakrebs.
In der vorliegenden Studie wurden sieben verschiedene Biomarker (Survivin, Ki-S2, EGFR, Her2/neu, PTEN, p53, OSF-2) von Plattenepithelkarzinomen der Mundhöhle und des anterioren Oropharynx bezüglich ihres Expressionsverhaltens vor und nach Applikation einer intraarteriellen Induktionschemotherapie mit 150mg/m² Cisplatin und im Hinblick auf einen möglichen Zusammenhang des Expressionsverhaltens mit dem Chemotherapieresponse untersucht.
Mit Hilfe der TMA-Technologie wurde in Gewebeproben von 41 Patienten, welche am genannten Krebs erkrankt waren, die Expressionsraten immunhistochemisch bestimmt. Die Behandlung der Patienten erfolgte im Rahmen eines multimodalen Therapiekonzepts in der Klinik für Mund-, Kiefer- und Plastische Gesichtschirurgie am Klinikum der Johann Wolfgang Goethe-Universität in Frankfurt am Main. Alle Patienten hatten eine intraarterielle Induktionschemotherapie erhalten gefolgt von einer chirurgischen Intervention. Spätestens nach sechs Wochen erfolgte die adjuvante Bestrahlung beziehungsweise Radiochemotherapie (Maximalvariante). 56% der Patienten erhielten die Maximalvariante.
Die allgemeine pathologische Ansprechrate nach intraarterieller Induktion lag bei 39% (2%= pCR, 37%= pPR). 59% der Patienten zeigten kein Ansprechen auf die Induktion (pSD) und 2% zeigten eine Progression (pPD). Die Expressionsraten der einzelnen Biomarker wurden jeweils vor und nach intraarterieller Induktionschemotherapie bestimmt. Die statistische Analyse erfolgte univariat mittels Wilcoxon-Mann-Whitney-U-Test und Wilcoxon-matched-pairs-Test. Für Survivin, Ki-S2, OSF-2 und EGFR konnten signifikante Unterschiede nach Induktion verzeichnet werden, die Expressionsrate stieg für Survivin Kern (p= 0,0001), OSF-2 (OSF-2 Zytoplasma, p= 0,0067; OSF-2 Membran, p= 0,0001) und EGFR (p= 0,039) signifikant an. Für Ki-S2 nahm die Expressionsrate signifikant ab (p= 0,001).
In der Vergleichsgruppe Responder versus Non-Responder konnten sowohl in der diagnostischen Primärtumorbiopsie als auch im OP-Präparat des Primärtumors nach Induktion keine signifikanten Unterschiede zwischen Respondern und Non-Respondern in den Expressionsraten festgestellt werden. Für Survivin Zytoplasma lagen die Expressionsraten für die Responder-Patienten vor und nach Induktion im oberen Bereich. Für PTEN konnte bei 75% der Patienten ein Expressionsverlust verzeichnet werden. Damit konnte in der hier durchgeführten Studie kein Biomarker detektiert werden, welcher für eine signifikante Vorhersage zur Responserate herangezogen werden könnte.
Die Änderung der Expressionsraten von Biomarkern bei oralen und oropharyngealen Plattenepithelkarzinomen nach intraarterieller Induktionschemotherapie ist ein Befund, der an ähnliche Beobachtungen nach neoadjuvanter Chemotherapie z. B. beim Mammakarzinom anknüpft und darum weiter verfolgt werden sollte.
The fruit fly Drosophila melanogaster is one of the most important biological model organisms, but only the comparative approach with closely related species provides insights into the evolutionary diversification of insects. Of particular interest is the live imaging of fluorophores in developing embryos. It provides data for the analysis and comparison of the threedimensional morphogenesis as a function of time. However, for all species apart from Drosophila, for example the red flour beetle Tribolium castaneum, essentially no established standard operation procedures are available and the pool of data and resources is sparse. The goal of my PhD project was to address these limitations. I was able to accomplish the following milestones:
- Development of the hemisphere and cobweb mounting methods for the non-invasive imaging of Tribolium embryos in light sheet-based fluorescence microscopes and characterization of most crucial embryogenetic events.
- Comprehensive documentation of methods as protocols that describe (i) beetle rearing in the laboratory, (ii) preparation of embryos, (ii) calibration of light sheet-based fluorescence microscopes, (iv) recording over several days, (v) embryo retrieval as a quality control as well as (vi) data processing.
- Adaption of the methods to record and analyze embryonic morphogenesis of the Mediterranean fruit fly Ceratitis capitata and the two-spotted cricket Gryllus bimaculatus as well as integration of the data into an evolutionary context.
- Further development of the hemisphere method to allow the bead-based / landmark-based registration and fusion of three-dimensional images acquired along multiple directions to compensate the shadowing effect.
- Development of the BugCube, a web-based computer program that allows to share image data, which was recorded by using light sheet-based fluorescence microscopy, with colleagues.
- Invention and experimental proof-of-principle of the (i) AGameOfClones vector concept that creates homozygous transgenic insect lines systematically. Additionally, partial proof-of-principle of the (ii) AClashOfStrings vector concept that creates double homozygous transgenic insect lines systematically, as well as preliminary evaluation of the (iii) AStormOfRecords vector concept that creates triple homozygous transgenic insect lines systematically.
- Creation and performance screening of more than fifty transgenic Tribolium lines for the long-term imaging of embryogenesis in fluorescence microscopes, including the first Lifeact and histone subunit-based lines.
My primary results contribute significantly to the advanced fluorescence imaging approaches of insect species beyond Drosophila. The image data can be used to compare different strategies of embryonic morphogenesis and thus to interpret the respective phylogenetic context. My technological developments extend the methodological arsenal for insect model organisms considerably.
Within my perspective, I emphasize the importance of non-invasive long-term fluorescence live imaging to establish speciesspecific morphogenetic standards, discuss the feasibly of a morphologic ontology on the cellular level, suggest the ‘nested linearly decreasing phylogenetic relationship’ approach for evolutionary developmental biology, propose the live imaging of species hybrids to investigate speciation and finally outline how light sheet-based fluorescence microscopy contributes to the transition from on-demand to systematic data acquisition in developmental biology.
During my PhD project, I wrote a total of ten manuscripts, six of which were already published in peer-reviewed scientific journals. Additionally, I supervised four Master and two Bachelor projects whose scientific questions were inspired by the topic of my PhD work.
Diese Untersuchung beschäftigt sich mit der Morphosyntax pronominaler Partitivanaphern im kontinentalwestgermanischen Dialektkontinuum im Allgemeinen und im deutschen (insbesondere hessischen) Sprachraum im Speziellen. Schwerpunkte sind dabei die sprachgeografische Verteilung, die morphosyntaktische Variation und die strukturelle Analyse pronominaler Ausdrucksmittel der unbestimmten Teilmenge. Es werden traditionell dialektologische Erkenntnisinteressen (Raumstruktur syntaktischer Variablen und Verlauf syntaktischer Isoglossen) mit Fragestellungen der (theoretisch orientierten) Syntaxforschung verbunden. Außerdem erfolgt erstmals eine wirklich sprachübergreifende Behandlung der verschiedenen Systeme pronominaler Partitivität, zum einen innerhalb der (West-)Germania, zum anderen durch den Einbezug (zentral-)romanischer Sprachen, um Unterschiede und Gemeinsamkeiten auf der Mikro- und Mesoebene herauszuarbeiten. Die gewählte Methode ist nicht nur kontrastiv, sondern auch geolinguistisch fundiert, insofern als morphologische Formen und syntaktische Variation im Raum abgebildet werden, wodurch nicht zuletzt auch interessante Korrelationen und Anti-Korrelationen in den Daten bestätigt bzw. entdeckt werden konnten.
Nach einer Gegenstandsbestimmung der morphosyntaktischen Variable und ihrer Varianten (Inventarisierung und Typisierung) sowie des Variationsrahmens (areal-horizontal, vertikal, morphosyntaktisch, historisch, idiolektal etc.) wird zunächst das DFG-Projekt „Syntax hessischer Dialekte“ (SyHD) vorgestellt, das die empirische Basis zur Untersuchung lieferte. Dabei werden generelle und spezifische Fragen der Datengewinnung (multivariate Methode mit indirekten und direkten Elementen) sowie der Datenanalyse und -interpretation (Instrument der Kartierung) diskutiert. Den Hauptteil der Arbeit bildet die diatopische, diachrone und distributionell-syntaktische Variation der Systeme pronominaler Partitivität. Als die vier Hauptstrategien zum Ausdruck partitiv-anaphorischer Referenz innerhalb des deutschsprachigen Gebiets finden sich das konservative System versteinerter Pronominalgenitive wie „(d)(e)r(e)“, „s(e)n“ und „es“ (vor allem in einem mitteldeutschen Streifen und randdialektal) - Relikte eines ehemals umfassenderen genitivbasierten Systems der Partitivität -, das sprachgeschichtlich junge und typologisch auffällige indefinit-partitive Pronomen „welch-“/„we(l)k-“ (im Nieder-/Norddeutschen und in der Standardsprache) sowie schließlich die innovativen Systeme der Null-Anapher (im Alemannischen bzw. Südwesten) und des generalisierten Indefinitpronomens „ein-“ (im Bairischen bzw. Südosten). Wenngleich sich diese areale Distribution im zentral gelegenen und daher unter dem Einfluss nahezu aller Strategien stehenden Hessen als Kleinraum bestätigt - mit Ausnahme der weitgehenden Abwesenheit des „ein“-Systems -, so zeigen sich doch einige überraschende Ergebnisse wie beispielsweise ein kategorialer Unterschied nach Numerus und zum Teil Genus bei der Vitalität der Genitivpartikeln. Sprachhistorisch können zwei Arten von Wandel beim Genitiv-System identifiziert werden: systeminterne Veränderungen (durch Merkmals- oder Formverlust) und systemexterne Verdrängungsprozesse (durch Ausbreitung der innovativen Ausdrucksformen, was in einem Dialekt bzw. intraindividuell zu konkurrierenden oder Mischsystemen führen kann). Darüber hinaus sind mit Blick auf die Art und Weise der Veränderungen für Sprachwandelprozesse allgemein typische zyklische Abfolgen von Abschwächung und Verstärkung erkennbar. In Bezug auf die syntaktische Distribution werden insbesondere die Genitivanaphern auf ihre Kompatibilität mit nominalen Modifikatoren wie Numeralien/(schwachen) Quantoren, „flektierten“ Zahlwörtern (Schwa), Adjektiven, verschiedenen Arten von Präpositionalphrasen sowie Relativ- vs. Komplementsätzen hin untersucht und - funktional wie formal - mit ihrem niederländischen partitiven/quantitativen Äquivalent „er“ sowie den romanischen, in ein partitives System integrierten Pronomina fr. „en“/it. „ne“ verglichen. Für die deutschen Partitivanaphern ergibt sich daraus Evidenz für zwei unterschiedliche Pronominalisierungsebenen. Abschließend wird das Phänomen in die allgemeine Diskussion um nominale Ellipsen eingebettet (Elision und Pronominalisierung). Aufgrund der Evaluation der in der Literatur diskutierten Lizenzierungsansätze anhand neuer dialektaler und typologischer Daten wird hier ein flexions-/kongruenzbasierter Ansatz favorisiert (Rolle von Adjektivmorphologie bzw. generell von unterschiedlichen Flexionssystemen, etwa im Deutschen vs. Englischen).
The human brain is one of the most complex biological systems. More than 100 billion neurons build networks that control basic body functions and highly coordinated movements, enable us to express emotions, feelings and thoughts and to store memories over years and even throughout life time. Ultimately, “We are who we are because of what we learn and what we remember” (Kandel 2006). Under pathological conditions, the brain function is challenged. Most if not all neurological diseases have in common that they are either triggered and/or accompanied by inflammatory processes of brain tissue, referred to as neuroinflammation. Such inflammatory processes directly affect an elementary neural mechanism relevant for learning and memory: synaptic plasticity. Indeed, neurons are highly dynamic structures and able to respond to specific stimuli with morphological, functional and molecular adaptations that modify the strength and number of neuronal contact sides (synapses). Hence, the main motivation of this thesis was to identify the neural targets through which inflammation affects brain function and synaptic plasticity in particular. The principles of synaptic plasticity have been studied intensively in the hippocampus, an anatomical structure localized within the temporal lobes that is essential for the consolidation of memories and spatial navigation. Synaptic plasticity is coordinated by complex interactions of thousands of molecules and proteins. Among those proteins, synaptopodin (SP) is localized at a strategic position within excitatory synapses and has been shown to be fundamentally involved in the regulation of synaptic plasticity.
To induce neuroinflammation and to study its effects on SP as well as synaptic plasticity, the classic model of lipopolysaccharide (LPS) was applied. This thesis discloses that inflammatory processes impair the ability of neurons to express hippocampal synaptic plasticity in vivo, which is accompanied by a downregulation of SP-mRNA and protein level in the mouse hippocampus, indicating that SP is one of the cellular targets through which inflammatory signaling pathways affect synaptic plasticity and hence neural function. To learn more about the cellular and molecular mechanisms, an in vitro LPS model was established using entorhino-hippocampal organotypic slice cultures (OTCs).
While confirming the major effect of LPS on SP, this thesis furthermore shows that neuroinflammation crucially involves the cytokine TNFα to transduce its effects on SP, and that microglial cells are the main source of TNFα production under inflammatory conditions. In an attempt to learn more about the mechanisms that are affected under conditions of neuroinflammation effects of retinoic acid (RA), a vitamin A derivate were tested. This is mainly because SP as well as RA have been shown to modulate synaptic plasticity through the accumulation of glutamate receptors at the postsynaptic site: SP via the association with the actincytoskeleton as well as intracellular calcium stores, and RA directly via the modulation of local protein synthesis within dendrites. Indeed, in slice cultures exposed to RA, hippocampal SP cluster size is upregulated, both in vitro and in vivo. Intriguingly, a lack of SP prevents RA-induced synaptic strengthening of hippocampal dentate granule cells in OTCs. This suggests a direct contribution of SP in RA-dependent synaptic plasticity. Interestingly, co-immunoprecipitation of SP-mRNA together with the RA-receptor alpha (RARα) further implies that RA directly controls synaptic plasticity via regulation of SP-protein expression. It is therefore interesting to speculate that RA may increase SP expression or prevent its reduction and thus alterations in synaptic plasticity under conditions of neuroinflammation. Taken together, this thesis identifies SP as an important neuronal target of TNFα-mediated alterations in synaptic plasticity. Moreover, the work on RA indicates that SP affects the ability of neurons to express synaptic plasticity by modulating/mediating local protein synthesis. Since neuroinflammatory processes are an elementary concomitant feature and/or cause of neurological diseases, I am confident that future work on the effects of inflammatory processes on brain function may provide the perspective in devising new therapeutic strategies for the treatment of neuropathologies such as Alzheimer’s disease, multiple sclerosis, epilepsy or stroke, by targeting SP expression and SP-mediated synaptic plasticity.
Synthetische Cannabinoide sind strukturell variable Substanzen, die an die gleichen CB1- und CB2-Rezeptoren binden wie ∆9-THC und bei Konsumenten vergleichbare Symptome auslösen. Die psychoaktiven Substanzen werden Kräutermischungen beigemengt und gelten unter Konsumenten vermeintlich als ungefährlich. Aufgrund erhöhter Bindungsaffinitäten zu den Cannabinoidrezeptoren sind viele synthetische Cannabinoide potenter als ∆9-THC und lösen daher stärkere Symptome aus als der Konsum von ∆9-THC. Der Konsum von synthetischen Cannabinoiden führt zu zentraler Sedierung und Beeinträchtigungen in der Feinmotorik; dies ist nicht mit dem sicheren Führen eines Fahrzeugs kompatibel. Durch die strukturelle Varianz von synthetischen Cannabinoiden und ein stetig wechselndes Spektrum aktuell auf dem Drogenmarkt erhältlicher Substanzen ist der generelle Nachweis des Konsums von synthetischen Cannabinoiden limitiert. Bislang sind synthetische Cannabinoide in Blut oder Urin nur bei bekannter Struktur und vorhandenen Referenzmaterialien mit Sicherheit nachweisbar. Studien zur Prävalenz von synthetischen Cannabinoiden sind rar und basieren häufig auf Umfragen, da auf Probenanalysen basierende Studien meist nicht alle aktuellen synthetischen Cannabinoiden erfassen. In der vorliegenden Arbeit wurde die Prävalenz von synthetischen Cannabinoiden unter Fällen aus Verkehrs- und Kriminaldelikten des Jahres 2010 in Hessen bestimmt, um zu zeigen wie häufig synthetische Cannabinoide in forensischen Analysen unentdeckt bleiben. Die analytische Methode wurde entwickelt sowie validiert und war für alle 31 synthetischen Cannabinoide, die bis 2011 auf dem Drogenmarkt erhältlich waren, sensitiv. Eine repräsentative Stichprobe bestehen aus 20% aller Blutproben (422 aus 2201) des Jahres 2010 wurde nachuntersucht. Weitere Auswertungen wurden auf Basis von Fallakten durchgeführt. Unter den analysierten Blutproben enthielten 12 Proben synthetische Cannabinoide, woraus für das Jahr 2010 eine Prävalenz von synthetischen Cannabinoiden unter Fällen aus Verkehrs- und Kriminaldelikten von 2,8% ermittelt wurde. Das am häufigsten detektierte synthetische Cannabinoid war JWH-122. Die Konzentrationen lagen überwiegend im niedrigen Bereich (unter 1 ng/ml bis 3 ng/ml). In einem Fall wurde eine vergleichsweise hohe Konzentration des JWH-122 mit circa 73 ng/ml gemessen, wobei neben Apathie keine weiteren Symptome dokumentiert wurden. Alle Konsumenten waren männlich; das Alter lag in 11 Fällen zwischen 18 und 38 Jahren (median 22 Jahre) und die Konsumenten waren Verdächtige von Verkehrsdelikten. Eine weitere positiv getestete Blutprobe stammte aus einem Kriminaldelikt; der Verdächtige war 46 Jahre alt. Die Auswertung der Konsummuster zeigte in 10 von 12 Fällen (83,3%) einen Mischkonsum. Nur in zwei Fällen lag ausschließlicher Konsum von synthetischen Cannabinoiden vor. Die Kombination von synthetischen Cannabinoiden mit ∆9-THC oder Alkohol war mit je vier Fällen häufig. In sechs Fällen wurde eine Vielfalt anderer psychoaktiver Drogen oder Medikamente in den Blutproben nachgewiesen. Die dokumentierten Ausfallserscheinungen waren meist moderat und ließen sich durch die Effekte von Cannabinoiden, Alkohol oder anderen gefundenen Drogen oder Medikamenten erklären. Im Fall eines Konsumenten hat sich nach den Angaben in ärztlichen und polizeilichen Berichten durch den nachgewiesenen Konsum von synthetischen Cannabinoiden eine vorbestehende Psychose verschlimmert. Fazit: Durch die geringe Prävalenz synthetischer Cannabinoide, fehlende routinemäßige Erfassbarkeit sowie Häufigkeit des Mischkonsums müssen Träger von rechtsmedizinischen Instituten in Ausstattung und Personal investieren, um den modernen Ansprüche an die Leistungsfähigkeit gerecht zu werden.
Die Arbeit untersucht am Fall der Religionspolitik in den Verfassungsgebungsprozessen der deutschen Bundesländer, ob Verfassungen eher das Ergebnis von Konflikt oder Konsens sind. Die Länderverfassungen zeigen eine hohe religionspolitische Vielfalt, die in dieser Arbeit erstmals vollständig erhoben und systematisiert wird. Die religionspolitischen Normen der Verfassungen werden vier Typen von Religionspolitik zugewiesen (Statusverleihung, Redistribution, Religionsfreiheit und Restriktion). Für die Verbreitung der einzelnen Normen werden die historischen Verläufe von 1919 bis 2015 analysiert und Trends beschrieben. Für die Erklärung der Unterschiede entwickelt die Arbeit ein ökonomisches Modell des Parteienwettbewerbs, in dem religiöse Parteien, insbesondere CDU und CSU, die zentrale Rolle spielen. In dem Modell wird angenommen, dass religiöse Parteien (einschließlich der Union) nur dann die Interessen nicht- und andersreligiöser Wähler berücksichtigen – wenn dies für ihren Wahlerfolg notwendig ist. Die zentrale Idee des Modells ist, dass religionspolitische Policies unterschiedliche Kosten und Nutzen für religiöse und nichtreligiöse Wähler implizieren. Diesen Kosten und Nutzen müssten religiöse Parteien Rechnung tragen, wenn sie Politikergebnis und Wahlergebnis gleichzeitig optimieren – d.h. rational abwägend agieren. Aus der Überprüfung dieses Modells lässt sich ableiten, ob die Religionspolitik in Verfassungen das Ergebnis offener Verhandlungen mit dem Ziel der Herstellung bzw. Abbildung eines gesellschaftlichen Konsenses sind – oder ob sie vielmehr das Ergebnis harter politischer Auseinandersetzungen sind und die gesellschaftlichen Machtverhältnisse reproduzieren. Je weniger Ersteres und je mehr Zweiteres gegeben ist, desto weniger können Verfassungen voraussetzungslos als Rahmen oder Bezugspunkt eines fairen politischen Wettstreits dienen. Die Arbeit belegt dieses Modell empirisch mit einem Mixed-Methods-Ansatz aus multiplen Regressionsanalysen und fuzzy set Qualitative Comparative Analysis (fsQCA).
Bacteria are highly organized organisms which are able to adapt to and propagate under a multitude of environmental conditions. Propagation hereby requires reliable chromosome replication and segregation which has to occur cooperatively with other cellular processes such as transcription, translation or signaling. Several mechanisms were proposed for segregation of the Escherichia coli (E. coli) chromosome, for example a mitotic-like active segregation model or entropy-based passive chromosome segregation. Another segregation model suggests coupled transcription, translation and insertion of membrane proteins (termed "transertion"), which links the replicating chromosome (nucleoid) to the growing cell cylinder.
Fluorescence microscopy was widely used to provide evidence for a distinct segregation model. However, the dynamic nature of bacterial chromosomes, the small bacterial size and the optical resolution limit of ~ 200-300 nm impair unveiling the underlying mechanisms. With the emergence of super-resolution fluorescence microscopy techniques and advanced labeling methods, a new toolbox became available enabling scientists to visualize biomolecules and cellular processes in unprecedented detail. Single-molecule localization microscopy (SMLM) represents a set of super-resolution microscopy techniques which relies on the temporal separation of the fluorescence signal and detection of single fluorophores. Separation can be achieved using photoactivatable or -convertible fluorescent proteins (FPs) in photoactivated localization microscopy (PALM), photoswitchable organic dyes in direct stochastic optical reconstruction microscopy (dSTORM) or dynamically binding fluorescent probes in point accumulation for imaging in nanoscale topography (PAINT). In all these techniques, the fluorescence emission pattern of single fluorophores is spatially localized with nanometer-precision. An artificial image is finally reconstructed from the coordinates of all single fluorophores detected. This provides a spatial resolution of ~ 20 nm, which is perfectly suited to investigate cellular processes in bacteria. In this thesis, different SMLM techniques were applied to study fundamental processes in E. coli. This includes determination of protein copy numbers and distributions as well as the nanoscale organization of nucleic acids and lipids.
A novel labeling approach was applied and used for super-resolution imaging of the E. coli nucleoid. It is based on the incorporation of the modified thymidine analogue 5-ethynyl-2’- deoxyuridine (EdU) into the replicating chromosome. Azide-functionalized organic fluorophores can be covalently attached to the ethynyl group of incorporated EdU bases using a copper-catalyzed "click chemistry" reaction. Under the investigated growth condition, E. coli cells exhibited overlapping replication cycles, which is commonly referred to as multi-fork replication and enables cells to divide faster than they can replicate the entire chromosome. dSTORM imaging of such labeled nucleoids revealed chromosome features with diameters of 50 - 200 nm, representing highly condensed DNA filaments. Sorting single E. coli cells by length allowed visualizing structural changes of the nucleoid throughout the cell cycle. Replicating nucleoids segregated and expanded along the bacterial long axis, while constantly covering the entire width of the cell. Measuring cell and nucleoid length revealed a relative nucleoid expansion rate of 78 ± 6 %. At the same time, nucleoids populated 63 ± 8 % of the cell length, almost exclusively being localized to the cylindrical part of the cell. This value was hence normalized to the cylindrical fraction of the cell, yielding a value of 79 ± 10 % (nucleoid-populated fraction of the cell cylinder), which is in good agreement with the observed relative nucleoid expansion rate. These results therefore support a growth-mediated segregation model, in which the chromosome is anchored to the inner membrane and passively segregated into the prospective daughter cells upon cell growth. 3-dimensional dSTORM imaging of labeled nucleoids confirmed that compacted nucleoids helically wrap along the inner membrane. Similar results were obtained by imaging orthogonally aligned E. coli cells using a holographic optical tweezer approach.
In order to visualize particular proteins together with the nucleoid, several correlative imaging workflows were established, facilitating multi-color SMLM imaging in single E. coli cells. These workflows bypass prior limitations of SMLM, including destruction of FPs by reactive oxygen species in copper-catalyzed click reactions or incompatibility of PALM imaging with dSTORM imaging buffers. A sequential SMLM imaging routine was developed which is based on postlabeling and retrieval of previously imaged cells. Optimal imaging conditions can be maintained for each fluorophore, enabling to extract quantitative information from PALM measurements while correlating the protein distribution to the nucleoid ultrastructure within the highly resolved cell envelope. Applying this workflow to an E. coli strain carrying a chromosomal rpoC - photoactivatable mCherry (PAmCh) fusion, transcribing RNA polymerase (RNAP) was found to be localized on the surface of nucleoids, where active genes are exposed towards the cytosol. During growth in nutrient-rich medium, the majority of RNAP molecules was bound to the chromosome, thus ensuring that the RNAP pool is equally distributed to the daughter cells upon cell division. This work represented the first triple-color SMLM study performed in E. coli cells. ...
Tissue integrity is defined by the composition and connection of cells as a structural and functional unit. It is modulated by a magnitude of processes including differentiation, survival, controlled death and adhesion of cells. Besides, external factors such as physical forces are also involved. A suitable model system to study all modalities of tissue integrity is the mammary gland. Postnatally and within the reproductive phase, the mammary gland undergoes morphological and functional modifications that periodically loosen or strengthen tissue integrity. An important point in the development of the mammary gland is the regression during weaning, also termed involution. The transition from lactation to involution is important for a controlled loss of tissue integrity. In this transition, collective cell death is initiated but not yet prominent enabling the mammary gland to fully recover lactation.
In this thesis, modalities of tissue integrity were investigated using three-dimensional cell cultures (i.e. spheroids) and the mammary gland as model systems. In the context of this thesis, I established (1) an immunofluorescence staining protocol and its detailed evaluation. Furthermore, I studied (2) the role of cell survival during mammary gland development, (3) the effect of physical forces that modulate tissue integrity and (4) the contribution of proteins to cell adhesion and growth.
Since a homogeneous fluorescence stain of the specimen is necessary for quantitative analysis, an immunofluorescence staining protocol was established to stain large spheroids in toto. The evaluation contributes qualitative and quantitative criteria that judge the specificity, intensity and homogeneity of the stain. Based on this approach, it was possible to demonstrate the morphological and functional characteristics that spheroids share with the mammary gland in vivo. These characteristics included the synthesis of extracellular matrix, the development of polarized acinar structures and lactogenic differentiation.
The role of cell survival during mammary gland development was analyzed by means of the expression profile of the pro-survival protein BAG3. The expression of BAG3 differed in the progress of mammary gland development. While the expression was low during pregnancy, it rose in the lactation phase and peaked within the first days of involution, indicating that BAG3 is associated with early involution in the mammary gland. In vitro experiments related the expression of BAG3 to cell survival in mammary epithelial cells.
Physical forces naturally occur during developmental processes influence tissue integrity during the initiation of mammary gland involution. The influence of physical force applied as compression on mammary epithelial spheroids was investigated. A morphological analysis showed that following a lag, the cell nuclei volume changed upon compression. A short-term compression induced the activation of caspases. A prolonged compression reduced the activity of caspases. This suggests the induction of a process that allows cells the adaption to changing environmental conditions. BAG3 is known to be involved in mechanical stress-induced autophagy, also known as chaperone assisted selective autophagy (CASA). Compression of spheroids did not induce CASA. The experimentally applied strain was not comparable to the strain found in the alveolar cells during involution in vivo. Thus, whether or not CASA is activated during mammary gland involution remains elusive. Nevertheless, the methodical approach to apply compression on spheroids in vitro is a model to study the influence of physical forces on cell aggregates.
Apart from cell survival and physical forces, growth and adhesion of cells affect tissue integrity. A spheroid formation assay and subsequent data analysis and computational modeling enabled the investigation of these processes in a non-adhesive environment. The analysis suggested that spheroid formation follows a reaction-controlled process, in which cells do not necessarily form a connection when they collide. The loss of function of either E-cadherin or actin strongly inhibited the formation of a spheroid. The analysis further revealed that neither E-cadherin nor actin influence the chance of the cells to form a connection when they collide. Both molecules are more important in stabilizing established connections. Depolymerization of microtubules still allowed spheroids to form, but the formation was decelerated and growth of the final spheroids was inhibited. The results from computational modeling suggested that microtubules act on cell adhesion through different mechanisms, which also vary among different cell types. The inhibition of FAK phosphorylation at Y397, a downstream target of integrin signaling, and the analysis of FAK protein levels in spheroids showed that integrin-mediated signaling is not prominent in three-dimensional spheroids formed from non-invasive cells. A deletion of BAG3 gene expression increased the number of dead cells in forming spheroids suggesting that BAG3 predominantly affects cell survival.
The results of this thesis identified and characterized adhesion- and survival-associated proteins that are important for tissue integrity. This thesis suggests that a BAG3-dependent cell survival mechanism is prominent at the beginning of mammary gland involution. Future studies will have to identify the related factors and inducers of tissue integrity loss in the mammary gland. This will shed light on the physiology of the organ and could explain the disorders that destroy its integrity. In addition, this thesis contributes to a better understanding of spontaneous cell aggregation, the aggregate organization and implies a role of cell migration in these processes. Future studies that focus on three-dimensional cell migration could explain, how cell migration is promoted and to which extent it supports tissue integrity.
Background: Minimally invasive coronary artery bypass grafting (MICS CABG) has been introduced to abstain from median sternotomy due to related comorbidities. The aim of this study is to report the long term results of three different MICS CABG strategies: Partial lower sternotomy (PLS), totally endoscopic coronary artery bypass grafting (TECAB) and anterolateral thoracotomy (ALT). Moreover we aimed to compare these surgical approaches in terms of quality of pain and pain intensity.
Methods: From 1997 to 2006, 126 patients underwent MICS CABG surgeries in our department through different surgical approaches: 43 PLS, 63 TECAB and 20 ALT. Preoperative characteristics were similar between groups. There were 90 males (71.4%) and 36 (28.6%) females with a mean age of 62±11 years (Range 36 to 90).
Results: There was no in-hospital mortality. Conversion to minithoracotomy was necessary in 2 (1.6%) patients and conversion to sternotomy was performed in 1 (0.8%) patient. Length of hospital stay was comparable in patients who underwent PLS or TECAB, but both groups had significantly shorter hospital stays than ALT patients (p<0.05). Two patients in group ALT developed temporary neurological complications postoperatively, which was significantly higher than that in groups TECAB (n=0) and PLS (n=0) (p<0.05). Mean follow-up was 12.2±2.1 (range 7.2 to 16.1) years with completed in 81.7 % of the patients. There were 17 late deaths. Freedom from graft problems was 87.5%, 86.5% and 94.7%; freedom from percutaneous coronary interventions (PCI) was 78.1%, 82.7% and 68.4% and freedom from Re-CABG was 100%, 96.1% and 94.7% in PLS, TECAB and ALT group, respectively. Pain intensity was similar between all three groups.
Conclusion: MICS CABG can be performed safely and effectively. Short and long-term outcomes of MICS CABG are comparable with those of the conventional CABG. There were no major differences regarding pain intensity between all three groups, although all three minimally invasive techniques have completely different surgical accesses.
Indian Ocean came into existence with the breakup of Gondwana in the Mesozoic era. The presence of complex aseismic ridges and plateaus in the Indian Ocean makes it the least-understood of all the oceans. Mascarene Plateau, apart from Central Indian Ridge (CIR) running north-south between 2◦N and 25◦S in the Indian Ocean, is one such complex feature in the Indian Ocean that consists of Seychelles microcontinent in the north and the volcanic islands of Mauritius, La Réunion and Rodrigues in the south.
Most of the previous seismological studies on the islands of Mauritius, Rodrigues and Seychelles are restricted as each of them has only one operational permanent station. In the current study, I present the results obtained from the investigations of the seismological data obtained from the deployment of temporary seismic network on Mauritius (November, 2012–August, 2014) and Seychelles (March, 2013–March, 2015) under Réunion Hotspot and Upper Mantle–Réunions Unterer Mantel (RHUM–RUM) project and later in Rodrigues (September, 2014–June, 2016) under a collaborative project between Goethe-Universität, Frankfurt, Germany and Mauritius Oceanography Institute (MOI), Mauritius. Additional data from the permanent stations were also used in this study. The investigations and results are presented under three themes, namely: (1) crustal structure beneath Mauritius, (2) upper mantle anisotropy below Mauritius, Rodrigues and Seychelles and (3) intraplate seismicity in the Rodrigues–CIR region.
Upper mantle anisotropy in south-west Indian Ocean region are very limited, especially from the islands of Mauritius and Rodrigues. With the new data from the seismic stations deployed in Mauritius and Seychelles, under RHUM–RUM, and permanent stations in Rodrigues, I constrain the upper mantle flow pattern beneath these islands. From the joint-splitting analysis, I obtain fast-polarisation direction (φ) dominant in N80◦E and delay time (δt) of ≈0.85 s for Mauritius and φ tending east–west in Rodrigues with δt of ≈1.1 s. Parabolic asthenospheric flow model explains the orientation of the fast-polarisation direction beneath Mauritius, whereas deep mantle circulation patterns best explain the horizontal alignment of the fast-polarisation direction in Rodrigues. From Seychelles data, the results show φ trending NE and δt ≈0.74 s, even for the island close to Amirante Ridge, suggesting an asthenospheric deformation induced by relative motion between the plate and the deep mantle flow.
It has recently been suggested that the volcanic island of Mauritius may be underlain by a remnant of continental origin termed “Mauritia.” To constrain the crustal thickness beneathMauritius, I analysed data from 11 land stations, 10 of which were deployed recently under the RHUM–RUM project. From the recordings, I obtained 382 P-receiver functions. On the obtained receiver functions, I applied the H–κ stacking technique and derived the crustal thickness of ≈10–15 km. I observe a considerable variation in the VP/VS ratio caused by a lack of clear multiples. Using forward modelling of receiver functions, I show that the lack of clear multiples can be explained by a transitional Moho, where the velocity increases gradually. The modelling further indicates that the thickness of this gradient zone is estimated to be ≈10 km. I argue that my findings suggest oceanic crust thickened by crustal underplating due to the mantle plume currently located beneath La Réunion.
Seismicity around Rodrigues Island is generally associated with events recorded by the global networks along the CIR. Using seismological array techniques on the data collected by the temporary deployment of seismic array on Rodrigues Island for a period of 22 months (September, 2014–June 2016), 62 new events were located, which were not reported by any global network. Determination of backazimuth and apparent velocity were performed by applying array methods in the time-domain instead of the more conventional frequency-domain analysis. Event distances were calculated using a 1-D velocity model and the measured travel-time differences between S- and P-wave arrivals. Local magnitudes of the events were obtained by removing the velocity response from the seismographs and then convolving with Wood–Anderson transfer function to obtain ground motion in nanometers. Most of the newly-detected events are located off the ridge axis and can be classified as intraplate events. Three different seismic clusters were observed around the island. Most of the events were localised in the north-east of Rodrigues at a distance of ≈138 km from the reference station. A distinguishable swarm of earthquakes was observed on the west of the spreading segment from March to April 2015. The local magnitudes (ML) of the events varied between 1.6 and 3.7.
Introduction:
The evolutionary patterns of symbiotic organisms are inferred using cophylogenetic methods. Congruent phylogenies indicate cospeciation or host-switches to closely-related hosts, whereas incongruent topologies indicate independent speciation. Recent studies suggest that coordinated speciation is a rare event, and may not occur even in the highly specialized associations. The cospeciation hypothesis was mainly tested for free-living mutualistic associations, such as plant-pollinator interactions, and host-parasitic systems but was rarely tested on obligate, mutualistic associations involving intimate physiological interactions. Symbionts with lower partner selectivity may not experience coordinated speciation due to frequent switching of partners. On the other hand, symbionts with high partner selectivity may influence each other’s evolution owing to the highly interdependent lifestyles. Symbiont association patterns are also influenced by habitat and it has been proposed that symbiotic interactions are stronger in warm regions as compared to cooler regions (also referred as latitudinal gradient of biotic specialization). This hypothesis however, has recently been challenged and it has been suggested that a gradient of biotic specialization may not exist at all. Reliable species concepts are a prerequisite for understanding the association and evolutionary patterns of symbiotic organisms. The species concepts of many groups traditionally relied on the morphological species concept, which may not be adequate for distinguishing species due to the: i) homoplasious nature of morphological characters, an due to the inability to distinguish cryptic species. Thus phylogenetic species concept along with coalescent-based species delimitation approaches, which utilize molecular data for inferring species boundaries have been used widely for resolving taxonomic relationships. Lichens are obligatory symbiotic associations consisting of a fungal partner (mycobiont) and one or more photosynthetic partners, algae, and/or cyanobacteria (photobionts). I used the lichen forming fungal genus Protoparmelia as my study system, which consists of ~25-30 previously described species inhabiting different habitats, from the arctic to the tropics. This makes Protoparmelia an ideal system to explore the association and evolutionary patterns across different macrohabitats.
Objectives:
The objectives of this thesis were to 1. Elucidate the phylogenetic position of Protoparmelia within Lecanorales, and infer the monophyly of Protoparmelia; 2. Understand species diversity within Protoparmelia s.str. using coalescent-based species delimitation approaches; and 3. To identify the Trebouxia species associated with Protoparmelia using phylogenetic and species delimitation approaches and to infer the association and cophylogenetic patterns Protoparmelia and Trebouxia in different macrohabitats.
Results and discussion:
Chapter 1: Taxonomic position of Protoparmelia
In the first part of this study I explored the taxonomic position of Protoparmelia within the order Lecanorales. Overall this study included 54 taxa from four families, sequenced at five loci (178 sequences). I found Protoparmelia to be polyphyletic and sister to Parmeliaceae.
Chapter 2: Multilocus phylogeny and species delimitation of Protoparmelia spp.
In this part of the study, I identified and delimited the Protoparmelia species forming a monophyletic clade sister to Parmeliaceae i.e., Protoparmelia sensu stricto group, based on the multilocus phylogeny and coalescent-based species delimitation approaches. I included 18 previously described and three unidentified Protoparmelia species, which represents ~70% of the total described species, and 73 other taxa, sequenced at six loci. I found that the sensu stricto group comprised of 25 supported clades instead of 12 previously described Protoparmelia species. I tested the speciation probabilities of these 25 clades using species delimitation softwares BP&P and spedeSTEM. I found nine previously unrecognized lineages in Protoparmelia and I propose the presence of at least 23 species for Protoparmelia s.str., in contrast to the 12 described species included in the study.
Chapter 3: Association and cophylogenetic patterns of Protoparmelia and its symbiotic partner Trebouxia
...
Photolabile Schutzgruppen haben sich im Laufe der letzten Jahre als wertvolle Werkzeuge für die Untersuchung und Regulation biologischer Prozesse etabliert. Dabei wird die photolabile Schutzgruppe auf geeignete Weise mit Biomolekülen verknüpft, sodass deren Funktion temporär deaktiviert wird. Durch Bestrahlen mit Licht geeigneter Wellenlängen wird die photolabile Schutzgruppe entfernt und die Aktivität des Biomoleküls bzw. des zu beobachtenden Prozesses wiederhergestellt. Die Grundlagen der Verwendung photolabiler Schutzgruppen im biologischen Kontext wurden in zwei Pionierarbeiten 1977 von J.W. ENGELS und 1978 von J.F. HOFFMAN gelegt. Davon ausgehend haben sich zahlreiche Anwendungen photolabiler Schutzgruppen für biologisch interessante Molekülklassen entwickelt. Auf dem speziellen Gebiet der Nukleinsäuren wurden in den letzten Jahren einige fundamentale Mechanismen entdeckt und aufgeklärt, die nicht zuletzt auch therapeutisch interessante Anwendungsmöglichkeiten für photolabile Schutzgruppen bieten. Hierbei stellt das An-/Aus-Schaltverhalten von Nukleinsäuren jedoch ein nicht-triviales Problem dar. Selbst der gezielte Einbau einer einzelnen photolabilen Schutzgruppe in ein multifunktionales Oligonukleotid führt in der Regel nämlich nicht zu einer vollständigen Deaktivierung dessen. Ein multipler Einbau photolabiler Schutzgruppen entlang der Sequenz eines funktionellen Oligonukleotids schaltet die Hintergrundaktivität im deaktivierten Zustand zwar vollständig aus, allerdings müssen in diesem Fall hohe Bestrahlungsintensitäten bzw. –dauern für das Entfernen aller photolabilen Modifikationen angewendet werden. Dadurch geht zum einen die Zeitauflösung der lichtgeschalteten Prozesse verloren, nicht zuletzt erhöht sich dabei aber auch das Risiko von lichtinduzierten Schäden am biologischen System. Das Kernthema der vorliegenden Dissertation war es daher, neue Architekturen für den Aufbau photoaktivierbarer Oligonukleotide zu entwickeln.
Das erste große Projekt basierte auf der Annahme, dass sich Duplexstrukturen, die für die Funktion vieler Nukleinsäuremechanismen fundamental sind, durch Zyklisierung von Oligonukleotiden global destabilisieren und damit effizienter photoaktivieren lassen, als durch lokalen Einbau einzelner photolabiler Schutzgruppen in Oligonukleotide. Hierzu wurden geeignete Alkin-Modifikationen an photolabile Nitrobenzyl- und Cumarin-Schutzgruppen angebracht und diese an die Nukleobasen verschiedener DNA-Bausteine geknüpft. Es ist daraufhin gelungen, Oligonukleotide mit je zwei photolabilen Alkin-Modifikationen herzustellen und diese intrasequentiell über eine Cu(I)-katalysierte Click-Reaktion mit einem Bisazid-Linker zu zyklisieren. Die so erhaltenen Oligonukleotide wiesen dramatisch erniedrigte Schmelzpunkte gegenüber den nativen Duplexen, sowie gegenüber den zweifach photolabil geschützten Oligonukleotiden auf. Dabei wurde außerdem festgestellt, dass Zyklisierungsparameter wie die Linkerlänge, -polarität und –flexibilität und die Wahl der photolabilen Schutzgruppe keinen signifikanten Einfluss auf die Duplexstabilität hat. Über einen Bereich von Ringgrößen zwischen ca. 11-21 Nukleotiden wurden die niedrigsten Duplexstabilitäten beobachtet. Sehr kleine, sowie große Ringe ab 30 Nukleotiden wiesen dagegen höhere Stabilität auf.
Da mit dem entwickelten Zyklisierungskonzept auch mehrere Ringstrukturen innerhalb einer Oligonukleotidsequenz aufgebaut werden können, wurde im nächsten Schritt eine photoaktivierbare Variante des C10-Aptamers hergestellt, welches selektiv gegen Burkitt’s Lymphomzellen bindet. Dieses 90-mer DNA-Oligonukleotid wurde an drei Stellen photolabil Alkin-modifiziert und infolge mit einem Trisazid-Linker zu einer bizyklisierten Struktur verknotet. Mit Hilfe von Fluoreszenzmikroskopie-Experimenten konnte demonstriert werden, dass das durch eine solche „Photo-Klammer“ deaktivierte C10-Aptamer keine Bindungsaffinität gegenüber Burkitt’s Lymphomzellen aufweist, die Bindungsaktivität jedoch nach Belichten wiederhergestellt werden kann. Mit Atomkraftmikroskopie-Experimenten ist es darüber hinaus gelungen, die Photoaktivierung des verknäuelten C10-Aptamers mit molekularer Auflösung abzubilden. Mit diesem Ergebnis können nun lange funktionelle Oligonukleotide auf definierte Weise photoaktivierbar gestaltet werden, insbesondere auch dann, wenn keine (Informationen über) funktionelle Sekundärstrukturen existieren.
...
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine "Schutzfunktion" vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste. Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
QCD matter is expected to exist in different phases, when heated to high temperatures and getting highly compressed. Each phase could be characterized by distinct properties. A way to access extreme phases of matter in the laboratory are heavy-ion collisions at (ultra-)relativistic energies. During the collision, the temperature and density is evolving and reaches a maximum temperature and density far beyond the ground state of matter. The matter properties depend on the incident collision energy. Typically, a collision is separated into three collisions stages, namely first chance collisions (I), hot and dense stage (II) and freeze-out stage (III). Out of those, the second one is of major interest, since the extreme states of matter are generated within. For this reason, the most prominent change of the hadrons is expected to appear there in. Those changes are caused by i.e. modification of the hadronic spectral function. However, to retrieve such information is complicated. Hadrons are strongly interacting particles and therefore, carry little information about the hot and dense stage. For that purpose, decays of hadrons (low-mass vector mesons) to e+e- pairs via a virtual photon, so-called dielectrons, are an ideal probe. Electrons and positrons do not interact strongly and transport the information about the hot and dense stage nearly undisturbed to the detector. Unfortunately, the production of dielectrons is suppressed by a branching ratio of ≈ 10^(-5) and requires a precise lepton identification. Nonetheless, previous experiments have extracted a dilepton signal and observed in the low-mass range an excess over the hadronic cocktail. Latter one is expected to be caused by thermal radiation induced by the medium. Up to now, experiments conducted dilepton measurements with a focus on larger collision energies and large collision systems. Measurements of dielectrons at collision energies of around 1-2A GeV were only conducted for small and medium size collision systems. HADES continued the systematic studies by a measurement of Au+Au collisions at 1.23A GeV.
The detection of dielectrons requires detectors that handle high data rates and specific detectors for a high purity lepton identification. In HADES, the strongest separation of electrons or positrons from the hadronic background is provided by a ring imaging Cherenkov detector (RICH). Its electron identification is based on Cherenkov photons, that are emitted in ring like patterns. In this work a new approach, using the time-of-flight information to preselect electrons and the reconstructed particle trajectory to estimate ring positions, is utilized to improve the lepton identification. The concept of the so-called backtracking algorithm will be explained and applied to e+e- identification in Au+Au collisions. The whole analysis chain comprises single lepton identification, pair reconstruction and correction for efficiency and acceptance losses. The final pair spectra will be presented in form of their invariant mass, pt, mt and helicity distributions. Subsequently, transport model calculations as well as results from the recently developed coarse-grained transport approach will be compared to the dielectron spectra. Moreover, the centrality dependence of the excess yield and true (not "blue-shifted") temperature of the fireball will be presented. The results will be put in context to measurements of lighter collisions systems and at higher energies.
Im Rahmen dieser Arbeit wurden neue Ansätze zur Optimierung eines Alvarez Beschleunigers für Schwerionen untersucht. Dabei dient die Alvarez-Sektion des GSI UNILAC als Untersuchungsfeld, da für den Injektionsbetrieb für FAIR eine Erneuerung dieser Sektion erforderlich ist. Dies wird durch einen neuen und optimierten Alvarez-Beschleuniger gewährleistet, wobei Effizienz und Feldstabilität sowie hohe Verfügbarkeit eine wichtige Rolle spielen. Dazu wurden im Rahmen dieser Arbeit wichtige Simulationsrechnungen durchgeführt, ein Messaufbau zum experimentellen Test eines neuartigen Konzepts zur Feld-Stabilisierung ausgelegt, in Betrieb genommen und anhand von Messungen an einem speziell dafür entwickelten Resonatormodell verifiziert.
Ziel dieser Arbeit war es die experimentelle Demonstration des neuen Konzepts zur Feldstabilisierung eines Resonators. Es sollte geprüft werden, ob die zuvor durchgeführten Simulationen die realen Felder hinreichend zuverlässig vorhersagen. Diese experimentelle Prüfung ist angesichts der sehr hohen Baukosten eines realen Resonators von mehreren Millionen Euro unerlässlich. Vor Beginn dieser Arbeit war ein geeigneter Messaufbau, d.h. im Wesentlichen ein dediziertes Resonator-Modell, nicht verfügbar. Es galt ein Modell zu entwickeln, dessen Geometrie seht gut durch Simulationen modelliert werden kann, dessen Aufbau es aber trotzdem gestattet, eben diese Geometrie lokal zu variieren, um den angestrebten Effekt der Feld-Stabilisierung zu erreichen.
Aufgrund von Fertigungs- sowie Justage-Toleranzen gibt es Störungen der Feldhomogenität auf der Strahl- bzw. Resonatorachse. Die Feldhomogenität quantifiziert die Fluktuationen der tatsächlichen Feldstärke bezüglich des Idealwertes. Ein perfekt homogenes Feld weist keine Abweichungen auf. Bei einer lokalen Störung ist die Feldveränderung am Ort der Störung maximal und verringert sich mit dem Abstand von dieser. Es entsteht eine Verkippung des Feldes. Die Feldverkippung ist definiert als die durch die Störung verursachte Feldabweichung normiert auf die ungestörte Feldverteilung sowie auf die damit verbundene Änderung der Modenfrequenz. Letztere wird mit Tauchkolben kompensiert; die Feldhomogenität allerdings kann nicht wieder hergestellt werden. Die Feldhomogenität muss durch eine andere Maßnahme sichergestellt werden. Bei Alvarez-Kavitäten mit einem Tankradius R < 0,4m werden „post-coupler“ eingesetzt. Post-coupler sind dünne zylinderförmige Kupferstangen die seitlich an die Driftröhren herangefahren werden und an die Resonanzmode des Beschleunigers koppeln. Gleichzeitig wird die Sensibilität auf Störungen im Tank verringert, sodass die homogene Feldverteilung auch bei Störungen gut erhalten bleibt. Bei Beschleunigerstrukturen mit größeren Tankradien werden die post-coupler zu lang und erfordern einen zu großen Aufwand in der Konstruktion. In dieser Arbeit wurde eine alternative Methode für die Stabilisierung der Feldverteilung untersucht, welche die Winkelposition der Driftröhrenstützen nutzt.
Der in dieser Arbeit realisierte Resonator erlaubt die freie Einstellung der Winkel der Stützen sowie die exakte Justage der Driftröhren auf der Strahlachse. Es wurde ein Aluminium-Modell im Maßstab 1:3 zum realen Alvarez-Resonator gebaut. Dieser hatte zunächst eine Länge von ∼ 525mm und neun Driftröhren. Das Modell ist mit einem Profil der Geschwindigkeit der zu beschleunigenden Ionen ausgestattet, sodass die Driftröhren sowie die Spaltabstände entlang des Resonators länger werden. Mittels Simulationen wurden diverse Stützenkonfigurationen ausgewählt, die in den Messungen getestet wurden.
Mit dem Modell konnte gezeigt werden, dass bei bestimmten Stützenanordnungen die nächst höheren Moden weiter von der Betriebsmode entfernt werden können. Die besten Ergebnisse lieferte die Stützenkonfiguration mit fünf nach unten und vier nach oben orientierten Stützenpaaren (V-Stützen-Konfiguration 5+4). Hier liegt die nächst höhere Mode in den Messungen um mehr als 160MHz von der Grundfrequenz (326,7MHz) entfernt (Vergleich originale V-Stützen-Konfiguration: nächste Mode liegt 88MHz von der Grundmode entfernt). Wichtig ist die Eigenschaft der Modenseparation vor allem für den realen Einsatz der Kavität, da hier die Moden nur um wenige MHz voneinander entfernt liegen und dies zu Störungen im Betrieb des Resonators bei hoher HF-Leistung führen kann. Bei ungenügender Modenseparation wird die eingekoppelte HF-Leistung vom Resonator reflektiert. Mitunter können die erforderlichen Felder der Betriebsmode nicht erzeugt werden.
Im Falle einer Feldverkippung stimmt die reale Ionengeschwindigkeit entlang des Tanks nicht mehr mit der bei der Auslegung angenommenen überein. Das führt zu einer Verringerung der longitudinalen Strahlqualität bezüglich der erreichbaren Energieschärfe.
Zur systematischen Prüfung der Methode zur Feldstabilisierung wurden definierte Störungen in den Tank eingebaut. Die erste Driftröhre wurde jeweils um 1, 2 und 3mm verlängert. Da die Zahl der Zellen zu gering war für die statistisch signifikante Feldverkippungs-Messung, musste das Modell auf 21 Spalte erweitert werden. Die besten Ergebnisse bzgl. Feld-Stabilisierung lieferte die V-Stützen-Konfiguration 7+7+6. Hier bleibt das Feld trotz Störstelle homogen. Die Feldverkippung kann auf weniger als die Hälfte derjenigen der originalen V-Stützen-Konfiguration reduziert werden. Für den Fall der originalen Stützenkonfiguration erzeugt die oben beschriebene Störung eine Abweichung der Feldhomogenität von ±28%. Mit der in dieser Arbeit optimierten Stützenkonfiguration verändert sich die Feldhomogenität nur um ±9%.
Die Methode zur Feldstabilisierung mit einer optimierten Stützenanordnung ohne den Einsatz von post-couplern konnte am Modell gezeigt werden. Weiterhin wurde eine bessere Effizienz mit Zunahme der Tanklänge verifiziert. Im realen Alvarez-Tank wird die Anzahl der Spalte um einen Faktor 3 größer sein. Damit ergeben sich durch die erhöhte Anzahl zur Verfügung stehenden Stützen zusätzliche Konfigurationen, um eine Feldhomogenität von besser als ±1% zu gewährleisten.
Auf der Basis dieser Untersuchungen ist bei GSI der Bau einer zunächst ca. 2m langen Sektion des neuen Alvarez-DTL mit 11 Driftröhren vorgesehen. Dabei werden Flansche für verschiedene Stützenkonfigurationen integriert. Ziel ist es hierbei die Konstruktion, die Produktion, die Feldabstimmung sowie den Betrieb bei nominalen FAIR-Parametern zu testen. Sind die Tests erfolgreich, kommt diese Sektion bei der ersten Serie für den neuen Beschleuniger zum Einsatz.
Structural biology often employs a combination of experimental and computational approaches to unravel the structure-function paradigm of biological macromolecules. This thesis aims to approach this combination by the application of Pulsed Electron-Electron Double Resonance (PELDOR/DEER) spectroscopy and structural modelling. In this respect, PELDOR spectroscopy in combination with site-directed spin labelling (SDSL) of proteins is frequently used to gain distance restraints in the range from 1.8 to 8 nm. The inter-spin distance and the flexibility of the spin labelled protein domains are encoded in the oscillation and the dampening of the PELDOR signal. The intrinsic flexibility of the commonly used MTSSL (1-Oxyl-2,2,5,5-tetramethylpyrroline-3-methyl) spin label itself can be an obstacle for structural modelling if the flexibility of the label is large compared to the flexibility of the protein domains. In this thesis the investigation of two multi-domain proteins by the 4-pulse PELDOR sequence is presented. At first, the N-terminal polypeptide transport-associated (POTRA) domains of anaOmp85, a rigid three domain protein, giving well-defined PELDOR distance restraints, is investigated. The experimental restraints are used for structure refinement of the X-ray structure and reveal a strong impact of the intrinsic flexibility of MTSSL on the accuracy of structural refinement. The second example, K48-linked diubiquitin, is a highly flexible multi-domain protein on which the flexibility of MTSSL is of minor impact on structural modelling. In this case, the distance restraints are utilized to determine conformational ensembles. Due to the high intrinsic flexibility already characterizing diubiquitin the recently developed 7-pulse Carr-Purcell (CP) PELDOR sequence was applied to investigate longer ubiquitin chains. This sequence enables to measure dipolar oscillations with an extended time window, allowing a good separation between inter- and intramolecular contributions even for long distance and broad conformational distributions, thereby providing an increased accuracy of the obtained distance distributions.
Zur effizienten Beschleunigung von Ionen wird meist nach deren Erzeugung in einer Ionenquelle ein Radio Frequenz Quadrupol verwendet. Die vorliegende Dissertation befasst sich mit Entwicklung, Bau und Messung des Prototyps eines neuartigen Leiter-RFQs, der bei 325 MHz betrieben wird. Der Leiter-RFQ verfügt über ein neuartiges mechanisches Design und versucht die Vorteile der beiden vorrangig im Betrieb befindlichen RFQ Typen, des 4-Rod und 4-Vane RFQs, zu verbinden. Die physikalischen Parameter sind der Spezifikation des RFQs für den geplanten Protonenlinac (p-Linac) am FAIR-Projekt an der GSI Darmstadt entnommen. Darüber hinaus wird der aktuelle Planungs- und Simulationsstand eines modulierten Prototyps mit der vollen Länge von ca. 3,5 m zur Durchführung von Strahltests dargestellt.
Die Modulation molekularer Systeme mit Licht ist ein in den letzten Jahren immer stärker untersuchtes Forschungsgebiet. Es existiert bereits eine große Anzahl an Publikationen, die mittels statischer Spektroskopie und anderer statischer Methoden Einblicke in die ablaufenden Prozesse gewähren konnten. Untersuchungen im Ultrakurzzeitbereich sind jedoch eher selten, liefern aber detaillierte Informationen zu den ablaufenden Prozessen. Den Wissensstand diesbezüglich zu erweitern, war Ziel dieser Dissertation.
Untersucht wurden neun photoschaltbare, molekulare Dyaden hinsichtlich ihrer Dynamik nach Photoanregung. Die Dyaden setzten sich aus einem Fluorophor (Bordipyrromethen, BODIPY), einem Photoschalter (Dithienylethen, DTE; offen oder geschlossen) und gegebenenfalls einer COOH-Ankergruppe zusammen.
Die Unterschiede in den Molekülstrukturen bestanden in der Verknüpfung der einzelnen Bauteile (kurze oder lange, beziehungsweise gerade oder gewinkelte Brücke) und der Art des Fluorophors und des Photoschalters (jeweils zwei verschiedene Strukturen).
Durch Belichtung mit UV- oder sichtbarem Licht konnten photostationäre Zustände generiert werden, die 40 – 98 % geschlossenes Isomer (je nach Molekül) beziehungsweise 100 % offenes Isomer enthielten.
Unter Verwendung von Licht verschiedener Wellenlängen konnten beide Teile der Dyade (BODIPY beziehungsweise DTE) separat angeregt und hinsichtlich der ablaufenden Photodynamik untersucht werden, wobei der Fokus der Arbeit auf transienten Absorptionsmessungen mit Anregung des BODIPY lag. Bei einem Großteil der untersuchten Moleküle kam es in diesem Fall, je nach Zustand des Photoschalters, zu einem intramolekularen Energietransfer nach der Theorie von Theodor Förster. Durch diese Energietransferprozesse kommt es zu einer drastischen Verkürzung der Lebenszeit des angeregten Zustands des BODIPY. Ausgehend von Lebenszeiten im Bereich von Nanosekunden im Falle der offenen Dyaden (entspricht der Fluoreszenzlebensdauer) reduziert sich die Lebenszeit auf wenige Pikosekunden, beziehungsweise je nach Aufbau des Moleküls sogar noch weiter. Die unterschiedlich schnellen Transferprozesse sind im Sinne der Förster-Theorie durch die unterschiedlichen Entfernungen und relativen Orientierungen der beiden beteiligten Übergangsdipolmomente (von DTE und BODIPY) erklärbar.
Neben Experimenten mit Anregung des BODIPY-Teils der Dyaden wurden weitere Experimente durchgeführt, in denen der geschlossene Photoschalter direkt angeregt wurde. Aus diesen Messungen konnten Erkenntnisse über die Relaxation des DTE erlangt werden. Auf diese Weise war es möglich, bei einigen der Moleküle die Ringöffnungsreaktion zu beobachten und zu charakterisieren. Im Fall von Dyade 4 konnten zusätzlich kohärente Schwingungen des Moleküls nach Photoanregung detektiert werden, die sich anhand einer Frequenzmodulation der Absorptionsbande des BODIPY-Teils über einen Zeitbereich von 2 ps beobachten ließen.
Eiskeime (INP) sind Aerosolpartikel, die das Entstehen von Eiskristallen in der Atmosphäre zwischen 0 und -37°C ermöglichen, indem sie die zur Ausbildung der Eisphase nötige Energie gegenüber einem reinen Wassersystem stark herabsetzen. Dabei sind aktive Stellen auf der Oberfläche dieser Partikel für die erste Nukleation von Eis verantwortlich. In der Folge können die Eiskristalle zulasten von verdunstenden Wasserdampfmolekülen und Wassertröpfchen weiter anwachsen. Über Eismultiplikationsprozesse zersplittern und vervielfältigen sich die Eiskristalle und wachsen über Bereifung schließlich zu einer kritischen Größe heran, wodurch sie als Niederschlag zu Boden fallen können. Auch wenn der Anteil der zur heterogenen Eisnukleation fähigen Aerosole vergleichsweise gering ist, spielen INP eine entscheidende Rolle für die Entwicklung von Niederschlag und nehmen Einfluss auf Strahlungsprozesse, indem sie auf die Phase der Wolken und damit auf deren Strahlungseigenschaften einwirken. Viele Fragen im Forschungsgebiet der heterogenen Eisnukleation sind jedoch weiterhin nicht hinreichend genau geklärt. Ohne eine verbesserte Kenntnis von Konzentrationen, geographischer und vertikaler Verteilung, sowie zeitlicher Variation, Quellen und Natur von INP, sind noch vorhandene Wissenslücken im Strahlungsantrieb durch Wechselwirkungen von Aerosolen und Wolken nur zu einem gewissem Grad zu reduzieren. Dies ist nötig, um aktuelle Beobachtungsdaten der sich erwärmenden Atmosphäre besser verstehen und die zukünftigen Änderungen des Klimas sicherer vorhersagen zu können. In dieser Arbeit wird die Vakuumdiffusionskammer FRIDGE verwendet, um atmosphärische INP-Konzentrationen zu bestimmen. Aerosolpartikel werden dabei in einem ersten Schritt auf einem Silicium-Probenträger elektrostatisch niedergeschlagen. Die Effizienz des Sammelprozesses, also der Anteil der Partikel die tatsächlich auf dem Si-Substrat abgeschieden werden, wurde mittels zweier unabhängiger Methoden auf etwa 60% bestimmt. In einem zweiten Mess-Schritt werden die Proben in FRIDGE typischen Bedingungen von Mischphasenwolken ausgesetzt, wodurch Eiskristalle an den INP aktiviert werden und im Verlauf einer Messung anwachsen. Eine Kamera beobachtet die durch das Eiswachstum entstehenden Helligkeitsänderungen auf dem dunklen Probensubstrat. Die Kriterien, wann ein Objekt als Eiskristall identifiziert und gezählt wird, mussten im Rahmen dieser Arbeit neu entwickelt werden. In der zu Beginn der Arbeit vorgefundenen Einstellung hatte bereits eine sehr geringe Helligkeitsänderung, wie sie durch das hygroskopische Wachstum von Aerosolpartikeln hervorgerufen wird, zu Signalen geführt, die fälschlicherweise als Eiskristalle gezählt wurden. Das reevaluierte Messverfahren von FRIDGE wurde im Zuge der FIN-02 Kampagne in einem groß angelegten Laborexperiment an der AIDA Wolkenkammer mit zahlreichen anderen INP-Zählern aus der ganzen Welt verglichen. Für den Großteil der Messungen der untersuchten Modell-Aerosoltypen konnte eine zufriedenstellende Übereinstimmung mit den anderen Instrumenten erzielt werden. In einer einmonatigen Feldmesskampagne im östlichen Mittelmeerraum konnten die ersten INP-Messungen an Bord eines unbemannten Flugzeugs durchgeführt werden. Während der Kampagne auf Zypern wurden mehrere Fälle von transportiertem Saharastaub beprobt, in denen die INP-Konzentration maßgeblich erhöht war. Lidar-Beobachtungen und ein Staubtransportmodell zeigten, dass sich das Maximum der Staubschichten zumeist in etwa 2-4 Kilometern Höhe befand. In der Höhe wurden INP-Konzentrationen gefunden, die im Mittel um einen Faktor 10 größer waren als auf Bodenniveau. Es wird gefolgert, dass INP-Messungen am Boden möglicherweise nur begrenzte Aussagekraft über die Situation nahe der Wolkenbildung besitzen. Im Rahmen BACCHUS-Projekts wurden zwischen August 2014 und Januar 2017 (mit Unterbrechungen) alle 1-2 Tage Proben an drei Reinluftstationen gesammelt (insgesamt über 900). Das INP-Messnetz mit einer geographischen Ausdehnung von der Arktis zum Äquator bestand aus Stationen in Spitzbergen, Martinique und im Amazonas. Die Station im brasilianischen Regenwald ist durch wechselnde Bedingungen von sauberer Regen- und verunreinigter Trockenzeit charakterisiert. In der Trockenzeit steigen die Partikelkonzentrationen durch starke Belastung aus Biomassenverbrennung um eine Größenordnung an; eine gleichzeitige Zunahme der INP-Konzentrationen konnte nicht beobachtet werden. Daraus kann vermutet werden, dass Partikel aus Feueremissionen keine ausgezeichneten Fähigkeiten zur Eisnukleation aufweisen. Die INP-Konzentrationen in der Karibik konnten mit dem Jahresgang von transportieren Saharastaub in Verbindung gebracht werden. In der Arktis wurden die niedrigsten INP-Konzentrationen der drei Stationen beobachtet. Zum Zeitpunkt des Erstellens dieser Arbeit können die determinierenden Einflussfaktoren, sowie der anthropogene Einfluss zur Zeit des arktischen Dunstes noch nicht abschließend geklärt werden.
Die Psoriasis vulgaris (PsV) ist eine immunvermittelte entzündliche Erkrankung der Haut mit einer Prävalenzrate von 2-3 %, sodass etwa zwei Millionen Menschen in Deutschland an dieser erkrankt sind. Charakteristisch für die PsV sind veränderte Hautareale (Plaques), die im Rahmen der der entzündungsbedingten Durchblutungssteigerung gerötet erscheinen und eine silbrig-weiße Schuppung als Resultat einer vermehrten Abschilferung abgestorbener Keratinozyten aus der hyperproliferativen Epidermis aufweisen.
In dieser Arbeit wurde die Bedeutung des proinflammatorischen Zytokins granulocyte-macrophage colony-stimulating factor (GM-CSF) in der Pathogenese einer modellhaften Experimentalerkrankung der PsV untersucht. GM-CSF wird unter anderem von Interleukin (IL-) 17 produzierenden T-Helferzellen (Th17-Zellen) sezerniert, deren pathogenetische Bedeutung für die PsV gut etabliert ist. Die pathogene Wirkung von GM-CSF als Effektorzytokin konnte bereits in Tiermodellen anderer Th17-vermittelter Autoimmunerkrankungen wie der multiplen Sklerose und der rheumatoiden Arthritis (RA) gezeigt und die therapeutische Wirkung von GM-CSF-neutralisierenden Antikörpern in klinischen Studien an RA-Patienten demonstriert werden.
Das in dieser Arbeit angewendete murine Krankheitsmodell der Imiquimod (IMQ-) induzierten psoriasiformen Dermatitis wird durch die topische Anwendung des Medikaments Aldara®, dessen Wirkstoff IMQ ist, ausgelöst und führt zu einer Entzündung der Haut, die in vielen Aspekten dem humanen Krankheitsbild einer PsV ähnelt. Die pathogenetische Bedeutung von GM-CSF für die IMQ-induzierte psoriasiforme Dermatitis wurde über zwei unterschiedliche experimentelle Ansätze untersucht. So wurde GM-CSF in C57Bl/6J Mäusen mittels eines spezifischen, rekombinanten murinen Antikörpers in der Induktionsphase des Krankheitsmodells neutralisiert und zeitgleich der modifizierte Psoriasis Area Severity Index (PASI-)Score als Parameter des Schweregrades der klinischen Manifestationen ermittelt. Des Weiteren wurde am Versuchsende die Infiltration von Immunzellen in das entzündete Gewebeareal untersucht. Diese Ergebnisse wurden mit den Daten einer Behandlungsgruppe, nach Applikation eines IgG-Isotyp identischen Kontrollantikörpers verglichen. Dabei zeigte die Neutralisierung des Zytokins einen therapeutischen Effekt, der in einem signifikant niedrigeren PASI-Score, einer verringerten Tnfa mRNA Expression und einer reduzierten Infiltration mit neutrophilen Granulozyten resultierte.
Parallel zu diesen Versuchen wurde die Modellerkrankung auch in einer GM-CSF-defizienten C57Bl/6J Mauslinien (GM-CSF-/-) studiert. Die funktionelle Inaktivität des GM-CSF-kodierenden Csf2 Gens wurde 1994 durch gezielte genetische Manipulation etabliert. Unter den experimentellen Bedingungen war der Schweregrad der IMQ-induzierten psoriasiformen Dermatitis in GM-CSF-/- Mäusen nicht signifikant different von dem der wildtypischen (Wt) Mäuse und zeigte somit im Gegensatz zu den Ergebnissen aus den Versuchsreihen der Antikörper vermittelten Zytokinneutralisierung keinen offensichtlichen Hinweis auf eine GM-CSF-Abhängigkeit. In den GM-CSF-defizienten Tieren war jedoch nach IMQ-Induktion eine signifikant höhere Il6 und Il22 mRNA Expression am Entzündungsort im Vergleich zu den Wt Mäusen auffällig. Aufgrund dieser Ergebnisse wurde der Phänotyp der GM-CSF-defizienten Mäuse genauer untersucht und eine vermehrte Anzahl plasmazytoider dendritischen Zellen (pDCs) in Milz und Lymphknoten nachgewiesen. Diese Zellen werden im Rahmen ihrer Differenzierung aus Vorläuferzellen durch GM-CSF suppressiv reguliert und sind sowohl in die Entwicklung der PsV im Menschen als auch die Pathogenese der IMQ-induzierten psoriasiformen Dermatitis involviert. Aufgrund des in den sekundären lymphatischen Organen GM-CSF-defizienter Mäuse expandierten pDC-Kompartiments wurde die Beteiligung dieser Zellen in der Initiationsphase des Modells analysiert. Im Vergleich mit GM-CSF-suffizienten C57Bl/6J Mäusen weisen die Tiere der GM-CSF-defizienten Mauslinie zu diesen Zeitpunkten eine verstärkte Infiltration von pDCs in die Haut auf. Für pDCs ist bekannt, dass sie über die Produktion von IL-6 und TNF die Effektorzelldifferenzierung aktivierter, naiver T-Lymphozyten in Richtung Th22-Zellen polarisieren können. Dieser Mechanismus liefert ein hypothetisches Konzept, das die Ergebnisse zur gesteigerten IL-6-Produktion und Differenzierung IL-22-produzierender T-Zellen in IMQ-behandelten GM-CSF-/- Mäusen im Kontext der nachweisbaren Expansion von pDCs, erklären könnte. Dieser in den GM-CSF-/- Mäusen nachweisbare alternative Pathogenesemechanismus, ist offenbar geeignet die proinflammatorische Wirkung des genetisch fehlenden Zytokins zu kompensieren, aber hinsichtlich seiner Etablierung über ein verändertes pDC-Kompartiment von Dauer und Ausmaß der GM-CSF-Defizienz abhängig. So erklärt sich, warum die zeitlich limitierte Antikörper vermittelte GM-CSF-Neutralisierung in GM-CSF-suffizienten-Mäusen zu keiner pDC-Expansion und Steigerung von IL-6 und IL-22 Expression nach IMQ-Induktion führt.
Die GM-CSF-Neutralisierung durch einen rekombinanten murinen Antikörper reduziert deutlich die Krankheitsschwere der IMQ-induzierten psoriasiformen Dermatitis und belegt damit das therapeutische Potenzial dieses Therapieansatzes für die Humanerkrankung der PsV. Die unter angeborener GM-CSF-Defizienz in den Studien darüber hinaus aufgedeckten Veränderungen des pDC-Kompartiments sind von potenzieller Relevanz für zukünftige therapeutische Anwendungen dieses Prinzips, da unter einer dauerhaften GM-CSF-Neutralisierung mit therapeutischen Antikörpern ein Monitoring dieser Zellpopulation empfehlenswert erscheint z.B. über veränderte Interferonsignaturen durch pDCs, um mögliche Wirkverluste, aber auch unerwünschte Effekte zu erkennen.
Research in cell and developmental biology requires the application of three-dimensional model systems that reproduce the natural environment of cells. Processes in developmental biology are therefore studied in entire systems like insects or plants. In cell biology, three-dimensional cell cultures (e.g. spheroids or organoids) model the physiology and pathology of cells, tissues or organs. In all systems, the cellular neighborhood and interactions, but also physicochemical influences, are realistically presented. The production and handling of these model systems is rather simple and allows for reproducible characterization.
Confocal and light sheet-based fluorescence microscopy (LSFM) enable the observation of these systems while maintaining their three-dimensional integrity. LSFM is applicable to imaging live samples at high spatio-temporal resolution over long periods of time. The quality of the acquired datasets enables the extraction of quantitative features about morphology, functionality and dynamics in the context of the complete system. This approach is referred to as image-based systems biology. Exploiting the potential of the generated datasets requires an image analysis pipeline for data management, visualization and the retrieval of biologically meaningful values.
The goal of this thesis was to identify, develop and optimize modules of the image analysis pipeline. The modules cover data management and reduction, visualization, reconstruction of multiview image datasets, the segmentation and tracking of cell nuclei and the extraction of quantitative features. The modules were developed in an application-driven manner to test and ensure their applicability to real datasets from three-dimensional fluorescence microscopy. The underlying datasets were taken from research projects in developmental biology in insects and plants, as well as from cell biology.
The datasets acquired in fluorescence microscopy are typically complex and require common image processing steps in order to manage, visualize, and analyze the datasets. The first module accomplishes automatic structuring of large image datasets, reduces the data amount by image cropping and compression and computes maximum projection images along different spatial directions. The second module corrects for intensity variations in the generated maximum projection images that occur as a function of time. The program was published as a part of an article in Nature Protocols. Another developed module named BugCube provides a web-based platform to visualize and share the processed image datasets.
In LSFM, samples can be rotated in-between two acquisitions enabling the generation of multiview image datasets. Prior to my work, Frederic Strobl and Alexander Ross acquired the complete embryogenesis of the red flour beetle, Tribolium castaneum, and the field cricket, Gryllus bimaculatus, with LSFM. I evaluated a plugin for the software FIJI as a module for the reconstruction of such datasets. The plugin was optimized for automation and efficiency. We obtained the first high quality three-dimensional reconstructions of Tribolium and Gryllus datasets.
Optical clearing increases the penetration depth into samples, thus providing endpoint images of entire three-dimensional objects with cellular detail. This work contributes a quantitative characterization module that was applied to endpoint images of optically cleared spheroids. A program for the generation of ground truth datasets was developed in order to evaluate the cell nuclei segmentation performance. The program was part of a paper that was published in BMC Bioinformatics. Using the program, I could show that the cell nuclei segmentation is robust and accurate. Approaches from computational topology and graph theory complete the segmentation of cell nuclei. Thus, the developed module provides a comprehensive quantitative characterization of spheroids on the level of the individual cell, the cell neighborhood and the whole cell aggregate. The module was employed in four applications to analyze the influence of different stress conditions on the morphology and cellular arrangement of cells in spheroids. The module was accepted for publication in Scientific Reports along with the results for one application. The cell nuclei segmentation further provided a data source for simulation models that used correlation functions to identify structural zones in spheroids. These results were published in Royal Society Interface.
The final part of this work presents a module for cell tracking and lineage reconstruction. In collaboration with Dr. Alexis Maizel, Dr. Jens Fangerau and Dr. Daniel von Wangenheim, I developed a module to track the positions of all cells involved in lateral root formation in Arabidopsis thaliana and used the extracted positions for extensive data analysis. We reconstructed the cell lineages and established the first atlas of all founder cells that contribute to the formation. The analysis of the retrieved data allowed us to study conserved and individual patterns in lateral root formation. The atlas and parts of the analysis presented in this thesis were published in Current Biology.
In this thesis, I developed modules for an image analysis pipeline in three-dimensional fluorescence microscopy and applied them in interdisciplinary research projects. The modules enabled the organization, processing, visualization and analysis of the datasets. The perspective of the image analysis pipeline is not restricted to image-based systems biology. With ongoing development of the image analysis pipeline, it can also be a valuable tool for medical diagnostics or industrial high-throughput approaches.
In this work the flexibility requirements of a highly renewable European electricity network that has to cover fluctuations of wind and solar power generation on different temporal and spatial scales are studied. Cost optimal ways to do so are analysed that include optimal distribution of the infrastructure, large scale transmission, storage, and dispatchable generators. In order to examine these issues, a model of increasing sophistication is built, first considering different flexibility classes of conventional generation, then adding storage, before finally considering transmission to see the effects of each.
To conclude, in this work it was shown that slowly flexible base load generators can only be used in energy systems with renewable shares of less than 50%, independent of the expansion of an interconnecting transmission network within Europe. Furthermore, for a system with a dominant fraction of renewable generation, highly flexible generators are essentially the only necessary class of backup generators. The total backup capacity can only be decreased significantly if interconnecting transmission is allowed, clearly favouring a European-wide energy network. These results are independent of the complexity level of the cost assumptions used for the models. The use of storage technologies allows to reduce the required conventional backup capacity further. This highlights the importance of including additional technologies into the energy system that provide flexibility to balance fluctuations caused by the renewable energy sources. These technologies could for example be advanced energy storage systems, interconnecting transmission in the electricity network, and hydro power plants.
It was demonstrated that a cost optimal European electricity system with almost 100% renewable generation can have total system costs comparable to today's system cost. However, this requires a very large transmission grid expansion to nine times the line volume of the present-day system. Limiting transmission increases the system cost by up to a third, however, a compromise grid with four times today's line volume already locks in most of the cost benefits. Therefore, it is very clear that by increasing the pan-European network connectivity, a cost efficient inclusion of renewable energies can be achieved, which is strongly needed to reach current climate change prevention goals.
It was also shown that a similarly cost efficient, highly renewable European electricity system can be achieved that considers a wide range of additional policy constraints and plausible changes of economic parameters.
In April and May 2012 data on Au+Au collisions at beam energies of Ekin = 1.23A GeV were recorded with the High Acceptance Di-Electron Spectrometer, which is located at the GSI Helmholtz Center for Heavy Ion Research in Darmstadt, Germany. At this beam energy all hadrons containing strangeness are produced below their elementary production threshold. The required energy is not available in binary NN collisions but must be provided by the system e.g. through multi-particle interactions or medium effects like a modified in-medium potential (e.g. KN/ΛN potential). Thus, a high sensitivity to these medium effects is expected in the investigated system.
The baryon-dominated systems created in relativistic heavy-ion collisions (HIC) at SIS18 energies reach densities of about 2-3 times ground state density p0 and may be similar to the properties of matter expected in the inner core of neutron stars. It is in particular the behavior of hadrons containing strangeness, i.e. kaons and hyperons, and their potentials in the dense medium which may have severe implications on astrophysical objects and processes. As ab-initio calculations of quantum chromodynamics (QCD) cannot be performed rigorously on the lattice at finite baryo-chemical potentials due to the fermion sign problem, effective descriptions have to be used in order to model properties of dense systems and the involved particles. The only way to access the in-medium potential of strange hadrons above nuclear ground state density p0 is by comparing data from relativistic HIC to such effective microscopic models. Up to now, not much data on neutral kaons and Λ hyperons are available from heavy collision systems close to their NN production threshold. These two electromagnetically uncharged strange hadrons are in particular well suited to study their potential in a dense nucleon-dominated environment as their kinematic spectra are not affected by Coulomb interactions.
Faces are thought to be processed primarily according to their configurations which is in-ferred from comparisons with non-facial stimuli. While the whole (face) seems to be more than the sum of its parts, the same does not apply to objects which are processed analytically according to their featural information. A recent recognition model stresses the importance of certain visual information within facial stimuli. By applying a specific filtering technique, stimuli can be generated that are restricted to contain information of only a certain orienta-tion. Dakin and Watt (2009) reported greatest recognition performance with faces that only contained horizontally aligned information with accuracy continuously declining at vertical. Furthermore, they showed that, compared with images of natural scenes, horizontal contours within faces have an unusual tendency to fall into vertically co-aligned clusters which were labelled biological ‘bar code’ referring to a highly constrained one-dimensional code. Con-secutive research tested for face-specific processing by comparing faces and objects that displayed information of different orientations. Results suggested configural processing only for faces that contained horizontal information (Goffaux & Dakin, 2010). The findings con-tribute important insight on a still unanswered question in face processing research: what information is extracted from faces for recognizing them. Despite the importance of remembering human faces on a daily basis, this ability seems to develop disadvantageously over lifetime. Decreased accuracy cannot be attributed to de-creased general cognitive ability (Hildebrandt, Wilhelm, Schmiedek, Herzmann, & Sommer, 2011) and slower reactions times are assumed to be a product of decision making rather than sensory speed (Habak, Wilkinson, & Wilson, 2008). Considering the amount of published work on face recognition, there is a lack of studies available assessing this important ability at a higher age. New theoretical concepts are rarely examined with older participants, appar-ently assuming their general validity. The current dissertation tries to help fill this gap by assessing the importance of horizontal information from a developmental perspective com-paring younger and older adults under different experimental variations. The first study showed, that presenting older participants with horizontally filtered faces has a dispropor-tional negative impact on recognizing younger unfamiliar faces suggesting differential pro-cessing mechanisms, since recognizing stimuli that only contained vertical information did not differ between age groups. On this basis, the following study manipulated the presented stimulus material, since some evidence suggests that own-age faces are more easily recog-nized compared to faces of other ages, which is referred to as “own-age bias”. Therefore, the second study systematically assessed the impact of stimulus age on recognition sensitivity. Moreover, encoding modalities were varied by providing increased exposure duration to the stimuli. The results of the first study were replicated, as older participants’ performance was still poor at recognizing younger faces, independent from encoding modalities. However, similar face recognition sensitivity compared to younger adults was observable when filtered faces of the older adults’ own age had to be recognized. Interestingly, correlations between recognizing filtered and unfiltered faces were obtained for younger adults but not for older adults suggesting age variant processing of horizontal information. The last study assessed the importance of horizontal information with stimulus material familiar to the observer. Although research highlights differences between recognizing unfamiliar and familiar stimu-lus material, this factor is often not considered by contemporary research. By presenting par-ticipants with their own faces, a stimulus of greatest individual familiarity was chosen. The superiority of own face recognition over other familiar material is referred to as “self-face advantage” and has been shown in comparison with personally familiar faces (Keyes & Brady, 2010) and famous faces (Caharel et al., 2002). While younger adults indeed recog-nized their self-faces better compared to famous faces independent from stimuli being fil-tered or unfiltered, older participants displayed a completely different pattern including the inability to recognize their filtered self-faces. Again, significant associations were obtained between filtered and unfiltered recognition conditions suggesting convergent processing mechanisms for younger adults but not for the older age group. This dissertation provides a first insight in the divergence of response behavior in older adults with a recent face processing model. While the obtained data undermine the im-portance of horizontal information in younger adults by replicating and extending previously published work, a profoundly different type of processing is suggested at a higher age which largely relies on low-level pictorial information due to the inability to process horizontally filtered faces configurally. Specifically, it is suggested that with age, focusing on aging-salient features with configural processing disrupted may function as a critical source of di-agnostic information which can ultimately result in performance similar to younger adults.
In der vorliegenden dreiteiligen Studie werden Mongolische Wüstenrennmäuse untersucht, deren Hörspektren im tieffrequenten Bereich und deren Unterscheidungsfähigkeiten von Kommunikationsrufen denen des Menschen ähneln. Die extrazelluläre Aktivität im primären auditorischen Kortex (AI) der narkotisierten Versuchstiere, evoziert durch Reintöne und arteigene Kommunikationsrufe, wird in der linken (LH) und rechten Gehirnhemisphäre (RH) aufgenommen. Es werden Multikanalelektroden (16 Eingangskanäle) verwendet, welche eine simultane Aufnahme der neuronalen Aktivitäten aller kortikalen Schichten ermöglichen. Zur Analyse der neuronalen Mechanismen werden Wellenformen einzelner Elektrodenkanäle und Aktivitätsprofile, bestehend aus den Wellenformen aller Elektrodenkanäle in einem Zeitfenster von 600 ms, auf Ebene von Aktionspotentialen (MUA), lokalen Feldpotentialen (LFP) und Current-source-density (CSD) Analysen, untersucht. Während MUAs die neuronalen Aktionspotentiale im Nahfeld der Elektrode reflektieren, umfassen die LFPs die summierten Potentiale (inhibitorisch und exzitatorisch) von Neuronen eines größeren Areals. Die CSDs hingegen werden durch die Integration von LFP-Wellenformen benachbarter, linear angeordneter Elektrodenkanäle berechnet und ermöglichen so eine Lokalisation der Ursprünge geräuschspezifischer Aktivitätsflüsse.
Im ersten Teilprojekt werden CSD-Profile in Antwort auf unterschiedliche Reintöne untersucht, um die Aktivitätskomponenten, die so genannten Sinks, für weiterführende Analysen zu quantifizieren. Es können zwei primäre (s1 und s2), drei mittlere (s3-s5) und vier späte (s6-s9) Sinks in einem Zeitfenster von 600 ms definiert werden. Eine Veränderung der Stimulusfrequenz eine Oktave über und unter der charakteristischen Frequenz (CF), beziehungsweise des Lautstärkepegels = 24 dB über der minimalen Schwelle, führt zu qualitativen Veränderungen in der CSD-Profilstruktur. Die Sink s7 wird durch Stimuli mit niedrigem Lautstärkepegel weniger verlässlich evoziert, wohingegen die Sink s9 bei Stimuli eine Oktave über der CF verlässlicher evoziert wird. Die Ergebnisse weisen darauf hin, dass im AI die spektralen Informationen eine Oktave über und unter der CF asymmetrisch integriert werden.
Auf Einzelschichtebene konnte bereits gezeigt werden, dass spektrotemporale Eigenschaften von Stimuli durch MUAs schlechter reflektiert wurden als durch LFPs, was vermutlich eine direkte Konsequenz der unterschiedlichen Ursprünge der Signaltypen ist. Daher werden im zweiten Teilprojekt die spezifischen Unterschiede der MUA-, LFP- und CSD-Antworten auf Ebene kortikaler Schichten und kompletter laminarer Profile untersucht, um die Unterschiede und den Informationsgehalt der drei Signaltypen zu charakterisieren. Signifikante Unterschiede, welche durch zwei Reintöne und sieben Kommunikationssignale evoziert werden, können verstärkt im mittleren und späten Latenzbereich und in granulären und infragranulären Schichten vorgefunden werden. Der Grad der Rufspezifizität ist in LFP und CSD-Antworten im Vergleich zu demjenigen in MUA-Antworten größer. Die Segregationsleistung ist im Vergleich zu einzelnen kortikalen Schichten in den von kortikalen Kolumnen abgeleiteten laminaren Profilen um den Faktor 1,8-2,6 erhöht. Die Neuronenpopulationen einzelner kortikaler Kolumnen sind vermutlich wichtig für die Kodierung von Geräuschen, welche sich in ihren spektrotemporalen Eigenschaften unterscheiden.
Viele vorangegangene Studien konnten zeigen, dass die Gehirnhemisphären akustische Signale asymmetrisch verarbeiten. Daher werden im dritten Hauptteil die laminaren Profile der LH und RH quantitativ und statistisch verglichen. Die MUA-, CSD-Profile und im geringeren Maße auch die LFP-Profile zeigen systematische Unterschiede auf signifikantem Niveau in der Dauer, Onset Latenz und vertikalen Ausdehnung bestimmter Aktivitäten. Kommunikationsrufe evozieren in der LH, welche beim Menschen auf Sprachstimuli spezialisiert ist, im Vergleich zur RH komplexere CSD-Profile. Die neuronale MUA-, LFP- und CSD-Aktivitätsstärke ist in der RH für weniger komplexe Stimuli teilweise signifikant erhöht. Die Asymmetrie in der Auftrittsverlässlichkeit der Sink s6 lässt vermuten, dass sich die intrakolumnäre Vernetzung in Schicht VIa zwischen der LH und RH unterscheidet. Die wenigen, signifikanten und nicht systematischen Unterschiede zwischen den Sink-Parametern der LH und RH nach kortikaler Ausschaltung mit dem GABAA-Rezeptor Agonist Muscimol weisen darauf hin, dass die Hemisphärenasymmetrie durch Prozesse des ipsilateralen Kortex maßgeblich beeinflusst wird.
Freundschaft und Liebe haben eines gemeinsam: die innige und wechselseitige Zuneigung zweier Personen zueinander. Das Mittelalter kennt die diskursive Trennung von Freundschaft und Liebe als Codes der Intimität nicht. Mit dem Terminus "minne" wird in der mittelalterlichen Literatur sowohl die Freundschaft zweier Männer als auch die Liebe zwischen Ritter und Dame beschrieben. Die Gesellschaft des Mittelalters um 1200 ist eine patriarchal organisierte und damit männlich homosozial geprägte Kriegergesellschaft. Vor diesem Hintergrund wird die These formuliert, dass Freundschaft im Mittelalter eher nicht der unwahrscheinliche Code der Intimität ist, sondern die Liebe. Mit dieser These wird die moderne Perspektive auf personale Zweierbeziehungen umgekehrt, die intuitiv die heterosoziale Beziehung und damit Liebe als Code der Intimität präferiert.
Im Zentrum des Interesses stehen männlich homosoziale Freundschaften und heterosoziale Liebesbeziehungen. Diese werden auf Basis linearer und triangulärer Figurenkonstellationen und unter Rückgriff auf Niklas Luhmanns Thesen, die er in „Liebe als Passion“ (1982) entwickelt, untersucht. Luhmann unterscheidet drei historische Stufen des Liebesdiskurses und ordnet diese Epochen zu: die höfische Liebe des Mittelalters, die passionierte Liebe der frühen Neuzeit und die romantische Liebe des 19. Jahrhunderts, die bis heute den Liebesdiskurs prägt. Die strikte Epocheneinteilung, die Luhmann vornimmt, wird für die Analyse der mittelhochdeutschen Texte aufgebrochen um zu zeigen, dass in der Literatur des Mittelalters Beispiele für alle drei Formen der Liebe zu finden sind. Die höfische Epik präsentiert Freundschaft und Liebe als Codes der Intimität, die sich einerseits wechselseitig bedingen, andererseits miteinander konkurrieren. Zwar stehen in den untersuchten Texten die heterosozialen Beziehungen im Fokus, doch mündet die Dominanz der Liebe als Code der Intimität nicht in der Verdrängung der Freundschaft. Im Gegenteil: Freundschaft dient der Liebe als Modell.
HCMV ist ein Pathogen mit einer weltweit sehr hohen Prävalenz und stellt nach wie vor ein großes Problem für Immunsupprimierte (Transplantations- und AIDS-Patienten) und für ungeborene Kinder dar. Seine Pathogenese ist weiterhin nur unzureichend bekannt, eine Impfprophylaxe existiert nicht und es stehen nur wenige, unzureichende Medikamente zur Therapie zur Verfügung. Auch ein verstärkender Einfluss des Virus auf die Tumormalignität ist gezeigt. Aber die der viralen Onkomodulation zugrundeliegenden Mechanismen, insbesondere die Frage, wie und wann Tumorwachstum und -invasion durch HCMV beschleunigt werden, bedürfen weiterer Aufklärung.
Die immediate early-Proteine IE1 und IE2 sind wichtige Regulatorproteine einer HCMV-Infektion – insbesondere IE1, welches einen entscheidenden Einfluss auf die Genexpression der Wirtszelle nimmt. Es wurde a-priori die Hypothese erstellt, dass über einen positiven Einfluss von IE1 auf die Enterokinaseexpression die Trypsin-vermittelte Tumorinvasion gefördert wird.
Im ersten Teil dieser Arbeit wurde ein effizientes, zuverlässiges Protokoll zur Herstellung IE1- und IE2-exprimierender Tumorzelllinien mit Hilfe von lentiviralem Gentransfer ausgearbeitet. Damit verbunden konnten zwei persistent-transduzierte humane Tumorzelllinien, U-251 MGIE1 und U-251 MGIE2, mit hohen Expressionsraten etabliert werden. Weiter konnte im zweiten Teil der Arbeit, sowohl im Akutmodell als auch an persistent-transduzierten Zellen, gezeigt werden, dass die Enterokinaseexpression nicht im Zusammenhang mit der IE1-Expression steht.
Durch die Erarbeitung des Transduktions-Protokolls und die Etablierung der persistent-transduzierten humanen Tumorzelllinien ist es nun möglich, die isolierten Auswirkungen von IE1 und IE2 auf humane Tumorzellen zu untersuchen. Die Widerlegung der Hypothese über die Beeinflussung der Enterokinaseexpression durch IE1 liefert eine Erkenntnis, um die Mechanismen der erhöhten Tumorinvasion besser verstehen zu können. Insgesamt konnte durch diese Arbeit ein Beitrag geliefert werden, die durch HCMV verursachten onkomodulatorischen Effekte noch besser nachvollziehen zu können. Dies wiederum kann künftig dazu dienen therapeutische Strategien, welche der Invasion und Metastasierung entgegen wirken, zu verbessern bzw. zu entwickeln.
Da die Implantologie ein fester Bestandteil der modernen Zahnheilkunde geworden ist, wird auch die Evaluation des Kieferknochens immer relevanter. Diese hohe Bedeutung des Kieferknochens ist damit zu begründen, dass für den Langzeiterfolg eines Implantates die knöcherne Einheilung im Rahmen der Osseointegration die Grundvoraussetzung bildet. Zudem erfordern verschiedene Knochenqualitäten des Kieferknochens unterschiedliche Implantatdurchmesser und Bohrprotokolle. Schon hier zeigt sich, wie relevant weitreichende Kenntnisse über den Kieferknochen sind.
Auch im Rahmen der Implantatforschung und -entwicklung ist es von großer Bedeutung, Knochen zu evaluieren und damit kalibrieren und kategorisieren zu können, um vergleichbare Versuchswerte generieren zu können. In der aktuellen Literatur liegen zahlreiche Studien zu der Knochendichte, -qualität und -quantität des Kieferknochens vor, Evaluationsmethoden des Kieferknochens sind jedoch rar. Aufgrund dessen befasst sich diese Arbeit mit der Neuentwicklung einer Evaluationsmethode von Knochen.
Zu diesem Zweck wurde in dieser Arbeit der an ein inseriertes Implantat-Dummy angrenzende Knochen mit einem Bone-Evaluation Tool bewertet und geprüft, ob eine Korrelation zwischen dem Eindrehmoment des Implantat-Dummys, der Kompaktadicke und dem Eindrehmoment des nachfolgenden Bone-Evaluation-Tools besteht. Eine bestehende Korrelation würde bedeuten, dass dieses Evaluation-Tool in der Lage ist, Knochen bezüglich seiner Güte zu bewerten und zu kalibrieren.
Durchgeführt wurden die Versuche an dem distalen Ende von bovinen Rippensegmenten sowie an Segmenten des bovinen Femurkopfes. Beide sollten den Kieferknochen der humanen Mandibula simulieren. Es wurden zwei im Durchmesser differierende Bohrprotokolle angewendet, welche als „Hard Bone Small“ (HBS) und „Hard Bone Large“ (HBL) bezeichnet wurden. Als erstes erfolgte jeweils eine Vorbohrung (ø HBS: 3,3 mm; ø HBL: 4,0 mm), gefolgt von der Insertion des Implantat-Dummys (ø HBS: 3,5 mm; ø HBL: 4,2 mm). Als nächstes erfolgte die Entfernung (Aufbohrung) der Gewindeimpressionen, die durch den Implantat-Dummy generiert wurden (ø HBS: 3,8 mm; ø HBL: 4,5 mm). Anschließend wurde das Bone-Evaluation-Tool inseriert (ø HBS: 4,0 mm; ø HBL: 4,7 mm). Zum Schluss wurden die Rippensegmente mittig der Insertionsstelle aufgehackt und an beiden Hälften jeweils median der Insertionsstelle die Kompaktadicke gemessen und die Werte gemittelt.
Anhand der Ergebnisse konnte gezeigt werden, dass beide Bohrprotolle (HBS und HBL) verwendet werden können, um bovinen Rippenknochen zu evaluieren (p<0,001), da eine statistisch signifikante Korrelation zwischen Drehmoment ID mit Drehmoment BET und der Kompaktadicke bewiesen wurde (p<0,001). In Folgearbeiten wird geprüft, ob sich diese Bohrprotokolle auch auf menschlichen Kadaverknochen übertragen lassen.
Hintergrund: Obgleich die Carotisstentimplantation inzwischen eine etablierte Alternative zur Carotisendarterektomie geworden ist, existieren jedoch nur wenige Studien über Langzeitergebnisse nach Carotisstentimplantation.
Methoden: Zwischen Juli 1993 und August 2005 wurden fortlaufend alle Patienten nach einseitiger Carotisstentimplantation in diese Studie eingeschlossen, welche keine signifikante kontralaterale Stenose hatten. Eine Follow-up Untersuchung mittels Duplexsonographie und/oder Angiographie sowie eine neurologische Untersuchung erfolgten nach sechs und/oder zwölf Monaten. Danach wurden jährlich Fragebogen an die Patienten beziehungsweise den zuständigen Hausarzt verschickt.
Ergebnisse: Eine Carotisstentimplantation erfolgte bei 279 Patienten. In 99% der Eingriffe war die Stentimplantation erfolgreich. Die periprozedurale major und minor Schlaganfallrate lag bei 2.2%. Die periprozedurale major stroke oder Todesrate lag bei 2.9%. Im Median betrug die klinische Follow-up Zeit 49 ± 32 Monate (Spannbreite: 30 Tage bis 12.1 Jahre). Ausgenommen perioperativer (<30 Tagen) Ereignisse, lag die jährliche major und minor Schlaganfallrate bei 1.3% und die jährliche ipsilaterale major und minor Schlaganfallrate bei 0.6%. Bei den symptomatischen und asymptomatischen Patienten betrugen die jährliche major und minor Schlaganfallraten 2.2% und 0.8% und die ipsilaterale major und minor Schlaganfallraten lagen bei 1.1% und 0.3%. Im Hinblick auf die Langzeitergebnisse gab es keinen signifikanten Unterschied zwischen den ipsilateralen und kontralateralen Schlaganfallraten. Bezüglich der Restenosen zeigte sich im sonographischen Follow-up (innerhalb 36 ± 32 Monaten) eine Rate für symptomatische Stenosen von 5% und für asymptomatische Stenosen von 3%.
Schlussfolgerung: Unsere Studie zeigt eine sehr niedrige cerebrale Langzeitereignisrate nach Carotisstentimplantation. Die Sicherheit dieses Verfahrens konnte somit auch über einen langen Zeitraum bekräftig werden. Erwähnenswert ist hierbei, dass es keinen signifikanten Unterschied zwischen den Langzeitergebnissen von ipsilateralen und kontralateralen cerebralen Ereignissen gab, was die Hypothese der Plaque Stabilisation nach Carotisstentimplantation bestärkt.
In the dentate gyrus (DG) of the mammalian hippocampus, neurogenesis continues to take place throughout an organism’s life. Adult neurogenesis includes proliferation and differentiation of neural stem cells into dentate granule cells (GCs) that mature and integrate into the existing cellular network. This thesis work presents a novel approach that enables longitudinal examination of living postnatally generated GCs in their endogenous niche by using retroviral (RV) labeling in organotypic entorhino-hippocampal slice cultures (OTCs). Older GCs were fluorescence-labeled with an adeno-associated virus controlled by the synapsin 1 promoter (AAV-Syn). The combination of time-lapse imaging and 3-D reconstruction of newborn developing GCs and older, more mature GCs enabled comparative analyses of dendritic growth and cellular dynamics as well as investigations of spine formation and the establishment of synaptic contacts.
Postnatal neurogenesis was studied in the mouse and rat DG in vivo by analysis of the distribution of chemical neuronal maturation markers doublecortin (DCX) and calbindin in combination with the GC marker Prox1 between P7 and P42. The marker expression patterns at different time points indicated that the number of mature GCs increased gradually over time and that young, immature GCs were added to the inner layers of the granule cell layer (GCL), as is the case in the adult brain. The most substantial shift in GC maturation took place between P7 and P14, though GCs in the rat DG matured faster (i.e. by ~5 days) than GCs in the mouse. Immunocytochemical in vitro analysis in OTCs at DIV 7, 14, and 28 exhibited a distribution of marker expression over time that was comparable to in vivo, though the number of DCX-expressing GCs was low at DIV 28, indicating a considerable decrease in neurogenesis rate over time in the OTC. Nevertheless, RV-labeling of newborn GCs at DIV 0 yielded successful visualization and enabled time-lapse imaging of complete developing GCs up to 4 weeks after mitosis. During the second week of development, newborn GCs exhibited a high level of structural dynamics, including extension and retraction of dendritic segments. In the third week, newborn GCs displayed high dendritic complexity which was followed by pronounced dendritic pruning. Finally, a phase of structural stabilization and local refinement could be observed during the fourth week. Older AAV-Syn-labeled GCs did not exhibit such dynamic structural remodeling. Anterograde tracing of entorhinal projection fibers using the biotinylated dextran amine Mini Ruby showed innervation of the outer molecular layer (OML) by entorhinal axons at early time points, i.e. DIV 8 when newborn GCs started to extend dendrites into the ML, as well as at DIV 20 when RV-labeled GCs exhibited elaborate dendritic trees with processes in the OML intermingling with entorhinal fibers. This shows that newborn GCs in the OTC grow into an area of existing entorhinal axon terminals, which is highly similar to the situation in the adult brain. Hence, the results show that postnatal neurogenesis can be studied effectively in the OTC system as a model of adult neurogenesis. The first appearance of spine-like protrusions in newborn GCs was observed two weeks post RV injection. Ultrastructural electron-microscopic images revealed that spines established synaptic contacts with axonal boutons. These findings suggest that newborn GCs are successfully integrated into the existing cellular circuitry in the OTC system. The high level of structural flexibility found in this study might be a necessary requisite of new neurons for successful dendritic maturation and functional integration into a neuronal network. Thus, live imaging of postnatally born GCs in the OTC appears as a useful novel approach to elucidate the mechanisms that affect cellular dynamics of neurogenesis.
Bei Knochendefekten kritischer Größe gestaltet sich die selbstständige Regeneration als nahezu unmöglich, weshalb es nötig ist die Therapie zu optimieren. Die Verwendung autologer Spongiosatransplantate stellt den aktuellen Goldstandard dar, was jedoch mit einer Reihe von Komplikationen, beispielsweise Schmerzen an der Entnahmestelle oder Wundheilungsstörungen verbunden ist. Das Knochen Tissue Engineering repräsentiert eine aussichtsreiche Alternative. Die Kombination eines osteokonduktiven Gerüststoffes mit regenerativen Zellen, wie zum Beispiel mononukleäre Zellen des Knochenmarks (BMC), stellt einen vielversprechenden Ansatz dar. Die BMCs haben im Vergleich zu anderen verwendbaren Zelltypen, z.B. mesenchymale Stammzellen (MSCs) oder endothelialen Vorläuferzellen (EPCs), den entscheidenden Vorteil einer kurzen Aufbereitungszeit, wodurch die definitive Frakturversorgung beschleunigt wird.
Mittels Inhibierung von MicroRNAs (miRNAs) mit Einfluss auf das osteogene und angiogene Potenzial der BMCs soll dieses System weiter verbessert werden. MiRNAs umfassen eine Gruppe kurzer, nicht-codierender RNAs die an der Steuerung grundlegender biologischer Prozesse beteiligt sind. Im Rahmen dieser Studie sind die MIR92A sowie MIR335 von besonderem Interesse. MIR92A blockiert die Angiogenese durch Verringerung der Expression des pro-angiogenen Proteins Integrin alpha 5 (ITGA5, CD51) sowie durch die Aktivierung des Notch-Signalweges um die Vascular endothelial growth factor (VEGF)-induzierte Blutgefäßbildung zu reduzieren. MIR335 hemmt über die Verringerung der Proteinkonzentration des Runt-related transcription factor 2 (RUNX2) die Proliferation und Differenzierung von humanen mesenchymalen Stammzellen (hMSCs) zu osteogenen Zellen. Aufgrund der erläuterten Erkenntnisse sollte in dieser Arbeit überprüft werden, ob die Neutralisation von MIR92A (Vaskularisierung) und MIR335 (osteogene Differenzierung) in BMCs mittels spezifischer antiMIR zu einer weiteren Verbesserung der BMC gestützten Therapie großer Knochendefekte führt.
Im ersten Teil der Versuche wurde das Prinzip der Lipotransfektion, zur Einbringung der Antikörper gegen die miRNAs in BMCs, optimiert und die Transfektionseffizenz bestimmt. In Abhängigkeit von der Zellsorte wurden mit 30 % - 69 % ausreichend hohe Transfektionseffizenzen erzielt, um jeweils 24 h nach Transfektion einen signifikanten Rückgang der Target-miRNA-Konzentrationen zu erreichen.
Nachdem die Wirksamkeit der Transfektion nachgewiesen war, wurden im zweiten Teil der Experimente die spezifischen Effekte der antiMIR auf die Zielgene überprüft. Der Einsatz von antiMIR92A führte nach 72 h zu einer erhöhten Genexpression von ITGA5 sowie VEGFA, zwei für die Angiogenese entscheidende Proteine. Zusätzliche konnte mittels FACS-Analyse eine signifikant gesteigerte CD51-Oberflächenexpression dokumentiert werden. Bei der Verwendung von antiMIR335 konnte eine verstärkte Expression der für die osteogene Differenzierung entscheidenden Indikatoren RUNX2 und BMP2 nachgewiesen werden. Die additionale Gabe von VEGFA (MIR92A) oder BMP2 (MIR335) konnte nach 48 h einen Trend zu verstärkter ITGA5 und VEGFA, beziehungsweise RUNX2 und BMP2 Expression erkennen lassen.
Zusammenfassend hat diese Studie verdeutlicht, dass die Inhibierung der MIR92A und MIR335 eine vielversprechende Möglichkeit bietet, das BMC gestützte Knochen Tissue Engineering weiter zu optimieren.
Die Arbeit beschäftigt sich mit der Herstellung sowie der strukturellen und magnetischen Charakterisierung von zwei Materialklassen von kupferbasierten zweidimensionalen Quanten-Spin-Systemen: Quadratische Gitter von Dimeren sowie geometrisch frustrierte Kagomé Gitter. In beiden Systemen werden Substitutionen vorgestellt die zu verbesserten Eigenschaften führen.
Die Paarverteilungsfunktion (PDF) beschreibt die Wahrscheinlichkeit, zwei Atome eines Materials in einem Abstand r voneinander zu finden. Diese Methode bewährt sich seit längerer Zeit zur Untersuchung von Gläsern, Flüssigkeiten, amorphen, stark fehlgeordneten und nanokristallinen anorganischen Substanzen. Die Anwendung für organische Substanzen ist jedoch relativ neu, mit etwa 20 Veröffentlichungen und Patenten insgesamt.
Im Rahmen dieser Dissertation wurden zwei Methoden zur Strukturverfeinerung und Strukturlösung organischer Substanzen anhand von PDF-Daten erfolgreich entwickelt und an diversen Beispielen validiert. Als erster Schritt hierzu wurde eine Methodenverbesserung vorgenommen. Hierbei handelte es sich um eine Verbesserung der Simulation der PDF-Kurven organischer Verbindungen anhand eines gegebenen Strukturmodells. Mit Hilfe der bisherigen Methoden können die PDF-Kurven anorganischer Substanzen erfolgreich simuliert werden. Für organische Substanzen werden bei Anwendung der bisherigen Methode die Signalbreiten der intramolekularen und intermolekularen Beiträge zu der PDF-Kurve falsch wiedergegeben, dies führt zu einer schlechten Anpassung der simulierten PDF-Daten and die experimentellen PDF-Daten. Deshalb wurde ein neuer Ansatz entwickelt, in welchem für die Berechnung der intramolekularen Beiträge zum PDF-Signal ein anderer isotroper Auslenkungsparameter verwendet wurde, als bei der Berechnung der intermolekularen Beiträge zum PDF-Signal. Mit diesem Ansatz konnte eine sehr gute Simulation der PDF-Kurve für alle Testbeispiele erzielt werden. Zur Strukturverfeinerung organischer Substanzen anhand von PDF-Daten wurden zwei Ansätze entwickelt: der Rigid-Body-Ansatz zur Behandlung starrer organischer Moleküle und der Restraint-Ansatz zur Behandlung flexibler organischer Moleküle.
Neben methodischen Entwicklungen wurden in dieser Arbeit zwei weitere Untersuchungen organischer Verbindungen mittels PDF-Analyse durchgeführt.
Es wurden drei, auf unterschiedliche Weise hergestellte, amorphe Proben des Wirkstoffes Telmisartan untersucht. Des Weiteren wurde mittels PDF-Analyse eine pharmazeutische Nanosuspension untersucht.
In dieser Arbeit wurde der Hefepilz Xanthophyllomyces dendrorhous als vielseitige biotechnologische Plattform für die Produktion von Carotinoiden verwendet. Durch genetische Modifikationen der Carotinoidbiosynthese wurde ein Astaxanthin-Hochproduzent zur Akkumulation des farblosen Phytoens, das die menschliche Haut vor der schädlichen Wirkung der UV-Strahlung schützt und des gelben Zeaxanthins, das zur Förderung und Erhalt der Sehfähigkeit beiträgt, befähigt. Zur Generierung eines Phytoen-Hochproduzenten wurde das Gen crtI (Phytoen-Desaturase) inaktiviert und der Phytoengehalt durch Überexpression der Gene HMGR, crtE und crtYB gesteigert. Die Generierung eines Zeaxanthin-Hochproduzenten beinhaltete die Inaktivierung des Gens asy (Astaxanthin-Synthase) und die heterologe Expression einer bakteriellen ß-Carotin-Hydroxylase CrtZoXd.
Die Inaktivierung der Gene erfolgte mit spezifischen Knock-Out-Konstrukten, die mittels homologer Rekombination in crtI oder asy integrierten. Nachdem die Transgene auf Vektoren mit verschiedenen Antibiotikaresistenzen kloniert wurden, wurde die Überexpression durch genomische Integration in die ribosomale DNA erreicht. Anschließend wurde die Carotinoidzusammensetzung der Zellextrakte durch Hochleistungsflüssigkeitschromatographie an einer C18-Trennsäule oder durch Dünnschichtchromatographie bestimmt. Der Knock-Out-Nachweis erfolgte mittels Polymerase-Kettenreaktion und Amplifikation der Genloci, während die Anzahl integrierter Carotinoidgene durch quantitative Real-Time-PCR bestimmt wurde. Die Kultivierungen von X. dendrorhous wurden sowohl in Schikanekolben als auch in einem 2L-Bioreaktor durchgeführt.
Im Zuge der genetischen Modifikationen konnte der Ploidiegrad des Wildtyps bestimmt werden, der bis dahin unbekannt war. Durch das Auftreten von instabilen heterozygoten Stämmen und deren Überführung zu stabilen Homozygoten wurde die Existenz eines diploiden Genoms nachgewiesen. Um die für die biotechnologische Anwendung notwendige Stabilität der Carotinoidbiosyntheseleistung zu erreichen, wurden zwei Strategien entwickelt. Hierbei erfolgte die Stabilisierung der Stämme als Folge mitotischer Rekombination nach Subkultivierung und anschließender Farbselektion oder durch Induktion des sexuellen Zyklus und Sporulation.
Der crtI-Knock-Out führte zur Akkumulation von 3,6 mg/g dw Phytoen. Anschließend wurde die Limitierung der Phytoensynthese durch crtYB-Überexpression aufgehoben und die Versorgung der Carotinoidbiosynthese mit Vorläufermolekülen durch HMGR- und crtE-Überexpression erhöht. Im Bioreaktor wurde durch die Anwendung eines dreistufigen Fed-Batch-Prozesses, der eine effiziente Glucoseverwertung sicherstellte, mit 10,4 mg/g dw die höchste bis dato publizierte zelluläre Phytoenkonzentration im stabilisierten Hochproduzenten erreicht.
Der asy-Knock-Out führte zur Akkumulation von 4,5 mg/g dw ß-Carotin, das anschließend durch heterologe Expression der codon-optimierten ß-3,3-ß-Hydroxylase crtZoXd im Hochproduzenten zu 3,5 mg/g dw Zeaxanthin umgesetzt wurde. Zur Optimierung des Vorgehens wurden Knock-In-Konstrukte entwickelt, mit denen beide Schritte (Knock-Out und Integration von Carotinoidgenen) in nur einem molekular-biologischen Schritt durchgeführt und 94 % des in einem Wildtypstamm vorhanden ß-Carotins zu Zeaxanthin umgesetzt wurden. Die Optimierung der Wachstumsbedingungen bei der Bioreaktor-Kultivierung des stabilisierten Zeaxanthinproduzenten führte mit 10,8 mg/L zu einem 5-fach höheren Zeaxanthingehalt im Vergleich zur Schikane-Kultivierung.
Durch den Einsatz der Pentosen Arabinose und Xylose als alternative Kohlenstoffquellen wurde der Carotinoidgehalt der Phytoen- und Zeaxanthin-Hochproduzenten um 70 bzw. 92 % im Vergleich zur Glucose-Kultivierung gesteigert, wobei die Gründe für diesen Effekt in einer stärkeren Kohlenstoffverwertung und der Hemmwirkung von Glucose vermutet wurden. Aus verschiedenen pflanzlichen Abfallstoffen kann Xylose durch Hydrolyse freigesetzt werden, deren Nutzung zum Aufbau einer nachhaltigen und kostengünstigen biotechnologischen Carotinoidproduktion beitragen kann.
Darüber hinaus wurden multioxigenierte Zeaxanthinderivate, von denen eine positive Wirkung auf die menschliche Gesundheit vermutet wird, durch kombinatorische Biosynthese erhalten. Durch die schrittweise Integration der Gene crtZoXd, crtG (ß-2,2-Hydroxylase) und bkt (ß-4,4-Ketolase) in eine ß-Carotinmutante wurde die Biosynthese von Zeaxanthin, Nostoxanthin und schließlich von 4-Keto-Nostoxanthin und 4,4-Diketo-Nostoxanthin erreicht. Anschließend erfolgte die chemische Reduktion zu den neuartigen Carotinoiden 4-Hydroxy-Nostoxanthin und 4,4-Dihydroxy-Nostoxanthin und der zweifelsfreie Nachweis aller vier Carotinoide anhand der mittels Massenspektrometrie bestimmten Molekülmassen und Fragmentierungsmuster.
Die Entwicklung von neuartigen, funktionellen Materialien ist eine komplexe Aufgabe, da die Gesamteffizienz der zu entwickelnden Materialien von einer Vielzahl von Faktoren abhängt. Während die auf einer molekularen Ebene durchgeführte Funktionalisierung via chemischer Reaktionsführung genauso wichtig ist wie die makromolekulare Anordnung, kann die Frage nach einer geeigneten Verbesserung von gegenwärtigen Materialien nicht nur auf einer dieser beiden Ebenen beantwortet werden. Die in dieser Arbeit präsentierten Ergebnisse basieren auf der mirkoskopischen aber auch markoskopischen Betrachtung von neuartigen, funktionellen Nanomaterialien und den daraus gewonnenen Erkenntnissen. Das übergeordnete Ziel ist dabei das Verständnis und die Charakterisierung von Ladungsseparationsprozessen und die daraus resultierende Erzeugung von elektrischen Strömen in organischen photovoltaischen Materialien.
Die relevanten Ladungsseparationsprozesse werden oft im Kontext der Dissoziation von Exzitonen, gebundenen Elektron-Loch Paaren, beschrieben, welche innerhalb der Donordomäne eines beliebigen Donor-Akzeptor-Materials erzeugt werden. Dabei ist der Prozess der Exzitonengenerierung abhängig von der Nanomorphologie des entsprechenden Materials, typischerweise so genannten Bulk-Heterojunctions. Dahingehend ist es notwendig, die Effekte von intermolekularen Wechselwirkungen sowohl mittels quantenmechanischer als auch dynamischer Methoden zu betrachten. Um alle relevanten Zeitskalen und Prozesse zu betrachten ist es weiterhin notwendig, auf sowohl eine deterministische Darstellung im Rahmen von quantendynamischen Methoden als auch statistischen Methoden zurückzugreifen.
Um die oft ultraschnellen und kohärenten Exzitonendissoziationsprozesse zu untersuchen wurde eine Kombination aus high-level ab initio Methoden und zeitabhängiger Dichtefunktionaltheorie (TDDFT) angewandt, um geeignete Modellhamiltonians zu parametrisieren, welche schließlich mittels der Multi-Configurational Time-Dependent Hartree (MCTDH) und der Multilayer (ML-MCTDH) variante propagiert wurden. Die MCTDH Methode hat sich als geeignete Methode erwiesen um eine voll quantendynamische Beschreibung von bis zu 100 Freiheitsgraden durchzuführen; die ML-MCTDH Methode erlaubt gar bis zu 1000 Freiheitsgrade quantendynamisch zu behandeln. Die Parametrisierung der Modellhamiltonians, auf welchen die quantendynamische Behandlung basiert, wurde dabei für kleine, jedoch repräsentative Fragmente durchgeführt. Die geeignete Wahl dieser Fragmente sollte sicherstellen, dass zum einen alle relevanten intermolekularen als auch intramolekularen Wechselwirkungen enthalten sind, jedoch gleichzeitig eine möglichst akkurate Beschreibung mittels high-level elektronenstrukturtheoretischer Methoden in gegebener Zeit möglich ist.
Mit Hilfe dieser Methodenkombination wurden zwei Arten von funktionellen organischen Materialien untersucht. Das erste untersuchte System ist ein neuartiges Donor-Akzeptor System, bestehend aus selbstorganisierenden Oligothiophen-Perylenediimid Dimeren, welche in der Gruppe von S. Haacke und S. Mery der Universität Straßburg synthetisiert und spektroskopisch untersucht wurden. Die quantendynamischen Simulationen an diesem System sollten die Ergebnisse der experimentellen, zeitaufgelösten pump-probe Spektroskopie validieren und die dürftige Effizienz im Hinblick auf eine effektive Ladungstrennung erklären. Dabei konnte gezeigt werden, dass nach der Exzitonendissoziation Elektron und Loch auf räumlich benachbarten Donor- und Akzeptorfragmenten lokalisiert werden, was schließlich zu einem Rekombinationsprozess führen wird. Das zweite untersuchte System ist eine Kombination von Poly(3-Hexylthiophen-2,5-diyl) (P3HT) als Elektronendonor und [6,6]-Phenyl-C61 Butansäure Methyl-Ester (PCBM) als Elektronenakzeptor, welches schon hinreichend stark in diversen theoretischen und experimentellen Studien untersucht wurde. Aufbauend auf einem Gittermodell, welches in unserer Gruppe entwickelt wurde, wurde das Modellsystem um Charge Transfer Exzitonen in der Donordomäne erweitert. Die Bedeutung von solchen Charge Transfer Exzitonen in regioregulären Oligothiophenaggregaten ist ein aktuelles Thema in der Wissenschaft, sowohl in experimentellen aber auch theoretischen Abhandlungen. Neben der theoretischen Beschreibung zur Entstehung solcher Charge Transfer Exzitonen liegt ein besonderes Augenmerk auf dem Einfluss dieser predissoziierten Elektron-Loch Paaren auf die Ladungsseparationsdynamik zwischen Donor und Akzeptor sowie die Generierung von freinen Ladungsträgern. Dieser Aspekt der Ladungsseparation in einem P3HT-PCBM System wurde in dieser Art und Weise in dieser Arbeit zum ersten mal untersucht.
Neben dem zuvor erwähnten Donor-Akzeptor System erster Generation der Universität Straßburg wurde eine zweite Variante dieses Systems entwickelt, welches sich bei bisherigen experimentellen Untersuchungen als wesentlich effizienter erwies. Der interessante Prozess der Ladungsseparation ist dabei allerdings auf einer Zeitskala von mehreren hundert Pikosekunden angesiedelt, sodass kinetische Monte Carlo Methoden verwendet werden mussten um diese Prozesse zu modellieren. Dazu wurde ein Fortran90 Code entwickelt, welcher den First Reaction Method Algorithmus verwendet und explizite Delokalisationsprozesse behandelt, welche in dieser Form in kommerziellen Programmpaketen nicht enthalten ist. In vorangehenden Arbeiten konnte gezeigt werden, dass die Delokalisation von Exzitonen zu einer effektiven Herabsetzung der energetischen Barriere der Ladungsseparation führt und somit die Effizienz zur Stromumwandlung gesteigert werden konnte. Erste Simulationen mit diesem Code an idealisierten und zufällig generierten Donor-Akzeptor Morphologien lieferten realistische Werte für makroskopische Observablen wie Ladungsträgermobilitäten. Weiterhin wurden Simulationen einer coarse-grained Struktur zur zweiten Generation des Donor-Akzeptor Systems durchgeführt, ebenfalls mit Hinblick zur Untersuchung der Ladungsträgermobilität.
Biological ageing is a degenerative and irreversible process, ultimately leading to death of the organism. The process is complex and under the control of genetic, environmental and stochastic traits. Although many theories have been established during the last decades, none of these are able to fully describe the complex mechanisms, which lead to ageing. Generally, biological processes and environmental factors lead to molecular damage and an accumulation of impaired cellular components. In contrast, counteracting surveillance systems are effective, including repair, remodelling and degradation of damaged or impaired components, respectively. Nevertheless, at some point these systems are no longer effective, either because the increasing amount of molecular damages can not longer be removed efficiently or because the repairing and removing mechanisms themselves become affected by impairing effects. The organism finally declines and dies. To investigate and to understand these counteracting mechanisms and the complex interplay of decline and maintenance, holistic and systems biological investigations are required. Hence, the processes which lead to ageing in the fungal model organism Podospora anserina, had been analysed using different advanced bioinformatics methods. In contrast to many other ageing models, P. anserina exhibits a short lifespan, a less biochemical complexity and it provides a good accessibility for genetic manipulations.
To achieve a general overview on the different biochemical processes, which are affected during ageing in P. anserina, an initial comprehensive investigation was applied, which aimed to reveal genes significantly regulated and expressed in an age-dependent manner. This investigation was based on an age-dependent transcriptome analysis. Sophisticated and comprehensive analyses revealed different age-related pathways and indicated that especially autophagy may play a crucial role during ageing. For example, it was found that the expression of autophagy-associated genes increases in the course of ageing.
Subsequently, to investigate and to characterise the autophagy pathway, its associated single components and their interactions, Path2PPI, a new bioinformatics approach, was developed. Path2PPI enables the prediction of protein-protein interaction networks of particular pathways by means of a homology comparison approach and was applied to construct the protein-protein interaction network of autophagy in P. anserina.
The predicted network was extended by experimental data, comprising the transcriptome data as well as newly generated protein-protein interaction data achieved from a yeast two-hybrid analysis. Using different mathematical and statistical methods the topological properties of the constructed network had been compared with those of randomly generated networks to approve its biological significance. In addition, based on this topological and functional analysis, the most important proteins were determined and functional modules were identified, which correspond to the different sub-pathways of autophagy. Due to the integrated transcriptome data the autophagy network could be linked to the ageing process. For example, different proteins had been identified, which genes are continuously up- or down-regulated during ageing and it was shown for the first time that autophagy-associated genes are significantly often co-expressed during ageing.
The presented biological network provides a systems biological view on autophagy and enables further studies, which aim to analyse the relationship of autophagy and ageing. Furthermore, it allows the investigation of potential methods for intervention into the ageing process and to extend the healthy lifespan of P. anserina as well as of other eukaryotic organisms, in particular humans.
Hintergrund: Eine empirische Untersuchung zur tatsächlichen Lehrpraxis an den medizinischen Fakultäten sowie eine Aufnahme der Wünsche von Medizinstudierenden und Ärzten unterschiedlicher Weiterbildungsgrade hinsichtlich Seltener Erkrankungen in der Lehre ist bisher noch nicht umfassend vorgenommen worden. Um die Integration der Seltenen Erkrankungen in die medizinische Ausbildung an deutschen Universitäten zu fördern, soll neben einer Ist-Analyse zudem die Entwicklung eines geeigneten Modellmoduls für Seltene Erkrankungen erfolgen. Dies soll einen Beitrag dazu leisten, angehende Ärzte bereits während ihres Humanmedizinstudiums für Seltene Erkrankungen zu sensibilisieren.
Methoden: Es wird eine Ist- Analyse anhand einer anonymen Fragebogenumfrage an den medizinischen Fakultäten Deutschlands sowie ein leitfadengestütztes Interview mit Studierenden im praktischen Jahr, Assistenzärzten des Universitätsklinikums Frankfurt und Fachärzten für Allgemeinmedizin/ hausärztlich tätigen Internisten des Kreises Bergstraße sowie Alzey-Worms durchgeführt. Aus der Gesamtheit der studentischen Wünsche an eine Lehrveranstaltung zu Seltenen Erkrankungen, den Empfehlungen von Seiten der Assistenzärzte/ Fachärzte für Allgemeinmedizin sowie den Kompetenzbereichen und Lernzielen des NKLM wird das Modellmodul mit entsprechenden Kompetenzen und Lernzielen entwickelt.
Ergebnisse und Schlussfolgerungen: In den empirisch erhobenen Daten zeigt sich, dass Mediziner aller Aus- und Weiterbildungsstufen häufiger als gedacht mit Seltenen Erkrankungen in Berührung kommen. Weiterhin ist festzustellen, dass die momentane Lehrsituation nicht optimal auf den Umgang mit Seltenen Erkrankungen vorbereitet. 29 von 33 Befragten begrüßen daher die curriculare Integration von Seltenen Erkrankungen in das Medizinstudium. Die frühe Sensibilisierung von Medizinstudierenden für die spezifischen Probleme von Menschen mit Seltenen Erkrankungen sowie die lernzielorientierte Kompetenzvermittlung zum Umgang mit solchen durch ein curricular integriertes Modellmodul, trägt zur Professionalisierung der angehenden Ärzte bei. Gleichzeitig wird die Versorgung von Menschen mit Seltenen Erkrankungen verbessert. Einerseits kann somit dem Patienten ein langer Leidensweg erspart werden, andererseits tritt bei Medizinern keine Überforderung im Umgang mit Nichtwissen über Seltene Erkrankungen ein. Die dabei eingesparten zeitlichen und finanziellen Ressourcen können in eine optimale Patientenversorgung investiert werden.
Einleitung: Die Intention dieser Arbeit war es zu evaluieren, ob das Prüfungsformat eines OSPE (Objective Structured Practical Examination), durchgeführt im Fach Zahnerhaltungskunde (6. Fachsemester), Aussagen über den Studienerfolg im praktischen Teil des Staatsexamens (11. Fachsemester) im selben Fach zu treffen erlaubt. Ferner sollte unter Berücksichtigung allgemeiner Angaben der StudienteilnehmerInnen (Abitursnote, Physikumsnote, Studiendauer, Kohorte und Geschlecht) analysiert werden, ob bezüglich der Gesamt- sowie Teilnoten des OSPE und der Staatsexamensprüfung im Fach Zahnerhaltungskunde Zusammenhänge oder Unterschiede bestehen.
Methoden: Im Rahmen dieser longitudinalen, retrospektiven Studie wurden über einen Zeitraum von 11 Semestern prüfungsbezogene Daten von Studierenden (N = 223) des Fachbereichs Zahnmedizin in Frankfurt am Main erhoben und untersucht. Ferner wurden persönliche Angaben der Studienteilnehmer zu Alter, Geschlecht, Abitursnote, Physikumsnote und Studiendauer evaluiert sowie eine Zuordnung zu Kohorten vorgenommen. Für die statistische Auswertung der Daten wurden Spearman Rangkorrelationen, Partialkorrelationen, Korrelationskoeffizienten nach Pearson, und Multiple Regressionen (SPSS Statistics 21, IBM Corporation, New York) berechnet.
Ergebnisse: Die Ergebnisse zeigen, dass die Durchführung einer OSPE (Cronbachs α = .87) mit dem Erfolg im praktischen Teil des Staatsexamens im Fach Zahnerhaltungskunde korreliert (p = .01, r = .17). Als eine weitere signifikante Korrelation mit der Examensleistung erwies sich die Dauer des Studiums (p = .001, r = .23). Gemeinsam vermögen diese beiden Variablen einen signifikanten Beitrag zur Vorhersage der Examensnote (p = .001, R2 = .076) zu leisten. Das zeigte sich im größeren Umfang bei weiblichen Studierenden. Zudem wurde festgestellt, dass diese bessere Abitursnoten als männliche Studierende aufweisen (F = 6.09, p = .01, η² = .027) und dass es nur bei männlichen Studierenden eine signifikante Korrelation zwischen der Physikumsnote (Zahnärztliche Vorprüfung) und der OSPE-Benotung gab (r = .17, p = .01).
Schlussfolgerung: In der vorliegenden Untersuchung konnte der prädiktive Effekt eines durchgeführten klinischen OSPE auf die Prüfungsleistung im Staatsexamen nachgewiesen werden. Unter Berücksichtigung der Limitation der Studie empfiehlt sich aus unserer Sicht die Durchführung eines solchen Prüfungsformats im Rahmen des klinischen Studienabschnitts im 6. Semester im Fach Zahnmedizin.
Diese Doktorarbeit widmet sich der Untersuchung von Systemen von Quarks und der Wechselwirkung zwischen ihnen mit Hilfe von Lattice QCD. Aus Quarks zusammengesetzte Objekte heißen Hadronen. Ein bestimmter Typ von Hadronen ist das sogenannten Tetraquark. In Teilchendetektoren wie dem LHCb in der Schweiz oder Belle in Japan wurden in jüngerer Zeit Zustände gefunden, die als Kandidaten für Tetraquarks gelten. Diese Arbeit befasst sich mit der Beschreibung und Untersuchung solcher Tetraquark-Zustände. Die Systeme, um die es in dieser Arbeit hauptsächlich geht, enthalten vier Quarks unterschiedlicher Masse. Zwei Quarks wird im Großteil der Arbeit eine unendlich große Masse zugeordnet. Zwei Quarks haben eine endliche Masse. In dieser statisch-leichten Näherung ist es möglich, das Potential der schweren Quarks in Anwesenheit der leichten Quarks zu bestimmen und zu überprüfen, ob es attraktiv genug dazu ist, einen gebundenen Zustand der vier Quarks zu bilden. Dieses Vorgehen ist als Born-Oppenheimer-Approximation bekannt. Die Observable, die berechnet werden muss, ist also das Vier-Quark-Potential.
Im ersten Teil der Arbeit werden verschiedene Vier-Quark-Potentiale aufgeführt und die zugehörigen Quantenzahlen genannt. Jeder der geeigneten Kanäle wird auf seine Fähigkeit untersucht, einen gebundenen Zustand zu bilden. Eine ausführliche systematische und statistische Analyse liefert den eindeutigen Befund, dass Bindung nur für Isospin I = 0 und nichtstatistsche u- und d-Quarks möglich ist. Im Falle von I = 1 oder nichtstatistschen s- und c-Quarks ist kein gebundener Zustand zu erwarten. Schließlich wird für den Fall der u- und d-Quarks eine Extrapolation zu physikalischen Quarkmassen durchgeführt. Die Bindung wird mit abnehmender Quarkmasse stärker. Am physikalischen Punkt wird eine Bindungsenergie von −90(+43−36) MeV festgestellt. Somit wird für Quantenzahlen I(J^P) = 0(1^+) ein gebundener b̄b̄ud-Zustand postuliert. Im zweiten Teil der Arbeit wird die statisch-leichte Näherung aufgehoben. So kann der Spin der schweren Quarks einbezogen werden. Dies führt unter anderem dazu, dass B- und B* -Mesonen unterscheidbar werden. Ein Nachteil dessen, dass vier Quarks endlicher Masse verwendet werden, ist der, dass es nun nicht mehr möglich ist, das Potential der schweren Quarks in Gegenwart der leichten zu bestimmen. Stattdessen wird aus der Korrelationsfunktion des Vier-Quark-Zustands direkt die Masse bestimmt. Zur Beschreibung der schweren Quarks wird der Ansatz der Nichtrelativistischen QCD (NRQCD) gewählt. Es wird der aus dem ersten Teil bekannte gebundene b̄b̄ud-Zustand mit Quantenzahlen I(J^P) = 0(1^+) weiter untersucht. Wir nehmen an, dass die Quantenzahlen durch ein BB*-Molekül realisiert werden. Wir bestimmen mithilfe des generalisierten Eigenwertproblems (GEP) den Grundzustand. Die Masse des Grundzustands ist ein Hinweis auf die Existenz eines gebundenen Zustands. Insgesamt bekräftigt der Befund das im ersten Teil der Arbeit gefundene Resultat, die Vorhersage eines bisher nicht gemessenen Tetraquark-Zustandes, qualitativ. Im dritten Teil der Arbeit geht es um Vier-Quark-Systeme, die ein schweres Quark und ein schweres Antiquark sowie ein leichteres Quark und ein leichteres Antiquark enthalten. Neben einem gebundenen Vier-Quark-Zustand ist u.a. die Bildung eines Bottomonium-und-Pion-Zustands möglich. Dies macht die theoretische Beschreibung dieses Systems ungleich schwieriger als die Beschreibung des im ersten und zweiten Teil der Arbeit untersuchten Systems. Seine experimentelle Untersuchung hingegen ist weniger aufwändig. So wurden bereits Kandidaten für einen solchen Zustand gemessen: Z_b(10610) und Z_b(10650). Zunächst wird ein Szenario beschrieben, in welcher Reihenfolge die zu den verschiedenen Strukturen gehörenden Potentiale vorliegen. So handelt es sich bei dem Grundzustandspotential des Systems um das Potential eines unangeregten Bottomonium-Zustands mit einem Pion in Ruhe. Darüber liegen zahlreiche Bottomonium-Zustände mit Pionen mit endlichem Impuls. Inmitten dieser Potentiale liegt gegebenenfalls das gesuchte Tetraquark-Potential. Ziel ist, einen Weg zu finden, die Bottomonium-und-Pion-Potentiale und das Tetraquark-Potential voneinander zu unterscheiden. Im ersten Schritt wird der Bottomonium-und-Pion-Grundzustand mithilfe des GEP aus dem System entfernt. Der erste angeregte Zustand ist im Anschluss daran weitgehend frei von Einflüssen des Grundzustands. Man findet, dass das Potential des ersten angeregten Zustandes attraktiv ist, sodass die Bildung eines Tetraquark-Zustandes nicht ausgeschlossen ist. Um den ersten angeregten Zustand weiter zu untersuchen, wird ein quantenmechanisches Modell verwendet, das die Volumenabhängigkeit des Überlapp eines Testzustands mit den verschiedenen Strukturen beschreibt. Es damit prinzipiell möglich, unter Zuhilfenahme mehrerer Gittervolumina eine Aussage über die Struktur des ersten angeregten Zustands zu treffen.
Studentische Lehrevaluationsergebnisse sind ein weit verbreitetes Maß, um die Qualität universitärer Lehre zu erfassen. Diese Ergebnisse werden unter anderem dafür genutzt, Entscheidungen für die Modifikation des Lehrangebots zu treffen oder die Vergabe der Leistungsorientieren Mittelvergabe mitzubestimmen. Aufgrund dieser relevanten Folgen wird in dieser Arbeit der Frage nachgegangen, wie ein angemessener Validierungsprozess bezüglich studentischer Lehrevaluationsergebnisse gestaltet werden könnte.
Bisherige Validierungsstudien zu studentischen Lehrevaluationsinventaren fokussierten sich meist auf die Überprüfung verschiedener Validitätsarten (inhaltsbezogene, kriteriumsbezogene oder faktorielle) und die Erfassung der Messfehlerfreiheit.
Allerdings ist zum einen zu hinterfragen, ob diese Ansätze grundsätzlich für alle Inventare geeignet sind. Weiterhin hat sich das Verständnis von dem verändert, was unter Validität verstanden wird: Von der Annahme von Validität als Testeigenschaft, verschiedener Validitätsarten und binärer Aussagen auf Basis von Einzelbefunden hin zu dem Verständnis von Validität bezogen auf die Testwert-Interpretation und Verwendung, zu einem einheitlichen Validitätskonzept und zu einer Validitäts-Argumentation. Diese Veränderungen werden in den neueren argumentationsbasierten Validitätsansätzen berücksichtigt und bieten einen Rahmen, der auf die jeweilige Intention ausgerichtet ist, einen Test oder Fragebogen einzusetzen.
Auf Grundlage dieser argumentationsbasierten Ansätze wird in dieser Arbeit die Interpretation studentischer Lehrevaluationsergebnisse überprüft, die als das Ausmaß an qualitätsbezogener Zufriedenheit der Teilnehmer mit der Durchführung einer Lehrveranstaltung und der Vermittlung von Lehrinhalten angesehen werden. Der Validierungsprozess wird anhand der Lehrevaluationsdaten des Frankfurter Promotionskollegs am Fachbereich Medizin dargestellt. Dieser Prozess bestätigte weitgehend die beabsichtigte Interpretation, zeigte aber auch eine zumindest teilweise Revision des Inventars und eine weitere Überprüfung an. Eine Validierung bezüglich der Verwendung der Lehrevaluationsergebnisse sowie der auf diesen basierenden beabsichtigten Konsequenzen wird in einer Folgestudie überprüft.
Anhand dieser Arbeit wird Anwendern und Entwicklern von Lehrevaluationsinventaren eine Her- und Anleitung für den Validierungsprozess gegeben und die Vorteile argumentationsbasierter Ansätze aufgezeigt.
Ziel: Ziel dieser Arbeit ist es, mittels einer sozioökonomischen und demografischen Analyse der Praxis-Umfelder der Vertragsärzte und -psychotherapeuten festzustellen, ob innerhalb des Stadtgebietes Stuttgarts soziale Ungleichheiten beim Zugang zu ambulanter medizinischer Versorgung bestehen. Den Schwerpunkt bildet die Analyse der verschiedenen Fachgebiete. Des Weiteren werden die Geschlechterverteilung und die Fremdsprachen¬kenntnisse der Vertragsärzte und –psychotherapeuten sowie die Barrierefreiheit der Praxen in Bezug auf verschiedene Sozialindikatoren untersucht.
Methodik: Nach Bereinigung der Zweigpraxen und Nebenbetriebsstätten wurden die Daten von 1662 Vertragsärzten und –psychotherapeuten und 142 Apotheken in Stuttgart in die Analysen miteinbezogen. Jedem Eintrag wurden über die Adresse die dem jeweiligen Stadtteil zugehörigen Werte ausgewählter sozioökonomischer und demografischer Indikatoren zugeordnet. Sortiert nach den der Bedarfsplanung entsprechenden Fachgebietskategorien wurden die Sozialindikatorenwerte deskriptiv und mit dem Kruskal-Wallis-Test mit Dunn-Post-Test statistisch analysiert. Für die Analyse der Fremdsprachenkenntnisse wurde derselbe Test ausgewählt. Die statistische Analyse der Geschlechter-verteilung unter den Vertragsärzten und –psychotherapeuten sowie der Barrierefreiheit der Praxen erfolgte bei vorliegender Varianzhomogenität der Wertepaare eines Sozialindikators mittels unpaired t-test, ansonsten mittels Mann-Whitney-Test. In der abschließend durchgeführten linearen Regressions¬analyse wurden die Distanz zum Stadtzentrum sowie die Einwohnerzahl der Stadtteile als mögliche Störfaktoren untersucht.
Ergebnisse: Der Kinderanteil in den Praxis-Umfeldern der Kinder- und Jugendpsychotherapeuten ist zwar signifikant höher als in den Praxis-Umfeldern der anderen Ärzte und Psychotherapeuten, er bleibt aber ebenso wie der Kinderanteil in den Praxis-Umfeldern der Kinder- und Jugendmediziner unter dem Mittelwert aller Stadtteile. Der Anteil an Senioren liegt dagegen in allen Praxis-Umfeldern über dem stadtweiten Mittelwert. Zusätzlich weisen die Praxis-Umfelder der Fachgebiete mit einem hohen Demografie-Faktor mit Ausnahme der Internisten auch einen hohen Seniorenanteil auf. In Bezug auf die Arbeitslosenquote weichen die Praxis-Umfelder der Kinder- und Jugendpsychotherapeuten signifikant von der Gesamt-Gruppe ab. Sie liegen ebenso wie die Kinder- und Jugendmediziner unter dem stadtweiten Mittelwert. Aufgrund geografischer Überschneidungen zeigt sich bei der Analyse des Anteils an Einwohnern mit Migrationshintergrund in den Praxis-Umfeldern ein ähnliches Bild. Neben den Kinder- und Jugendpsychotherapeuten weisen hier auch die Praxis-Umfelder der medizinischen und psychologischen Psychotherapeuten einen signifikant geringeren Migrationsanteil auf. In den Praxis-Umfeldern der Ärzte und Psychotherapeuten mit Türkisch- bzw. Russischkenntnissen zeigt sich kein signifikant höherer Anteil an Einwohnern mit Migrationshintergrund. Während die Hausärzte und Apotheken sich breiter über das Stadtgebiet verteilen, praktizieren die Fachärzte gehäuft in urbaneren innenstadtnahen Stadtteilen. Ein Großteil der barrierefreien Praxen befindet sich im Stadtzentrum oder nördlich davon, in ländlicheren Stadtteilen mit höheren Seniorenanteilen gibt es signifikant weniger barrierefreie Praxen.
Schlussfolgerungen: Während sich die Ärzte der meisten Fachgebiets-kategorien dem Mehrbedarf an medizinischen Versorgungsleistungen in Stadtteilen mit hohem Seniorenanteil entsprechend verteilen, könnten vor allem die Kinder in Stadtteilen mit einem hohen Kinderanteil bei der ambulanten medizinischen Versorgung benachteiligt sein. Auffällig ist die innerhalb des Stadtgebietes bestehende Segregation bezüglich der Arbeitslosenquote und dem Migrationsanteil. Eine Benachteiligung beim Zugang zu den Psychotherapeuten der verschiedenen Fachgebietskategorien fällt in diesen Stadtteilen besonders ins Gewicht. Zudem gibt es Hinweise darauf, dass die Einwohner ländlicherer Stadtteile beim Zugang zu verschiedenen Fachärzten sowie zu barrierefreien Praxen benachteiligt sind. Diese Ergebnisse deuten darauf hin, dass die Kriterien der aktuellen Bedarfsplanung nicht ausreichen, um soziale Ungleichheiten in der ambulanten medizinischen Versorgung zu verhindern. Mögliche Ansatzpunkte zur Verbesserung der Versorgungslage könnten eine weitere Untergliederung großer Planungsbereiche oder die einheitliche Aufnahme regionaler bzw. sozioökonomischer Merkmale in die Bedarfsplanung sein.
Embedding spanning structures into the random graph G(n,p) is a well-studied problem in random graph theory, but when one turns to the random r-uniform hypergraph H(r)(n,p) much less is known. In this thesis we will examine this topic from different perspectives, providing insights into various aspects of the theory of random graphs. Our results cover the determination of existence thresholds in two models, as well as an algorithmic approach. For the embeddings, we work with random and pseudorandom structures.
Together with Person we first notice that a general result of Riordan can be adapted from random graphs to hypergraphs and provide sufficient conditions for when H(r)(n,p) contains a given spanning structure asymptotically almost surely. As applications, we discuss several spanning structures such as cubes, lattices, spheres, and Hamilton cycles in hypergraphs.
Moreover, we study universality, i.e. when does an r-uniform hypergraph contain every hypergraph on n vertices with maximum vertex degree bounded by [delta]? For H(r)(n,p), it is shown with Person that this holds for p = w(ln n/n)1/[delta]) asymptotically almost surely by combining approaches taken by Dellamonica, Kohayakawa, Rödl, and Ruciński, of Ferber, Nenadov, and Peter, and of Kim and Lee.
Any hypergraph that is universal for the family of bounded degree r-uniform hypergraphs has to contain [omega](nr-r/[delta]) edges. With Hetterich and Person we exploit constructions of Alon and Capalbo to obtain universal r-uniform hypergraphs with the optimal number of edges O(nr-r/[delta]) when r is even, r | [delta], or [delta] = 2. Furthermore, we generalise the result of Alon and Asodi about optimal universal graphs for the family of graphs with at most m edges and no isolated vertices to hypergraphs.
In an r-uniform hypergraph on n vertices a tight Hamilton cycle consists of n edges such that there exists a cyclic ordering of the vertices where the edges correspond to consecutive segments of r vertices. In collaboration with Allen, Koch, and Person we provide a first deterministic polynomial time algorithm, which finds asymptotically almost surely tight Hamilton cycles in random r-uniform hypergraphs with edge probability at least C log3 n/n. This result partially answers a question of Nenadov and Skorić and of Dudek and Frieze who proved that tight Hamilton cycles exist already for p = w(1/n) for r = 3 and p [größer/gleich] (e + o(1))/n for r [größer/gleich] 4 using a second moment argument. Moreover our algorithm is superior to previous results of Allen, Böttcher, Kohayakawa, and Person and Nenadov and Skorić.
Lastly, we study the model of randomly perturbed dense graphs introduced by Bohman, Frieze and Martin, that is, the union of any n-vertex graph G[alpha] with minimum degree at least [alpha]n and G(n,p). For any fixed [alpha] > 0, and p = w(n-2/([delta]+1)), we show with Böttcher, Montgomery, and Person that G[alpha] UG(n,p) almost surely contains any single spanning graph with maximum degree [delta], where [delta] [größer/gleich] 5. As in previous results concerning this model, the bound used for p is lower by a log-term in comparison to the conjectured threshold for the general appearance of such subgraphs in G(n,p) alone. The new techniques we introduce also give simpler proofs of related results in the literature on trees and factors.
Hintergrund: CD34+ Zellen besitzen eine essenzielle Rolle in der Hämatopoese und vaskulären Homöostase. Das Ziel unserer Studie war, erstens, in vitro die Rolle des thrombozytären JAM-C bei der Adhäsion und anschließenden Differenzierung von humanen CD34+ Zellen zu endothelialen Progenitorzellen zu analysieren sowie zweitens, seine Assoziation mit dem thrombozytären P-Selektin bei Patienten mit koronarer Herzkrankheit zu untersuchen.
Methoden und Ergebnisse: Mittels Durchflusszytometrie beobachteten wir, dass in vitro die JAM-C-Expression auf der Oberfläche von Thrombozyten, nach Thrombozytenaktivierung, erhöht ist. Die JAM-C-Expression korrelierte mit der Expression des thrombozytären P-Selektin in Patienten mit koronarer Herzkrankheit (r=0,301, P=0,01). Die Rolle des JAM-C und seines Counter-Rezeptors MAC-1 bei der Adhäsion von humanen CD34+ Zellen über immobilisierten Thrombozyten, wurde jeweils, unter Verwendung eines neutralisierenden löslichen Proteins (sJAMC-Fc) und eines monoklonalen Antikörpers gegen JAM-C oder Integrin MAC-1 (CD11b/CD18), untersucht. Die Behandlung mit löslichem JAM-C-Fc, anti-JAM-C oder anti-MAC-1 ergab, im Gegensatz zu einer Vorbehandlung mit Control-Fc oder IgG1, eine signifikant verminderte Adhäsion von humanen CD34+ Zellen an immobilisierten Thrombozyten unter statischen Bedingungen (P<0,05). Um unsere Ergebnisse unter hoher Scherspannung, ähnlich der arteriellen Strömung, zu validieren, führten wir Perfusionsexperimente in einer Flusskammer durch. Auch unter hoher Scherspannung führte die Hemmung der JAM-C/MAC-1 Interaktion zu einer signifikant verringerten Adhäsion von CD34+ Zellen über immobilisierten Thrombozyten (P<0,05). Mittels endothelialer Kolonienbildungstests und Kokulturen konnten wir zeigen, dass die Thrombozyten-vermittelte Differenzierung von CD34+ Zellen zu Endothelzellen oder Makrophagen/Schaumzellen, durch die Hemmung der JAM-C/MAC-1-Achse, unbeeinflussbar bleibt.
Schlussfolgerungen: In Anbetracht dieser Ergebnisse kann man behaupten, dass thrombozytäres JAM-C die CD34+ Zelladhäsion unterstützt. Dieser Mechanismus kann möglicherweise am Homing sowie an der Domizilierung von humanen CD34+ Zellen beteiligt sein.
The objectives of this thesis were to understand how distinct classes of cell types interact to shape oscillatory activity in cortical circuits of the turtle. We chose the turtle cortex as a model system for cortical computations for two reasons. One is that the phylogenetic position of turtles makes their cortex functionally and anatomically particularly interesting. The second is that reptilian brains present several unique experimental advantages. Turtles have a three-layered cortex that forms the dorsalmost part of their pallium and receives direct input from visual thalamus. Thus turtle cortex, while sharing several features with mammalian cortices, constitutes a simpler system for studying cortical computations and dynamics. Freshwater turtles are semiaquatic species, that dive for hours and hibernate for months without breathing. Their brains are adapted to these behaviors so that they can operate under severe anoxia. This property allows for ex vivo wholebrain and whole-cortex (”cortical slab”) preparations in vitro, enabling the use of many sophisticated techniques for monitoring activity in parallel.
I thus set out to utilize the advantages of our model system, by using optogenetic methods to reliably evoke oscillations in an ex vivo whole-cortex preparation while observing activity in parallel with planar multi-electrode arrays (MEA), linear silicon depth-electrodes and patch-clamp recording techniques. This required several technical aspects to be solved. Prior work in turtle cortex (Prechtl, 1994; Prechtl et al., 1997; Senseman and Robbins, 2002) indicated that visual stimuli evoke complex activity patterns (e. g. wave patterns) in dorsal cortex. The goal was to examine these dynamics in detail and to provide mechanistic explanations for them whenever possible. The recent advent of optogenetics, the development of microelectrode arrays, and the possibility to combine these techniques with classical electrophysiological approaches on a resistant, accessible and stable preparation led me to explore a number of technical avenues.
First I had to establish gene delivery methods in reptiles. I settled on recombinant viruses, and show results from several serotypes of adeno-associated virus (AAV), i lentivirus and rabies virus. I report successful gene expression of genes of interest with several subtypes of AAV, including the commonly used AAV2/1 and AAV2/5 serotypes. Second I had to find promoters enabling global and cell-type specific gene expression in reptiles. Ubiquitous high-yield promoters such as CAG/CB7 or CMV drive high levels of expression in turtles; cell-type specific promoters such as hSyn (expression limited to neurons) and CaMKIIa (expression limited exclusively o mostly to excitatory neurons) appear similarly biased in turtles. Other cell-type specific promoters reported in the literature (fNPY, fPV, fSST) failed to express in turtles.
A second major aspect of my work focused on electrophysiological recordings using microelectrode arrays and the interpretation of extracellular signals recorded from cortex in ex vivo preparations. We observed that spike signals produced by pyramidal and inhibitory neurons were very often followed by a slower potential. We identified these slower potentials as reflections of synaptic currents, and thus of the axonal projections of the neurons, at least within the deep layers of cortex. This also resulted in a means to classify neurons as excitatory or inhibitory with much higher reliability than classical methods (e. g. spike width). The final aspect of my work concerns the use of optogenetics to dissect the mechanisms of cortical oscillations and wave propagation. I show that oscillations can be induced by light in turtle cortex after transfection with AAV2/1 carrying the gene for channelrhodopsin 2 (ChR2). By using the CaMKIIa promoter, ChR2 induced currents are limited to LII/III excitatory cells; we can therefore control excitatory drive to cortical networks. If this drive is strong enough, layer III inhibitory interneurons are recruited and fire in a concerted fashion, silencing the excitatory population. The visually evoked 20 Hz oscillations observed in chronically recorded animals (Schneider, 2015) or in anaesthetized animals (Fournier et al., in press) thus appear to result from a feedback loop between E and I cells within layers II & III. Details of these interactions are being investigated but - layer I interneurons, by contrast, do not seem to be involved. By pulsing light I could control the frequency of the oscillations within a range of several Hz around the natural oscillation frequency. Above this range, cortex could only follow the stimulus at a fraction (1/2, 1/3,...) of the light pulse frequency. Using a digital micromirror device, I limited activation of the cortical networks spatially, enabling the study of wave propagation in this system.
Reptilian cortex offers a relatively simple model system for a reductionist and comparative strategy on understanding cortical computations and dynamics. Turtle dorsal cortex could thus give fundamental insights to the primordial organization tional, computational and functional principles of cortical networks. These insights are relevant to our understanding of mammalian brains and may prove valuable to decipher fundamental questions of modern neuroscience.
In this doctoral thesis the transformation from relativistic hydrodynamics to transport and vice versa is studied. Approximations made by hybrid (hydrodynamics + transport) simulations of relativistic heavy ion collisions are discussed and their reliability is assessed at intermediate collision energies. A new method to simulate heavy ion collisions is suggested, based on the forced thermalization in high-density regions.
Mistral and Tramontane are wind systems in southern France and the western Mediterranean Sea. Both are caused by similar synoptic situations and channeled in valleys. Their relevance for the climate of the western Mediterranean region motivated this work. The representation of Mistral and Tramontane in regional climate simulations was surveyed with the models ALADIN, WRF, PROMES, COSMO-CLM, RegCM, and LMDZ. ERA-Interim and global CMIP5 simulations (MPI-ESM, CMCC-CM, HadGEM2-ES, and CNRM-CM5) provided the lateral boundary data for the regional simulations regarding the 20th century and two representative concentration pathways for the 21st century (RCP4.5 and RCP8.5).
A Mistral and Tramontane time series, a principal component analysis of pressure fields, and a Bayesian network were combined to develop a classification algorithm to identify pressure patterns in favor of Mistral and Tramontane. The regional climate models were able to reproduce the observed climatology of Mistral and Tramontane. Compared to observational data (SAFRAN and QuikSCAT), the simulations underestimate the wind speed over the Mediterranean Sea, mainly at the borders of the main flow. Simulations with smaller grid spacing showed better agreement with the observations.
A sensitivity study tested the influence of the Charnock parameter on the Mistral wind field. Its value impacted both wind speed and wind direction. Decreasing the orographic resolution in idealized simulations using COSMO-CLM caused a reduction in wind speed and a broader flow area. Including a parameterization for subgrid scale orography improved the simulation. However, an accurate simulation of Mistral and Tramontane still requires a high-resolution orography.
The classification algorithm also was applied to pressure fields from regional climate simulations driven by global simulation data. At the end of the 21st century, only small, non-significant changes in the number of Mistral days per year occur in the projection simulations. The number of Tramontane days per year decreased significantly.
The focus of this research was to understand the molecular mechanism that lies behind the insertion of tail-anchored membrane proteins into the ER membrane of yeast cells. State-of-art instruments such as LILBID, and Cryo-EM, combined with the introduction of direct electron detectors, were used to analyze the proteins that capture tail-anchored proteins near the ER membrane and help their releases from a chaperone, an ATPase named Get3. Get3 escorts TA proteins to the ER membrane, where both Get3 and the TA proteins interact sequentially to Get3 membrane bound receptors Get1 and Get2. Get1 and Get2 are homologs of mammalian WRB and CAML.
The native host was used to separately produce Get1, Get2, and the Get2/Get1 single chain constructs. The studies showed that when Get1 is expressed alone, Get1 does not seems to be located in the ER membrane but rather in microbodies like shape organelles (or peroxisome). Interestingly, Get1 seems to be located in the ER membrane when it is linked to Get2 as single chain construct.
The localization study of Get2/Get1 fused to GFP shows from the fluorescence intensity that Get2/Get1.GFP has a tube-like morphology or membrane-enclosed sacs (cisterna), implying that Get2/Get1 is actually targeted to the ER membrane and is likely functional. In other words, Get1 and Get2 stabilize each other in the ER membrane.
The expression of Get2/Get1 was found to be already optimum when expressed as single chain construct because the fluorescence counts did not improve when additives such as DMSO or histidine were added. However, when Get1 and Get2 are expressed separately, additives improve their protein production yield. In 1 liter culture, Get1 yield is increased by about 3 mg and Get2 by 1.8 mg. This can be explained by the space that Get1 and Get2 should occupy within the ER membrane as they must coexist with other membrane components to maintain the homeostasis of the cell. Hence, if there were no gain for single chain construct expression, it meant that Get2/Get1 was already well expressed on its own in ER membrane and has reached its optimum expression without the help of additives. The Get2/Get1 overexpression is more stable, tolerated and less toxic for the cells to express it at a high level.
DDM has proved to be the best detergent from the detergents tested to solubilize Get1, Get2, and Get2/Get1.
Thereafter, Get1, Get2 (data not shown), and Get2/Get1 were successfully purified in DDM micelles.
Furthermore, for the first time using LILBID, the actual study has shown that Get1 and Get2 are predominantly a heterotetramer (2xGet1 and 2xGet2) but higher oligomerization may exist as well.
Get3 binds to Get1 in a biphasic way with a specific strong binding of an affinity of 57 nM and the second of 740 nM nonspecific indicative of heterogeneity within the interaction between Get1 and Get3. This heterogeneity is caused by the presence of different conformation of either protein. However, in order to characterize a high-resolution structure model of a specific target one needs highly homogenous and identical molecules of the target protein or complex in solution. The homogeneity increases the chances of growing crystals during crystallography as the good homogeneity will likely generate a perfect packing of unit cells stack (also known as crystal lattice) in the three-dimensional spaces. The same truth goes for the single particles analysis Cryo-EM, especially for smaller complexes where having less or no conformation alterations of specific targets will enable the researcher to classify the particles in 2D and 3D, therefore improving the signal-to-noise-ratio that will ultimately lead to high-resolution structure determination.
Get1, Get2/Get1 and chimeric variants (tGet2/Get1, T4l.Get2/Get1, T4l.Get2.apocyte.Get1) were crystallized but none of the crystals could diffract due to heterogeneity.
This heterogeneity was not only occurring upon the binding of Get3 to its membrane receptors, but seems to be already present within the receptors themselves through possibly different conformation.
In this Ph.D. thesis, the heterogeneity of purified Get2 and Get1 as complex or individually in detergent is then, so far, the limiting factor for obtaining a high-resolution structure model of Get1 and Get2. As mentioned above, the heterogeneity observed was not due to the quality of the sample preparation but rather to the effect of different conformations that could have been native, or just because of the micelle used, as it was proven by the 3-D heterogeneity classification by Cryo-EM.
In general, crosslinking is one way to keep the integrity of protein complexes, however it appeared not to improve the sample quality when it was analyzed in micelles. Often the integrity of some membrane proteins is affected when they are solubilized and purified in detergents.
Finally, in this study, the structural map of Get2 and Get1 complex linked with chimeric protein T4 lysozyme and apocytochrome C b562RIL gene was obtained at 10 Å. However, this single chain construct has a density map corresponding to heterodimer species (one Get1 and Get2). Therefore, based on those data the tertiary structure of Get2/Get1 in micelle is poorly defined. It could be that the membrane extraction in DDM and the purification destabilizes the structure of the complex.
Der brain-derived neurotrophic factor (BDNF) ist ein in jüngerer Vergangenheit vielfach untersuchter Wachstumsfaktor. Dies liegt zum einen daran, dass der BDNF mit unterschiedlichen neurologischen Erkrankungen – wie dem Morbus Parkinson – in Verbindung gebracht wird (SCALZO et al., 2010; ZUCCATO & CATTANEO, 2009), zum anderen an der Tatsache, dass für den BDNF ein entgegenwirkender Effekt der diesen neurologischen Erkrankungen zugrundeliegenden neurodegenerativen Prozesse nachgewiesen wurde (DECHANT & NEUMANN, 2002). Erkenntnisse der sportmedizinischen und sportwissenschaftlichen Forschung zeigen dabei, dass eine sportliche Betätigung zu einer vermehrten Expression des BDNF führen kann, wobei allgemein dynamische und über einen längeren Zeitraum ausgeführte Aktivitäten (bspw. Ausdauertraining) die größten positiven Effekte auf die Expression des BDNF zu haben scheinen (KNAEPEN, GOEKINT, HEYMAN & MEEUSEN, 2010). In Anbetracht der den Morbus Parkinson begleitenden Kardinalsymptome, welche Einschränkungen der motorischen Leistungsfähigkeit als Folge haben, ist jedoch gerade eine solche andauernde Aktivität eine oftmals mit diesem Patientenkollektiv nicht umzusetzende Trainingsmaßnahme. Die Stochastische Resonanztherapie (SRT), als zunächst nur passive Trainingsmaßnahme, welche über applizierte Vibrationen zu Muskelkontraktionen führt (HAGBARTH & EKLUND, 1966) wurde bereits mit einer vermehrten Expression neurotropher Faktoren bzw. des BDNF in Verbindung gebracht (HAAS, TURBANSKI, KESSLER & SCHMIDTBLEICHER, 2006). Diese Annahme beruhte dabei auf lediglich theoretischen Überlegungen, welche wissenschaftlichen jedoch noch nicht untersucht wurden. Neben der Betrachtung der SRT als potentielle Therapiemaßnahme für Parkinson-Patienten konnten interessante Forschungsarbeiten vergangener Jahre zeigen, dass ein Training unter Blutflussrestriktion (engl.: blood-flow-restriction; BFR) zu einer positiven Beeinflussung bspw. der motorischen Kraft führt, hierfür im Vergleich zu einem Hypertrophietraining jedoch deutlich geringere Intensitäten (1RM) notwendig sind (ELLEFSEN et al., 2015; FAHS et al., 2015; LAURENTINO et al., 2012). Diese Entdeckung ist dabei für Parkinson-Patienten interessant, so dass dieses Patientenklientel trotz einer geringer notwendigen Belastung adäquate Krafttrainingsreize appliziert bekommen kann.
Die Primärfragestellung der vorliegenden Studie war zum einen die Wirkung der SRT auf den BDNF (ad-hoc-Messung), zum anderen wurde der Sekundärfragestellung nachgegangen, ob durch ein 8-wöchiges SRT-Training eine Verbesserung auch funktioneller Parameter erzielt werden kann (Langzeiteffekt/-messung). Bezüglich der Sekundärfragestellung wurde im pre-post-Testdesign die Wirkung der SRT auf die isometrische Maximalkraft, die posturale Stabilität und den Timed-up-and-go-Test (TUG-Test) untersucht. Sowohl die Primär- als auch die Sekundärfragestellung beinhalteten neben der reinen SRT-Anwendung (SRT*) auch eine Integration der BFR (SRT*+BFR). Um Placebo-Effekte möglichst auszuschließen, wurde beiden Gruppen jeweils eine Kontrollgruppe gegenübergestellt.
An der Studie nahmen insgesamt 30 Personen mit Morbus Parkinson teil (Hoehn & Yahr 2-4). Im Ergebnis zeigte sich, dass – zunächst auf die Primärfragestellung (BDNF) bezogen – sowohl die SRT*-Intervention, als auch die SRT*+BFR-Intervention zu einer hochsignifikanten Erhöhung des BDNF führte. Im Intergruppenvergleich wiesen beide Interventionsgruppen im Vergleich zur KG eine sich signifikant unterscheidende Anpassung der BDNF-Expression auf. Im Vergleich beider Interventionsgruppen konnte dagegen keine unterschiedliche Beeinflussung des BDNF identifiziert werden. Bezüglich der Sekundärfragestellung konnte für die isometrische Maximalkraft lediglich für SRT*+BFR eine signifikante Kraftsteigerung nachgewiesen werden. Im Intergruppenvergleich zeigte sich diese als signifikant unterschiedlich zur Beeinflussung der isometrischen Maximalkraft in der KG, wohingegen kein Unterschied zwischen der SRT*+BFR und SRT* als auch der SRT* und der KG identifiziert werden konnte. Während für die posturale Stabilität in Parallelstellung sowohl im Intragruppen- als auch im Intergruppenvergleich keine signifikante Beeinflussung der SRT* und SRT*+BFR gemessen werden konnte, zeigte sich in Schrittstellung eine signifikante Veränderung der SRT*, wobei diese eine Verschlechterung der posturalen Stabilität darstellte. Im Intergruppenvergleich zeigte sich ein signifikanter Unterschied zwischen SRT* und SRT*+BFR, wobei SRT*+BFR zu einer Verbesserung der posturalen Stabilität geführt hat, diese jedoch keine statistische Signifikanz aufwies. SRT* und SRT*+BFR unterschieden sich im Vergleich zur KG dagegen nicht signifikant. Die Messung der Gangleistung (TUG-Test) zeigte überraschenderweise lediglich für die KG eine signifikante Verbesserung auf, wobei SRT* und SRT*+BFR ebenfalls zu einer Verbesserung im TUG-Test geführt haben, welche jedoch den Nachweis einer statistischen Signifikanz verpassten. Durch die gleichgerichtete Anpassung zeigte sich abschließend im Intergruppenvergleich keine statistisch signifikante Unterscheidung der Gruppen.
Zusammengefasst zeigte die SRT tendenziell die Möglichkeit einer positiven Beeinflussung des BDNF auf, welche durch die additive BFR leicht erhöht werden konnte. Bezüglich der motorischen Parameter ergaben sich heterogene Ergebnisse, so dass nicht von einer generellen positiven Wirkung der SRT ausgegangen werden kann. Zu beobachten war jedoch, dass die zusätzliche BFR in allen Einzeltests – wenn auch nicht immer statistisch signifikant – zu ausschließlich positiven Anpassungen geführt hat.
Der negative Einfluss auf die Abstoßungsrate, die Transplantatfunktion und das Transplantatüberleben bei Nierentransplantationen von Antikörpern, die im Serum von Transplantatempfängern nachgewiesen werden, ist unumstritten. Die Entwicklung immer sensitiverer Methoden zur Antikörperdetektion wie beispielsweise die Luminex-Technologie wirft jedoch neue Fragen auf: Sind die hier nachgewiesenen, zum Teil sehr niedrigtitrigen Antikörper immer noch relevant für das Outcome von Transplantationen? Oder bergen die hier zusätzlich aufgedeckten Antikörper nur die Gefahr in sich, die Organallokation zu erschweren und mögliche komplikationslose Transplantationen zu verhindern? Zur Beantwortung dieser Fragen erfolgte die Durchführung dieser retrospektiven Studie.
In die Studie wurden Seren von 197 Nierentransplantatempfängern eingeschlossen. Diese Seren wurden vor der Transplantation auf Antikörper im Luminex untersucht und anschließend deren Transplantatfunktion und das Transplantatüberleben in Abhängigkeit vom Antikörperstatus ermittelt. Zusätzlich erfolgte eine Gegenüberstellung mit den Ergebnissen aus den im Rahmen der aktuellen Richtlinien zur Transplantationskompatibilität durchgeführten Testmethoden LCT und ELISA.
Bei einem Vergleich der drei unterschiedlichen Techniken zum HLA-Antikörpernachweis zeigte sich, dass der Luminex eine deutlich größere Sensitivität als der ELISA und insbesondere als der LCT besitzt. Außerdem war nachweisbar, dass die mittels Luminex Technology nachgewiesenen HLA-Antikörper ein schlechteres Transplantatüberleben bewirken (Graphik 4). Dies zeigte sich insbesondere, wenn HLA-Klasse I oder gleichzeitig HLA-Klasse I und HLA-Klasse II Antikörper bei Patienten vorhanden sind (Graphik 5). Im Gegensatz dazu fanden sich bei der Betrachtung der Patienten mit im LCT oder im ELISA nachgewiesen HLA-Antikörpern deutlich geringere, klinisch prognostische Hinweise auf das Transplantatüberleben (Graphik 10 und 13).
Das Transplantatüberleben war signifikant besser bei nicht-immunisierten Patienten als bei der Kohorte, die mittels einer der Nachweismethoden HLA-spezifische Antikörper aufwies. Eine Analyse der Transplantatfunktion, die mithilfe der Proteinurie und des Serum-Kreatinins bestimmt wurde, ergab, dass nicht immunisierte Patienten ein besser funktionierendes Transplantat besitzen als antikörperpositive Empfänger. Ein besonders negativer Einfluss donorspezifischer Antikörper konnte hier jedoch nicht nachgewiesen werden.
Im Hinblick auf die klinische Relevanz der nachgewiesenen HLA-Antikörper erfolgte die Auswertung mit unterschiedlichen MFI Kategorien (MFI 1000, 2000, 3000 und 4000). Anhand dieser Arbeit wurde ein MFI-Grenzwert zur Bestimmung des Antikörperstatus im Luminex von größer oder gleich 1000 im Luminex festgelegt, der am besten mit dem Transplantatoutcome korrelierte. Ein negativer Einfluss donorspezifischer Antikörper konnte jedoch nicht nachgewiesen werden. Es zeigte sich dennoch bei MFI Werten über 2000 ein tendenziell schlechteres Transplantatüberleben, wenn donorspezifische Antikörper vorliegen (Graphik 7).
Bei der Betrachtung des Antikörperstatus im LCT und im ELISA war kein Unterschied hinsichtlich des Transplantatüberlebens in Abhängigkeit vom Antikörperstatus sichtbar. Jedoch wurden die Patientenseren mit diesen beiden Methoden vor der Durchführung der Transplantation auf präformierte Antikörper untersucht und bei positiver Befundung eine intensivierte Immunsuppression veranlasst, was zu einer Beeinflussung des Transplantatoutcomes führt. Eine Unterteilung der nicht immunisierten Patienten im LCT und im ELISA anhand des Luminex-Ergebnisses zeigt, dass Patienten, die sowohl im LCT bzw. ELISA als auch im Luminex keine Antikörper aufweisen ein signifikant besseres Transplantatüberleben besitzen als Empfänger, die nur im Luminex immunisiert sind, jedoch nicht im LCT bzw. im ELISA. Dies lässt darauf schließen, dass die Beachtung von Antikörpern, die ausschließlich im Luminex nachgewiesen werden können, zu einem besseren Transplantatoutcome führt. Somit ist eine Durchführung des Luminex in Kombination mit anderen Antikörpernachweisverfahren von Vorteil.
Zur genauen Beantwortung der anfangs aufgeworfenen Fragen bedarf es sicherlich trotz einiger bereits vorhandener Arbeiten – mit zum Teil jedoch sehr unterschiedlichen Ergebnissen – noch zusätzlicher Studien. Auch sollte die Rolle der Denaturierung der HLA-Antigene auf den Beads, die zu falsch positiven und negativen Resultaten führen können, weiter analysiert werden. Außerdem muss der Einfluss komplementaktivierender Antikörper, wie mit der C1q- und C4d-Technik im Luminex nachweisbar, und der Einfluss nicht HLA-spezifischer Antikörper noch genauer erläutert werden.
The African continent is regularly portrayed as an indolent space with a well-known reputation as a chaotic continent. Viewed as lacking vision, means and capacities, Africa is perceived at best as a place that is marked by a permanent status quo, stagnation, or in worst case scenarios, as a declining continent. Various references to the continent are synonymous with famine, poverty, war, etc. Such portrayals are all the more intriguing given that the continent is known for its abundant natural resources, such as timber, oil, natural gas, minerals, etc., whose reserves are, moreover, not well known both by the African people and their leaders. As a result, there is still much progress to be made in tapping into the resources in order to improve the daily lives of African citizens.
In such a context dominated by infantile carelessness throughout the continent, the interventions of actors from outside the continent are the only hopes of bringing some vitality to this continent which is cloaked in "la grande nuit – the great darkness" (Mbembé 2013). Thus during the main sequences of recent history, representing different forms of Western penetration and activity on the African continent (slavery, imperialism, colonization), all the Western world’s contributions have obviously not sufficed to boost Africa and take it out of its never ending childhood. It has remained just as passive and apathetic today as it was yesterday.
The attraction of Asian actors to the continent is even more recent. And consistent with its abovementioned indolence, Africa is seen as an easy and defenceless prey for the Korean, Japanese, Indian, Malaysian, or Chinese conquerors. In the latter case, the insatiable appetite for natural resources whose reserves are being rapidly depleted is the cornerstone of their foreign aid policy. This led China to colonize the continent, showing a preference for Pariah Regimes which held no appeal for the West, by sending an army of workers to extract those resources (Lum et al. 2009), in defiance of all national and international regulations and based on completely opaque contracts.
Although the concept of African Agency was rapidly developed in several African countries, the aim of this study was more specific to Cameroon’s mining sector in which different entrepreneurs from abroad got involved over time. The thesis investigates whether indigenous citizens took part in any way in the development of mining projects in the country. Thus, the work assesses and analyses actions and reactions initiated and undertaken by local people in the context of China’s presence within Cameroon’s mining sector to promote and advance their interests over those of foreign investors. In addition, the author has no knowledge of any other study investigating African Agency in the mining sector as a whole in Cameroon.
In conducting this study, a multi-method research framework was developed including a series of methods used to collect data and analyse concepts of African Agency associated Political Ecology as they developed within Cameroon’s mining sector. Specifically, those methods comprised quantitative research when it came to collecting data using a positivist and empirical approach constructed by deducing evidence from statistical data collected by means of the 167 questionnaire surveys administered to local inhabitants and workers randomly selected on mining sites and in riparian communities. The questionnaires helped to capture Cameroonians' perceptions of the recent phenomenon of the gradual but significant influx of international actors and precisely Chinese players in the mining sector on the one hand, and on the other hand, observational data was collected across the GVC as developed in the Betare-Oya region. As a complement to the former technique, qualitative methods helped to study and deepen understanding of human behaviour and the social world in a holistic perspective through individual interviews, focus groups, and direct observations on the ground. In addition, the spatial analysis method based on the land use classification technique served to detect changes to land use/land cover that have been brought on by mechanised mining activities undertaken in this region. The sequencing of data collected and their processing from a ground theory perspective led to the formulation and specification of Cameroon’s Ecological Agency theory.
One of the earliest steps of this work consisted in a literature review and in placing the African Agency concept in a broader context. It then led to the state of the art, specifications about research content of the work and the main theories undergirding this thesis. Before examining developments that emerged during the last decade, a historical perspective was provided to the topic in order to show how African societies started mining operations and how they dealt with foreign partners interested in their mining resources. The aim was to show that while Western imperialism presented a challenge for the sector, it did not erase local participation, even despite the constraints associated with such involvement.
...
Software evolves. Developers and programmers manifest the needs that arise due to evolving software by making changes to the source code. While developers make such changes, reusing old code and rewriting existing code are inevitable. There are many challenges that a developer faces when manually reusing old code or rewriting existing code. Software tools and program transformation systems aid such reuse or rewriting of program source code. But there are significantly occuring development tasks that are hard to accomplish manually, where the current state-of-the-art tools are still not able to adequately automate these tasks. In this thesis, we discuss some of these unexplored challenges that a developer faces while reusing and rewriting program source code, the significance of such challenges, the existing automation support for these challenges and how we can improve upon them.
Modern software development relies on code reuse, which software developers
typically realize through hand-written abstractions, such as functions,
methods, or classes. However, such abstractions can be challenging to
develop and maintain. An alternative form of reuse is \emph{copy-paste-modify}, in which developers explicitly duplicate source code to adapt the duplicate for a new purpose. Copy-pasted code results in code clones, i.e., groups of code fragments that are similar to each other. Past research strongly suggests that copy-paste-modify is a popular technique among software developers. In this paper, we perform a small user study that shows that copy-paste-modify can be substantially faster to use than manual abstraction.
One might propose that software developers should forego hand-written abstractions in favour of copying and pasting. However, empirical evidence also shows that copy-paste-modify complicates software maintenance and increases the frequency of bugs. Furthermore, the developers in an informal poll we conducted strongly preferred to read code written using abstractions. To address the concern around copy-paste-modify, we propose a tool that merges similar pieces of code and automatically creates suitable abstractions. Our tool allows developers to get the best of both worlds: easy reuse together with custom abstractions. Because different kinds of abstractions may be beneficial in different contexts, our tool provides multiple abstraction mechanisms, which we selected based on a study of popular open-source repositories.
To demonstrate the feasibility of our approach, we have designed and implemented a prototype merging tool for C++ and evaluated our tool on a number of clones exhibiting some variation, i.e near clones, in popular Open Source packages. We observed that maintainers find our algorithmically created abstractions to be largely preferable to existing duplicated code. Rewriting existing code can be considered as a form of program transformation, where a program in one form is transformed into a program in another form. One significant form of program transformation is data representation migration that involves changing the type of a particular data structure, and then updating all of the operations that has a control or data dependence on that data structure according to the new type. Changing the data representation can provide benefits such as improving efficiency and improving the quality of the computed results. Performing such a transformation is challenging, because it requires applying data-type specific changes to code fragments that may be widely scattered throughout the source code connected by dataflow dependencies. Refactoring systems are typically sensitive to dataflow dependencies, but are not programmable with respect to the features of particular data types. Existing program transformation languages provide the needed flexibility, but do not concisely support reasoning about dataflow dependencies.
To address the needs of data representation migration, we propose a new approach to program transformation that relies on a notion of semantic dependency: every transformation step propagates the transformation process onward to code that somehow depends on the transformed code. Our approach provides a declarative transformation specification language, for expressing type-specific transformation rules. We further provide scoped rules, a mechanism for guiding rule application, and tags, a device for simple program analysis within our framework, to enable more powerful program transformations.
We have implemented a prototype transformation system based on these ideas for C and C++ code and evaluate it against three example specifications, including vectorization, transformation of integers to big integers, and transformation of array-of-structs data types to struct-of-arrays format. Our evaluation shows that our approach can improve program performance and the precision of the computed results, and that it scales to programs of at least 3700 lines.
Etablierung innovativer Strategien zur Resistenzumgehung bei der Therapie des Urothelkarzinoms
(2017)
Patienten mit fortgeschrittenem Blasenkarzinom haben eine sehr schlechte Prognose. Neue Behandlungsansätze, die ihnen eine realistische Heilungschance bieten, sind dringend notwendig. Der Einsatz des mTOR-Inhibitors TEM könnte ein innovatives Lösungskonzept darstellen. Zu berücksichtigen ist jedoch die Gefahr einer Resistenzinduktion unter Langzeitbehandlung. Basierend auf vorausgegangenen Studien wurde im Rahmen der Promotionsarbeit postuliert, dass die Behandlung mit dem HDAC-Inhibitor VPA eine Therapiestrategie darzustellen vermag, mit der durch Tem bedingte Resistenzen umgegangen werden können.
In der vorliegenden Arbeit wurde das biologische Verhalten verschiedener Blasenkarzinomzellen unter chronischer Tem-Therapie studiert und anschließend der Einfluss von VPA auf Wachstum und Proliferation der Zellen (TEM-resistent versus TEM-sensibel) untersucht.
Verwendet wurden die Zelllinien RTT112 und UMUC3. Die Resistenz wurde durch TEM induziert. Das Zellwachstum wurde mit MTT und die Proliferation mittels BrdU-Einbau evaluiert. Mittels Flow-Zytometrie erfolgte die Analyse der Zellzyklusprogression. Relevante Zellzyklusproteine und intrazelluläre Zielproteine wurden mittels Western Blot Verfahren analysiert. siRNA Knock-Down-Studien dienten zur Beurteilung der biologischen Relevanz der Proteine.
Die chronische mTOR-Blockade mit TEM über mehrere Monate hinweg ging mit einer Resistenzinduktion einher, nachgewiesen über eine Verschiebung des IC50-Wertes. VPA bewirkte nicht nur bei den TEM-sensiblen, sondern auch den TEM-resistenten Zellen eine signifikante Wachstums- und Proliferationshemmung. Der Effekt korrelierte mit einer Zunahme von Tumorzellen in der G0/G1-Phase des Zellzyklusses und Abnahme von S-Phase-Zellen. Die G2/M-Phase reduzierte sich in RT112-Kulturen und bei TEM-sensitiven UMUC3-Zellen. Hingegen erhöhte sich der Anteil von TEM-resistenten UMUC3-Kulturen in G2/M. VPA bewirkte bei allen Zellpopulationen Veränderungen an der Cyclin-Cdk-Achse. Insbesondere bei UMUC3-Zellen kam es unter VPA zur Suppression in der Aktivität mTOR-relevanter Signalmoleküle (Rictor, Raptor, Akt, p70S6). In beiden Zelllinien, RT112 und UMUC3, erhöhte sich der Expressionsspiegel der acetylierten Histone H3 und H4. Mittels siRNA wurde belegt, dass die Blockade von Cyclin A und Cdk2 mit einem verminderten Tumorwachstum assoziiert ist.
Aufgrund der vorgestellten Daten lässt sich postulieren, dass die Anwendung von VPA die Gefahr einer durch TEM induzierten Resistenz abzuwenden vermag. Die Ergebnisse der vorliegenden Arbeit präsentieren vielversprechende anti-tumorale Effekte VPAs und stellen möglicherweise eine innovative und effiziente Strategie zur Behandlung des fortgeschrittenen Blasenkarzinoms dar. Da Tem und VPA in der Klinik bereits etabliert sind, wäre eine Umsetzung rasch möglich.
Zur Verifizierung der am in vitro Modell erhobenen Daten sind weitere, vertiefende Untersuchungen am lebenden Organismus essentiell, um die Resistenzphänomene zu belegen.
The estimation of water balance components as well as water-related indicators on the land surface by means of global hydrological models have evolved in recent decades. Results of such models are frequently used in global- and continental-scale assessments of the current and future state of the terrestrial water cycle and provide a valuable data basis, e.g., for the Intergovernmental Panel on Climate Change. The Water – Global Assessment and Prognosis (WaterGAP) model is one of the state-of-the-art models in that field and has been in development and application for around 20 years. The evaluation, modification and application of WaterGAP is the subject of this thesis. In particular, the sensitivity of climate input data on radiation calculation and simulated water fluxes and storages is evaluated in the first part. Effects of model modification such as updated spatial input datasets, improved process representation or an alternative calibration scheme are the focus of the second part. Finally, three applications of WaterGAP give insight into the capabilities of that model, namely an estimate of global and continental water balance components, an assessment of groundwater depletion and the impact of climate change on river flow regimes. Model experiments, which are described in six journal papers as well as the appendices, were used as the basis for answering the total of 13 research questions. One of the major foci was to quantify the sensitivity of simulated water fluxes and storages to alternative climate input data. It was found that the handling of precipitation undercatch leads to the greatest difference in water balance components, especially in those areas where WaterGAP is not calibrated due to a lack of river discharge observations. The modifications of WaterGAP in the last few decades has led in general to an improved simulation of monthly river discharge, but process representation in semi-arid and arid regions still requires improvements. With the most current model version, WaterGAP 2.2b, and for the time period 1971–2000, river discharge to the oceans and inland sinks is estimated to be 40 000 km3 yr-1, whereas actual evapotranspiration is simulated as 70 500 km3 yr-1. Future research needs for WaterGAP in particular but also for the global hydrological model community in general are defined, promoting a community-driven effort for a robust assessment of the continental water cycle.
Urn models are simple examples for random growth processes that involve various competing types. In the study of these schemes, one is generally interested in the impact of the specific form of interaction on the allocation of elements to the types. Depending on their reciprocal action, effects of cancellation and self-reinforcement become apparent in the long run of the system. For some urn models, the influencing is of a smoothing nature and the asymptotic allocation to the types is close to being a result of independent and identically distributed growth events. On the contrary, for others, almost sure random tendencies or logarithmically periodic terms emerge in the second growth order. The present thesis is devoted to the derivation of central limit theorems in the latter case. For urns of this kind, we use a "non-classical" normalisation to derive asymptotic joint normality of the types. This normalisation takes random tendencies and phases into account and consequently involves random centering and, also, possibly random scaling.
Die vorliegende Arbeit leistet einen Beitrag zur Debatte über den Schriftspracherwerb mehrsprachiger Kinder in der Grundschule. Motiviert wird dieses Thema durch den Forschungsstand hinsichtlich der Erwerbsprozesse unter den Bedingungen der Mehrsprachigkeit sowie durch die Relevanz von Schreibkompetenzentwicklung in den früheren Schuljahren für die gesamte schulische Laufbahn der Kinder. Das Forschungsinteresse des Promotionsprojektes richtet sich auf die Rekonstruktion von Schreibprozessen der mehrsprachigen SchülerInnen mit Sprachförderbedarf im Sprachunterricht der Schuleingangsphase. Die Arbeit stellt einen ersten Versuch dar, die Schreibpraktiken der Schüler im interaktiven Kontext systematisch zu erfassen.
Proteinen die ExHepatitis C ist eine entzündliche Erkrankung der Leber, die durch das Hepatitis-C-Virus (HCV) verursacht wird. Trotz vieler Bemühungen ist heutzutage immer noch keine prophylaktische Vakzinierung verfügbar. Neuartige Therapien versprechen eine hohe Heilungsrate, sind aber mit hohen Kosten verbunden. HCV induziert oxidativen Stress, welcher für das Auftreten und die Progression der Pathogenese eine zentrale Rolle spielt. Um zellulären Stress (z.B. durch ROS) entgegenzuwirken, haben Zellen cytoprotective und detoxifizierende Mechanismen entwickelt, die die zelluläre Homöostase aufrechterhalten. Dabei kontrolliert der redoxsensitive Transkriptionsfaktor Nrf2 als Heterodimer zusammen mit sMaf- pression von cytoprotective und ROS-detoxifizierenden Genen. Vorherige Studien haben gezeigt, dass HCV den Nrf2/ARE-Signalweg beeinträchtigt. Dabei induziert HCV eine Translokation der sMaf-Proteine aus dem Zellkern in das Cytoplasma, wo diese das virale Protein NS3 binden. Im Cytoplasma lokalisierte sMaf-Proteine verhindern dadurch eine Translokation von Nrf2 in den Zellkern. Folglich ist die Expression von Nrf2/ARE-abhängigen cytoprotective Genen inhibiert und intrazelluläre ROS-Spiegel dauerhaft erhöht. Ein weiterer zentraler cytoprotective Mechanismus ist die Autophagie. Sie dient der Aufrechterhaltung der zellulären Homöostase durch den Abbau von defekten Proteinen und Organellen. Des Weiteren ist bekannt, dass Autophagie nicht nur im Laufe von Nährstoffmangel induziert wird, sondern auch durch erhöhte Mengen an ROS. In sämtlichen Studien konnte beobachtet werden, dass Autophagie für die Aufrechterhaltung des viralen Lebenszyklus eine wesentliche Rolle spielt, da sie mit der Ausbildung des membranous web, der Translation, der Replikation und der Freisetzung des Virus interferiert. Ausgehend davon sollte in dieser Arbeit zunächst die Relevanz von HCV-induziertem oxidativen Stress, resultierend aus der Nrf2/ARE-Signalweginhibition, als möglicher Aktivator der Autophagie untersucht werden. Dabei wurde in HCV-positiven Zellen eine Akkumulation von LC3-II beobachtet, was auf eine Induktion der Autophagie schließen lässt. In Übereinstimmung damit wurde eine erhöhte Expression von Autophagie-Markerproteinen in HCV-infizierten PHHs detektiert. Im Laufe der Autophagie wird p62 abgebaut. Somit sollte eine Induktion der Autophagie in einer Verminderung der Menge an p62 resultieren. Nichtsdestotrotz ist eine Akkumulation von p62 in HCV-positiven Zellen nachzuweisen. Dies erscheint zunächst widersprüchlich. Aufgrund der Tatsache, dass die Expression der katalytischen Untereinheit des Proteasoms (PSMB5) Nrf2-abhängig ist, führt die beeinträchtigte Nrf2-Aktivität in HCV-positiven Zellen jedoch zu einer verringerten Aktivität des konstitutiven Proteasoms. Dieser Befund kann auch die erhöhte Halbwertzeit von p62 in HCV-positiven Zellen erklären. Kürzlich wurde ein Zusammenspiel des Nrf2/ARE-Signalwegs und der Autophagie beobachtet. Dabei kann Nrf2 nicht nur über den kanonischen Signalweg aktiviert werden, sondern auch durch eine direkte Interaktion des phosphorylierten Autophagie-Adaptorproteins p62 (pS[349] p62) mit Keap1. In HCV-positiven Zellen können nicht nur eine Zunahme der Gesamtmenge von p62 beobachtet werden, sondern auch erhöhte Mengen an pS[349] p62. Die Berechnung des Quotienten aus pS[349] p62 und p62 zeigt in etwa eine Verdopplung der Menge an pS[349] p62 , was auf eine vermehrte Phosphorylierung von p62 in HCV-positiven Zellen rückschließen lässt. Des Weiteren konnte beobachtet werden, dass erhöhte Mengen an ROS, wie sie auch in HCV-positiven Zellen vorkommen, Autophagie induzieren können, die durch eine Akkumulation von LC3-II und die Zunahme von LC3 Puncta charakterisiert ist. Auch eine Zunahme von pS[349] p62 konnte beobachtet werden. Ferner resultierte die Überexpression der phosphomimetischen Mutante (p62 [S351E]) in einer Akkumulation von LC3-II, was auf die Fähigkeit von pS[349] p62 rückschließen lässt, Autophagie zu induzieren. Eine Modulation der Autophagie mittels der Inhibitoren 3-Methyladenin und Bafilomycin führte zu einer inhibierten Freisetzung von infektiösen viralen Partikeln und unterstreicht damit, dass der Autophagie eine essentielle Bedeutung bei der Freisetzung viraler Partikel zukommt. Eine HCV-Infektion wird sowohl von erhöhten Mengen an ROS als auch von einer Induktion der Autophagie begleitet. Dementsprechend führte eine Verminderung des intrazellulären Radikalspiegels durch eine Inkubation mit den Radikalfängern PDTC und NAC zu geringeren Mengen an LC3-II und pS[349] p62. Dabei konnte auch eine Abnahme der freigesetzten infektiösen viralen Partikel beobachtet werden, was ein Zusammenspiel zwischen erhöhten Mengen an ROS, Induktion der Autophagie und Virusfreisetzung nahelegt. Vorschlag: Erhöhte Mengen an ROS werden durch eine Aktivierung des Nrf2/ARE-Signalwegs detoxifiziert und würden somit den zuvor beschriebenen viralen Mechanismus verhindern. HCV die Aktivierung Nrf2/ARE-regulierter Gene beeinträchtigt, wurde die Hypothese aufgestellt, dass in HCV-positiven Zellen dieser komplexe Mechanismus dazu dient, die Translokation des pS[349] p62-abhängig freigesetzte Nrf2 in den Zellkern zu verhindern. Das wiederum hat eine eingeschränkte Expression von Nrf2/ARE-abhängigen Genen und Detoxifizierung von ROS zur Folge. Um diese Hypothese experimentell zu untersuchen, wurden HCV-positive und negative Zellen cotransfiziert mit dem p62 Wildtyp (p62 [wt]), der p62 phosphomimetischen Mutante (p62 [S351E]) oder einem Kontrollplasmid in Kombination mit einem Reporterkonstrukt, welches die Nrf2-Aktivierung darstellt (OKD48). Während in HCV-negativen Zellen im Vergleich zum p62 [wt] eine Transfektion mit p62 [S351E] zu einer signifikanten Aktivierung des Nrf2-abhängigen Reportergens führt konnte dies in HCV-positiven Zellen nicht beobachtet werden. Zusammengenommen beschreiben diese Ergebnisse einen neuartigen Mechanismus wie HCV das Zusammenspiel zwischen dem Nrf2/ARE-Signalweg, erhöhten Mengen an ROS und Autophagie beeinflusst. Dabei übt HCV einen negativen Effekt auf den Nrf2/ARE-Signalweg aus, um dem pS[349] p62-abhängig freigesetzten Nrf2 zu entkommen. Folglich werden erhöhte Mengen an ROS aufrechterhalten, die eine Induktion der Autophagie ermöglichen, welche für die Freisetzung viraler Partikel essentiell ist.
Die 5-LO ist ein Schlüsselenzym der LT-Biosynthese. Sie katalysiert in einem ersten Schritt zunächst die Umsetzung freigesetzter AA zu 5-HPETE und wandelt diese anschließend in LTA4 um. LT sind starke Entzündungsmediatoren, die an entzündlichen und allergischen Reaktionen des Körpers beteiligt sind. Sie lösen eine Immunantwort aus und können zur Entstehung von Asthma bronchiale, allergischer Rhinitis, Herz-Kreislauf-Erkrankungen und verschiedenen Krebserkrankungen beitragen [28]. NFS gehören zur Klasse der michaelreaktiven Verbindungen und inhibieren die 5-LO durch Interaktion mit katalytisch aktiven Cysteinresten in der Nähe der Substrateintrittspforte. Diese Tatsache macht michaelreaktive Verbindungen innerhalb der Entzündungsforschung zu einer interessanten Substanzklasse. Michaelreaktive Verbindungen besitzen eine durch Elektronenzug aktivierte Doppelbindung. Hierdurch verfügen diese Wirkstoffe über elekrophile Eigenschaften, wodurch sie leicht mit Nukleophilen reagieren können. Cysteine bestehen aus nukleophilen Thiolgruppen, die mit einer positiv polarisierten Doppelbindung, wie sie in michaelreaktiven Verbindungen vorliegt, reagieren können. Diese Tatsache kann sie zu effektiven und nachhaltigen Enzymaktivitätsmodulatoren machen. In dieser Arbeit wurde eine große Bandbreite verschiedenster michaelreaktiver Verbindungen auf ihre Fähigkeit untersucht, die 5-LO über Michael-Addition an ihren Cysteinen zu inhibieren. Zum einen wurden Pflanzeninhaltsstoffe mit antiinflammatorischen Eigenschaften, zugelassenene Wirkstoffe mit Michael-Akzeptorfunktion und zum anderen Verbindungen, die durch gezielte Struktursuche ausgewählt wurden, untersucht. Die Testung verschiedenster Strukturen sollte Aufschluss über strukturelle Voraussetzungen für die 5-LO-Inhibition durch Interaktion mit Cysteinen liefern. Hierfür wurden die Substanzen zunächst im intakten Zellsystem und schließlich am aufgereinigten Enzym (r5LO-wt) auf ihre 5-LO-inhibierenden Eigenschaften untersucht. Nachfolgende Messungen an r5LO-4C, deren vier prominente Cysteine durch Serin mutiert wurden, zeigten an, ob die Inhibition der 5-LO-Produktbildung cysteinabhängig war. Die hierbei erhaltenen Ergebnisse deuten darauf hin, dass ganz bestimmte strukturelle Eigenschaften des Michael-Akzeptors, Voraussetzung für eine Interaktion mit den Cysteinen der 5-LO sind. Vor allem Verbindungen mit chinoidem Grundgerüst stellten sich als thiolreaktive Verbindungen heraus, die die 5-LO hauptsächlich über Interaktion mit ihren Cysteinen inhibierten. Weiterhin zeigten die erhaltenen Ergebnisse, dass die strukturelle Umgebung um die aktivierte Doppelbindung des Michael-Akzeptors enorme Auswirkungen auf die Thiolreaktivität hatte. TQ hemmte die 5-LO hauptsächlich über Interaktion mit Cysteinen, wohingegen die 5-LO-Inhibition durch Embelin unabhängig von Cysteinen zu sein schien. Eine daraufhin durchgeführte MALDI-MS-Analyse bestätigte die Bindung von NAPQI und TQ an die Cysteine 416 und 418. Durch diese Arbeit konnte erstmals gezeigt werden, dass eine Reihe antiinflammatorisch wirksamer, natürlich vorkommender Verbindungen wie TQ, Plumbagin, Primin und auch synthetisch generierte Verbindungen wie AA861, CDDO, Methyl-BQ, Methoxy-BQ, Methoxy-Nitrostyren, NAPQI und OH-BQ die 5-LO über Interaktion mit ihren Cysteinen inhibieren.
The present PhD thesis comprises structural geology, petrographic and geochronological investiga-tions on crystalline rocks of the Uppermost Unit in the southern Aegean realm. Studies were carried out in three areas: (1) on the island of Anafi, (2) in the area west of Melambes in central Crete and (3) between the villages of Pefkos, Kalami and Sykologos in the municipality of Viannos in eastern Crete.
The Uppermost Unit forms together with the underlying, non-metamorphic Pindos Unit the upper nappe system of the Cretan nappe pile that, unlike the units of the lower nappe system, was not affected by Late Oligocene to Early Miocene subduction-related metamorphism. The upper nappe system must therefore have been at upper levels of the lithosphere in the Late Oligocene. This is of particular im-portance when reconstructing the tectonometamorphic evolution of the Uppermost Unit. The Upper-most Unit is very heterogeneous in composition and is subdivided into several subunits, which differ mainly in their lithological composition and the degree of metamorphic overprint. Usually, it is subdi-vided into several low-grade metamorphic subunits and one high-grade metamorphic subunit. Within the scope of this PhD thesis, three of these subunits were examined; (1) the anchimetamorphic Arvi Unit, (2) the newly described Greenschist Unit and (3) the Asterousia Crystalline Complex (ACC).
The analyses conducted during this PhD thesis include: (1) structural geology investigations in the field, (2) microstructural and petrographic analyses on thin sections, (3) radiometric dating of zircons using isotope dilution thermal ionisation mass spectrometry (ID-TIMS) and laser ablation inductively coupled plasma mass spectrometry (LA-ICP-MS), (4) electron microprobe (EMP) analysis, (5) quartz texture analysis using electron-backscattered diffraction (EBSD), (6) semiquantitative analysis of min-eral phases using X-ray powder diffraction (XRD), (7) analysis of the modal composition of intrusive rocks applying point counting on thin sections and (8) X-ray microtomography (micro-CT) on chias-tolite hornfels.
...
Die vorliegende Arbeit hat das Ziel, Plasmen koaxialer Beschleuniger in Hinblick auf die Erzeugung hoher Elektronendichten sowie als intensive UV/VUV-Backlighterquelle zu untersuchen. Hierzu wurde zunächst die Geometrie eines einzelnen Beschleunigers charakterisiert und optimiert, um die bestmöglichen Voraussetzungen für die anschließend durchgeführten Untersuchungen zur Kollision und Kompression der erzeugten Plasmen zu schaffen.
Das Funktionsprinzip des verwendeten Plasmabeschleunigers basiert auf einer Lorentzkraft, die aus dem Stromfluss zwischen zwei koaxial angeordneten Elektroden und dem damit verbundenen Magnetfeld resultiert. Da weder Stromdichte noch Magnetfeld homogen sind, wirkt auch die Lorentzkraft inhomogen auf die Plasmaschicht. Unter Einbeziehung von Simulationen wurde der Abstand zwischen den Elektroden auf 2,5 mm gesetzt, sodass die Ausprägung dieser Inhomogenität möglichst gering gehalten wird. Um ein Pinchen des Plasmas am Ende der Elektroden zu vermeiden haben die Elektroden im Gegensatz zu Plasma Focus Devices die gleiche Länge. Der mit 130 nH niederinduktive elektrische Aufbau ermöglicht die zur Ausbildung einer Plasmaschicht erforderlichen Stromanstiegsraten in der Größenordnung von 10^11 A/s.
Die Messung der Geschwindigkeit der Plasmaschicht erfolgte mit einem Array aus sechs Dioden, die gleichzeitig die Geschwindigkeitsabnahme im Rezipienten dokumentieren. Zusätzlich wurden die Messungen mit Kameraaufnahmen verglichen. Bei einer Elektrodenlänge von 100 mm konnten mit dem verwendeten Heliumgas Schichtgeschwindigkeiten von bis zu (79,49 ± 7,98) km/s erreicht werden. Die Untersuchung von Elektroden mit 200 mm Länge verfolgte das Ziel, durch die größere Beschleunigungszeit höhere Geschwindigkeiten und kinetische Energien der austretenden Plasmaschicht zu erreichen. Es zeigte sich jedoch, dass es hierbei zur Ausbildung einer zweiten Entladung und einer damit verbundenen Abbremsung des Initialplasmas kommt. Die Untersuchungen ergaben, dass die optimale Elektrodenlänge dadurch gegeben ist, dass der Austritt des Plasmas aus dem Beschleuniger zum Zeitpunkt des ersten Stromnulldurchgangs erfolgt. Für die Berechnung der optimalen Elektrodenlänge wurde ein Skalierungsgesetz gefunden, die auf experimentellen Ergebnissen und Simulationen basiert.
Mit spektroskopische Messungen der Stark-Verbreiterung der Hβ-Linie konnte die Elektronendichte des Plasmas zeit- und ortsintegriert bestimmt werden. Die hierbei erzielte Maximaldichte von (6,83 ± 0,83) · 10^15 cm^-3 wurde bei 9 kV und 70 mbar gemessen. Die nach der Boltzmann-Methode zeit- und ortsintegriert bestimmten Elektronentemperaturen bewegt sich bei etwa 1 eV.
Nach ausreichender Charakterisierung des Einzelbeschleunigers wurde das Experiment um einen zweiten, baugleichen Plasmabeschleuniger erweitert, um die planare Kollision zweier Plasmen zu untersuchen. Die maximal gemessene Elektronendichte von n max e = (1,36 ± 0,21) · 10^16 cm^-3 bei 9 kV und 70 mbar stellt im Vergleich zum Einzelplasma eine Steigerung um einen Faktor von 2,48 dar und ist mit einer Temperaturerhöhung einhergehend. Diese Elektronendichteerhöhung lässt sich nicht durch einfaches Durchdringen der Schichten erklären. Vielmehr muss es in der Kollisionszone zu Wechselwirkungsprozesse in Form von Kompression, zur Erzeugung neuer Ladungsträger oder der Kombination aus beidem kommen.
Das Spektrum im UV/VUV-Bereich weist Linien von ab 85 nm auf. Dies stellt eine Verbesserung gegenüber dem Einzelbeschleuniger dar, bei dem die hochenergetischste Spektrallinie erst bei 97 nm gemessen wurde. In der Kollisionskonfiguration mit einem Beschleunigerabstand von 30 mm steigt die integrierte Gesamtintensität des Spektrums bis 300 nm zudem um einen Faktor von etwa 5,2.
Als Alternative zur Plasmakollision wurde die Kompression des Plasmas des Einzelbeschleunigers durch unterschiedliche Trichtergeometrien untersucht. Die untersuchten Trichter der ersten und zweiten Generation unterscheiden sich im Wesentlichen im Durchmesser der kleineren Öffnung. Dieser wurde basierend auf Simulationen von 5 mm auf 0,5 mm reduziert. Die Dichtediagnostik der ersten Trichtergeneration erfolgte hierbei über Hα-Linie, da die Verbreiterung der Hβ-Linie zu stark und daher nicht mehr anwendbar war. Die Auswertung der Halbwertsbreiten der Hα-Linie führt zu Elektronendichten in der Größenordnung von bis zu 1018 cm−3 bei Spannungen von 9 kV. Diese Steigerung um 1,5 bis 2,5 Größenordnungen im Vergleich zum Einzelbeschleuniger ist deutlich höher als das Verhältnis der Flächen des initialen Plasmas bzw. dem Ende des Trichters von etwa acht.
Der Trichter mit verringerter Öffnung wurde bei 5 kV und 5 mbar vermessen, um die mechanische Belastung durch den hohen Druck gering zu halten. Die Bestimmung der Elektronendichte erfolgte durch die Verbreiterung der Kupferlinie bei 479,4 nm nach den quadratischen Stark-Effekt. Trotz der im Vergleich zur ersten Trichtergeneration reduzierten Entladungsenergie und verringertem Druck sind die gemessenen Elektronendichten ebenfalls bei bis zu 10^18 cm^-3.
Durch die Kompression des Plasmas weist das Spektrum im UV/VUV-Bereich bereits Linien ab Wellenlängen etwa 53 nm auf, wobei es unter Berücksichtigung der Transmissionsgrenze von Helium bei 50 nm denkbar ist, dass das Plasma noch niedrigere Wellenlängen emittiert.
Aufgrund der gesammelten Ergebnisse lässt sich festhalten, dass sich die Elektronendichte sowohl durch die Kollision zweier Plasmen als auch durch die Kompression in Trichtergeometrien steigern lässt. Der Verdichtungseffekt der Trichterkompression ist hierbei um ein vielfaches höher, als bei der Plasmakollision. Dies spiegelt sich auch im UV/VUV-Spektrum wider. Beide Versuchsanordnungen eignen sich als Linienstrahler, allerdings weist das Spektrum der Trichterkompression Linien deutlich höherer Anregungszustände auf.
Frontal fibrosierende Alopezie: Literaturanalyse und Vergleich des eigenen Patientenkollektivs
(2017)
Seit Steven Kossard 1994 das Krankheitsbild der frontal fibrosierenden Alopezie bei 6 postmenopausalen Frauen erstmals beschrieb, wurden zunehmend mehr Fälle und Beschreibungen größerer Kohorten publiziert. Die Diagnose wird vorrangig klinisch gestellt. Typischerweise zeigt sich eine meist asymptomatische, vernarbende Regression des temporo-frontalen Haaransatzes mit Verlust der Haarfollikel und einem perifollikulären Erythem. Des Weiteren kann es auch zu einem Haarausfall in anderen Regionen des Capillitiums, im Bereich der Augenbrauen und anderer Körperregionen kommen. Histologisch zeigen sich eine perifollikuläre Fibrose und ein lymphozytisches Infiltrat. Die Pathogenese der frontal fibrosierenden Alopezie ist ungeklärt. Da es für die Therapie kein Konzept gibt, beruhen Therapieansätzen meistens auf Behandlungskonzepten anderer Alopezieformen.
In dieser Arbeit wurden weltweit erschienene Daten von insgesamt 932 Patienten mit frontal fibrosierenden Alopezie zusammengefasst und klinische Charakteristika, Komorbiditäten, sowie krankheitsbegünstigende- und auslösende Faktoren identifiziert und Therapien und deren Erfolge systematisch erhoben und ausgewertet. Diese wurden mit Daten von 12 Patientinnen des eigenen Kollektivs verglichen.
Hier ergaben sich für die Kriterien Geschlecht, Status der Menopause, Alter bei Auftreten, Erkrankungsdauer und Ethnie ähnliche Ergebnisse. Bezüglich der Beteiligung einzelner Areale fanden sich für die Bereiche frontaler Haaransatz und Augenbrauen ähnliche Werte, während die Beteiligung der übrigen Körperstellen zum Teil stark differierte. Auch die Charakteristika perifollikuläres Erythem, Verlust von Haarfollikeln und die histologischen Kriterien perifollikuläre Fibrose und lymphozytäres Infiltrat kamen in der Gruppe der eigenen Patienten häufiger vor als in der Gruppe der Literaturpatienten. Bezüglich der Komorbiditäten fiel in beiden Gruppen eine im Vergleich zur Normalbevölkerung erhöhte Prävalenz von Schilddrüsenerkrankungen auf.
Die Auswertung der Therapieversuche ergab in beiden Gruppen in den meisten Fällen einen fortschreitenden Verlauf, allenfalls eine Stabilisierung, wobei kein Therapieversuch positiv herausstach. In Ausnahmefällen konnte ein erneutes Haarwachstum, vorrangig im Bereich der Augenbrauen, beobachtet werden.
Für die Patienten des eigenen Patientenkollektivs wurde das Vorliegen einer atopischen Hautdiathese gemessen am Erlanger Atopiescore erhoben. Hierbei konnte jedoch kein Zusammenhang gefunden werden. Mit Hilfe zweier Fragebögen- dem Functional Assessment of Non-Life Threatening Conditions (FANLTC) und dem modifizierten Hairdex- wurde die Lebensqualität in Abhängigkeit der Ausprägung der frontal fibrosierenden Alopezie und der Erkrankungsdauer ausgewertet. Die These, dass die Ausprägung der Alopezie und die Erkrankungsdauer negativ in linearem Zusammenhang mit der Lebensqualität stehen, bestätigte sich hierbei nicht. Die Lebensqualität von Patienten mit frontal fibrosierender Alopezie ist unabhängig von der Ausprägung und der Erkrankungsdauer bis auf eine Ausnahme sehr gut, was darauf hindeutet, dass sich die Erkrankung auf die Lebensqualität nicht negativ auswirkt.
This dissertation explores the linguistic identity changes of Chinese international students in Germany, and the relationship between their identity reconstruction and their multilingual competence. With the social turn (Block, 2003) of applied linguistics, research on study abroad has shown that student sojourners abroad encounter challenges not only to their language abilities, but also to their identities, which explains the vast individual differences in the measurable outcomes of student sojourns abroad. However, the realm of learners’ linguistic identity development in the English as a lingua franca (ELF) and multilingual contexts remains to be further explored, since most existing studies examined learners in the target language community. Guided by poststructuralist views and sociocultural theories, this study is designed with a view towards investigating the lived experience of Chinese international students at German universities.
Employing a qualitative approach, my research tracked seventeen Chinese students’ experiences of language learning and use in both their social lives and academic settings over one year. The empirical work combined semi-structured, in-depth interviews and emails. Three rounds of one-to-one interviews were conducted every 6 months and each round focused on students’ respective past, present and future. The grounded theory approach (Corbin & Strauss, 2015) was used in this study to analyse the data, aiming at generating theoretical explanations for phenomena through constant comparison.
The results of the category-based analysis offer a new lens on the intricate linguistic identity development of Chinese students in the study abroad context. The construction of their new identity facets is related to various contextual elements in experiences of their language learning and use. More importantly, learners’ identity changes related to the use of ELF is conceived as within a framework of multilingualism (Jenkins, 2015). In any given social interaction, learners’ linguistic identities are influenced by a combination of factors: perceived linguistic proficiency gap, power distribution,preferred communication styles, sensitivity to second/third language self-images and openness to new cultures. It is these factors, instead of the lingua franca context or
target language context per se, that come into play in the reformation of learners’
linguistic identities. Learners’ linguistic identity changes, together with their priority setting in studying abroad, are in turn interconnected with their multilingual competence development.
The findings of my study suggest theories for understanding learners’ linguistic identity development and the outcomes of their language learning in the study abroad context in the face of the complexity of individual experiences. My study also demonstrates the importance to foster learners’ “self-presentational competence” (Pellegrino Aveni, 2005: 145-146) so that they could successfully negotiate new subject positions when crossing the borders.
Inhibition of midbrain dopamine (DA) neurons codes for negative reward prediction errors, and causally affects conditioning learning. DA neurons located in the ventral tegmental area (VTA) display two-fold longer rebound delays from hyperpolarizing inhibition in comparison to those in the substantia nigra (SN). This difference has been linked to the slow inactivation of Kv4.3-mediated A-type currents (IA). One known suppressor of Kv4.3 inactivation is a splice variant of potassium channel interacting protein 4 (KChIP4), KChIP4a, which has a unique potassium channel inactivation suppressor domain (KISD) that is coded within exon 3 of the KChIP4 gene. Previous ex vivo experiments from our lab showed that the constitutive knockout of KChIP4 (KChIP4 KO) removes the slow inactivation of IA in VTA DA neurons, with marginal effects on SN DA neurons. KChIP4 KO also increased firing pauses in response to phasic hyperpolarization in these neurons. Here I show, using extracellular recordings combined with juxtacellular labeling in anesthetized mice, that KChIP4 KO also selectively changes the number and duration spontaneous firing pauses by VTA DA neurons in vivo. Pauses were quantified with two different statistical methods, including one developed in house. No other firing parameter was affected, including mean frequency and bursting, and the activity of SN DA neurons was untouched, suggesting that KChIP4 gene products have a highly specific effect on VTA DA neuron responses to inhibitory input.
Following up on this result, I developed a new mouse line (KChIP4 Ex3d) where the KISD-coding exon 3 of KChIP4 is selectively excised by cre-recombinase expressed under the dopamine transporter (DAT) promoter, therefore disrupting the expression of KChIP4a only in midbrain DA neurons. I show that these mice have a highly selective behavioral phenotype, displaying a drastic acceleration in extinction learning, but no changes in acquisition learning, in comparison to control littermates. Computational fitting of the behavioral data with a modified Rescorla-Wagner model confirmed that this phenotype is congruent with a selective increase in learning from negative prediction errors. KChIP4 Ex3d also had normal open field exploration, novel object preference, hole board exploration and spontaneous alternation in a plus maze, indicating that exploratory drive, responses to novelty, anxiety, locomotion and working memory were not affected by the genetic manipulation. Furthermore semi-quantitative IHC revealed that KChIP4 Ex3d mice have increased Kv4.3 expression in TH+ neurons, suggesting that the absence of KChIP4a increases the binding of other KChIP variants, which known to increase surface expression of Kv4 channels.
Furthermore, in the course of my experimental study I identified that the most used mouse line where cre-recombinase is expressed under the DAT promoter (DAT-cre KI) has a different behavioral phenotype during conditioning in relation to WT littermate controls. These animals displayed increased responding during the initial trials of acquisition and delayed response latency extinction, consistent with an increase in motivation, which is in line with a decrease in DAT function.
I propose a working model where the disruption of KChIP4a expression in DA neurons leads to an increase in binding of other KChIP variants to Kv4.3 subunits, promoting their increased surface expression and increasing IA current density; this then increases firing pauses in response to synaptic inhibition, which in behaving animals translates to an increase in negative prediction error-based learning.
Diese kulturanthropologische Studie beschäftigt sich mit gegenwärtigen Veränderungen des Nachkriegsphänomens Städtepartnerschaften. Ausgangspunkt ist die Beobachtung, dass, obwohl einstige Gründungsmotive wegfallen, Städtepartnerschaften derzeit nicht etwa abgeschafft oder ersetzt, sondern neu ausgerichtet werden. Im Zentrum der Arbeit steht daher die Frage nach den Charakteristiken des gegenwärtigen Wandels und der kulturellen Spezifik von Städtepartnerschaften sowie möglichen Folgen. Dem wird am Beispiel von deutsch-polnischen und deutsch-türkischen Städtepartnerschaften des Ruhrgebiets mit Methoden einer transnational ausgerichteten empirisch-ethnografischen Feldforschung und einer akteurszentrierten und praxisorientierten Anwendung des Assemblage-Konzepts nachgegangen. Die Ergebnisse, die sich schwerpunktmäßig auf einen Zeitraum zwischen 2007 und 2012 beziehen, machen nicht zuletzt durch ihren länderbezogenen Kontrast deutlich: In Städtepartnerschaften trifft derzeit eine Vielzahl von aktuellen Entwicklungen, Prozessen und Akteuren aufeinander. Städtepartnerschaften werden derzeit staatsgrenzenübergreifend von verschiedenen Akteuren aus Politik, Zivilgesellschaft und Bürgerschaft mit je eigenen derzeitigen Herausforderungen wie Integrationsfragen und Wirtschaftsförderung, urbanem Standortwettbewerb sowie biografischen Bestrebungen und Mobilitätsinteressen verbunden. Dabei führen insbesondere auf deutscher Seite normative Ansprüche dazu, dass einstige Prinzipien und Aktivitäten von Städtepartnerschaften beibehalten und abgewandelt werden, weshalb von einem Format und einem Formatwandel gesprochen werden kann, was nicht jede beliebige Veränderung zulässt. In den neueren Varianten von Städtepartnerschaften zeigen sich aber auch nicht zwangsläufig intendierte, doch sehr wirkungsvolle Formen von Europäisierung und Governance durch Kommunen und ihre Bürgerinnen und Bürger.
Background
Cochlear Implants (CIs) provide near normal speech intelligibility in quiet environments to individuals suffering from sensorineural hearing loss. Perception of speech in situations with competing background noise and especially music appraisal however are still insufficient. Hence, improving speech perception in ambient noise and music intelligibility is a core challenge in CI research. Quantitatively assessing music intelligibility is a demanding task due to its inherently subjective nature. However, previous approaches have related electrophysiological measurements to speech intelligibility, a corresponding relation to music intelligibility, can be assumed. Recent studies have investigated the relation between results obtained from hearing performance tests and Spread of Excitations (SoEs) measurements. SoE functions are acquired by measuring Electrically Evoked Compound Action Potentials (ECAPs) which represent the electrical response generated in the neural structures of the auditory nerve. The parameters designed to describe SoE functions are used to estimate the dispersal of the electric field in the cochlea. The quality of spatial separation of the electrical field generated by adjacent electrodes are assumed to correlate with hearing performance measures.
Aim of study
This study investigated the relation of parameters derived by ECAP measurements and perceptive skills which aim to access the level of speech and music intelligibility in CI users. In addition, the ratings assessed in a questionnaire on self-rated music intelligibility were correlated to a test battery consisting of measures for speech reception threshold (SRT) in noise (Oldenburger Satztest (OLSA)) and music intelligibility (Adaptive Melody-Pattern-Discrimination Test (AMPDT)). We hypothesised that results from this test battery correlated to subjective ratings and measures describing SoE functions.
Methods
The patient collective covered 17 well-experienced bilateral CI listeners (8 females, 9 males) between the age of 14 and 77 years with a minimum CI experience of two years. Music enjoyment and self-rated musicality was evaluated by means of a questionnaire. The AMPDT included two psychoacoustic tests: timbre difference discrimination threshold (TDDT) and background contour discrimination threshold (BCDT). The accentuation of harmonics in a foreground melody created a background melody. Accentuation was realised by sound level increment, frequency detuning and onset asynchrony. Subjects had to detect target intervals comprising both foreground and background melody by discriminating timbre differences in a Three-Interval Three-Alternative Forced-Choice (3I3AFC) procedure. In a One-Interval Two-Alternative Forced-Choice (1I2AFC) procedure, subjects had to classify the background melody’s contour. SoE was measured via a spatial forward-masking paradigm. A basal, medial and apical recording electrode was measured. Probe electrodes were one electrode position apical to the recording. The width of normalised SoE functions was calculated at their 25 % and 50 % level (excitation distance (DIST)). Furthermore, exponential functions were calculated for SoE profiles with more than three data points for each side. The OLSA assessed SRT in noise. The noisy environment was presented through an array of four loudspeakers (MSNF). The Fastl noise-condition allows to make use of gap listening representing the temporal characteristics of speech as a fluctuating noise. The OLnoise-condition is a continuous noise resulting in a maximum portion of masking.
Results
We found that background melody contour classiffication (BCDT) is more challenging to CI users than the detection of small perceptual timbre differences (TDDT). Background melody contour classification was possible with harmonic accentuation by sound level increment whereas accentuation by onset asynchrony was more demanding. CI users failed in background melody contour classification obtained by frequency detuning. SRTs assessed in the OLSA were significantly lower in the OLnoise than in the Fastl noise masking condition. A number of N = 90 SoE functions were acquired from ECAP measurements, in which N = 48 showed a clearly present ECAP response. The DIST at the 25 % and 50 % level was narrower for the basal than for the apical and medial electrode. SoE functions showed asymmetric profiles with larger amplitudes towards the basal end of the cochlea. Correlation analysis between the AMPDT, OLSA and DISTs showed no significant correlation. Correlation analysis between the AMPDT, OLSA and the questionnaire’s results could not prove that musical activities (music listening, singing or playing instruments) improve music intelligibility. However, CI supply has restored the importance of music, self-rated musicality and musical enjoyment in this study’s subjects.
Conclusions
The present study’s results imply that CI listeners are only able to detect distinct timbre alterations throughout the course of a musical piece whereas they cannot discriminate background melodies hidden in a pattern of complex harmonic sounds. Furthermore, SoE measurements do not seem to be an adequate tool to predict neither speech nor music intelligibility in CI listeners, contrary to our initial hypothesis. This finding is consistent with a number of studies who did not find a correlation between music or speech intelligibility and channel interactions assessed by SoE measurements. It can be concluded that albeit CI supply restores musical enjoyment in patients with sensorineural hearing loss, music perception is still poor and does not significantly improve by regular musical activities such as listening to music, singing or playing instruments.
Savannas provide essential ecosystem services for human well-being in West Africa. Thus, ecosystem change not only directly affects biodiversity but also human livelihoods. Human land use considerably shaped these savanna ecosystems for millennia, particularly agriculture, livestock grazing, logging and the collection of non-timber forest products (NTFPs). NTFPs are wild plant products and comprise all organic matter from herbaceous plants, shrubs, and trees (excluding timber). Current increasing land use pressure through fast demographic changes is widely esteemed as a severe threat for savanna biodiversity and the socio-economy of rural communities. In consideration of the pivotal role of NTFP species for biodiversity and livelihoods, it is important to evaluate the effect of increasing land use change on savanna vegetation and on its provisioning service for human well-being. Thus, the major aim of this thesis is to investigate the impacts of land use intensification on vegetation composition, diversity and function and its consequences for provisioning ecosystem services (NTFPs) and human well-being in a West African savanna.
The research for this study was conducted in the North Sudanian vegetation zone of south-eastern Burkina Faso, where population growth exceeds the nationwide trend. Generally, Burkina Faso belongs to the worldwide poorest countries, where nearly one quarter of the population suffers from malnutrition (FAO 2014). The integration of NTFPs and particularly wild food species into rural household economies is, thus, an important measure in the national combat against poverty and food insecurity (FAO 2014). Against this background, I focus on vegetation changes, the economic importance of NTFPs as well as the decrease and substitution of wild food species in this study.
Vegetation resurveys of different vegetation types since the early 1990s showed that land use change led to more pronounced changes in the herbaceous than in the woody vegetation layer. Most woody vegetation types stayed stable in species composition and richness, even though some highly useful tree species (Vitellaria paradoxa, Parkia biglobosa) declined in some woody vegetation types. In contrast, in most herbaceous vegetation types species richness increased and species composition considerably changed. This change might be explained by a general ruderalisation process through a pronounced increase of wide-ranging herbaceous species. However, in spite of a general species increase in the herbaceous layer, a decrease of preferred herbaceous fodder species was found. Thus, the decline of useful species in both layers is alarming. Herbaceous vegetation types also showed more pronounced changes in plant functional trait characteristics in comparison to woody vegetation types. However, an increase of smaller plant species and species with a high diaspore terminal velocity (VTerm) was found in both vegetation layers. Since these two trait responses are generally related to grazing and browsing, the strong increase of livestock herds is likely to be responsible for the detected vegetation changes.
In addition to the vegetation study, interviews showed that all useful food species were widely considered to decline. The two economically most important tree species, the shea tree (Vitellaria paradoxa) and the locust bean tree (Parkia biglobosa) that contribute with 70% to wild food income, were considered among the most declining species of all cited wild food species. On this matter, local perceptions of species decline and results from field observations are in accordance. However, a wide range of cited substitutes indicated a great knowledge on alternative plant species in the area. Most wild food species are, however, substituted by other highly valued wild food species. Although our results suggest that rural communities are able to cope with the decrease or absence of wild food species, growing decline of one species would concurrently increase the pressure on other native food species. Therefore, the need to counteract the decrease of highly useful wild food species should be of high priority in management measures. In general, I showed that NTFPs are an essential component in rural households, since it contributed with 45 % to total household income. Significant differences in NTFP dependency between the two investigated villages and across the three main ethnic groups were detected, reflecting different traditional uses and harvesting practices. In general, it was shown that poorer households depend more on NTFP income than wealthier households. Against the background of this study, management strategies for agroforestry systems and poverty alleviation should consider local differences, and ethnicity-dependent NTFP-use patterns.
Overall, the combination of field studies on temporal and functional vegetation change with socio-economic and ethno-botanic interviews increases the knowledge on qualitative and quantitative vegetation changes and on the consequences for rural populations. This thesis gives a thorough insight into decreasing trends of economically valued plant species and thus gives evidence on the consequences of vegetation changes for ecosystem services of West African savanna ecosystems. Further, different NTFP-dependencies and use preferences according to socio-economic and cultural variables, such as ethnicity, present a valuable basis for specific decision-making and should be considered in management plans.
Staaten haben keine Freunde, sondern Interessen – das scheint sowohl unter Praktikern als auch unter Forschern der internationalen Politik allgemein bekannt zu sein. Entgegen diese weit verbreiteten Ansicht argumentiert diese Dissertation, dass es in der Tat Raum für das Konzept von Freundschaft in den internationalen Beziehungen gibt, und dass ein besseres Verständnis der hiermit verbundenen Dynamiken nicht nur dazu beiträgt, eine sich verändernde globale Ordnung besser zu verstehen, sondern auch die Beziehungen zwischen China und Afrika.
Aufbauend auf der konstruktivistischen Literatur zu staatlicher Identität sowie Erkenntnissen aus Psychologie, Soziologie und Anthropologie wird in einem ersten Schritt ein neues Modell internationaler Freundschaft entwickelt. Es bezieht sich auf eine verlässliche Beziehung zwischen Staaten, die sich gegenseitig entsprechend ihres eigenen Selbstverständnisses anerkennen, und die durch gegenseitige Identifikation sowie häufigen Austausch und enge Zusammenarbeit eine als intim zu bezeichnende Beziehung entwickelt haben. Dies bedeutet zwar nicht, dass ungleiche Macht und konkurrierende Interessen irrelevant werden; aber sie ermöglichen es den beteiligten Staaten, konstruktiv mit potenziell konfliktreichen Fragen von Macht und Interesse umzugehen, und bilden so eine zentrale Säule legitimer internationaler Ordnungen.
In einem zweiten Schritt wird dieses Modell der internationalen Freundschaft zur Analyse der chinesisch-äthiopischen und chinesisch-südafrikanischen Beziehungen herangezogen. Ausgehend von den Sichtweisen der jeweiligen Staatseliten wird das komplexe Zusammenspiel von Interessen und Identitäten in den gegenwärtigen Beziehungen zwischen China und Afrika beleuchtet, und wie die beiden bilateralen Beziehungen durch eine Reihe bewusster Entscheidungen schrittweise ihre aktuellen Qualitäten erworben haben. Heute bilden geteilte Ideen von historisch gewachsener Solidarität, überschneidendend strategischen Interessen und dem gemeinsamen Engagement für ein Projekt alternativer Modernisierung und globaler Transformation die Grundlage für zwei Beziehungen, die von China als beispielhafte „internationale Beziehungen neuen Typs“ gepriesen werden. Somit liefern die chinesisch-äthiopischen und chinesisch-südafrikanischen Beziehungen auch wichtige Einblicke, wie eine chinazentrierte internationale Ordnung aussehen könnte - zumindest für diejenigen Staaten, die diese Ordnung und ihre von Peking definierten Regeln und Rollen als legitim akzeptieren.
Tissue size regulation is critical for the normal functioning of the organ as well as to prevent unwanted pathogenesis such as cancer. The Hippo signaling pathway is well known for its robust regulation of tissue growth by the negative regulation of its nuclear effectors YAP1 and WWTR1. In this study, I have described the role of Yap1/Wwtr1 in zebrafish development, with a primary emphasis on the cardiovascular system.
I have generated zebrafish yap1 and wwtr1 mutants by CRISPR/CAS9. The mutant alleles are likely to be nonfunctional due to a premature stop codon and they show evidence of nonsense-mediated decay. Given that Yap1 and Wwtr1 are closely related proteins and have overlapping functions, I am given the opportunity to perform combinatorial analysis of the mutations on zebrafish development. Together with molecular probing tools, high-throughput sequencing and high-resolution imaging, I showed that
1. Double yap1;wwtr1 mutants exhibit severe posterior elongation phenotype, but somitogenesis appears to proceed as usual.
2. Yap1 and Wwtr1 may play an important role in PCV development and secondary angiogenic sprouting. However, key experiments will be needed to elucidate the direct role of Yap1 and Wwtr1 on these processes.
3. wwtr1-/- larvae hearts have a reduction in trabeculation, but in mosaic WT hearts, mutant cardiomyocytes prefer to populate the trabecular layer. My studies revealed that the mutant compact wall could not support trabeculation, which explains the hypotrabeculation phenotype of wwtr1-/- hearts. Additionally, Wwtr1 is required for myocardial Notch activity and can inhibit compact wall cardiomyocytes from entering the trabecular layer.
In summary, the Hippo signaling pathway, through Yap1/Wwtr1 has important regulatory functions in growth control. My work has revealed a surprising role for Yap1/Wwtr1 in tissue morphogenesis such as posterior tail morphogenesis and specific developmental processes of the cardiovascular system. It will be of interest to elucidate the regulation of Yap1/Wwtr1 in individual cells that translates into the complex cellular behaviors that drives morphogenesis.