Filtern
Erscheinungsjahr
- 2014 (168) (entfernen)
Dokumenttyp
- Dissertation (168) (entfernen)
Volltext vorhanden
- ja (168) (entfernen)
Gehört zur Bibliographie
- nein (168)
Schlagworte
- Allergie (2)
- Beschleuniger (2)
- Nukleosynthese (2)
- Pierre Bourdieu (2)
- Radio Frequenz Quadrupol (2)
- 1,4-dioxane (1)
- ADHD (1)
- Ageing (1)
- Altgermanistik (1)
- Arthur Schnitzler (1)
Institut
- Physik (28)
- Biochemie und Chemie (26)
- Biowissenschaften (16)
- Medizin (15)
- Pharmazie (15)
- Geowissenschaften (9)
- Informatik (9)
- Neuere Philologien (8)
- Sportwissenschaften (7)
- Kulturwissenschaften (5)
Construction and commissioning of a setup to study ageing phenomena in high rate gas detectors
(2014)
In high-rate heavy-ion experiments, gaseous detectors encounter big challenges in terms of degradation of their performance due to a phenomenon dubbed ageing. In this thesis, a setup for high precision ageing studies has been constructed and commissioned at the GSI detector laboratory. The main objective is the study of ageing phenomena evoked by materials used to build gaseous detectors for the Compressed Baryonic Matter (CBM) experiment at the future Facility for Antiproton and Ion Research (FAIR).
The precision of the measurement, e.g., of the gain of a gaseous detector, is a key element in ageing studies: it allows to perform the measurement at realistic rates in an acceptable time span. It is well known the accelerating ageing employing high intensity sources might produce misleading results. The primary objective is to build an apparatus which allows very accurate measurements and is thus sensitive to minute degradations in detector performance. The construction and commissioning of the
setup has been carried out in two steps. During the first step of this work, a simpler setup which already existed in the detector laboratory of GSI had been utilised to define all conditions related to ageing studies. The outcome of these studies defined the properties and characteristics that must be met to build and operate a new, sophisticated and precise setup. The already existing setup consisted of two identical Multi Wire Proportional Chambers (MWPCs), a gas mixing station, an 55Fe source, an x-ray generator, an outgassing box and stainless steel tubing. In a first step, the gain and electric field configuration of the MWPCs were simulated by a combination of a gas simulation (Magboltz) and electric field simulation program (Garfield). The performance and operating conditions of the chambers have been thoroughly characterised before utilising them in first preparatory ageing test. The main diagnostic parameter in ageing studies is the detector gain, thus it is mandatory for precise ageing studies to minimise the systematic and statistical variation of the pressure and temperature corrected gain. To achieve the required accuracy, several improvements of the chamber design and the gas system have been implemented. In addition, the temperature measurement has been optimised. During the preparatory tests, several ageing studies have been carried out. The ageing effect of seven materials and gases have been carried out during these tests: RTV-3145, Ar/CO2 gas, Durostone flushed with Ar/Isobutane gas, Vetronit G11, Vetronit G11 contaminated with Micro 3000 and Gerband 705. The results of these studies went into the design of the new sophisticated ageing setup. For example some tests revealed that there was, even after cleaning, a certain level of contamination with "ageing agents" in the existing setup, which made it imperative to ensure a very high level cleanness of all components during the construction of the setup. The curing period of some testing samples like glues or the gas flow rate were found to be very important factors that must be taken into account to obtain comparable results. Very important changes in the chamber design have been made, i.e., the aluminium-Kapton cathodes used in MWPCs have been replaced with multi-wire planes and the fibreglass housing of the chamber has been changed to metal. The second step started with building the new setup which was designed based on the findings from the first step. The new ageing setup consists of three MWPCs, two moving platforms, an 55Fe source, a copper-anode x-ray generator, two outgassing boxes, both flexible and rigid stainless steel tubes. Before fabrication of the chambers, simulations of their electric field and the gain have been done using Magboltz and Garfield programs. After that, the chambers were installed and tested. A 0.3% peak-to-peak residual variation of the corrected gain has been achieved. Finally, the complete setup has been operated with full functionality in no-ageing conditions during one week. This test revealed very stable gain in all three chambers. After that two materials (Gerban 705 and RTV-3145) have been inserted in the two outgassing boxes and tested. They revealed an ageing rate of about 0.3%/mC/cm and 3%/mC/cm respectively. The final test proves the stability and accuracy of the ageing measurements carried out with the ageing setup at the detector laboratory at GSI which is ready to conduct the envisaged systematic ageing studies.
Polypharmakologie hat in den letzten Jahren mehr und mehr an Bedeutung in der pharmazeutischen Forschung gewonnen und könnte in Zukunft zu einem Umdenken in der Entwicklung neuer Wirkstoffe führen. Das wachsende Verständnis für biologische Zusammenhänge, im speziellen für die starke Vernetzung zwischen verschiedenen Signalwegen oder Gewebearten, und die daran beteiligten Proteine, könnten zu gänzlich neuen Strategien führen. Beispiele aus dem Bereich der Onkologie und der Entwicklung von Neuroleptika haben bereits gezeigt, dass eine Intervention an mehreren Stellen eines solchen komplexen Netzwerkes zu wirksameren und gleichzeitig sichereren Wirkstoffen führen kann. Erkenntnisse aus der Systembiologie und die retrospektive Analyse bereits zugelassener Wirkstoffe machen deutlich, dass viele erfolgreiche Wirkstoffe nur aufgrund ihres polypharmakologischen Wirkprofils so effektiv sind – wenngleich dies bei Ihrer Entwicklung oftmals nicht beabsichtigt war.
Das rationale Design sogenannter „multitarget Wirkstoffe“ stellt bis heute eine große Herausforderung dar. Aus Sicht eines medizinischen Chemikers bedeutet es die Verknüpfung zweier, auf unterschiedliche Targets aktiver, Liganden zu einem neuen Wirkstoff, ohne einen signifikanten Aktivitätsverlust auf die einzelnen Targets herbeizuführen. Ein naheliegender Ansatz zur Verbindung zweier Liganden ist die Verknüpfung der Moleküle über einen flexiblen Linker. Dieser Ansatz kann zwar in vitro zu sehr potenten Wirkstoffen führen, birgt jedoch pharmakokinetische Nachteile, bedingt durch das hohe Molekulargewicht, die sich oft erst in vivo zeigen. Die Schwierigkeit besteht also zum einen in der Aufrechterhaltung der individuellen Aktivität auf das jeweilige Target und zum anderen im Erreichen einer guten Balance zwischen Aktivität und Komplexität des Liganden. Damit soll ausreichend Raum für spätere Optimierung von pharmakokinetischen und pharmakodynamischen Eigenschaften gewährleistet werden. Bisher wurden nur wenige Computer-gestützte Ansätze entwickelt um diese und ähnliche Fragestellungen zu bearbeiten. Aus diesem Grund ist die Entwicklung neuer in silico Verfahren zur Identifzierung von multitarget Liganden ein Kernthema dieser Arbeit. Die Implementierung eines Fragment-basierten Ansatzes hält die Komplexität der Liganden möglichst gering und bietet genügend Raum für eine anschließende, multi-dimensionale Optimierung an zwei oder mehreren Targets.
In der ersten Studie wurde eine Pharmakophor-basierte Strategie verfolgt. Die Repräsentation eines Liganden durch ein Pharmakophormodell stellt eine abstrakte dreidimensionale Darstellung der für die biologische Aktivität relevanten Strukturmerkmale dar. Diese Abstraktion vereinfacht den Vergleich zweier Verbindungen und erlaubt gleichzeitig Spielraum für chemische Variabilität. Bei diesem Ansatz wurden Pharmakophormodelle, jeweils für eine Vielzahl aktiver Liganden zweier Targets, erzeugt und paarweise miteinander verglichen. Sobald zwei Pharmakophormodelle eine genügend große Anzahl an Pharmakophorpunkten in räumlich ähnlicher Orientierung teilen, stellt dieses gemeinsame Pharmakophor die Basis eines potentiellen multitarget Liganden dar. In der beschriebenen Studie wurde dieses Verfahren anhand von aktiven Liganden der löslichen Epoxid Hydrolase (sEH) und 5-Lipoxygenase (5-LO) evaluiert. Die auf dieser Grundlage identifizierten multitarget Pharmakophormodelle wurden zum anschließenden Screening einer Fragement-Datenbank verwendet und führten zu 9 aktiven Liganden für sEH und 5-LO. Diese Liganden besitzen chemische Grundgerüste (Scaffolds), die in der Literatur bisher noch nicht als aktive sEH- oder 5-LO-Liganden beschrieben wurden und somit eine ideale Grundlage für die Entwicklung neuer Wirkstoffe darstellen. Für eine der gefundenen Verbindungen, basierend auf einem Benzimidazol-Gerüst, wurden Aktivitäten im niedrig mikromolaren Bereich für beide Targets bestimmt. Diese Verbindung und weitere Derivate werden zu diesem Zeitpunkt weiter charakterisiert um eine erste Struktur-Aktivitäts-Beziehung aufzustellen und die Eignung dieser Substanzklasse als potentielle Leitstruktur für neue, duale sEH/5-LO Liganden zu überprüfen.
Parallel dazu wurde eine Substruktur-basierte Strategie verfolgt um Rückschlüsse auf jene Strukturmerkmale zu ziehen, die für die Aktivität auf dem jeweiligen Target verantwortlich sein könnten. Dazu wurden in einem ersten Schritt alle aktiven Liganden zweier Targets auf ihre möglichst maximalen gemeinsamen Substrukturen reduziert. Für jedes Target wird damit ein Set von Substrukturen generiert, welches die für die Bindung an das jeweilige Target charakteristische Strukturmerkmale enthält. Diese Substrukturen, repräsentieren den chemischen Raum des jeweiligen Targets und stellten die Trainingsdaten für den entwickelten multiSOM Ansatz dar. Dieser Ansatz basiert auf dem automatisierten Vergleich von selbst-organisierenden Karten und hebt Gemeinsamkeiten zwischen diesen Substruktursets in einer leicht zu interpretierenden, visuellen Form hervor. Dies erlaubt die Identifizierung von gemeinsamen Substrukturen aus beiden verwendeten Substruktursets, welche potentielle duale Strukturelemente darstellen.
Die Validierung dieses Ansatzes erfolgte erneut auf Basis bekannter 5-LO- und sEH-Liganden. Unter 24 ausgewählten Verbindungen konnten neun Fragmente identifiziert werden, die auf einem der beiden Targets und 5 Fragmente, die auf beiden Targets im niedrig mikromolaren Bereich inhibierend wirken. Einer dieser dualen Fragmente wurden anschließend als Basis für eine Substruktursuche in einer Inhouse Datenbank verwendet. Die daraus resultierende Verbindung, die einen Teil des ursprünglichen Fragments beinhaltet, wirkt sowohl auf sEH als auch 5-LO in nanomolaren Konzentrationen inhibierend. Auch diese Verbindung wird zu diesem Zeitpunkt weiter charakterisiert und stellt eine vielversprechende Basis als Leitstruktur neuer dualer sEH/5-LO-Liganden dar.
Zusammenfassend lässt sich sagen, dass die vorgestellten Methoden neue Möglichkeiten bieten, das rationale Design von multitarget Liganden zu unterstützen. Die Pharmakophor-basierte Methode kann besonders dann von Vorteil sein, wenn bereits Strukturinformationen für beide Targets bzw. die bioaktiven Konformationen der Liganden vorliegen. Für einen ausschließlichen Liganden-basierten Ansatz stellt die Verwendung der MultiSOM, und damit die Identifizierung gemeinsamer Strukturelemente der Liganden, die bessere Methode dar.
Im zweiten Teil dieser Arbeit werden Studien zur Identifizierung neuer Farnesoid-X-Rezeptor (FXR) Partialagonisten beschrieben. Auch in diesem Fall wurden zwei unterschiedliche Strategien verfolgt. Da FXR eine starke strukturelle Anpassung abhängig vom gebundenen Liganden aufweist („induced fit“), sind rein strukturbasierte virtuelle Screening-Methoden nur eingeschränkt einsetzbar. Aus diesem Grund sollte zunächst ein Liganden-basierter Drug Repurposing Ansatz verfolgt werden, bei dem bereits zugelassene Wirkstoffe mit potentiell FXR-modulierenden Eigenschaften identifiziert werden sollten. Der Vorteil des Drug Repurposing besteht darin, dass die betrachteten Wirkstoffe bereits intensiv hinsichtlich Sicherheit und Bioverfügbarkeit untersucht wurden. Somit kann man sich bei der Entwicklung verstärkt auf die biologische Aktivität auf das neue Target konzentrieren.
Erneut wurden selbstorganiserende Karten (SOMs) verwendet, um zugelassene Wirkstoffe mit FXR-Aktivität zu identifizieren. Trainiert wurde die SOM auf einem Datensatz bestehend aus bekannten FXR-Agonisten zum einen und der DrugBank Datenbank mit zugelassen Wirkstoffen zum anderen. Die Eigenschaft der SOM Verbindungen mit ähnlicher biologischer Aktivität in räumlicher Nähe auf der Karte zu clustern führte zu einer Anhäufung an bekannten FXR-Agonisten auf einigen wenigen Neuronen. Auf solchen sogenannten Aktivitätsinseln wurden zusätzlich auch zugelassene Wirkstoffe platziert, wenn ihre Ähnlichkeit zu den FXR-Agonisten ausreichend hoch war. Die auf den Aktivitätsinseln angesiedelten Wirkstoffe wurden anschließend bestellt und hinsichtlich ihrer FXR-Aktivität in einem Transaktivierungs-Assay untersucht. Unter den bestellten Verbindungen konnten sechs Liganden mit einer signifikanten relativen FXR-Aktivierung identifiziert werden. Weitere Hinweise auf eine mögliche FXR-Aktivierung der Verbindungen gaben in der Literatur beschriebene Nebeneffekte, die mit einer FXR-Aktivierung in Zusammenhang stehen könnten. Die potentenste Verbindung, der zugelassenen Tyrosinkinase-Inhibitor Imatinib, wurde zusätzlich in Bezug auf FXR-basierte SHP mRNS Induktion untersucht. In qPCR-Experimenten konnte dabei eine mit GW4064 vergleichbare Induktion in HepG2 Zellen gezeigt werden. Diese Ergebnisse untermauern die aus der Literatur gewonnen Vermutung, dass Imatinib FXR-modulierende Eigenschaften besitzt und somit eine interessante Grundlage für die Entwicklung neuer FXR-Partialagonisten darstellt. Zu diesem Zeitpunkt werden weitere Imatinib-Derivate synthetisiert und diese Struktur als mögliche Leitstruktur charakterisiert.
In einer zweiten Studie wurde eine Kombination aus Liganden- und Struktur-basierten Ansatz verfolgt. Dabei wurden sämtliche Struktur-Informationen aus publizierten FXR-Kristallstrukturen und den darin kokristallisierten Liganden gebündelt, um die Auswirkungen des zu Beginn erwähnten induced-fit Effekts zu minimieren. Auf Basis der ko-kristallisierten Liganden wurden zunächst zwei Konsensus-Pharmakophormodelle erstellt. Diese Modelle wurden in einem anschließenden Schritt jeweils mit einem Konsensus-Pharmakophormodell, das mit Hilfe von Protein-Ligand-Interaktions-Fingerprints (PLIF) aus den korrespondieren Kristallstrukturen abgeleitet wurde, überlagert und kombiniert. Diese kombinierten Modelle vereinten sowohl Informationen der strukturellen Gemeinsamkeiten der Liganden als auch gemeinsame, relevante Interaktionspunkte zwischen Ligand und Rezeptor aus den Kristallstrukturen. Das Pharmakophor-Screening mit anschließender Docking Analyse führte zu 42 getesteten Verbindungen, von denen 12 Strukturen eine signifikante relative FXR-Aktivierung zeigten. Darunter konnte ein Partial-Agonist mit einem EC50 von 480 nM bei einer maximalen Aktivierung von ca. 14% im Vergleich zur Referenz GW4064 identifiziert werden. Auch diese Verbindung wird zum aktuellen Zeitpunkt weiter charakterisiert und könnte in Zukunft als Leitstruktur für neue FXR-Partialagonisten dienen.
In beiden Studien konnten neue FXR-Agonisten mit bisher noch nicht beschriebenen Scaffolds identifiziert werden. Es konnte gezeigt werden, dass die Verwendung bereits zugelassener Wirkstoffe für neue Indikationen eine attraktive Quelle für neue Leitstrukturen darstellen kann und im Zuge dessen bisher ungeklärte Nebeneffekte bekannter Wirkstoffe aufgeklärt werden können.
Abschließend lässt sich festhalten, dass selbstorganisierende Karten eine universelle Methode zur Erkennung und Analyse von polypharmakologischen Zusammenhängen darstellen. Des Weiteren lassen sich mit ihrer Hilfe chemische Räume repräsentieren und durch den in dieser Arbeit entwickelten MultiSOM-Ansatz direkt vergleichen. Dies ermöglicht auf intuitive und effiziente Weise die Identifizierung von überlappenden chemischen Räumen und somit möglicher polypharmakologischer Zusammenhänge.
Batten disease refers to neuronal ceroid lipofuscinoses (NCLs), which are inherited lysosomal storage diseases with diverse ages of onset and cause progressive neurodegeneration. The most common NCL is Juvenile NCL (JNCL), which begins in early childhood and is characterized by lysosomal accumulation of subunit c of the mitochondrial ATP synthase (subunit c). JNCL is caused by mutations in the gene CLN3. This gene encodes the CLN3 protein, a transmembrane protein of unknown structure. Localization of CLN3 is ambiguous, and its exact cellular function is not known. Thereby, it is unclear what mechanisms lead to neurodegeneration in JNCL. Models of JNCL present disturbed membrane bound organelles and cytoskeleton as well as impaired autophagy and lysosomal function. The JNCL gene defect that most patients harbor is deletion of the exons 7 and 8 of CLN3. In the Cln3Δex7/8/Δex7/8 mouse model of JNCL, this deletion has been introduced to the mouse Cln3 gene.
The actin cytoskeleton consists of filaments formed through polymerization of actin and provides a framework which defines cellular morphology and also facilitates cell motility, cytokinesis, and cell surface remodeling. Rho GTPases are signaling proteins which regulate the assembly and dynamics of the actin cytoskeleton and play an important role in neuronal morphology. Rho GTPases need to be membrane-anchored in order to become active and initiate a signaling cascade. Their membrane anchorage is achieved through their geranylgeranyl tails, which they acquire through prenylation. Protein prenylation refers to the attachment of a geranylgeranyl or farnesyl group to the C-terminus of a protein. The enzyme geranylgeranyl transferase (GGTase) catalyzes geranylgeranylation, whereas geranylgeranyl pyrophosphate (GGPP) is the donor of the geranylgeranyl group. Cells produce GGPP as well as cholesterol and other lipids through the mevalonate pathway (MVA pathway).
The aim of this study was to analyze how the JNCL gene defect affects cellular morphology, especially the actin cytoskeleton and Rho GTPases, and the MVA pathway which is connected with Rho GTPase activation. These important cellular components play crucial roles in neurons and are implicated in other neurodegenerative diseases, but have received little attention in JNCL. The immortalized CbCln3Δex7/8/Δex7/8 cerebellar precursor cell line from Cln3Δex7/8/Δex7/8 mice was used for the experiments and provides a genetically accurate, neuronal cell model of JNCL. CbCln3Δex7/8/Δex7/8 cells present subunit c accumulation only when aged at confluency, but sub-confluent cells display other phenotypes. The experiments of this study were performed both with confluency-aged and sub-confluent cells. Filamentous actin was visualized, and protein levels as well as membrane localization of several small Rho GTPases was analyzed biochemically. Also the protein levels of GGTase and the key enzymes of the mevalonate pathway were determined.
Staining pattern of filamentous actin was disturbed in confluency-aged CbCln3Δex7/8/Δex7/8 cells. Additionally it was found out that these cells did not grow to wild-type size and exhibited an elongated peroxisomal morphology. Rho GTPases had reduced total levels and showed a tendency of decreased membrane localization. Levels of GGTase and the MVA pathway enzymes were altered. Results of sub-confluent CbCln3Δex7/8/Δex7/8 cells were similar with the exception of HMG-CoA reductase, which is the rate-limiting enzyme of the MVA pathway: while its level in confluency-aged CbCln3Δex7/8/Δex7/8 cells was increased, at sub-confluency it showed a reduced level. Also, in contrast with the confluency-aged cells, Rho GTPases presented a tendency of increased membrane localization.
The results of this study reveal that the accurate JNCL gene defect alters cellular morphology and the activity of the MVA pathway in neuronal cells. Small cell size and disrupted architecture of the actin cytoskeleton are confirmed as neuronal JNCL phenotypes, and the peroxisome is introduced as a novel cellular component affected in JNCL. Through defects in endocytosis, autophagy, lysosomal and mitochondrial function, and cytoskeleton, the JNCL gene defect may prevent cells from growing to wild-type size. The JNCL gene defect may attenuate the MVA pathway via mitochondrial dysfunction and/or upregulation of degradative processes. Attenuation of the MVA pathway may contribute to impaired membrane rafts, which are an established phenotype of JNCL cells. As indicated by reduced GGTase level and supported by downregulation of lipid production through the MVA pathway, the JNCL gene defect might also decrease prenylation of proteins.
This thesis is structured into 7 chapters:
• Chapter 2 gives an overview of the ultrashort high intensity laser interaction with matter. The laser interaction with an induced plasma is described, starting from the kinematics of single electron motion, followed by collective electron effects and the ponderamotive motion in the laser focus and the plasma transparency for the laser beam. The three different mechanisms prepared to accelerate and propagate electrons through matter are discussed. The following indirect acceleration of protons is explained by the Target Normal Sheath Acceleration (TNSA) mechanism. Finally some possible applications of laser accelerated protons are explained briefly.
• Chapter 3 deals with the modeling of geometry and field mapping of magnetic lens. Initial proton and electron distributions, fitted to PHELIX measured data are generated, a brief description of employed codes and used techniques in simulation is given, and the aberrations at the solenoid focal spot is studied.
• Chapter 4 presents a simulation study for suggested corrections to optimize the proton beam as a later beam source. Two tools have been employed in these suggested corrections, an aperture placed at the solenoid focal spot as energy selection tool, and a scattering foil placed in the proton beam to smooth the radial energy beam profile correlation at the focal spot due to chromatic aberrations. Another suggested correction has been investigated, to optimize the beam radius at the focal spot by lens geometry controlling.
• Chapter 5 presents a simulation study for the de-neutralization problem in TNSA caused by the fringing fields of pulsed magnetic solenoid and quadrupole. In this simulation, we followed an electrostatic model, wherethe evolution of both, self and mutual fields through the pulsed magnetic solenoid could be found, which is not the case in the quadrupole and only the growth of self fields could be found. The field mapping of magnetic elements is generated by the Matlab program, while the TraceWin code is employed to study the tracking through magnetic elements.
• Chapter 6 describes the PHELIX laser parameters at GSI with chirp pulse amplification technique (CPA), and Gafchromic Radiochromic film RCF) as a spatial energy resolver film detector. The results of experiments with laser proton acceleration, which were performed in two experimental areas at GSI (Z6 area and PHELIX Laser Hall (PLH)), are presented in section 6.3.
• Chapter 7 includes the main results of this work, conclusions and gives a perspective for future experimental activities.
The Late Cretaceous is known to be mostly affected by warm periods interrupted temporarily by a number of cooling events. The reconstruction of the paleoclimatic conditions during a period of high concentration of CO2 in the atmosphere is of great importance for the creation of future climate models. We applied the recently developed method reconstructing the SST from the TEX86 (TetraEther indeX of tetraethers consisting of 86 carbon atoms).
The sample material used for the present study was obtained from the tropical Late Cretaceous southern Tethys upwelling system (Negev/Israel), lasting from the Late Santonian to the Early Maastrichtian (~ 85 to 68 Ma). On the core samples from the Shefela basin, representing the outer belt of the upwelling system and the outcrop profile from the open mine Mishor Rotem (Efe Syncline), representing the inner belt, various bulk geochemical and biomarker studies were performed in this thesis.
Derived from TEX86 data, a significant long-term SST cooling trend from 36.0 to 29.3 °C is recognized during the Late Santonian and the Early Campanian in the southern Tethys margin. This is consistent with the opening and deepening of the Equatorial Atlantic Gateway (EAG) and the intrusion of cooler deep water from the southern Atlantic Ocean influencing the global SSTs and also the Tethys Ocean. Furthermore, the cooler near shore SST usually found in modern upwelling systems could be verified in case of the ancient upwelling system investigated in the present study. The calculated mean SST in the inner belt (27.7 °C) represented in the Efe Syncline was 1.5 °C cooler in comparison to the more seaward located outer belt (Shefela basin).
Moreover, geochemical and biomarker analyses were used to identify both the accumulation of high amounts of phosphate in the PM and good preservation of organic matter (OM) in the lower part of the OSM section. Total organic carbon (TOC) contents are highly variable over the whole profile reaching from 0.6 % in the MM, to 24.5 % in the OSM. Total iron (TFe) varies from 0.1 % in the PM to 3.3 % in the OSM and total sulfur (TS) varies between 0.1 % in the MM and 3.4 % in the OSM. Different correlations of TS, TOC and TFe were used to identify the conditions during the deposition of the different facies types. Natural sulfurization was found to play a key role in the preservation of the OM particularly in the lower part of the OSM. Samples from the OSM and the PM were deposited under dysoxic to anoxic conditions and iron limitation lasted during the deposition of the OSM and the PM, which effected the incorporation of sulfur into OM.
Phosphorus is highly accumulated in the sediments of the PM with a mean proportion of 11.5 % total phosphorus (TP), which is drastically reduced to a mean value of 0.9 % in the OSM and the MM. From the correlation of the bulk geochemical parameters TOC/TOCOR ratio and TP a major contribution of sulfate reducing bacteria to the phosphate deposition is concluded. This interrelation has previously been investigated in recent coastal upwelling systems off Peru, Chile, California and Namibia. This was further supported by the analysis of branched and monounsaturated fatty acids indicating the occurrence of sulfate reducing and sulfide oxidizing bacteria during the deposition.
According to the results from the analysis of n-alkanes and C27- to C29-steranes up to 95 % of the OM was of marine origin.
Organic sulfur compounds (OSC) were a major compound class in the aromatic hydrocarbon fraction and n-Alkyl and isoprenoid thiophenes were the most abundant, with highest amounts found for 2-methyl-5-tridecyl-thiophene (28 µg/g TOC). The relatively high abundance of ββ-C35 hopanoid thiophenes and epithiosteranes is equivalent to an incorporation of sulfur during the early stages of diagenesis.
Moreover, the geochemical parameters δ13Corg, δ15Norg, C/N and the pristane/phytane (Pr/Ph) ratio, were studied for reconstruction of seafloor and water column depositional environments. The high C/N ratio along with relatively low values of δ15Norg (4 ‰ to 6 ‰) and δ13Corg (-29 ‰ to -28 ‰) are consistent with a significant preferential loss of nitrogen-rich organic compounds during diagenesis. Oxygen-depleted conditions lasted during the deposition of the PM and the bottom of the OSM, reflected by the low Pr/Ph ratio of 0.11–0.7. In the upper part of the OSM and the MM the conditions changed from anoxic to dysoxic or oxic conditions. This environmental trend is consistent with co-occurring foraminiferal assemblages in the studied succession and implies that the benthic species in the Negev sequence were adapted to persistent minimum oxygen conditions by performing complete denitrification as recently found in many modern benthic foraminifera.
Furthermore, the anammox process could have influenced the nitrogen composition of the sediments. In this anaerobically process nitrite and ammonia are converted to molecular nitrogen.
Die Familie von der Tann entstammt altem fuldischem Lehnsadel und war in den Prozess der Entstehung der fränkischen Reichsritterschaft von Beginn an eingebunden. Zur Reformationszeit taten sich vor allem die Brüder Eberhard und Alexander von der Tann hervor, die als fürstliche Ratgeber in Kursachsen bzw. Hessen tätig waren. Vor allem Eberhard von der Tann hat in vielfacher Weise an der Verwirklichung von Luthers Reformvorstellungen mitgewirkt. So war er 1555 auf dem Reichstag zu Augsburg als protestantischer Verhandlungsführer entscheidend am Zustandekommen des Religionsfriedens beteiligt, eine Tatsache, die in der einschlägigen Forschung bis heute noch wenig beachtet wurde.
The subject of this thesis is the experimental investigation of the neutron-capture cross sections of the neutron-rich, short-lived boron isotopes 13B and 14B, as they are thought to influence the rapid neutron-capture process (r process) nucleosynthesis in a neutrino-driven wind scenario.
The 13;14B(n,g)14;15B reactions were studied in inverse kinematics via Coulomb dissociation at the LAND/R3B setup (Reactions with Relativistic Radioactive Beams). A radioactive beam of 14;15B was produced via in-flight fragmentation and directed onto a lead-target at about 500 AMeV. The neutron breakup of the projectile within the electromagnetic field of the target nucleus was investigated in a kinematically complete measurement. All outgoing reaction products were detected and analyzed in order to reconstruct the excitation energy.
The differential Coulomb dissociation cross sections as a function of the excitation energy were obtained and first experimental constraints on the photoabsorption and the neutron-capture cross sections were deduced. The results were compared to theoretical approximations of the cross sections in question. The Coulomb dissociation cross section of 15B into 14B(g.s.) + n was determined to be s(15B;14B(g:s:)+n) CD = 81(8stat)(10syst) mb ; while the Coulomb dissociation cross section of 14B into a neutron and 13B in its ground state was found to be s(14B;13B(g:s:)+n) CD = 281(25stat)(43syst) mb: Furthermore, new information on the nuclear structure of 14B were achieved, as the spectral shape of the differential Coulomb dissociation cross section indicates a halolike structure of the nucleus.
Additionally, the Coulomb dissociation of 11Be was investigated and compared to previous measurements in order to verify the present analysis. The corresponding Coulomb dissociation cross section of 11Be into 10Be(g.s.) + n was found to be 450(40stat)(54syst ) mb, which is in good agreement with the results of Palit et al.
Die Arbeit „Zwischen Kooperation und Wetteifer – Interaktionen und mediale Organisation von Kreativität am Beispiel des koopetitiven Ideennetzwerks jovoto“ untersucht internetbasierte Kokreativität – die gemeinsame Ideenentwicklung im Mediennetzwerk. Im Unterschied zu vorangegangen Untersuchungen, die sich mit den Motiven für die häufig unentgeltlichen kokreativen Aktivitäten und dem Innovationspotential dieser Organisationsform beschäftigten, liegt der Fokus dieser Studie auf der Kommunikation der Akteure untereinander während der Kokreation. Als Fallbeispiel wird die Design-Ideenplattform jovoto ausgewählt, die Kreativität auf der Basis von Koopetition – der Gleichzeitigkeit von Kooperation und Wettbewerb – unter den Teilnehmern fördert. Die Ideenautoren im Netzwerk von jovoto entwickeln kreative Lösungen in den Bereichen Produktdesign, Kampagnen, Innovation und Architektur. Die Teilnehmer treten mit ihren Ideen im Wettbewerb gegeneinander an; gleichzeitig kommentieren und bewerten sie sich gegenseitig im Prozess der Ideenentwicklung. Aus den Bewertungen der Community ergeben sich die Gewinner des ausgeschriebenen Preisgeldes. Aus dieser Gleichzeitigkeit von Wettbewerb und Kooperation ergibt sich die Forschungsfrage dieser Untersuchung: Wie ist das Verhältnis zwischen Kooperation und Wettbewerb im Kokreationsnetzwerk jovoto bestimmt, und wie wirkt dies auf Kreativität? Um diese Frage zu beantworten, untersuche ich die auf der Plattform dokumentierten Interaktionen (Kommentar-Threads) zwischen den Ideenentwicklern und anderen Community-Mitgliedern mit qualitativen und quantitativen Methoden und analysiere zwanzig von mir geführte halbstrukturierte Leitfaden-Interviews mit den Ideenautoren auf jovoto. Zur theoretischen Einordnung der beobachteten Phänomene stütze ich mich sowohl auf Kultur- und Kommunikationstheorien des radikal-konstruktivistischen Erkenntnismodells als auch auf die kulturellen Spieltheorien von Johan Huizinga und Roger Caillois. Ich beziehe zudem Ansätze ein, die Kokreativität als eine Form der kulturellen Produktivität beschreiben. Einen weiteren Anhaltspunkt bilden Studien, die sich mit der produktiven Beziehung zwischen Kooperation und Wettbewerb auseinandersetzen. Ergänzt werden diese Erkenntnisse bspw. durch die These zur Intelligenz der Crowd in heterogenen Gruppen von Entscheidern und durch Untersuchungen zum positiven Einfluss von Differenzen und Konflikten auf die Gruppenkreativität. Ich führe diese Vorarbeiten zu einer Modellvorstellung zusammen: In dieser verknüpft der koopetitive Handlungskontext ein Kooperationsspiel mit einem Wettbewerbsspiel, und zwar mithilfe von Kreativität: Diese ermöglicht, dass der Fokus im Spiel – von der Betonung und Vergrößerung des Gemeinsamen zwischen den Teilnehmern zur Betonung ihrer Differenzen – wechseln kann. Hieraus leite ich Hypothesen ab, die ich empirisch überprüfe: Während einer sechsmonatigen Beobachtung des Plattformgeschehens habe ich Daten zu 135 Wettbewerben auf jovoto erhoben. Die Analyse von über 2.400 Kommentaren ergibt, dass die beiden Leitkategorien „Bestätigung“ und „Herausforderung“ das kokreative Kommunikationsgeschehen charakterisieren. Hiervon ausgehende qualitative und quantitative Untersuchungen zu 54 Diskussions-Threads ergeben: In der Platzierung erfolgreiche Ideen werden von intensiveren Diskussionen begleitet als weniger erfolgreiche. Bemerkenswert ist, dass sie nicht nur eine größere Zahl bestätigender Kommentare erhalten, sondern auch mehr Herausforderungen. Die im Schnitt höchste Punktzahl geht mit einem Verhältnis von rund acht Bestätigungen je Herausforderung einher. Dieses Ergebnis bestätigt die Ausgangshypothese, dass es sich bei den Ideenwettbewerben um ein Kommunikationsspiel mit kooperativer, wetteifernder und kreativer Komponente handelt: In den Interaktionen zu den Ideenbeiträgen, insbesondere den erfolgreichen, herrscht ein Wechsel zwischen Bestätigungen und Herausforderungen vor. Aus den Aussagen der Ideenautoren in den geführten Interviews wird ein zentraler Konflikt deutlich: Die Tätigkeit bringt einen hohen Aufwand und wenig Aussicht auf Gewinn mit sich. Unterm Strich scheint sie jedoch lohnenswert, da die Akteure wichtige Lernerfahrungen im Netzwerk sammeln können und die eigenen Fähigkeiten einzuschätzen lernen. Dass die kreativen Beiträge anderer Wettbewerbsteilnehmer von anderen rege diskutiert werden, belegt den Erfolg des Organisationsmodells der Kokreation. Dieser verhält sich konträr zu den Vorhersagen herkömmlicher ökonomischer Theorie, die rein eigennützige Akteure annimmt, und deutet auf die Relevanz von Theorien hin, die wechselseitiges Feedback und dessen Gratifikationen als Faktoren in der netzwerkbasierte Produktion zentral berücksichtigen.
Cognitive flexibility and cognitive stability : neural and behavioral correlates in men and mice
(2014)
The ability to flexibly adjust behavior according to a changing environment is crucial to ensure a species' survival. However, the successful pursuit of goals also requires the stable maintenance of behavior in the face of potential distractors. Thus, cognitive flexibility and cognitive stability are important processes for the cognitive control of behavior. There is a large body of behavioral and neuroimaging research concerning cognitive control in general, but also specifically on cognitive flexibility and cognitive stability, albeit most often assessed in separate task paradigms. Nevertheless, whether cognitive flexibility and cognitive stability depend upon separate or shared neuronal bases is still a matter of debate. Complementing empirical research, computational models have become an important strategy in neuroscientific research, as they have the potential of providing mechanistic explanations of empirical observations, for example by allowing for the direct manipulation of molecular parameters in simulated neural networks. The computational model underlying the so-called Dual-State Theory contains specific hypotheses with respect to cognitive flexibility and cognitive stability. The neural networks simulated by this model exhibit multiple stable firing states, i.e., the neural network can maintain a high firing state also without continuing external input due to a network architecture consisting of recurrently connected neurons. Transitions between such network states, also called attractor states, can be induced by external input, and represent working memory contents or active task rules. Simulations showed that the stability of these attractor states, and thus of task rule representations, depend on the dopamine state of the system and can consequently vary between persons. The Dual-State Theory predicts an antagonistic relationship between cognitive flexibility and cognitive stability, as robust attractor states would facilitate the inhibition of distractors, but impair efficient task switching, while rather unstable attractor states would promote efficient transitions between representations but would also come at the cost of increased distractibility.
Based on the Dual-State Theory, a task paradigm was designed allowing for the simultaneous assessment of cognitive flexibility, in the sense of rule-based task switching, and cognitive stability, in the sense of inhibiting irrelevant distractors. Furthermore, a behavioral measure was developed to assess the individual attractor state stability, named spontaneous switching rate (SSR). In the first study of this work, this paradigm was tested in a sample of healthy human subjects using functional magnetic resonance imaging (fMRI). An overlapping fronto-parietal network was activated for both cognitive flexibility and cognitive stability. Furthermore, behavioral as well as neuroimaging results are in favor of an antagonistic relationship between cognitive flexibility and cognitive stability. A specific prefrontal region, the inferior frontal junction (IFJ), was implied to potentially contain the relevant neural networks mediating the transitions between attractor states, i.e., task rule representations, as its activity was modulated by the SSR such that persons with rather unstable attractor states activated it less during task switching while showing better performance. Most importantly, functional connectivity of the IFJ was antagonistically modulated by the SSR: more flexible persons connected it less to another prefrontal area during task switching, while showing higher functional connectivity during distractor inhibition.
In a second study, a larger human sample was assessed and further hypotheses derived from the Dual-State Theory on variability of neural processing were tested: we hypothesized that persons with high brain signal variability should have less stable network states and thus benefit on tasks requiring cognitive flexibility but suffer from it when the task requires a higher degree of cognitive stability. Furthermore, recent fMRI-research on brain signal variability revealed beneficial effects of higher brain signal variability on cognitive performance in general. Using a novel customized analysis pipeline to measure trial-to-trial fMRI-signal variability, we indeed found differential effects of brain signal variability: higher levels of brain signal variability were found to be beneficial for effectiveness, i.e., performance in terms of error rates, for both cognitive flexibility and stability. However, brain signal variability impaired the efficiency in terms of response times of inhibiting distractors, i.e., cognitive stability.
Due to further predictions of the Dual-State Theory concerning schizophrenia and the dopaminergic system, it was considered valuable to pursue a translational approach and thus allowing for the employment of animal models of psychiatric diseases. Consequently, in a first step the human paradigm was translated for a murine population using an innovative touchscreen approach. Results showed analogous behavioral effects in wildtype mice as before in healthy humans: the antagonistic relation between cognitive flexibility and cognitive stability was replicated and also for mice, a behavioral measure for the individual attractor stability was established and validated, named the individual spontaneous switching score.
To conclude, we established a novel paradigm assessing both cognitive flexibility and stability simultaneously showing an antagonistic relationship between these two cognitive functions on the behavioral level in two different species, which supports predictions from the Dual-State Theory. This was further underlined by evidence on the activation, functional connectivity and signal variability level in the human brain.
Quarks and gluons are the building blocks of all hadronic matter, like protons and neutrons. Their interaction is described by Quantum Chromodynamics (QCD), a theory under test by large scale experiments like the Large Hadron Collider (LHC) at CERN and in the future at the Facility for Antiproton and Ion Research (FAIR) at GSI. However, perturbative methods can only be applied to QCD for high energies. Studies from first principles are possible via a discretization onto an Euclidean space-time grid. This discretization of QCD is called Lattice QCD (LQCD) and is the only ab-initio option outside of the high-energy regime. LQCD is extremely compute and memory intensive. In particular, it is by definition always bandwidth limited. Thus—despite the complexity of LQCD applications—it led to the development of several specialized compute platforms and influenced the development of others. However, in recent years General-Purpose computation on Graphics Processing Units (GPGPU) came up as a new means for parallel computing. Contrary to machines traditionally used for LQCD, graphics processing units (GPUs) are a massmarket product. This promises advantages in both the pace at which higher-performing hardware becomes available and its price. CL2QCD is an OpenCL based implementation of LQCD using Wilson fermions that was developed within this thesis. It operates on GPUs by all major vendors as well as on central processing units (CPUs). On the AMD Radeon HD 7970 it provides the fastest double-precision D= kernel for a single GPU, achieving 120GFLOPS. D=—the most compute intensive kernel in LQCD simulations—is commonly used to compare LQCD platforms. This performance is enabled by an in-depth analysis of optimization techniques for bandwidth-limited codes on GPUs. Further, analysis of the communication between GPU and CPU, as well as between multiple GPUs, enables high-performance Krylov space solvers and linear scaling to multiple GPUs within a single system. LQCD calculations require a sampling of the phase space. The hybrid Monte Carlo (HMC) algorithm performs this. For this task, a single AMD Radeon HD 7970 GPU provides four times the performance of two AMD Opteron 6220 running an optimized reference code. The same advantage is achieved in terms of energy-efficiency. In terms of normalized total cost of acquisition (TCA), GPU-based clusters match conventional large-scale LQCD systems. Contrary to those, however, they can be scaled up from a single node. Examples of large GPU-based systems are LOEWE-CSC and SANAM. On both, CL2QCD has already been used in production for LQCD studies.
The present work deals with the integration of variable renewable energy sources, wind and solar energy into the European and US power grid. In contrast to other networks, such as the gas supply mains, the electricity network is practically not able to store energy. Generation and consumption therefore always have tobe balanced. Currently, the load curve is viewed as a rigid boundary condition, which must be followed by the generation system. The basic idea of the approach followed here is that weather-dependent generation causes a shift of focus of the electricity supply. At high shares of wind and solar generation, the role of the rigid boundary condition falls to the residual load, that is, the remaining load after subtraction of renewable generation. The goal is to include the weather dependence as well as the load curve in the design of the future electricity supply.
After a brief introduction, the present work first turns to the underlying weather-, generation and load data, which form the starting point of the analysis. In addition, some basic concepts of energy economics are discussed, which are needed in the following.
In the main part of the thesis, several algorithms are developed to determine the load flow in a network with a high share of wind and solar energy and to determine the backup supply needed at the same time. Minimization of the energy needed from controllable power plants, the capacity variable power plants, and the capacity of storing serve as guiding principles. In addition, the optimization problem of grid extensions is considered. It is shown that it can be formulated as a convex optimization problem. It turns out that with an optimized, international transmission network which is about four times the currently available transmission capacity, much of the potential savings in backup energy (about 40%) in Europe can be reached. In contrast, a twelvefold increase the transmission capacity would be necessary for a complete implementation of all possible savings in dispatchable power plants.
The reduction of the dispatchable generation capacity and storage capacity, however, presents a greater challenge. Due to correlations in the generation of time series of individual countries, it may be reduced only with difficulty, and by only about 30%.
In the following, the influence of the relative share of wind and solar energy is illuminated and examined the interplay with the line capacitance. A stronger transmission network tends to lead to a higher proportion of wind energy being better integrated. With increasing line capacity, the optimal mix in Europe therefore shifts from about 70% to 80% wind. Similar analyses are carried out for the US with comparable results.
In addition, the cost of the overall system can be reduced. It is interesting at this point that the advantages for the network integration may outweigh higher production costs of individual technologies, so that it is more favourable from the viewpoint of the entire system to use the more expensive technologies.
Finally, attention is given to the flexibility of the dispatchable power plants. Starting from a Fourier-like decomposition of the load curve as it was a few years ago, when hardly renewable generation capacity was present, capacities of different flexibility classes of dispatchable power plant are calculated. For this purpose, it is assumed that the power plant park is able to follow the load curve without significant surplusses or deficits. From this examination, it is derived what capacity must at least be available without having to resort to a detailed database of existing power plants.
Assuming a strong European cooperation, with a stronger international transmission network, the dispatchable power capacity can be significantly reduced while maintaining security of supply and generating relatively small surplusses in dispatchable power plants.
Die vorliegende Arbeit ist das Extrakt umfangreicher Untersuchungen an ausgewählten organischen und metallorganischen Verbindungen im Hinblick auf ihre Polymorphie. Nicht nur die praktischen Arbeiten, wie Synthesen, Polymorphie-Screenings (nach eigens entwickeltem Vorgehen), die chemisch-physikalischen Charakterisierungen neuer polymorpher Formen, sondern auch die Kristallstrukturbestimmungen aus Röntgenbeugungsdaten wurden durchgeführt. Im Fokus der Untersuchungen standen Pigmentvorprodukte, Pigmente, pharmazeutische Wirkstoffe und weitere organische und metallorganische Verbindungen.
Ein Auszug zu Pigmentvorprodukten bilden 2-Ammoniobenzolsulfonate, welche klassische Vorprodukte verlackter Hydrazonpigmente sind. Die bislang unbekannte tautomere Form und Kristallstruktur der CLT-Säure als Zwitterion konnte erfolgreich aus dem Zusammenspiel von IR-, Festkörper-NMR-Spektroskopie und Röntgen-Pulverdiffraktometrie ermittelt werden [1]. Mit Hilfe eines Polymorphie-Screenings konnten nicht nur zwei neue Pseudopolymorphe, sondern auch das Ansolvat der CLT-Säure selbst kristallisiert und ihre Strukturen aus Röntgen-Einkristalldaten bestimmt werden. Hierbei konnte das, aufgrund der Strukturbestimmung aus Röntgen-Pulverdaten proklamierten Tautomer der CLT-Säure verifiziert werden [2]. Mit Hilfe thermischer und röntgenographischer Untersuchungen an drei Derivaten der CLT-Säure, konnte der Einfluss des Substitutionsmusters (Chlor- und Methylsubstituenten) auf die Kristallpackung aufgezeigt werden [3]. Mit Hilfe eines Polymorphie-Screenings an der Iso-CLT-Säure konnten Reaktionen der zum Polymorphie-Screening eingesetzten Lösungsmittel und der Iso-CLT-Säure beobachtet und mittels thermischer und röntgenographischer Ergebnisse aufgeklärt werden. In zwei Fällen konnte eine Deprotonierung und im dritten Fall eine Desulfonierung beobachtet werden. Durch Erwärmen der deprotonierten und desulfonierten Verbindung(en) ist die Rückgewinnung der Iso-CLT-Säure möglich [4]. Ein Polymorphie-Screening an Pigment Red 53 lieferte vierundzwanzig neue Phasen, welche identifiziert und charakterisiert werden konnten. Ferner konnten von neun Phasen die Kristallstrukturen bestimmt werden (acht aus Röntgen-Einkristall- und eine aus Röntgen-Pulverdaten). Mit Hilfe dieser konnte ein Teil der Funktionalisierung von Lösungsmittelmolekülen in Pigment Red 53 aufgedeckt werden. Diverse Beziehungen pseudopolymorpher Formen zueinander konnten auf Basis der gewonnenen Erkenntnisse bestimmt werden [5]. Mit Hilfe der Ergebnisse aus den Untersuchungen zu Pigment Red 53 konnte mittels Modifizierung der bekannten Syntheseroute zu Pigment Red 53:2 die bekannte α-Phase erhalten werden. Weiterhin konnten neben zehn bekannten weitere fünfzehn neue Polymorphe identifiziert und weitestgehend charakterisiert werden. Die Kristallstrukturen von fünf bekannten und zwei neuen Phasen (sechs aus Röntgen-Einkristall- und eine aus Röntgen-Pulverdaten [6]) konnten bestimmt werden. Anhand der Ergebnisse aus den chemisch-physikalischen Charakterisierungen konnten Einzelbeziehungen zwischen den Phasen beobachtet werden. Die eigene Synthese von Pigment Red 57:1 resultierte in der bereits bekannten α-Phase. Ein Polymorphie-Screening an der α-Phase lieferte neben der bereits bekannten β-Phase elf neue Modifikationen. Schließlich konnte mit Hilfe der gesammelten Daten zur α-, β- und γ-Phase ein Zusammenhang zwischen De-/Rehydratation und dem damit einhergehenden Farbwechsel hergestellt und nachgewiesen werden [7]. Die bislang unbekannte Protonierung und Kristallstruktur von Nimustin-Hydrochlorid konnten erfolg-reich aus der Symbiose von Festkörper-NMR und Röntgen-Pulverdiffraktometrie des Handelsproduktes ermittelt werden [8]. Ebenso konnte die bislang unbekannte Kristallstruktur von 5′-Deoxy-5-fluorouridin konnte erfolgreich aus Röntgen-Pulverdaten des Handelsproduktes bestimmt werden [9]. Nach einem umfangreichen Polymorphie-Screening gelang es, Einkristalle von Tizanidin-Hydrochlorid zu erhalten und dessen Struktur aus Röntgen-Einkristalldaten zu bestimmen. Die bislang angenommene Tautomerie von Tizanidin im Festkörper und flüssiger Phase konnte mittels Röntgen-Einkristalldiffraktometrie und 1H-NMR korrigiert werden [10]. Während thermischer Untersuchungen wurden zwei bisher nicht beschriebene Polymorphe (ein Hochtemperatur- und ein Raumtemperaturpolymorph) gefunden. Schließlich konnte die Kristall-struktur des zweiten bei Raumtemperatur stabilen Polymorphs aus Röntgen-Pulverdaten bestimmt werden.
Es konnte die Kristallstruktur von 4,5,9,10-Tetramethoxypyren [11], eines neuen 2:1 Co-Kristalls aus Chinolin und Fumarsäure [12] und einer biradikalen Azoverbindung [13] aus Röntgen-Pulverdaten bestimmt werden. Neben diesen Verbindungen konnten aus analytischen und röntgenographischen Untersuchungen an ausgewählten Stereoisomeren von Inositol dreizehn neue Phasen erhalten werden. Zudem konnten mehrere Schmelzpunkte mittels DSC-Messungen korrigiert oder als Phasenübergänge oder Zersetzungs-punkte identifiziert werden. Acht Strukturen geordneter Phasen konnten aus Röntgen-Pulverdaten bestimmt werden. Zusätzlich konnten fünf der dreizehn Phasen als Rotatorphasen identifiziert und deren Elementarzelle ermittelt werden [14]. Auf Basis einer neuen Syntheseroute konnten ein Cobalt(II)- und ein Zink(II)-fumarat-Anhydrat, welche im Vergleich zu den bisher bekannten Hydraten besser wasser-löslich sind, erhalten werden. Diese Anhydrate konnten zur Kristallisation eingesetzt werden und lieferten alle bisher bekannten und zusätzlich drei neue Kristallphasen (zwei neue Cobalt(II)-fumarat-Hydrate und ein neues Zink(II)-fumarat-Hydrat). Die Kristallstrukturen der drei neuen Kristallphasen konnten aus Röntgen-Einkristalldaten bestimmt werden [15 und 16].
[1] S. L. Bekö, S. D. Thoms, J. Brüning, E. Alig, J. van de Streek, A. Lakatos, C. Glaubitz & M. U. Schmidt (2010), Z. Kristallogr. 225, 382–387; [2] S. L. Bekö, J. W. Bats & M. U. Schmidt (2012), Acta Cryst. C 68, o45–o50; [3] S. L. Bekö, C. Czech, M. A. Neumann & M. U. Schmidt. "Doubly substituted 2-ammonio-benzenesulfonates: Substituent influence on the packing pattern", eingereicht; [4] S. L. Bekö, J. W. Bats, E. Alig & M. U. Schmidt (2013), J. Chem. Cryst. 43, 655–663; [5] S. L. Bekö, E. Alig, J. W. Bats, M. Bolte & M. U. Schmidt. "Polymorphism of C.I. Pigment Red 53", eingereicht; [6] T. Gorelik, M. U. Schmidt, J. Brüning, S. Bekö & U. Kolb (2009), Cryst. Growth Des. 9, 3898–3903; [7] S. L. Bekö, S. M. Hammer & M. U. Schmidt (2012), Angew. Chem. Int. Ed. 51, 4735–4738 und Angew. Chem. 124, 4814–4818; [8] S. L. Bekö, D. Urmann, A. Lakatos, C. Glaubitz & M. U. Schmidt (2012), Acta Cryst. C 68, o144–o148; [9] S. L. Bekö, D. Urmann & M. U. Schmidt (2012), J. Chem. Cryst. 42, 933–940; [10] S. L. Bekö, S. D. Thoms, M. U. Schmidt & M. Bolte (2012), Acta Cryst. C 68, o28–o32; [11] M. Rudloff, S. L. Bekö, D. Chercka, R. Sachser, M. U. Schmidt, K. Müllen & M. Huth. "Structural and electronic properties oft he organic charge transfer system 4,5,9,10-tetramethoxypyrene - 7,7,8,8-tetracyanoquinodimethane", eingereicht; [12] S. L. Bekö, M. U. Schmidt & A. D. Bond (2012), CrystEngComm 14, 1967–1971; [13] S. L. Bekö, S. D. Thoms & M. U. Schmidt (2013), Acta Cryst. C 43, 1513–1515; [14] S. L. Bekö, E. Alig, M. U. Schmidt & J. van de Streek (2014), IUCrJ 1, 61–73; [15] S. L. Bekö, J. W. Bats & M. U. Schmidt (2009), Acta Cryst. C 65, m347–m351; [16] S. L. Bekö, J. W. Bats & M. U. Schmidt. "One-dimensional zinc(II) fumarate coordination polymers", akzeptiert.
The laser-driven acceleration of protons from thin foils irradiated by hollow high-intensity laser beams in the regime of target normal sheath acceleration is reported for the first time. The use of hollow beams aims at reducing the initial emission solid angle of the TNSA source, due to a flattening of the electron sheath at the target rear side. The experiments were conducted at the PHELIX laser facility at the GSI Helmholtzzentrum für Schwerionenforschung GmbH with laser intensities in the range from 10^18 to 10^20 W/cm^2. We observed an average reduction of the half opening angle by (3.07±0.42)° or (13.2±2)% when the targets have a thickness between 12 to 14 μm. In addition, the highest proton energies were achieved with the hollow laser beam in comparison to the typical Gaussian focal spot.
Fast nuclei are ionizing radiation which can cause deleterious effects to irradiated cells. The modelling of the interactions of such ions with matter and the related effects are very important to physics, radiobiology, medicine and space science and technology. A powerful method to study the interactions of ionizing radiation with biological systems was developed in the field of microdosimetry. Microdosimetry spectra characterize the energy deposition to objects of cellular size, i.e., a few micrometers.
In the present thesis the interaction of ions with tissue-like media was investigated using the Monte Carlo model for Heavy-Ion Therapy (MCHIT) developed at the Frankfurt Institute for Advanced Studies. MCHIT is a Geant4-based application intended to benchmark the physical models of Geant4 and investigate the physical properties of therapeutic ion beams. We have implemented new features in MCHIT in order to calculate microdosimetric quantities characterizing the radiation fields of accelerated nucleons and nuclei. The results of our Monte Carlo simulations were compared with recent experimental microdosimetry data.
In addition to microdosimetry calculations with MCHIT, we also investigated the biological properties of ion beams, e.g. their relative biological effectiveness (RBE), by means of the modified Microdosimetric-Kinetic model (MKM). The MKM uses microdosimetry spectra in describing cell response to radiation. MCHIT+MKM allowed us to study the physical and biological properties of ion beams. The main results of the thesis are as follows:
MCHIT is able to describe the spatial distribution of the physical dose in tissue-like media and microdosimetry spectra for ions with energies relevant to space research and ion-beam cancer therapy; MCHIT+MKM predicts a reduction of the biological effectiveness of ions propagating in extended medium due to nuclear fragmentation reactions; We predicted favourable biological dose-depth profiles for monoenergetic helium and lithium beams similar to the one for carbon beam. Well-adjusted biological dose distributions for H-1, He-4, C-12 and O-16 with a very flat spread-out Bragg peak (SOBP) plateau were calculated with MCHIT+MKM; MCHIT+MKM predicts less damage to healthy tissues in the entrance channel for SOBP He-4 and C-12 beams compared to H-1 and O-16 ones. No definitive advantages for oxygen ions with respect to carbon were found.
Biopharmazeutika sind heutzutage ein wichtiger Bestandteil des Arzneimittelmarktes. Ihr komplexer Aufbau und ihre Mikroheterogenität erfordern eine genaue strukturelle Charakterisierung auf verschiedenen Ebenen der Moleküle, wobei die Anwendung neuer Methoden von den entsprechenden Richtlinien durchaus erwünscht ist. Die Massenspektrometrie als Analysemethode hat sich in diesem Gebiet bereits fest etabliert. Verschiedenste massenspektrometrische Untersuchungen können an den intakten Biopharmazeutika sowie an größeren und kleineren Bruchstücken derselben durchgeführt werden. Trotzdem wird meist auf wenige, lange etablierte Protokolle zurückgegriffen, die häufig mit langwieriger Probenvorbereitung verbunden sind. Bei der Analyse der Glykosylierung wird immer noch die chromatographische Trennung mit anschließender Detektion durch UV- oder Fluoreszenzmessung bevorzugt.
In dieser Arbeit sollten die Möglichkeiten der Massenspektrometrie bei der Analyse von Biopharmazeutika genauer untersucht werden. Dazu gehört auch, den hohen Informationsgehalt der üblichen chromatographischen Auftrennung von Peptiden aus einem proteolytischen Verdau vollständig zu nutzen. Es wurde gezeigt, dass die manuelle Auswertung der Analyse zusätzliche Ergebnisse bringt, und dass gleichzeitig eine Analyse von posttranslationalen und prozessbedingten Modifikationen möglich ist. Zudem wurde der Verdau mit der Protease Trypsin auf das jeweilige Biopharmazeutikum und auf das Ziel der Analyse optimiert. Da mit Trypsin eine vollständige Sequenzabdeckung nicht erreichbar war, wurden zusätzlich verschiedene weniger spezifische Proteasen angewendet. Alle untersuchten weniger spezifischen Proteasen (Elastase, Chymotrypsin und Thermolysin) waren für eine solche Analyse gut geeignet. Die Komplementarität von MALDI- und ESI-MS-Analysen konnte durch ihre Kombination optimal ausgeschöpft werden. Zudem wurden weitere Methoden zur Erhöhung der Sequenzabdeckung wie die Derivatisierung der Peptide mit TMTzero vorgestellt.
Für die Analyse intakter Biopharmazeutika wurden neben der Größenausschlusschromatograph und gelelektrophoretischen Trennungen sowohl MALDI- als auch ESI-MS-Analysen verwendet. Die Trennung großer Proteinmoleküle in kleinere Untereinheiten erleichterte dabei die massenspektrometrische Analyse maßgeblich. Die Fragmentierung der Biopharmazeutika mittels MALDI-ISD war für die Bestimmung der Protein-N- und C-Termini sehr gut geeignet.
Die Analyse der Glykosylierung wurde an den freien N-Glykanen aus einem PNGaseF-Verdau sowie an Glykopeptiden aus einem Verdau mit Pronase durchgeführt. Die freien N-Glykane konnten zudem für die MALDI-MS-Analyse mit der MALDI-Matrix 3-Aminochinolin direkt auf dem Probenteller derivatisiert werden. Die Derivatisierung und Vermessung der N-Glykane wurde zunächst an verschiedenen Standardoligosacchariden, Humanmilcholigosacchariden und N-Glykanen aus Standardglykoproteinen optimiert. Durch die Fragmentierung der N-Glykane konnten diese sequenziert und isomere Strukturen unterschieden werden.
Bei einem Pronaseverdau wurden Proteine so weit verdaut, dass nur noch einzelne Aminosäuren bzw. Di- oder Tripeptide übrig blieben. Lediglich die Glykosylierungsstellen waren durch die voluminösen Glykanstrukturen vor dem Verdau geschützt und behielten eine kurze Peptidsequenz, die für eine Identifizierung der Glykosylierungsstelle ausreichend war. So konnten die N- und O-Glykopeptide direkt ohne Aufreinigung mittels MALDI-MS aus den Verdauansätzen analysiert werden, ohne dass nicht glykosylierte Peptide störten. Das Verdauprotokoll wurde zunächst an mehreren Standard-N- und -O-Glykoproteinen optimiert und anschließend auf die untersuchten Biopharmazeutika angewendet. N- und O-Glykopeptide konnten sogar nebeneinander analysiert werden. Die hohe Massengenauigkeit des verwendeten MALDI LTQ-Orbitrap Massenspektrometers ließ eine eindeutige Identifizierung der Glykopeptide mit Hilfe eines dafür entwickelten Programms zu. Weiterhin konnte die Identifizierung durch die Fragmentierung der Glykopeptide unterstützt werden.
Somit konnten in dieser Arbeit verschiedene massenspektrometrische Analysen von Biopharmazeutika neu entwickelt, optimiert oder vereinfacht werden. Dabei wurden für jede Strukturebene (intaktes Molekül, größere und kleinere Fragmente) sowohl Ansätze mit MALDI-MS als auch mit ESI-MS verfolgt. Einige Methoden, die in der Proteomforschung bereits Anwendung fanden, konnten erfolgreich auf Biopharmazeutika übertragen werden. Die Arbeit zeigt, dass die Massenspektrometrie ein großes Potential in der Analyse der Biopharmazeutika besitzt, das aber bisher noch nicht vollständig ausgeschöpft wird. Durch die Wahl der richtigen Methoden und der geeigneten Instrumentierung wird eine vollständige strukturelle Charakterisierung ermöglicht.
HIV vaccine preclinical testing is difficult because HIV’s only relevant hosts are humans and no correlates of protection are known. To this end, we are working on the humanization of different mouse strains with human peripheral blood mononuclear cells (PBMCs) as well as human hematopoietic stem cells (HSC) to generate a useful small animal model.
We generated immune deficient mice (NOD Scid IL2gc -/- /NOD Rag1-/- IL2gc -/-) expressing human MHC class II (HLA-DQ8) on a mouse class II deficient background (Ab-/-). Here, the human HLA-DQ8 should interact with the matching T cell receptors of transferred matching human PBMCs and therefore could support the functionality of the transferred human CD4+ cells in the mice.
Mice that were adoptively transferred with human HLA-DQ8 PBMCs only showed engraftment of CD3+ T cells. Surprisingly, the presence of HLA class II did not significantly change the repopulation rates in the mice. Also, the presence of HLA class II did not advance B cell engraftment, such that humoral immune responses were undetectable. However, the overall survival of DQ8-expressing mice was significantly prolonged, compared to mice expressing mouse MHC class II molecules, and correlated with an increased time span until onset of GvHD.
To avoid GVHD and to increase and maintain the level of human cell reconstitution over a long period of time, the same mouse strains were reconstituted with human HSC. Compared to PBMC-repopulated mice, HSC-reconstituted mice develop almost all subpopulations of the human immune system detectable at week 12 after HSC transfer. These mice developed adaptive immune responses after Tetanus Toxoide (TT) immunizations. In addition, we are testing the susceptibility of these humanized mice to different HIV strains with a detailed look at immune responses.
Die Arbeit befasst sich auf dem Weg einer qualitativ empirischen Studie mit dem Thema „informelles Lernen“. Im Mittelpunkt steht die Erforschung der unterschiedlichen Phänomene informellen Lernens – der Lerninhalte, -formen und -modalitäten sowie die Bedeutung des Kontextes für diese Lernform. Darüber hinaus wird auf einer theoretischen Ebene eine Auseinandersetzung mit dem Diskurs um das informelle Lernen angestrebt. Neben einem Literaturbericht – dessen Ergebnis die theoretische wie empirische Unterbelichtung des informellen Lernens ist – wird nach einem systematischen Verständnis vom Lernen in informellen Kontexten gesucht. Im Fokus der Arbeit liegt aber die empirische Befassung mit dem Phänomen des informellen Lernens. Zu diesem Zweck wurden – verortet im Kontext eines kommunalen Wildtiermanagementprojektes – zweistufige Interviews sowie teilnehmende Beobachtungen durchgeführt und analysiert. Auf Basis dieser empirischen Daten konnten unterschiedliche Lernergebnisse und -formen informellen Lernens sowie unterschiedliche lernrelevante (Kontext-)Faktoren rekonstruiert werden. Darüber wurden spezifische Merkmale und Besonderheiten des Lernens in informellen Kontexten erarbeitet.
During the last decade of the 20th century, the field of mass spectrometry has seen a revolutionary change in its application and scope. The introduction of soft ionization methods for the analysis of biological molecules has expanded the area of mass spectrometry from its early roots in the analysis of inorganic and organic species into the fields of biology and medicine.
Today, the use of the mass spectrometry is extended to a wide range of applications in biotechnology and pharmaceutical industry, in geological, environmental and clinical research. In biochemistry, the principles of mass spectrometry are, however, broadly applicable in accurate molecular weight determination, reaction monitoring, amino acid sequencing, oligonucleotide sequencing and protein structure.
In order to carry out their biological activities, proteins interact most often to each other and form transient or stable complexes. In addition, some proteins specifically interact also with other proteins or with non-protein molecules, such as DNA, RNA or metabolites, these interactions being critical for their function. Hence, defining the composition of protein complexes, as well as understanding how protein complexes are assembled and regulated yield invaluable insights into protein function. Coupled with an isolation technique to purify a specific protein complex of interest, mass spectrometry can rapidly and reliably identify the components of complexes. In addition, quantitative MS techniques offer the possibility of studying dynamically regulated interactions....
Terrestrial climate and ecosystem evolution during ‘Greenhouse Earth’ phases of the early Paleogene remain incompletely known. Particularly, paleobotanical records from high southern latitudes are giving only limited insights into the Paleocene and early Eocene vegetation of the region. Hence, data from continuous well-calibrated sequences are required to make progress with the reconstruction of terrestrial climate and ecosystem dynamics from the southern latitudes during the early Paleogene.
In order to elucidate the terrestrial conditions from the high southern latitudes during the early Paleogene, terrestrial palynology was applied in the present study to two well-dated deep-marine sediment cores located at the Australo-Antarctic region: (i) IODP Site U1356 (Wilkes Land margin, East Antarctica) and (ii) ODP Site 1172 (East Tasman Plateau, southwest Pacific Ocean). The studied sequence from IODP Site U1356 comprises mid-shelfal sediments from the early to middle Eocene (53.9 – 46 million years ago [Ma]). For the ODP Site 1172, the studied succession is characterized by sediments deposited in shallow marine environments of the middle Paleocene to the early Eocene (60.7 – 54.2 Ma).
Based on the obtained pollen and spores (sporomorphs) results from the studied sequences of Site U1356 and Site 1172, this study aims to: (1) decipher the terrestrial climate conditions along the Australo-Antarctic region from the middle Paleocene to the middle Eocene; (2) evaluate the structure, diversity and compositional patterns of forests that throve in the Australo-Antarctic region during the early Paleogene; (3) understand the response of forests from the high southern latitudes to the climate dynamics from the early Paleogene; (4) establish a connection between the generated terrestrial palynomorph data and published Sea Surface Temperatures (SSTs) from the same cores.
To decipher the terrestrial climatic conditions on the Australo-Antarctic region, this study relies on the nearest living relative (NLR) concept that assumes that fossil taxa have similar climate requirements as their modern counterparts. This approach was applied to the sporomorph results of Site U1356 and Site 1172, following mainly the bioclimatic analysis. With regard to the structure and diversity patterns of the vegetation from the same region, the present study presents combined qualitative (i.e., reconstruction of the vegetation based mainly on the habitats of the known living relatives) and quantitative (i.e., application of ordination techniques, rarefaction and diversity indices) analyses of the fossil sporomorphs results.
The overall results from the paleoclimatic and vegetation reconstruction approaches applied in the present study, indicate that temperate and paratropical forests during the early Paleogene throve under different climatic conditions on the Wilkes Land margin and on Tasmania, at paleolatitudes of ∼70°S and ∼65°S, respectively.
Specifically, the sporomorph results from Site U1356, suggest that a highly diverse forest similar to present-day forests from New Caledonia was thriving on Antarctica during the early Eocene (53.9 – 51.9 Ma). These forests were characterized by the presence of termophilous taxa that are restricted today to tropical and subtropical settings, notably Bombacoideae, Strasburgeria, Beauprea, Spathiphyllum, Anacolosa and Lygodium. In combination with MBT/CBT paleotemperature results, they provide strong evidence for near-tropical warmth at least in the coastal lowlands along the Wilkes Land margin. The coeval presence of frost tolerant taxa such as Nothofagus, Araucariaceae and Podocarpaceae during the early Eocene on the same record suggests that paratropical forests were thriving along the Wilkes Land margin. Due to the presence of this kind of vegetation, it is possible to suggest that forests in this region were subject to a climatic gradient related to differences in elevation and/or the proximity to the coastline.
By the middle Eocene, the paratropical forests that characterized the vegetation of the early Eocene on the Wilkes Land margin were replaced by low diversity temperate forests dominated by Nothofagus, and similar to present-day cool-temperate forests from New Zealand. The dominance of these forests and the absence of thermophilous elements together with the lower temperatures suggested by the MBT/CBT and the sporomorph-based temperatures indicate consistently cooler conditions during this time interval.
With regard to the sporomorph results of Site 1172, this study suggests that three vegetation types were thriving on Tasmania from the middle Paleocene to the early Eocene under different climatic conditions. During the middle to late Paleocene, warm-temperate forests dominated by Podocarpaceae and Araucariaceae were the prevailing vegetation on Tasmania. The dominance of these forests was interrupted by the transient predominance of cool-temperate forests dominated by Nothofagus and Araucariaceae across the middle/late Paleocene transition interval (~59.5 to ~59.0 Ma). This cool-temperate forest was characterized by a lack of frost-sensitive elements (i.e., palms and cycads) indicating cooler conditions with harsher winters on Tasmania during this time interval. By the early Eocene, and linked with the Paleocene Eocene Thermal Maximum (PETM), Paleocene temperate forests dominated by gymnosperms were replaced by paratropical rainforests with the remarkable presence of the tropical mangrove palm Nypa during the PETM and the earliest Eocene. The overall results from Site U1356 and Site 1172, provide a new assessment of the terrestrial climatic conditions in the Australo-Antarctic region for validating climate models and understanding the response of high-latitude terrestrial ecosystems to the climate dynamics of the early Paleogene on southern latitudes.
The climatic conditions in the higher latitudes during the early Paleogene were further unravelled by comparing the obtained terrestrial and marine results. The integration of the obtained sporomorph data with previously published TEX86-based SSTs from Site 1172 documents that the vegetation dynamics were closely linked with the temperature evolution from the Australo-Antarctic region. Moreover, the comparison of TEX86-based SSTs and sporomorph-based climatic estimations from Site 1172 suggests a warm-season bias of both calibrations of TEX86 (i.e., TEX86Hand TEX86H), when this proxy is applied to high southern latitudes records of the early Paleogene.
The work presented in this thesis is devoted to two classes of mathematical population genetics models, namely the Kingman-coalescent and the Beta-coalescents. Chapters 2, 3 and 4 of the thesis include results concerned with the first model, whereas Chapter 5 presents contributions to the second class of models.
The objective of the present doctoral thesis was to investigate the occurrence, distribution, and behaviour of six hydrophilic ethers: ethyl tert-butyl ether (ETBE), 1,4-dioxane, ethylene glycol dimethyl ether (monoglyme), diethylene glycol dimethyl ether (diglyme), triethylene glycol dimethyl ether (triglyme), and tetraethylene glycol dimethyl ether (tetraglyme) in surface-, waste-, ground- and drinking water samples. Solid phase extraction and gas chromatography/mass spectrometry were used to analyze the six hydrophilic ethers. Altogether more than 150 surface water samples, almost 100 of each groundwater and wastewater samples, and 10 raw and drinking water samples were analyzed during the research project.
Initially, the method was validated in order to simultaneously determine the analytes of interest in various aquatic environments. A solid phase extraction method that uses coconut charcoal (Resprep® activated coconut charcoal, Restek) or carbon molecular sieve material (SupelcleanTM Envi-CarbTM Plus, Supelco) for analyte absorption were found suitable for determination of ETBE, 1,4-dioxane, and glymes in surface-, drinking-, ground- and wastewater samples. Precision and accuracy of both methods was demonstrated for all analytes of interest. The recovery of target compounds from the ultrapure water spiked at 1.0 µg L−1 was between 86.8 % and 98.2 %, with relative standard deviation below 6 %. The samples spiked at 10.0 µg L−1 gave slightly higher recovery of 90.6 % to 112.2 % with a relative standard deviation below 3.4 % for each analyte. Detection and quantification limits in ultrapure water and surface waters were furthermore established. The limit of quantitation (LOQ) in ultrapure water ranged between 0.024 µg L−1 to 0.057 µg L−1 using Restek cartridges, and 0.030 µg L−1 to 0.069 µg L−1 using Supelco cartridges. In the surface water samples the calculated LOQ was 0.032 µg L−1 to 0.067µg L−1 using coconut charcoal material and 0.032 µg L−1 to 0.052 µg L−1 using the carbon molecular sieve material. Moreover, stability of the unpreserved and preserved water samples as well as the extracts was determined. Preservation of samples with sodium bisulfate (at 1 gram per Liter) resulted in much better stability of the ethers in water samples. Subsequently, 27 samples obtained from seven surface water bodies in Germany (Rivers Rhine, Lippe, Main, Oder, Rur, Schwarzbach and Wesel-Datteln Canal) were analyzed for the six hydrophilic ethers. ETBE was present in only two surface waters (Rhine River and Wesel-Datteln Canal) with concentrations close to the LOQ (up to 0.065 µg L−1). 1,4-Dioxane was detected in all of the water samples at concentrations reaching 1.93 µg L–1. Monoglyme was identified only in the Main and Rhine Rivers at the maximum concentration of 0.114 µg L–1 and 0.427 µg L–1, respectively. Very high concentrations (up to 1.73 µg L−1) of diglyme, triglyme, and tetraglyme were detected in the samples from the Oder River. These glymes were also detected in the Rhine River; however the concentrations did not exceed 0.200 µg L–1. Furthermore, tetraglyme was detected in the Main River at an average concentration of 0.409 µg L–1 (n = 6) and in one sample from the Rur River at 0.192 µg L–1.
Four sampling campaigns were conducted at the Oderbruch polder between October 2009 and May 2012, in order to study the behavior of the hydrophilic ethers and organophosphates during riverbank filtration and in the anoxic aquifer. Moreover the suitability of these target compounds was assessed for their use as groundwater organic tracers. At the time of each sampling campaign, concentrations of triglyme and tetraglyme in the Oder River were between 20–185 ng L–1 (n = 4) and 273¬–1576 ng L–1 (n = 4). Monoglyme, diglyme, and 1,4-dioxane were analyzed only during the two last sampling campaigns. At that time, the concentration of diglyme in Oder River was 65¬–94 ng L-1 (n = 2) and 1,4-dioxane 1610¬–3290 ng L–1 (n = 2). In the drainage ditch, following bank filtration, concentrations of ethers ranged between 1090 ng L–1 and 1467 ng L–1 for 1,4-dioxane, 23¬ng L–1 and 41 ng L–1 for diglyme, 37 ng L–1 and 149 ng L–1 for triglyme, and 496 ng L–1 and 1403 ng L–1 for tetraglyme. In the anoxic aquifer, 1,4-dioxane showed the greatest persistence during the groundwater passage. At the distance of 1150 m from the river and an estimated groundwater age of 41.9 years, a concentration above 200 ng L−1 was detected. A positive correlation was found for the inorganic tracer chloride (Cl−) with 1,4-dioxane and tetraglyme. Similarities in the behavior of Cl− and the organic compound suggested that 1,4-dioxane and tetraglyme are controlled by the same hydraulic process and therefore can be used as additional tracers to study the dynamics of the groundwater system. These results show that high concentrations of ethers are present in the surface water and are not removed during bank filtration processes. Moreover, the hydrophilic ethers persist in the anoxic aquifer and little or no degradation is expected, supporting, their possible application as organic tracers.
A separate sampling project was conducted for 1,4-dioxane that focused primarily on its fate in the aquatic environment. This study provided missing information on the extent of water pollution with 1,4-dioxane is Germany. Numerous waste-, surface-, ground- and drinking water samples were collected in order to determine the persistence of 1,4-dioxane in the aquatic environment. The occurrence of 1,4-dioxane was determined in wastewater samples from four municipal sewage treatment plants (STP). The influent and effluent samples were collected during weekly campaigns. The average influent concentrations in all four plants ranged from 262 ± 32 ng L−1 to 834 ± 480 ng L−1, whereas the average effluents concentrations were between 267 ± 35 ng L−1 and 62,260 ± 36,000 ng L−1. The source of increased 1,4-dioxane concentrations in one of the effluents was identified to originate from impurities in the methanol used in the postanoxic denitrification process. Spatial and temporal distribution of 1,4-dioxane in the river Main, Rhine, and Oder was also examined. Concentrations reaching 2,200 ng L−1 in the Oder River, and 860 ng L−1 in both Main and Rhine River were detected. The average load during the sampling was estimated to be 6.5 kg d−1 in the Main, 34.1 kg d−1 in the Oder, and 134.5 kg d−1 in the Rhine River. In all of the sampled rivers, concentrations of 1,4-dioxane increased with distance from the mouth of the river and were found to negatively correlate with the discharge of the river. In order to determine if 1,4-dioxane can reach drinking water supplies, samples from a Rhine River bank filtration site and potable water from two drinking water production facilities were analyzed for the presence of 1,4-dioxane in the raw water and finished potable water. The raw water (following bank filtration) contained 650 ng L−1 to 670 ng L−1 of 1,4-dioxane, whereas the concentration in the finished drinking water fell only to 600 ng L−1 and 490 ng L−1, respectively.
During the final project, investigations of the source identification of high glyme concentrations in the Oder River were carried out. During four sampling campaigns between January, 2012 and April, 2013, 50 samples from the Oder River in the Oderbruch region and Poland were collected. During the first two samplings in the Oderbruch polder, glymes were detected at concentration reaching 0.07 µg L-1 (diglyme), 0.54 µg L−1 (triglyme) and 1.73 µg L−1 (tetraglyme) in the Oder River. The extensive sampling campaign of the Oder River (about 500 km) in Poland helped to identify the area of possible glyme entry into the river. During that sampling the maximum concentrations of triglyme and tetraglyme were 0.46 µg L−1 and 2.21 µg L−1, respectively. A closer investigation of the identified area of pollution, helped to determine the possible sources of glymes in the Oder River. Hence, the final sampling focused on the Kaczawa River, a left tributary of the Oder River and Czarna Woda, a left tributary of Kaczawa River. Moreover, samples from an industrial wastewater treatment plant were collected. Samples from Czarna Woda stream and Kaczawa River contained even higher concentrations of diglyme, triglyme, and tetraglyme, reaching 5.18 µg L−1, 12.87 µg L−1 and 80.81 µg L−1, respectively. Finally, three water samples from a wastewater treatment plant receiving influents from a copper smelter were analyzed. Diglyme, triglyme, and tetraglyme were present at an average concentration of 569 µg L−1, 4300 µg L−1, and 65900 µg L−1, respectively in the wastewater. Further research helped to identify the source of the glymes in the wastewater. The gas desulfurization process – Solinox implemented in the nearby copper smelter uses glymes as physical absorption medium for sulfur dioxide.
Results of this doctoral research provide important information about the occurrence, distribution, and behavior of hydrophilic ethers: 1,4-dioxane, monoglyme, diglyme, triglyme, and tetraglyme in the aquatic environment. A method capable of analyzing a wide range of ether compounds: from a volatile ETBE to a high molecular weight tetraglyme was validated. 1,4-Dioxane and tetraglyme were found to be applicable as organic tracers, since they are not easily attenuated during bank filtration and the anoxic groundwater passage. The extent of water pollution with 1,4-dioxane was shown in waste-, surface-, ground-, and drinking waters. One source of extremely high concentrations of 1,4-dioxane in a municipal sewage treatment plant applying postanoxic denitrification was identified, however more information is needed on the entry of 1,4-dioxane into surface waters. Moreover, 1,4-dioxane was present in drinking water samples from river bank filtration, which demonstrates its persistence in the aquatic environment and its low degradation potential during bank filtration and subsequent water treatment. Furthermore, this was the first study that focused primarily on identifying sources of glymes in surface waters. Glymes find a widespread use in industrial sectors, hence establishing their origin in the surface water is difficult (as with 1,4-dioxane). In this work, a gas desulphurization process was identified to be a dominating source of glyme pollution in the Oder River.
Der Entwicklung eines Instrumentes, eines standardisierten schriftlichen Intensiv-Interviews zur Messung von Einstellungen zu Recht und Gesetz, werden in Teil A der Arbeit theoretische Überlegungen vorangestellt. Der in der Rechtswissenschaft zentrale und umstrittene Begriff „Recht“ wird nur in seiner aktuellen und allgemeinen Bedeutung aufgenommen, in einer allgemeinen Bedeutung wie sie von Laien erfasst wird. Der Begriff „Recht“ wird weiter eingegrenzt auf ein Normverständnis in strafrechtlicher Sicht.
Alltägliche Situationen aus verschiedenen Gebieten des Strafrechts (Fälle) sollen die „Items“ bilden, zu denen Jugendliche, Heranwachsende und junge Erwachsene aus unterschiedlichen Schichten der Bevölkerung und mit verschiedenem Bildungsstand ihre Auffassungen aufschreiben. Begriffe wie Recht, Norm, Moral, Einstellung, Meinung, Stereotyp, Vorurteil und auch Überlegungen zum Verständnis von Recht und Gesetz als „Wert“ werden aufgenommen und im Zusammenhang mit der Entwicklung eines neuen Forschungsverfahrens erörtert.
5 Hypothesen werden formuliert zu Einstellungen von Recht und Gesetz und zur Wert-Orientierung von Individuen.
Vielfältige Überlegungen zur Entwicklung der Items (der Fälle) des standardisierten schriftlichen Intensiv-Interviews und der den Befragten vorzulegenden Stufen-Antworten stehen an. Die zu den einzelnen Items vorgegebenen Stufen-Antworten sollen Normorientierung, Einstellungen zu Recht und Gesetz, in verschiedenem Ausmaß abbilden. Der Inhalt wenigstens einer Item-Stufen-Antwort entspricht der Norm und der Inhalt einer Antwort ist klar nicht normorientiert. Die zusätzlich formulierten alternativen Stufen-Antworten zwischen einer Antwort mit klarer Normorientierung und einer Antwort mit fehlender Normorientierung sind „mehr oder weniger normorientiert“, sie berücksichtigen Aspekte der Normorientierung. Jene werden dargelegt und diskutiert. Besonders beachtet wird die Punkt-Bewertung der entworfenen Stufen-Antworten. Jene bilden schließlich den Einstellungs-Score des Individuums, den „Messwert“, der Auskunft gibt über seine individuelle Normorientierung, seine Einstellung zu Strafrecht und Gesetz.
Es wird im Voraus festgelegt, welche „Summen-Scores“ eine „positive“ Einstellung, welche nur eine „neutrale“ und welche „Summen-Scores“ eine „negative“ Einstellung zu Recht und Gesetz abbilden.
Voruntersuchungen zum Verständnis der Items (der Fälle), eine Überprüfung der Item-Formulierungen, Untersuchungen zum Verständnis der Test-Instruktion und zur Durchführung des Verfahrens mit Hilfe von Befragungen von etwa 100 Jugendlichen und Erwachsenen aus unterschiedlichen sozialen Schichten und mit verschiedenem Bildungsgrad führen in 2006 schließlich zur Endfassung des standardisierten schriftlichen Intensiv-Interviews. Jenes wird dargestellt zusammen mit den entworfenen zusätzlichen Fragen zur Person der Untersuchungsteilnehmer.
Teil B der Arbeit beschreibt und diskutiert erste empirische Befragungen von 13 anfallenden Stichproben mit dem Intensiv-Interview, die in den Jahren 2006 bis 2010 mit 100 Jugendlichen und jungen Erwachsenen, Studierenden einer Universität oder Hochschule, Schülern der 9. Klasse einer Hauptschule und Schülern der 11. Klasse zweier Gymnasien durchgeführt wurden.
Die einzelnen Stichproben mit ihren Personmerkmalen werden charakterisiert.
Stets wird überprüft, ob die ermittelten Ergebnisse die formulierten Hypothesen eher unterstützen oder ob die Hypothesen mit den erhobenen Daten nicht begründet werden können.
Validierungsbemühungen zum Verfahren beziehen sich in den Stichproben 1-5 auch auf die Beantwortung einzelner Items. Sie überprüfen, welche Items die Befragten relativ ähnlich beantworten und zu welchen Items die Testpersonen in unterschiedlicher Weise Stellung nehmen.
Zu 13 anfallenden Stichproben wird gefragt: lassen sich mit dem neuen Verfahren Unterschiede in der Einstellung zu Recht und Gesetz zwischen den Befragten beschreiben? Haben weibliche Jugendliche, Heranwachsende und junge Erwachsene statistisch bedeutsam positivere Einstellung zu Recht und Gesetz als männliche? Können statistisch bedeutsame geschlechtsspezifische Differenzen bei berichteten Konflikten mit dem Gesetz nachgewiesen werden? Gibt es statistisch bedeutsame Unterschiede in den Einstellungen zu Recht und Gesetz zwischen Schülern der 9. Klasse Hauptschule, Schülern der 11. Klasse Gymnasium und einer homogenen Stichprobe von Studierenden einer Universität oder Hochschule?
Zusätzlich erhoben werden die religiöse und politische Orientierung der Probanden.
Jene werden in ihrer Beziehung zu den Einstellungen zu Recht und Gesetz untersucht und verglichen.
Zur Wert-Einstellung der Probanden wird mit einem dafür entworfenen Verfahren untersucht, welche Position erhält der Wert-Bereich „Freiheit, Rechtssicherheit, Gleichheit vor dem Gesetz“ im Vergleich zu neun weiteren Wert-Bereichen in den drei Status-Gruppen?
In vitro investigation of genes identified by genome-wide association studies of Parkinson's disease
(2014)
Der Begriff Hirndoping beschreibt die Einnahme von Medikamenten mit dem Ziel der geistigen Leistungssteigerung. Diese Medikamente sind verschreibungspflichtig und bei den Konsumenten medizinisch nicht indiziert, werden also zweckentfremdet. Mittlerweile ist aus dem Thema Hirndoping ein Thema geworden, welches öffentlich diskutiert wird. Zeitung, Presse und sogar die Film- und Fernsehindustrie beschäftigen sich mit diesem Thema. So nimmt unter anderem die gestresste Mutter Lynette aus der US-Serie «Desperate Housewives» die Ritalin-Tablette ihres Sohnes ein, um so den anstrengenden Alltag besser meistern zu können. In dem US-Film «Ohne Limit - Die Droge für Reichtum und Macht» dreht sich alles um eine Droge, welche die Leistungsfähigkeit ins unermessliche steigern kann.
In der aktuellen Presse findet man immer öfter Schlagzeilen wie beispielsweise Folgendes: „Studenten unter Druck: Hirndoping kein Massenphänomen“.
Doch auch die Lebensmittel- und Pharmaindustrie ist beim Thema Leistungssteigerung in der Ideenfindung sehr kreativ. Manche Substanzen „verleihen einem Flügel“ (Red Bull®), andere sind lecker in Schokolade eingepackt (Pocket Coffee®) und wieder andere sollen die Menschen geistig aktiver machen (Gingium®).
Der Großteil der bisherigen Studien zum Thema Hirndoping stammt aus den Vereinigten Staaten von Amerika. Erst seit kurzer Zeit wird auch die Prävalenz von Hirndoping in Deutschland untersucht. Wie viele Schülerinnen und Schüler sowie Studentinnen und Studenten Substanzen zur geistigen Leistungssteigerung einnehmen, wurde teils schon für bestimmte Regionen und bestimmte Fachrichtungen stichprobenartig ermittelt. Bisher liegen allerdings noch keine umfangreichen Daten zur Prävalenz von Hirndoping bei Medizinstudenten vor. Daher untersuchte diese Studie die Einnahme von Leistungssteigernden Substanzen bei Medizinstudenten in Frankfurt am Main.
Since Inhibitor of Apoptosis (IAP) proteins are frequently dysregulated in different cancer entities and contribute to apoptosis resistance, pharmacological IAP antagonists are considered to be promising agents for the future development of cancer treatment strategies. IAP antagonists are small-molecule drugs that have been designed to mimic the interaction site of IAP proteins with their endogenous inhibitor Second mitochondrial activator of caspases (SMAC). Thus, they are frequently referred to as SMAC mimetics. Treatment with SMAC mimetics engages an apoptotic program in cancers by affecting different components of the apoptotic machinery. Besides disinhibition of caspases, SMAC mimetics trigger non-canonical nuclear factor-κB (NF-κB) signaling, which induces upregulation of tumor necrosis factor (TNF) α and other NF-κB target genes. In particular, TNFα production has been closely linked to the induction of SMAC mimetic-mediated cell death. The TNFα-dependent para/autocrine loop facilitates the formation of a cytosolic complex consisting of caspase-8, Fas-associated death domain (FADD) and Receptor-interacting protein (RIP) 1, which serves as caspase-8 activation platform and ultimately triggers induction of apoptosis. In the present study, we use the small-molecule bivalent SMAC mimetic BV6 to analyze SMAC-stimulated NF-κB signaling in cancer cell lines of different entities. Interestingly, we identify two novel NF-κB-regulated factors that are both required for SMAC mimetic-induced apoptosis in a context-dependent manner. First, we show that NF-κB-dependent upregulation of death receptor 5 (DR5) can serve as an alternative mechanism of BV6-mediated cell death. We demonstrate that BV6 treatment induces NF-κB-dependent but largely TNFα -independent apoptosis in A172 glioblastoma cells. By using an unbiased whole genome expression analysis approach, we identify DR5 as a critical NF-κB target gene, which substitutes TNFα and is indispensable for BV6-initated cell death in A172 cells. Second, we demonstrate that Interferon regulatory factor (IRF) 1 is required for BV6-induced TNFα production and apoptosis. Our study provides evidence that IRF1 closely cooperates with the NF-κB network in BV6-mediated cell death and additionally alters expression of selective SMAC mimetic-induced target genes. Furthermore, we show that BV6 treatment triggers secretion of a set of proinflammatory cytokines and increases attraction of monocytes to BV6-treated tumor cells in an IRF1-dependent manner. In summary, our work supports the notion that NF-κB-regulated factors are critically required for SMAC mimetic-initiated apoptosis. We show that IRF1 is indispensable for TNFα production and cell death in BV6-sensitive cell lines and that also DR5 can serve as a proapoptotic NF-κB-controlled factor in BV6-induced apoptosis besides TNFα. Furthermore, this study contributes to an improved understanding on non-apoptotic functions of SMAC mimetics, as IRF1 additionally influences expression levels of proinflammatory cytokines and attraction of immune cells. Thus, our work provides novel insights into the regulation of SMAC mimetic-induced signaling events, which is crucial for the translation of SMAC mimetics for use in clinical application.
Transformationen von Fankultur : organisatorische und ökonomische Konsequenzen globaler Vernetzung
(2014)
Lichens are present in most land ecosystems, frequently occupying habitats where few other organisms are able to survive. Their contribution to the ecosystems in terms of biomass and ground cover increases with latitude and altitude, being, together with bryophytes, the most conspicuous component of alpine and polar landscapes. Whereas some polar lichens have reduced distributions and are restricted to high latitudes, most of them have very wide distributional ranges, which oven extend over several climatic regions. Many of them are common to Polar Regions of both hemispheres, a distributional pattern that has been denominated as bipolar, antitropical or amphitropical. Bipolar distributions are not exclusive to lichens, but common to many groups of organisms. The bipolar element in lichens is exceptional as it includes a large number of species, while in most other land organisms it includes genera or families but very seldom species.
In this dissertation I use the bipolar lichen Cetraria aculeata to give a first insight into the phylogeography of this biogeographic element in lichens. I discuss how and when the disjunct distribution of C. aculeata came to be, and try to partial out the roles that historical and ecological processes played in shaping its distribution.
Sampling was designed to cover a wide geographic extension. The main e"ort was made to collect in boreal, temperate and tropical mountain ranges in North and South America, as well to include Mediterranean populations in which specimens with deviant morphologies are observed.
I found that Cetraria aculeata forms a genetically congruent taxon. Although whether it should include C. muricata remains unsolved, I excluded all specimens identified as the latter from our analyses. Thee populations of both algal and fungal symbionts have a strong geographic structure. The study of the lichen fungus suggested that the species originated in the Eurasian continent and later expanded to acquire its current distribution during the Pleistocene. The results showed that all American populations originated from an ancestral population, more similar to the extant Arctic populations than to the Mediterranean ones.
The comparison between the structure of fungal and algal populations showed a high degree of coherence between them. However, the similarity in photobiont use between Arctic and Antarctic populations suggests that photobiont use responds not only to a history of codispersal in vegetative propagula, but it is also a result of a selective process related to climate. Since this climatic pattern of similarity is also found in the community of Alphaproteobacteria associated with C. aculeata, we concluded that lichens might be able to accommodate or to respond to different environmental conditions by selectively associating with different symbiotic partners.
Lastly, we found the Mediterranean populations of C. aculeata to be genetically differentiated in algal and fungal symbionts from the rest of the populations. While we found no grounds to believe that the overgrown morphs encountered in the region are due to the association with different algal lineages, I believe that a switch in photobiont use might be responsible for the pattern of genetic isolation encountered. Furthermore, I suggest that the Mediterranean and bipolar C. aculeata could be two different species, since both are ecologically, genetically and at least in part morphologically divergent.
Natural products (NPs) have been a rich source for pharmaceutically used anti-infectives and other drugs. However, the application of anti-infectives inevitably causes the development of resistant and multiresistant pathogens, which have to be treated with novel anti-infectives. The industrial research for novel anti-infectives has been concentrating on members of the bacterial Actinomycetales for a long time. Due to several reasons, e.g. the rediscovery of already known NPs, pharmaceutical companies abandoned their NP-research and focused on drug development based on combinatorial chemistry. However, the limited structural diversity of merely synthetic compound libraries has not been a fruitful source for bioactive compounds. Hence the discovery of novel bioactive NPs as a source for anti-infectives is still of economical and humanitarian interest and will remain to be an important branch of research in the future. One strategy to circumvent the rediscovery of bioactive NPs is the analysis of yet unexplored bacterial taxa. Based on this assumption, this work aimed at the discovery of novel NPs from the entomopathogenic bacterial genera Xenorhabdus and Photorhabdus and other promising taxa, as well as the investigation of their biosynthesis. ...
Ziel der vorliegenden Arbeit ist es, basierend auf den eigenen Publikationen, aktuelle Erkenntnisse aus dem Themenkomplex „Sitzen und Gesundheit“ einschließlich Gesundheitspotentiale leichter Aktivitäten bei Erwachsenen resümierend zusammenzustellen und kritisch zu bewerten.
Das Augenmerk der bewegungsbezogenen Gesundheitsforschung galt anfänglich primär den sportlichen und eher intensiven körperlichen Aktivitäten. Neuere Erkenntnisse lassen annehmen, dass auch andere Bewegungsarten als Sport, z.B. Bewegung im Alltag, gesundheitswirksam sein können. Die besondere Bedeutung dieser Aktivitäten liegt darin, dass sie mit wenigen Ausnahmen für jeden geeignet, risikoarm und niedrigschwellig sind. Die am besten erforschte Alltagsbewegung ist das Gehen. Die gesundheitliche Benefits von Gehen gelten sowohl im Bereich der Prävention als auch der Therapie als wissenschaftlich gesichert. Regelmäßiges Fahrradfahren verbessert die kardiorespiratorische Fitness und mindert das Gesamtmortalitätsrisiko. Die Gesundheitseffekte anderer Alltagsaktivitäten lassen sich u.a aufgrund methodischer Herausforderungen schwieriger nachweisen und quantifizieren. Neuere Arbeiten liefern Hinweise, dass Bewegung schon mit leichter Intensität zumindest bei unfitten und inaktiven Bevölkerungsgruppen ein hohes Gesundheitspotential haben kann.
Veränderte Lebensgewohnheiten in Lebensbereichen wie z.B. Arbeit, Freizeit und Fortbewegung haben dazu geführt, dass ein überwiegender Anteil der Bevölkerung den Tag sitzend verbringt. Seit den letzten 10-15 Jahren widmet sich eine wachsende Anzahl von Arbeitsgruppen der Erforschung möglicher gesundheitlicher Konsequenzen des langen ununterbrochenen Sitzens. „Sendentäres Verhalten“ (sedentary behavior), in Abgrenzung zur Inaktivität, bezeichnet Aktivitäten, die sitzend oder zurücklehnend stattfinden und mit einem Energieverbrauch von 1-1,5 MET einhergehen. In Akzelerometerstudien wird sedentäres Verhalten als Aktivitäten, bei denen das Signal mindestens eine minutelang unter 100 counts per minute (cpm) ausweist, definiert.
Akzelerometerdaten deuten darauf hin, dass sedentäres Verhalten in den Industrieländern weit verbreitet ist: es macht bis zu 69% der wach verbrachten Zeit aus.
Unsere Literaturanalyse nach Reviews und systematischen Reviews zum Thema sedentäres Verhalten und Gesundheit bei Erwachsen ergab 13 Übersichtsarbeiten. Die Übersichtsarbeiten weisen eine hohe methodische Heterogenität auf. 9 der Übersichtsarbeiten sind narrative Reviews. Die Literaturanalyse liefert Hinweise für eine graduelle Abnahme der Evidenz für die Zusammenhänge von sedentärem Verhalten mit Mortalität, Morbidität und gesundheitlichen Risikofaktoren. Die Ergebnisse von Querschnitt- und Langzeitbeobachtungsstudien zu möglichen Auswirkungen sedentären Verhaltens auf die Gesundheit sind durch Interventionsstudien nur sehr bedingt untermauert, (patho)physiologische Wirkmechanismen hinter sedentärem Verhalten nicht gesichert, und ein klarer Dosis-Wirkungszusammenhang nicht definierbar. Dennoch scheint die Evidenzlage beim Endpunkt Mortalität relativ eindeutig, bei den Endpunkten Morbidität und Risikofaktoren aber zunehmend schwach und widersprüchlich. Im Fazit deuten die Ergebnisse dieser Übersicht – besonders beim Endpunkt Mortalität und etwas weniger eindeutig bei kardiovaskulären Erkrankungen und Diabetes – auf die gesundheitsschädliche Wirkung langen ununterbrochenen Sitzens hin. In der Konsequenz ist neben Aktivität gemäß Leitlinien zu empfehlen, längere Sitzphasen nach Möglichkeit zu unterbrechen und durch Bewegung mit zumindest leichter Intensität zu ersetzen.
Es liegen einige Hinweise vor, dass nicht nur die Gesamtzeit des sedentären Verhaltens, sondern auch das Muster, in dem es entsteht, von gesundheitlicher Relevanz sein könnte. Neben der Erforschung (patho)physiologischer Effekte des langen Sitzens, ist die Überprüfung von Machbarkeit und Akzeptanz von Unterbrechungsintervention von großer Relevanz. In unserer eigenen Untersuchung haben wir in vivo überprüft, wie weit Beschäftigte mit einer überwiegend sitzenden Tätigkeit vorgegebenen Unterbrechungsempfehlungen nachkommen können, wie sie diese subjektiv erleben und wie sie ihre eigene Bereitschaft einschätzen, die Empfehlungen auch längerfristig durchzuführen.
Unsere Ergebnisse deuten darauf hin, dass schon eine einmalige Information über die Gesundheitsrisiken langen Sitzens und über Unterbrechungen zu einer zumindest kurzfristigen Reduktion der Sitzphasen führen kann. In unserer Untersuchung erwies sich ein Unterbrechungsintervall von 60 Minuten als am ehesten realisierbar. Dieses Intervall wurde von den Teilnehmern am angenehmsten wahrgenommen.
Ziel dieser Arbeit war es erstmals durch eine Kombination aus chemischer Mutagenese und gezielter genetischer Modifikation (hier: „metabolic engineering“) einen Phaffia-Stamm herzustellen, welcher über die Mutagenese hinaus über eine weiter verstärkte Astaxanthin-Synthese verfügt.
Die von „DSM Nutritional Products“ bereitgestellten chemischen Mutanten wurden analysiert und über einen Selektionsprozess auf Pigmentstabilität und Wachstum hin optimiert, da die Stämme aus cryogenisierter Dauerkultur starke Pigmentinstabilitäten und ein verzögertes Wachstum aufwiesen.
Über eine exploratorische Phase wurde die Carotinoidsynthese analysiert und festgestellt, dass in den Mutanten keine Einzelreaktionen betroffen sind, welche für die Heraufregulierung der Carotinoidsynthese in den Mutanten verantwortlich sind. Hierbei wurden Limitierungen identifiziert und diese durch Transformation von Expressionsplasmiden mit geeigneten Genen aufgehoben, um damit eine noch effizientere Metabolisierung von Astaxanthin-Vorstufen hin zu Astaxanthin zu erreichen. Eine Überexpression der Phytoensynthase/Lycopinzyklase crtYB resultierte in einem gesteigerten Carotinoidgehalt bei gleichbleibendem Astaxanthin- Anteil. Durch eine zweite Transformation mit einer Expressionskassette für die Astaxanthin-Synthase asy konnte der Carotinoidgehalt weiter gesteigert und zusätzlich eine Limitierung der Metabolisierung von Astaxanthin-Vorstufen behoben werden, sodass die Transformante nahezu alle Intermediate der Astaxanthinsynthese zu Astaxanthin metabolisieren konnte (Gassel et al. 2013). Es konnte gezeigt werden, dass auch in den Mutanten, aus Experimenten mit dem Wildtyp bekannte, Limitierungen identifiziert und ausgeglichen werden konnten.
Ausgehend von der Frage, was der Sportler jenseits externer Honorierungen davon hat im Wettkampf fair zu handeln, erfolgt die Bestimmung eines mehrdimensionalen Fairnessbegriffs, der sich in einem Kontinuum zwischen Moral und Ästhetik aufspannt. „Fairness“ (aus dem engl. „fair“ = schön, klar) ist demnach ein bipolares Prinzip der Widerstandsregulation im Wettkampf. Da „Sport“ ein Spezialfall sozialer Interaktion ist, braucht es darüber hinaus Normen des Anstands, die das Verhalten regulieren. Damit wird „Fairness“ als dreidimensionaler theoretischer Begriff gefasst, der mit der „sportlichen Moral“ und der „sportlichen Ästhetik“ zwei sportinterne Dimensionen miteinander verbindet und mit dem übergreifenden „Anstand“ in eine sportexterne, nicht speziell an sportliche Regeln gebundene ethische Instanz eingebettet ist.
Leitende Fragestellung der durchgeführten Untersuchung ist dabei, ob sich dieser drei Dimensionen umfassende Fairnessbegriff im praktischen Fairnessverständnis von Sportlern nachweisen lässt. Durch den Einsatz eines Fragebogens wurde diese Fragestellung im Fußballsport empirisch überprüft. Die aus der Theorie hergeleiteten drei Dimensionen des Fairnessverständnisses sind durch die intervallskalierte Bewertung verschiedener Situationsbeispiele für unfaire Verhaltensweisen, repräsentiert. Die ästhetische Dimension (F1Ästh) umfasst dabei 5 Items, die moralische (F2Eth) und die anstandsethische (F3Anst) jeweils 3 Items. Die Situationsbeispiele können auf einer neunstufigen Skala (von weniger unfair bis sehr unfair) bewertet werden.
Mittels der Durchführung einer konfirmatorischen Faktorenanalyse wurde die Annahme des Fairnessbegriffs über ein empirisch repräsentiertes Modell ermöglicht. Darüber hinaus wurden mit einer Stichprobe von insgesamt 484 Amateurfußballspielern soziodemographische und spielbezogene Variablen als Einflussfaktoren für die situative Einstellung zu fairem Verhalten in dem skizzierten Spannungsfeld untersucht. Über den varianzanalytischen Ansatz zur Ermittlung von Einflussfaktoren auf die situative Einstellung zu fairem Verhalten erweist sich die ästhetische Fairnessdimension des Faktors (F1Ästh) als entscheidende abhängige Variable. Im Vergleich zwischen Jugendlichen und Aktiven ist auffällig, dass die prozessorientierte ästhetische Fairnessdimension für Jugendliche insgesamt wichtiger ist als für Aktive, dieser Effekt in der hohen Spielklasse allerdings verschwindet. Darüber hinaus wirkt sich ein ergebnisorientiertes Spielinteresse negativ auf die sportinternen Dimensionen der Fairness aus.
Hepatocellular carcinoma (HCC) is the fifth most common malignant tumor and third leading cause of cancer-related death worldwide. Most cases arise as a consequence of underlying liver disease, e.g. developed from chronic hepatitis B or C infectionsalcohol abuse or obesity, and are most often associated with liver cirrhosis. Hypoxiand the hypoxia inducible factors (HIF)-1α and -2α promote tumor progression of HCC, not only affecting tumor cell proliferation and invasion, but also angiogenesis and lymphangiogenesis and thus, increasing the risk of metastasis.
HCC is characterized as one of the most vascularized solid tumors. While HIF-1α and HIF-2α are frequently up-regulated in HCC only HIF-2α is correlated with high patientlethality. HIF-dependent regulation of HCC angiogenesis is controversially discussed.VEGFA, for example, as the most prominent factor inducing tumor angiogenesis represents not only a HIF-1 target, but also a HIF-2 target gene in HCC. This questions whether both isoforms have overlapping functions in regulating the angiogenic switch in HCC.
Besides angiogenesis also tumor-associated lymphangiogenesis significantly influences patient survival in HCC. Lymphatic spread is an important clinical determinant for the prognosis of HCC, but little is known how lymphangiogenesis is controlled in this context. To date, mainly HIF-1α was positively correlated with olymphatic invasion and metastasis in HCC, while a defined role of HIF-2α is missing. Thus, although HIF-1α and HIF-2α are structurally alike and regulate overlapping but not identical sets of target genes, they promote highly divergent outcomes in cancer progression and may even have counteracting roles. The aim of my work was to characterize the specific role of HIF-1α and HIF-2α in the angiogenic switch and lymphangiogenesis induction during HCC development.
Therefore, I created a stable knockdown of HIF-1α and HIF-2α in HepG2 cells and generated cocultures of HepG2 spheroids and embryonic bodies derived from embryonic mouse stem cells as an in vitro tumor model mimicking the cancer microenvironment to analyze which HIF isoform has key regulatory functions in HCC (lymph)angiogenesis. In cocultures with a HIF-2α knockdown angiogenesis was attenuated but lymphangiogenesis increased, while the knockdown of HIF-1α was without effect. Microarray analysis identified plasminogen activator inhibitor 1 (PAI-1)and insulin-like growth factor binding protein 1 (IGFBP1) as HIF-2 target genes.However, prominent angiogenic and lymphangiogenic factors such as VEGFs, PDGFB, ANG and their receptors were not regulated in a HIF-dependent manner. As PAI-1 was linked to angiogenesis in literature and IGF-signaling, which is negatively regulated by IGFBP-1, was correlated with lymphangiogenesis, I decided to investigate their HIF-2α-dependent influence on HCC (lymph)angiogenesis. The knockdown of PAI-1 in HepG2 cells also lowered angiogenesis in PAI-1k/d cocultures similar to the HIF-2α k/d phenotype. PAI-1 as the potent inhibitor of tPA and uPA, both inducing the conversion of plasminogen to plasmin, also inhibits plasmin directly. Therefore, I assumed an increase of plasmin in HIF-2α k/d and PAI-1 k/d cocultures as a result of the reduced PAI-1 levels. Blocking plasmin with aprotinin in HIF-2α k/d cocultures restored angioge nesis, suggesting that HIF-2α increases PAI-1 to lower concentrations of active plasmin, thereby supporting angiogenesis. In further experiments I could exclude PAI-1 to reduce angiogenesis by inducing plasmin-mediated apoptosis of differentiating stem cells in PAI-1 k/d and HIF-2α k/d cocultures, but demonstrated an increase of VEGFA165 degradation in these cocultures, suggesting plasmin-catalyzed proteolysis of VEGF as an additional layer of regulation required to explain the angiogenic phenotype. Besides the pivotal role of PAI-1 in angiogenesis I also investigated its potentialinfluence in lymphangiogenesis. Indeed, the knockdown of PAI-1 reduced lymphaticstructures and implied an important but opposing role in lymphangiogenesis comparedto induced lymphangiogenesis in HIF-2α k/d cocultures. However, blocking plasmin again with aprotinin in HIF-2α k/d cocultures restored lymphangiogenesis to the level of control virus, which indicates a divergent lymphangiogenic role of plasmin in PAI-1 k/d and HIF-2α k/d cocultures, possibly because of other essential pathways masking the lymphangiogenic effects of PAI-1 in HIF-2α k/d cocultures.
HIF-2α resulting in reduced IGFBP1 expression induced the differentiation of stem cells toward a lymphatic cell type and significantly enhanced the assembly of human dermal lymphatic endothelial cells into tubes. These data point the first time to an important impact of HIF-2 in the regulatin of lymphangiogenesis in vitro by inducing IGFBP1 and thus, scavenging IGF-1. Furthermore, matrigel plug assays to investigate the in vivorelevance of these observations confirmed HIF-2α as a crucial factor in the regulation of lymphangiogenesis in vivo
In conclusion, this work provides evidence that HIF-2α is a key regulator of angiogenesis and lymphangiogenesis in HCC by regulating PAI-1 and IGFBP1. HIF-2α positively influences the angiogenic switch via PAI-1 and negatively affects lymphangiogenesis via IGFBP1 expression. Targeting HIF-2α in HCC to reduce tumor angiogenesis should be approached carefully, as it might be overcome by induced lymphangiogenesis and metastasis.
Low-energy effective models for two-flavor quantum chromodynamics and the universality hypothesis
(2014)
Die Untersuchung der Natur auf extremen Längenskalen hat seit jeher zu bahnbrechenden Einsichten und Innovationen geführt. Insbesondere zu unserem heutigen Verständnis, dass Nukleonen (Protonen und Neutronen) aus Quarks zusammengesetzt sind, die infolge der starken Wechselwirkung, vermittelt durch Gluonenaustausch, gebunden sind. Mit dem Aufkommen des Quarkmodells wurde bald die Quantenchromodynamik (QCD) erfolgreich in der Beschreibung vieler messbarer Eigenschaften der starken Wechselwirkung. Um es mit Goethe zu sagen: mit den modernen Hochenergie-Beschleuniger-Experimenten wird versucht unser Verständnis davon zu verbessern, was die Welt im Innersten zusammenhält. Am Large Hadron Collider (LHC) werden beispielsweise Protonen derart beschleunigt und miteinander zur Kollision gebracht, dass bislang unerreichte Energiedichten auftreten, infolge derer Temperatur und baryochemisches Potential Werte annehmen, die mit denen des frühen Universums vergleichbar sind. Es gibt sowohl theoretische als auch experimentelle Hinweise darauf, dass hadronische Materie mit zunehmender Temperatur und/oder zunehmendem baryochemischen Potentials einen Phasenübergang durchläuft, hin zu einem exotischen Zustand, der als Quark-Gluon-Plasma bekannt ist. Dieser Übergang wird begleitet von einem sogenannten chiralen Übergang. Es ist eine wichtige Frage, ob es sich bei diesem chiralen Übergang um einen echten Phasenübergang (von erster bzw. zweiter Ordnung) handelt, oder ob ein sogenannter crossover vorliegt. Einige Resultate deuten auf einen crossover für verschwindendes baryochemisches Potential und einen Phasenübergang erster Ordnung für verschwindende Temperatur hin, lassen jedoch noch keinen endgültigen Schluss zu, ob dies tatsächlich der Realität entspricht. Wenn ja, so liegt die Annahme nahe, dass ein kritischer Endpunkt existiert, an dem der chirale Übergang von zweiter Ordnung ist. In der Tat existiert ein kritischer Endpunkt in einigen theoretischen Zugängen zur Beschreibung des chiralen Phasenübergangs, deren Aussagekraft seit jeher lebhaft diskutiert wird. Ein zentrales Ziel des zukünftigen CBM-Experiments an der GSI in Darmstadt ist es, die Existenz im Experiment zu überprüfen.
In der Nähe des QCD-(Phasen)übergangs ist es die Abwesenheit jeglicher perturbativer Entwicklungsparameter, die exakte analytische Berechnungen verbietet. Das gleiche gilt für realistische effektive Modelle für QCD. Nichtperturbative Methoden sind daher unverzichtbar für die Untersuchung des QCD-Phasendiagramms. Zu den populärsten dieser Zugänge gehören Gitter-QCD, Resummierungsverfahren, der Dyson-Schwinger-Formalismus, sowie die Funktionale Renormierungsgruppe (FRG). All diese Methoden ergänzen sich gegenseitig und werden zum Teil auch miteinander kombiniert. Eine der Stärken der FRG-Methode ist, dass sie nicht nur erfolgreich auf effektive Modelle angewendet werden kann, sondern auch auf QCD selbst. Für letztere Ab-Initio-Rechnungen sind die aus effektiven Modellen für QCD gewonnenen Resultate von grossem Wert.
Der Schwerpunkt der vorliegenden Arbeit liegt auf der Fragestellung von welcher Ordnung der chirale Phasenübergang im Fall von genau zwei leichten Quarksorten ist. Problemstellungen wie die Suche nach einer Antwort auf die Frage nach den Bedingungen für die Existenz eines Phasenübergangs zweiter Ordnung, die Bestimmung der Universalitätsklasse in diesem Fall etc. erfordern Wissen aus verschiedenen Gebieten.
Kapitel 1 besteht aus einer allgemeinen Einleitung.
In Kapitel 2 stellen wir zunächst einige allgemeine Aspekte von Phasenübergängen dar, die von besonderer Relevanz für das Verständnis des Renormierungsgruppen-Zugangs zu ebendiesen sind. Unser Fokus liegt hierbei auf einer kritischen Untersuchung der Universalitätshypothese. Insbesondere die Rechtfertigung des linearen Sigma-Modells als effektive Theorie für den chiralen Ordnungsparameter beruht auf der Gültigkeit selbiger.
Kapitel 3 beschäftigt sich mit dem chiralen Phasenübergang von einem allgemeinen Standpunkt aus. Wir ergünzen wohlbekannte Fakten durch eine detaillierte Diskussion der sogenannten O(4)-Hypothese. Die Überprüfung der Gültigkeit selbiger wird schließlich in Kapitel 6 und 7 in Angriff genommen.
In Kapitel 4 stellen wir die von uns benutzte FRG-Methode vor. Außerdem diskutieren wir den Zusammenhang zwischen effektiven Theorien für QCD und der QCD selbst.
Kapitel 5 behandelt ein mathematisches Thema, das für alle unserer Untersuchungen unabdingbar ist, nämlich die systematische Konstruktion polynomialer Invarianten zu einer gegebenen Symmetrie. Wir präsentieren einen einfachen, jedoch neuartigen, Algorithmus für die praktische Konstruktion von Invarianten einer gegebenen polynomialen Ordnung.
Kapitel 6 widmet sich Renormierungsgruppen-Studien einer Reihe dimensional reduzierter Theorien. Von zentralem Interesse ist hierbei das lineare Sigma-Modell, insbesondere in Anwesenheit der axialen Anomalie. Es stellt sich heraus, dass die Fixpunkt-Struktur des letzteren vergleichsweise kompliziert ist und ein tieferes Verständnis der zugrundeliegenden Methode sowie ihrer Annahmen erfordert. Dies führt uns zu einer sorgfältigen Analyse der Fixpunkt-Struktur von Modellen verschiedenster Symmetrien. Im Zusammenhang mit der Untersuchung des Einflusses von Vektor- und Axial-Vektor-Mesonen stoßen wir hierbei auf eine neue Universalitä}tsklasse.
Während wenig Spielraum für die Wahl der Symmetriegruppe der effektiven Theorie für den chiralen Ordnungsparameter besteht, ist die Identifizierung der Ordnungsparameter-Komponenten mit den relevanten mesonischen Freiheitsgraden hochgradig nichttrivial. Diese Wahl entspricht der Wahl einer Darstellung der Gruppe und kann zur Zeit nicht eindeutig aus der QCD hergeleitet werden. Es ist daher unerlässlich, verschiedene Möglichkeiten auszutesten. Eine wohlbekannte Wahl besteht darin, das Pion und seinen chiralen Partner, das Sigma-Meson, der O(4)-Darstellung für SU(2)_A x SU(2)_V zuzuordnen, welche einen Phasenübergang zweiter Ordnung erlaubt. Dieses Szenario ist jedoch nur dann sinnvoll, wenn nahe der kritischen Temperatur alle anderen Mesonen entsprechend schwer sind. Im Fall von genau zwei leichten Quarkmassen erfordert dies eine hinreichend große Anomaliestärke. Berücksichtigt man zusätzlich zum Pion und Sigma-Meson auch das Eta-Meson und das a_0-Meson, liefern unsere derzeitigen expliziten Rechnungen keinen Nachweis für die Existenz eines Phasenübergang zweiter Ordnung. Stattdessen spricht die Abwesenheit eines physikalischen (hinsichtlich der Massen) infrarot-stabilen Fixpunktes für einen fluktuationsinduzierten Phasenübergang erster Ordnung. Dieses Ergebnis ist auch zu erwarten (jedoch nicht impliziert), allein durch die Existenz zweier quadratischer Invarianten. Es besteht jedoch immer noch eine hypothetische Chance auf einen Phasenübergang zweiter Ordnung in der SU(2)_A x U(2)_V -Universalitätsklasse. Dies wäre der Fall, wenn der entsprechende von uns gefundene unphysikalische infrarot-stabile Fixpunkt physikalisch werden sollte in höherer Trunkierungsordnung. Interessanterweise finden wir bei endlicher Temperatur für gewisse Parameter einen Phasenübergang zweiter Ordnung. Es ist unklar, ob diese Wahl der Parameter in den Gültigkeitsbereich der dimensional reduzierten Theorie fällt.
Erst vor kurzem (Ende September 2013) wurde die Existenz eines infrarot-stabilen U(2)_A x U(2)_V-symmetrischen Fixpunkts durch Pelissetto und Vicari verifiziert (die zugehörige anomale Dimension ist mit 0.12 angegeben). Dieses Resultat war sehr
überraschend, da für zwei leichte Quarksorten und abwesende Anomalie ein Phasenübergang erster Ordnung relativ gesichert erschien, insbesondere durch die Epsilon-Entwicklung. Offensichtlich versagt letztere jedoch im Limes D=3, also für drei räumliche Dimensionen, da lediglich Fixpunkte gefunden werden können, die auch nahe D=4 existieren. Inspiriert durch diesen wichtigen Fund führen wir eine FRG-Fixpunktstudie in lokaler Potential-Näherung und hoher Trunkierungsordnung (bis zu zehnter Ordnung in den Feldern) durch. Die Stabilitätsanalyse besitzt jedoch leider keine Aussagekraft, da die Stabilitätsmatrix für den Gaußschen Fixpunkt marginale Eigenwerte besitzt. Wir sind überzeugt davon, dass dies nicht mehr der Fall ist, wenn man über die lokale Potential-Näherung hinausgeht und eine nichtverschwindende anomale Dimension zulässt. Die bisherigen Resultate verdeutlichen die Limitierungen der lokalen Potential-Näherung und der Epsilon-Entwicklung, auf denen unsere Untersuchungen zur Universalitätshypothese in weiten Teilen beruhen. Systematische Untersuchungen der Fixpunktstruktur von Modellen mit acht Ordnungsparameter-Komponenten wurden in der Literatur im Rahmen der Epsilon-Entwicklung durchgeführt und im Rahmen dieser Dissertation innerhalb der lokalen Potential-Näherung. Die meisten der Vorhersagen der Epsilon-Entwicklung konnten bestätigt werden, einige hingegen werden in Frage gestellt durch das Auftauchen marginaler Stabilitätsmatrix-Eigenwerte.
Einige wichtige Fragestellungen können nicht im Rahmen einer dimensional reduzierten Theorie behandelt werden, da die explizite Temperaturabhängigkeit in diesem Fall eliminiert wurde.
Insbesondere ist es in diesem Fall nicht möglich, die Stärke eines Phasenübergangs erster Ordnung vorherzusagen, da diese von Observablen (Meson-Massen und die Pion-Zerfallskonstante im Vakuum) abhängen, an die man bei verschwindender Temperatur fitten muss. Dieser Umstand führt uns zu solchen FRG-Studien, in denen die Temperatur als expliziter Parameter verbleibt.
Ein beträchtlicher Teil der für die vorliegende Dissertation zur Verfügung stehenden Arbeitszeit wurde darauf verwendet, eigene Implementierungen geeigneter Algorithmen zur numerischen Lösung der auftretenden partiellen Differentialgleichungen zu finden. Exemplarische Routinen (welche ausschließlich wohlbekannte Methoden nutzen) sind in einem Anhang zur Verfügung gestellt. Das Hauptziel der vorliegenden Arbeit, die Anwendung auf effektive Modelle für QCD, wird in Kapitel 7 präsentiert. Unsere (vorläufigen) FRG-Studien des linearen Sigma-Modells mit axialer Anomalie bei nichtverschwindender Temperatur erlauben verschiedene Szenarien. Sowohl einen extrem schwach ausgeprägten, als auch einen sehr deutlichen Phasenübergang erster Ordnung, ganz abhängig von der Wahl der Ultraviolett-Abschneideskala und oben genannter Parameter. Sogar ein Phasenübergang zweiter Ordnung scheint möglich für gewisse Parameterwerte. Um verlässliche Schlussfolgerungen zu ziehen, sind weitere Untersuchungen nötig und bereits im Gange. In Kapitel 7 verifizieren wir außerdem bereits bekannte numerische Resultate für das Quark-Meson-Modell.
Funktionalisierung mikro- und nanostrukturierter Oberflächen zur spezifischen Proteinimmobilisierung
(2014)
Die vollständige Sequenzierung des humanen Genoms zu Beginn dieses Jahrtausends leitete einen Boom der Genomik ein, in deren Anfangszeiten man sich jedoch vor einer großen Herausforderung sah. Aufgrund der selbst bei einfachen Organismen großen Anzahl kodierender Gene und auch vor dem Hintergrund ständig wachsender Datenbanken mit immer neuen vollständig sequenzierten Arten, stellten sich genetische Analysen mit klassischen Methoden als zu zeit- und kostenaufwändig heraus. Die Entwicklung sog. DNA-Chips – feste Substrate, die mehre zehn- bis hunderttausend verschiedene Oligonukleotide tragen und die parallele Durchführung einer großen Anzahl von genetischen Analysen in sehr kurzer Zeit bei vergleichsweise geringen Kosten erlaubten – lösten dieses Problem. Analog hierzu werden Protein-Chips ähnlich gute Erfolgsaussichten in der Proteomik beschieden. Der Aufbau eines Protein-Chips ist dem eines DNA-Chips sehr ähnlich, allerdings sind die Anforderungen, die für eine funktionale Immobilisierung von Proteinen an eine Substratoberfläche gestellt werden, ungleich höher. Es muss gewährleistet sein, dass durch die Verankerung auf dem Substrat die native Struktur der Proteine nicht zerstört wird, dass die immobilisierten Proteine in einer Orientierung vorliegen, in der wichtige Merkmale, wie Bindungsmotive, aktive Zentren usw. weiterhin zugänglich sind und dass unspezifische Proteinadsorptionen auf ein Minimum reduziert werden. Ziel dieser Arbeit war es, ein Konzept für eine Protein-Chip-Plattform zu entwickeln, welches diese Voraussetzungen erfüllt.
Einleitend wird die Erarbeitung eines Assays zur Analyse einer Antikörper-Antigenwechselwirkung mittels Oberflächenplasmonresonanz-(SPR)-spektroskopie dargestellt. Da diese Technik ebenfalls eine native Immobilisierung von Proteinen auf einem festen Substrat erfordert, stellt sie eine Vorform der Protein-Chip-gestützten Analyse dar. Dem entsprechend werden an SPR-Oberflächen ähnliche Anforderungen gestellt wie an Protein-Chips. In der Etablierungsphase des SPR-Assays wurden zunächst grundlegende Parameter wie die Immobilisierungs- und Regenerationsbedingungen optimiert. Anschließend wurde überprüft, ob Antigen und Antikörper unter den gewählten Versuchsbedingungen noch miteinander interagieren konnten und die Wechselwirkung zwischen beiden Proteinen nicht beeinträchtig wurde. Hauptziel des SPR-Assays war die Überprüfung der Bindeaktivität verschiedener Chargen des Antikörpers im Vergleich zu einer Referenz-Charge unter Berücksichtigung eines möglichen Einflusses der Lagerzeit. Als Ergebnis konnte zwar eine geringe Abnahme der Bindungsaktivität beobachtet werden, welche eindeutig mit der Lagerzeit korrelierte, ein signifikanter Unterschied zwischen den zu vergleichenden Chargen war jedoch nicht erkennbar.
Der weitaus größere Teil der in dieser Dissertation beschriebenen Ergebnisse betrifft die Konzeption neuer Protein-Chip-Architekturen. In Zusammenarbeit mit der Arbeitsgruppe um Armin Gölzhäuser von der Universität Bielefeld wurde eine Protein-Chip-Plattform erarbeitet, für deren Herstellung Nitrobiphenyl-(NBPT)-Monolagen auf Gold mit Hilfe chemischer Lithographie im Mikro bzw. Nanomaßstab strukturiert wurden. Die Strukturen wurden anschließend mit multivalenten NTA-Verbindungen funktionalisiert, sodass Proteine mit His-Tag spezifisch darauf verankert werden konnten. Die wichtigsten Vorteile dieses Systems sind eine hohe Bindungsstabilität der immobilisierten Proteine, eine aufgrund der weiten Verbreitung des His-NTA-Systems leichte Verfügbarkeit His-getaggter Proteine sowie die Erhaltung ihres nativen Zustandes bei gleichzeitig uniformer Orientierung auf der Substratoberfläche. Nachdem zunächst die grundsätzliche Machbarkeit der Strukturierung und Funktionalisierung gezeigt wurde, folgte eine eingehende Charakterisierung der einzelnen Fertigungsschritte per Rasterkraftmikroskopie (AFM) und SPR-Spektroskopie, um diese anschließend weiter zu optimieren. So konnte die Proteinresistenz in den Bereichen zwischen den Mikro- bzw. Nanostrukturen, in denen keine Proteine binden sollten, deutlich verbessert werden. Zusätzlich wurde die Effizienz der Oberflächenfunktionalisierung gesteigert, sodass eine höhere Immobilisierungsdichte möglich war. Die Funktionalität des verbesserten Protein-Chips wurde mittels AFM und konfokaler Fluoreszenzmikroskopie (CLSM) überprüft. Es konnte eine hochspezifische und stabile, aber gleichzeitig reversible Bindung His-getaggter Proteine auf dem Protein-Chip gezeigt werden. Die bis dahin nass-chemisch durchgeführten Fertigungsschritte wurden in der Folge ins Hochvakuum übertragen, um die Herstellung dieser Protein-Chips mittels Gasphasenabscheidung zu ermöglichen. Als Ergebnis dieser Arbeiten konnten proteinresistente EG3-Monolagen allein durch Gasphasendeposition generiert werden. Bis auf die Funktionalisierung mit trisNTAs konnten im Rahmen dieser Arbeit sämtliche Fertigungsschritte in die Gasphase übertragen werden. Protein-Chips, die auf diese Art hergestellt worden waren, hatten in Hinsicht auf Bindungsspezifität und -stabilität ebenso gute Eigenschaften wie Protein-Chips aus der klassischen nass-chemischen Fertigung. Zusätzlich wurde parallel zu diesen Arbeiten ein neuer Ansatz zur Strukturierung und trisNTA-Funktionalisierung von EG3-SAMs erarbeitet.
Ein zweiter Protein-Chip-Prototyp sollte durch orthogonale Funktionalisierung von nano-strukturierten Glasoberflächen mit Polyenthylenglykol (PEG) und multivalenten Chelatoren hergestellt werden. CLSM-Untersuchten ergaben zunächst, dass dieser Ansatz der orthogonalen Funktionalisierung nicht gelang, da auf den Goldstrukturen nur wenig Protein zu binden schien, während in den vermeintlich proteinresistenten PEG-Bereichen eine vergleichsweise große Menge His-getaggter Proteine adsorbierte. Nach einer Reihe von Versuchen stand fest, dass sich die Verfahren zur Funktionalisierung mit PEG und bisNTA-Thiolen gegenseitig störten. Die PEGylierung verhinderte die anschließende Ausbildung einer dicht-gepackten bisNTA-SAM, was zwar durch vorheriges Aufbringen einer Schutz-SAM aus Undecylthiolen gemildert, aber nicht vollständig verhindert werden konnte. Die anschließende Funktionalisierung der Nanostrukturen mit bisNTA-Thiolen führte wiederum zur Dotierung der PEG-Schicht mit bisNTA-Thiolen, sodass diese Schicht ihre Proteinresistenz verlor. Da dieser ungewollte Prozess seine Ursache in der zweistufigen PEGylierungsreaktion hatte und dieser auch durch verschiedenste Block-Verfahren nicht vollständig verhindert werden konnte, wurde ein alternatives, einstufiges PEGylierungsverfahren getestet. Dieses hatte eine deutliche Verbesserung der Oberflächeneigenschaften zur Folge. Einerseits zeigten die Glasbereiche nun eine sehr gute Proteinresistenz, zum Anderen hatte das neue PEGylierungsverfahren keine negativen Auswirkungen auf die Ausbildung von bisNTA-SAMs. Mittels CLSM konnte auf Mikrostrukturen eine hochspezifische Proteinbindung beobachtet werden, während die PEGylierten Glasbereiche frei von Proteinen blieben. Interessanterweise konnte auf entsprechend funktionalisierten Nanostrukturen jedoch keine Proteinbindung nachgewiesen werden. Hierfür sind mehrere Ursachen denkbar, zu deren Klärung es weiterer Untersuchungen bedarf.
Acceleration of Biomedical Image Processing and Reconstruction with FPGAs
Increasing chip sizes and better programming tools have made it possible to increase the boundaries of application acceleration with reconfigurable computer chips. In this thesis the potential of acceleration with Field Programmable Gate Arrays (FPGAs) is examined for applications that perform biomedical image processing and reconstruction. The dataflow paradigm was used to port the analysis of image data for localization microscopy and for 3D electron tomography from an imperative description towards the FPGA for the first time.
After the primitives of image processing on FPGAs are presented, a general workflow is given for analyzing imperative source code and converting it to a hardware pipeline where every node processes image data in parallel. The theoretical foundation is then used to accelerate both example applications. For localization microscopy, an acceleration of 185 compared to an Intel i5 450 CPU was achieved, and electron tomography could be sped up by a factor of 5 over an Nvidia Tesla C1060 graphics card while maintaining full accuracy in both cases.
In mitochondria, biogenesis of oxidase is a crucial process involving the participation of an array of assembly factors. Studying the process of biogenesis in eukaryotes is highly complicated due to the presence and partaking of two genetic systems. Employing a bacterial model such as Paracoccus denitrificans that utilizes only one genetic system enables easy studying of the assembly process. The aa3 cytochrome c oxidase of P. denitrificans shows high structural and functional homology to its mitochondrial counterpart despite its simple subunit composition. The assembly of the core subunits I and II that house the active redox centers (heme a, and heme a3.CuB centre in subunit I; and the binuclear CuA centre in subunit II) along with the chaperons responsibly for their incorporation form the crux of this work. This work concentrates particularly on CtaG, a chaperone previously speculated to be involved in the delivery of copper to the CuB center in subunit I. As the full length structure of CtaG or its structural homologues have not been solved, attempts were made to obtain high-diffracting crystals of CtaG by heterologously expressing it in E. coli. Growth media, expression strains and induction parameters were some of the conditions screened in order to obtain optimal yield. Additives, pH and detergent were screened to yield a homogeneous preparation of CtaG. Crystallization trials were conducted by employing the sitting drop, vapour diffusion, method and later the bicelles were employed. Preliminary crystals obtained were further optimized employing seeding, detergent and additives, to improve diffraction. The diffraction improved from 30 Å to 15 Å. BN PAGE (Blue Native Polyacrylamide Gel Electrophoresis) analysis and cross-linking studies were undertaken to decipher the oligomeric condition of CtaG. Both the methods indicate that the protein is a dimer under native conditions. To study the importance of CtaG in the process of oxidase assembly, two deletion mutants were obtained from the lab; one with only ctaG deleted and the other with ctaG and most of the upstream ORF. The effect of the deletion was assayed on the assembly and activity of oxidase. The deletion mutants showed residual activity of approx. 20 %, while displaying a very low heme signal (both in membranes and in purified COX). In order to exclude polar effects arising due to gene manipulation, complementation strains were prepared, reintroducing ctaG alone into both the deletion strains. Complementation strains, where only ctaG was deleted and re-introduced assayed for COX activity showed a restoration in activity to approx. 70 %. Further, calculating the heme:protein ratio, the deletion strains displayed a value of 7 nmol/mg of oxidase which was increased to wild type levels of 16 nmol/mg in the complementation strains. To further confirm the absence of the copper in subunit I, total reflection X-ray fluorescence spectroscopy analysis was carried out, which showed a decrease in the copper content in the deletion strain, restored on complementation. The strain lacking in the ORF and ctaG when complemented with ctaG alone illustrated no increase in activity or heme signal in comparison to that of the deletion strain. These point at a possible role for ORF in the assembly of COX, which is still absent in the complementation strains. To further characterize the ORF, a series of bioinformatical analysis was carried out, the results from which were insufficient to characterize the ORF conclusively. In order to enlist the proteins involved in the biosynthesis of COX, two independent approaches were employed. Two-dimensional gel examinations of solubilised membranes from untreated and cross-linked cells were analyzed by Western blotting. The CtaG-COX interaction was observed in untreated membranes, which was additionally strengthened by cross-linking. To further confirm this association, pull-down assays were done employing protein A coated magnetic beads coated with different antibodies and incubated with solubilised membranes derived from untreated or cross-linked cells. The elutions were assayed by Western blotting and confirmed for the CtaG-COX interaction. These fractions were further analysed by mass spectrometry to identify other chaperons involved in biogenesis of oxidase. Along with CtaG, I also noticed Sco, Surf1c and other factors involved in the recruitment and transport of heme (CtaB, CtaA, and Ccm proteins). Interestingly, protein components of both ribosomal subunits and protein translocation factors were observed, which indicated a co-translational approach for co-factor insertion into COX.
Im World Wide Web werden diverse Dinge kostenlos angeboten. So auch die so genannte Open-Source-Software. Dass viele Akteure freie und kostenlos zugängliche Software entwickeln, ohne in geregelter Weise dafür entlohnt zu werden, wirft die Frage nach der grundsätzlichen Vereinbarkeit dieses Phänomens mit dem herrschenden kapitalistischen Wirtschaftssystem auf. Ökonomisches Verhalten scheint außer Kraft gesetzt. Statt von „Ökonomie“ könnte man in diesem Fall von „Geschenkökonomie“ bzw. „Gift Economy“ reden. Es stellt sich die Frage, welche Rolle Gaben/Geschenke im Rahmen des Open-Source-Phänomens spielen und inwiefern dieses Phänomen durch die vorhandenen Theorien zur Gift Economy erklärt werden kann. Um die Forschungsfragen zufrieden stellend zu beantworten, bedarf es einerseits einer Präzisierung auf theoretischer Ebene, die neben den bestehenden Theorien zur Gift Economy das Phänomen Open-Source im Besonderen berücksichtigt. Darüber hinaus soll das Phänomen Open Source in Form einer qualitativen empirischen Studie, welche die je spezifischen Motive des ,Zusammenhandelns’ der Open-Source-Programmierer zum Gegenstand hat, daraufhin untersucht werden, welche Rolle Gabe/Geschenke in Bezug auf dieses spielen. Ziel ist es hierbei, eine Typologie des Open-Source-Programmierers zu entwickeln. Anhand dieser Typologie soll deutlich werden, welche unterschiedlichen thematischen Kontexte für das Phänomen Open-Source rele¬vant sind. Auf Basis der Forschungsergebnisse ist es dann zudem möglich, in einer Schlussfolgerung die Theorie der Gift Economy auf der sicheren Basis em¬pirischer Daten gegebenenfalls weitergehend zu differenzieren.
The elements in the universe are mainly produced by charged-particle fusion reactions and neutron-capture reactions. About 35 proton-rich isotopes, the p-nuclei, cannot be produced via neutron-induced reactions. To date, nucleosynthesis simulations of possible production sites fail to reproduce the p-nuclei abundances observed in the solar system. In particular, the origin of the light p-nuclei 92Mo, 94Mo, 96Ru and 98Ru is little understood. The nucleosynthesis simulations rely on assumptions about the seed abundance distributions, the nuclear reaction network and the astrophysical environment. This work addressed the nuclear data input.
The key reaction 94Mo(g,n) for the production ratio of the p-nuclei 92Mo and 94Mo was investigated via Coulomb dissociation at the LAND/R3B setup at GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt, Germany. A beam of 94Mo with an energy of 500 AMeV was directed onto a lead target. The neutron-dissociation reactions following the Coulomb excitation by virtual photons of the electromagnetic field of the target nucleus were investigated. All particles in the incoming and outgoing channels of the reaction were identified and their kinematics were determined in a complex analysis. The systematic uncertainties were analyzed by calculating the cross sections for all possible combinations of the data selection criteria. The integral Coulomb dissociation cross section of the reaction 94Mo(g,n) was determined to be (571 +- 14 (stat) +- 46 (syst) ) mb. The result was compared to the data obtained in a real photon experiment carried out at the Saclay linear accelerator. The ratio of the integral cross sections was found to be 0.63 +- 0.07, which is lower than the expected value of about 0.8.
The nucleosynthesis of the light p-nuclei 92Mo, 94Mo, 96Ru and 98Ru was investigated in post-processing nucleosynthesis simulations within the NuGrid research platform. The impact of rate uncertainties of the most important production and destruction reactions was studied for a Supernova type II model. It could be shown that the light p-nuclei are mainly produced via neutron-dissociation reactions on heavier nuclei in the isotopic chains, and that the final abundances of these p-nuclei are determined by their main destruction reactions. The nucleosynthesis of 92Mo and 94Mo was also studied in different environments of a Supernova type Ia model. It was concluded that the maximum temperature and the duration of the high temperature phase determine the final abundances of 92Mo and 94Mo.
Dresden wird in der Kunstgeschichte vor allem mit zwei Aspekten assoziiert. Zum einen mit der Stilepoche des Barock unter der Regentschaft August des Starken zu Beginn des 18. Jahrhunderts und zum anderen mit dem Expressionismus zu Beginn des 20. Jahrhunderts, der hier seinen Ausgangspunkt durch die Künstlervereinigung „Brücke“ fand. Doch eine Strömung, die viele Künstler in ihren Bann zog, bevor sie sich den aufkommenden Tendenzen der Avantgarde zuwandten wird heute kaum mehr mit Dresden in Verbindung gebracht: der Japonismus.
Ausgangspunkt der hier vorliegenden Dissertationsschrift geht der Frage der Bedeutung der japanischen Kunst und des Japonismus in Dresden am Ende des 19. Jahrhunderts nach. Aus der Fülle von historischen und künstlerischen Belegen, welche sich trotz der einschneidenden Ereignisse in der Dresdner Geschichte noch feststellen lassen, kann das Ergebnis abgeleitet werden, dass der Japonismus in Dresden am Ende des 19. Jahrhunderts eine so bedeutende und systematische Rolle im Kunstschaffen spielte, dass man Dresden als ein Zentrum des Japonismus in Deutschland bezeichnen kann. Die Auseinandersetzung mit japanischen und japonistischen Einflüssen sowie deren Rezeption und Verarbeitung war dabei auch instrumental für die Ebnung neuer Wege in der Dresdner Kunst- und Kulturlandschaft. Der Japonismus des späten 19. Jahrhunderts wurzelte, neben den neuen Einflüssen, welche ab Mitte des Jahrhunderts auf Europa wirkten, auch in der barocken Chinamode des 17. und 18. Jahrhunderts. Es ist ein weiteres Spezifikum des Japonismus in Dresden, dass diese Wurzel, deren Einfluss in dieser Arbeit auch aufgezeigt werden konnte, hier dank der Sammlungs- und Bautätigkeit unter dem sächsischen Kurfürsten August des Starken besonders stark ausgeprägt ist.
High resolution gamma spectroscopy with sophisticated detector arrays significantly contributes to nuclear structure physics. The Advanced Gamma Tracking Array (AGATA) combines gamma tracking and pulse shape analysis to achieve an efficiency and quality of the spectra that could not be reached with spectrometers of the previous generation. Tracking of the photons interacting in the detector requires a precise knowledge of the individual interaction positions. The task of the pulse shape analysis is to provide a position resolution of better than $5mm$ FWHM, a value that could not be achieved by segmentation of the detector alone. As the signals induced on the electrodes of the detectors depends on the position of interaction, the charge pulses can be used to infer the interaction position. To be able to handle high rates, algorithms that are used have to be optimized to be able to process the data in real-time. Pulse shape analysis is the most involved part of the real-time processing and requires further improvement. This work is dealing with optimizations and improvements of pulse shape analysis algorithms. The Grid Search algorithm localizes the interaction position by comparing the measured pulse shape with precomputed shapes in a database to find the best fit. Two linear filters based on orthogonal transformations have been compared and it could be concluded that the one based on a singular value decomposition of the pulse shapes works best. It speeds up the pulse shape analysis by a factor of roughly $2-3$ (depending on how it is combined with the other modifications). Further, a new method to exclude most signals from the database as best fit has been developed based on the principle of lateration. Most interaction positions can be excluded by means of a fast check and for single interactions on average only $34.8\%$ of all signals from the database have to be compared to the measured one. The overhead introduced by the method is negligible and the reduced number of comparisons almost direclty translates into increased efficiency of the algorithm. A similar method could also be applied for double interactions. Two or more interactions taking place in the same segment require special treatment as the measured signals cannot be directly compared to signals from the database. A new method to calculate the figure of merit that quantifies the fit in case of a double interaction has been introduced. Compared to the unmodified algorithm the new method finds the best fit for double interactions roughly two orders of magnitude faster. Actually, the time required to localize double interactions is almost the same as for single interactions. Apart from optimizing the algorithm, also the achievable position resolution was investigated. It strongly varies inside the volume of the detector and it crucially depends on the shape of all signals in the database and the amplitude of the noise present in the measured signals. As a first step towards a precise analytic expression for the position resolution, an estimate for the probability to find the correct position has been derived.
Diese Arbeit beschäftigt sich mit der Synthese und Charakterisierung von Inhibitoren der 5-Lipoxygenase (5-LO) und der mikrosomalen Prostaglandin E2 Synthase-1 (mPGES-1) als neue potentielle antientzündliche Wirkstoffe. Beide Enzyme befinden sich innerhalb der Arachidonsäurekaskade und sind einerseits an der Prostaglandin E2 (PGE2) Biosynthese und andererseits an der Biosynthese der Leukotriene (LTs) beteiligt (siehe Abb. 1). Die mPGES-1 ist ein membranständiges
Enzym, das downstream lokalisiert ist, hauptsächlich unterhalb der induzierbaren COX-2, und katalysiert die Reaktion von PGH2 zu PGE2. PGE2 gilt innerhalb der Prostaglandine als prominentester Vertreter bezüglich Entzündungen, Schmerzen und Fieber. Die Leukotriene gehören ebenso wie die Prostaglandine zu den proinflammatorisch wirkenden Lipid-Mediatoren und sind unter anderem beteiligt an der Bronchokonstriktion oder erhöhen auch die vaskuläre Permeabilität. Während dieser Arbeit wurden die Struktur-Wirkungsbeziehungen zweier verschiedener Substanzklassen untersucht. Leitstruktur I entstammt einem Pirinixinsäure-Derivat (siehe Abb. 2). Die Pirinixinsäure (Verbindung 1) selbst ist sowohl an der mPGES-1 als auch an der 5-LO inaktiv. Initiale Arbeiten haben gezeigt, dass eine Einführung eines n-Hexyl Restes in α-Position zu der Carbonsäure zu einer dualen Inhibition der 5-LO und mPGES-1 geführt hat (Verb. 2). Unter Beibehaltung dieses Restes sollte der lipophile Rückraum durch Austausch des 2,3-Xylidin-Gerüsts optimiert werden und hier hat sich insbesondere das 4-(4-Chlorphenyl)-1,3-thiazol-2-amin Gerüst als potent erwiesen (Verb. 3). Mit dieser Erkenntnis sollten verschiedene 2-Aminothiazolhaltige Pirinixinsäurederivate synthetisiert werden, und ihre Struktur-Wirkungsbeziehung als
duale 5-LO/ mPGES-1 Inhibitoren untersucht werden. Leitstruktur II entstammt einem virtuellen Screening Ansatz, in dem neue acidische mPGES-1 Inhibitoren identifiziert werden sollten. Das Benzensulfonamid Derivat FR4 (Verb. 4) stellt dabei eine neuartige Leitstruktur für mPGES-1 Inhibitoren dar, die nicht nur in der Lage sind die humane mPGES-1 zu hemmen, sondern ebenso die murine mPGES-1. Viele in der Literatur beschriebene mPGES-1 Inhibitoren sind zwar in der Lage, die humane mPGES-1 sehr potent zu inhibieren, haben allerdings keinen Effekt gezeigt in ersten präklinischen Versuchen, weil der Spezies Unterschied zwischen der murinen und humanen mPGES-1 zu groß ist. Dementsprechend liefern die Benzensulfonamide einen interessanten Ansatzpunkt für die Entwicklung neuartiger mPGES-1 Inhibitoren, um die Hürde der präklinischen Entwicklung zu überwinden.
Die vorliegende Arbeit widmet sich der Frage, welches Glück im Film zur Darstellung kommt. Denn Glück ist kontingent – so, wie wir es erleben, kann es, muss es aber nicht sein. Gegenstand ist nicht ein potentielles Glückserleben der Zuschauer_innen im Zuge der Rezeption eines Filmes, sondern der Wissenskomplex zu Glück, den Filme aktivieren und prägen.
Wenn gilt, dass Glück nicht nur ein legitimer Anspruch des Individuums ist, sondern auch ein in den Massenmedien erzeugtes Konstrukt, dann ist genau dieses Wissen zu Glücksvorstellungen, das nicht zuletzt durch Filme und das, was sie über das Glück erzählen, Verbreitung findet, zu untersuchen. Zu fragen ist demgemäß, welche Vorstellungen von Glück gezeigt, infrage gestellt, abgelehnt, perpetuiert oder sanktioniert werden. In der Analyse wird so ein Glückskonzept fassbar, das mehr offenlegt als nur das Gefühl des Glücklichseins.
Die fünf hier ausgewählten Spielfilme – DIE FETTEN JAHRE SIND VORBEI, SILBERHOCHZEIT, KEINOHRHASEN, KIRSCHBLÜTEN – HANAMI, VINCENT WILL MEER – werden einer qualitativen Analyse unterzogen, sodass sich ihre jeweiligen Glückskonzepte als belastbare Ergebnisse abstrahieren lassen. Ziel ist eine exemplarische Sammlung populärer Glückskonzepte, die in ihren Ausprägungen als für unsere heutige Gesellschaft charakteristisch gelten können.
Die vorliegende Arbeit verfolgt in der Analyse zwei Perspektiven: Erstens zeigt sie, welches Glück in den untersuchten Filmen zur Darstellung kommt, und zweitens skizziert sie, dass das Wissen zu Glück, das in den Filmen vorausgesetzt, vermittelt und herausgefordert wird, in Zusammenhang mit hegemonialen Diskursen der westlichen Moderne steht.
In Reaktion auf zellulären Stress wie etwa Schädigungen der DNA oder die vermehrte Aktivität von Onkogenen aktivieren vorgeschaltete Signalkaskaden den Transkriptionsfaktor (TF) p53. Dieser kann über die Aktivierung der Expression von Zielgenen wiederum die Zellteilung stoppen, die Reparatur von DNA Schäden initiieren oder in schweren Fällen die Eliminierung der Zelle durch Apoptose einleiten. Ist p53 durch Mutationen deaktiviert, können sich entartete somatische Zellen vermehren und in der Folge Krebs entstehen.
In Wirbeltieren finden sich neben p53 mit p63 und p73 zwei weitere TFs, welche während der Evolution aus dem gleichen gemeinsamen Vorläufer durch Genduplikationen hervorgegangen sind. Die drei TFs sind modular aufgebaut und alle Isoformen verfügen jeweils minimal über eine DNA Bindungsdomäne (DBD) und eine Tetramerisierungsdomäne (TD). Werden die p53 ähnlichen TFs aktiviert, lagern sie sich über die TD vermittelt zu Tetrameren zusammen, wodurch ihre DBDs kooperativ an DNA Sequenzmotive binden können. Die DBD ist auch über große phylogenetische Abstände hinweg hoch konserviert, wodurch bereits gezeigt werden konnte, dass auch primitive vielzellige Tiere bereits Homologe dieser TF Familie besitzen. Im Vergleich zur DBD variiert die Proteinsequenz der TD deutlich stärker, was andeutet, dass deren Struktur im Laufe der Evolution erhebliche Veränderungen durchlaufen hat. Diese Veränderungen aufzuklären ist das übergeordnete Forschungsvorhaben zu dem diese Dissertationsschrift beiträgt.
Ciona intestinalis (C.int.) ist eine Spezies aus dem Unterstamm der Manteltiere. Diese sind die engsten lebenden Verwandten der Wirbeltiere und C.int. ist ein populärer Modelorganismus für die Erforschung der Embryonalentwicklung. Sein Genom kodiert für zwei p53 ähnliche TFs, welche mit p53/p73-a und p53/p73-b bezeichnet werden. Die Struktur ihrer TDs wurde im Rahmen der vorliegenden Arbeit mittels Kernspinresonanz (NMR) Spektroskopie untersucht.
Die TD von menschlichem p53 (hp53) ist ein Dimer aus Dimeren. Jedes Monomer formt einen beta-Strang und eine alpha-Helix. Im primären Dimer lagern diese sich so zusammen, dass ein beta-Faltblatt entsteht und die alpha-Helices mit entgegen gesetzter Orientierung der Länge nach aneinander packen. Zwei dieser Dimer lagern sich dann so zum Tetramer zusammen, dass zwischen pol-ständigen beta-Faltblättern ein Bündel aus vier Helices entsteht. Dieses Motiv ist auch in den TDs der Ciona Proteine hochkonserviert und wird im Folgenden als Kern?TD bezeichnet. In den TDs von menschlichem p63 und p73 (hp63 und hp73) verfügt jedes Monomer an seinem C-terminus noch über eine zweite Helix. Die zweiten Helices eines jeden Dimers greifen wie Klammern um das jeweils andere primäre Dimer und stabilisieren so das Tetramer. Entscheidend für die stabile Anbindung an die Kern?TD ist dabei ein charakteristisches Tyrosin-Arginin (YR) Motiv in der zweiten Helix, welches sich auch in der Sequenz der TD von C.int. p53/p73-a wiederfindet. Analysen der Sekundärstruktur auf Basis von NMR Experimenten ergaben jedoch, dass die TD von C.int. p53/p73-a bei 25°C keine zweite Helix ausbildet. Mit Hilfe von chimären TD Peptiden, in denen Teile der Ciona Sequenz gegen die entsprechenden Abschnitte von hp73 ausgetauscht wurden, konnte gezeigt werden, dass die Kern TD von C.int. p53/p73-a fähig ist eine zweite Helix zu stabilisieren und hierfür neben dem YR Motiv auch der Sequenzabschnitt zwischen erster und zweiter Helix entscheidend ist. Stabilisierende Substitutionen in diesem Bereich bewirkten ebenso wie ein Absenken der Temperatur die Ausbildung einer zweiten Helix, welche jedoch im Gegensatz zu jener in hp73 nur transient faltet und auch nicht essentiell für die Bildung des Tetramers ist, wohl aber dessen Stabilität erhöht.
Spezifisch in der Entwicklungslinie von Ciona kam es dazu, dass eine, für eine entsprechende Vorläuferversion von C.int. p53/p73-a kodierende, mRNA spontan zurück in DNA übersetzt und ins Genom eingefügt wurde. Die durch diese Retrotransposition erzeugte neue Genkopie C.int. p53/p73-b muss demnach ursprünglich einmal für die gleiche Proteinsequenz kodiert haben, innerhalb der TD finden sich konservierte Reste jedoch nur im Bereich der Kern TD.
Von der TD von C.int. p53/p73-b wurde die molekulare Struktur in freier Lösung mittels NMR ermittelt. Diese zeigte, dass interessanterweise in der TD von C.int. p53/p73-b jedes Monomer am C-terminus eine stabil gefaltete, zweite Helix besitzt. Obwohl diese zweite Helix sich aus einer Sequenz faltet, die keinerlei Sequenzhomologie zu homologen Proteinen aus Wirbeltieren aufweist, lagert sie sich in einer Position auf die Kern TD, welche der in hp73 sehr nahe kommt. Da die primären Dimere der Kern TD aber anders als in hp63 und hp73 durch Salzbrücken miteinander verbunden sind, ist die zweite Helix jedoch nicht essentiell, um das Tetramer zu stabilisieren. Vermutlich kommt der zweiten Helix von C.int. p53/p73-b vielmehr u.a. die Aufgabe zu die Bildung von Heterotetrameren aus C.int. p53/p73-a und –b zu unterbinden.
Zusammengenommen zeigen die Ergebnisse, dass die Architektur der TD mit zweiter Helix bereits der Prototyp für die TDs aller p53 ähnlichen Proteine der Wirbel- und Manteltiere war und die als eine Art Klammer das Tetramer stabilisierende zweite Helix sich nicht erst während der Evolution der Wirbeltiere entwickelt hat.
Trotz vielfältiger Gleichberechtigungsbestrebungen und -erfolge in den letzten Jahrzehnten sind Frauen – in Deutschland und den meisten anderen westlichen Ländern – in den oberen Führungspositionen weniger stark vertreten als Männer (Catalyst, 2012, 2013, 2014; European Commission, 2013; Eurostat, 2013). Dieser Umstand hat in Politik, Gesellschaft und Wissenschaft Diskussionen einerseits über mögliche Ursachen und andererseits über mögliche Ansatzpunkte für Interventionen zur Stärkung der Gleichberechtigung (bspw. Einführung einer Frauenquote oder frauenspezifische Förderprogramme) angeregt. Betrachtet man die wissenschaftlichen Theorien und Studien zeigt sich, dass es verschiedene Ursachen für die Unterrepräsentanz von Frauen in Führungspositionen gibt (vgl. Hernandez Bark, Escartin, & van Dick, 2014). Anders als in der Metapher der gläsernen Decke, die davon ausgeht, dass es eine undurchlässige Decke gibt, die Frauen den Zugang zu oberen Führungspositionen verwehrt (Morrison, White, & van Velsor, 1992), stellt sich der Weg von Frauen in die oberen Führungspositionen eher als ein Labyrinth dar (vgl. Eagly & Carli, 2007). Auf dem Weg in die oberen Führungspositionen sind Frauen mit verschiedenen Hindernissen und Problemen konfrontiert, welche es für sie zu überwinden gilt (Eagly & Carli, 2007). Eine Möglichkeit, diese verschiedenen Aspekte in dem Labyrinth zu den Führungspositionen zu strukturieren, bietet die Formel von Campbell und Kollegen (Campbell, McCloy, Oppler, & Sager, 1993): Performance=KSA*Motivation*Opportunities. Hierbei steht KSA für Knowledge, Skills und Abilities, also für das Wissen, die Fähigkeiten und Fertigkeiten, ergo dem Können. Motivation steht für die Motivation, ergo dem Wollen. Und Opportunities steht für die Möglichkeiten, ergo dem Dürfen. Somit ergeben sich folgende Fragen: Können Frauen führen? Wollen Frauen führen? Und dürfen Frauen führen? In meiner Dissertation fasse ich im Rahmen eines Reviewartikels zunächst den Forschungsstand hinsichtlich dieser drei Aspekte zusammen (Hernandez Bark et al., 2014). Hierbei liegt der Fokus auf einem Vergleich zwischen Spanien und anderen westlichen Ländern wie beispielsweise der USA oder Deutschland. Anschließend fokussiere ich in dem ersten empirischen Artikel spezifischer den Aspekt des Wollens (Schuh, Hernandez Bark, Van Quaquebeke, Hossiep, Frieg, & van Dick, 2014), welcher durch das Konstrukt der Machtmotivation (McClelland, 1985) operationalisiert wurde. Hierbei untersuche ich Geschlechtsunterschiede in Machtmotivation und ihren Zusammenhang zu Führungsverantwortung. Der zweite Artikel fokussiert das Zusammenspiel des Geschlecht, des Wollens und Könnens für den Besitz von Führungsverantwortung (Hernandez Bark, Escartin & van Dick, under review). Hierbei wurde Wollen erneut durch das Konstrukt der Machtmotivation (McClelland, 1985) und das Können durch das Konstrukt der transformationalen Führung (Bass, 1985) operationalisiert. Insgesamt zeigte sich ein klares Muster: Frauen können effektiv führen und die Repräsentation von Frauen in Vorstand oder Topmanagement steht meist sowohl in einem positiven Zusammenhang mit der organisationalen Leistung als auch mit einer nachhaltigeren Unternehmenspolitik. Dieser Befund ist unabhängig vom Durchführungsland (vgl. Hernandez Bark et al., 2014). Somit lässt sich die Frage „Können Frauen führen?“ eindeutig mit ja beantworten. Eine zentrale Rolle bei der Beantwortung der Fragen „Wollen Frauen führen?“ und „Dürfen Frauen führen?“ bildet die Inkongruenz zwischen der weiblichen Geschlechtsrolle und der Führungsrolle. Während die weibliche Geschlechtsrolle Eigenschaften wie freundlich, unterstützend und warm (kommunale Eigenschaften) umfasst, beinhaltet die Führungsrolle Eigenschaften wie dynamisch, durchsetzungsstark und kompetitiv (agentische Eigenschaften), welche kongruent zu der männlichen Geschlechtsrolle sind. Dies führt zu unterschiedlichen Möglichkeiten (Dürfen) für Frauen und Männer, Führungsverantwortung zu erlangen (vgl. Hernandez Bark et al., 2014). Und auch der Aspekt des Wollens wird dadurch beeinflusst. Das Wollen, ergo auch die Machtmotivation, ist ein wichtiger Einflussfaktor für das Erlangen von Führungsverantwortung (Hernandez Bark et al., under review; Schuh et al., 2014). Jedoch ist das Streben nach Macht (Machtmotivation, agentisch) inkongruent zu der weiblichen Geschlechtsrolle, was sich in einer niedrigeren Machtmotivation von Frauen widerspiegelt und zu einer Unterrepräsentanz von Frauen in Führungsverantwortung beiträgt (Hernandez Bark et al., under review; Schuh et al., 2014). Auch transformationale Führung ist positiv mit Führungsverantwortung verknüpft, jedoch ist sie kongruent zu der weiblichen Geschlechtsrolle und Frauen zeigen dieses Führungsverhalten stärker als Männer, was sich positiv auf die Repräsentanz von Frauen in Führungsverantwortung auswirken sollte (Eagly, Johannesen-Schmidt & van Engen, 2003; Hernandez Bark et al., under review). Jedoch ist Machtmotivation auch ein Prädiktor transformationaler Führung und der Zusammenhang zwischen Geschlecht und Führungsverantwortung wird seriell durch Machtmotivation und transformationale Führung mediiert, was zu der stärkeren Repräsentanz von Männern in Führungsverantwortung beiträgt (Hernandez Bark et al., under review). Dieser Vorteil wird noch dadurch verstärkt, dass der Zusammenhang zwischen Machtmotivation und transformationaler Führung für Männer stärker ist als für Frauen (Hernandez Bark et al., under review). Die Implikationen dieser Befunde für weitere Forschung und Stärkung von Gleichberechtigung von Frauen und Männern in Führungsverantwortung werden am Ende dieser Arbeit diskutiert.
Seit einigen Jahren werden Publikationen über die Finanzierung des Ersten Weltkriegs veröffentlicht. Die Banken in Deutschland waren für die Geldschöpfung des Staates unerlässlich, da diese den Vertrieb von Kriegsanleihen an deren Kunden sicherstellten. In dieser Arbeit wird anhand von ausgewählten Genossenschaftsbanken und Sparkassen veranschaulicht, wie sich die Unternehmen auf die kriegswirtschaftliche Situation einstellten. Hierbei gab es regionale Unterschiede, denn eine ansteigende Kriegskonjunktur machte sich vorzugsweise in Gebieten mit hoher Industriedichte bemerkbar. Viele Menschen investierten Geld in Kriegsanleihen, welches nach der Niederlage 1918 verloren war. Die Banken besaßen ebenfalls große Kontingente an Anleihen, die nach dem Krieg die Bilanzen belasten sollten. In dieser Arbeit wird dargestellt, welche Möglichkeiten Genossenschaftsbanken und Sparkassen nach dem Krieg besaßen, diese Anleihen aus den Bilanzen zu tilgen.
The cones of nonnegative polynomials and sums of squares arise as central objects in convex algebraic geometry and have their origin in the seminal work of Hilbert ([Hil88]). Depending on the number of variables n and the degree d of the polynomials, Hilbert famously characterizes all cases of equality between the cone of nonnegative polynomials and the cone of sums of squares. This equality precisely holds for bivariate forms, quadratic forms and ternary quartics ([Hil88]). Since then, a lot of work has been done in understanding the difference between these two cones, which has major consequences for many practical applications such as for polynomial optimization problems. Roughly speaking, minimizing polynomial functions (constrained as well as unconstrained) can be done efficiently whenever certain nonnegative polynomials can be written as sums of squares (see Section 2.3 for the precise relationship). The underlying reason is the fundamental difference that checking nonnegativity of polynomials is an NP-hard problem whenever the degree is greater or equal than four ([BCSS98]), whereas checking whether a polynomial can be written as a sum of squares is a semidefinite feasibility problem (see Section 2.2). Although the complexity status of the semidefinite feasibility problem is still an open problem, it is polynomial for fixed number of variables. Hence, understanding the difference between nonnegative polynomials and sums of squares is highly desirable both from a theoretical and a practical viewpoint.
The number of multilingual texts in the World Wide Web (WWW) is increasing dramatically and a multilingual economic zone like the European Union (EU) requires the availability of multilingual Natural Language Processing (NLP) tools. Due to a rapid development of NLP tools, many lexical, syntactic, semantic and other linguistic features have been used in different NLP applications. However, there are some situations where these features can not be used due the application type or unavailability of NLP resources for some of the languages. That is why an application that is intended to handle multilingual texts must have features that are not dependent on a particular language and specific linguistic tools. In this thesis, we will focus on two such applications: text readability and source and translation classification.
In this thesis, we provide 18 features that are not only suitable for both applications, but are also language and linguistic tools independent. In order to build a readability classifier, we use texts from three different languages: English, German and Bangla. Our proposed features achieve a classification accuracy that is comparable with a classifier using 40 linguistic features. The readability classifier achieves a classification F-score of 74.21% on the English Wikipedia corpus, an F-score of 75.47% on the English textbook corpus, an F-score of 86.46% on the Bangla textbook corpus and an F-score of 86.26% on the German GEO/GEOLino corpus.
We used more than two million sentence pairs from 21 European languages in order to build the source and translation classifier. The classifier using the same eighteen features achieves a classification accuracy of 86.63%. We also used the same features to build a classifier that classifies translated texts based on their origin. The classifier achieves classification accuracy of 75% for texts from 10 European languages. In this thesis, we also provide four different corpora, three for text readability analysis and one for corpus based translation studies.
Organische Verbindungen sind für den Einsatz in der Elektronik und Optoelektronik von großem Interesse, da ihre Eigenschaften durch Derivatisierung gezielt verändert werden können. Eine vielversprechende Strategie ist hierbei der Einbau von Hauptgruppenelementen (z.B. Boratomen) in die Kohlenstoffgerüste.
Bislang fehlte jedoch ein detaillierter Vergleich der optischen und elektronischen Eigenschaften einer umfassend charakterisierten Kohlenwasserstoffspezies mit denen einer isostrukturellen Bor-dotierten Verbindung. In unserer Gruppe wird 9,10-Dihydro-9,10-diboraanthracen (DBA) als Bor-haltiger Baustein zum Aufbau lumineszierender Polymere genutzt. Das isostrukturelle Kohlenstoffanalogon zum DBA-Fragment stellt hierbei das Anthracen-Gerüst dar. Vor diesem Hintergrund wurden in dieser Arbeit die elektronischen, strukturellen und optischen Eigenschaften des DBA-Derivats 30 und des Anthracen-Derivats 31 umfassend untersucht und miteinander verglichen, wobei signifikante Unterschiede zwischen der Kohlenstoffverbindung 31 und dem Bor-dotierten Analogon 30 beobachtet wurden.