Refine
Year of publication
- 2014 (168) (remove)
Document Type
- Doctoral Thesis (168) (remove)
Has Fulltext
- yes (168) (remove)
Is part of the Bibliography
- no (168)
Keywords
- Allergie (2)
- Beschleuniger (2)
- Nukleosynthese (2)
- Pierre Bourdieu (2)
- Radio Frequenz Quadrupol (2)
- 1,4-dioxane (1)
- ADHD (1)
- Ageing (1)
- Altgermanistik (1)
- Arthur Schnitzler (1)
Institute
- Physik (28)
- Biochemie und Chemie (26)
- Biowissenschaften (16)
- Medizin (15)
- Pharmazie (15)
- Geowissenschaften (9)
- Informatik (9)
- Neuere Philologien (8)
- Sportwissenschaften (7)
- Kulturwissenschaften (5)
Construction and commissioning of a setup to study ageing phenomena in high rate gas detectors
(2014)
In high-rate heavy-ion experiments, gaseous detectors encounter big challenges in terms of degradation of their performance due to a phenomenon dubbed ageing. In this thesis, a setup for high precision ageing studies has been constructed and commissioned at the GSI detector laboratory. The main objective is the study of ageing phenomena evoked by materials used to build gaseous detectors for the Compressed Baryonic Matter (CBM) experiment at the future Facility for Antiproton and Ion Research (FAIR).
The precision of the measurement, e.g., of the gain of a gaseous detector, is a key element in ageing studies: it allows to perform the measurement at realistic rates in an acceptable time span. It is well known the accelerating ageing employing high intensity sources might produce misleading results. The primary objective is to build an apparatus which allows very accurate measurements and is thus sensitive to minute degradations in detector performance. The construction and commissioning of the
setup has been carried out in two steps. During the first step of this work, a simpler setup which already existed in the detector laboratory of GSI had been utilised to define all conditions related to ageing studies. The outcome of these studies defined the properties and characteristics that must be met to build and operate a new, sophisticated and precise setup. The already existing setup consisted of two identical Multi Wire Proportional Chambers (MWPCs), a gas mixing station, an 55Fe source, an x-ray generator, an outgassing box and stainless steel tubing. In a first step, the gain and electric field configuration of the MWPCs were simulated by a combination of a gas simulation (Magboltz) and electric field simulation program (Garfield). The performance and operating conditions of the chambers have been thoroughly characterised before utilising them in first preparatory ageing test. The main diagnostic parameter in ageing studies is the detector gain, thus it is mandatory for precise ageing studies to minimise the systematic and statistical variation of the pressure and temperature corrected gain. To achieve the required accuracy, several improvements of the chamber design and the gas system have been implemented. In addition, the temperature measurement has been optimised. During the preparatory tests, several ageing studies have been carried out. The ageing effect of seven materials and gases have been carried out during these tests: RTV-3145, Ar/CO2 gas, Durostone flushed with Ar/Isobutane gas, Vetronit G11, Vetronit G11 contaminated with Micro 3000 and Gerband 705. The results of these studies went into the design of the new sophisticated ageing setup. For example some tests revealed that there was, even after cleaning, a certain level of contamination with "ageing agents" in the existing setup, which made it imperative to ensure a very high level cleanness of all components during the construction of the setup. The curing period of some testing samples like glues or the gas flow rate were found to be very important factors that must be taken into account to obtain comparable results. Very important changes in the chamber design have been made, i.e., the aluminium-Kapton cathodes used in MWPCs have been replaced with multi-wire planes and the fibreglass housing of the chamber has been changed to metal. The second step started with building the new setup which was designed based on the findings from the first step. The new ageing setup consists of three MWPCs, two moving platforms, an 55Fe source, a copper-anode x-ray generator, two outgassing boxes, both flexible and rigid stainless steel tubes. Before fabrication of the chambers, simulations of their electric field and the gain have been done using Magboltz and Garfield programs. After that, the chambers were installed and tested. A 0.3% peak-to-peak residual variation of the corrected gain has been achieved. Finally, the complete setup has been operated with full functionality in no-ageing conditions during one week. This test revealed very stable gain in all three chambers. After that two materials (Gerban 705 and RTV-3145) have been inserted in the two outgassing boxes and tested. They revealed an ageing rate of about 0.3%/mC/cm and 3%/mC/cm respectively. The final test proves the stability and accuracy of the ageing measurements carried out with the ageing setup at the detector laboratory at GSI which is ready to conduct the envisaged systematic ageing studies.
Polypharmakologie hat in den letzten Jahren mehr und mehr an Bedeutung in der pharmazeutischen Forschung gewonnen und könnte in Zukunft zu einem Umdenken in der Entwicklung neuer Wirkstoffe führen. Das wachsende Verständnis für biologische Zusammenhänge, im speziellen für die starke Vernetzung zwischen verschiedenen Signalwegen oder Gewebearten, und die daran beteiligten Proteine, könnten zu gänzlich neuen Strategien führen. Beispiele aus dem Bereich der Onkologie und der Entwicklung von Neuroleptika haben bereits gezeigt, dass eine Intervention an mehreren Stellen eines solchen komplexen Netzwerkes zu wirksameren und gleichzeitig sichereren Wirkstoffen führen kann. Erkenntnisse aus der Systembiologie und die retrospektive Analyse bereits zugelassener Wirkstoffe machen deutlich, dass viele erfolgreiche Wirkstoffe nur aufgrund ihres polypharmakologischen Wirkprofils so effektiv sind – wenngleich dies bei Ihrer Entwicklung oftmals nicht beabsichtigt war.
Das rationale Design sogenannter „multitarget Wirkstoffe“ stellt bis heute eine große Herausforderung dar. Aus Sicht eines medizinischen Chemikers bedeutet es die Verknüpfung zweier, auf unterschiedliche Targets aktiver, Liganden zu einem neuen Wirkstoff, ohne einen signifikanten Aktivitätsverlust auf die einzelnen Targets herbeizuführen. Ein naheliegender Ansatz zur Verbindung zweier Liganden ist die Verknüpfung der Moleküle über einen flexiblen Linker. Dieser Ansatz kann zwar in vitro zu sehr potenten Wirkstoffen führen, birgt jedoch pharmakokinetische Nachteile, bedingt durch das hohe Molekulargewicht, die sich oft erst in vivo zeigen. Die Schwierigkeit besteht also zum einen in der Aufrechterhaltung der individuellen Aktivität auf das jeweilige Target und zum anderen im Erreichen einer guten Balance zwischen Aktivität und Komplexität des Liganden. Damit soll ausreichend Raum für spätere Optimierung von pharmakokinetischen und pharmakodynamischen Eigenschaften gewährleistet werden. Bisher wurden nur wenige Computer-gestützte Ansätze entwickelt um diese und ähnliche Fragestellungen zu bearbeiten. Aus diesem Grund ist die Entwicklung neuer in silico Verfahren zur Identifzierung von multitarget Liganden ein Kernthema dieser Arbeit. Die Implementierung eines Fragment-basierten Ansatzes hält die Komplexität der Liganden möglichst gering und bietet genügend Raum für eine anschließende, multi-dimensionale Optimierung an zwei oder mehreren Targets.
In der ersten Studie wurde eine Pharmakophor-basierte Strategie verfolgt. Die Repräsentation eines Liganden durch ein Pharmakophormodell stellt eine abstrakte dreidimensionale Darstellung der für die biologische Aktivität relevanten Strukturmerkmale dar. Diese Abstraktion vereinfacht den Vergleich zweier Verbindungen und erlaubt gleichzeitig Spielraum für chemische Variabilität. Bei diesem Ansatz wurden Pharmakophormodelle, jeweils für eine Vielzahl aktiver Liganden zweier Targets, erzeugt und paarweise miteinander verglichen. Sobald zwei Pharmakophormodelle eine genügend große Anzahl an Pharmakophorpunkten in räumlich ähnlicher Orientierung teilen, stellt dieses gemeinsame Pharmakophor die Basis eines potentiellen multitarget Liganden dar. In der beschriebenen Studie wurde dieses Verfahren anhand von aktiven Liganden der löslichen Epoxid Hydrolase (sEH) und 5-Lipoxygenase (5-LO) evaluiert. Die auf dieser Grundlage identifizierten multitarget Pharmakophormodelle wurden zum anschließenden Screening einer Fragement-Datenbank verwendet und führten zu 9 aktiven Liganden für sEH und 5-LO. Diese Liganden besitzen chemische Grundgerüste (Scaffolds), die in der Literatur bisher noch nicht als aktive sEH- oder 5-LO-Liganden beschrieben wurden und somit eine ideale Grundlage für die Entwicklung neuer Wirkstoffe darstellen. Für eine der gefundenen Verbindungen, basierend auf einem Benzimidazol-Gerüst, wurden Aktivitäten im niedrig mikromolaren Bereich für beide Targets bestimmt. Diese Verbindung und weitere Derivate werden zu diesem Zeitpunkt weiter charakterisiert um eine erste Struktur-Aktivitäts-Beziehung aufzustellen und die Eignung dieser Substanzklasse als potentielle Leitstruktur für neue, duale sEH/5-LO Liganden zu überprüfen.
Parallel dazu wurde eine Substruktur-basierte Strategie verfolgt um Rückschlüsse auf jene Strukturmerkmale zu ziehen, die für die Aktivität auf dem jeweiligen Target verantwortlich sein könnten. Dazu wurden in einem ersten Schritt alle aktiven Liganden zweier Targets auf ihre möglichst maximalen gemeinsamen Substrukturen reduziert. Für jedes Target wird damit ein Set von Substrukturen generiert, welches die für die Bindung an das jeweilige Target charakteristische Strukturmerkmale enthält. Diese Substrukturen, repräsentieren den chemischen Raum des jeweiligen Targets und stellten die Trainingsdaten für den entwickelten multiSOM Ansatz dar. Dieser Ansatz basiert auf dem automatisierten Vergleich von selbst-organisierenden Karten und hebt Gemeinsamkeiten zwischen diesen Substruktursets in einer leicht zu interpretierenden, visuellen Form hervor. Dies erlaubt die Identifizierung von gemeinsamen Substrukturen aus beiden verwendeten Substruktursets, welche potentielle duale Strukturelemente darstellen.
Die Validierung dieses Ansatzes erfolgte erneut auf Basis bekannter 5-LO- und sEH-Liganden. Unter 24 ausgewählten Verbindungen konnten neun Fragmente identifiziert werden, die auf einem der beiden Targets und 5 Fragmente, die auf beiden Targets im niedrig mikromolaren Bereich inhibierend wirken. Einer dieser dualen Fragmente wurden anschließend als Basis für eine Substruktursuche in einer Inhouse Datenbank verwendet. Die daraus resultierende Verbindung, die einen Teil des ursprünglichen Fragments beinhaltet, wirkt sowohl auf sEH als auch 5-LO in nanomolaren Konzentrationen inhibierend. Auch diese Verbindung wird zu diesem Zeitpunkt weiter charakterisiert und stellt eine vielversprechende Basis als Leitstruktur neuer dualer sEH/5-LO-Liganden dar.
Zusammenfassend lässt sich sagen, dass die vorgestellten Methoden neue Möglichkeiten bieten, das rationale Design von multitarget Liganden zu unterstützen. Die Pharmakophor-basierte Methode kann besonders dann von Vorteil sein, wenn bereits Strukturinformationen für beide Targets bzw. die bioaktiven Konformationen der Liganden vorliegen. Für einen ausschließlichen Liganden-basierten Ansatz stellt die Verwendung der MultiSOM, und damit die Identifizierung gemeinsamer Strukturelemente der Liganden, die bessere Methode dar.
Im zweiten Teil dieser Arbeit werden Studien zur Identifizierung neuer Farnesoid-X-Rezeptor (FXR) Partialagonisten beschrieben. Auch in diesem Fall wurden zwei unterschiedliche Strategien verfolgt. Da FXR eine starke strukturelle Anpassung abhängig vom gebundenen Liganden aufweist („induced fit“), sind rein strukturbasierte virtuelle Screening-Methoden nur eingeschränkt einsetzbar. Aus diesem Grund sollte zunächst ein Liganden-basierter Drug Repurposing Ansatz verfolgt werden, bei dem bereits zugelassene Wirkstoffe mit potentiell FXR-modulierenden Eigenschaften identifiziert werden sollten. Der Vorteil des Drug Repurposing besteht darin, dass die betrachteten Wirkstoffe bereits intensiv hinsichtlich Sicherheit und Bioverfügbarkeit untersucht wurden. Somit kann man sich bei der Entwicklung verstärkt auf die biologische Aktivität auf das neue Target konzentrieren.
Erneut wurden selbstorganiserende Karten (SOMs) verwendet, um zugelassene Wirkstoffe mit FXR-Aktivität zu identifizieren. Trainiert wurde die SOM auf einem Datensatz bestehend aus bekannten FXR-Agonisten zum einen und der DrugBank Datenbank mit zugelassen Wirkstoffen zum anderen. Die Eigenschaft der SOM Verbindungen mit ähnlicher biologischer Aktivität in räumlicher Nähe auf der Karte zu clustern führte zu einer Anhäufung an bekannten FXR-Agonisten auf einigen wenigen Neuronen. Auf solchen sogenannten Aktivitätsinseln wurden zusätzlich auch zugelassene Wirkstoffe platziert, wenn ihre Ähnlichkeit zu den FXR-Agonisten ausreichend hoch war. Die auf den Aktivitätsinseln angesiedelten Wirkstoffe wurden anschließend bestellt und hinsichtlich ihrer FXR-Aktivität in einem Transaktivierungs-Assay untersucht. Unter den bestellten Verbindungen konnten sechs Liganden mit einer signifikanten relativen FXR-Aktivierung identifiziert werden. Weitere Hinweise auf eine mögliche FXR-Aktivierung der Verbindungen gaben in der Literatur beschriebene Nebeneffekte, die mit einer FXR-Aktivierung in Zusammenhang stehen könnten. Die potentenste Verbindung, der zugelassenen Tyrosinkinase-Inhibitor Imatinib, wurde zusätzlich in Bezug auf FXR-basierte SHP mRNS Induktion untersucht. In qPCR-Experimenten konnte dabei eine mit GW4064 vergleichbare Induktion in HepG2 Zellen gezeigt werden. Diese Ergebnisse untermauern die aus der Literatur gewonnen Vermutung, dass Imatinib FXR-modulierende Eigenschaften besitzt und somit eine interessante Grundlage für die Entwicklung neuer FXR-Partialagonisten darstellt. Zu diesem Zeitpunkt werden weitere Imatinib-Derivate synthetisiert und diese Struktur als mögliche Leitstruktur charakterisiert.
In einer zweiten Studie wurde eine Kombination aus Liganden- und Struktur-basierten Ansatz verfolgt. Dabei wurden sämtliche Struktur-Informationen aus publizierten FXR-Kristallstrukturen und den darin kokristallisierten Liganden gebündelt, um die Auswirkungen des zu Beginn erwähnten induced-fit Effekts zu minimieren. Auf Basis der ko-kristallisierten Liganden wurden zunächst zwei Konsensus-Pharmakophormodelle erstellt. Diese Modelle wurden in einem anschließenden Schritt jeweils mit einem Konsensus-Pharmakophormodell, das mit Hilfe von Protein-Ligand-Interaktions-Fingerprints (PLIF) aus den korrespondieren Kristallstrukturen abgeleitet wurde, überlagert und kombiniert. Diese kombinierten Modelle vereinten sowohl Informationen der strukturellen Gemeinsamkeiten der Liganden als auch gemeinsame, relevante Interaktionspunkte zwischen Ligand und Rezeptor aus den Kristallstrukturen. Das Pharmakophor-Screening mit anschließender Docking Analyse führte zu 42 getesteten Verbindungen, von denen 12 Strukturen eine signifikante relative FXR-Aktivierung zeigten. Darunter konnte ein Partial-Agonist mit einem EC50 von 480 nM bei einer maximalen Aktivierung von ca. 14% im Vergleich zur Referenz GW4064 identifiziert werden. Auch diese Verbindung wird zum aktuellen Zeitpunkt weiter charakterisiert und könnte in Zukunft als Leitstruktur für neue FXR-Partialagonisten dienen.
In beiden Studien konnten neue FXR-Agonisten mit bisher noch nicht beschriebenen Scaffolds identifiziert werden. Es konnte gezeigt werden, dass die Verwendung bereits zugelassener Wirkstoffe für neue Indikationen eine attraktive Quelle für neue Leitstrukturen darstellen kann und im Zuge dessen bisher ungeklärte Nebeneffekte bekannter Wirkstoffe aufgeklärt werden können.
Abschließend lässt sich festhalten, dass selbstorganisierende Karten eine universelle Methode zur Erkennung und Analyse von polypharmakologischen Zusammenhängen darstellen. Des Weiteren lassen sich mit ihrer Hilfe chemische Räume repräsentieren und durch den in dieser Arbeit entwickelten MultiSOM-Ansatz direkt vergleichen. Dies ermöglicht auf intuitive und effiziente Weise die Identifizierung von überlappenden chemischen Räumen und somit möglicher polypharmakologischer Zusammenhänge.
Batten disease refers to neuronal ceroid lipofuscinoses (NCLs), which are inherited lysosomal storage diseases with diverse ages of onset and cause progressive neurodegeneration. The most common NCL is Juvenile NCL (JNCL), which begins in early childhood and is characterized by lysosomal accumulation of subunit c of the mitochondrial ATP synthase (subunit c). JNCL is caused by mutations in the gene CLN3. This gene encodes the CLN3 protein, a transmembrane protein of unknown structure. Localization of CLN3 is ambiguous, and its exact cellular function is not known. Thereby, it is unclear what mechanisms lead to neurodegeneration in JNCL. Models of JNCL present disturbed membrane bound organelles and cytoskeleton as well as impaired autophagy and lysosomal function. The JNCL gene defect that most patients harbor is deletion of the exons 7 and 8 of CLN3. In the Cln3Δex7/8/Δex7/8 mouse model of JNCL, this deletion has been introduced to the mouse Cln3 gene.
The actin cytoskeleton consists of filaments formed through polymerization of actin and provides a framework which defines cellular morphology and also facilitates cell motility, cytokinesis, and cell surface remodeling. Rho GTPases are signaling proteins which regulate the assembly and dynamics of the actin cytoskeleton and play an important role in neuronal morphology. Rho GTPases need to be membrane-anchored in order to become active and initiate a signaling cascade. Their membrane anchorage is achieved through their geranylgeranyl tails, which they acquire through prenylation. Protein prenylation refers to the attachment of a geranylgeranyl or farnesyl group to the C-terminus of a protein. The enzyme geranylgeranyl transferase (GGTase) catalyzes geranylgeranylation, whereas geranylgeranyl pyrophosphate (GGPP) is the donor of the geranylgeranyl group. Cells produce GGPP as well as cholesterol and other lipids through the mevalonate pathway (MVA pathway).
The aim of this study was to analyze how the JNCL gene defect affects cellular morphology, especially the actin cytoskeleton and Rho GTPases, and the MVA pathway which is connected with Rho GTPase activation. These important cellular components play crucial roles in neurons and are implicated in other neurodegenerative diseases, but have received little attention in JNCL. The immortalized CbCln3Δex7/8/Δex7/8 cerebellar precursor cell line from Cln3Δex7/8/Δex7/8 mice was used for the experiments and provides a genetically accurate, neuronal cell model of JNCL. CbCln3Δex7/8/Δex7/8 cells present subunit c accumulation only when aged at confluency, but sub-confluent cells display other phenotypes. The experiments of this study were performed both with confluency-aged and sub-confluent cells. Filamentous actin was visualized, and protein levels as well as membrane localization of several small Rho GTPases was analyzed biochemically. Also the protein levels of GGTase and the key enzymes of the mevalonate pathway were determined.
Staining pattern of filamentous actin was disturbed in confluency-aged CbCln3Δex7/8/Δex7/8 cells. Additionally it was found out that these cells did not grow to wild-type size and exhibited an elongated peroxisomal morphology. Rho GTPases had reduced total levels and showed a tendency of decreased membrane localization. Levels of GGTase and the MVA pathway enzymes were altered. Results of sub-confluent CbCln3Δex7/8/Δex7/8 cells were similar with the exception of HMG-CoA reductase, which is the rate-limiting enzyme of the MVA pathway: while its level in confluency-aged CbCln3Δex7/8/Δex7/8 cells was increased, at sub-confluency it showed a reduced level. Also, in contrast with the confluency-aged cells, Rho GTPases presented a tendency of increased membrane localization.
The results of this study reveal that the accurate JNCL gene defect alters cellular morphology and the activity of the MVA pathway in neuronal cells. Small cell size and disrupted architecture of the actin cytoskeleton are confirmed as neuronal JNCL phenotypes, and the peroxisome is introduced as a novel cellular component affected in JNCL. Through defects in endocytosis, autophagy, lysosomal and mitochondrial function, and cytoskeleton, the JNCL gene defect may prevent cells from growing to wild-type size. The JNCL gene defect may attenuate the MVA pathway via mitochondrial dysfunction and/or upregulation of degradative processes. Attenuation of the MVA pathway may contribute to impaired membrane rafts, which are an established phenotype of JNCL cells. As indicated by reduced GGTase level and supported by downregulation of lipid production through the MVA pathway, the JNCL gene defect might also decrease prenylation of proteins.
This thesis is structured into 7 chapters:
• Chapter 2 gives an overview of the ultrashort high intensity laser interaction with matter. The laser interaction with an induced plasma is described, starting from the kinematics of single electron motion, followed by collective electron effects and the ponderamotive motion in the laser focus and the plasma transparency for the laser beam. The three different mechanisms prepared to accelerate and propagate electrons through matter are discussed. The following indirect acceleration of protons is explained by the Target Normal Sheath Acceleration (TNSA) mechanism. Finally some possible applications of laser accelerated protons are explained briefly.
• Chapter 3 deals with the modeling of geometry and field mapping of magnetic lens. Initial proton and electron distributions, fitted to PHELIX measured data are generated, a brief description of employed codes and used techniques in simulation is given, and the aberrations at the solenoid focal spot is studied.
• Chapter 4 presents a simulation study for suggested corrections to optimize the proton beam as a later beam source. Two tools have been employed in these suggested corrections, an aperture placed at the solenoid focal spot as energy selection tool, and a scattering foil placed in the proton beam to smooth the radial energy beam profile correlation at the focal spot due to chromatic aberrations. Another suggested correction has been investigated, to optimize the beam radius at the focal spot by lens geometry controlling.
• Chapter 5 presents a simulation study for the de-neutralization problem in TNSA caused by the fringing fields of pulsed magnetic solenoid and quadrupole. In this simulation, we followed an electrostatic model, wherethe evolution of both, self and mutual fields through the pulsed magnetic solenoid could be found, which is not the case in the quadrupole and only the growth of self fields could be found. The field mapping of magnetic elements is generated by the Matlab program, while the TraceWin code is employed to study the tracking through magnetic elements.
• Chapter 6 describes the PHELIX laser parameters at GSI with chirp pulse amplification technique (CPA), and Gafchromic Radiochromic film RCF) as a spatial energy resolver film detector. The results of experiments with laser proton acceleration, which were performed in two experimental areas at GSI (Z6 area and PHELIX Laser Hall (PLH)), are presented in section 6.3.
• Chapter 7 includes the main results of this work, conclusions and gives a perspective for future experimental activities.
The Late Cretaceous is known to be mostly affected by warm periods interrupted temporarily by a number of cooling events. The reconstruction of the paleoclimatic conditions during a period of high concentration of CO2 in the atmosphere is of great importance for the creation of future climate models. We applied the recently developed method reconstructing the SST from the TEX86 (TetraEther indeX of tetraethers consisting of 86 carbon atoms).
The sample material used for the present study was obtained from the tropical Late Cretaceous southern Tethys upwelling system (Negev/Israel), lasting from the Late Santonian to the Early Maastrichtian (~ 85 to 68 Ma). On the core samples from the Shefela basin, representing the outer belt of the upwelling system and the outcrop profile from the open mine Mishor Rotem (Efe Syncline), representing the inner belt, various bulk geochemical and biomarker studies were performed in this thesis.
Derived from TEX86 data, a significant long-term SST cooling trend from 36.0 to 29.3 °C is recognized during the Late Santonian and the Early Campanian in the southern Tethys margin. This is consistent with the opening and deepening of the Equatorial Atlantic Gateway (EAG) and the intrusion of cooler deep water from the southern Atlantic Ocean influencing the global SSTs and also the Tethys Ocean. Furthermore, the cooler near shore SST usually found in modern upwelling systems could be verified in case of the ancient upwelling system investigated in the present study. The calculated mean SST in the inner belt (27.7 °C) represented in the Efe Syncline was 1.5 °C cooler in comparison to the more seaward located outer belt (Shefela basin).
Moreover, geochemical and biomarker analyses were used to identify both the accumulation of high amounts of phosphate in the PM and good preservation of organic matter (OM) in the lower part of the OSM section. Total organic carbon (TOC) contents are highly variable over the whole profile reaching from 0.6 % in the MM, to 24.5 % in the OSM. Total iron (TFe) varies from 0.1 % in the PM to 3.3 % in the OSM and total sulfur (TS) varies between 0.1 % in the MM and 3.4 % in the OSM. Different correlations of TS, TOC and TFe were used to identify the conditions during the deposition of the different facies types. Natural sulfurization was found to play a key role in the preservation of the OM particularly in the lower part of the OSM. Samples from the OSM and the PM were deposited under dysoxic to anoxic conditions and iron limitation lasted during the deposition of the OSM and the PM, which effected the incorporation of sulfur into OM.
Phosphorus is highly accumulated in the sediments of the PM with a mean proportion of 11.5 % total phosphorus (TP), which is drastically reduced to a mean value of 0.9 % in the OSM and the MM. From the correlation of the bulk geochemical parameters TOC/TOCOR ratio and TP a major contribution of sulfate reducing bacteria to the phosphate deposition is concluded. This interrelation has previously been investigated in recent coastal upwelling systems off Peru, Chile, California and Namibia. This was further supported by the analysis of branched and monounsaturated fatty acids indicating the occurrence of sulfate reducing and sulfide oxidizing bacteria during the deposition.
According to the results from the analysis of n-alkanes and C27- to C29-steranes up to 95 % of the OM was of marine origin.
Organic sulfur compounds (OSC) were a major compound class in the aromatic hydrocarbon fraction and n-Alkyl and isoprenoid thiophenes were the most abundant, with highest amounts found for 2-methyl-5-tridecyl-thiophene (28 µg/g TOC). The relatively high abundance of ββ-C35 hopanoid thiophenes and epithiosteranes is equivalent to an incorporation of sulfur during the early stages of diagenesis.
Moreover, the geochemical parameters δ13Corg, δ15Norg, C/N and the pristane/phytane (Pr/Ph) ratio, were studied for reconstruction of seafloor and water column depositional environments. The high C/N ratio along with relatively low values of δ15Norg (4 ‰ to 6 ‰) and δ13Corg (-29 ‰ to -28 ‰) are consistent with a significant preferential loss of nitrogen-rich organic compounds during diagenesis. Oxygen-depleted conditions lasted during the deposition of the PM and the bottom of the OSM, reflected by the low Pr/Ph ratio of 0.11–0.7. In the upper part of the OSM and the MM the conditions changed from anoxic to dysoxic or oxic conditions. This environmental trend is consistent with co-occurring foraminiferal assemblages in the studied succession and implies that the benthic species in the Negev sequence were adapted to persistent minimum oxygen conditions by performing complete denitrification as recently found in many modern benthic foraminifera.
Furthermore, the anammox process could have influenced the nitrogen composition of the sediments. In this anaerobically process nitrite and ammonia are converted to molecular nitrogen.
Die Familie von der Tann entstammt altem fuldischem Lehnsadel und war in den Prozess der Entstehung der fränkischen Reichsritterschaft von Beginn an eingebunden. Zur Reformationszeit taten sich vor allem die Brüder Eberhard und Alexander von der Tann hervor, die als fürstliche Ratgeber in Kursachsen bzw. Hessen tätig waren. Vor allem Eberhard von der Tann hat in vielfacher Weise an der Verwirklichung von Luthers Reformvorstellungen mitgewirkt. So war er 1555 auf dem Reichstag zu Augsburg als protestantischer Verhandlungsführer entscheidend am Zustandekommen des Religionsfriedens beteiligt, eine Tatsache, die in der einschlägigen Forschung bis heute noch wenig beachtet wurde.
The subject of this thesis is the experimental investigation of the neutron-capture cross sections of the neutron-rich, short-lived boron isotopes 13B and 14B, as they are thought to influence the rapid neutron-capture process (r process) nucleosynthesis in a neutrino-driven wind scenario.
The 13;14B(n,g)14;15B reactions were studied in inverse kinematics via Coulomb dissociation at the LAND/R3B setup (Reactions with Relativistic Radioactive Beams). A radioactive beam of 14;15B was produced via in-flight fragmentation and directed onto a lead-target at about 500 AMeV. The neutron breakup of the projectile within the electromagnetic field of the target nucleus was investigated in a kinematically complete measurement. All outgoing reaction products were detected and analyzed in order to reconstruct the excitation energy.
The differential Coulomb dissociation cross sections as a function of the excitation energy were obtained and first experimental constraints on the photoabsorption and the neutron-capture cross sections were deduced. The results were compared to theoretical approximations of the cross sections in question. The Coulomb dissociation cross section of 15B into 14B(g.s.) + n was determined to be s(15B;14B(g:s:)+n) CD = 81(8stat)(10syst) mb ; while the Coulomb dissociation cross section of 14B into a neutron and 13B in its ground state was found to be s(14B;13B(g:s:)+n) CD = 281(25stat)(43syst) mb: Furthermore, new information on the nuclear structure of 14B were achieved, as the spectral shape of the differential Coulomb dissociation cross section indicates a halolike structure of the nucleus.
Additionally, the Coulomb dissociation of 11Be was investigated and compared to previous measurements in order to verify the present analysis. The corresponding Coulomb dissociation cross section of 11Be into 10Be(g.s.) + n was found to be 450(40stat)(54syst ) mb, which is in good agreement with the results of Palit et al.
Die Arbeit „Zwischen Kooperation und Wetteifer – Interaktionen und mediale Organisation von Kreativität am Beispiel des koopetitiven Ideennetzwerks jovoto“ untersucht internetbasierte Kokreativität – die gemeinsame Ideenentwicklung im Mediennetzwerk. Im Unterschied zu vorangegangen Untersuchungen, die sich mit den Motiven für die häufig unentgeltlichen kokreativen Aktivitäten und dem Innovationspotential dieser Organisationsform beschäftigten, liegt der Fokus dieser Studie auf der Kommunikation der Akteure untereinander während der Kokreation. Als Fallbeispiel wird die Design-Ideenplattform jovoto ausgewählt, die Kreativität auf der Basis von Koopetition – der Gleichzeitigkeit von Kooperation und Wettbewerb – unter den Teilnehmern fördert. Die Ideenautoren im Netzwerk von jovoto entwickeln kreative Lösungen in den Bereichen Produktdesign, Kampagnen, Innovation und Architektur. Die Teilnehmer treten mit ihren Ideen im Wettbewerb gegeneinander an; gleichzeitig kommentieren und bewerten sie sich gegenseitig im Prozess der Ideenentwicklung. Aus den Bewertungen der Community ergeben sich die Gewinner des ausgeschriebenen Preisgeldes. Aus dieser Gleichzeitigkeit von Wettbewerb und Kooperation ergibt sich die Forschungsfrage dieser Untersuchung: Wie ist das Verhältnis zwischen Kooperation und Wettbewerb im Kokreationsnetzwerk jovoto bestimmt, und wie wirkt dies auf Kreativität? Um diese Frage zu beantworten, untersuche ich die auf der Plattform dokumentierten Interaktionen (Kommentar-Threads) zwischen den Ideenentwicklern und anderen Community-Mitgliedern mit qualitativen und quantitativen Methoden und analysiere zwanzig von mir geführte halbstrukturierte Leitfaden-Interviews mit den Ideenautoren auf jovoto. Zur theoretischen Einordnung der beobachteten Phänomene stütze ich mich sowohl auf Kultur- und Kommunikationstheorien des radikal-konstruktivistischen Erkenntnismodells als auch auf die kulturellen Spieltheorien von Johan Huizinga und Roger Caillois. Ich beziehe zudem Ansätze ein, die Kokreativität als eine Form der kulturellen Produktivität beschreiben. Einen weiteren Anhaltspunkt bilden Studien, die sich mit der produktiven Beziehung zwischen Kooperation und Wettbewerb auseinandersetzen. Ergänzt werden diese Erkenntnisse bspw. durch die These zur Intelligenz der Crowd in heterogenen Gruppen von Entscheidern und durch Untersuchungen zum positiven Einfluss von Differenzen und Konflikten auf die Gruppenkreativität. Ich führe diese Vorarbeiten zu einer Modellvorstellung zusammen: In dieser verknüpft der koopetitive Handlungskontext ein Kooperationsspiel mit einem Wettbewerbsspiel, und zwar mithilfe von Kreativität: Diese ermöglicht, dass der Fokus im Spiel – von der Betonung und Vergrößerung des Gemeinsamen zwischen den Teilnehmern zur Betonung ihrer Differenzen – wechseln kann. Hieraus leite ich Hypothesen ab, die ich empirisch überprüfe: Während einer sechsmonatigen Beobachtung des Plattformgeschehens habe ich Daten zu 135 Wettbewerben auf jovoto erhoben. Die Analyse von über 2.400 Kommentaren ergibt, dass die beiden Leitkategorien „Bestätigung“ und „Herausforderung“ das kokreative Kommunikationsgeschehen charakterisieren. Hiervon ausgehende qualitative und quantitative Untersuchungen zu 54 Diskussions-Threads ergeben: In der Platzierung erfolgreiche Ideen werden von intensiveren Diskussionen begleitet als weniger erfolgreiche. Bemerkenswert ist, dass sie nicht nur eine größere Zahl bestätigender Kommentare erhalten, sondern auch mehr Herausforderungen. Die im Schnitt höchste Punktzahl geht mit einem Verhältnis von rund acht Bestätigungen je Herausforderung einher. Dieses Ergebnis bestätigt die Ausgangshypothese, dass es sich bei den Ideenwettbewerben um ein Kommunikationsspiel mit kooperativer, wetteifernder und kreativer Komponente handelt: In den Interaktionen zu den Ideenbeiträgen, insbesondere den erfolgreichen, herrscht ein Wechsel zwischen Bestätigungen und Herausforderungen vor. Aus den Aussagen der Ideenautoren in den geführten Interviews wird ein zentraler Konflikt deutlich: Die Tätigkeit bringt einen hohen Aufwand und wenig Aussicht auf Gewinn mit sich. Unterm Strich scheint sie jedoch lohnenswert, da die Akteure wichtige Lernerfahrungen im Netzwerk sammeln können und die eigenen Fähigkeiten einzuschätzen lernen. Dass die kreativen Beiträge anderer Wettbewerbsteilnehmer von anderen rege diskutiert werden, belegt den Erfolg des Organisationsmodells der Kokreation. Dieser verhält sich konträr zu den Vorhersagen herkömmlicher ökonomischer Theorie, die rein eigennützige Akteure annimmt, und deutet auf die Relevanz von Theorien hin, die wechselseitiges Feedback und dessen Gratifikationen als Faktoren in der netzwerkbasierte Produktion zentral berücksichtigen.
Cognitive flexibility and cognitive stability : neural and behavioral correlates in men and mice
(2014)
The ability to flexibly adjust behavior according to a changing environment is crucial to ensure a species' survival. However, the successful pursuit of goals also requires the stable maintenance of behavior in the face of potential distractors. Thus, cognitive flexibility and cognitive stability are important processes for the cognitive control of behavior. There is a large body of behavioral and neuroimaging research concerning cognitive control in general, but also specifically on cognitive flexibility and cognitive stability, albeit most often assessed in separate task paradigms. Nevertheless, whether cognitive flexibility and cognitive stability depend upon separate or shared neuronal bases is still a matter of debate. Complementing empirical research, computational models have become an important strategy in neuroscientific research, as they have the potential of providing mechanistic explanations of empirical observations, for example by allowing for the direct manipulation of molecular parameters in simulated neural networks. The computational model underlying the so-called Dual-State Theory contains specific hypotheses with respect to cognitive flexibility and cognitive stability. The neural networks simulated by this model exhibit multiple stable firing states, i.e., the neural network can maintain a high firing state also without continuing external input due to a network architecture consisting of recurrently connected neurons. Transitions between such network states, also called attractor states, can be induced by external input, and represent working memory contents or active task rules. Simulations showed that the stability of these attractor states, and thus of task rule representations, depend on the dopamine state of the system and can consequently vary between persons. The Dual-State Theory predicts an antagonistic relationship between cognitive flexibility and cognitive stability, as robust attractor states would facilitate the inhibition of distractors, but impair efficient task switching, while rather unstable attractor states would promote efficient transitions between representations but would also come at the cost of increased distractibility.
Based on the Dual-State Theory, a task paradigm was designed allowing for the simultaneous assessment of cognitive flexibility, in the sense of rule-based task switching, and cognitive stability, in the sense of inhibiting irrelevant distractors. Furthermore, a behavioral measure was developed to assess the individual attractor state stability, named spontaneous switching rate (SSR). In the first study of this work, this paradigm was tested in a sample of healthy human subjects using functional magnetic resonance imaging (fMRI). An overlapping fronto-parietal network was activated for both cognitive flexibility and cognitive stability. Furthermore, behavioral as well as neuroimaging results are in favor of an antagonistic relationship between cognitive flexibility and cognitive stability. A specific prefrontal region, the inferior frontal junction (IFJ), was implied to potentially contain the relevant neural networks mediating the transitions between attractor states, i.e., task rule representations, as its activity was modulated by the SSR such that persons with rather unstable attractor states activated it less during task switching while showing better performance. Most importantly, functional connectivity of the IFJ was antagonistically modulated by the SSR: more flexible persons connected it less to another prefrontal area during task switching, while showing higher functional connectivity during distractor inhibition.
In a second study, a larger human sample was assessed and further hypotheses derived from the Dual-State Theory on variability of neural processing were tested: we hypothesized that persons with high brain signal variability should have less stable network states and thus benefit on tasks requiring cognitive flexibility but suffer from it when the task requires a higher degree of cognitive stability. Furthermore, recent fMRI-research on brain signal variability revealed beneficial effects of higher brain signal variability on cognitive performance in general. Using a novel customized analysis pipeline to measure trial-to-trial fMRI-signal variability, we indeed found differential effects of brain signal variability: higher levels of brain signal variability were found to be beneficial for effectiveness, i.e., performance in terms of error rates, for both cognitive flexibility and stability. However, brain signal variability impaired the efficiency in terms of response times of inhibiting distractors, i.e., cognitive stability.
Due to further predictions of the Dual-State Theory concerning schizophrenia and the dopaminergic system, it was considered valuable to pursue a translational approach and thus allowing for the employment of animal models of psychiatric diseases. Consequently, in a first step the human paradigm was translated for a murine population using an innovative touchscreen approach. Results showed analogous behavioral effects in wildtype mice as before in healthy humans: the antagonistic relation between cognitive flexibility and cognitive stability was replicated and also for mice, a behavioral measure for the individual attractor stability was established and validated, named the individual spontaneous switching score.
To conclude, we established a novel paradigm assessing both cognitive flexibility and stability simultaneously showing an antagonistic relationship between these two cognitive functions on the behavioral level in two different species, which supports predictions from the Dual-State Theory. This was further underlined by evidence on the activation, functional connectivity and signal variability level in the human brain.
Quarks and gluons are the building blocks of all hadronic matter, like protons and neutrons. Their interaction is described by Quantum Chromodynamics (QCD), a theory under test by large scale experiments like the Large Hadron Collider (LHC) at CERN and in the future at the Facility for Antiproton and Ion Research (FAIR) at GSI. However, perturbative methods can only be applied to QCD for high energies. Studies from first principles are possible via a discretization onto an Euclidean space-time grid. This discretization of QCD is called Lattice QCD (LQCD) and is the only ab-initio option outside of the high-energy regime. LQCD is extremely compute and memory intensive. In particular, it is by definition always bandwidth limited. Thus—despite the complexity of LQCD applications—it led to the development of several specialized compute platforms and influenced the development of others. However, in recent years General-Purpose computation on Graphics Processing Units (GPGPU) came up as a new means for parallel computing. Contrary to machines traditionally used for LQCD, graphics processing units (GPUs) are a massmarket product. This promises advantages in both the pace at which higher-performing hardware becomes available and its price. CL2QCD is an OpenCL based implementation of LQCD using Wilson fermions that was developed within this thesis. It operates on GPUs by all major vendors as well as on central processing units (CPUs). On the AMD Radeon HD 7970 it provides the fastest double-precision D= kernel for a single GPU, achieving 120GFLOPS. D=—the most compute intensive kernel in LQCD simulations—is commonly used to compare LQCD platforms. This performance is enabled by an in-depth analysis of optimization techniques for bandwidth-limited codes on GPUs. Further, analysis of the communication between GPU and CPU, as well as between multiple GPUs, enables high-performance Krylov space solvers and linear scaling to multiple GPUs within a single system. LQCD calculations require a sampling of the phase space. The hybrid Monte Carlo (HMC) algorithm performs this. For this task, a single AMD Radeon HD 7970 GPU provides four times the performance of two AMD Opteron 6220 running an optimized reference code. The same advantage is achieved in terms of energy-efficiency. In terms of normalized total cost of acquisition (TCA), GPU-based clusters match conventional large-scale LQCD systems. Contrary to those, however, they can be scaled up from a single node. Examples of large GPU-based systems are LOEWE-CSC and SANAM. On both, CL2QCD has already been used in production for LQCD studies.
The present work deals with the integration of variable renewable energy sources, wind and solar energy into the European and US power grid. In contrast to other networks, such as the gas supply mains, the electricity network is practically not able to store energy. Generation and consumption therefore always have tobe balanced. Currently, the load curve is viewed as a rigid boundary condition, which must be followed by the generation system. The basic idea of the approach followed here is that weather-dependent generation causes a shift of focus of the electricity supply. At high shares of wind and solar generation, the role of the rigid boundary condition falls to the residual load, that is, the remaining load after subtraction of renewable generation. The goal is to include the weather dependence as well as the load curve in the design of the future electricity supply.
After a brief introduction, the present work first turns to the underlying weather-, generation and load data, which form the starting point of the analysis. In addition, some basic concepts of energy economics are discussed, which are needed in the following.
In the main part of the thesis, several algorithms are developed to determine the load flow in a network with a high share of wind and solar energy and to determine the backup supply needed at the same time. Minimization of the energy needed from controllable power plants, the capacity variable power plants, and the capacity of storing serve as guiding principles. In addition, the optimization problem of grid extensions is considered. It is shown that it can be formulated as a convex optimization problem. It turns out that with an optimized, international transmission network which is about four times the currently available transmission capacity, much of the potential savings in backup energy (about 40%) in Europe can be reached. In contrast, a twelvefold increase the transmission capacity would be necessary for a complete implementation of all possible savings in dispatchable power plants.
The reduction of the dispatchable generation capacity and storage capacity, however, presents a greater challenge. Due to correlations in the generation of time series of individual countries, it may be reduced only with difficulty, and by only about 30%.
In the following, the influence of the relative share of wind and solar energy is illuminated and examined the interplay with the line capacitance. A stronger transmission network tends to lead to a higher proportion of wind energy being better integrated. With increasing line capacity, the optimal mix in Europe therefore shifts from about 70% to 80% wind. Similar analyses are carried out for the US with comparable results.
In addition, the cost of the overall system can be reduced. It is interesting at this point that the advantages for the network integration may outweigh higher production costs of individual technologies, so that it is more favourable from the viewpoint of the entire system to use the more expensive technologies.
Finally, attention is given to the flexibility of the dispatchable power plants. Starting from a Fourier-like decomposition of the load curve as it was a few years ago, when hardly renewable generation capacity was present, capacities of different flexibility classes of dispatchable power plant are calculated. For this purpose, it is assumed that the power plant park is able to follow the load curve without significant surplusses or deficits. From this examination, it is derived what capacity must at least be available without having to resort to a detailed database of existing power plants.
Assuming a strong European cooperation, with a stronger international transmission network, the dispatchable power capacity can be significantly reduced while maintaining security of supply and generating relatively small surplusses in dispatchable power plants.
Die vorliegende Arbeit ist das Extrakt umfangreicher Untersuchungen an ausgewählten organischen und metallorganischen Verbindungen im Hinblick auf ihre Polymorphie. Nicht nur die praktischen Arbeiten, wie Synthesen, Polymorphie-Screenings (nach eigens entwickeltem Vorgehen), die chemisch-physikalischen Charakterisierungen neuer polymorpher Formen, sondern auch die Kristallstrukturbestimmungen aus Röntgenbeugungsdaten wurden durchgeführt. Im Fokus der Untersuchungen standen Pigmentvorprodukte, Pigmente, pharmazeutische Wirkstoffe und weitere organische und metallorganische Verbindungen.
Ein Auszug zu Pigmentvorprodukten bilden 2-Ammoniobenzolsulfonate, welche klassische Vorprodukte verlackter Hydrazonpigmente sind. Die bislang unbekannte tautomere Form und Kristallstruktur der CLT-Säure als Zwitterion konnte erfolgreich aus dem Zusammenspiel von IR-, Festkörper-NMR-Spektroskopie und Röntgen-Pulverdiffraktometrie ermittelt werden [1]. Mit Hilfe eines Polymorphie-Screenings konnten nicht nur zwei neue Pseudopolymorphe, sondern auch das Ansolvat der CLT-Säure selbst kristallisiert und ihre Strukturen aus Röntgen-Einkristalldaten bestimmt werden. Hierbei konnte das, aufgrund der Strukturbestimmung aus Röntgen-Pulverdaten proklamierten Tautomer der CLT-Säure verifiziert werden [2]. Mit Hilfe thermischer und röntgenographischer Untersuchungen an drei Derivaten der CLT-Säure, konnte der Einfluss des Substitutionsmusters (Chlor- und Methylsubstituenten) auf die Kristallpackung aufgezeigt werden [3]. Mit Hilfe eines Polymorphie-Screenings an der Iso-CLT-Säure konnten Reaktionen der zum Polymorphie-Screening eingesetzten Lösungsmittel und der Iso-CLT-Säure beobachtet und mittels thermischer und röntgenographischer Ergebnisse aufgeklärt werden. In zwei Fällen konnte eine Deprotonierung und im dritten Fall eine Desulfonierung beobachtet werden. Durch Erwärmen der deprotonierten und desulfonierten Verbindung(en) ist die Rückgewinnung der Iso-CLT-Säure möglich [4]. Ein Polymorphie-Screening an Pigment Red 53 lieferte vierundzwanzig neue Phasen, welche identifiziert und charakterisiert werden konnten. Ferner konnten von neun Phasen die Kristallstrukturen bestimmt werden (acht aus Röntgen-Einkristall- und eine aus Röntgen-Pulverdaten). Mit Hilfe dieser konnte ein Teil der Funktionalisierung von Lösungsmittelmolekülen in Pigment Red 53 aufgedeckt werden. Diverse Beziehungen pseudopolymorpher Formen zueinander konnten auf Basis der gewonnenen Erkenntnisse bestimmt werden [5]. Mit Hilfe der Ergebnisse aus den Untersuchungen zu Pigment Red 53 konnte mittels Modifizierung der bekannten Syntheseroute zu Pigment Red 53:2 die bekannte α-Phase erhalten werden. Weiterhin konnten neben zehn bekannten weitere fünfzehn neue Polymorphe identifiziert und weitestgehend charakterisiert werden. Die Kristallstrukturen von fünf bekannten und zwei neuen Phasen (sechs aus Röntgen-Einkristall- und eine aus Röntgen-Pulverdaten [6]) konnten bestimmt werden. Anhand der Ergebnisse aus den chemisch-physikalischen Charakterisierungen konnten Einzelbeziehungen zwischen den Phasen beobachtet werden. Die eigene Synthese von Pigment Red 57:1 resultierte in der bereits bekannten α-Phase. Ein Polymorphie-Screening an der α-Phase lieferte neben der bereits bekannten β-Phase elf neue Modifikationen. Schließlich konnte mit Hilfe der gesammelten Daten zur α-, β- und γ-Phase ein Zusammenhang zwischen De-/Rehydratation und dem damit einhergehenden Farbwechsel hergestellt und nachgewiesen werden [7]. Die bislang unbekannte Protonierung und Kristallstruktur von Nimustin-Hydrochlorid konnten erfolg-reich aus der Symbiose von Festkörper-NMR und Röntgen-Pulverdiffraktometrie des Handelsproduktes ermittelt werden [8]. Ebenso konnte die bislang unbekannte Kristallstruktur von 5′-Deoxy-5-fluorouridin konnte erfolgreich aus Röntgen-Pulverdaten des Handelsproduktes bestimmt werden [9]. Nach einem umfangreichen Polymorphie-Screening gelang es, Einkristalle von Tizanidin-Hydrochlorid zu erhalten und dessen Struktur aus Röntgen-Einkristalldaten zu bestimmen. Die bislang angenommene Tautomerie von Tizanidin im Festkörper und flüssiger Phase konnte mittels Röntgen-Einkristalldiffraktometrie und 1H-NMR korrigiert werden [10]. Während thermischer Untersuchungen wurden zwei bisher nicht beschriebene Polymorphe (ein Hochtemperatur- und ein Raumtemperaturpolymorph) gefunden. Schließlich konnte die Kristall-struktur des zweiten bei Raumtemperatur stabilen Polymorphs aus Röntgen-Pulverdaten bestimmt werden.
Es konnte die Kristallstruktur von 4,5,9,10-Tetramethoxypyren [11], eines neuen 2:1 Co-Kristalls aus Chinolin und Fumarsäure [12] und einer biradikalen Azoverbindung [13] aus Röntgen-Pulverdaten bestimmt werden. Neben diesen Verbindungen konnten aus analytischen und röntgenographischen Untersuchungen an ausgewählten Stereoisomeren von Inositol dreizehn neue Phasen erhalten werden. Zudem konnten mehrere Schmelzpunkte mittels DSC-Messungen korrigiert oder als Phasenübergänge oder Zersetzungs-punkte identifiziert werden. Acht Strukturen geordneter Phasen konnten aus Röntgen-Pulverdaten bestimmt werden. Zusätzlich konnten fünf der dreizehn Phasen als Rotatorphasen identifiziert und deren Elementarzelle ermittelt werden [14]. Auf Basis einer neuen Syntheseroute konnten ein Cobalt(II)- und ein Zink(II)-fumarat-Anhydrat, welche im Vergleich zu den bisher bekannten Hydraten besser wasser-löslich sind, erhalten werden. Diese Anhydrate konnten zur Kristallisation eingesetzt werden und lieferten alle bisher bekannten und zusätzlich drei neue Kristallphasen (zwei neue Cobalt(II)-fumarat-Hydrate und ein neues Zink(II)-fumarat-Hydrat). Die Kristallstrukturen der drei neuen Kristallphasen konnten aus Röntgen-Einkristalldaten bestimmt werden [15 und 16].
[1] S. L. Bekö, S. D. Thoms, J. Brüning, E. Alig, J. van de Streek, A. Lakatos, C. Glaubitz & M. U. Schmidt (2010), Z. Kristallogr. 225, 382–387; [2] S. L. Bekö, J. W. Bats & M. U. Schmidt (2012), Acta Cryst. C 68, o45–o50; [3] S. L. Bekö, C. Czech, M. A. Neumann & M. U. Schmidt. "Doubly substituted 2-ammonio-benzenesulfonates: Substituent influence on the packing pattern", eingereicht; [4] S. L. Bekö, J. W. Bats, E. Alig & M. U. Schmidt (2013), J. Chem. Cryst. 43, 655–663; [5] S. L. Bekö, E. Alig, J. W. Bats, M. Bolte & M. U. Schmidt. "Polymorphism of C.I. Pigment Red 53", eingereicht; [6] T. Gorelik, M. U. Schmidt, J. Brüning, S. Bekö & U. Kolb (2009), Cryst. Growth Des. 9, 3898–3903; [7] S. L. Bekö, S. M. Hammer & M. U. Schmidt (2012), Angew. Chem. Int. Ed. 51, 4735–4738 und Angew. Chem. 124, 4814–4818; [8] S. L. Bekö, D. Urmann, A. Lakatos, C. Glaubitz & M. U. Schmidt (2012), Acta Cryst. C 68, o144–o148; [9] S. L. Bekö, D. Urmann & M. U. Schmidt (2012), J. Chem. Cryst. 42, 933–940; [10] S. L. Bekö, S. D. Thoms, M. U. Schmidt & M. Bolte (2012), Acta Cryst. C 68, o28–o32; [11] M. Rudloff, S. L. Bekö, D. Chercka, R. Sachser, M. U. Schmidt, K. Müllen & M. Huth. "Structural and electronic properties oft he organic charge transfer system 4,5,9,10-tetramethoxypyrene - 7,7,8,8-tetracyanoquinodimethane", eingereicht; [12] S. L. Bekö, M. U. Schmidt & A. D. Bond (2012), CrystEngComm 14, 1967–1971; [13] S. L. Bekö, S. D. Thoms & M. U. Schmidt (2013), Acta Cryst. C 43, 1513–1515; [14] S. L. Bekö, E. Alig, M. U. Schmidt & J. van de Streek (2014), IUCrJ 1, 61–73; [15] S. L. Bekö, J. W. Bats & M. U. Schmidt (2009), Acta Cryst. C 65, m347–m351; [16] S. L. Bekö, J. W. Bats & M. U. Schmidt. "One-dimensional zinc(II) fumarate coordination polymers", akzeptiert.
The laser-driven acceleration of protons from thin foils irradiated by hollow high-intensity laser beams in the regime of target normal sheath acceleration is reported for the first time. The use of hollow beams aims at reducing the initial emission solid angle of the TNSA source, due to a flattening of the electron sheath at the target rear side. The experiments were conducted at the PHELIX laser facility at the GSI Helmholtzzentrum für Schwerionenforschung GmbH with laser intensities in the range from 10^18 to 10^20 W/cm^2. We observed an average reduction of the half opening angle by (3.07±0.42)° or (13.2±2)% when the targets have a thickness between 12 to 14 μm. In addition, the highest proton energies were achieved with the hollow laser beam in comparison to the typical Gaussian focal spot.
Fast nuclei are ionizing radiation which can cause deleterious effects to irradiated cells. The modelling of the interactions of such ions with matter and the related effects are very important to physics, radiobiology, medicine and space science and technology. A powerful method to study the interactions of ionizing radiation with biological systems was developed in the field of microdosimetry. Microdosimetry spectra characterize the energy deposition to objects of cellular size, i.e., a few micrometers.
In the present thesis the interaction of ions with tissue-like media was investigated using the Monte Carlo model for Heavy-Ion Therapy (MCHIT) developed at the Frankfurt Institute for Advanced Studies. MCHIT is a Geant4-based application intended to benchmark the physical models of Geant4 and investigate the physical properties of therapeutic ion beams. We have implemented new features in MCHIT in order to calculate microdosimetric quantities characterizing the radiation fields of accelerated nucleons and nuclei. The results of our Monte Carlo simulations were compared with recent experimental microdosimetry data.
In addition to microdosimetry calculations with MCHIT, we also investigated the biological properties of ion beams, e.g. their relative biological effectiveness (RBE), by means of the modified Microdosimetric-Kinetic model (MKM). The MKM uses microdosimetry spectra in describing cell response to radiation. MCHIT+MKM allowed us to study the physical and biological properties of ion beams. The main results of the thesis are as follows:
MCHIT is able to describe the spatial distribution of the physical dose in tissue-like media and microdosimetry spectra for ions with energies relevant to space research and ion-beam cancer therapy; MCHIT+MKM predicts a reduction of the biological effectiveness of ions propagating in extended medium due to nuclear fragmentation reactions; We predicted favourable biological dose-depth profiles for monoenergetic helium and lithium beams similar to the one for carbon beam. Well-adjusted biological dose distributions for H-1, He-4, C-12 and O-16 with a very flat spread-out Bragg peak (SOBP) plateau were calculated with MCHIT+MKM; MCHIT+MKM predicts less damage to healthy tissues in the entrance channel for SOBP He-4 and C-12 beams compared to H-1 and O-16 ones. No definitive advantages for oxygen ions with respect to carbon were found.
Biopharmazeutika sind heutzutage ein wichtiger Bestandteil des Arzneimittelmarktes. Ihr komplexer Aufbau und ihre Mikroheterogenität erfordern eine genaue strukturelle Charakterisierung auf verschiedenen Ebenen der Moleküle, wobei die Anwendung neuer Methoden von den entsprechenden Richtlinien durchaus erwünscht ist. Die Massenspektrometrie als Analysemethode hat sich in diesem Gebiet bereits fest etabliert. Verschiedenste massenspektrometrische Untersuchungen können an den intakten Biopharmazeutika sowie an größeren und kleineren Bruchstücken derselben durchgeführt werden. Trotzdem wird meist auf wenige, lange etablierte Protokolle zurückgegriffen, die häufig mit langwieriger Probenvorbereitung verbunden sind. Bei der Analyse der Glykosylierung wird immer noch die chromatographische Trennung mit anschließender Detektion durch UV- oder Fluoreszenzmessung bevorzugt.
In dieser Arbeit sollten die Möglichkeiten der Massenspektrometrie bei der Analyse von Biopharmazeutika genauer untersucht werden. Dazu gehört auch, den hohen Informationsgehalt der üblichen chromatographischen Auftrennung von Peptiden aus einem proteolytischen Verdau vollständig zu nutzen. Es wurde gezeigt, dass die manuelle Auswertung der Analyse zusätzliche Ergebnisse bringt, und dass gleichzeitig eine Analyse von posttranslationalen und prozessbedingten Modifikationen möglich ist. Zudem wurde der Verdau mit der Protease Trypsin auf das jeweilige Biopharmazeutikum und auf das Ziel der Analyse optimiert. Da mit Trypsin eine vollständige Sequenzabdeckung nicht erreichbar war, wurden zusätzlich verschiedene weniger spezifische Proteasen angewendet. Alle untersuchten weniger spezifischen Proteasen (Elastase, Chymotrypsin und Thermolysin) waren für eine solche Analyse gut geeignet. Die Komplementarität von MALDI- und ESI-MS-Analysen konnte durch ihre Kombination optimal ausgeschöpft werden. Zudem wurden weitere Methoden zur Erhöhung der Sequenzabdeckung wie die Derivatisierung der Peptide mit TMTzero vorgestellt.
Für die Analyse intakter Biopharmazeutika wurden neben der Größenausschlusschromatograph und gelelektrophoretischen Trennungen sowohl MALDI- als auch ESI-MS-Analysen verwendet. Die Trennung großer Proteinmoleküle in kleinere Untereinheiten erleichterte dabei die massenspektrometrische Analyse maßgeblich. Die Fragmentierung der Biopharmazeutika mittels MALDI-ISD war für die Bestimmung der Protein-N- und C-Termini sehr gut geeignet.
Die Analyse der Glykosylierung wurde an den freien N-Glykanen aus einem PNGaseF-Verdau sowie an Glykopeptiden aus einem Verdau mit Pronase durchgeführt. Die freien N-Glykane konnten zudem für die MALDI-MS-Analyse mit der MALDI-Matrix 3-Aminochinolin direkt auf dem Probenteller derivatisiert werden. Die Derivatisierung und Vermessung der N-Glykane wurde zunächst an verschiedenen Standardoligosacchariden, Humanmilcholigosacchariden und N-Glykanen aus Standardglykoproteinen optimiert. Durch die Fragmentierung der N-Glykane konnten diese sequenziert und isomere Strukturen unterschieden werden.
Bei einem Pronaseverdau wurden Proteine so weit verdaut, dass nur noch einzelne Aminosäuren bzw. Di- oder Tripeptide übrig blieben. Lediglich die Glykosylierungsstellen waren durch die voluminösen Glykanstrukturen vor dem Verdau geschützt und behielten eine kurze Peptidsequenz, die für eine Identifizierung der Glykosylierungsstelle ausreichend war. So konnten die N- und O-Glykopeptide direkt ohne Aufreinigung mittels MALDI-MS aus den Verdauansätzen analysiert werden, ohne dass nicht glykosylierte Peptide störten. Das Verdauprotokoll wurde zunächst an mehreren Standard-N- und -O-Glykoproteinen optimiert und anschließend auf die untersuchten Biopharmazeutika angewendet. N- und O-Glykopeptide konnten sogar nebeneinander analysiert werden. Die hohe Massengenauigkeit des verwendeten MALDI LTQ-Orbitrap Massenspektrometers ließ eine eindeutige Identifizierung der Glykopeptide mit Hilfe eines dafür entwickelten Programms zu. Weiterhin konnte die Identifizierung durch die Fragmentierung der Glykopeptide unterstützt werden.
Somit konnten in dieser Arbeit verschiedene massenspektrometrische Analysen von Biopharmazeutika neu entwickelt, optimiert oder vereinfacht werden. Dabei wurden für jede Strukturebene (intaktes Molekül, größere und kleinere Fragmente) sowohl Ansätze mit MALDI-MS als auch mit ESI-MS verfolgt. Einige Methoden, die in der Proteomforschung bereits Anwendung fanden, konnten erfolgreich auf Biopharmazeutika übertragen werden. Die Arbeit zeigt, dass die Massenspektrometrie ein großes Potential in der Analyse der Biopharmazeutika besitzt, das aber bisher noch nicht vollständig ausgeschöpft wird. Durch die Wahl der richtigen Methoden und der geeigneten Instrumentierung wird eine vollständige strukturelle Charakterisierung ermöglicht.
HIV vaccine preclinical testing is difficult because HIV’s only relevant hosts are humans and no correlates of protection are known. To this end, we are working on the humanization of different mouse strains with human peripheral blood mononuclear cells (PBMCs) as well as human hematopoietic stem cells (HSC) to generate a useful small animal model.
We generated immune deficient mice (NOD Scid IL2gc -/- /NOD Rag1-/- IL2gc -/-) expressing human MHC class II (HLA-DQ8) on a mouse class II deficient background (Ab-/-). Here, the human HLA-DQ8 should interact with the matching T cell receptors of transferred matching human PBMCs and therefore could support the functionality of the transferred human CD4+ cells in the mice.
Mice that were adoptively transferred with human HLA-DQ8 PBMCs only showed engraftment of CD3+ T cells. Surprisingly, the presence of HLA class II did not significantly change the repopulation rates in the mice. Also, the presence of HLA class II did not advance B cell engraftment, such that humoral immune responses were undetectable. However, the overall survival of DQ8-expressing mice was significantly prolonged, compared to mice expressing mouse MHC class II molecules, and correlated with an increased time span until onset of GvHD.
To avoid GVHD and to increase and maintain the level of human cell reconstitution over a long period of time, the same mouse strains were reconstituted with human HSC. Compared to PBMC-repopulated mice, HSC-reconstituted mice develop almost all subpopulations of the human immune system detectable at week 12 after HSC transfer. These mice developed adaptive immune responses after Tetanus Toxoide (TT) immunizations. In addition, we are testing the susceptibility of these humanized mice to different HIV strains with a detailed look at immune responses.
Die Arbeit befasst sich auf dem Weg einer qualitativ empirischen Studie mit dem Thema „informelles Lernen“. Im Mittelpunkt steht die Erforschung der unterschiedlichen Phänomene informellen Lernens – der Lerninhalte, -formen und -modalitäten sowie die Bedeutung des Kontextes für diese Lernform. Darüber hinaus wird auf einer theoretischen Ebene eine Auseinandersetzung mit dem Diskurs um das informelle Lernen angestrebt. Neben einem Literaturbericht – dessen Ergebnis die theoretische wie empirische Unterbelichtung des informellen Lernens ist – wird nach einem systematischen Verständnis vom Lernen in informellen Kontexten gesucht. Im Fokus der Arbeit liegt aber die empirische Befassung mit dem Phänomen des informellen Lernens. Zu diesem Zweck wurden – verortet im Kontext eines kommunalen Wildtiermanagementprojektes – zweistufige Interviews sowie teilnehmende Beobachtungen durchgeführt und analysiert. Auf Basis dieser empirischen Daten konnten unterschiedliche Lernergebnisse und -formen informellen Lernens sowie unterschiedliche lernrelevante (Kontext-)Faktoren rekonstruiert werden. Darüber wurden spezifische Merkmale und Besonderheiten des Lernens in informellen Kontexten erarbeitet.
During the last decade of the 20th century, the field of mass spectrometry has seen a revolutionary change in its application and scope. The introduction of soft ionization methods for the analysis of biological molecules has expanded the area of mass spectrometry from its early roots in the analysis of inorganic and organic species into the fields of biology and medicine.
Today, the use of the mass spectrometry is extended to a wide range of applications in biotechnology and pharmaceutical industry, in geological, environmental and clinical research. In biochemistry, the principles of mass spectrometry are, however, broadly applicable in accurate molecular weight determination, reaction monitoring, amino acid sequencing, oligonucleotide sequencing and protein structure.
In order to carry out their biological activities, proteins interact most often to each other and form transient or stable complexes. In addition, some proteins specifically interact also with other proteins or with non-protein molecules, such as DNA, RNA or metabolites, these interactions being critical for their function. Hence, defining the composition of protein complexes, as well as understanding how protein complexes are assembled and regulated yield invaluable insights into protein function. Coupled with an isolation technique to purify a specific protein complex of interest, mass spectrometry can rapidly and reliably identify the components of complexes. In addition, quantitative MS techniques offer the possibility of studying dynamically regulated interactions....
Terrestrial climate and ecosystem evolution during ‘Greenhouse Earth’ phases of the early Paleogene remain incompletely known. Particularly, paleobotanical records from high southern latitudes are giving only limited insights into the Paleocene and early Eocene vegetation of the region. Hence, data from continuous well-calibrated sequences are required to make progress with the reconstruction of terrestrial climate and ecosystem dynamics from the southern latitudes during the early Paleogene.
In order to elucidate the terrestrial conditions from the high southern latitudes during the early Paleogene, terrestrial palynology was applied in the present study to two well-dated deep-marine sediment cores located at the Australo-Antarctic region: (i) IODP Site U1356 (Wilkes Land margin, East Antarctica) and (ii) ODP Site 1172 (East Tasman Plateau, southwest Pacific Ocean). The studied sequence from IODP Site U1356 comprises mid-shelfal sediments from the early to middle Eocene (53.9 – 46 million years ago [Ma]). For the ODP Site 1172, the studied succession is characterized by sediments deposited in shallow marine environments of the middle Paleocene to the early Eocene (60.7 – 54.2 Ma).
Based on the obtained pollen and spores (sporomorphs) results from the studied sequences of Site U1356 and Site 1172, this study aims to: (1) decipher the terrestrial climate conditions along the Australo-Antarctic region from the middle Paleocene to the middle Eocene; (2) evaluate the structure, diversity and compositional patterns of forests that throve in the Australo-Antarctic region during the early Paleogene; (3) understand the response of forests from the high southern latitudes to the climate dynamics from the early Paleogene; (4) establish a connection between the generated terrestrial palynomorph data and published Sea Surface Temperatures (SSTs) from the same cores.
To decipher the terrestrial climatic conditions on the Australo-Antarctic region, this study relies on the nearest living relative (NLR) concept that assumes that fossil taxa have similar climate requirements as their modern counterparts. This approach was applied to the sporomorph results of Site U1356 and Site 1172, following mainly the bioclimatic analysis. With regard to the structure and diversity patterns of the vegetation from the same region, the present study presents combined qualitative (i.e., reconstruction of the vegetation based mainly on the habitats of the known living relatives) and quantitative (i.e., application of ordination techniques, rarefaction and diversity indices) analyses of the fossil sporomorphs results.
The overall results from the paleoclimatic and vegetation reconstruction approaches applied in the present study, indicate that temperate and paratropical forests during the early Paleogene throve under different climatic conditions on the Wilkes Land margin and on Tasmania, at paleolatitudes of ∼70°S and ∼65°S, respectively.
Specifically, the sporomorph results from Site U1356, suggest that a highly diverse forest similar to present-day forests from New Caledonia was thriving on Antarctica during the early Eocene (53.9 – 51.9 Ma). These forests were characterized by the presence of termophilous taxa that are restricted today to tropical and subtropical settings, notably Bombacoideae, Strasburgeria, Beauprea, Spathiphyllum, Anacolosa and Lygodium. In combination with MBT/CBT paleotemperature results, they provide strong evidence for near-tropical warmth at least in the coastal lowlands along the Wilkes Land margin. The coeval presence of frost tolerant taxa such as Nothofagus, Araucariaceae and Podocarpaceae during the early Eocene on the same record suggests that paratropical forests were thriving along the Wilkes Land margin. Due to the presence of this kind of vegetation, it is possible to suggest that forests in this region were subject to a climatic gradient related to differences in elevation and/or the proximity to the coastline.
By the middle Eocene, the paratropical forests that characterized the vegetation of the early Eocene on the Wilkes Land margin were replaced by low diversity temperate forests dominated by Nothofagus, and similar to present-day cool-temperate forests from New Zealand. The dominance of these forests and the absence of thermophilous elements together with the lower temperatures suggested by the MBT/CBT and the sporomorph-based temperatures indicate consistently cooler conditions during this time interval.
With regard to the sporomorph results of Site 1172, this study suggests that three vegetation types were thriving on Tasmania from the middle Paleocene to the early Eocene under different climatic conditions. During the middle to late Paleocene, warm-temperate forests dominated by Podocarpaceae and Araucariaceae were the prevailing vegetation on Tasmania. The dominance of these forests was interrupted by the transient predominance of cool-temperate forests dominated by Nothofagus and Araucariaceae across the middle/late Paleocene transition interval (~59.5 to ~59.0 Ma). This cool-temperate forest was characterized by a lack of frost-sensitive elements (i.e., palms and cycads) indicating cooler conditions with harsher winters on Tasmania during this time interval. By the early Eocene, and linked with the Paleocene Eocene Thermal Maximum (PETM), Paleocene temperate forests dominated by gymnosperms were replaced by paratropical rainforests with the remarkable presence of the tropical mangrove palm Nypa during the PETM and the earliest Eocene. The overall results from Site U1356 and Site 1172, provide a new assessment of the terrestrial climatic conditions in the Australo-Antarctic region for validating climate models and understanding the response of high-latitude terrestrial ecosystems to the climate dynamics of the early Paleogene on southern latitudes.
The climatic conditions in the higher latitudes during the early Paleogene were further unravelled by comparing the obtained terrestrial and marine results. The integration of the obtained sporomorph data with previously published TEX86-based SSTs from Site 1172 documents that the vegetation dynamics were closely linked with the temperature evolution from the Australo-Antarctic region. Moreover, the comparison of TEX86-based SSTs and sporomorph-based climatic estimations from Site 1172 suggests a warm-season bias of both calibrations of TEX86 (i.e., TEX86Hand TEX86H), when this proxy is applied to high southern latitudes records of the early Paleogene.