Refine
Year of publication
- 2014 (168) (remove)
Document Type
- Doctoral Thesis (168) (remove)
Has Fulltext
- yes (168)
Is part of the Bibliography
- no (168)
Keywords
- Allergie (2)
- Beschleuniger (2)
- Nukleosynthese (2)
- Pierre Bourdieu (2)
- Radio Frequenz Quadrupol (2)
- 1,4-dioxane (1)
- ADHD (1)
- Ageing (1)
- Altgermanistik (1)
- Arthur Schnitzler (1)
Institute
- Physik (28)
- Biochemie und Chemie (26)
- Biowissenschaften (16)
- Medizin (15)
- Pharmazie (15)
- Geowissenschaften (9)
- Informatik (9)
- Neuere Philologien (8)
- Sportwissenschaften (7)
- Kulturwissenschaften (5)
Construction and commissioning of a setup to study ageing phenomena in high rate gas detectors
(2014)
In high-rate heavy-ion experiments, gaseous detectors encounter big challenges in terms of degradation of their performance due to a phenomenon dubbed ageing. In this thesis, a setup for high precision ageing studies has been constructed and commissioned at the GSI detector laboratory. The main objective is the study of ageing phenomena evoked by materials used to build gaseous detectors for the Compressed Baryonic Matter (CBM) experiment at the future Facility for Antiproton and Ion Research (FAIR).
The precision of the measurement, e.g., of the gain of a gaseous detector, is a key element in ageing studies: it allows to perform the measurement at realistic rates in an acceptable time span. It is well known the accelerating ageing employing high intensity sources might produce misleading results. The primary objective is to build an apparatus which allows very accurate measurements and is thus sensitive to minute degradations in detector performance. The construction and commissioning of the
setup has been carried out in two steps. During the first step of this work, a simpler setup which already existed in the detector laboratory of GSI had been utilised to define all conditions related to ageing studies. The outcome of these studies defined the properties and characteristics that must be met to build and operate a new, sophisticated and precise setup. The already existing setup consisted of two identical Multi Wire Proportional Chambers (MWPCs), a gas mixing station, an 55Fe source, an x-ray generator, an outgassing box and stainless steel tubing. In a first step, the gain and electric field configuration of the MWPCs were simulated by a combination of a gas simulation (Magboltz) and electric field simulation program (Garfield). The performance and operating conditions of the chambers have been thoroughly characterised before utilising them in first preparatory ageing test. The main diagnostic parameter in ageing studies is the detector gain, thus it is mandatory for precise ageing studies to minimise the systematic and statistical variation of the pressure and temperature corrected gain. To achieve the required accuracy, several improvements of the chamber design and the gas system have been implemented. In addition, the temperature measurement has been optimised. During the preparatory tests, several ageing studies have been carried out. The ageing effect of seven materials and gases have been carried out during these tests: RTV-3145, Ar/CO2 gas, Durostone flushed with Ar/Isobutane gas, Vetronit G11, Vetronit G11 contaminated with Micro 3000 and Gerband 705. The results of these studies went into the design of the new sophisticated ageing setup. For example some tests revealed that there was, even after cleaning, a certain level of contamination with "ageing agents" in the existing setup, which made it imperative to ensure a very high level cleanness of all components during the construction of the setup. The curing period of some testing samples like glues or the gas flow rate were found to be very important factors that must be taken into account to obtain comparable results. Very important changes in the chamber design have been made, i.e., the aluminium-Kapton cathodes used in MWPCs have been replaced with multi-wire planes and the fibreglass housing of the chamber has been changed to metal. The second step started with building the new setup which was designed based on the findings from the first step. The new ageing setup consists of three MWPCs, two moving platforms, an 55Fe source, a copper-anode x-ray generator, two outgassing boxes, both flexible and rigid stainless steel tubes. Before fabrication of the chambers, simulations of their electric field and the gain have been done using Magboltz and Garfield programs. After that, the chambers were installed and tested. A 0.3% peak-to-peak residual variation of the corrected gain has been achieved. Finally, the complete setup has been operated with full functionality in no-ageing conditions during one week. This test revealed very stable gain in all three chambers. After that two materials (Gerban 705 and RTV-3145) have been inserted in the two outgassing boxes and tested. They revealed an ageing rate of about 0.3%/mC/cm and 3%/mC/cm respectively. The final test proves the stability and accuracy of the ageing measurements carried out with the ageing setup at the detector laboratory at GSI which is ready to conduct the envisaged systematic ageing studies.
Polypharmakologie hat in den letzten Jahren mehr und mehr an Bedeutung in der pharmazeutischen Forschung gewonnen und könnte in Zukunft zu einem Umdenken in der Entwicklung neuer Wirkstoffe führen. Das wachsende Verständnis für biologische Zusammenhänge, im speziellen für die starke Vernetzung zwischen verschiedenen Signalwegen oder Gewebearten, und die daran beteiligten Proteine, könnten zu gänzlich neuen Strategien führen. Beispiele aus dem Bereich der Onkologie und der Entwicklung von Neuroleptika haben bereits gezeigt, dass eine Intervention an mehreren Stellen eines solchen komplexen Netzwerkes zu wirksameren und gleichzeitig sichereren Wirkstoffen führen kann. Erkenntnisse aus der Systembiologie und die retrospektive Analyse bereits zugelassener Wirkstoffe machen deutlich, dass viele erfolgreiche Wirkstoffe nur aufgrund ihres polypharmakologischen Wirkprofils so effektiv sind – wenngleich dies bei Ihrer Entwicklung oftmals nicht beabsichtigt war.
Das rationale Design sogenannter „multitarget Wirkstoffe“ stellt bis heute eine große Herausforderung dar. Aus Sicht eines medizinischen Chemikers bedeutet es die Verknüpfung zweier, auf unterschiedliche Targets aktiver, Liganden zu einem neuen Wirkstoff, ohne einen signifikanten Aktivitätsverlust auf die einzelnen Targets herbeizuführen. Ein naheliegender Ansatz zur Verbindung zweier Liganden ist die Verknüpfung der Moleküle über einen flexiblen Linker. Dieser Ansatz kann zwar in vitro zu sehr potenten Wirkstoffen führen, birgt jedoch pharmakokinetische Nachteile, bedingt durch das hohe Molekulargewicht, die sich oft erst in vivo zeigen. Die Schwierigkeit besteht also zum einen in der Aufrechterhaltung der individuellen Aktivität auf das jeweilige Target und zum anderen im Erreichen einer guten Balance zwischen Aktivität und Komplexität des Liganden. Damit soll ausreichend Raum für spätere Optimierung von pharmakokinetischen und pharmakodynamischen Eigenschaften gewährleistet werden. Bisher wurden nur wenige Computer-gestützte Ansätze entwickelt um diese und ähnliche Fragestellungen zu bearbeiten. Aus diesem Grund ist die Entwicklung neuer in silico Verfahren zur Identifzierung von multitarget Liganden ein Kernthema dieser Arbeit. Die Implementierung eines Fragment-basierten Ansatzes hält die Komplexität der Liganden möglichst gering und bietet genügend Raum für eine anschließende, multi-dimensionale Optimierung an zwei oder mehreren Targets.
In der ersten Studie wurde eine Pharmakophor-basierte Strategie verfolgt. Die Repräsentation eines Liganden durch ein Pharmakophormodell stellt eine abstrakte dreidimensionale Darstellung der für die biologische Aktivität relevanten Strukturmerkmale dar. Diese Abstraktion vereinfacht den Vergleich zweier Verbindungen und erlaubt gleichzeitig Spielraum für chemische Variabilität. Bei diesem Ansatz wurden Pharmakophormodelle, jeweils für eine Vielzahl aktiver Liganden zweier Targets, erzeugt und paarweise miteinander verglichen. Sobald zwei Pharmakophormodelle eine genügend große Anzahl an Pharmakophorpunkten in räumlich ähnlicher Orientierung teilen, stellt dieses gemeinsame Pharmakophor die Basis eines potentiellen multitarget Liganden dar. In der beschriebenen Studie wurde dieses Verfahren anhand von aktiven Liganden der löslichen Epoxid Hydrolase (sEH) und 5-Lipoxygenase (5-LO) evaluiert. Die auf dieser Grundlage identifizierten multitarget Pharmakophormodelle wurden zum anschließenden Screening einer Fragement-Datenbank verwendet und führten zu 9 aktiven Liganden für sEH und 5-LO. Diese Liganden besitzen chemische Grundgerüste (Scaffolds), die in der Literatur bisher noch nicht als aktive sEH- oder 5-LO-Liganden beschrieben wurden und somit eine ideale Grundlage für die Entwicklung neuer Wirkstoffe darstellen. Für eine der gefundenen Verbindungen, basierend auf einem Benzimidazol-Gerüst, wurden Aktivitäten im niedrig mikromolaren Bereich für beide Targets bestimmt. Diese Verbindung und weitere Derivate werden zu diesem Zeitpunkt weiter charakterisiert um eine erste Struktur-Aktivitäts-Beziehung aufzustellen und die Eignung dieser Substanzklasse als potentielle Leitstruktur für neue, duale sEH/5-LO Liganden zu überprüfen.
Parallel dazu wurde eine Substruktur-basierte Strategie verfolgt um Rückschlüsse auf jene Strukturmerkmale zu ziehen, die für die Aktivität auf dem jeweiligen Target verantwortlich sein könnten. Dazu wurden in einem ersten Schritt alle aktiven Liganden zweier Targets auf ihre möglichst maximalen gemeinsamen Substrukturen reduziert. Für jedes Target wird damit ein Set von Substrukturen generiert, welches die für die Bindung an das jeweilige Target charakteristische Strukturmerkmale enthält. Diese Substrukturen, repräsentieren den chemischen Raum des jeweiligen Targets und stellten die Trainingsdaten für den entwickelten multiSOM Ansatz dar. Dieser Ansatz basiert auf dem automatisierten Vergleich von selbst-organisierenden Karten und hebt Gemeinsamkeiten zwischen diesen Substruktursets in einer leicht zu interpretierenden, visuellen Form hervor. Dies erlaubt die Identifizierung von gemeinsamen Substrukturen aus beiden verwendeten Substruktursets, welche potentielle duale Strukturelemente darstellen.
Die Validierung dieses Ansatzes erfolgte erneut auf Basis bekannter 5-LO- und sEH-Liganden. Unter 24 ausgewählten Verbindungen konnten neun Fragmente identifiziert werden, die auf einem der beiden Targets und 5 Fragmente, die auf beiden Targets im niedrig mikromolaren Bereich inhibierend wirken. Einer dieser dualen Fragmente wurden anschließend als Basis für eine Substruktursuche in einer Inhouse Datenbank verwendet. Die daraus resultierende Verbindung, die einen Teil des ursprünglichen Fragments beinhaltet, wirkt sowohl auf sEH als auch 5-LO in nanomolaren Konzentrationen inhibierend. Auch diese Verbindung wird zu diesem Zeitpunkt weiter charakterisiert und stellt eine vielversprechende Basis als Leitstruktur neuer dualer sEH/5-LO-Liganden dar.
Zusammenfassend lässt sich sagen, dass die vorgestellten Methoden neue Möglichkeiten bieten, das rationale Design von multitarget Liganden zu unterstützen. Die Pharmakophor-basierte Methode kann besonders dann von Vorteil sein, wenn bereits Strukturinformationen für beide Targets bzw. die bioaktiven Konformationen der Liganden vorliegen. Für einen ausschließlichen Liganden-basierten Ansatz stellt die Verwendung der MultiSOM, und damit die Identifizierung gemeinsamer Strukturelemente der Liganden, die bessere Methode dar.
Im zweiten Teil dieser Arbeit werden Studien zur Identifizierung neuer Farnesoid-X-Rezeptor (FXR) Partialagonisten beschrieben. Auch in diesem Fall wurden zwei unterschiedliche Strategien verfolgt. Da FXR eine starke strukturelle Anpassung abhängig vom gebundenen Liganden aufweist („induced fit“), sind rein strukturbasierte virtuelle Screening-Methoden nur eingeschränkt einsetzbar. Aus diesem Grund sollte zunächst ein Liganden-basierter Drug Repurposing Ansatz verfolgt werden, bei dem bereits zugelassene Wirkstoffe mit potentiell FXR-modulierenden Eigenschaften identifiziert werden sollten. Der Vorteil des Drug Repurposing besteht darin, dass die betrachteten Wirkstoffe bereits intensiv hinsichtlich Sicherheit und Bioverfügbarkeit untersucht wurden. Somit kann man sich bei der Entwicklung verstärkt auf die biologische Aktivität auf das neue Target konzentrieren.
Erneut wurden selbstorganiserende Karten (SOMs) verwendet, um zugelassene Wirkstoffe mit FXR-Aktivität zu identifizieren. Trainiert wurde die SOM auf einem Datensatz bestehend aus bekannten FXR-Agonisten zum einen und der DrugBank Datenbank mit zugelassen Wirkstoffen zum anderen. Die Eigenschaft der SOM Verbindungen mit ähnlicher biologischer Aktivität in räumlicher Nähe auf der Karte zu clustern führte zu einer Anhäufung an bekannten FXR-Agonisten auf einigen wenigen Neuronen. Auf solchen sogenannten Aktivitätsinseln wurden zusätzlich auch zugelassene Wirkstoffe platziert, wenn ihre Ähnlichkeit zu den FXR-Agonisten ausreichend hoch war. Die auf den Aktivitätsinseln angesiedelten Wirkstoffe wurden anschließend bestellt und hinsichtlich ihrer FXR-Aktivität in einem Transaktivierungs-Assay untersucht. Unter den bestellten Verbindungen konnten sechs Liganden mit einer signifikanten relativen FXR-Aktivierung identifiziert werden. Weitere Hinweise auf eine mögliche FXR-Aktivierung der Verbindungen gaben in der Literatur beschriebene Nebeneffekte, die mit einer FXR-Aktivierung in Zusammenhang stehen könnten. Die potentenste Verbindung, der zugelassenen Tyrosinkinase-Inhibitor Imatinib, wurde zusätzlich in Bezug auf FXR-basierte SHP mRNS Induktion untersucht. In qPCR-Experimenten konnte dabei eine mit GW4064 vergleichbare Induktion in HepG2 Zellen gezeigt werden. Diese Ergebnisse untermauern die aus der Literatur gewonnen Vermutung, dass Imatinib FXR-modulierende Eigenschaften besitzt und somit eine interessante Grundlage für die Entwicklung neuer FXR-Partialagonisten darstellt. Zu diesem Zeitpunkt werden weitere Imatinib-Derivate synthetisiert und diese Struktur als mögliche Leitstruktur charakterisiert.
In einer zweiten Studie wurde eine Kombination aus Liganden- und Struktur-basierten Ansatz verfolgt. Dabei wurden sämtliche Struktur-Informationen aus publizierten FXR-Kristallstrukturen und den darin kokristallisierten Liganden gebündelt, um die Auswirkungen des zu Beginn erwähnten induced-fit Effekts zu minimieren. Auf Basis der ko-kristallisierten Liganden wurden zunächst zwei Konsensus-Pharmakophormodelle erstellt. Diese Modelle wurden in einem anschließenden Schritt jeweils mit einem Konsensus-Pharmakophormodell, das mit Hilfe von Protein-Ligand-Interaktions-Fingerprints (PLIF) aus den korrespondieren Kristallstrukturen abgeleitet wurde, überlagert und kombiniert. Diese kombinierten Modelle vereinten sowohl Informationen der strukturellen Gemeinsamkeiten der Liganden als auch gemeinsame, relevante Interaktionspunkte zwischen Ligand und Rezeptor aus den Kristallstrukturen. Das Pharmakophor-Screening mit anschließender Docking Analyse führte zu 42 getesteten Verbindungen, von denen 12 Strukturen eine signifikante relative FXR-Aktivierung zeigten. Darunter konnte ein Partial-Agonist mit einem EC50 von 480 nM bei einer maximalen Aktivierung von ca. 14% im Vergleich zur Referenz GW4064 identifiziert werden. Auch diese Verbindung wird zum aktuellen Zeitpunkt weiter charakterisiert und könnte in Zukunft als Leitstruktur für neue FXR-Partialagonisten dienen.
In beiden Studien konnten neue FXR-Agonisten mit bisher noch nicht beschriebenen Scaffolds identifiziert werden. Es konnte gezeigt werden, dass die Verwendung bereits zugelassener Wirkstoffe für neue Indikationen eine attraktive Quelle für neue Leitstrukturen darstellen kann und im Zuge dessen bisher ungeklärte Nebeneffekte bekannter Wirkstoffe aufgeklärt werden können.
Abschließend lässt sich festhalten, dass selbstorganisierende Karten eine universelle Methode zur Erkennung und Analyse von polypharmakologischen Zusammenhängen darstellen. Des Weiteren lassen sich mit ihrer Hilfe chemische Räume repräsentieren und durch den in dieser Arbeit entwickelten MultiSOM-Ansatz direkt vergleichen. Dies ermöglicht auf intuitive und effiziente Weise die Identifizierung von überlappenden chemischen Räumen und somit möglicher polypharmakologischer Zusammenhänge.
Batten disease refers to neuronal ceroid lipofuscinoses (NCLs), which are inherited lysosomal storage diseases with diverse ages of onset and cause progressive neurodegeneration. The most common NCL is Juvenile NCL (JNCL), which begins in early childhood and is characterized by lysosomal accumulation of subunit c of the mitochondrial ATP synthase (subunit c). JNCL is caused by mutations in the gene CLN3. This gene encodes the CLN3 protein, a transmembrane protein of unknown structure. Localization of CLN3 is ambiguous, and its exact cellular function is not known. Thereby, it is unclear what mechanisms lead to neurodegeneration in JNCL. Models of JNCL present disturbed membrane bound organelles and cytoskeleton as well as impaired autophagy and lysosomal function. The JNCL gene defect that most patients harbor is deletion of the exons 7 and 8 of CLN3. In the Cln3Δex7/8/Δex7/8 mouse model of JNCL, this deletion has been introduced to the mouse Cln3 gene.
The actin cytoskeleton consists of filaments formed through polymerization of actin and provides a framework which defines cellular morphology and also facilitates cell motility, cytokinesis, and cell surface remodeling. Rho GTPases are signaling proteins which regulate the assembly and dynamics of the actin cytoskeleton and play an important role in neuronal morphology. Rho GTPases need to be membrane-anchored in order to become active and initiate a signaling cascade. Their membrane anchorage is achieved through their geranylgeranyl tails, which they acquire through prenylation. Protein prenylation refers to the attachment of a geranylgeranyl or farnesyl group to the C-terminus of a protein. The enzyme geranylgeranyl transferase (GGTase) catalyzes geranylgeranylation, whereas geranylgeranyl pyrophosphate (GGPP) is the donor of the geranylgeranyl group. Cells produce GGPP as well as cholesterol and other lipids through the mevalonate pathway (MVA pathway).
The aim of this study was to analyze how the JNCL gene defect affects cellular morphology, especially the actin cytoskeleton and Rho GTPases, and the MVA pathway which is connected with Rho GTPase activation. These important cellular components play crucial roles in neurons and are implicated in other neurodegenerative diseases, but have received little attention in JNCL. The immortalized CbCln3Δex7/8/Δex7/8 cerebellar precursor cell line from Cln3Δex7/8/Δex7/8 mice was used for the experiments and provides a genetically accurate, neuronal cell model of JNCL. CbCln3Δex7/8/Δex7/8 cells present subunit c accumulation only when aged at confluency, but sub-confluent cells display other phenotypes. The experiments of this study were performed both with confluency-aged and sub-confluent cells. Filamentous actin was visualized, and protein levels as well as membrane localization of several small Rho GTPases was analyzed biochemically. Also the protein levels of GGTase and the key enzymes of the mevalonate pathway were determined.
Staining pattern of filamentous actin was disturbed in confluency-aged CbCln3Δex7/8/Δex7/8 cells. Additionally it was found out that these cells did not grow to wild-type size and exhibited an elongated peroxisomal morphology. Rho GTPases had reduced total levels and showed a tendency of decreased membrane localization. Levels of GGTase and the MVA pathway enzymes were altered. Results of sub-confluent CbCln3Δex7/8/Δex7/8 cells were similar with the exception of HMG-CoA reductase, which is the rate-limiting enzyme of the MVA pathway: while its level in confluency-aged CbCln3Δex7/8/Δex7/8 cells was increased, at sub-confluency it showed a reduced level. Also, in contrast with the confluency-aged cells, Rho GTPases presented a tendency of increased membrane localization.
The results of this study reveal that the accurate JNCL gene defect alters cellular morphology and the activity of the MVA pathway in neuronal cells. Small cell size and disrupted architecture of the actin cytoskeleton are confirmed as neuronal JNCL phenotypes, and the peroxisome is introduced as a novel cellular component affected in JNCL. Through defects in endocytosis, autophagy, lysosomal and mitochondrial function, and cytoskeleton, the JNCL gene defect may prevent cells from growing to wild-type size. The JNCL gene defect may attenuate the MVA pathway via mitochondrial dysfunction and/or upregulation of degradative processes. Attenuation of the MVA pathway may contribute to impaired membrane rafts, which are an established phenotype of JNCL cells. As indicated by reduced GGTase level and supported by downregulation of lipid production through the MVA pathway, the JNCL gene defect might also decrease prenylation of proteins.
This thesis is structured into 7 chapters:
• Chapter 2 gives an overview of the ultrashort high intensity laser interaction with matter. The laser interaction with an induced plasma is described, starting from the kinematics of single electron motion, followed by collective electron effects and the ponderamotive motion in the laser focus and the plasma transparency for the laser beam. The three different mechanisms prepared to accelerate and propagate electrons through matter are discussed. The following indirect acceleration of protons is explained by the Target Normal Sheath Acceleration (TNSA) mechanism. Finally some possible applications of laser accelerated protons are explained briefly.
• Chapter 3 deals with the modeling of geometry and field mapping of magnetic lens. Initial proton and electron distributions, fitted to PHELIX measured data are generated, a brief description of employed codes and used techniques in simulation is given, and the aberrations at the solenoid focal spot is studied.
• Chapter 4 presents a simulation study for suggested corrections to optimize the proton beam as a later beam source. Two tools have been employed in these suggested corrections, an aperture placed at the solenoid focal spot as energy selection tool, and a scattering foil placed in the proton beam to smooth the radial energy beam profile correlation at the focal spot due to chromatic aberrations. Another suggested correction has been investigated, to optimize the beam radius at the focal spot by lens geometry controlling.
• Chapter 5 presents a simulation study for the de-neutralization problem in TNSA caused by the fringing fields of pulsed magnetic solenoid and quadrupole. In this simulation, we followed an electrostatic model, wherethe evolution of both, self and mutual fields through the pulsed magnetic solenoid could be found, which is not the case in the quadrupole and only the growth of self fields could be found. The field mapping of magnetic elements is generated by the Matlab program, while the TraceWin code is employed to study the tracking through magnetic elements.
• Chapter 6 describes the PHELIX laser parameters at GSI with chirp pulse amplification technique (CPA), and Gafchromic Radiochromic film RCF) as a spatial energy resolver film detector. The results of experiments with laser proton acceleration, which were performed in two experimental areas at GSI (Z6 area and PHELIX Laser Hall (PLH)), are presented in section 6.3.
• Chapter 7 includes the main results of this work, conclusions and gives a perspective for future experimental activities.
The Late Cretaceous is known to be mostly affected by warm periods interrupted temporarily by a number of cooling events. The reconstruction of the paleoclimatic conditions during a period of high concentration of CO2 in the atmosphere is of great importance for the creation of future climate models. We applied the recently developed method reconstructing the SST from the TEX86 (TetraEther indeX of tetraethers consisting of 86 carbon atoms).
The sample material used for the present study was obtained from the tropical Late Cretaceous southern Tethys upwelling system (Negev/Israel), lasting from the Late Santonian to the Early Maastrichtian (~ 85 to 68 Ma). On the core samples from the Shefela basin, representing the outer belt of the upwelling system and the outcrop profile from the open mine Mishor Rotem (Efe Syncline), representing the inner belt, various bulk geochemical and biomarker studies were performed in this thesis.
Derived from TEX86 data, a significant long-term SST cooling trend from 36.0 to 29.3 °C is recognized during the Late Santonian and the Early Campanian in the southern Tethys margin. This is consistent with the opening and deepening of the Equatorial Atlantic Gateway (EAG) and the intrusion of cooler deep water from the southern Atlantic Ocean influencing the global SSTs and also the Tethys Ocean. Furthermore, the cooler near shore SST usually found in modern upwelling systems could be verified in case of the ancient upwelling system investigated in the present study. The calculated mean SST in the inner belt (27.7 °C) represented in the Efe Syncline was 1.5 °C cooler in comparison to the more seaward located outer belt (Shefela basin).
Moreover, geochemical and biomarker analyses were used to identify both the accumulation of high amounts of phosphate in the PM and good preservation of organic matter (OM) in the lower part of the OSM section. Total organic carbon (TOC) contents are highly variable over the whole profile reaching from 0.6 % in the MM, to 24.5 % in the OSM. Total iron (TFe) varies from 0.1 % in the PM to 3.3 % in the OSM and total sulfur (TS) varies between 0.1 % in the MM and 3.4 % in the OSM. Different correlations of TS, TOC and TFe were used to identify the conditions during the deposition of the different facies types. Natural sulfurization was found to play a key role in the preservation of the OM particularly in the lower part of the OSM. Samples from the OSM and the PM were deposited under dysoxic to anoxic conditions and iron limitation lasted during the deposition of the OSM and the PM, which effected the incorporation of sulfur into OM.
Phosphorus is highly accumulated in the sediments of the PM with a mean proportion of 11.5 % total phosphorus (TP), which is drastically reduced to a mean value of 0.9 % in the OSM and the MM. From the correlation of the bulk geochemical parameters TOC/TOCOR ratio and TP a major contribution of sulfate reducing bacteria to the phosphate deposition is concluded. This interrelation has previously been investigated in recent coastal upwelling systems off Peru, Chile, California and Namibia. This was further supported by the analysis of branched and monounsaturated fatty acids indicating the occurrence of sulfate reducing and sulfide oxidizing bacteria during the deposition.
According to the results from the analysis of n-alkanes and C27- to C29-steranes up to 95 % of the OM was of marine origin.
Organic sulfur compounds (OSC) were a major compound class in the aromatic hydrocarbon fraction and n-Alkyl and isoprenoid thiophenes were the most abundant, with highest amounts found for 2-methyl-5-tridecyl-thiophene (28 µg/g TOC). The relatively high abundance of ββ-C35 hopanoid thiophenes and epithiosteranes is equivalent to an incorporation of sulfur during the early stages of diagenesis.
Moreover, the geochemical parameters δ13Corg, δ15Norg, C/N and the pristane/phytane (Pr/Ph) ratio, were studied for reconstruction of seafloor and water column depositional environments. The high C/N ratio along with relatively low values of δ15Norg (4 ‰ to 6 ‰) and δ13Corg (-29 ‰ to -28 ‰) are consistent with a significant preferential loss of nitrogen-rich organic compounds during diagenesis. Oxygen-depleted conditions lasted during the deposition of the PM and the bottom of the OSM, reflected by the low Pr/Ph ratio of 0.11–0.7. In the upper part of the OSM and the MM the conditions changed from anoxic to dysoxic or oxic conditions. This environmental trend is consistent with co-occurring foraminiferal assemblages in the studied succession and implies that the benthic species in the Negev sequence were adapted to persistent minimum oxygen conditions by performing complete denitrification as recently found in many modern benthic foraminifera.
Furthermore, the anammox process could have influenced the nitrogen composition of the sediments. In this anaerobically process nitrite and ammonia are converted to molecular nitrogen.
Die Familie von der Tann entstammt altem fuldischem Lehnsadel und war in den Prozess der Entstehung der fränkischen Reichsritterschaft von Beginn an eingebunden. Zur Reformationszeit taten sich vor allem die Brüder Eberhard und Alexander von der Tann hervor, die als fürstliche Ratgeber in Kursachsen bzw. Hessen tätig waren. Vor allem Eberhard von der Tann hat in vielfacher Weise an der Verwirklichung von Luthers Reformvorstellungen mitgewirkt. So war er 1555 auf dem Reichstag zu Augsburg als protestantischer Verhandlungsführer entscheidend am Zustandekommen des Religionsfriedens beteiligt, eine Tatsache, die in der einschlägigen Forschung bis heute noch wenig beachtet wurde.
The subject of this thesis is the experimental investigation of the neutron-capture cross sections of the neutron-rich, short-lived boron isotopes 13B and 14B, as they are thought to influence the rapid neutron-capture process (r process) nucleosynthesis in a neutrino-driven wind scenario.
The 13;14B(n,g)14;15B reactions were studied in inverse kinematics via Coulomb dissociation at the LAND/R3B setup (Reactions with Relativistic Radioactive Beams). A radioactive beam of 14;15B was produced via in-flight fragmentation and directed onto a lead-target at about 500 AMeV. The neutron breakup of the projectile within the electromagnetic field of the target nucleus was investigated in a kinematically complete measurement. All outgoing reaction products were detected and analyzed in order to reconstruct the excitation energy.
The differential Coulomb dissociation cross sections as a function of the excitation energy were obtained and first experimental constraints on the photoabsorption and the neutron-capture cross sections were deduced. The results were compared to theoretical approximations of the cross sections in question. The Coulomb dissociation cross section of 15B into 14B(g.s.) + n was determined to be s(15B;14B(g:s:)+n) CD = 81(8stat)(10syst) mb ; while the Coulomb dissociation cross section of 14B into a neutron and 13B in its ground state was found to be s(14B;13B(g:s:)+n) CD = 281(25stat)(43syst) mb: Furthermore, new information on the nuclear structure of 14B were achieved, as the spectral shape of the differential Coulomb dissociation cross section indicates a halolike structure of the nucleus.
Additionally, the Coulomb dissociation of 11Be was investigated and compared to previous measurements in order to verify the present analysis. The corresponding Coulomb dissociation cross section of 11Be into 10Be(g.s.) + n was found to be 450(40stat)(54syst ) mb, which is in good agreement with the results of Palit et al.
Die Arbeit „Zwischen Kooperation und Wetteifer – Interaktionen und mediale Organisation von Kreativität am Beispiel des koopetitiven Ideennetzwerks jovoto“ untersucht internetbasierte Kokreativität – die gemeinsame Ideenentwicklung im Mediennetzwerk. Im Unterschied zu vorangegangen Untersuchungen, die sich mit den Motiven für die häufig unentgeltlichen kokreativen Aktivitäten und dem Innovationspotential dieser Organisationsform beschäftigten, liegt der Fokus dieser Studie auf der Kommunikation der Akteure untereinander während der Kokreation. Als Fallbeispiel wird die Design-Ideenplattform jovoto ausgewählt, die Kreativität auf der Basis von Koopetition – der Gleichzeitigkeit von Kooperation und Wettbewerb – unter den Teilnehmern fördert. Die Ideenautoren im Netzwerk von jovoto entwickeln kreative Lösungen in den Bereichen Produktdesign, Kampagnen, Innovation und Architektur. Die Teilnehmer treten mit ihren Ideen im Wettbewerb gegeneinander an; gleichzeitig kommentieren und bewerten sie sich gegenseitig im Prozess der Ideenentwicklung. Aus den Bewertungen der Community ergeben sich die Gewinner des ausgeschriebenen Preisgeldes. Aus dieser Gleichzeitigkeit von Wettbewerb und Kooperation ergibt sich die Forschungsfrage dieser Untersuchung: Wie ist das Verhältnis zwischen Kooperation und Wettbewerb im Kokreationsnetzwerk jovoto bestimmt, und wie wirkt dies auf Kreativität? Um diese Frage zu beantworten, untersuche ich die auf der Plattform dokumentierten Interaktionen (Kommentar-Threads) zwischen den Ideenentwicklern und anderen Community-Mitgliedern mit qualitativen und quantitativen Methoden und analysiere zwanzig von mir geführte halbstrukturierte Leitfaden-Interviews mit den Ideenautoren auf jovoto. Zur theoretischen Einordnung der beobachteten Phänomene stütze ich mich sowohl auf Kultur- und Kommunikationstheorien des radikal-konstruktivistischen Erkenntnismodells als auch auf die kulturellen Spieltheorien von Johan Huizinga und Roger Caillois. Ich beziehe zudem Ansätze ein, die Kokreativität als eine Form der kulturellen Produktivität beschreiben. Einen weiteren Anhaltspunkt bilden Studien, die sich mit der produktiven Beziehung zwischen Kooperation und Wettbewerb auseinandersetzen. Ergänzt werden diese Erkenntnisse bspw. durch die These zur Intelligenz der Crowd in heterogenen Gruppen von Entscheidern und durch Untersuchungen zum positiven Einfluss von Differenzen und Konflikten auf die Gruppenkreativität. Ich führe diese Vorarbeiten zu einer Modellvorstellung zusammen: In dieser verknüpft der koopetitive Handlungskontext ein Kooperationsspiel mit einem Wettbewerbsspiel, und zwar mithilfe von Kreativität: Diese ermöglicht, dass der Fokus im Spiel – von der Betonung und Vergrößerung des Gemeinsamen zwischen den Teilnehmern zur Betonung ihrer Differenzen – wechseln kann. Hieraus leite ich Hypothesen ab, die ich empirisch überprüfe: Während einer sechsmonatigen Beobachtung des Plattformgeschehens habe ich Daten zu 135 Wettbewerben auf jovoto erhoben. Die Analyse von über 2.400 Kommentaren ergibt, dass die beiden Leitkategorien „Bestätigung“ und „Herausforderung“ das kokreative Kommunikationsgeschehen charakterisieren. Hiervon ausgehende qualitative und quantitative Untersuchungen zu 54 Diskussions-Threads ergeben: In der Platzierung erfolgreiche Ideen werden von intensiveren Diskussionen begleitet als weniger erfolgreiche. Bemerkenswert ist, dass sie nicht nur eine größere Zahl bestätigender Kommentare erhalten, sondern auch mehr Herausforderungen. Die im Schnitt höchste Punktzahl geht mit einem Verhältnis von rund acht Bestätigungen je Herausforderung einher. Dieses Ergebnis bestätigt die Ausgangshypothese, dass es sich bei den Ideenwettbewerben um ein Kommunikationsspiel mit kooperativer, wetteifernder und kreativer Komponente handelt: In den Interaktionen zu den Ideenbeiträgen, insbesondere den erfolgreichen, herrscht ein Wechsel zwischen Bestätigungen und Herausforderungen vor. Aus den Aussagen der Ideenautoren in den geführten Interviews wird ein zentraler Konflikt deutlich: Die Tätigkeit bringt einen hohen Aufwand und wenig Aussicht auf Gewinn mit sich. Unterm Strich scheint sie jedoch lohnenswert, da die Akteure wichtige Lernerfahrungen im Netzwerk sammeln können und die eigenen Fähigkeiten einzuschätzen lernen. Dass die kreativen Beiträge anderer Wettbewerbsteilnehmer von anderen rege diskutiert werden, belegt den Erfolg des Organisationsmodells der Kokreation. Dieser verhält sich konträr zu den Vorhersagen herkömmlicher ökonomischer Theorie, die rein eigennützige Akteure annimmt, und deutet auf die Relevanz von Theorien hin, die wechselseitiges Feedback und dessen Gratifikationen als Faktoren in der netzwerkbasierte Produktion zentral berücksichtigen.
Cognitive flexibility and cognitive stability : neural and behavioral correlates in men and mice
(2014)
The ability to flexibly adjust behavior according to a changing environment is crucial to ensure a species' survival. However, the successful pursuit of goals also requires the stable maintenance of behavior in the face of potential distractors. Thus, cognitive flexibility and cognitive stability are important processes for the cognitive control of behavior. There is a large body of behavioral and neuroimaging research concerning cognitive control in general, but also specifically on cognitive flexibility and cognitive stability, albeit most often assessed in separate task paradigms. Nevertheless, whether cognitive flexibility and cognitive stability depend upon separate or shared neuronal bases is still a matter of debate. Complementing empirical research, computational models have become an important strategy in neuroscientific research, as they have the potential of providing mechanistic explanations of empirical observations, for example by allowing for the direct manipulation of molecular parameters in simulated neural networks. The computational model underlying the so-called Dual-State Theory contains specific hypotheses with respect to cognitive flexibility and cognitive stability. The neural networks simulated by this model exhibit multiple stable firing states, i.e., the neural network can maintain a high firing state also without continuing external input due to a network architecture consisting of recurrently connected neurons. Transitions between such network states, also called attractor states, can be induced by external input, and represent working memory contents or active task rules. Simulations showed that the stability of these attractor states, and thus of task rule representations, depend on the dopamine state of the system and can consequently vary between persons. The Dual-State Theory predicts an antagonistic relationship between cognitive flexibility and cognitive stability, as robust attractor states would facilitate the inhibition of distractors, but impair efficient task switching, while rather unstable attractor states would promote efficient transitions between representations but would also come at the cost of increased distractibility.
Based on the Dual-State Theory, a task paradigm was designed allowing for the simultaneous assessment of cognitive flexibility, in the sense of rule-based task switching, and cognitive stability, in the sense of inhibiting irrelevant distractors. Furthermore, a behavioral measure was developed to assess the individual attractor state stability, named spontaneous switching rate (SSR). In the first study of this work, this paradigm was tested in a sample of healthy human subjects using functional magnetic resonance imaging (fMRI). An overlapping fronto-parietal network was activated for both cognitive flexibility and cognitive stability. Furthermore, behavioral as well as neuroimaging results are in favor of an antagonistic relationship between cognitive flexibility and cognitive stability. A specific prefrontal region, the inferior frontal junction (IFJ), was implied to potentially contain the relevant neural networks mediating the transitions between attractor states, i.e., task rule representations, as its activity was modulated by the SSR such that persons with rather unstable attractor states activated it less during task switching while showing better performance. Most importantly, functional connectivity of the IFJ was antagonistically modulated by the SSR: more flexible persons connected it less to another prefrontal area during task switching, while showing higher functional connectivity during distractor inhibition.
In a second study, a larger human sample was assessed and further hypotheses derived from the Dual-State Theory on variability of neural processing were tested: we hypothesized that persons with high brain signal variability should have less stable network states and thus benefit on tasks requiring cognitive flexibility but suffer from it when the task requires a higher degree of cognitive stability. Furthermore, recent fMRI-research on brain signal variability revealed beneficial effects of higher brain signal variability on cognitive performance in general. Using a novel customized analysis pipeline to measure trial-to-trial fMRI-signal variability, we indeed found differential effects of brain signal variability: higher levels of brain signal variability were found to be beneficial for effectiveness, i.e., performance in terms of error rates, for both cognitive flexibility and stability. However, brain signal variability impaired the efficiency in terms of response times of inhibiting distractors, i.e., cognitive stability.
Due to further predictions of the Dual-State Theory concerning schizophrenia and the dopaminergic system, it was considered valuable to pursue a translational approach and thus allowing for the employment of animal models of psychiatric diseases. Consequently, in a first step the human paradigm was translated for a murine population using an innovative touchscreen approach. Results showed analogous behavioral effects in wildtype mice as before in healthy humans: the antagonistic relation between cognitive flexibility and cognitive stability was replicated and also for mice, a behavioral measure for the individual attractor stability was established and validated, named the individual spontaneous switching score.
To conclude, we established a novel paradigm assessing both cognitive flexibility and stability simultaneously showing an antagonistic relationship between these two cognitive functions on the behavioral level in two different species, which supports predictions from the Dual-State Theory. This was further underlined by evidence on the activation, functional connectivity and signal variability level in the human brain.
Quarks and gluons are the building blocks of all hadronic matter, like protons and neutrons. Their interaction is described by Quantum Chromodynamics (QCD), a theory under test by large scale experiments like the Large Hadron Collider (LHC) at CERN and in the future at the Facility for Antiproton and Ion Research (FAIR) at GSI. However, perturbative methods can only be applied to QCD for high energies. Studies from first principles are possible via a discretization onto an Euclidean space-time grid. This discretization of QCD is called Lattice QCD (LQCD) and is the only ab-initio option outside of the high-energy regime. LQCD is extremely compute and memory intensive. In particular, it is by definition always bandwidth limited. Thus—despite the complexity of LQCD applications—it led to the development of several specialized compute platforms and influenced the development of others. However, in recent years General-Purpose computation on Graphics Processing Units (GPGPU) came up as a new means for parallel computing. Contrary to machines traditionally used for LQCD, graphics processing units (GPUs) are a massmarket product. This promises advantages in both the pace at which higher-performing hardware becomes available and its price. CL2QCD is an OpenCL based implementation of LQCD using Wilson fermions that was developed within this thesis. It operates on GPUs by all major vendors as well as on central processing units (CPUs). On the AMD Radeon HD 7970 it provides the fastest double-precision D= kernel for a single GPU, achieving 120GFLOPS. D=—the most compute intensive kernel in LQCD simulations—is commonly used to compare LQCD platforms. This performance is enabled by an in-depth analysis of optimization techniques for bandwidth-limited codes on GPUs. Further, analysis of the communication between GPU and CPU, as well as between multiple GPUs, enables high-performance Krylov space solvers and linear scaling to multiple GPUs within a single system. LQCD calculations require a sampling of the phase space. The hybrid Monte Carlo (HMC) algorithm performs this. For this task, a single AMD Radeon HD 7970 GPU provides four times the performance of two AMD Opteron 6220 running an optimized reference code. The same advantage is achieved in terms of energy-efficiency. In terms of normalized total cost of acquisition (TCA), GPU-based clusters match conventional large-scale LQCD systems. Contrary to those, however, they can be scaled up from a single node. Examples of large GPU-based systems are LOEWE-CSC and SANAM. On both, CL2QCD has already been used in production for LQCD studies.