Refine
Year of publication
- 2017 (181) (remove)
Document Type
- Doctoral Thesis (181) (remove)
Has Fulltext
- yes (181)
Is part of the Bibliography
- no (181)
Keywords
- ALICE (2)
- FPGA (2)
- Grundschule (2)
- QCD (2)
- Stadtentwicklung (2)
- 1,3-Diamine (1)
- 14 fructidor IX (1)
- 2-Photonen (1)
- Africa (1)
- African Agency (1)
Institute
- Biowissenschaften (32)
- Medizin (31)
- Physik (23)
- Biochemie und Chemie (19)
- Biochemie, Chemie und Pharmazie (15)
- Informatik und Mathematik (9)
- Neuere Philologien (8)
- Psychologie und Sportwissenschaften (7)
- Geowissenschaften (6)
- Pharmazie (4)
In this work the flexibility requirements of a highly renewable European electricity network that has to cover fluctuations of wind and solar power generation on different temporal and spatial scales are studied. Cost optimal ways to do so are analysed that include optimal distribution of the infrastructure, large scale transmission, storage, and dispatchable generators. In order to examine these issues, a model of increasing sophistication is built, first considering different flexibility classes of conventional generation, then adding storage, before finally considering transmission to see the effects of each.
To conclude, in this work it was shown that slowly flexible base load generators can only be used in energy systems with renewable shares of less than 50%, independent of the expansion of an interconnecting transmission network within Europe. Furthermore, for a system with a dominant fraction of renewable generation, highly flexible generators are essentially the only necessary class of backup generators. The total backup capacity can only be decreased significantly if interconnecting transmission is allowed, clearly favouring a European-wide energy network. These results are independent of the complexity level of the cost assumptions used for the models. The use of storage technologies allows to reduce the required conventional backup capacity further. This highlights the importance of including additional technologies into the energy system that provide flexibility to balance fluctuations caused by the renewable energy sources. These technologies could for example be advanced energy storage systems, interconnecting transmission in the electricity network, and hydro power plants.
It was demonstrated that a cost optimal European electricity system with almost 100% renewable generation can have total system costs comparable to today's system cost. However, this requires a very large transmission grid expansion to nine times the line volume of the present-day system. Limiting transmission increases the system cost by up to a third, however, a compromise grid with four times today's line volume already locks in most of the cost benefits. Therefore, it is very clear that by increasing the pan-European network connectivity, a cost efficient inclusion of renewable energies can be achieved, which is strongly needed to reach current climate change prevention goals.
It was also shown that a similarly cost efficient, highly renewable European electricity system can be achieved that considers a wide range of additional policy constraints and plausible changes of economic parameters.
Echolocation allows bats to orientate in darkness without using visual information. Bats emit spatially directed high frequency calls and infer spatial information from echoes coming from call reflections in objects (Simmons 2012; Moss and Surlykke 2001, 2010). The echoes provide momentary snapshots, which have to be integrated to create an acoustic image of the surroundings. The spatial resolution of the computed image increases with the quantity of received echoes. Thus, a high call rate is required for a detailed representation of the surroundings.
One important parameter that the bats extract from the echoes is an object’s distance. The distance is inferred from the echo delay, which represents the duration between call emission and echo arrival (Kössl et al. 2014). The echo delay decreases with decreasing distance and delay-tuned neurons have been characterized in the ascending auditory pathway, which runs from the inferior colliculus (Wenstrup et al. 2012; Macías et al. 2016; Wenstrup and Portfors 2011; Dear and Suga 1995) to the auditory cortex (Hagemann et al. 2010; Suga and O'Neill 1979; O'Neill and Suga 1982).
Electrophysiological studies usually characterize neuronal processing by using artificial and simplified versions of the echolocation signals as stimuli (Hagemann et al. 2010; Hagemann et al. 2011; Hechavarría and Kössl 2014; Hechavarría et al. 2013). The high controllability of artificial stimuli simplifies the inference of the neuronal mechanisms underlying distance processing. But, it remains largely unexplored how the neurons process delay information from echolocation sequences. The main purpose of the thesis is to investigate how natural echolocation sequences are processed in the brain of the bat Carollia perspicillata. Bats actively control the sensory information that it gathers during echolocation. This allows experimenters to easily identify and record the acoustic stimuli that are behaviorally relevant for orientation. For recording echolocation sequences, a bat was placed in the mass of a swinging pendulum (Kobler et al. 1985; Beetz et al. 2016b). During the swing the bat emitted echolocation calls that were reflected in surrounding objects. An ultrasound sensitive microphone traveling with the bat and positioned above the bat’s head recorded the echolocation sequence. The echolocation sequence carried delay information of an approach flight and was used as stimulus for neuronal recordings from the auditory cortex and inferior colliculus of the bats.
Presentation of high stimulus rates to other species, such as rats, guinea pigs, suppresses cortical neuron activity (Wehr and Zador 2005; Creutzfeldt et al. 1980). Therefore, I tested if neurons of bats are suppressed when they are stimulated with high acoustic rates represented in echolocation sequences (sequence situation). Additionally, the bats were stimulated with randomized call echo elements of the sequence and an interstimulus time interval of 400 ms (element situation). To quantify neuronal suppression induced by the sequence, I compared the response pattern to the sequence situation with the concatenated response patterns to the element situation. Surprisingly, although the bats should be adapted for processing high acoustic rates, their cortical neurons are vastly suppressed in the sequence situation (Beetz et al. 2016b). However, instead of being completely suppressed during the sequence situation, the neurons partially recover from suppression at a unit specific call echo element. Multi-electrode recordings from the cortex allow assessment of the representation of echo delays along the cortical surface. At the cortical level, delay-tuned neurons are topographically organized. Cortical suppression improves sharpness of neuronal tuning and decreases the blurriness of the topographic map. With neuronal recordings from the inferior colliculus, I tested whether the echolocation sequence also induced neuronal suppression at subcortical level. The sequence induced suppression was weaker in the inferior colliculus than in the cortex. The collicular response makes the neurons able to track the acoustic events in the echolocation sequence. Collicular suppression mainly improves the signal-to-noise ratio. In conclusion, the results demonstrate that cortical suppression is not necessarily a shortcoming for temporal processing of rapidly occurring stimuli as it has previously been interpreted.
Natural environments are usually composed of multiple objects. Thus, each echolocation call reflects off multiple objects resulting in multiple echoes following the calls. At present, it is largely unexplored how neurons process echolocation sequences containing echo information from more than one object (multi-object sequences). Therefore, I stimulated bats with a multi-object sequence which contained echo information from three objects. The objects were different distances away from each other. I tested the influence of each object on the neuronal tuning by stimulating the bats with different sequences created from filtering object specific echoes from the multi-object sequence. The cortex most reliably processes echo information from the nearest object whereas echo information from distant objects is not processed due to neuronal suppression. Collicular neurons process less selectively echo information from certain objects and respond to each echo.
For proper echolocation, bats have to distinguish between own biosonar signals and the signals coming from conspecifics. This can be quite challenging when many bats echolocate adjacent to each other. In behavioral experiments, the echolocation performance of C. perspicillata was tested in the presence of potentially interfering sounds. In the presence of acoustic noise, the bats increase the sensory acquisition rate which may increase the update rate of sensory processing. Neuronal recordings from the auditory cortex and inferior colliculus could strengthen the hypothesis. Although there were signs of acoustic interference or jamming at neuronal level, the neurons were not completely suppressed and responded to the rest of the echolocation sequence.
The composition of cellular membranes is extremely complex and the mechanisms underlying their homeostasis are poorly understood. Organelles within a eukaryotic cell require a non-random distribution of membrane lipids and a tight regulation of the membrane lipid composition is a prerequisite for the maintenance of specific organellar functions. Physical membrane properties such as bilayer thickness, lipid packing density and surface charge are governed by the lipid composition and change gradually from the early to the late secretory pathway. As the endoplasmic reticulum (ER) is situated at the beginning of the cells secretory pathway, it has to accept and accommodate a great variety and quantity of secretory and transmembrane proteins, which enter the ER on their way to their final cellular destination. Secretory proteins can be translocated into the lumen of the ER co- or posttanslationally and membrane proteins are being inserted and released into the ER membrane. In the oxidative milieu of the ER-lumen, supported by a variety of chaperones, proteins can fold into their native form.
If the folding capacity of the ER-lumen is exceeded, an accumulation of mis- or unfolded proteins in the lumen of the ER occurs, consequently triggering the unfolded protein response (UPR). This highly conserved program activates a wide-spread transcriptional response to restore protein folding homeostasis. In fact, 7 – 8% of all genes in the yeast Saccharomyces cerevisiae (S. cerevisiae) are regulated by the UPR. The mechanism underlying the activation of the UPR by protein folding stress has been investigated thoroughly in the last decades and many of its mechanistic details have been elucidated. Recently, it became evident that aberrant lipid compositions of the ER membrane, collectively referred to as lipid bilayer stress, are equally potent in activating the UPR. The underlying molecular mechanism of this membrane-activated UPR, however, remained unclear.
This study focuses on the UPR in S. cerevisiae and characterizes the inositol requiring enzyme 1 (Ire1) as the sole UPR sensor in S. cerevisiae. Active Ire1 forms oligomers and, collaboratively with the tRNA ligase Rlg1, splices immature mRNA of the transcription factor HAC1, which results in the synthesis of mature HAC1 mRNA and the production of the active Hac1 protein, which binds to UPR-elements in the nucleus and activates the expression of UPR target genes. Here, the combination of in vivo and in vitro experiments is being used, which is supplemented by molecular dynamics (MD) simulations performed by Roberto Covino and Gerhard Hummer (MPI for Biophysics, Frankfurt), aiming to identify the molecular mechanism of Ire1 activation by lipid bilayer stress. This study focuses on the analysis of the juxta- and transmembrane region of Ire1. Bioinformatic analyses revealed a putative ER-lumenal amphipathic helix (AH) N-terminally of and partially overlapping with the transmembrane helix (TMH). This predicted AH contains a large hydrophobic face, which inserts into the ER membrane, forcing the TMH into a tilted orientation within the membrane. The resulting unusual architecture of Ire1’s AH and TMH constitutes a unique structural element required for the activation of Ire1 by lipid bilayer stress.
To investigate the function of the AH in the physiological context, different variants of Ire1 were produced under the control of their endogenous promoter and from their endogenous locus. The functional role of the AH was tested, by disrupting its amphipathic character by the introduction of charged residues into the hydrophobic face of the AH. The role of a conserved negative residue between the TMH and the AH (E540 in S. cerevisiae) was tested by substituting it by a unipolar, polar, or positively charged residue. These variants were intensively characterized using a series of assays:
This thesis provides evidence that the AH is crucial for the function of Ire1: Mutant variants with a disrupted (F531R, V535R) or otherwise modified AH (E540A) exhibited a lower degree of oligomerization and failed to catalyze the splicing of the HAC1 mRNA as the Wildtype control. Likewise, the induction of PDI1, a target gene of the UPR, was greatly reduced in mutants with a disrupted or defective AH. These data revealed an important functional role of the AH for normal Ire1 function.
An in vitro system was established to analyze the membrane-mediated oligomerization of Ire1. This system enabled the isolated functional analysis of the AH and TMH during Ire1 activation by lipid bilayer stress. A fusion construct, coding for the maltose binding protein (MBP) from Escherichia coli (E. coli), N-terminally to the AH and TMH of Ire1 was produced. The heterologous production in E. coli, the purification and reconstitution of this minimal sensor of Ire1 in liposomes was established as part of this study. To analyze the oligomeric status of the minimal sensor in different lipid environments, continuous wave electron paramagnetic resonance (cwEPR) spectroscopic experiments were performed. These experiments revealed that the molecular packing density of the lipids had a significant influence of the oligomerization of the spin-labeled membrane sensor: increasing packing densities resulted in sensor oligomerization. The AH-disruptive F531R mutant, in which the amphipathic character of the AH was destroyed, showed no membrane-sensitive changes in its oligomerization status.
Thus, the activation of Ire1 by lipid bilayer stress is achieved by a membrane-based mechanism. According to the current model, the AH induces a local membrane compression by inserting its large hydrophobic face into the membrane. As membrane thickness and acyl chain order are interconnected, this compression simultaneously results in an increased local disordering of lipid acyl chains. Supporting MD simulations performed by Roberto Covino and Gerhard Hummer revealed that the bilayer compression is significantly more pronounced in a densely packed lipid environment, than in a lipid environment of lower lipid packing density. Hence, the energetic cost of the local compression increases with the packing density of the membrane, but is compensated for by the oligomerization of Ire1. This minimization of energetic cost induced by the membrane deformation of Ire1 forms the basis for the activation of Ire1 by lipid bilayer stress.
The African continent is regularly portrayed as an indolent space with a well-known reputation as a chaotic continent. Viewed as lacking vision, means and capacities, Africa is perceived at best as a place that is marked by a permanent status quo, stagnation, or in worst case scenarios, as a declining continent. Various references to the continent are synonymous with famine, poverty, war, etc. Such portrayals are all the more intriguing given that the continent is known for its abundant natural resources, such as timber, oil, natural gas, minerals, etc., whose reserves are, moreover, not well known both by the African people and their leaders. As a result, there is still much progress to be made in tapping into the resources in order to improve the daily lives of African citizens.
In such a context dominated by infantile carelessness throughout the continent, the interventions of actors from outside the continent are the only hopes of bringing some vitality to this continent which is cloaked in "la grande nuit – the great darkness" (Mbembé 2013). Thus during the main sequences of recent history, representing different forms of Western penetration and activity on the African continent (slavery, imperialism, colonization), all the Western world’s contributions have obviously not sufficed to boost Africa and take it out of its never ending childhood. It has remained just as passive and apathetic today as it was yesterday.
The attraction of Asian actors to the continent is even more recent. And consistent with its abovementioned indolence, Africa is seen as an easy and defenceless prey for the Korean, Japanese, Indian, Malaysian, or Chinese conquerors. In the latter case, the insatiable appetite for natural resources whose reserves are being rapidly depleted is the cornerstone of their foreign aid policy. This led China to colonize the continent, showing a preference for Pariah Regimes which held no appeal for the West, by sending an army of workers to extract those resources (Lum et al. 2009), in defiance of all national and international regulations and based on completely opaque contracts.
Although the concept of African Agency was rapidly developed in several African countries, the aim of this study was more specific to Cameroon’s mining sector in which different entrepreneurs from abroad got involved over time. The thesis investigates whether indigenous citizens took part in any way in the development of mining projects in the country. Thus, the work assesses and analyses actions and reactions initiated and undertaken by local people in the context of China’s presence within Cameroon’s mining sector to promote and advance their interests over those of foreign investors. In addition, the author has no knowledge of any other study investigating African Agency in the mining sector as a whole in Cameroon.
In conducting this study, a multi-method research framework was developed including a series of methods used to collect data and analyse concepts of African Agency associated Political Ecology as they developed within Cameroon’s mining sector. Specifically, those methods comprised quantitative research when it came to collecting data using a positivist and empirical approach constructed by deducing evidence from statistical data collected by means of the 167 questionnaire surveys administered to local inhabitants and workers randomly selected on mining sites and in riparian communities. The questionnaires helped to capture Cameroonians' perceptions of the recent phenomenon of the gradual but significant influx of international actors and precisely Chinese players in the mining sector on the one hand, and on the other hand, observational data was collected across the GVC as developed in the Betare-Oya region. As a complement to the former technique, qualitative methods helped to study and deepen understanding of human behaviour and the social world in a holistic perspective through individual interviews, focus groups, and direct observations on the ground. In addition, the spatial analysis method based on the land use classification technique served to detect changes to land use/land cover that have been brought on by mechanised mining activities undertaken in this region. The sequencing of data collected and their processing from a ground theory perspective led to the formulation and specification of Cameroon’s Ecological Agency theory.
One of the earliest steps of this work consisted in a literature review and in placing the African Agency concept in a broader context. It then led to the state of the art, specifications about research content of the work and the main theories undergirding this thesis. Before examining developments that emerged during the last decade, a historical perspective was provided to the topic in order to show how African societies started mining operations and how they dealt with foreign partners interested in their mining resources. The aim was to show that while Western imperialism presented a challenge for the sector, it did not erase local participation, even despite the constraints associated with such involvement.
...
Biological ageing is a degenerative and irreversible process, ultimately leading to death of the organism. The process is complex and under the control of genetic, environmental and stochastic traits. Although many theories have been established during the last decades, none of these are able to fully describe the complex mechanisms, which lead to ageing. Generally, biological processes and environmental factors lead to molecular damage and an accumulation of impaired cellular components. In contrast, counteracting surveillance systems are effective, including repair, remodelling and degradation of damaged or impaired components, respectively. Nevertheless, at some point these systems are no longer effective, either because the increasing amount of molecular damages can not longer be removed efficiently or because the repairing and removing mechanisms themselves become affected by impairing effects. The organism finally declines and dies. To investigate and to understand these counteracting mechanisms and the complex interplay of decline and maintenance, holistic and systems biological investigations are required. Hence, the processes which lead to ageing in the fungal model organism Podospora anserina, had been analysed using different advanced bioinformatics methods. In contrast to many other ageing models, P. anserina exhibits a short lifespan, a less biochemical complexity and it provides a good accessibility for genetic manipulations.
To achieve a general overview on the different biochemical processes, which are affected during ageing in P. anserina, an initial comprehensive investigation was applied, which aimed to reveal genes significantly regulated and expressed in an age-dependent manner. This investigation was based on an age-dependent transcriptome analysis. Sophisticated and comprehensive analyses revealed different age-related pathways and indicated that especially autophagy may play a crucial role during ageing. For example, it was found that the expression of autophagy-associated genes increases in the course of ageing.
Subsequently, to investigate and to characterise the autophagy pathway, its associated single components and their interactions, Path2PPI, a new bioinformatics approach, was developed. Path2PPI enables the prediction of protein-protein interaction networks of particular pathways by means of a homology comparison approach and was applied to construct the protein-protein interaction network of autophagy in P. anserina.
The predicted network was extended by experimental data, comprising the transcriptome data as well as newly generated protein-protein interaction data achieved from a yeast two-hybrid analysis. Using different mathematical and statistical methods the topological properties of the constructed network had been compared with those of randomly generated networks to approve its biological significance. In addition, based on this topological and functional analysis, the most important proteins were determined and functional modules were identified, which correspond to the different sub-pathways of autophagy. Due to the integrated transcriptome data the autophagy network could be linked to the ageing process. For example, different proteins had been identified, which genes are continuously up- or down-regulated during ageing and it was shown for the first time that autophagy-associated genes are significantly often co-expressed during ageing.
The presented biological network provides a systems biological view on autophagy and enables further studies, which aim to analyse the relationship of autophagy and ageing. Furthermore, it allows the investigation of potential methods for intervention into the ageing process and to extend the healthy lifespan of P. anserina as well as of other eukaryotic organisms, in particular humans.
Heat stress transcription factors (Hsfs) play essential role in heat stress response and thermotolerance by controlling the transcriptional activation of heat stress response (HSR) genes including molecular chaperones. Plant Hsf families show a striking multiplicity, with more than 20 members in the many plant species. Among Hsfs, HsfA1s act as the master regulators of heat stress (HS) response and HsfA2 becomes one of the most abundant Hsfs during HS. Using transgenic plans with suppressed expression of HsfA2 we have shown that this Hsf is involved in acquired thermotolerance of S. lycopersicum cv Moneymaker as HsfA2 is required for high expression and maintenance of increased levels of Hsps during repeated cycles of HS treatment.
Interestingly, HsfA2 undergoes temperature-dependent alternative splicing (AS) which results in the generation of seven transcript variants. Three of these transcripts (HsfA2-Iα-γ), generated due to alternative splicing of a second, newly identified intron encode for the full length protein involved in acquired thermotolerance. Another 3 transcripts (HsfA2-IIIα-γ) are generated due to alternative splicing in intron 1, leading in all cases to a premature termination codon and targeting of these transcripts for degradation via the non-sense mRNA decay mechanism (NMD).
Interestingly, excision of intron 2, results into the generation of a second previously unreported protein isoform, annotated as HsfA2-II. HsfA2-II shows similar transcriptional activity to the full-length protein HsfA2-I in the presence of HsfA1a but lacks the nuclear export signal (NES) required for nucleocytoplasmic shuttling which allows efficient nuclear retention and stimulation of transcription of HS-induced genes. Furthermore, stability assays showed that HsfA2-II exhibits lower protein stability compared to HsfA2-I.
The presence of a second intron and the generation of a second protein isoform we identified in other Solanaceae species as well. Remarkably, we observed major differences in the splicing efficiency of HsfA2 intron 2 among different tomato species. Several wild tomato accessions exhibit higher splicing efficiency that favors the generation of HsfA2-II, while in these species the splice variant HsfA2-Iγ is absent. This natural variation in splicing efficiency specifically occurring at temperatures around 37.5oC is associated with the presence of 3 intronic polymorphisms. In the case of wild species these polymorphisms seemingly restrict the binding of RS2Z36, identified as a putative splicing silencer for HsfA2 intron 2.
Tomato accessions with the polymorphic “wild” HsfA2 show enhanced thermotolerance against a direct severe heat stress incident due to the stronger increase of Hsps and other stress induced genes. Introgression of the “wild” S. pennellii HsfA2 locus into the cultivar M82, resulted in enhanced seedling thermotolerance highlighting the potential use of the polymorphic HsfA2 for breeding.
We conclude that alterations in the splicing efficiency of HsfA2 have contributed to the adaption of tomato species to different environments and these differences might be directly related to natural variation in their thermotolerance.
The ALICE High-Level-Trigger (HLT) is a large scale computing farm designed and constructed for the purpose of the realtime reconstruction of particle interactions (events) inside the ALICE detector. The reconstruction of such events is based on the raw data produced in collisions inside the ALICE at the Large Hadron Collider. The online reconstruction in the HLT allows the triggering on certain event topologies and a significant data reduction by applying compression algorithms. Moreover, it enables a real-time verification of the quality of the data.
To receive the raw data from the various sub-detectors of ALICE, the HLT is equipped with 226 custom built FPGA-based PCI-X cards, the H-RORCs. The H-RORC interfaces the detector readout electronics to the nodes of the HLT farm. In addition to the transfer of raw data, 108 H-RORCs host 216 Fast-Cluster-Finder (FCF) processors for the Time-Projection-Chamber (TPC). The TPC is the main tracking detector of ALICE and contributes with up to 16 GB/s to over 90% of the overall data volume. The FCF processor implements the first of two steps in the data reconstruction of the TPC. It calculates the space points and their properties from charge clouds (clusters) created by charged particles traversing the TPCs gas volume. Those space points are not only the base for the tracking algorithm, but also allow for a Huffman-based data compression, which reduces the data volume by a factor of 4 to 6.
The FCF processor is designed to cope with any incoming data rate up to the maximum bandwidth of the incoming optical link (160 MB/s) without creating back-pressure to the detectors readout electronics. A performance comparison with the software implementation of the algorithm shows a speedup factor of about 20 compared with one AMD Opteron 6172 Core @ 2.1 GHz, the CPU type used in the HLT during the LHC Run1 campaign. Comparison with an Intel E5-2690 Core @ 3.0 GHz, the CPU type used by the HLT for the LHC Run2 campaign, results in a speedup factor of 8.5. In total numbers, the 216 FCF processors provide the computing performance of 4255 AMD Opteron cores or 2203 Intel cores of the previously mentioned type. The performance of the reconstruction with respect to the physics analysis is equivalent or better than the official ALICE Offline clusterizer. Therefore, ALICE data taking was switched in 2011 to FCF cluster recording and compression only, discarding the raw data from the TPC. Due to the capability to compress the clusters, the recorded data volume could be increased by a factor of 4 to 6.
For the LHC Run3 campaign, starting in 2020, the FCF builds the foundation of the ALICE data taking and processing strategy. The raw data volume (before processing) of the upgraded TPC will exceed 3 TB/s. As a consequence, online processing of the raw data and compression of the results before it enters the online computing farms is an essential and crucial part of the computing model.
Within the scope of this thesis, the H-RORC card and the FCF processor were developed and built from scratch. It covers the conceptual design, the optimisation and implementation, as well as the verification. It is completed by performance benchmarks and experiences from real data taking.
The mainstream law and economics approach has dominated positive analysis and normative design of economic regulations. This approach represents a form of applied neoclassical and new institutional economics. Neoclassical and/or new institutional economic theories, models, and analytical concepts are applied automatically to economic regulatory problems.
This automatic application of neoclassical economics to economic regulatory problems loses sight of the valid insights of non-neoclassical schools of economic thought and theories, which may illuminate important aspects of the regulatory problems. This thesis, therefore, advocates an integrated law and economics approach to economic regulations. This approach identifies the relevant insights of neoclassical and non-neoclassical schools of thought and theories and refines them through a process of cross-criticism. In this process, the insights of each school of thought are subjected to the critiques of other schools of thought. The resulting refined insights, which are more likely to be valid, are then integrated consistently through various techniques of integration.
Not only does neoclassical (micro and macro) law and economics overlook the valid insights of non-neoclassical schools of thought, it is also highly reductionist. It ignores the interdependencies of legal institutions, highlighted mainly by the comparative capitalism literature, and the structural interlinkages among socio-economic actors, highlighted by economic sociology and complexity economics. Rather, it takes rational individuals and their interactions subject to the constraint of isolated institution(s) as its unit of analysis. In place of this reductionist perspective, the thesis argues for a systemic approach to economic regulations. This systemic perspective replaces the reductionist unit of neoclassical regulatory analysis with a systemic unit of analysis that consists of the least non-decomposable actors’ network and its associated least non-decomposable institutional network. Then, the thesis develops an operationalized and replicable systemic framework for systemic analysis and design of institutional networks.
Both the systemic and integrated approaches are theoretically consistent and complementary. The systemic approach is in essence a way of thinking that requires a broad and rich informational basis that can be secured by using the integrated approach. Due to their complementarity, they give rise to what I call “the integrated and systemic law and economics approach.” The thesis operationalizes this approach by setting out well-defined replicable steps and applying them to concrete regulatory problems, namely, the choice of a corporate governance model for developing countries and the development of a normative theory of economic regulations. These concrete applications demonstrate the critical bite of the integrated and systemic approach, which reveals significant shortcomings of mainstream law and economics’ answers to these regulatory questions. They also show the constructive potential of the integrated and systemic approach in overcoming the critiques advanced to the neoclassical regulatory conclusions.
The operationalized integrated and systemic approach is both a law and economics as well as a law and development approach. It does not only provide an alternative to mainstream law and economics analysis and design of economic regulations. It also fills a significant analytical lacuna in the law and development literature that lacks an analytical framework for analysis and design of context-specific legal institutions that can promote economic development in developing economies.
The East African Rift System (EARS) was initiated in the Eocene epoch between 50 and 21 Ma probably due to the influence of mantle plumes that caused volcanism, flood basalts and rifting extensions in Ethiopa and the Afar region. As a result of magmatic intrusions and adiabatic decompression melting within the lithosphere caused by the impact of the Kenya plume, there was a southward propagation of the EARS of about 30 – 15 Ma from Ethiopia to Kenya, which coincide with the occurrence of volcanism. The EARS developed towards the south along the margins of the Tanzania Craton between 15 and 8 Ma. Previous findings of low-velocity anomalies within the upper mantle and the mantle transition zone indicate an upwelling of hot mantle material in the vicinity of the Afar region and the East African Rift. This study includes the analysis of P- and S-receiver functions in order to determine further impacts on the lithosphere from below. The aim was to determine the topographic undulations of further boundary layers and to identify their variability owing to the rifting processes and the formation of the EARS. The study area included the Tanzania Craton and the surrounding rift branches of the East African Rift System.
The region of the Rwenzori Mountains can be analysed in detail because of the large dataset of the RiftLink project. The use of the P-receiver function technique and the H-K stacking method enabled to determine different vP /vS ratios depending on the tectonic setting in the Rwenzori region: Rift shoulders (vP /vS =1.74), Albert Rift segment (vP /vS =1.80), Edward Rift segment (vP /vS =1.87) and Rwenzori Mountains (vP /vS =1.86). To determine the topography of the Moho, it is necessary to take into account the thickness of the sedimentary layer, the surface topography, the azimuthal variations in crustal thickness and the impact of local anomalies. After correcting these effects on the Moho depths, significant variations in Moho topography could be determined. The Moho depths range from 29 to 39 km beneath the rift shoulders of the Albertine Rift. Within the rift valley, the crustal thickness varies between 25 – 31 km in the Edward Rift segment and 22 – 30 km in the Albert Rift segment. An averaged crustal thickness of about 26 km within the rift valley indicates the lack of the crustal root beneath the Rwenzoris. Similar variations in crustal thickness were determined by using an automatic procedure for analysing S-receiver functions that was developed in this study.
The S-receiver functions are created by applying a rotation criterion in order to rotate the Z, N and E components into the L, Q and T components. It is necessary to perform trial rotations using different incident and azimuth angles to determine the correct rotation angles. The latter are identified by the use of the rotation criterion, including the amplitude ratio of the converted Moho signal to the direct S/SKS-wave signal. The L component is rotated correctly in the direction of the incident shear wave in the case of the maximum amplitude ratio. After analysing the frequency content of the receiver functions in order to sort out harmonic and long-periodic traces, the individual Moho signals are checked for consistency in order to remove atypic signals. To increase the signal-to-noise ratios on the traces, the S-receiver functions are stacked. For this purpose, the signals of the direct shear waves must originate from similar epicenters. On the basis of similar ray paths, the receiver functions show comparable waveforms and converted signals. To perform the stacking procedure, it is necessary to merge the datasets of the adjacent stations in order to obtain a sufficient number of receiver functions. This analysis is based on the assumption that the incident seismic waves arriving at the adjacent stations penetrate to some extent the same underground structures in the case of similar wave propagation paths. This approach accounts for the fact that the converted signals do not result exclusively from the piercing points at the boundary layers. Further signals originate from the conversions at the boundary layer within the Fresnel Zone. The piercing points are derived from the significant signals in the receiver functions. Depending on the order of arrival of the converted phases on the traces, the signals are attributed to the theoretical discontinuities DIS1, DIS2, DIS3 and DIS4. However, partly due to the low signal-to-noise ratios on the traces, it is difficult to identify the real conversions on the traces and to ensure that the converted signals are attributed to the correct boundary layers. For this reason, it is necessary to check the consistency of the conversion depths among each other. In the case of inconsistent conversion depths, the corresponding signals are either adjusted to another seismic boundary layer or removed from the dataset. To verify the functionality of the automatic procedure and to determine the resolvability with respect to two boundary layers, several models are tested including horizontal and dipping discontinuities. To resolve distinct discontinuities, their depths must differ by at least 60 km, otherwise, due to similar depth ranges of the different boundary layers, the converted signals cannot be separated from each other. As a consequence, the converted signals that originate from different discontinuities are attributed to a single one. Further tests including break-off edges of seismic discontinuities are performed to check the attributions of the converted signals to the discontinuities. Owing to the varying number of boundary layers, the converted signals cannot be attributed to the discontinuities according to the order of their arrivals on the traces. It is necessary to correct their attributions to the seismic discontinuities in order to resolve the boundary layers.
The crust-mantle boundary and further discontinuities within the lithospheric mantle are investigated by applying this automatic procedure. Depending on the tectonic setting, the conversion depths of the Moho range from about 30 – 45 km beneath the western rift shoulder to 20 – 35 km within the rift valley up to 30 – 40 km beneath the eastern rift shoulder. The long wavelengths of the shear waves hamper the correct identification of the converted phases in the S-receiver functions. With respect to the relative differences in conversion depth, the topographic undulations of the crust-mantle boundary are consistent with the Moho depths derived from P-receiver functions. In contrast to the Rwenzori region, it is difficult to resolve completely the trend of the Moho in the remaining area of the East African Rift due to the small dataset provided by IRIS. The results exibit an increase in crustal thickness to up to 45 km in the region of the Cenozoic volcanics such as Virunga, Kivu, Rungwe and Kenya. The greatest Moho depths of more than 50 km are located near Mount Kilimanjaro. In addition to the Moho, the analysis of the S-receiver functions revealed two further boundary layers at depths of 60 – 140 km and 110 – 260 km, which are associated with a mid-lithospheric discontinuity and the lithosphere-asthenosphere boundary, respectively. The shallowest conversion depths of the LAB are focussed to small-scale regions within the rift branches, namely the northern Albertine Rift, the Chyulu Hills and the Mozambique Belt, which are located around the Tanzania Craton. The larger thickness of the lithosphere beneath the cratonic terrain indicates that the Tanzania Craton is not significantly eroded. However, there are indications that the lithosphere beneath the craton and the rift branches is penetrated by ascending asthenospheric melts to depths of up to 140 and 60 km, respectively. The top of the ascending melts is associated with the occurrence of the mid-lithospheric discontinuity. The shallowest conversion depths of this boundary layer (60 – 90 km) are related to the rifted areas of the EARS and the Cenozoic volcanic provinces, which are located along the Albertine Rift, the Kenya Rift and the Rukwa-Malawi rift zones. The deepest conversion depths of up to 140 km are related to the Rwenzori Belt, the Ugandan Basement Complex and the interior of the Tanzania Craton.
Da die Implantologie ein fester Bestandteil der modernen Zahnheilkunde geworden ist, wird auch die Evaluation des Kieferknochens immer relevanter. Diese hohe Bedeutung des Kieferknochens ist damit zu begründen, dass für den Langzeiterfolg eines Implantates die knöcherne Einheilung im Rahmen der Osseointegration die Grundvoraussetzung bildet. Zudem erfordern verschiedene Knochenqualitäten des Kieferknochens unterschiedliche Implantatdurchmesser und Bohrprotokolle. Schon hier zeigt sich, wie relevant weitreichende Kenntnisse über den Kieferknochen sind.
Auch im Rahmen der Implantatforschung und -entwicklung ist es von großer Bedeutung, Knochen zu evaluieren und damit kalibrieren und kategorisieren zu können, um vergleichbare Versuchswerte generieren zu können. In der aktuellen Literatur liegen zahlreiche Studien zu der Knochendichte, -qualität und -quantität des Kieferknochens vor, Evaluationsmethoden des Kieferknochens sind jedoch rar. Aufgrund dessen befasst sich diese Arbeit mit der Neuentwicklung einer Evaluationsmethode von Knochen.
Zu diesem Zweck wurde in dieser Arbeit der an ein inseriertes Implantat-Dummy angrenzende Knochen mit einem Bone-Evaluation Tool bewertet und geprüft, ob eine Korrelation zwischen dem Eindrehmoment des Implantat-Dummys, der Kompaktadicke und dem Eindrehmoment des nachfolgenden Bone-Evaluation-Tools besteht. Eine bestehende Korrelation würde bedeuten, dass dieses Evaluation-Tool in der Lage ist, Knochen bezüglich seiner Güte zu bewerten und zu kalibrieren.
Durchgeführt wurden die Versuche an dem distalen Ende von bovinen Rippensegmenten sowie an Segmenten des bovinen Femurkopfes. Beide sollten den Kieferknochen der humanen Mandibula simulieren. Es wurden zwei im Durchmesser differierende Bohrprotokolle angewendet, welche als „Hard Bone Small“ (HBS) und „Hard Bone Large“ (HBL) bezeichnet wurden. Als erstes erfolgte jeweils eine Vorbohrung (ø HBS: 3,3 mm; ø HBL: 4,0 mm), gefolgt von der Insertion des Implantat-Dummys (ø HBS: 3,5 mm; ø HBL: 4,2 mm). Als nächstes erfolgte die Entfernung (Aufbohrung) der Gewindeimpressionen, die durch den Implantat-Dummy generiert wurden (ø HBS: 3,8 mm; ø HBL: 4,5 mm). Anschließend wurde das Bone-Evaluation-Tool inseriert (ø HBS: 4,0 mm; ø HBL: 4,7 mm). Zum Schluss wurden die Rippensegmente mittig der Insertionsstelle aufgehackt und an beiden Hälften jeweils median der Insertionsstelle die Kompaktadicke gemessen und die Werte gemittelt.
Anhand der Ergebnisse konnte gezeigt werden, dass beide Bohrprotolle (HBS und HBL) verwendet werden können, um bovinen Rippenknochen zu evaluieren (p<0,001), da eine statistisch signifikante Korrelation zwischen Drehmoment ID mit Drehmoment BET und der Kompaktadicke bewiesen wurde (p<0,001). In Folgearbeiten wird geprüft, ob sich diese Bohrprotokolle auch auf menschlichen Kadaverknochen übertragen lassen.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine "Schutzfunktion" vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste. Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
Research in cell and developmental biology requires the application of three-dimensional model systems that reproduce the natural environment of cells. Processes in developmental biology are therefore studied in entire systems like insects or plants. In cell biology, three-dimensional cell cultures (e.g. spheroids or organoids) model the physiology and pathology of cells, tissues or organs. In all systems, the cellular neighborhood and interactions, but also physicochemical influences, are realistically presented. The production and handling of these model systems is rather simple and allows for reproducible characterization.
Confocal and light sheet-based fluorescence microscopy (LSFM) enable the observation of these systems while maintaining their three-dimensional integrity. LSFM is applicable to imaging live samples at high spatio-temporal resolution over long periods of time. The quality of the acquired datasets enables the extraction of quantitative features about morphology, functionality and dynamics in the context of the complete system. This approach is referred to as image-based systems biology. Exploiting the potential of the generated datasets requires an image analysis pipeline for data management, visualization and the retrieval of biologically meaningful values.
The goal of this thesis was to identify, develop and optimize modules of the image analysis pipeline. The modules cover data management and reduction, visualization, reconstruction of multiview image datasets, the segmentation and tracking of cell nuclei and the extraction of quantitative features. The modules were developed in an application-driven manner to test and ensure their applicability to real datasets from three-dimensional fluorescence microscopy. The underlying datasets were taken from research projects in developmental biology in insects and plants, as well as from cell biology.
The datasets acquired in fluorescence microscopy are typically complex and require common image processing steps in order to manage, visualize, and analyze the datasets. The first module accomplishes automatic structuring of large image datasets, reduces the data amount by image cropping and compression and computes maximum projection images along different spatial directions. The second module corrects for intensity variations in the generated maximum projection images that occur as a function of time. The program was published as a part of an article in Nature Protocols. Another developed module named BugCube provides a web-based platform to visualize and share the processed image datasets.
In LSFM, samples can be rotated in-between two acquisitions enabling the generation of multiview image datasets. Prior to my work, Frederic Strobl and Alexander Ross acquired the complete embryogenesis of the red flour beetle, Tribolium castaneum, and the field cricket, Gryllus bimaculatus, with LSFM. I evaluated a plugin for the software FIJI as a module for the reconstruction of such datasets. The plugin was optimized for automation and efficiency. We obtained the first high quality three-dimensional reconstructions of Tribolium and Gryllus datasets.
Optical clearing increases the penetration depth into samples, thus providing endpoint images of entire three-dimensional objects with cellular detail. This work contributes a quantitative characterization module that was applied to endpoint images of optically cleared spheroids. A program for the generation of ground truth datasets was developed in order to evaluate the cell nuclei segmentation performance. The program was part of a paper that was published in BMC Bioinformatics. Using the program, I could show that the cell nuclei segmentation is robust and accurate. Approaches from computational topology and graph theory complete the segmentation of cell nuclei. Thus, the developed module provides a comprehensive quantitative characterization of spheroids on the level of the individual cell, the cell neighborhood and the whole cell aggregate. The module was employed in four applications to analyze the influence of different stress conditions on the morphology and cellular arrangement of cells in spheroids. The module was accepted for publication in Scientific Reports along with the results for one application. The cell nuclei segmentation further provided a data source for simulation models that used correlation functions to identify structural zones in spheroids. These results were published in Royal Society Interface.
The final part of this work presents a module for cell tracking and lineage reconstruction. In collaboration with Dr. Alexis Maizel, Dr. Jens Fangerau and Dr. Daniel von Wangenheim, I developed a module to track the positions of all cells involved in lateral root formation in Arabidopsis thaliana and used the extracted positions for extensive data analysis. We reconstructed the cell lineages and established the first atlas of all founder cells that contribute to the formation. The analysis of the retrieved data allowed us to study conserved and individual patterns in lateral root formation. The atlas and parts of the analysis presented in this thesis were published in Current Biology.
In this thesis, I developed modules for an image analysis pipeline in three-dimensional fluorescence microscopy and applied them in interdisciplinary research projects. The modules enabled the organization, processing, visualization and analysis of the datasets. The perspective of the image analysis pipeline is not restricted to image-based systems biology. With ongoing development of the image analysis pipeline, it can also be a valuable tool for medical diagnostics or industrial high-throughput approaches.
Einführung: Die höchste Offenheitsrate in der arteriellen Bypasschirurgie der unteren Extremitäten wird mit einem Segment der Vena saphena magna (VSM) von ausreichender Länge und Durchmesser erreicht. Dabei ist der Venendurchmesser der einzige signifikant korrelierende Faktor für das Auftreten einer Transplantatsstenose und damit der beste Prädiktor für die primäre und die sekundäre 2-Jahre-Durchgängigkeitsrates. In 20-40% der Patienten fehlt ein bzgl. des Lumens geeignetes Segment der Vena saphena magna zur Herstellung eines Bypasses bei der primären Operation. Daher wurde eine Technik entwickelt, kleinlumige Vena saphena magna Segmente mittels einer Valvulotomie zu erweitern.
Ziel: Eine zu kleinlumige Vena saphena magna soll VSM für eine spätere Verwendung als autologes Bypassmaterial der unteren Extremität konditioniert werden. Die häufigsten Indikationen für eine derartige Konditionierung sind die Bypassverwendung bei der operativen Therapie der peripheren arteriellen Verschlusskrankheit (pAVK) und beim Aneurysma der Arteria poplitea (PA).
Methoden: Diese prospektive Pilotstudie würde zwischen Juni 2007 und November 2011 durchgeführt. 25 Patienten (26 Fälle) mit einem VSM Durchmesser zwischen 2 und 3mm erhielten eine in situ VSM-Valvulotomie. Die Zerstörung der suffizienten Venenklappen ermöglicht einen retrograden Blutstrom in die Vena saphena magna. Der hierdurch erzeugte Wachstumsreiz soll zu einer Durchmesserzunahme der Vene führen. Nach Erreichen eines Durchmessers von > 3mm für infragenuale Rekonstruktionen und von > 3,5 mm für supragenuale Rekonstruktion wurden die konditionierten Venensegmente als Bypass implantiert. Bei 23 Patienten war die Bypassindikation eine nicht kritische pAVK. Bei 2 Patienten war ein Aneurysma der Arteria poplitea die Indikation. Einschlusskriterium für Teilnahme an der Studie war eine nicht variköse VSM mit einem Querdurchmesser zwischen 2 und 3 mm. Die Venenevaluation erfolgte duplexsonografisch im Stehen durch eine Beurteilung der epifaszialen Vena saphena magna von der Leiste bis zum Innenknöchel. Messpunkte waren: 10 cm unterhalb des Hiatus saphenus, 10 cm oberhalb des Knies, 10 cm unterhalb des Knies und 10 cm oberhalb des Innenknöchels. Um das Venenwachstum zu ermitteln, diente als Messpunkt der kleinste ermittelte Durchmesser über einem Messbereich von 10 mm.
Drei Patienten, bei denen ein femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert wurde, hatten bei der Implantation einen Durchmesser der konditionierten VSM > 3.5 mm. Bei 13 Patienten mit Bypassimplantation unterhalb des Kniegelenkes war die konditionierte VSM > 3mm. Eine Wiederholung der Valvulotomie war in keinem der Patienten nötwendig. Die valvulotomierte VSM wurde bei allen Bypassoperationen offen chirurgisch entnommen. Zur postoperativen Kontrolle erfolgten eine Duplexuntersuchung und eine ABI-Messung 1,3,6,12,18 und 24 Monate nach der Implantation.
Ergebnisse: Durchschnittlich vergrößerte sich der VSM-Durchmesser von initial 2,5±0,18 mm vor Valvulotomie auf 2,8±0,2 mm, 3,0±0,3mm und 3,2±0,4 mm jeweils 30, 60 und 90 Tage nach Valvolutomie. Bei der Entnahme betrug der durchschnittliche Bypassdurchmesser 3.7±0.6 mm. Die primäre 1-Jahres-Offenheitsrate mit der valvulotomierten VSM war 81±9,8% im Vergleich zu in der Literatur publizierten 58,0%±8,4% für alloplastische Transplantate, 51% für kleinkalibrige VSM und 81,6%±3,6% für Armvenentransplantate. Die sekundäre 1-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 87%±8,3% verglichen mit 82,6% für in der Literatur angegebene Transplantationen mit kleinkalibriger VSM. Die primäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 69%±11,8%, verglichen mit 50% in der Literatur angegebener Transplantationen von kleinkalibrige VSM benutzt wurden und 72%, falls Armvenentransplantate benutzt wurden. Die sekundäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik lag bei 75%±11%.
Fazit: Die Valvulotomie kann zur Zunahme des Venendurchmessers vor Anlage eines femoro-distalen Bypasses verwendet werden, weil sie regelhaft zum Reflux in der valvulotomierten Vene führt und dadurch ein relevantes Venenwachstum verursacht. Zwischen 60 und 90 Tagen nach Valvulotomie wird ein Venenduchmesser > 3.5 mm erreicht und die valvulotomierte VSM kann als femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert werden. Für eine Anastomose unterhalb des Kniegelenkes genügt ein Wachstum bis > 3 mm. Wenn die valvulotomierte Vene einen entsprechenden Durchmesser erreicht, kann die konditionierte VSM benutzt werden, um einen Bypass mit guter Offenheitsprognose zu konstruieren oder einen nicht funktionierenden Bypass zu ersetzen.
Fossile Rohstoffe dienen in unserer heutigen Gesellschaft als Energiequelle und als Rohstofflieferant für Grund-, Feinchemikalien und Pharmazeutika. Sie tragen jedoch zum Klimawandel und Umweltverschmutzung bei. Lignocellulosische Biomasse ist eine erneuerbare und nachhaltige Alternative, die durch biotechnologische Prozesse erschlossen werden kann. Die Bäckerhefe Saccharomyces cerevisiae ist ein sehr gut untersuchter Modellorganismus, für den es zahlreiche genetische Werkzeuge und Analysemethoden gibt. Zudem wird S. cerevisiae häufig in biotechnologischen Prozessen eingesetzt, da diese Hefe robust gegenüber industriellen Bedingungen wie niedrigen pH-Werten, toxischen Chemikalien, osmotischem und mechanischem Stress ist. Die Pentose D-Xylose ist ein wesentlicher Bestandteil von lignocellulosischer Biomasse, die aber nicht natürlicherweise von der Bäckerhefe verwerten werden kann. Für eine kommerzielle Herstellung von Produkten aus lignocellulosischer Biomasse muss S. cerevisiae D-Xylose effektiv verwerten. Für die Bäckerhefe konnten heterologe Stoffwechselwege etabliert werden, damit diese D-Xylose verwerten kann. Für eine effiziente Xyloseverwertung bleiben dennoch zahlreiche Herausforderungen bestehen. Unter anderem nehmen die Zellen D-Xylose über ihre endogenen Hexosetransporter nur langsam auf. Die heterologe Xylose-Isomerase (XI) besitzt in S. cerevisiae eine geringe Aktivität für die Isomerisierung von D-Xylose. Unspezifische Aldosereduktasen konkurrieren mit der Xylose-Isomerase um das gleiche Substrat und produzieren Xylitol, ein starker Inhibitor der Xylose-Isomerase. Eine Möglichkeit die Umsatzrate von Enzymen zu steigern und Substrate vor Nebenreaktionen zu schützen, ist die Anwendung von Substrate Channeling Strategien. Bei Substrate Channeling befinden sich die beteiligten Enzyme in einem Komplex, wodurch die Substrate lokal angereichert werden und von einem aktiven Zentrum zum nächsten weitergeleitet werden, ohne Diffusion in den restlichen Reaktionsraum. In dieser Arbeit wurde untersucht, ob ein Komplex zwischen einem membranständigen Transporter und einem löslichen Enzym konstruiert werden kann, um durch Substrate Channeling eine verbesserte Substrat-Verwertung zu erreichen. Die Xylose-Isomerase aus C. phytofermentans und die endogene Hexose-Permease Gal2 sollten in dieser Arbeit als Modellproteine in S. cerevisiae-Zellen mit Hilfe von Protein-Protein-Interaktionsmodulen (PPIM) in räumliche Nähe zueinander gebracht werden.
Die Expression verschiedener PPIM konnte in S. cerevisiae mittels Western Blot nachgewiesen werden. Auch Fusionsproteine aus unterschiedlichen PPIM wurden in dieser Hefe exprimiert. Die PPIM binden komplementäre PPIM oder kurze Peptidliganden, welche an die Xylose-Isomerase und an den Gal2-Transporter fusioniert wurden. Die Funktionalität beider Proteine wurde mittels in vivo und in vitro Tests untersucht. Die Xylose-Isomerase mit N-terminalen Liganden des WH1-Protein-Protein-Interaktionsmoduls (WH1L-XI) und der Gal2-Transporter mit N-terminalen SYNZIP2-Protein-Protein-Interaktionsmodul (SZ2-Gal2) erwiesen sich als geeignete Kandidaten für weitere Untersuchungen. Mittels indirekter Immunfluoreszenz konnte die Ko-Lokalisierung von SZ2-Gal2 und WH1L-XI, die einander über ein Scaffold-Protein binden, nachgewiesen werden.
Transformanten, in denen ein Komplex aus Transporter, Scaffold-Protein und Xylose-Isomerase gebildet wurde, zeigten bessere Fermentationseigenschaften gegenüber der Scaffold-freien Kontrolle und dem Wildtyp: Sie verwerteten Xylose schneller, bildeten weniger vom unerwünschten Nebenprodukt Xylitol, produzierten mehr Ethanol und wiesen eine höhere Ethanolausbeute auf. Der beobachtete Substrate Channeling Effekt kompensierte die geringere Enzymaktivität der WH1L-XI im Vergleich zum Wildtyp-Protein. Die Wirksamkeit des Substrate Channeling wurde verringert, wenn die Bildung des Komplexes aus Transporter, Scaffold-Protein und Xylose-Isomerase gestört wurde, indem ein getaggtes GFP mit dem Scaffold-Protein um die Bindungsstelle an Gal2 konkurrierte. Dies zeigt, dass die positive Wirkung auf die Komplex-Bildung zwischen XI und Gal2 zurück zu führen ist. Die Fermentationseigenschaften konnten gesteigert werden, indem der zuvor zwischen SZ2-Zipper und Gal2-Transporter verwendete Linker, der aus zehn Aminosäuren von Glycin, Arginin und Prolin (GRP10) bestand, durch einen aus Glycin und Alanin (GA10) ersetzt wurde. Die verbesserten Fermentationseigenschaften beruhten auf einem Substrate Channeling Effekt und einer gesteigerten Aufnahmerate des SZ2-GA10-Gal2-Transporters. Ein Vergleich der Strukturvorhersagen von SZ2-GRP10-Gal2 und SZ2-GA10-Gal2 zeigte, dass der GRP10-Linker einen unstrukturierten, flexiblen Linker ausbildet, während der GA10-Linker eine starre α-Helix ausbildet. Die Struktur und der Transportprozess von Gal2 sind nicht aufgeklärt. Bei verwandten Transportern geht man davon aus, dass Substrate durch Konformationsänderungen ins Innere der Zelle transportiert werden, indem die beiden Domänen gegeneinander klappen. Die α-Helix könnte die Geschwindigkeit der Konformationsänderungen begünstigen.
Durch Kontrollexperimente konnte ausgeschlossen werden, dass die gesteigerten Fermentationseigenschaften eine Folge der Stabilisierung der XI- und Gal2-Fusionsproteine durch das Anfügen des Liganden oder durch Komplexbildung mit dem Scaffold-Protein waren. Substrate Channeling zwischen Gal2 und XI entsteht durch die Komplexbildung mit dem Scaffold-Protein, wodurch sich Gal2 und XI in räumlicher Nähe zueinander befinden. Dieser Effekt beruht möglicherweise zusätzlich aufgrund einer hohen örtlichen Ansammlung dieser Proteine, da die tetramere XI weitere Scaffold-Proteine binden könnte, welche weitere Gal2-Transporter binden könnte. Darüber hinaus sammeln sich Transporter an bestimmten Orten der Membran an und Transporter mit ähnlicher oder gleicher Transmembransequenz tendieren dazu zu ko-lokalisieren. Hierdurch könnten Gal2-XI-Agglomerate entstehen und Xylose wird mit hoher Wahrscheinlichkeit von einer der vielen Xylose-Isomerasen umgesetzt.
Algae as primary producers are highly important in aquatic ecosystems and provide a variety of environmental and anthropogenic services. In small lotic ecosystems in agriculturally influenced landscapes, algae are often the main constituent of the base of the food web and they contribute considerably to biodiversity. Within these small lotic ecosystems, algae are influenced by both natural stressors, such as flow regime and dry-out events, and anthropogenic factors. Agricultural practices especially influence algal communities by introducing plant protection products (PPP) and fertilizers into the water. The impacts of these exposures and how they affect planktonic algae in particular are not yet well studied in small lotic ecosystems. However, the protection of algae as primary producers is of high relevance and was thus included in official biomonitoring programs such as the European Water Framework Directive (WFD) or in risk assessment of e.g. PPPs. Hence, this thesis addresses this knowledge gap and links new information on algal communities in small lotic ecosystems with biomonitoring and risk assessment.
Data was gathered from small ditches and streams in central Germany as well as from laboratory algal assays. A technique to rapidly classify and quantify planktonic and benthic algae based on their photopigment concentration (measured via delayed fluorescence - DF) in ecological and ecotoxicological studies was assessed, both in the laboratory and in the field. This research provides insight into planktonic and benthic algal communities in small streams and ditches in order to improve management and protection strategies in the face of increased agricultural chemical input. ...
Polytraumatisierte Patienten erleiden in ca. 40% der Fälle eine Verletzung des Thorax. Die Verletzung des Thorax erhöht die Dauer der Beatmungszeit, das Pneumonie-Risiko, die Intensiv- und Krankenhausverweildauer sowie das Letalitätsrisiko. Seit 2003 wurde im Universitätsklinikum Frankfurt am Main ein standardisiertes Behandlungsverfahren zur intensivmedizinischen Behandlung nach Polytrauma implementiert und weiterentwickelt. Eckpunkte des Konzeptes sind eine kinetische Therapie im Rotorest®Bett, eine initiale Beatmung mit einem PEEP von 15mbar, eine frühzeitige assistierte Spontanatmung und frühzeitige enterale Ernährung. In dieser Arbeit wurden die Auswirkungen der Weiterentwicklung des Behandlungsprotokolls, insbesondere die Auswirkungen der Ernährung und Sedierung auf die Leberfunktion und die Entwicklung einer Pneumonie, untersucht. Das Behandlungsprotokoll sah folgende Behandlungsstandards vor: 2003: Kontrollierte Beatmung und Therapie im Rotorest®Bett in den ersten Tagen, PEEP-Einstellung entsprechend der Oxygenierung, individuelle Entwöhnung von der Beatmung und der Rotorest®-Therapie. Der Kostaufbau überwiegend parenteral, Sedierung mit Propofol und Midazolam. 2006: 72h Beatmung mit einem PEEP von 15mbar, Rotorest®-Bett, zügige assistierte Beatmungsform. Individuelle Entwöhnung von der Beatmung und der Rotorest®-Therapie, der Kostaufbau parenteral und enteral, Sedierung überwiegend mit Midazolam. 2009: Reduktion der Rotorest®-Therapie mit einem PEEP von 15mbar auf 40 bis 48h, PEEP-Reduktionsprotokoll. Der Kostaufbau erfolgte primär enteral, die Sedierung mit vorwiegend Propofol und z. T. Midazolam.
Es konnten retrospektiv 108 Patienten (ISS 37+13) eingeschlossen werden. Bei 38,3% der Patienten lagen unvollständige Akten vor, oder die Rotorest® Therapie wurde erst nach 48h begonnen. Durch das Konzept konnten die Beatmungszeit von 17±15 auf 8±8 Tage und die intensivstationäre Verweildauer von 17±9 auf 10±9 Tage signifikant reduziert werden (p<0,001), die Krankenhausverweildauer blieb gleich. Die Pneumonierate fiel nicht signifikant von 25% in 2003 nach einem Anstieg auf 37% in 2006 auf 17% in 2009. Das Pneumonierisiko stieg mit der Höhe der aufgenommenen kcal/kgKG, der Gesamt-kcal/d bis Tag 7 sowie der Summe der kcal bis Tag 5 signifikant (p<0,05). Eine Leberdysfunktion erhöhte das Letalitätsrisiko signifikant (Rs 0,267; p<0,01). Die Rate an Leberdysfunktionen binnen der ersten 14 Tage fiel von 34,7% in 2003 nach einem Anstieg auf 43,4% im Jahr 2006 auf 22,1% in 2009 (p<0,001). Eine Leberdysfunktion korrelierte, bei Auftreten bis Tag 7, sowohl mit einer überwiegend parenteralen Ernährung bis Tag 5 (p=0,021) als auch der Höhe der parenteralen kcal (Rs 0,248; p=0,02) und der Höhe der Gesamt-kcal (Rs 0,201; p=0,038). Der Anteil an Patienten mit parenteraler Ernährung konnte von 92,2% (bis Tag 5) in 2003 und 97,5% in 2006 auf 65% in 2009 signifikant reduziert werden, ebenso wie die Gesamtmenge an verabreichten Kalorien bis Tag 7 (von 1210kcal/d auf 1113kcal/d und 2009 auf 851kcal/d; p<0,001). Keine Korrelation bestand zwischen der Entstehung einer Leberdysfunktion und der Beatmung, der Höhe des PEEP oder der Entwicklung einer Pneumonie. Im Gegensatz dazu erhöhte die verabreichte Menge von Midazolam in den ersten 7 Tagen (mg/kg/d) das Pneumonie-Risiko signifikant (p=0,024). Als unabhängige Risikofaktoren für die Entwicklung einer Pneumonie stellten sich die Transfusion von EKs (OR 3,646 95%CI 1,074-12,383), die Höhe der verabreichten Gesamtkalorien (>5000kcal) binnen der ersten fünf Tage (OR 3,219 95%Cl 1,033-10,034) und die Höhe des Beatmungsspitzendruckes (OR 1,135 95%Cl 1,010-1,275) dar.
Die Daten der vorliegenden Arbeit bestätigen den kritisch abzuwägenden Einsatz von Midazolam in der Intensivtherapie. Weiterhin zeigte sich ein signifikanter Einfluss der Ernährung auf die Morbidität der Patienten entsprechend der Literatur. Die vorliegenden Ergebnisse weisen weiter darauf hin, dass bei schwerverletzten Patienten auch die Gesamtkalorienzufuhr gering zu halten ist, um die Rate an Pneumonien zu reduzieren. Die Beatmung mit einem PEEP von 15mbar in den ersten Behandlungstagen unter PiCCO-Monitoring erscheint hierbei keine negativen Auswirkungen auf die Entwicklung einer Leberdysfunktion zu haben.
Zusammenfassend kann durch ein vorwiegend enterales Ernährungsschema, mit unter den Empfehlungen der AWMF liegenden Gesamtkalorien, das Auftreten von Leberdysfunktionen und die Rate an Pneumonien signifikant reduziert, durch ein strukturiertes Therapiekonzept mit u.a. reduziertem Einsatz von Midazolam eine signifikante Reduktion der Beatmungszeit sowie der Intensivverweildauer erreicht und eine Reduktion der Pneumonierate unterstützt werden.
Es existieren keine Vergleichsstudien, die den Einfluss eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge, tiefen Nackenkniebeuge und in der maschinengeführten Viertel-Nackenkniebeuge bis zu einem Kniegelenkwinkel von 120 ° auf die Entwicklung der Schnellkraftleistung, die Technikausführung, den Beschleunigungsablauf und die willkürliche neuromuskuläre Aktivierungsfähigkeit im Countermovement Jump (CMJ) sowie die winkelspezifische Entwicklung des isometrischen Maximal- und Explosivkraftvermögens der Beinextensoren untersucht haben. Aus diesem Grund wurden in zwei Forschungsprojekten an 23 weiblichen und 36 männlichen Sportstudierenden (24,11 ± 2,88 Jahre) die Auswirkungen eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge (Gruppe FKB, n = 20), tiefen Nackenkniebeuge (Gruppe NKB, n = 20) und der Viertel-Nackenkniebeuge bis 120-Grad-Kniegelenkwinkel (Gruppe NKB¼, n = 19) auf die Schnellkraftleistung im Squat Jump (SJ) und CMJ untersucht. Die Ausführung des CMJ wurde mit einer Digitalkamera aufgenommen, um die jeweils fünf besten Sprünge aus den Eingangs- und Ausgangstests einer Bewegungsanalyse zu unterziehen. Zu diesem Zweck erfolgte die Analyse und Auswertung der Hüft- und Kniegelenkwinkel im Umkehrpunkt des CMJ von insgesamt 740 Sprüngen. Des Weiteren wurden elektromyographische (EMG-)Ableitungen von Vastus medialis, Vastus lateralis,Rectus femoris, Biceps femoris und Erector spinae während der Ausführung des CMJ vorgenommen. Die Parallelisierung der drei Versuchsgruppen erfolgte auf Basis der Sprunghöhen im CMJ. Zusätzlich wurde eine Kontrollgruppe (K, n = 16) gebildet (Alter: 24,38 ± 0,50 Jahre)...
Ziel dieser Dissertation war es, die biologische Rolle der Autophagie für die Entwicklung, Alterung und mitochondriale Qualitätskontrolle in dem Ascomyceten Podospora anserina zu untersuchen. Folgende Ergebnisse wurden dabei erzielt:
1. Der Verlust einer funktionalen Autophagie-Maschinerie ist in P. anserina mit einem Defekt der Sporen-Entwicklung bzw. -Keimung charakterisiert.
2. Es konnten drei Methoden zur Untersuchung der Autophagie in P. anserina etabliert werden: 1) Die Verwendung eines Gfp::PaAtg8-Stamms ermöglicht die Fluoreszenzmikroskopische Bestimmung der Autophagosomen-Anzahl; 2) Die phänotypische Charakterisierung des PaAtg1-Deletionsstamms unter verschiedenen Stressbedingungen (z. B. Stickstoffmangel, Rapamycin) liefert Hinweise auf eine mögliche Autophagie-abhängige Stressadaption; 3) Die Verwendung des „GFPcleavage assays“ ermöglicht einen quantitativen Nachweis genereller und selektiver Autophagie (hier: Mitophagie).
3. In zwei voneinander unabhängigen Experimenten wurde ein altersabhängiger Anstieg der Autophagie für P. anserina demonstriert: Das Autophagie-Niveau nimmt in gealterten P. anserina-Kulturen zu. Gleichzeitig resultiert der Verlust der Autophagie in ∆PaAtg1 in eine reduzierte Lebensspanne. Unter Stressbedingungen (hier: Stickstoffmangel) wird dieser positive Einfluss der Autophagie auf die Lebensspanne im Wildtyp sogar noch verstärkt.
4. Der unerwartet „gesunde“ Phänotyp der PaSod3-Deletionsmutante ist abhängig von einer funktionalen Autophagie-Maschinerie. Der Mitophagie wurde eine besondere Rolle als Kompensationsmechanismus für den Verlust von PaSOD3 zugeteilt, da das Mitophagie-Niveau in dieser Mutante erhöht ist. Am Beispiel dieser Mutante, für die ein erhöhter Superoxid-Ausstoß nachgewiesen wurde, konnte eine Dosis-abhängige Wirkung von ROS in P. anserina identifiziert werden. Eine geringe zelluläre ROSMenge verursacht eine mitohormetische Reaktion, die eine Induktion der Mitophagie zur Folge hat und sich positiv auf den Organismus auswirkt. Übersteigt die zelluläre ROS-Dosis einen kritischen Punkt, kommt es zur Induktion des autophagischen Zelltods und damit zum vorzeitigen Tod des Individuums.
5. Der Verlust der PaCLPXP-Protease führt zu Beeinträchtigungen in der Funktion und Zusammensetzung der mitochondrialen Atmungskette. Dieses Defizit im Energiemetabolismus wird über eine Induktion der AOX, vor allem aber über eine ZUSAMMENFASSUNG 127 gesteigerte Autophagie kompensiert. Die deutlich verlängerte Lebensspanne der verschiedenen PaClpXP-Deletionsmutanten (∆PaClpX, ∆PaClpP und ∆PaClpXP) ist abhängig von einer funktionalen Autophagie-Maschinerie. Interessanterweise konnte keine kompensatorische Funktion der Autophagie oder Mitophagie für den Verlust der mitochondrialen i-AAA-Protease PaIAP in P. anserina nachgewiesen werden.
Autophagie/Mitophagie stellt einen übergeordneten Qualitätskontrollmechanismus in P. anserina dar, der den Organismus sehr effektiv vor zellulären Schäden und Dysfunktionen bewahrt und einen positiven Einfluss auf die Alterung, Entwicklung und Energieversorgung einnimmt.
In der vorliegenden Arbeit wurde ein integrativer Netzwerkmodellierungsansatz gewählt, um die Rolle des Endothels im Kontext der Arteriosklerose zu untersuchen. Hierbei wurden bioinformatische Analysen, laborexperimentelle Versuche und klinische Daten vereinigt und aus dieser Synthese neue klinisch relevante Gene identifiziert und beschrieben.
Das Endothel trägt maßgeblich zur Homöostase des vaskulären Systems bei und eine Dysfunktion des Endothels fördert die Entstehung der Arteriosklerose. Im Zuge der Atherogenese entstehen vermehrt reaktive Sauerstoffspezies, die Lipide in der Membran von Plasma-Lipoprotein-Partikeln und in der zellulären Plasmamembran oxidieren. Eine Gruppe solcher oxidierter Membranlipide ist oxPAPC, das in erhöhter Konzentration in arteriosklerotischen Plaques und lokal an Orten chronischer Entzündung im vaskulären System vorkommt. Weitherhin findet sich diese Gruppe von oxidierten Phospholipiden in oxidierten LDL-Partikeln, in denen oxPAPC die Bindung an Makrophagen vermittelt und hierdurch maßgeblich zur Bildung der Schaumzellen und damit zum arteriosklerotischen Prozess beiträgt. Die durch oxPAPC verursachte Veränderung der Endothelzelle ist bisher wenig erforscht. Es ist jedoch bekannt, dass oxPAPC die Transkriptionslandschaft in Endothelzellen tiefgreifend verändert. Um der Komplexität der Endothelzellveränderung gerecht zu werden, wurde ein bayesscher Ansatz angewendet.
In einem ersten Schritt wurden Expressionsprofile von humanen Aortenendothelzellen (HAEC) aus 147 Herztransplantatspendern verwendet. Diese Expressionprofile enthalten Transkriptionsinformationen der 147 HAEC, die mit oxPAPC oder Kontrollmedium behandelt worden waren. Es wurden signifikant koexprimierte Gene identifiziert und hiervon Gen-Paare berechnet, die einen differentiellen Vernetzungsgrad zwischen Kontroll- and oxPAPC-Status aufweisen. Dieses Netzwerkmodell gibt darüber Aufschluss, welche Gene miteinander in Verbindung stehen. 26759 Gene-Paare, die differentiell verbunden und signifkant koexprimiert waren, wurden hierarchisch gruppiert. Es wurden neun Gen-Gruppen mit einer erhöhten und elf Gen-Gruppen mit einer verminderten Konnektivität nach oxPAPC identifiziert. Gruppe 6 der erhöhten Konnektvitäts-Gruppen wies hierbei die höchste kohärente Konnektivität von allen Gruppen auf. Eine Analyse signifikant überrepräsentierter kanonischer Gensätze ergab, dass diese Gruppe insbesondere Serin-Glycin-Aminosäuremetabolismus, tRNA- und mTOR-Aktivierung wiederspiegelte. Der hier gewählte Netzwerkmodellierungsansatz zeigte auf, dass der Aminosäuremetabolismus durch oxidizerte Phospholipide massiven Veränderungen unterworfen ist.
Um den Mechanismus der Veränderung des Aminosäuremetabolismus näher zu untersuchen, wurden bayessche Netzwerkmodelle verwendet. Dieses Netzwerkmodell enthält im Gegensatz zum differentiellen Koexpresssionsmodell gerichtete Informationen innerhalb des Netzwerkgraphes. Die Gen-Gen Verbindungen sind kausal, wodurch sich eine Hierarchie bildet und Schlüsselfaktoren innerhalb des Netzwerks bestimmt werden können. Durch die Integrierung von Expressionsprofilen und Genomprofilen derselben HAEC-Kohorte und der Inferenz von kausalen Gen-Gen-Verbindungen ergaben sich zwei bayessche Netze: Kontroll- und oxPAPC-Netzwerk. Permutationsuntersuchungen und systematische Beurteilung im Vergleich zu Gen-Gen-Verbindungen in Online-Datenbanken zeigten eine erhöhte Prognosefähigkeit der beiden HAEC bayesschen Netze. Es wurden die Schlüsselfaktoren und deren Teilnetzwerke berechnet und auf biologische Wege hin untersucht. Hierbei wurde das mitochondriale Protein MTHFD2 als ein Schlüsselfaktor für ein Teilnetzwerk des oxPAPC bayesschen Netzes identifiziert. Dieses Teilnetz zeigte eine ähnliche Gensatzanreicherung wie GOC-AA und überlappte mit diesem signifikant.
...
Der negative Einfluss auf die Abstoßungsrate, die Transplantatfunktion und das Transplantatüberleben bei Nierentransplantationen von Antikörpern, die im Serum von Transplantatempfängern nachgewiesen werden, ist unumstritten. Die Entwicklung immer sensitiverer Methoden zur Antikörperdetektion wie beispielsweise die Luminex-Technologie wirft jedoch neue Fragen auf: Sind die hier nachgewiesenen, zum Teil sehr niedrigtitrigen Antikörper immer noch relevant für das Outcome von Transplantationen? Oder bergen die hier zusätzlich aufgedeckten Antikörper nur die Gefahr in sich, die Organallokation zu erschweren und mögliche komplikationslose Transplantationen zu verhindern? Zur Beantwortung dieser Fragen erfolgte die Durchführung dieser retrospektiven Studie.
In die Studie wurden Seren von 197 Nierentransplantatempfängern eingeschlossen. Diese Seren wurden vor der Transplantation auf Antikörper im Luminex untersucht und anschließend deren Transplantatfunktion und das Transplantatüberleben in Abhängigkeit vom Antikörperstatus ermittelt. Zusätzlich erfolgte eine Gegenüberstellung mit den Ergebnissen aus den im Rahmen der aktuellen Richtlinien zur Transplantationskompatibilität durchgeführten Testmethoden LCT und ELISA.
Bei einem Vergleich der drei unterschiedlichen Techniken zum HLA-Antikörpernachweis zeigte sich, dass der Luminex eine deutlich größere Sensitivität als der ELISA und insbesondere als der LCT besitzt. Außerdem war nachweisbar, dass die mittels Luminex Technology nachgewiesenen HLA-Antikörper ein schlechteres Transplantatüberleben bewirken (Graphik 4). Dies zeigte sich insbesondere, wenn HLA-Klasse I oder gleichzeitig HLA-Klasse I und HLA-Klasse II Antikörper bei Patienten vorhanden sind (Graphik 5). Im Gegensatz dazu fanden sich bei der Betrachtung der Patienten mit im LCT oder im ELISA nachgewiesen HLA-Antikörpern deutlich geringere, klinisch prognostische Hinweise auf das Transplantatüberleben (Graphik 10 und 13).
Das Transplantatüberleben war signifikant besser bei nicht-immunisierten Patienten als bei der Kohorte, die mittels einer der Nachweismethoden HLA-spezifische Antikörper aufwies. Eine Analyse der Transplantatfunktion, die mithilfe der Proteinurie und des Serum-Kreatinins bestimmt wurde, ergab, dass nicht immunisierte Patienten ein besser funktionierendes Transplantat besitzen als antikörperpositive Empfänger. Ein besonders negativer Einfluss donorspezifischer Antikörper konnte hier jedoch nicht nachgewiesen werden.
Im Hinblick auf die klinische Relevanz der nachgewiesenen HLA-Antikörper erfolgte die Auswertung mit unterschiedlichen MFI Kategorien (MFI 1000, 2000, 3000 und 4000). Anhand dieser Arbeit wurde ein MFI-Grenzwert zur Bestimmung des Antikörperstatus im Luminex von größer oder gleich 1000 im Luminex festgelegt, der am besten mit dem Transplantatoutcome korrelierte. Ein negativer Einfluss donorspezifischer Antikörper konnte jedoch nicht nachgewiesen werden. Es zeigte sich dennoch bei MFI Werten über 2000 ein tendenziell schlechteres Transplantatüberleben, wenn donorspezifische Antikörper vorliegen (Graphik 7).
Bei der Betrachtung des Antikörperstatus im LCT und im ELISA war kein Unterschied hinsichtlich des Transplantatüberlebens in Abhängigkeit vom Antikörperstatus sichtbar. Jedoch wurden die Patientenseren mit diesen beiden Methoden vor der Durchführung der Transplantation auf präformierte Antikörper untersucht und bei positiver Befundung eine intensivierte Immunsuppression veranlasst, was zu einer Beeinflussung des Transplantatoutcomes führt. Eine Unterteilung der nicht immunisierten Patienten im LCT und im ELISA anhand des Luminex-Ergebnisses zeigt, dass Patienten, die sowohl im LCT bzw. ELISA als auch im Luminex keine Antikörper aufweisen ein signifikant besseres Transplantatüberleben besitzen als Empfänger, die nur im Luminex immunisiert sind, jedoch nicht im LCT bzw. im ELISA. Dies lässt darauf schließen, dass die Beachtung von Antikörpern, die ausschließlich im Luminex nachgewiesen werden können, zu einem besseren Transplantatoutcome führt. Somit ist eine Durchführung des Luminex in Kombination mit anderen Antikörpernachweisverfahren von Vorteil.
Zur genauen Beantwortung der anfangs aufgeworfenen Fragen bedarf es sicherlich trotz einiger bereits vorhandener Arbeiten – mit zum Teil jedoch sehr unterschiedlichen Ergebnissen – noch zusätzlicher Studien. Auch sollte die Rolle der Denaturierung der HLA-Antigene auf den Beads, die zu falsch positiven und negativen Resultaten führen können, weiter analysiert werden. Außerdem muss der Einfluss komplementaktivierender Antikörper, wie mit der C1q- und C4d-Technik im Luminex nachweisbar, und der Einfluss nicht HLA-spezifischer Antikörper noch genauer erläutert werden.
Der brain-derived neurotrophic factor (BDNF) ist ein in jüngerer Vergangenheit vielfach untersuchter Wachstumsfaktor. Dies liegt zum einen daran, dass der BDNF mit unterschiedlichen neurologischen Erkrankungen – wie dem Morbus Parkinson – in Verbindung gebracht wird (SCALZO et al., 2010; ZUCCATO & CATTANEO, 2009), zum anderen an der Tatsache, dass für den BDNF ein entgegenwirkender Effekt der diesen neurologischen Erkrankungen zugrundeliegenden neurodegenerativen Prozesse nachgewiesen wurde (DECHANT & NEUMANN, 2002). Erkenntnisse der sportmedizinischen und sportwissenschaftlichen Forschung zeigen dabei, dass eine sportliche Betätigung zu einer vermehrten Expression des BDNF führen kann, wobei allgemein dynamische und über einen längeren Zeitraum ausgeführte Aktivitäten (bspw. Ausdauertraining) die größten positiven Effekte auf die Expression des BDNF zu haben scheinen (KNAEPEN, GOEKINT, HEYMAN & MEEUSEN, 2010). In Anbetracht der den Morbus Parkinson begleitenden Kardinalsymptome, welche Einschränkungen der motorischen Leistungsfähigkeit als Folge haben, ist jedoch gerade eine solche andauernde Aktivität eine oftmals mit diesem Patientenkollektiv nicht umzusetzende Trainingsmaßnahme. Die Stochastische Resonanztherapie (SRT), als zunächst nur passive Trainingsmaßnahme, welche über applizierte Vibrationen zu Muskelkontraktionen führt (HAGBARTH & EKLUND, 1966) wurde bereits mit einer vermehrten Expression neurotropher Faktoren bzw. des BDNF in Verbindung gebracht (HAAS, TURBANSKI, KESSLER & SCHMIDTBLEICHER, 2006). Diese Annahme beruhte dabei auf lediglich theoretischen Überlegungen, welche wissenschaftlichen jedoch noch nicht untersucht wurden. Neben der Betrachtung der SRT als potentielle Therapiemaßnahme für Parkinson-Patienten konnten interessante Forschungsarbeiten vergangener Jahre zeigen, dass ein Training unter Blutflussrestriktion (engl.: blood-flow-restriction; BFR) zu einer positiven Beeinflussung bspw. der motorischen Kraft führt, hierfür im Vergleich zu einem Hypertrophietraining jedoch deutlich geringere Intensitäten (1RM) notwendig sind (ELLEFSEN et al., 2015; FAHS et al., 2015; LAURENTINO et al., 2012). Diese Entdeckung ist dabei für Parkinson-Patienten interessant, so dass dieses Patientenklientel trotz einer geringer notwendigen Belastung adäquate Krafttrainingsreize appliziert bekommen kann.
Die Primärfragestellung der vorliegenden Studie war zum einen die Wirkung der SRT auf den BDNF (ad-hoc-Messung), zum anderen wurde der Sekundärfragestellung nachgegangen, ob durch ein 8-wöchiges SRT-Training eine Verbesserung auch funktioneller Parameter erzielt werden kann (Langzeiteffekt/-messung). Bezüglich der Sekundärfragestellung wurde im pre-post-Testdesign die Wirkung der SRT auf die isometrische Maximalkraft, die posturale Stabilität und den Timed-up-and-go-Test (TUG-Test) untersucht. Sowohl die Primär- als auch die Sekundärfragestellung beinhalteten neben der reinen SRT-Anwendung (SRT*) auch eine Integration der BFR (SRT*+BFR). Um Placebo-Effekte möglichst auszuschließen, wurde beiden Gruppen jeweils eine Kontrollgruppe gegenübergestellt.
An der Studie nahmen insgesamt 30 Personen mit Morbus Parkinson teil (Hoehn & Yahr 2-4). Im Ergebnis zeigte sich, dass – zunächst auf die Primärfragestellung (BDNF) bezogen – sowohl die SRT*-Intervention, als auch die SRT*+BFR-Intervention zu einer hochsignifikanten Erhöhung des BDNF führte. Im Intergruppenvergleich wiesen beide Interventionsgruppen im Vergleich zur KG eine sich signifikant unterscheidende Anpassung der BDNF-Expression auf. Im Vergleich beider Interventionsgruppen konnte dagegen keine unterschiedliche Beeinflussung des BDNF identifiziert werden. Bezüglich der Sekundärfragestellung konnte für die isometrische Maximalkraft lediglich für SRT*+BFR eine signifikante Kraftsteigerung nachgewiesen werden. Im Intergruppenvergleich zeigte sich diese als signifikant unterschiedlich zur Beeinflussung der isometrischen Maximalkraft in der KG, wohingegen kein Unterschied zwischen der SRT*+BFR und SRT* als auch der SRT* und der KG identifiziert werden konnte. Während für die posturale Stabilität in Parallelstellung sowohl im Intragruppen- als auch im Intergruppenvergleich keine signifikante Beeinflussung der SRT* und SRT*+BFR gemessen werden konnte, zeigte sich in Schrittstellung eine signifikante Veränderung der SRT*, wobei diese eine Verschlechterung der posturalen Stabilität darstellte. Im Intergruppenvergleich zeigte sich ein signifikanter Unterschied zwischen SRT* und SRT*+BFR, wobei SRT*+BFR zu einer Verbesserung der posturalen Stabilität geführt hat, diese jedoch keine statistische Signifikanz aufwies. SRT* und SRT*+BFR unterschieden sich im Vergleich zur KG dagegen nicht signifikant. Die Messung der Gangleistung (TUG-Test) zeigte überraschenderweise lediglich für die KG eine signifikante Verbesserung auf, wobei SRT* und SRT*+BFR ebenfalls zu einer Verbesserung im TUG-Test geführt haben, welche jedoch den Nachweis einer statistischen Signifikanz verpassten. Durch die gleichgerichtete Anpassung zeigte sich abschließend im Intergruppenvergleich keine statistisch signifikante Unterscheidung der Gruppen.
Zusammengefasst zeigte die SRT tendenziell die Möglichkeit einer positiven Beeinflussung des BDNF auf, welche durch die additive BFR leicht erhöht werden konnte. Bezüglich der motorischen Parameter ergaben sich heterogene Ergebnisse, so dass nicht von einer generellen positiven Wirkung der SRT ausgegangen werden kann. Zu beobachten war jedoch, dass die zusätzliche BFR in allen Einzeltests – wenn auch nicht immer statistisch signifikant – zu ausschließlich positiven Anpassungen geführt hat.
Das zwischenstaatliche Gewaltverbot steht im Zentrum der völkerrechtlichen Aufmerksamkeit. Auf bewaffnete Konflikte auf dem afrikanischen Kontinent trifft dies nur begrenzt zu. An dieses Defizit knüpft die Autorin ab der Zeitwende 1989/90 an. Dabei überschreitet sie die traditionellen Grenzen des Gewaltverbots und analysiert, inwieweit dies, v. a. durch die Fortentwicklung der Menschenrechtslehre, eine inhaltliche Änderungen erfahren hat, die auch die militärische Anwendung von Gewalt im Innern eines Staates ächtet (ius contra bellum internum). Ein weiterer Schwerpunkt sind Interventionen durch Regionalorganisation. Hierbei wird untersucht, ob multilaterale Interventionen schon dann gewohnheitsrechtliche Akzeptanz erfahren, wenn sie entweder formell oder materiell rechtmäßig sind. Zumindest solche, die durch den UN-Sicherheitsrat autorisiert sind, können diese sog. Baugenehmigungsthese für sich in Anspruch nehmen. Doch auch ohne UN-Mandat vermögen humanitäre Interventionen regionaler Organisationen in engen Grenzen völkerrechtmäßig sein.
Kinder aus zugewanderten Familien und aus den unteren Sozialschichten haben es an deutschen Schulen schwer. Zu ihrer Unterstützung werden vielfältige Fördermaßnahmen angeboten. Welche Art der Förderung insbesondere Familien mit Migrationshintergrund benötigen, wird in der vorliegenden Schrift besprochen.
Zur Beantwortung dieser Frage wurde ein Familien-Bildungsprogramm - mittels qualitativer und quantitativer Erhebungsmethoden - evaluiert. In dem Programm werden Familien über die Dauer von zwei Jahren (im Übergang von der 4. in die 5. Klasse) eng begleitet. Das vielfältige Unterstützungsangebot ist dahingehend ausgerichtet, die teilnehmenden Kinder auf ihrem schulischen Weg zu unterstützen. Ebenso möchte das Programm zur Erhöhung der gesellschaftlichen Teilhabe der Familien beitragen.
Erhebliche Leistungsfortschritte erreichen fast alle Kinder im Kompetenzbereich Lesen. Besonders die leistungsschwächeren Kinder haben von der Förderung profitiert. Auch die Rechtschreibkompetenzen haben sich im Schnitt verbessert. Das schulbezogene Fähigkeitsselbstkonzept der Kinder sowie ihre Lern- und Leistungsmotivation bleibt von der Förderung relativ unbeeinflusst. Die Eltern profitieren insbesondere von dem Zugewinn einer konstanten Ansprechperson. Es gelingt den Mitarbeiterinnen ein Stützungs-Setting aufzubauen, welches den Eltern Sicherheit vermittelt und sie zuversichtlicher werden lässt. Daneben wurde eine Reihe differentieller Wirksamkeiten ermittelt (wie Entlastung, Aktivierung, Qualifizierung). Das Ausmaß der Wirksamkeit wird durch spezielle Bedingungen - auf Seite der Teilnehmer und auf Seite der Ausführenden - moderiert.
Die vorliegenden Ergebnisse werden mit Bezug auf Implikationen für die Praxis (in Schulen und Bildungsprogrammen) diskutiert.
Gallery forests (GFs) are floristically and functionally distinct forests along rivers and watercourses. The GFs of the West African savannas form thin stripes with a particular, species-rich flora differing significantly from the surrounding vegetation. Due to their relative isolation in the savannas and their dependence on rivers, GFs are particularly endangered by the expected global climate changes in the 21st century. Despite their high diversity, little is known about the ecology and biogeography of GFs in West Africa. Especially, their response to climate changes and their vegetation dynamics remain largely unknown. This thesis combines floristic, phylo-geographic and ecological data to investigate the biodiversity, historical and recent biogeography and conservation status of GF species in Burkina Faso (BFA) as a model for West Africa.
Biophysical studies of the translation-regulating add adenine riboswitch from Vibrio vulnificus
(2017)
Bacterial gene expression can be regulated at mRNA level by cis-acting mRNA elements termed riboswitches. Riboswitches operate by conformational switching between a ligand-free and a ligand-bound state with different structures that either activate or inhibit gene expression. This PhD thesis contributes to the molecular level understanding of full-length purine riboswitches. It presents biophysical investigations on the ligand-dependent folding of the full-length translation-regulating add adenine riboswitch from the gram-negative human pathogenic marine bacterium Vibrio vulnificus (Asw). Asw has the typical bipartite riboswitch architecture with a 5’ ligand-sensing aptamer domain and a 3’ regulatory domain termed expression platform. According to the working hypothesis, Asw employs a unique thermodynamically-controlled 3-state conformational switching mechanism between an apoB, an apoA and a holo conformation to regulate translation initiation in a temperature-compensated manner. The two apo conformations are the putative translation-OFF states and the holo conformation is the putative translation-ON state of Asw. In the main project of this PhD thesis, an integrated nuclear magnetic resonance (NMR) and smFRET spectroscopic study of the full-length 112-nucleotide Asw (112Asw) was performed. The adenine-dependent folding of 112Asw was monitored at the level of base pairing interactions by NMR of the RNA imino protons, and at the level of three long-range intramolecular distances by smFRET of immobilized molecules. The integrated NMR and smFRET spectroscopic study of 112Asw yielded two major findings. First, NMR and smFRET both revealed that adenine binding to 112Asw impedes apoB formation by stabilizing the apoA secondary structure in the holo conformation without modulating tertiary structural interactions between the two riboswitch domains. This highlights the central role of competitive P1 and P4 helix formation at the interface of the aptamer and the expression platform for switching the accessibility of the ribosome binding site of 112Asw. Moreover, it strongly corroborates the hypothesis that purine riboswitches in general operate according to the key principle of a spatially decoupled secondary structural allosteric switch that proceeds without ligand-induced tertiary structural interactions between the aptamer domain and the expression platform. Second, it was uncovered by smFRET that the apoA and the holo conformation of 112Asw do not adopt a single folding state at near-physiological Mg2+ concentration. Instead, apoA and holo exhibit a persistent dynamic equilibrium between substates with an undocked (U), a short-lived docked (D1; ~s) and a Mg2+-bound long-lived docked (D2; ~10 s) aptamer kissing loop motif. In the holo conformation, the fractional population of the long-lived docked substate is ~2-fold increased compared to the apoA conformation, but undocked and docked substates are still comparably stable. The here described multiple folding states of the apoA and the holo conformation might have regulatory properties that are in between the apoB translation-OFF state and the holo-D2 translation-ON state. Additonally, an integrated NMR and smFRET analysis of 127-nucleotide Asw (127Asw) is presented. Compared to 112Asw, 127Asw is 3’-elongated by 15 nucleotides of the adenosine deaminase encoding sequence of the add gene from Vibrio vulnificus. 127Asw was chosen as mRNA template for future investigations of the interaction between Asw and the 30S ribosomal subunit. The NMR spectra of 127Asw demonstrated that 127Asw has the same overall secondary structure as 112Asw. Like for 112Asw, the combined NMR and smFRET analysis of 127Asw showed that adenine binding impedes apoB formation and stabilizes a long-lived docked aptamer kissing loop fold. However, compared to 112Asw, 127Asw has a destabilized aptamer kissing loop motif and a stabilized P4 helix in the expression platform. Finally, ligand-observed studies of the transient encounter complex between Asw and the near-cognate ligand hypoxanthine are described. By competition binding WaterLOGSY NMR experiments with hypoxanthine and the adenine analogue 2,6-diaminopurine, it could be shown that hypoxanthine binds to the same binding site of 112Asw as the cognate ligand adenine. The hypoxanthine binding constant measured with the WaterLOGSY method is in the low mM range (1.8 mM) and substantially exceeds the physiological hypoxanthine concentration in E. coli (~0.3 mM), thus ruling out that hypoxanthine binding can significantly impact the translational regulation of Asw in vivo. Also, preliminary FTIR difference spectra of 13C,15N-labelled and unlabelled hypoxanthine in complex with the pbuE adenine riboswitch aptamer and the xpt guanine riboswitch aptamer are discussed. These spectra showed a pattern of multiple IR bands that appeared to be characteristic for the respective complex.
Gutartige Schilddrüsenknoten stellen ein häufiges klinisches Problem dar, bei dem minimalinvasive, thermoablative Therapien wie die Radiofrequenzablation (RFA), als Alternative zur chirurgischen Behandlung, immer relevanter werden. Da es sich bei den Beschwerden oftmals um Symptome handelt, die von der lokalen Raumforderung und Größe abhängen, ist die Reduktion des Knotenvolumens ein zentraler Bestandteil der Therapie. Hierbei stellt die bipolare RFA eine neuartige Technologie zur minimalinvasiven Behandlung von gutartigen Schilddrüsenknoten dar und soll die Nachteile der monopolaren RFA, die das bislang am häufigsten verwendete System darstellt, überwinden. Jedoch gibt es aktuell keine offiziellen Leitlinien bezüglich der zu verwendenden Ablationstechnik. Aus diesem Grund war die Zielrichtung dieser Arbeit, erstmalig die Behandlung gutartiger Schilddrüsenknoten mittels bipolarer RFA in Kombination mit der sogenannten multiple overlapping shot technique („MOST“) anhand der Volumenreduktion nach 3 Monaten zu untersuchen. Hierzu wurden 18 Patienten (4 männliche, 14 weibliche Patienten; mittleres Alter: 50 Jahre, Altersspannweite: 15–72 Jahre) mit insgesamt 20 gutartigen Schilddrüsenknoten (17 hypofunktionelle und 3 hyperfunktionelle Knoten) behandelt und anschließend sonographisch ausgewertet. Mit einer medianen Volumen-reduktion (ΔV) von 5,3 ml (Spannweite: 0,13– 43,1 ml) nach 3 Monaten, was einer mittleren relativen Volumenreduktion von 56 ± 17,9 % entspricht, ergab sich ein signifikantes (p < 0,0001) Ergebnis. Das mediane Knotenvolumen reduzierte sich von anfangs 8 ml (Spannweite: 0,48– 62 ml) auf 2,3 ml (Spannweite: 0,3–32 ml) bei der Kontrolluntersuchung. Es kam bei allen Knoten zu einer Volumenreduktion, welche in 70 % der Fälle über 50 % betrug. Schwere Komplikationen wie anhaltende Stimmveränderungen, Nervenläsionen, Knoten-rupturen und Infektionen, ebenso wie immunogene Überfunktionen oder persistierende Schmerzen, traten während des Follow-ups nicht auf. Alle Patienten mit hypofunktionellen Knoten (15) blieben euthyreot, während sich Patienten mit hyperfunktionellen Knoten zum Zeitpunkt der Kontrolluntersuchung entweder in einer euthyreoten (2) oder latent hypothyreoten (1) Stoffwechsellage befanden. Ein medikationspflichtiger Hypothyreoidismus entstand bei keinem der Patienten. Daher stellt die bipolare RFA in Kombination mit der angewandten MOST ein effektives und sicheres thermoablatives Verfahren für die Behandlung gutartiger Schilddrüsenknoten dar.
Urn models are simple examples for random growth processes that involve various competing types. In the study of these schemes, one is generally interested in the impact of the specific form of interaction on the allocation of elements to the types. Depending on their reciprocal action, effects of cancellation and self-reinforcement become apparent in the long run of the system. For some urn models, the influencing is of a smoothing nature and the asymptotic allocation to the types is close to being a result of independent and identically distributed growth events. On the contrary, for others, almost sure random tendencies or logarithmically periodic terms emerge in the second growth order. The present thesis is devoted to the derivation of central limit theorems in the latter case. For urns of this kind, we use a "non-classical" normalisation to derive asymptotic joint normality of the types. This normalisation takes random tendencies and phases into account and consequently involves random centering and, also, possibly random scaling.
The focus of this research was to understand the molecular mechanism that lies behind the insertion of tail-anchored membrane proteins into the ER membrane of yeast cells. State-of-art instruments such as LILBID, and Cryo-EM, combined with the introduction of direct electron detectors, were used to analyze the proteins that capture tail-anchored proteins near the ER membrane and help their releases from a chaperone, an ATPase named Get3. Get3 escorts TA proteins to the ER membrane, where both Get3 and the TA proteins interact sequentially to Get3 membrane bound receptors Get1 and Get2. Get1 and Get2 are homologs of mammalian WRB and CAML.
The native host was used to separately produce Get1, Get2, and the Get2/Get1 single chain constructs. The studies showed that when Get1 is expressed alone, Get1 does not seems to be located in the ER membrane but rather in microbodies like shape organelles (or peroxisome). Interestingly, Get1 seems to be located in the ER membrane when it is linked to Get2 as single chain construct.
The localization study of Get2/Get1 fused to GFP shows from the fluorescence intensity that Get2/Get1.GFP has a tube-like morphology or membrane-enclosed sacs (cisterna), implying that Get2/Get1 is actually targeted to the ER membrane and is likely functional. In other words, Get1 and Get2 stabilize each other in the ER membrane.
The expression of Get2/Get1 was found to be already optimum when expressed as single chain construct because the fluorescence counts did not improve when additives such as DMSO or histidine were added. However, when Get1 and Get2 are expressed separately, additives improve their protein production yield. In 1 liter culture, Get1 yield is increased by about 3 mg and Get2 by 1.8 mg. This can be explained by the space that Get1 and Get2 should occupy within the ER membrane as they must coexist with other membrane components to maintain the homeostasis of the cell. Hence, if there were no gain for single chain construct expression, it meant that Get2/Get1 was already well expressed on its own in ER membrane and has reached its optimum expression without the help of additives. The Get2/Get1 overexpression is more stable, tolerated and less toxic for the cells to express it at a high level.
DDM has proved to be the best detergent from the detergents tested to solubilize Get1, Get2, and Get2/Get1.
Thereafter, Get1, Get2 (data not shown), and Get2/Get1 were successfully purified in DDM micelles.
Furthermore, for the first time using LILBID, the actual study has shown that Get1 and Get2 are predominantly a heterotetramer (2xGet1 and 2xGet2) but higher oligomerization may exist as well.
Get3 binds to Get1 in a biphasic way with a specific strong binding of an affinity of 57 nM and the second of 740 nM nonspecific indicative of heterogeneity within the interaction between Get1 and Get3. This heterogeneity is caused by the presence of different conformation of either protein. However, in order to characterize a high-resolution structure model of a specific target one needs highly homogenous and identical molecules of the target protein or complex in solution. The homogeneity increases the chances of growing crystals during crystallography as the good homogeneity will likely generate a perfect packing of unit cells stack (also known as crystal lattice) in the three-dimensional spaces. The same truth goes for the single particles analysis Cryo-EM, especially for smaller complexes where having less or no conformation alterations of specific targets will enable the researcher to classify the particles in 2D and 3D, therefore improving the signal-to-noise-ratio that will ultimately lead to high-resolution structure determination.
Get1, Get2/Get1 and chimeric variants (tGet2/Get1, T4l.Get2/Get1, T4l.Get2.apocyte.Get1) were crystallized but none of the crystals could diffract due to heterogeneity.
This heterogeneity was not only occurring upon the binding of Get3 to its membrane receptors, but seems to be already present within the receptors themselves through possibly different conformation.
In this Ph.D. thesis, the heterogeneity of purified Get2 and Get1 as complex or individually in detergent is then, so far, the limiting factor for obtaining a high-resolution structure model of Get1 and Get2. As mentioned above, the heterogeneity observed was not due to the quality of the sample preparation but rather to the effect of different conformations that could have been native, or just because of the micelle used, as it was proven by the 3-D heterogeneity classification by Cryo-EM.
In general, crosslinking is one way to keep the integrity of protein complexes, however it appeared not to improve the sample quality when it was analyzed in micelles. Often the integrity of some membrane proteins is affected when they are solubilized and purified in detergents.
Finally, in this study, the structural map of Get2 and Get1 complex linked with chimeric protein T4 lysozyme and apocytochrome C b562RIL gene was obtained at 10 Å. However, this single chain construct has a density map corresponding to heterodimer species (one Get1 and Get2). Therefore, based on those data the tertiary structure of Get2/Get1 in micelle is poorly defined. It could be that the membrane extraction in DDM and the purification destabilizes the structure of the complex.
Characterizing the hologenome of Lasallia pustulata and tracing genomic footprints of lichenization
(2017)
The lichen symbiosis – consisting of fungal mycobionts and photoautotroph photobionts (green algae or cyanobacteria) – is globally successful. It covers an estimated 6% of the global surface with habitats ranging from deserts to the arctic. This success is reflected in the diversity of the mycobionts, with around 21% of all fungal species participating in lichen symbioses that can be facultative or obligate. Lichenization is furthermore evolutionary old, with fossil evidence for lichens reaching back 415 million years. For an individual fungal lineage, the Lecanoromycetes, the lichenization happened around 300 million years ago. This longstanding symbiotic relationship and the diversity of observed symbiotic dependency make them promising models to study the genomic consequences that follow the establishment of symbioses. Despite this, only little is known about the genomic effects of lichenization and extreme symbiotic dependency. To fill this gap we sequenced the hologenome of the lichen Lasallia pustulata, where the mycobiont could so far not been cultivated, suggesting that it might be more dependent on its symbionts.
As the poor culturability of lichen symbionts renders their genomes inaccessible to standard sequencing practices, we evaluated the extent to which different metagenome sequencing- and de novo assembly-strategies can be used to sequence and reconstruct the genomes of the individual symbionts. We find that the abundances of individual genomes present in the L. pustulata hologenome vary substantially, with the mycobiont being most abundant. Using in silico generated data sets and real Illumina sequencing data for L. pustulata we observe that the skewed abundances prevent a contiguous assembly of the underrepresented genomes when using only short-read sequencing. We conclude that short-read sequencing can offer first insights into lichen hologenomes. The fragmentation of the reconstructions hinders downstream analyses into the genomic consequences of lichenization though, as these are focused on identifying the gain and loss of genes.
We thus demonstrate a hybrid genome assembly strategy that is based on both short- and long-read sequencing. We show that this strategy is capable of creating highly contiguous genome reconstructions, not only for the L. pustulata mycobiont but also its photobiont Trebouxia sp., along with substantial amounts of the bacterial microbiome. A subsequent analysis of the microbiome of L. pustulata – performed over nine different samples collected in Germany and Italy – showed a stable taxonomic composition across the geographic range. We find that Acidobacteriaceae, which are known to thrive in nutrient poor habitats, are the dominant taxa. These would make them well adapted for the co-habitation with L. pustulata, which largely grows on rocks. Whether the Acidobacteriaceae are functionally involved in the lichen symbiosis is unclear so far.
As further comparative genomic studies rely on comprehensive genome annotations, we evaluate the completeness and fidelity of the gene annotations for the mycobiont L. pustulata as well as four further Lecanoromycetes. This reveals that un- and mis-annotated genes impact all evaluated genomes, with artificially joined genes and unannotated genes having the largest impact. In addition to these factors we find that the sequence composition – especially G/C-rich inverted repeats – lead to sequencing errors that interfere with the gene prediction. We minimize the effects of these artifacts through a rigorous curation.
Given the extremely sparse taxon sampling of available green alga genomes, we focus our search for the genomic footprints of lichenization on the mycobionts. We compare the genomes of the Lecanoromycetes to their closest relatives, the Eurotiomycetes and Dothideomycetes. This reveals that the last common ancestor of the Lecanoromycetes has lost around 10% of its genes after they split from the non-lichenized ancestor they share with the Eurotiomycetes. These losses are furthermore enriched, showing an excessive loss of genes involved with the degradation of polysaccharides. The loss of these genes fits a change from an ancestral saprotrophic lifestyle that depends on degrading complex plant matter, to the symbiotic lifestyle that relies on simpler nutrients provided by the photobionts. While the last common ancestor of the Lecanoromycetes additionally gained around 400 genes these could so far not be further characterized due to a lack of functionally annotated reference data.
As the mycobiont L. pustulata could so far not been grown in axenic culture, we initially expected to find an extensive genomic remodeling compared to the other mycobionts that easily grow in culture. We do not find evidence for this. Analyzing both the contraction of gene families and the loss of genes, we observe that L. pustulata and Umbilicaria muehlenbergii – its close relative that is easily grown in culture – share most of these. Furthermore, L. pustulata does not show an excessive loss of evolutionary old and well-conserved genes. These effects are mirrored on the functional level, as neither gene family contractions nor gene losses show a functional enrichment. This is partially due to the lack of functional reference data, analogous to the genes gained in the Lecanoromycetes, rendering their characterization hard. Thus, further studies on the genomic consequences of lichenization and differences in symbiotic dependence will have to be conducted, including larger taxon sets. This will be even more important for the photobionts, as the Chlorophyta are even more sparsely sampled today, hindering an effective functional and evolutionary study.
Eisnukleierende Partikel (INP) sind ein wichtiger Bestandteil des atmosphärischen Aerosols. Trotz ihrer geringen Konzentrationen in der Atmosphäre haben sie Einfluss auf die Bildung von Eiskristallen und auf den Niederschlag. Durch Änderungen in Anzahlkonzentration oder anderer Eigenschaften der INP können sich Wolkenparameter wie Lebensdauer und Tröpfchendichte ändern, was weiter eine Ursache für Änderungen im globalen Strahlungshaushalt sein kann.
Der Anteil zum globalen Strahlungshaushalt durch „Wolken-Anpassungen aufgrund von Aerosolen“, stellt weiterhin die größte Unsicherheit des Strahlungsantriebes dar. Aus diesem Grund sind Messungen und Studien über atmosphärische Aerosole und INP notwendig. Im Rahmen dieser Arbeit wurde der Eiskeimzähler FINCH („fast ice nucleus chamber“) grundlegend überholt und für Messungen von INP optimiert. FINCH ist ein in-situ Eiskeimzähler der durch Mischung unterschiedlicher Luftströme eine Übersättigung der Probeluft mit Wasserdampf erzeugt, um auf diese Weise die zu untersuchenden Aerosolpartikel zu Eiskristallen wachsen zu lassen. Am Ende einer Wachstumskammer werden die Partikel durch eine Optik, dem FINCH-OPS, anhand von Streueigenschaften klassifiziert und ausgewertet. Um FINCH im erwarteten Umfang benutzen zu können, wurden am F-OPS der Laser und die zur Detektion des Streulichts benutzen Photomultiplier ersetzt. Weiter wurde die Software zur Detektion der Partikel neu entwickelt. Durch diese Änderungen ist es möglich Partikelanzahl, Partikelgröße sowie eine Information über die Form der Partikel abzuleiten. Über einen weiteren Photomultiplier im F-OPS ist es zudem möglich eine Information über Fluoreszenz des Partikels zu gewinnen, um so auf einen biologischen Ursprung des Partikels zu schließen. Vorangegangene Probleme durch elektromagnetische Einstrahlung und dadurch entstandene Inkonsistenzen während Messungen konnten im Rahmen dieser Arbeit identifiziert und ausgeschlossen werden. Ebenfalls konnten die zur Flusskühlung benutzen Wärmetaucher als Ursache für Verunreinigungen und Kontamination ausgemacht werden. Auch dieser, für Messungen ungeeignete Zustand, wurde im Rahmen dieser Arbeit behoben.
Ausführliche Charakterisierungsmessungen konnte die Funktionsfähigkeit des F-OPS, als einzelnes Messgerät ohne FINCH-Kammer, belegen. Durch Messungen mit einer steuerbaren Lichtquelle in der Optik konnte zudem die elektrische Verarbeitung sowie die Zählqualität der Optik verifiziert werden. Weiter kann durch diese Experimente gezeigt werden, dass mit dem F-OPS größenaufgelöst gemessen werden kann.
Auch in den ersten Streulichtexperimenten mit Testaerosol kann die Funktionsfähigkeit der Optik gezeigt werden. Für Partikelgröße von Dp > 400 nm wird eine Zähleffizienz von 25% eines TSI 3025 CPCs erreicht. Die über den F-OPS abgeleitete Partikelgröße kann durch Messungen mit monodispersen Aerosolpartikeln und einer parallelen Messung mit einem TSI 3330 OPS parametrisiert werden. Weiter kann die Fluoreszenz von ausgewählten Referenzstoffen gezeigt werden.
Im Betrieb von F-OPS hinter der FINCH-Kammer, also FINCH als Komplettsystem, wurden weitere Charakterisierungsmessungen durchgeführt. Es wurde festgestellt, dass die Anzahlkonzentration der Partikel nach Schließen eines Ventils exponentiell abfällt. Die Partikel folgen demnach nicht nur einem laminaren Fluss durch die Kammer. 50% der Partikel haben nach ca. 13 s die Kammer verlassen. Auch wurde ermittelt, dass ca. 40% der Partikel in der Kammer verloren gehen.
Erste Aktivierungsexperimente zeigen, dass Eispartikel in der Kammer auf eine Größe von Dp > 6 µm anwachsen. Durch Nullfiltermessungen in Aktivierungsphasen, sowie Ändern des zur Aktivierung notwendigen feuchten Flusses, wird zudem gezeigt, dass die Aktivierung der INP durch Mischung erfolgt und außerdem keine Fremdpartikel aktiviert werden. Die neue Steuerung der Kammer lässt es zu Temperaturen in etwa einer Stunde gezielt anzusteuern. Es wird gezeigt, dass Schwankungen in der Sättigung hauptsächlich durch Temperaturphänomene beeinflusst werden.
Abschließend wurden beispielhaft Laborexperimente mit Snomax© durchgeführt, welche sehr gut mit Werten aus der Literatur verglichen werden konnten. Auch eine erste Außenluftmessung am Jungfraujoch (Schweiz) wird in dieser Arbeit präsentiert. Die gemessenen INP-Konzentrationen im gezeigten Zeitraum liegen zwischen 1,4 ± 4,1 L-1 und 53 ± 30 L-1 und entsprechen somit wiederum bekannten Literaturwerten.
Verschiedene physikalische Effekte erlauben es Licht so zu führen und zu verändern, dass es Einblicke in für Menschen sonst unzugängliche Bereiche gewährt. Eines von insgesamt drei Elementen dieser Dissertationsschrift ist der Aufbau eines Multiphotonen-Mikroskops. Dieses fortschrittliche Werkzeug erweitert das zur Verfügung stehende Instrumentarium um verschiedene Analysemethoden, allen voran die 2-Photonen-Fluoreszenz-Mikroskopie. Durch geringfügige Modifikationen können auch weitere Methoden, wie beispielsweise stimulierte Raman-Streuung realisiert werden.
Insbesondere die 2-Photonen-Fluoreszenz-Mikroskopie war für das zweite Element dieser Dissertationsschrift von großer Bedeutung. In dieser Studie wurde das Bleichverhalten von Spinach bei 2-Photonen-Absorption untersucht, sowohl an frei in Lösung befindlichen als auch auf einem Träger immobilisierten Spinach-Komplexen. Die Ergebnisse zu den frei in Lösung befindlichen Spinach-Komplexen zeigen, dass die Verstärkung der Fluoreszenz von DFHBI grundsätzlich auch im Fall der 2-Photonen-Absorption eintritt. Dabei wurde ein Ausbleichen der 2-Photonen-induzierten Fluoreszenz für frei in Lösung befindliche Spinach-Komplexe erst bei außerordentlich hohen Intensitäten der Anregungsstrahlung beobachtet. Dieser Befund kann zumindest teilweise auf das Eindiffundieren fluoreszenter Spinach-Komplexe in das sehr kleine Fokalvolumen innerhalb der 2-Photonen-Anregung stattfindet zurückgeführt werden. Für immobilisierte Spinach-Komplexe konnte gezeigt werden, dass eine kontinuierliche Bildaufnahme gegenüber einer Bildaufnahme in Intervallen mit jeweils zusätzlichen Dunkelphasen zur Erholung des reversiblen Bleichens der 2-Photonen-induzierten Fluoreszenz, sowie der generelle Verzicht auf spezielle Belichtungsschemata und Methoden der Datenakquise mit keinen besonderen Nachteilen verbunden ist. Abschließend betrachtet erweist sich Spinach bei 2-Photonen-Anregung als ausgesprochen resistent gegenüber einem irreversiblem Ausbleichen des Fluoreszenzsignals.
Als drittes Element dieser Dissertationsschrift wurde die Dynamik von Chrimson, einem Kanalrhodopsin mit rot-verschobener Absorption mittels zeitaufgelöster Spektroskopie im sichtbaren Spektralbereich untersucht. Sowohl die Anregungswellenlänge als auch der pH-Wert bzw. der Protonierungszustand des Gegenions haben einen messbaren Einfluss auf die Primärreaktion. Diese verlangsamt sich, sobald der pH-Wert abgesenkt oder die Anregungswellenlänge rot-verschoben wird. Darüber hinaus führt eine Rot-Verschiebung der Anregungswellenlänge zu einer geringeren Effizienz der Isomerisation des Retinal-Chromophors. Die Primärreaktion von Chrimson entspricht dabei einem Reaktionsmodell mit einer Verzweigung des Reaktionspfades auf der Energiehyperfläche des angeregten Zustandes. Ein Reaktionspfad führt dabei durch ein lokales Minimum, welches in seiner Ausprägung stark von der elektrostatischen Umgebung des Retinal-Chromophors abhängt. Je nach ursprünglichem Protonierungszustand des Gegenions der Retinal-Schiff-Base wurden große Unterschiede hinsichtlich der beobachteten transienten Absorptionsmuster für den im Anschluss von Chrimson durchlaufenen Photozyklus gefunden. Bei pH 6,0 weist der Photozyklus von Chrimson eine insgesamt deutlich schnellere Kinetik auf, als es für den Photozyklus bei pH 9,5 beobachtet wurde. Es ist bemerkenswert, dass in elektrophysiologischen Messungen für beide Photozyklen eine Öffnung des Ionenkanals gefunden wurde. Die Kanalfunktion von Chrimson ist somit grundsätzlich nicht vom Protonierungszustand des Gegenions abhängig, wenngleich die Kinetik des Ionenkanals durchaus davon beeinflusst wird. Dies deutet auf Unterschiede in den Wechselwirkungen zwischen dem Ionenkanal und dem Gegenion der Retinal-Schiff-Base hin.
Die humane 5-LO ist das Schlüsselenzym in der LT-Biosynthese. LTs sind wichtige Entzündungsmediatoren und sind in einer Vielzahl von Krankheiten involviert, u. a. Asthma, Atherosklerose, rheumatische Arthritis, Sepsis, allergischen Reaktionen und in vielen Krebsarten. Die Struktur der 5-LO besteht aus 673 Aminosäuren und besitzt ein Molekulargewicht von 78 kDa. Sie ist in zwei Domänen unterteilt: die kleinere C2-ähnliche regulatorische Domäne (C2ld) und der größeren katalytischen Domäne. Die 5-LO besitzt NIS und NES, die für die zelluläre Lokalisation der 5-LO verantwortlich sind. Außerdem wird die Lokalisation noch von Phosphorylierungsstellen reguliert, die auf der katalytischen Domäne identifiziert werden konnten. 2011 konnten Häfner et al. zeigen, dass die 5-LO in der Lage ist Homodimere zu bilden.
Wie für die meisten anderen humanen Gene konnten auch bei der 5-LO alternative Spleißvarianten identifiziert werden. Schon 1992 konnten die ersten unterschiedlich gesüleißten Transkripte in Hirntumoren und differenzierten HL-60-Zellen gefunden werden. Später konnten weitere Isoformen in verschiedenen Zelllinien entdeckt werden.
In der vorliegenden Arbeit wurden die alternativen Spleißvarianten 5-LO∆13, 5-LO∆4 und 5-LOp12 untersucht und charakterisiert. Auf mRNA-Ebene wurde die Expression des 5-LO-WT und deren Isoformen sowohl in B- und T-Zelllinien als auch primären B- und T-Zellen, monozytären Zelllinien und primäre Monozyten aus Patientenproben (RA und Sepsis) untersucht. Es wurde festgestellt, dass das Expressionsprofil der 5-LO-Varianten zellspezifisch ist. Im Vergleich zu den T-Zellen konnte in B-Zelllinien ein höheres Expressionslevel detektiert werden. Des Weiteren zeigte sich interessanterweise ein stark erhöhtes Expressionslevel in primären Monozyten von RA- und Sepsis-Patienten.
Untersuchungen der 5-LO-Aktivität ergaben unterschiedliche Ergebnisse, abhängig von der Transfektionsmethode. Als transiente Transfektion diente die Calciumphosphat-Methode. Für die stabile Integration der HEK293T-Zellen wurde die Sleeping Beauty-Methode gewählt. Hierfür wurden Proteine mit einem GFP bzw. mCherry-Tag (GFP-5-LO-WT, mCherry∆13, mCherry∆4, mCherryp12) verwendet, um diese mittels Konfokalmikroskop visualisieren zu können. Nach transienter Transfektion konnte eine Inhibition der 5-LO-Aktivität nach Kotransfektion mit jeweils einer Isoform gemessen werden. Nach stabiler Integration jedoch zeigte sich eine Steigerung der 5-LO-Produktbildung. Mit Hilfe von Western Blots wurden Expressionskontrollen angefertigt und die Menge des 5-LO-WT quantifiziert. In transient transfizierten Zellen wurde eine Erniedrigung der Expression des 5-LO-WT bestimmt, wohingegen in stabil integrierten Zellen ein Anstieg des 5-LO-WT als auch der Isoformen beobachtet werden konnte. Einerseits könnte dies einem Artefakt der Transfektionmethode zugrunde liegen, andererseits könnte es ein Hinweis darauf sein, dass sich die Proteine gegenseitig in ihrer Expression beeinflussen.
Ebenso wurde die Lokalisation der 5-LO und deren Isoformen untersucht. Es konnte gezeigt werden, dass die 5-LO überwiegend im Zellkern lokalisiert ist, während alle alternativen Protein-Isoformen im Zytosol zu finden waren. Durch Ionophor-Behandlung wurde eine Translokation des 5-LO-WT an die Kernmembran detektiert, die Isoformen verblieben im Zytosol. Überraschenderweise konnte beobachtet werden, dass die Spleißvariante 5-LO∆13 mit höherer Ionophor-Konzentration ebenso in der Lage ist an die Kernmembran zu translozieren. Um eine mögliche Interaktion der 5-LO mit den Isoformen zu untersuchen, sollten alle Proteine im selben Zellkompartiment lokalisiert sein. Dafür wurden verschiedene Stimuli und Mutationen getestet. Mit der Mutante GFP-5-LO-S271A und dem Stressstimulus Sorbitol und den CaMKII/p38-Inhibotoren KN-93/SB203580 konnte eine Translokation in das Zytosol erreicht werden. Die Ergebnisse der anschließenden Aktivitätsassays zeigten, dass die Isoformen keinen Einfluss auf die Aktivität der 5-LO ausüben.
Des Weiteren wurden die Phosphorylierungen an S523 und S271 von 5-LO-WT, 5-LO∆13, 5-LO∆4 und 5-LOp12 untersucht. Es wurde herausgefunden, dass die 5-LO-Proteine unterschiedliche Phosphorylierungsmuster aufweisen. Während 5-LO-WT und 5-LO∆4 eine schwache Phosphorylierung an S271 aufzeigen, konnte eine starke Phosphorylierung der 5-LO∆13 und 5-LOp12 detektiert werden. Im Vergleich dazu zeigte lediglich die Isoform 5-LOp12 eine sehr starke Bande an der Phosphorylierungsstelle S523. Bei beiden Phosphorylierungen konnten deutlich stärkere Signale nach Kotransfektion gemessen werden. Durch Klonierung eines P2A-Linkers zwischen 5-LO und des GFP-Tags, konnten die Isoformen vom 5-LO-WT in Western Blots voneinander getrennt werden. Dies zeigte, dass es zu einer Hochregulation der Expression der alternativen 5-LO-Varianten nach Kotransfektion mit dem WT führte, aber auch, dass die stärkere Phosphorylierung nach Kotransfektion unabhängig von der Proteinmenge ist.
Software evolves. Developers and programmers manifest the needs that arise due to evolving software by making changes to the source code. While developers make such changes, reusing old code and rewriting existing code are inevitable. There are many challenges that a developer faces when manually reusing old code or rewriting existing code. Software tools and program transformation systems aid such reuse or rewriting of program source code. But there are significantly occuring development tasks that are hard to accomplish manually, where the current state-of-the-art tools are still not able to adequately automate these tasks. In this thesis, we discuss some of these unexplored challenges that a developer faces while reusing and rewriting program source code, the significance of such challenges, the existing automation support for these challenges and how we can improve upon them.
Modern software development relies on code reuse, which software developers
typically realize through hand-written abstractions, such as functions,
methods, or classes. However, such abstractions can be challenging to
develop and maintain. An alternative form of reuse is \emph{copy-paste-modify}, in which developers explicitly duplicate source code to adapt the duplicate for a new purpose. Copy-pasted code results in code clones, i.e., groups of code fragments that are similar to each other. Past research strongly suggests that copy-paste-modify is a popular technique among software developers. In this paper, we perform a small user study that shows that copy-paste-modify can be substantially faster to use than manual abstraction.
One might propose that software developers should forego hand-written abstractions in favour of copying and pasting. However, empirical evidence also shows that copy-paste-modify complicates software maintenance and increases the frequency of bugs. Furthermore, the developers in an informal poll we conducted strongly preferred to read code written using abstractions. To address the concern around copy-paste-modify, we propose a tool that merges similar pieces of code and automatically creates suitable abstractions. Our tool allows developers to get the best of both worlds: easy reuse together with custom abstractions. Because different kinds of abstractions may be beneficial in different contexts, our tool provides multiple abstraction mechanisms, which we selected based on a study of popular open-source repositories.
To demonstrate the feasibility of our approach, we have designed and implemented a prototype merging tool for C++ and evaluated our tool on a number of clones exhibiting some variation, i.e near clones, in popular Open Source packages. We observed that maintainers find our algorithmically created abstractions to be largely preferable to existing duplicated code. Rewriting existing code can be considered as a form of program transformation, where a program in one form is transformed into a program in another form. One significant form of program transformation is data representation migration that involves changing the type of a particular data structure, and then updating all of the operations that has a control or data dependence on that data structure according to the new type. Changing the data representation can provide benefits such as improving efficiency and improving the quality of the computed results. Performing such a transformation is challenging, because it requires applying data-type specific changes to code fragments that may be widely scattered throughout the source code connected by dataflow dependencies. Refactoring systems are typically sensitive to dataflow dependencies, but are not programmable with respect to the features of particular data types. Existing program transformation languages provide the needed flexibility, but do not concisely support reasoning about dataflow dependencies.
To address the needs of data representation migration, we propose a new approach to program transformation that relies on a notion of semantic dependency: every transformation step propagates the transformation process onward to code that somehow depends on the transformed code. Our approach provides a declarative transformation specification language, for expressing type-specific transformation rules. We further provide scoped rules, a mechanism for guiding rule application, and tags, a device for simple program analysis within our framework, to enable more powerful program transformations.
We have implemented a prototype transformation system based on these ideas for C and C++ code and evaluate it against three example specifications, including vectorization, transformation of integers to big integers, and transformation of array-of-structs data types to struct-of-arrays format. Our evaluation shows that our approach can improve program performance and the precision of the computed results, and that it scales to programs of at least 3700 lines.
The fruit fly Drosophila melanogaster is one of the most important biological model organisms, but only the comparative approach with closely related species provides insights into the evolutionary diversification of insects. Of particular interest is the live imaging of fluorophores in developing embryos. It provides data for the analysis and comparison of the threedimensional morphogenesis as a function of time. However, for all species apart from Drosophila, for example the red flour beetle Tribolium castaneum, essentially no established standard operation procedures are available and the pool of data and resources is sparse. The goal of my PhD project was to address these limitations. I was able to accomplish the following milestones:
- Development of the hemisphere and cobweb mounting methods for the non-invasive imaging of Tribolium embryos in light sheet-based fluorescence microscopes and characterization of most crucial embryogenetic events.
- Comprehensive documentation of methods as protocols that describe (i) beetle rearing in the laboratory, (ii) preparation of embryos, (ii) calibration of light sheet-based fluorescence microscopes, (iv) recording over several days, (v) embryo retrieval as a quality control as well as (vi) data processing.
- Adaption of the methods to record and analyze embryonic morphogenesis of the Mediterranean fruit fly Ceratitis capitata and the two-spotted cricket Gryllus bimaculatus as well as integration of the data into an evolutionary context.
- Further development of the hemisphere method to allow the bead-based / landmark-based registration and fusion of three-dimensional images acquired along multiple directions to compensate the shadowing effect.
- Development of the BugCube, a web-based computer program that allows to share image data, which was recorded by using light sheet-based fluorescence microscopy, with colleagues.
- Invention and experimental proof-of-principle of the (i) AGameOfClones vector concept that creates homozygous transgenic insect lines systematically. Additionally, partial proof-of-principle of the (ii) AClashOfStrings vector concept that creates double homozygous transgenic insect lines systematically, as well as preliminary evaluation of the (iii) AStormOfRecords vector concept that creates triple homozygous transgenic insect lines systematically.
- Creation and performance screening of more than fifty transgenic Tribolium lines for the long-term imaging of embryogenesis in fluorescence microscopes, including the first Lifeact and histone subunit-based lines.
My primary results contribute significantly to the advanced fluorescence imaging approaches of insect species beyond Drosophila. The image data can be used to compare different strategies of embryonic morphogenesis and thus to interpret the respective phylogenetic context. My technological developments extend the methodological arsenal for insect model organisms considerably.
Within my perspective, I emphasize the importance of non-invasive long-term fluorescence live imaging to establish speciesspecific morphogenetic standards, discuss the feasibly of a morphologic ontology on the cellular level, suggest the ‘nested linearly decreasing phylogenetic relationship’ approach for evolutionary developmental biology, propose the live imaging of species hybrids to investigate speciation and finally outline how light sheet-based fluorescence microscopy contributes to the transition from on-demand to systematic data acquisition in developmental biology.
During my PhD project, I wrote a total of ten manuscripts, six of which were already published in peer-reviewed scientific journals. Additionally, I supervised four Master and two Bachelor projects whose scientific questions were inspired by the topic of my PhD work.
Structural biology often employs a combination of experimental and computational approaches to unravel the structure-function paradigm of biological macromolecules. This thesis aims to approach this combination by the application of Pulsed Electron-Electron Double Resonance (PELDOR/DEER) spectroscopy and structural modelling. In this respect, PELDOR spectroscopy in combination with site-directed spin labelling (SDSL) of proteins is frequently used to gain distance restraints in the range from 1.8 to 8 nm. The inter-spin distance and the flexibility of the spin labelled protein domains are encoded in the oscillation and the dampening of the PELDOR signal. The intrinsic flexibility of the commonly used MTSSL (1-Oxyl-2,2,5,5-tetramethylpyrroline-3-methyl) spin label itself can be an obstacle for structural modelling if the flexibility of the label is large compared to the flexibility of the protein domains. In this thesis the investigation of two multi-domain proteins by the 4-pulse PELDOR sequence is presented. At first, the N-terminal polypeptide transport-associated (POTRA) domains of anaOmp85, a rigid three domain protein, giving well-defined PELDOR distance restraints, is investigated. The experimental restraints are used for structure refinement of the X-ray structure and reveal a strong impact of the intrinsic flexibility of MTSSL on the accuracy of structural refinement. The second example, K48-linked diubiquitin, is a highly flexible multi-domain protein on which the flexibility of MTSSL is of minor impact on structural modelling. In this case, the distance restraints are utilized to determine conformational ensembles. Due to the high intrinsic flexibility already characterizing diubiquitin the recently developed 7-pulse Carr-Purcell (CP) PELDOR sequence was applied to investigate longer ubiquitin chains. This sequence enables to measure dipolar oscillations with an extended time window, allowing a good separation between inter- and intramolecular contributions even for long distance and broad conformational distributions, thereby providing an increased accuracy of the obtained distance distributions.
In der vorliegenden Arbeit wurde die Dynamik zweier grundlegend verschiedener, deaktivierender Mechanismen von Retinalproteinen untersucht. In einem dritten Projekt wurde die Photodynamik einer Dreifachmutante von visuellem Rhodopsin erforscht, von der eine Mutation zu kongenitaler (angeborener) Nachtblindheit führt und zwei andere Mutationen das Protein über eine Disulfidbrücke stabilisieren. Die Ergebnisse dieser drei Projekte sind im Folgenden zusammengefasst.
Die Aktivität des mikrobiellen Proteorhodopsins als lichtgetriebene Protonenpumpe kann photoinduziert unterbunden werden. Dies erfolgt durch die Absorption von blauem Licht durch das Retinal bei deprotonierter Schiff‘schen Base. Vor dieser Arbeit war allerdings nur wenig über den Mechanismus und die Kinetik dieses Effekts bekannt. Das einzige Retinalprotein, an dem diese Deaktivierungsdynamik auf molekularer Ebene zeitaufgelöst untersucht wurde, ist Bakteriorhodopsin. Doch auch an diesem System wurde die ultraschnelle Primärreaktion in der photoinduzierten Deaktivierungsdynamik - die Photoisomerisierung des 13-cis-Retinals - bisher nicht zeitaufgelöst gemessen.
In dieser Arbeit wurde ein Weg gefunden, diesen Prozess auf einer Sub-Pikosekundenzeitskala zu detektieren. Dazu wurde eine Proteorhodopsinmutante genutzt, in der der primäre Protonendonor E108 durch Glutamin ersetzt ist. Diese Mutante weist eine signifikante Erhöhung der Lebensdauer des M-Intermediats auf. Im photostationären Gleichgewicht führt diese veränderte Kinetik zu einer erheblich erhöhten Akkumulation des Proteins im M-Zustand, die ausreicht, um photoinduzierte Absorptionsänderungen der Deaktivierungsdynamik sowohl im sichtbaren als auch im mittleren Infrarotbereich auf ultrakurzer Zeitskala zu detektieren. Dieses Projekt erfolgte in Kooperation mit dem Arbeitskreis Glaubitz (Goethe-Universität Frankfurt am Main).
Es zeigte sich, dass die Anregung des Retinals von Proteorhodopsin im M-Zustand zur Isomerisierung von 13-cis zu all-trans führt, die nach wenigen Pikosekunden abgeschlossen ist. Der zweite und abschließende Schritt ist die Reprotonierung der Schiff'schen Base. Es stellte sich heraus, dass dieser Prozess auf einer Nanosekundenzeitskala abläuft und über einen Protonentransfer vom primären Protonenakzeptor D97 zur Schiff'schen Base ermöglicht ist.
Die in dieser Arbeit vorgestellte Methodik zur Untersuchung der deaktivierenden Photodynamik von Proteorhodopsin auf ultraschneller Zeitskala, könnte in Zukunft auf weitere mikrobielle Rhodopsine angewandt werden. So ist die Studie der Deaktivierungsdynamik von Channelrhodopsinen von großem Interesse für optogenetische Anwendungen. Eine lichtgesteuerte Kontrolle der Ionenkanalöffnung und -schließung sollte die Präzision in der Regulierung ionischer Permeation erheblich verbessern.
Die Proteorhodopsinmutante E108Q wurde außerdem in ihrer primären Photodynamik sowohl bei grünem als auch blauem Anregungslicht untersucht. Es zeigte sich in beiden Fällen eine Dynamik, die der des Wildtyps sehr ähnlich ist. Eine Beobachtung unterscheidet sich jedoch wesentlich vom Wildtyp. Das K-Intermediat der E108Q-Mutante scheint nach einigen hundert Pikosekunden zumindest partiell zu zerfallen, woraufhin sich eine Signatur im blauen Spektralbereich bildet. Blitzlichtphotolysemessungen lassen vermuten, dass diese blau absorbierende Species im zwei- bis dreistelligen Nanosekundenbereich wieder zerfallen sein muss.
Der zweite Teil dieser Arbeit beschäftigt sich mit dem Photozerfall von visuellem Rhodopsin. Es ist bekannt, dass die Signaltransduktion durch Wechselwirkung zwischen aktiviertem Rhodopsin und Arrestin unterbunden wird. Im ersten Abschnitt wurde der Einfluss der Arrestin-1-Variante p44 auf die Photodynamik visuellen, bovinen Rhodopsins untersucht. In einer Kooperation mit dem Arbeitskreis Schwalbe (Goethe-Universität Frankfurt am Main) konnte gezeigt werden, dass Arrestin erheblichen Einfluss auf die Zerfallsdynamik von Meta II und Meta III hat. Es wurde festgestellt, dass die Wechselwirkung von p44 mit photoaktiviertem Rhodopsin eine erhöhte Population des Intermediats Meta III bewirkt, mit der Folge einer zweifach langsameren Freisetzungskinetik des all-trans-Retinals. Diese Beobachtung weist auf eine physiologische Rolle des Zustands Meta III in der Retinalhomöostase hin.
Gegenstand einer zweiten Studie mit dem Arbeitskreis Schwalbe ist zum einen die Rhodopsinmutation G90D, die mit kongenitaler (angeborener) stationärer Nachtblindheit zusammenhängt, und zum anderen die Doppelmutation N2C und D282C, die zur Ausbildung einer stabilisierenden Disulfidbrücke zwischen den im extrazellulären Bereich eingeführten Cysteinen führt. Im Rahmen dieser Arbeit wurde die Photodynamik des Wildtyps, der Doppelmutante und der stabilisierten G90D-Mutante (Mutationen G90D, N2C und D282C) sowohl auf einer ultrakurzen Zeitskala als auch auf einer Minutenskala untersucht.
Deciphering the ecological functions of fungal root endophytes based on their natural occurrence
(2017)
Plants are colonized by a large diversity of fungi, some residing on the surface and others penetrating the plant tissues, the latter referred to as fungal endophytes (endon Gr., within; phyton, plant; de Bary 1879). Despite the saprotrophic potential of fungal endophytes, they are not found to cause visible disease symptoms to the host. Plants are colonized simultaneously by various fungal species, which form rich and diverse endophytic assemblages. Although it is hypothesized that fungal endophytes contribute to the fitness of their hosts and to the functioning of ecosystems, the ecological function of fungal endophytic assemblages remains cryptic. The aims of this doctoral thesis are to gain insight to the ecological functions of root fungal endophytes, by deciphering their roles in ecosystems based on their natural occurrence and the structure of their assemblages. The thesis focuses on studying the diversity and structure of the endophytic mycobiome within roots of two annual and widespread plant hosts Microthlapsi perfoliatum and M. erraticum (Brassicaceae) in several locations across northern Mediterranean and central Europe. The thesis is composed by six Chapters, with a primary focus on Chapter 1, 2 and 3.
Chapter 1 (Glynou et al., 2016) aimed at characterizing the diversity of fungal endophytes in roots at a continental scale and at assessing the factors affecting the structure of endophytic assemblages with the use of cultivation-based methods. For that, root samples were collected from 52 plant populations, along with a collection of soil, bioclimatic, geographic and host data. Cultivation of surface-sterilized root samples on culture media and isolation of fungal colonies in pure culture generated 1,998 fungal colonies. Grouping of sequences into Operational Taxonomic Units (OTUs), based on the 97% similarity of the isolates’ rDNA Internal Transcribed Spacer (ITS) sequence, generated in total 296 OTUs, representing taxa mostly within the phylum Ascomycota with a minor representation of Basidiomycota. Endophytic assemblages were mostly correlated with variation in bioclimatic conditions. Interestingly, despite the large diversity revealed, the assemblages were dominated by only six OTUs related to the orders Hypocreales, Pleosporales and Helotiales, which had a widespread distribution across populations but with some following patterns of ecological preferences.
Chapter 2 aimed at characterizing the uncultivable fraction of the root fungal endophytic diversity, which was not possible to capture in Chapter 1. High-throughput sequencing via the
Illumina Miseq platform was implemented in 43 of the 52 original populations and mostly in the same root samples. In comparison with the cultivation-based approach, the HTS managed to cover the overall diversity within samples. It revealed a large non-cultivated endophytic diversity but the same cultivable fungi dominated assemblages. Moreover, the endophytic diversity was grouped mostly within fungal orders with demonstrated ability to grow in culture and taxonomically related groups were found to have divergent ecological preferences.
The genetic identity of the most abundant OTUs was further investigated in Chapter 3 (Glynou et al., 2017), aiming to unravel genotypic variability, which was possibly overlooked due to the use of lTS, as a universal genetic marker, and could explain their high abundance and widespread distribution. Multi-locus gene sequencing and AFLP profiling for the five most abundant OTUs suggested a low within-OTU genetic variability and show that these fungi have ubiquitous distribution and are not limited by environmental conditions within the ecological ranges of the study. A selection of endophytes frequently isolated in Chapter 1 was functionally characterized in Chapter 4 (Kia et al., 2017) based on the isolates’ traits and interactions with plants. In Chapter 5 (Cheikh-Ali et al., 2015) fungal cultures of Exophiala sp. with differential colony structure where investigated for their production of secondary metabolites. Moreover, Chapter 6 (Maciá-Vicente et al., 2016) comprises the description of the new species Exophiala radicis based on morphological and molecular characteristics.
Compilation of all results shows that the fungal endophytic diversity in roots of Microthlaspi spp. is high but few widespread OTUs dominate the assemblages, and have unlimited dispersal ability. These fungi seem also to have a wide niche breadth and are not affected by environmental filtering. The findings indicate that the local environment but also processes of competitive exclusion determine the structure of endophytic assemblages. In addition, the fungal endophytes associated with Microthlapsi spp. likely have saprotrophic activity however the interactions with plants are likely context-dependent. Further research is needed to assess the biotic interactions among endophytes and their effect on the structure of fungal endophytic assemblages. Ultimately, the findings of this thesis are useful to shed light on the processes underlying the structure of endophytic assemblages. They also upraise the need to describe diversity by combining genetic, metabolic and physiological data, in order to disentangle the elusive ecological roles of the endophytic mycobiome.
Der Aufbau des World Wide Web hat enorm dazu beigetragen, Wissen zu strukturieren, aufzubereiten und verfügbar zu machen. Die Art und Weise, wie Texte im Web miteinander in Verbindung stehen, kann jedoch das Lesen und Textverstehen stark beeinflussen. Die Dissertation „Demands and Cognitive Processes in Reading Digital Text“ untersucht daher individuelle kognitive Prozesse, die mit der Informationsverarbeitung beim Lesen digitaler Texte einhergehen. Hierzu wird im ersten Teil der Arbeit kurz in die Unterschiede zwischen linearen und nicht-linearen Text (sog. Hypertext) eingeführt. Hypertexte zeichnen sich dabei durch eine verzweigte Verbindungsstruktur zwischen einzelnen Textteilen (engl. nodes) aus. Diese Textteile sind untereinander durch Hyperlinks verbunden, über die sie angesteuert werden können. Das Auswahlprofil, in denen einzelne Textteile aufgerufen werden, wird hierbei als Navigationsverhalten bezeichnet. Entsprechend dieser Unterscheidung werden die Begriffe des linearen und digitalen Lesens eingeführt. Lesen ist nach konstruktivistischer Auffassung ein aktiver Prozess des Lesenden, in dem er ein propositionales Modell eines Textes mental erarbeitet und mit Wissen und Erfahrungen zu einem Situationsmodell anreichert. Digitales Lesen erfordert aber, dass Leserinnen und Leser neben dem eigentlichen Leseprozess zusätzliche kognitive Ressourcen aktivieren, um mit den besonderen Eigenschaften von Hypertext angemessen umzugehen.
Anhand eines Prozessmodells digitalen Lesens wurden zwei Forschungsfragen abgeleitet, die im zweiten Teil der Arbeit vorgestellt werden. Die erste Forschungsfrage konzentriert sich auf die Identifikation kognitiver Fähigkeiten, die das digitale Lesen konstituieren. Im Konkreten wurden Hypothesen über die Zusammenhänge digitalen Lesens mit (1) Lesefähigkeiten auf Wort-, Satz- und Textebene, (2) Arbeitsgedächtnisfähigkeiten, (3) Fähigkeiten, Online-Informationen hinsichtlich ihrer Passung für bestimmte Leseaufgaben zu bewerten, und (4) basalen Fähigkeiten im Umgang mit Computerumgebungen formuliert. Daran anknüpfend thematisiert die zweite Forschungsfrage, wie die angenommenen Beziehungen des digitalen Lesens mit seinen Konstituenten erklärt werden können. Hierzu wurde insbesondere die Informationsauswahl, die Lesende durch ihr Navigationsverhalten treffen, als zentrale vermittelnde Variable betrachtet.
Zur Beantwortung der beiden Forschungsfragen wurden drei Studien herangezogen, die im dritten Teil der Arbeit zusammengefasst dargestellt werden. In diesen Studien wurden kognitive Prozesse des digitalen Lesens mit Hilfe von Daten aus der Nationalen Begleitforschung zur Einführung computerbasierten Assessments (CBA) im Programme for International Student Assessment (PISA) 2012 untersucht. Die erste der drei Studien konzentriert sich auf die Rolle, die das Arbeitsgedächtnis beim Lesen digitaler Texte einnimmt. Die zweite Studie behandelt Einflüsse von ICT-bezogenen Fähigkeiten. Als ICT-bezogene Fähigkeitsvariablen wurden basale Computerfähigkeiten sowie Fähigkeiten zur kritischen Bewertung von Online-Informationen hinsichtlich ihrer Relevanz und Nützlichkeit betrachtet. Die Bewertung von Online-Informationen und ihre Auswahl von Ergebnisseiten aus Suchmaschinenabfragen (engl. search engine result pages) werden in der dritten Studie als Spezialfall digitalen Lesens herausgegriffen und gesondert betrachtet. Hierbei wurde untersucht, welche Rolle Lesefähigkeiten auf der Wort-, Satz- und Textebene bei der Bewertung von Online-Informationen einnehmen.
Im abschließenden vierten Teil der Arbeit werden grundlegende kognitive Prozesse der Informationsverarbeitung digitalen Textes diskutiert. Zusammengefasst zeigten die drei Studien, dass fähige Leser zielorientierter aufgabenrelevante Texte identifizieren und verarbeiten können. Schülerinnen und Schüler profitierten dabei von effizienten Arbeitsgedächtnisfunktionen – unabhängig davon, ob sie gute Leser waren oder nicht. Defizite des Arbeitsgedächtnisses wurden durch einen strategischen Umgang mit der Hypertextumgebung kompensiert. Das Textverstehen wurde zudem indirekt durch routinierte Fertigkeiten im Umgang mit Computern und direkt durch Fähigkeiten zur Bewertung von Online-Informationen unterstützt. Es wurde geschlussfolgert, dass kompetente Leser in der Lage sind, ihre kognitiven Ressourcen effizient zu verteilen. Als Resultat der gemeinsamen Betrachtung der drei Studien erscheint digitales Lesen als komplexes Fähigkeitsgemisch. Dieses beruht auf allgemeinen Lesefähigkeiten, auf einer effizienten Allokation kognitiver Ressourcen, auf der strategiegetriebenen Vorhersage von Informationen und auf rudimentären Fertigkeiten im Umgang mit Computerumgebungen. Dabei beschreibt digitales Lesen kein neues, aber ein zeitgenössisches Konstrukt, das sich als Reaktion auf aktuelle individuelle und gesellschaftliche Informationsbedürfnisse entwickelt hat und sich entsprechend der fortschreitenden technischen Weiterentwicklung verändern wird.
In this thesis we study strongly correlated electron systems within the Density Functional Theory (DFT) in combination with the Dynamical Mean-Field Theory (DMFT).
First, we give an introduction into the theoretical methods and then apply them to study realistic materials. We present results on the hole-doped 122-family of the iron-based superconductors and the transition-metal oxide SrVO3. Our investigations show that a proper treatment of strong electronic correlations is necessary to describe the experimental observations.
Die Psoriasis vulgaris (PsV) ist eine immunvermittelte entzündliche Erkrankung der Haut mit einer Prävalenzrate von 2-3 %, sodass etwa zwei Millionen Menschen in Deutschland an dieser erkrankt sind. Charakteristisch für die PsV sind veränderte Hautareale (Plaques), die im Rahmen der der entzündungsbedingten Durchblutungssteigerung gerötet erscheinen und eine silbrig-weiße Schuppung als Resultat einer vermehrten Abschilferung abgestorbener Keratinozyten aus der hyperproliferativen Epidermis aufweisen.
In dieser Arbeit wurde die Bedeutung des proinflammatorischen Zytokins granulocyte-macrophage colony-stimulating factor (GM-CSF) in der Pathogenese einer modellhaften Experimentalerkrankung der PsV untersucht. GM-CSF wird unter anderem von Interleukin (IL-) 17 produzierenden T-Helferzellen (Th17-Zellen) sezerniert, deren pathogenetische Bedeutung für die PsV gut etabliert ist. Die pathogene Wirkung von GM-CSF als Effektorzytokin konnte bereits in Tiermodellen anderer Th17-vermittelter Autoimmunerkrankungen wie der multiplen Sklerose und der rheumatoiden Arthritis (RA) gezeigt und die therapeutische Wirkung von GM-CSF-neutralisierenden Antikörpern in klinischen Studien an RA-Patienten demonstriert werden.
Das in dieser Arbeit angewendete murine Krankheitsmodell der Imiquimod (IMQ-) induzierten psoriasiformen Dermatitis wird durch die topische Anwendung des Medikaments Aldara®, dessen Wirkstoff IMQ ist, ausgelöst und führt zu einer Entzündung der Haut, die in vielen Aspekten dem humanen Krankheitsbild einer PsV ähnelt. Die pathogenetische Bedeutung von GM-CSF für die IMQ-induzierte psoriasiforme Dermatitis wurde über zwei unterschiedliche experimentelle Ansätze untersucht. So wurde GM-CSF in C57Bl/6J Mäusen mittels eines spezifischen, rekombinanten murinen Antikörpers in der Induktionsphase des Krankheitsmodells neutralisiert und zeitgleich der modifizierte Psoriasis Area Severity Index (PASI-)Score als Parameter des Schweregrades der klinischen Manifestationen ermittelt. Des Weiteren wurde am Versuchsende die Infiltration von Immunzellen in das entzündete Gewebeareal untersucht. Diese Ergebnisse wurden mit den Daten einer Behandlungsgruppe, nach Applikation eines IgG-Isotyp identischen Kontrollantikörpers verglichen. Dabei zeigte die Neutralisierung des Zytokins einen therapeutischen Effekt, der in einem signifikant niedrigeren PASI-Score, einer verringerten Tnfa mRNA Expression und einer reduzierten Infiltration mit neutrophilen Granulozyten resultierte.
Parallel zu diesen Versuchen wurde die Modellerkrankung auch in einer GM-CSF-defizienten C57Bl/6J Mauslinien (GM-CSF-/-) studiert. Die funktionelle Inaktivität des GM-CSF-kodierenden Csf2 Gens wurde 1994 durch gezielte genetische Manipulation etabliert. Unter den experimentellen Bedingungen war der Schweregrad der IMQ-induzierten psoriasiformen Dermatitis in GM-CSF-/- Mäusen nicht signifikant different von dem der wildtypischen (Wt) Mäuse und zeigte somit im Gegensatz zu den Ergebnissen aus den Versuchsreihen der Antikörper vermittelten Zytokinneutralisierung keinen offensichtlichen Hinweis auf eine GM-CSF-Abhängigkeit. In den GM-CSF-defizienten Tieren war jedoch nach IMQ-Induktion eine signifikant höhere Il6 und Il22 mRNA Expression am Entzündungsort im Vergleich zu den Wt Mäusen auffällig. Aufgrund dieser Ergebnisse wurde der Phänotyp der GM-CSF-defizienten Mäuse genauer untersucht und eine vermehrte Anzahl plasmazytoider dendritischen Zellen (pDCs) in Milz und Lymphknoten nachgewiesen. Diese Zellen werden im Rahmen ihrer Differenzierung aus Vorläuferzellen durch GM-CSF suppressiv reguliert und sind sowohl in die Entwicklung der PsV im Menschen als auch die Pathogenese der IMQ-induzierten psoriasiformen Dermatitis involviert. Aufgrund des in den sekundären lymphatischen Organen GM-CSF-defizienter Mäuse expandierten pDC-Kompartiments wurde die Beteiligung dieser Zellen in der Initiationsphase des Modells analysiert. Im Vergleich mit GM-CSF-suffizienten C57Bl/6J Mäusen weisen die Tiere der GM-CSF-defizienten Mauslinie zu diesen Zeitpunkten eine verstärkte Infiltration von pDCs in die Haut auf. Für pDCs ist bekannt, dass sie über die Produktion von IL-6 und TNF die Effektorzelldifferenzierung aktivierter, naiver T-Lymphozyten in Richtung Th22-Zellen polarisieren können. Dieser Mechanismus liefert ein hypothetisches Konzept, das die Ergebnisse zur gesteigerten IL-6-Produktion und Differenzierung IL-22-produzierender T-Zellen in IMQ-behandelten GM-CSF-/- Mäusen im Kontext der nachweisbaren Expansion von pDCs, erklären könnte. Dieser in den GM-CSF-/- Mäusen nachweisbare alternative Pathogenesemechanismus, ist offenbar geeignet die proinflammatorische Wirkung des genetisch fehlenden Zytokins zu kompensieren, aber hinsichtlich seiner Etablierung über ein verändertes pDC-Kompartiment von Dauer und Ausmaß der GM-CSF-Defizienz abhängig. So erklärt sich, warum die zeitlich limitierte Antikörper vermittelte GM-CSF-Neutralisierung in GM-CSF-suffizienten-Mäusen zu keiner pDC-Expansion und Steigerung von IL-6 und IL-22 Expression nach IMQ-Induktion führt.
Die GM-CSF-Neutralisierung durch einen rekombinanten murinen Antikörper reduziert deutlich die Krankheitsschwere der IMQ-induzierten psoriasiformen Dermatitis und belegt damit das therapeutische Potenzial dieses Therapieansatzes für die Humanerkrankung der PsV. Die unter angeborener GM-CSF-Defizienz in den Studien darüber hinaus aufgedeckten Veränderungen des pDC-Kompartiments sind von potenzieller Relevanz für zukünftige therapeutische Anwendungen dieses Prinzips, da unter einer dauerhaften GM-CSF-Neutralisierung mit therapeutischen Antikörpern ein Monitoring dieser Zellpopulation empfehlenswert erscheint z.B. über veränderte Interferonsignaturen durch pDCs, um mögliche Wirkverluste, aber auch unerwünschte Effekte zu erkennen.
In dieser Arbeit wurde der Hefepilz Xanthophyllomyces dendrorhous als vielseitige biotechnologische Plattform für die Produktion von Carotinoiden verwendet. Durch genetische Modifikationen der Carotinoidbiosynthese wurde ein Astaxanthin-Hochproduzent zur Akkumulation des farblosen Phytoens, das die menschliche Haut vor der schädlichen Wirkung der UV-Strahlung schützt und des gelben Zeaxanthins, das zur Förderung und Erhalt der Sehfähigkeit beiträgt, befähigt. Zur Generierung eines Phytoen-Hochproduzenten wurde das Gen crtI (Phytoen-Desaturase) inaktiviert und der Phytoengehalt durch Überexpression der Gene HMGR, crtE und crtYB gesteigert. Die Generierung eines Zeaxanthin-Hochproduzenten beinhaltete die Inaktivierung des Gens asy (Astaxanthin-Synthase) und die heterologe Expression einer bakteriellen ß-Carotin-Hydroxylase CrtZoXd.
Die Inaktivierung der Gene erfolgte mit spezifischen Knock-Out-Konstrukten, die mittels homologer Rekombination in crtI oder asy integrierten. Nachdem die Transgene auf Vektoren mit verschiedenen Antibiotikaresistenzen kloniert wurden, wurde die Überexpression durch genomische Integration in die ribosomale DNA erreicht. Anschließend wurde die Carotinoidzusammensetzung der Zellextrakte durch Hochleistungsflüssigkeitschromatographie an einer C18-Trennsäule oder durch Dünnschichtchromatographie bestimmt. Der Knock-Out-Nachweis erfolgte mittels Polymerase-Kettenreaktion und Amplifikation der Genloci, während die Anzahl integrierter Carotinoidgene durch quantitative Real-Time-PCR bestimmt wurde. Die Kultivierungen von X. dendrorhous wurden sowohl in Schikanekolben als auch in einem 2L-Bioreaktor durchgeführt.
Im Zuge der genetischen Modifikationen konnte der Ploidiegrad des Wildtyps bestimmt werden, der bis dahin unbekannt war. Durch das Auftreten von instabilen heterozygoten Stämmen und deren Überführung zu stabilen Homozygoten wurde die Existenz eines diploiden Genoms nachgewiesen. Um die für die biotechnologische Anwendung notwendige Stabilität der Carotinoidbiosyntheseleistung zu erreichen, wurden zwei Strategien entwickelt. Hierbei erfolgte die Stabilisierung der Stämme als Folge mitotischer Rekombination nach Subkultivierung und anschließender Farbselektion oder durch Induktion des sexuellen Zyklus und Sporulation.
Der crtI-Knock-Out führte zur Akkumulation von 3,6 mg/g dw Phytoen. Anschließend wurde die Limitierung der Phytoensynthese durch crtYB-Überexpression aufgehoben und die Versorgung der Carotinoidbiosynthese mit Vorläufermolekülen durch HMGR- und crtE-Überexpression erhöht. Im Bioreaktor wurde durch die Anwendung eines dreistufigen Fed-Batch-Prozesses, der eine effiziente Glucoseverwertung sicherstellte, mit 10,4 mg/g dw die höchste bis dato publizierte zelluläre Phytoenkonzentration im stabilisierten Hochproduzenten erreicht.
Der asy-Knock-Out führte zur Akkumulation von 4,5 mg/g dw ß-Carotin, das anschließend durch heterologe Expression der codon-optimierten ß-3,3-ß-Hydroxylase crtZoXd im Hochproduzenten zu 3,5 mg/g dw Zeaxanthin umgesetzt wurde. Zur Optimierung des Vorgehens wurden Knock-In-Konstrukte entwickelt, mit denen beide Schritte (Knock-Out und Integration von Carotinoidgenen) in nur einem molekular-biologischen Schritt durchgeführt und 94 % des in einem Wildtypstamm vorhanden ß-Carotins zu Zeaxanthin umgesetzt wurden. Die Optimierung der Wachstumsbedingungen bei der Bioreaktor-Kultivierung des stabilisierten Zeaxanthinproduzenten führte mit 10,8 mg/L zu einem 5-fach höheren Zeaxanthingehalt im Vergleich zur Schikane-Kultivierung.
Durch den Einsatz der Pentosen Arabinose und Xylose als alternative Kohlenstoffquellen wurde der Carotinoidgehalt der Phytoen- und Zeaxanthin-Hochproduzenten um 70 bzw. 92 % im Vergleich zur Glucose-Kultivierung gesteigert, wobei die Gründe für diesen Effekt in einer stärkeren Kohlenstoffverwertung und der Hemmwirkung von Glucose vermutet wurden. Aus verschiedenen pflanzlichen Abfallstoffen kann Xylose durch Hydrolyse freigesetzt werden, deren Nutzung zum Aufbau einer nachhaltigen und kostengünstigen biotechnologischen Carotinoidproduktion beitragen kann.
Darüber hinaus wurden multioxigenierte Zeaxanthinderivate, von denen eine positive Wirkung auf die menschliche Gesundheit vermutet wird, durch kombinatorische Biosynthese erhalten. Durch die schrittweise Integration der Gene crtZoXd, crtG (ß-2,2-Hydroxylase) und bkt (ß-4,4-Ketolase) in eine ß-Carotinmutante wurde die Biosynthese von Zeaxanthin, Nostoxanthin und schließlich von 4-Keto-Nostoxanthin und 4,4-Diketo-Nostoxanthin erreicht. Anschließend erfolgte die chemische Reduktion zu den neuartigen Carotinoiden 4-Hydroxy-Nostoxanthin und 4,4-Dihydroxy-Nostoxanthin und der zweifelsfreie Nachweis aller vier Carotinoide anhand der mittels Massenspektrometrie bestimmten Molekülmassen und Fragmentierungsmuster.
Der Kaiserschnitt ist wahrscheinlich eine der am häufigsten durchgeführten operativen Eingriffe weltweit. Noch vor einem Jahrhundert galt er als Notoperation, um das Leben des Kindes und der Mutter zu retten, heute hat er zu einer gängigen Geburtspraxis etabliert, fast jedes dritte Kind kommt mittlerweile per Sectio zu Welt. Dieser signifikante Anstieg trat in den letzten Jahren viele polarisierende Diskussionen los, die nach den Ursachen dieses Wandels forschen. Die Weltgesundheitsorganisation kritisiert, dass der unnötige Anstieg in Lateinamerika und Asien bereits epidemische Ausmaße erreicht habe. Im Mittelpunkt der Forschung stehen die diversen Indikationen, die maternalen und neonatalen Kurz- und Langzeitfolgen sowie die Vor- und Nachteile verschiedener anästhetischer Verfahren während des Eingriffs.
Ziel dieser Arbeit war es, das Forschungsaufkommen zum Thema Sectio zwischen 1900 und 2013 sowohl nach quantitativen als auch nach qualitativen Aspekten zu beleuchten, wobei auf die Daten im Web of Science zurückgegriffen wurde. Nach Festlegung eines Suchterminus mit maximaler Trefferanzahl wurde ein Datenpool von 12.608 Publikationen gewonnen, dessen bibliographische Daten im Rahmen von unterschiedlichen Fragestellungen untersucht und ausgewertet wurden. Um die Ergebnisse anschaulich zu repräsentieren, wurden diverse Diagrammarten gewählt, für globale Sachverhalte wurde Kartenanamorphoten verwendet.
Für das ausgewählte Datenkontingent ist die Sprache Englisch dominierend, es wurden 92,8 % aller identifizierten Publikationen (≙ 11.706 von 12.608) in dieser Sprache abgefasst. Hierbei stellt der Article die am häufigsten gewählte Erscheinungsform (57,4 %) dar.
Die Publikationsanzahl hat im Laufe des betrachteten Jahrhunderts stetig zugenommen. Dieser Zuwachs erfolgte vor allem in den letzten drei Dekaden, was zum einen am gestiegenen Forschungsinteresse am Thema Kaiserschnitt und zum anderen an der gestiegenen Publikationsanzahl liegt. Zudem wurde im Jahre 1991 bei der Datenbankabfrage die Topics-Suche eingeführt. Einzelne Publikationsmaxima können darauf zurückgeführt werden, dass die
Wissenschaft gesteigertes Interesse an wegweisenden Entwicklungen rund um das Thema Kaiserschnitt zeigte.
Das Land, das am meisten Publikationen (29 %) hervorbrachte, ist die USA – dort befinden sich auch die meisten Institutionen (1.517), die zum Thema Kaiserschnitt Forschung betreiben und es ist das Land mit dem höchsten h-Index (84). Resultierend aus diesen Daten kann den USA eine herausragende Position bezüglich der behandelnden Thematik zugeschrieben werden. Doch auch in europäischen Ländern wie Großbritannien und Deutschland kann eine hohe Forschungsaktivität nachgewiesen werden. Bei Betrachtung der Zitationsrate der Länder lag Schweden vorne (20,4), obwohl dort deutlich weniger publiziert wurde. Neben der renommierten Harvard University war auch die Partners Healthcare, Boston an der Forschung maßgeblich beteiligt.
Bei der Zeitschriftenanalyse ist das American Journal of Obstetrics and Gynecology mit 1.432 Publikationen das meistpublizierende Fachjournal, mit 16.446 Zitierungen ist es auch gleichzeitig das meistzitierte. Die höchste Zitationsrate von 19,97 wurde der Zeitschrift Obstetrics&Gynecology zuteil, gefolgt von Anesthesia&Analgesia.
Es konnte eine signifikante Korrelation festgestellt werden zwischen der Publikationsanzahl und dem Zeitraum, in denen diese veröffentlicht wurden
Bei den Autorenanalysen wurde die Leistung anhand von Publikationsvolumen, Zitationsrate und h-Index beurteilt. Als produktivster Autor wurde Prof. Aaron Caughey identifiziert, er publizierte 70mal zum Thema Kaiserschnitt, zum Großteil jedoch als Letztautor. Den höchsten h-Index erreicht der Wissenschaftler Kenneth Leveno mit einem Wert von 23, die höchste Zitationsrate Baha Sibai mit 42,26.
Es konnte ebenfalls aufgezeigt werden, dass die Kooperationsbeziehungen in den letzten Jahren an Bedeutung gewonnen haben und vor allem ab Beginn des 21. Jahrhunderts signifikant angestiegen sind. Zurückzuführen ist diese Entwicklung auf die vereinfachte und schnelle Kommunikation aufgrund der weiterentwickelten Technik und die vorangeschrittene Globalisierung. Die USA
ist der bedeutendste Kooperationspartner unter den Ländern, intensive Zusammenarbeit kann für Großbritannien und Kanada festgestellt werden.
Die vorliegende Dissertation befasst sich mit dem Umstieg von papierbasiertem (PBA) auf computerbasiertes Assessment (CBA), insbesondere in Large-Scale-Studien. In der Bildungsforschung war Papier lange Zeit das Medium für Assessments, im Zuge des digitalen Zeitalters erhält der Computer aber auch hier Einzug. So sind die großen Bildungsvergleichsstudien, wie PISA (Programme for International Student Assessment) oder PIAAC (Programme for the International Assessment of Adult Competencies), und nationalen Studien über Bildungsverläufe und -entwicklungen im Rahmen des NEPS (Nationales Bildungspanel) bereits umgestiegen oder befinden sich im Prozesses des Umstiegs von PBA auf CBA. Findet innerhalb dieser Studien ein Moduswechsel statt, dann muss die Vergleichbarkeit zwischen den Ergebnissen der unterschiedlichen Administrationsmodi gewährleistet werden. Unterschiede in den Eigenschaften der Modi, wie beispielsweise im Antwortformat, können sich dabei auf die psychometrischen Eigenschaften der Tests auswirken und zu sogenannten Modus Effekten führen. Diese Effekte wiederum können sich in Unterschieden zwischen den Testscores widerspiegeln, sodass diese nicht mehr direkt miteinander vergleichbar sind. Die zentrale Frage dabei ist, ob es durch den Moduswechsel zu einer Veränderung des gemessenen Konstruktes kommt. Ist dies der Fall, so können Testergebnisse aus unterschiedlichen Administrationsmodi nicht miteinander verglichen und die Ergebnisse aus dem computerbasierten Test nicht analog zu den Ergebnissen aus dem papierbasierten Test interpretiert werden. Auch Veränderungen, die aus Messungen zu verschiedenen Zeitpunkten und mit unterschiedlichen Modi resultieren, lassen sich dann nicht mehr beschreiben. Es kann jedoch auch Modus Effekte geben, die zwar nicht das gemessene Konstrukt betreffen, aber sich beispielsweise in der Schwierigkeit der Items niederschlagen. Solange aber das erfasste Konstrukt bei einem Moduswechsel unverändert bleibt, können diese Modus Effekte bei der Berechnung der Testscores berücksichtigt und die Vergleichbarkeit gewährleistet werden. Somit ist, nicht nur im Hinblick auf gültige Trendschätzungen, der Analyse von Modus-Effekten ein hoher Stellenwert beizumessen. Da die bisherige Befundlage in der Literatur zu Modus-Effekten sowohl hinsichtlich der Stärke der gefundenen Effekte, als auch in Bezug auf die verwendeten Methoden sehr heterogen ist, ist das Ziel des ersten Beitrags dieser publikationsbasierten Dissertation, eine Anleitung für eine systematische Durchführung einer Äquivalenzuntersuchung, speziell für Large-Scale Assessments, zu geben. Dabei wird die exemplarisch dargelegte Modus-Effekt-Analyse anhand von zuvor definierten und in ihrer Bedeutsamkeit belegten Kriterien auf der Test- und Item-Ebene illustriert. Zudem wird die Möglichkeit beschrieben, auftretende Effekte anhand von Eigenschaften des Administrationsmodus’, beispielsweise des Antwortformats oder der Navigationsmöglichkeiten innerhalb des Tests, zu erklären. Im zweiten und dritten Beitrag findet sich jeweils eine empirische Anwendung der im ersten Beitrag beschriebenen schematischen Modus-Effekt-Analyse mit unterschiedlicher Schwerpunktsetzung. Dazu wurden die Daten eines Leseverständnistests aus der Nationalen Begleitforschung von PISA 2012 sowie zweier Leseverständnistests im NEPS, die jeweils sowohl papier- als auch computerbasiert administriert wurden, analysiert. Das Kriterium der Konstrukt-Äquivalenz steht dabei als wichtigstes Äquivalenz-Kriterium im Fokus. Zusätzlich wurde Äquivalenz in Bezug auf die Reliabilität und die Item-Parameter (Schwierigkeit und Diskrimination) untersucht. Im zweiten Beitrag wurden darüber hinaus interindividuelle Unterschiede im Modus-Effekt in Bezug zu basalen Computerfähigkeiten und zum Geschlecht gesetzt. Der dritte Beitrag fokussiert die Item-Eigenschaften, die als mögliche Quellen von Modus-Effekten herangezogen werden können und bezieht diese zur Erklärung von Modusunterschieden in die Analyse mit ein. In beiden Studien wurde keine Evidenz gefunden, dass sich das Konstrukt bei einem Wechsel des Administrationsmodus ändert. Lediglich einzelne Items wiesen am Computer im Vergleich zum PBA eine erhöhte Schwierigkeit auf, wobei sich der größte Teil der Items als invariant zwischen den Modi erwies. Für zwei Item-Eigenschaften wurde ein Effekt auf die erhöhte Schwierigkeit der Items am Computer gefunden. Interindividuelle Unterschiede im Modus-Effekt konnten nicht durch basale Computerfähigkeiten oder das Geschlecht erklärt werden.
Diese Dissertation leistet einen wesentlichen Beitrag zur Systematisierung von Äquivalenzuntersuchungen, insbesondere solchen in Large-Scale Assessments, indem sie die wesentlichen Kriterien für die Beurteilung von Äquivalenz herausstellt und diskutiert sowie deren Analyse methodisch aufbereitet. Die Relevanz von Modus-Effekt Studien wird dabei nicht zuletzt durch die Ergebnisse der beiden empirischen Beiträge hervorgehoben. Schließlich wird der Bedeutung des Einbezugs von Item-Eigenschaften hinsichtlich der Beurteilung der Äquivalenz Ausdruck verliehen.
Zur effizienten Beschleunigung von Ionen wird meist nach deren Erzeugung in einer Ionenquelle ein Radio Frequenz Quadrupol verwendet. Die vorliegende Dissertation befasst sich mit Entwicklung, Bau und Messung des Prototyps eines neuartigen Leiter-RFQs, der bei 325 MHz betrieben wird. Der Leiter-RFQ verfügt über ein neuartiges mechanisches Design und versucht die Vorteile der beiden vorrangig im Betrieb befindlichen RFQ Typen, des 4-Rod und 4-Vane RFQs, zu verbinden. Die physikalischen Parameter sind der Spezifikation des RFQs für den geplanten Protonenlinac (p-Linac) am FAIR-Projekt an der GSI Darmstadt entnommen. Darüber hinaus wird der aktuelle Planungs- und Simulationsstand eines modulierten Prototyps mit der vollen Länge von ca. 3,5 m zur Durchführung von Strahltests dargestellt.
Pulsed electron-electron double resonance (PELDOR), also called Double Electron-Electron Resonance, (DEER) is a pulsed EPR technique that can provide structural information of biomolecules, such as proteins or nucleic acids, complementary to other structure determination methods by measuring long distances (from 1.5 up to 10 nm) between two paramagnetic labels. Incorporation of the rigid Ç-label pairwise into DNA or RNA molecules enables the determination not only of the distance but also of the mutual orientation between the two Ç-labels by multi-frequency orientation-selective PELDOR data (X-, Q- and G-band frequencies). Thus, information about the orientation of secondary structure elements of nucleic acids can be revealed and used as additional angular information for structure determination. Since Ç does not have motion independent from the helix where it resides, the conformational flexibility of the nucleic acid molecule can be directly determined. This thesis demonstrates the advancement of PELDOR spectroscopy, beyond its original scope of distance measurements, to determine the mutual orientation between two rigid spin labels towards the characterization of the conformational space sampled by highly flexible nucleic acid molecules. Applications of the methodology are shown on two systems: a three-way junction, namely a cocaine aptamer in its bound-state, and a two-way junction, namely a bent DNA.
More in detail, the conformational changes of the cocaine aptamer upon cocaine binding were investigated by analysis of the distance distributions. The cocaine-bound and the unbound states could be differentiated by their conformational flexibility, which decreases in the presence of the ligand. Moreover, the obtained distance distributions revealed a small change in the mean distance between the two spin labels upon cocaine binding. This indicates a ligand-induced conformational change, which presumably originates at the junction where cocaine is known to bind. The investigation of the relative orientation between the two spin-labeled helices of the aptamer revealed further structural insights into the conformational dynamics of the cocaine-bound state. The angular information from the orientation-selective PELDOR data and the a priori knowledge about the secondary structure of the aptamer were helpful in obtaining a molecular model describing its global folding and flexibility. In spite of a large flexible aptamer, the kink angle between the Ç-labeled helices was found to be rather well-defined.
As for the bent DNA molecule, a two-step protocol was proposed to investigate the conformational flexibility. In the first step, a database with all the possible conformers was created, using available restraints from NMR and distance restraints derived from PELDOR. In a second step, a weighted ensemble of these conformers fitting the multi-frequency PELDOR data was built. The uniqueness of the obtained structural ensemble was checked by validation against an independent PELDOR data set recorded at a higher magnetic field strength. In addition, the kink and twist angle pairs were determined and the resulting structural ensemble was compared with the conformational space deduced both from FRET experiments and from the structure determined by the NMR restraints alone.
Overall, this thesis underlines the potential of using PELDOR spectroscopy combined with rigid spin labels in the context of structure determination of nucleic acids in order to determine the relative orientation between two helices, the conformational flexibility and the conformational changes of nucleic acid molecules upon ligand binding.
The Facility for Antiproton and Ion Research (FAIR) at GSI Darmstadt will provide unprecedented intensities of protons and heavy ions up to uranium at energies of up to 29 GeV for protons and 2.7 GeV/u for Uranium 28+. To achieve high intensities in the synchrotron accelerators, high beam currents have to be provided by the injector linear accelerators. High current heavy ion beams are provided by the Universal Linear Accelerator (UNILAC), which in its current state will not be able to provide the required FAIR beam currents. This thesis deals with the development of upgrades for the UNILAC to ensure its high current capability. The first improvement is a matching section (MEBT) for the interface between the RFQ and the IH-DTL of the existing high current injector HSI at the UNILAC. With this new MEBT section, particle losses are eliminated and the overall beam quality is improved. As a second improvement, a complete replacement of the existing Alvarez-DTL is presented. A combination of efficient IH-type cavities and KONUS beam dynamics results in a reduction of the linac length from about 60 m (Alvarez) to just 23 m (new IH-DTL) while providing the same energy and fulfilling FAIR requirements of a high beam current and beam quality. This thesis contains a detailed beam dynamics design of the new linac including some fundamental investigations of the KONUS beam dynamics concept. A cross-check of the beam dynamics design was performed with two independent multi-particle simulation codes. Detailed error studies were conducted to investigate the influence of manufacturing, alignment and operating errors on the beam dynamics performance. Additionally, all five linac cavities were designed, optimized, and their RF parameters including power requirements calculated to provide a comprehensive linac design.
Das World Wide Web (Web) als die wohl wichtigste Entwicklung von Informations- und Kommunikationstechnologien (engl. information and communication technologies, ICTs) Ende des 20. Jahrhunderts bietet uns Zugang zu einer unbegrenzten Fülle an Informationen. Doch um es als reichhaltige Informationsquelle effektiv nutzen zu können, benötigen wir spezifische ICT-Fähigkeiten. Die Dissertation Development of Interactive Performance Measures for two Components of ICT Literacy: Successfully Accessing and Evaluating Information befasst sich daher mit der Untersuchung zweier grundlegender ICT Fähigkeiten für die erfolgreiche Nutzung des Web als Informationsquelle: der Fähigkeit, auf die gewünschten Information zugreifen zu können, also basale Computerfähigkeiten (engl. basic computer skills, BCS), sowie der Fähigkeit, die Online-Informationen in Bezug auf ihre Glaubwürdigkeit bewerten zu können. Hierzu werden zunächst anhand der Betrachtung des theoretischen Hintergrundes beider ICT-Fähigkeiten Definitionen der Konstrukte vorgestellt. Ziel der Arbeit stellt die Entwicklung zweier Testverfahren zur interaktiven, computer-basierten Erfassung basaler Computerfähigkeiten sowie der Fähigkeit zur Bewertung der Glaubwürdigkeit von Online-Informationen dar. Die den Testverfahren zugrundeliegende faktorielle Struktur sowie die Beziehung beider ICT-Fähigkeiten zu verwandten Konstrukten werden untersucht. Des Weiteren werden Ergebnisse aus der praktischen Anwendung des neu entwickelten Tests zur Evaluation von Online-Informationen (TEO) genutzt, um zu einem tieferen Verständnis über den Suchprozess im Web (engl. web search proccess) zu gelangen und Faktoren zu identifizieren, die diesen beeinflussen. Dabei wird sowohl der Einfluss sogenannter Aufgabencharakteristika (engl. task characteristics) untersucht, die den Kontext des Suchprozesses bestimmen, als auch der Einfluss individueller Prozesscharakteristika (engl. individual process characteristics), welche durch die jeweilige Person bestimmt sind, die die Informationssuche vornimmt.
Um den Forschungszielen der Arbeit gerecht zu werden, wurden drei Studien durchgeführt. Die erste Studie befasst sich mit der Entwicklung der Skala zur Erfassung basaler Computerfähigkeiten (BCS). Im Konkreten wurden Hypothesen über die Zusammenhänge der BCS-Skala mit praktischem Computerwissen, Worterkennung, einer Selbsteinschätzung der eigenen Computerfähigkeiten sowie elektronischer Lesefähigkeit formuliert und analysiert. Die zweite Studie behandelt die Entwicklung des Tests zur Evaluation von Online-Informationen (TEO) und exploriert sowohl die latente Struktur des Konstruktes der Bewertung der Glaubwürdigkeit von Online-Informationen als auch den Zusammenhang mit basalen Computerfähigkeiten, Worterkennung und logischem Denken. In der dritten Studie wird der Suchprozess im Web näher beleuchtet und mögliche Einflussgrößen einer erfolgreichen Bewertung von Online-Informationen erforscht, wobei der Einfluss von Aufgabencharakteristika, individuellen Prozesscharakteristika und deren Interaktion ergründet wird. Im Speziellen wurde der Einfluss dreier Aufgabencharakteristika geprüft, die sich auf die Komplexität einer Aufgabe beziehen: die Anzahl der Suchergebnisse (Links auf der Ergebnisseite einer Suchmaschinenabfrage), die Attraktivität der weniger glaubwürdigen Links auf der Ergebnisseite einer Suchmaschinenabfrage im Vergleich zum glaubwürdigsten Link sowie die Kongruenz zwischen den Glaubwürdigkeitsmerkmalen in den Links auf der Ergebnisseite der Suchmaschinenabfrage und auf den dazugehörigen Webseiten. Dabei war die Attraktivität eines Links definiert als die Gesamtanzahl der Glaubwürdigkeitsmerkmale, welche auf eine hohe Glaubwürdigkeit der Informationen hinweisen. Je mehr Merkmale eines Links hohe Glaubwürdigkeit indizieren, desto attraktiver ist ein Link. Von Kongruenz zwischen den Glaubwürdigkeitsmerkmalen wurde ausgegangen, wenn diese sowohl in einem Link auf der Ergebnisseite der Suchmaschinenabfrage als auch auf der korrespondierenden Webseite gleichermaßen hohe oder gleichermaßen geringe Glaubwürdigkeit anzeigen. Inkongruenz hingegen wurde angenommen, wenn die Glaubwürdigkeitsmerkmale in einem Link auf der Ergebnisseite hohe Glaubwürdigkeit und jene auf der korrespondierenden Webseite geringe Glaubwürdigkeit anzeigen und vice versa. Weiterhin wurde der Einfluss dreier individueller Prozesscharakteristika auf den Bewertungserfolg untersucht: die Anzahl besuchter unterschiedlicher Webseiten, die auf der Ergebnisseite der Suchmaschinenabfrage verbrachte Zeit sowie die auf den korrespondierenden Webseiten verbrachte Zeit.
Zusammengefasst präsentiert die Arbeit reliable Instrumente zur Erfassung basaler Computerfähigkeiten sowie der Fähigkeit zur Bewertung der Glaubwürdigkeit von Online-Informationen. Sie zeigt die hohe Relevanz basaler Lesefähigkeiten (Worterkennung) für beide Konstrukte auf und offenbart die Fähigkeit zum logischen Denken als Prädiktor für die Bewertungskompetenz. Während eine erfolgreiche Bewertung von Online-Informationen durch eine hohe Anzahl von Suchergebnissen negativ beeinflusst wurde, wirkte sich Kongruenz der Glaubwürdigkeitsmerkmale sowie eine hohe Anzahl besuchter unterschiedlicher Webseiten positiv auf den Bewertungserfolg aus. Die Attraktivität der weniger glaubwürdigen Links sowie die zeitbezogenen Prozesscharakteristika beeinflussten den Bewertungserfolg wider Erwarten nicht. Die Anzahl besuchter unterschiedlicher Webseiten erwies sich bei einer hohen Anzahl von Suchergebnissen als weniger prädiktiv für den Bewertungserfolg als bei einer geringen Anzahl von Suchergebnissen.
Development of the timing system for the Bunch-to-Bucket transfer between the FAIR accelerators
(2017)
The FAIR project is aiming at providing high-energy beams of ions of all elements from hydrogen to uranium, antiprotons and rare isotopes with high intensities. The existing accelerator facility of GSI and the future FAIR facility employ a variety of circular accelerators like heavy ion synchrotrons (SIS18 and SIS100) and storage rings (ESR, CRYRING, CR and HESR) for the preparation of secondary beams and experiments. Bunches are required to be transferred into rf buckets among GSI and FAIR ring accelerators for different purposes. Without the proper transfer, the beam will be subject to various beam quality deterioration and even to beam losses. Hence, the proper bunch-to-bucket (B2B) transfer between two rings is of great importance for FAIR and is the topic, which has been investigated in this thesis.
These circular accelerators of GSI and FAIR have different ratios in their circumference. For example, the circumference ratio between SIS100 and SIS18 is an integer and between SIS18 and ESR is close to an integer and between CR and HESR is far away from an integer. The ring accelerators are connected via a complicated system of beam transfer lines, targets for the secondary particle production and the high energy separators mentioned above. For FAIR, not only the primary beams are required to be transferred from one ring to another, but also the secondary beams, e.g. the antiproton or rare isotope beams produced by the antiproton (pbar) target, the fragment separator (FRS) or the superconducting fragment separator (Super-FRS). An important topic for this system of accelerators is the proper transfer of beam between the different circular accelerators. Bunches of one ring must be transferred into buckets of another ring within an upper bound time constraint (e.g. 10 ms for most FAIR use cases) and with an acceptable B2B injection center mismatch +-1 degree for most FAIR use cases). Hence, a flexible FAIR B2B transfer system is required to realize the different complex B2B transfers between the FAIR rings in the future. In the focus of the system development and of this thesis is the transfer from SIS18 to SIS100, which can be tested at GSI on the transfer from SIS18 to ESR and from ESR to CRYRING. The system is based on the existing technical basis at GSI, the low-level radio frequency (LLRF) system and the FAIR control system. It coordinates with the Machine Protection System (MPS), which protects SIS100 and subsequent accelerators and experiments from damage caused by high intensity primary beams in case of malfunctioning. Besides, it indicates the beam status and the actual beam injection time for the beam instrumentation and diagnostics.
The conceptual realization of the FAIR B2B transfer system was introduced in this thesis for the first time. It achieves the most FAIR B2B transfers with a tolerable B2B injection center mismatch (e.g. +-1 degree) and within an upper bound time (e.g. 10 ms). It supports two synchronization methods, the phase shift and frequency beating methods. It is flexible to support the beam transfer between two rings with different ratios in their circumference and several B2B transfers running at the same time, e.g. the B2B transfer from SIS18 to SIS100 and at the same time the B2B transfer from ESR to CRYRING. It is capable to transfer beam of different ion species from one machine cycle to another and to transfer beams between two rings via the FRS, the pbar target and the Super-FRS. It allows various complex bucket filling pattern. In addition, it coordinates with the MPS system, which protects the SIS100 and subsequent accelerators or experiments from beam induced damage.
A list of criteria for the preservation of beam qualities during the rf frequency modulation of the phase shift method was analyzed. As an example the beam reaction on three different rf frequency modulation examples were analyzed for SIS18 beams. According to the beam dynamic analysis, there is a maximum value for the rf frequency modulation. The first derivative of the rf frequency modulation must be continuous and small enough and the second derivative must be small enough.
In addition to the analysis from the viewpoint of beam dynamics, two test setups were built. The first test setup was used to characterize the FAIR timing network – white rabbit network for the B2B transfer. In the second test setup, the firmware of the FAIR B2B transfer system was evaluated, which was running on the soft CPU, LatticeMico32, of the Scalable Control Unit - the FAIR standard Front End Controller. Besides, the boundary conditions of the different trigger scenarios of the SIS18 extraction and SIS100 injection kicker magnets were investigated. Finally, the application of the FAIR B2B transfer system for all FAIR use cases was demonstrated.
The dissertation plays a significant important role for the realization of the FAIR B2B transfer system and the further practical application of the system to all FAIR use cases.
In dieser wirtschaftsphilosophischen Arbeit wird die fundamentale Bedeutung einer realistischen Gründe-Perspektive für die Erklärung und Beurteilung ökonomischer Praxis herausgestellt. Die Gründe-Perspektive bezieht sich in systematisierender Form auf alltägliche Interpretations- und Verstehensleistungen und greift zur Erklärung ökonomischer Sachverhalte auf Zuschreibungen mentaler Zustände zurück.
In Abgrenzung von einer Nicht-Gründe-Perspektive, die einer Vielzahl ökonomischer Erklärungsansätze, z.B. experimentell verhaltensökonomischer, behavioristisch orientierter neoklassischer oder evolutionärer Art, zugrunde liegt, wird betont, dass das Geben und Einfordern von Gründen in der ökonomische Sphäre in explanativer, prognostischer und normativer Hinsicht von großer Relevanz ist.
Ökonomische Grundbegriffe wie Präferenz, Axiom oder Nutzen werden thematisiert und deren Stellenwert innerhalb ökonomischer Theorien wird herausgestellt. Die behavioristische Fokussierung auf beobachtbare Wahlhandlungen wird in den Kontext naturalistischer Tendenzen in der Ökonomik gestellt. Dabei werden insbesondere wissenschafts- und erkenntnistheoretische Aspekte unter Bezugnahme auf die Philosophie des Geistes angeführt. Es zeigt sich, dass der Ökonom und Philosoph Don Ross einen in Abgrenzung zu Psychologie und experimenteller Verhaltensökonomik bestimmten Wahlbegriff auf aggregierter Ebene vertritt, unter anderem durch Bezug auf Dennetts Theorie intentionaler Einstellung und Möglichkeiten der Mustererkennung. Im Gegensatz dazu stehen Positionen, die mentale Zustände durch Bezug auf die Kognitionsforschung, stellenweise auch die Neuroökonomik, als real ansehen und für eine Erklärung von Präferenzen heranziehen wollen.
Unter Bezug auf die Position Nida-Rümelins wird die wirtschaftsphilosophische Relevanz von Kohärenz, struktureller Rationalität und einem Gründe-Realismus herausgestellt. Der Bezug auf lebensweltliche Gewissheit und formale Eigenschaften „alltagspsychologischer“ Zugänge soll eine bestimmte Gründe-Perspektive stützen. In welcher Hinsicht eine solche Stützung gerechtfertigt werden kann, wird unter anderem durch Bezug auf wissenschaftliche Theorien zur Alltagspsychologie (folk psychology) dargestellt. Die Vielfalt von Gründen, aus denen ökonomische Akteure handeln und die Personen auch in ökonomischen Kontexten prinzipiell verfügbar sind, wird unter Berücksichtigung spezifischer ökonomischer Rollen betont. Abschließend wird die soziale Bedingtheit von Gründen und die immanente Normativität der ökonomischen Praxis thematisiert. Die Möglichkeit einer normativen Rekonstruktion der Wirtschaftssphäre wird anhand der Theorie sozialer Freiheit von Axel Honneth diskutiert.
Die vorliegende Arbeit befasst sich mit der Entwicklung und Validierung eines Messinstrumentes zur Erfassung von psychopathischen Persönlichkeitseigenschaften, dem Fragebogen Psychopathischer Persönlichkeitseigenschaften (FPP), mit der Entwicklung eines Messinstrumentes, das antisoziales Verhalten und Kriminalität getrennt erfasst, der Checkliste für antisoziale Verhaltensweisen und Kriminalität (CAV/K) und mit der differenzierten Untersuchung der Vorhersage von Kriminalität durch psychopathische Eigenschaften.
Psychopathie ist eines der wichtigsten Konstrukte in der Vorhersage von kriminellem und antisozialem Verhalten (Hemphill, Hare & Wong, 1998). Die Konzeption der psychopathischen Persönlichkeit stellt affektive und interpersonelle Eigenschaften in den Vordergrund und definiert Kriminalität als Konsequenz statt Kernsymptom der Psychopathie (Skeem & Cooke, 2010a). Bisherige Ergebnisse zur prädiktiven Validität von psychopathischen Eigenschaften hinsichtlich krimineller Rückfälligkeit weisen allerdings darauf hin, dass affektive und interpersonelle Facetten der Psychopathie keinen Erklärungswert über eine kriminelle Vorgeschichte hinaus haben (Eher, Schilling, Mönichweger, Haubner-MacLean & Rettenberger, 2012; Walters, Knight, Grann & Dahle, 2008; Walters, Wilson & Glover, 2011). Des Weiteren wird im Rahmen der adaptiven Psychopathie postuliert, dass psychopathische Eigenschaften auch hoch ausgeprägt sein können, ohne dass sich die Personen kriminell verhalten (Hall & Benning, 2006). Ergebnisse aus einer Metananalyse eines etablierten Fragebogens zur Psychopathie, dem Psychopathic Personality Inventory (PPI; Lilienfeld & Andrews, 1996) ergaben, dass der erste von zwei Faktoren nicht mit Indizes antisozialer Verhaltensweisen korrelieren. Diese Ergebnisse sprechen dafür, dass der Zusammenhang zwischen Psychopathie und Kriminalität genauer untersucht werden muss, da ein Fehlen dieser Assoziation das Konstrukt Psychopathie obsolet erscheinen lässt.
Voraussetzung für die valide Untersuchung dieses Zusammenhangs ist die Verfügbarkeit von psychometrisch hochwertigen und validen Instrumenten zur Erfassung der Variablen. Die Erfassung von psychopathischen Eigenschaften im Selbstbericht ist ökonomisch und Beurteilungen fallen valide aus (Ray et al., 2013). Der Fragebogen PPI (Lilienfeld & Andrews, 1996) ist bereits gut etabliert, weist jedoch einige methodische Schwächen auf, wie z. B. eine Vielzahl von Items sowie eine schwer replizierbare Faktorenstruktur.
Deshalb wurde im ersten Schritt der Fragebogen Psychopathischer Persönlichkeitseigenschaften (FPP, Etzler & Rohrmann, 2017a, 2017b) entwickelt, der die Kritikpunkte des PPI überwindet und psychopathische Persönlichkeitseigenschaften mit hoher psychometrischer Gute misst. Der FPP erfasst sechs Facetten der Psychopathie, die theoretisch hergeleitet wurden: Fehlende Empathie, Furchtlosigkeit, Narzisstischer Egozentrismus, Impulsivität, Soziale Manipulation und Macht. Diese Facetten unterscheiden sich bis auf Furchtlosigkeit von den Skalen des PPI. Die Items sind kurz und inhaftierungsadäquat formuliert und weisen eine mittlere Situationsspezifität auf. Die Itemselektion basierte auf einer Stichprobe von n = 173 Straftätern und n = 132 Zivilpersonen, was repräsentativ für den Anwendungsbereich des FPP ist. Ergebnisse weisen auf gute psychometrische Eigenschaften, wie Itemkennwerte und Reliabilität (ω = .85) hin, auf überwiegend gleiche Messeigenschaften in Zivil- und Haftstichprobe sowie auf eine Konvergenz mit dem PPI (r = .677∗∗) in erwarteter Höhe. Erwartungskonforme Zusammenhänge mit weiteren Konstrukten, Korrelationen mit antisozialem Verhalten, Disziplinarmaßnahmen in Haft und Inhaftierung selbst unterstützen die Kriteriumsvalidität des FPP.
Die Vorhersage von Kriminalität setzt des Weiteren eine präzise Definition ebendieser Variable voraus. Allerdings wurde Kriminalität bis dato in den publizierten Studien uneinheitlich definiert und operationalisiert. Im Rahmen der vorliegenden Arbeit wurde Kriminalität als soziologisches Konstrukt definiert, das maßgeblich von der Gesetzgebung des Landes und weiteren Faktoren abhängt, die außerhalb einer Person liegen (Eysenck, 1977). Demgegenüber wurde antisoziales Verhalten psychologisch definiert, als Verhalten, das anderen Personen schadet aber dem Akteur selbst von Vorteil ist. Da für die Erfassung von antisozialem Verhalten und Kriminalität bis dato noch kein Messinstrument vorliegt, wurde die Checkliste für Antisoziale Verhaltensweisen und Kriminalität (CAV/K, Etzler & Rohrmann, 2017a) entwickelt, die beide Variablen getrennt voneinander aber dennoch simultan erfasst.
Nach Bereitstellung der Definitionen und Messinstrumente wurde untersucht, wie Kriminalität durch psychopathische Eigenschaften vorhergesagt werden kann (Etzler, Rettenberger & Rohrmann, eingereicht). Im Rahmen der adaptiven Psychopathie wurde angenommen, dass Moderatorvariablen den Zusammenhang zwischen Psychopathie und Kriminalität beeinflussen, wobei verbale Intelligenz hierbei eine zentrale Rolle spielt (Wall, Sellbom & Goodwin, 2013). Antisoziales Verhalten und Kriminalität (als offizielle Verurteilung) wurden getrennt voneinander definiert. Es zeigte sich im Rahmen eines moderierten Mediationsmodells, dass psychopathische Eigenschaften antisoziales Verhalten mit hoher Präzision vorhersagen konnten, insbesondere war die Wahrscheinlichkeit, dafür verurteilt zu werden und damit offiziell kriminell zu sein höher für Personen mit niedriger verbaler Intelligenz als für Personen mit höherer Intelligenz, da für verbale Intelligenz ein protektiver Effekt hinsichtlich Kriminalität gefunden wurde.
Die vorliegende Studie verfolgt einen integrativen Ansatz, indem Eigenschaften untersucht werden, die bei Straftätern und Zivilpersonen gleichermaßen vorliegen. Der FPP kann in der Forschung als ökonomisches Instrument eingesetzt werden sowie als Screeninginstrument in der Praxis, z. B. für die Planung des Vollzugsverlaufs in Haft. Anhand der Ergebnisse des FPP können antisoziale Verhaltensweisen in vielen Kontexten (z. B. Mobbing in Unternehmen, deviantes Verhalten in Haft) vorhergesagt werden und unter Hinzunahme weiterer Moderatoren, wie etwa verbale Intelligenz, kann eine präzisere Vorhersage von Kriminalität anhand psychopathischer Eigenschaften erfolgen.
Hintergrund: CD34+ Zellen besitzen eine essenzielle Rolle in der Hämatopoese und vaskulären Homöostase. Das Ziel unserer Studie war, erstens, in vitro die Rolle des thrombozytären JAM-C bei der Adhäsion und anschließenden Differenzierung von humanen CD34+ Zellen zu endothelialen Progenitorzellen zu analysieren sowie zweitens, seine Assoziation mit dem thrombozytären P-Selektin bei Patienten mit koronarer Herzkrankheit zu untersuchen.
Methoden und Ergebnisse: Mittels Durchflusszytometrie beobachteten wir, dass in vitro die JAM-C-Expression auf der Oberfläche von Thrombozyten, nach Thrombozytenaktivierung, erhöht ist. Die JAM-C-Expression korrelierte mit der Expression des thrombozytären P-Selektin in Patienten mit koronarer Herzkrankheit (r=0,301, P=0,01). Die Rolle des JAM-C und seines Counter-Rezeptors MAC-1 bei der Adhäsion von humanen CD34+ Zellen über immobilisierten Thrombozyten, wurde jeweils, unter Verwendung eines neutralisierenden löslichen Proteins (sJAMC-Fc) und eines monoklonalen Antikörpers gegen JAM-C oder Integrin MAC-1 (CD11b/CD18), untersucht. Die Behandlung mit löslichem JAM-C-Fc, anti-JAM-C oder anti-MAC-1 ergab, im Gegensatz zu einer Vorbehandlung mit Control-Fc oder IgG1, eine signifikant verminderte Adhäsion von humanen CD34+ Zellen an immobilisierten Thrombozyten unter statischen Bedingungen (P<0,05). Um unsere Ergebnisse unter hoher Scherspannung, ähnlich der arteriellen Strömung, zu validieren, führten wir Perfusionsexperimente in einer Flusskammer durch. Auch unter hoher Scherspannung führte die Hemmung der JAM-C/MAC-1 Interaktion zu einer signifikant verringerten Adhäsion von CD34+ Zellen über immobilisierten Thrombozyten (P<0,05). Mittels endothelialer Kolonienbildungstests und Kokulturen konnten wir zeigen, dass die Thrombozyten-vermittelte Differenzierung von CD34+ Zellen zu Endothelzellen oder Makrophagen/Schaumzellen, durch die Hemmung der JAM-C/MAC-1-Achse, unbeeinflussbar bleibt.
Schlussfolgerungen: In Anbetracht dieser Ergebnisse kann man behaupten, dass thrombozytäres JAM-C die CD34+ Zelladhäsion unterstützt. Dieser Mechanismus kann möglicherweise am Homing sowie an der Domizilierung von humanen CD34+ Zellen beteiligt sein.
Studentische Lehrevaluationsergebnisse sind ein weit verbreitetes Maß, um die Qualität universitärer Lehre zu erfassen. Diese Ergebnisse werden unter anderem dafür genutzt, Entscheidungen für die Modifikation des Lehrangebots zu treffen oder die Vergabe der Leistungsorientieren Mittelvergabe mitzubestimmen. Aufgrund dieser relevanten Folgen wird in dieser Arbeit der Frage nachgegangen, wie ein angemessener Validierungsprozess bezüglich studentischer Lehrevaluationsergebnisse gestaltet werden könnte.
Bisherige Validierungsstudien zu studentischen Lehrevaluationsinventaren fokussierten sich meist auf die Überprüfung verschiedener Validitätsarten (inhaltsbezogene, kriteriumsbezogene oder faktorielle) und die Erfassung der Messfehlerfreiheit.
Allerdings ist zum einen zu hinterfragen, ob diese Ansätze grundsätzlich für alle Inventare geeignet sind. Weiterhin hat sich das Verständnis von dem verändert, was unter Validität verstanden wird: Von der Annahme von Validität als Testeigenschaft, verschiedener Validitätsarten und binärer Aussagen auf Basis von Einzelbefunden hin zu dem Verständnis von Validität bezogen auf die Testwert-Interpretation und Verwendung, zu einem einheitlichen Validitätskonzept und zu einer Validitäts-Argumentation. Diese Veränderungen werden in den neueren argumentationsbasierten Validitätsansätzen berücksichtigt und bieten einen Rahmen, der auf die jeweilige Intention ausgerichtet ist, einen Test oder Fragebogen einzusetzen.
Auf Grundlage dieser argumentationsbasierten Ansätze wird in dieser Arbeit die Interpretation studentischer Lehrevaluationsergebnisse überprüft, die als das Ausmaß an qualitätsbezogener Zufriedenheit der Teilnehmer mit der Durchführung einer Lehrveranstaltung und der Vermittlung von Lehrinhalten angesehen werden. Der Validierungsprozess wird anhand der Lehrevaluationsdaten des Frankfurter Promotionskollegs am Fachbereich Medizin dargestellt. Dieser Prozess bestätigte weitgehend die beabsichtigte Interpretation, zeigte aber auch eine zumindest teilweise Revision des Inventars und eine weitere Überprüfung an. Eine Validierung bezüglich der Verwendung der Lehrevaluationsergebnisse sowie der auf diesen basierenden beabsichtigten Konsequenzen wird in einer Folgestudie überprüft.
Anhand dieser Arbeit wird Anwendern und Entwicklern von Lehrevaluationsinventaren eine Her- und Anleitung für den Validierungsprozess gegeben und die Vorteile argumentationsbasierter Ansätze aufgezeigt.
Faces are thought to be processed primarily according to their configurations which is in-ferred from comparisons with non-facial stimuli. While the whole (face) seems to be more than the sum of its parts, the same does not apply to objects which are processed analytically according to their featural information. A recent recognition model stresses the importance of certain visual information within facial stimuli. By applying a specific filtering technique, stimuli can be generated that are restricted to contain information of only a certain orienta-tion. Dakin and Watt (2009) reported greatest recognition performance with faces that only contained horizontally aligned information with accuracy continuously declining at vertical. Furthermore, they showed that, compared with images of natural scenes, horizontal contours within faces have an unusual tendency to fall into vertically co-aligned clusters which were labelled biological ‘bar code’ referring to a highly constrained one-dimensional code. Con-secutive research tested for face-specific processing by comparing faces and objects that displayed information of different orientations. Results suggested configural processing only for faces that contained horizontal information (Goffaux & Dakin, 2010). The findings con-tribute important insight on a still unanswered question in face processing research: what information is extracted from faces for recognizing them. Despite the importance of remembering human faces on a daily basis, this ability seems to develop disadvantageously over lifetime. Decreased accuracy cannot be attributed to de-creased general cognitive ability (Hildebrandt, Wilhelm, Schmiedek, Herzmann, & Sommer, 2011) and slower reactions times are assumed to be a product of decision making rather than sensory speed (Habak, Wilkinson, & Wilson, 2008). Considering the amount of published work on face recognition, there is a lack of studies available assessing this important ability at a higher age. New theoretical concepts are rarely examined with older participants, appar-ently assuming their general validity. The current dissertation tries to help fill this gap by assessing the importance of horizontal information from a developmental perspective com-paring younger and older adults under different experimental variations. The first study showed, that presenting older participants with horizontally filtered faces has a dispropor-tional negative impact on recognizing younger unfamiliar faces suggesting differential pro-cessing mechanisms, since recognizing stimuli that only contained vertical information did not differ between age groups. On this basis, the following study manipulated the presented stimulus material, since some evidence suggests that own-age faces are more easily recog-nized compared to faces of other ages, which is referred to as “own-age bias”. Therefore, the second study systematically assessed the impact of stimulus age on recognition sensitivity. Moreover, encoding modalities were varied by providing increased exposure duration to the stimuli. The results of the first study were replicated, as older participants’ performance was still poor at recognizing younger faces, independent from encoding modalities. However, similar face recognition sensitivity compared to younger adults was observable when filtered faces of the older adults’ own age had to be recognized. Interestingly, correlations between recognizing filtered and unfiltered faces were obtained for younger adults but not for older adults suggesting age variant processing of horizontal information. The last study assessed the importance of horizontal information with stimulus material familiar to the observer. Although research highlights differences between recognizing unfamiliar and familiar stimu-lus material, this factor is often not considered by contemporary research. By presenting par-ticipants with their own faces, a stimulus of greatest individual familiarity was chosen. The superiority of own face recognition over other familiar material is referred to as “self-face advantage” and has been shown in comparison with personally familiar faces (Keyes & Brady, 2010) and famous faces (Caharel et al., 2002). While younger adults indeed recog-nized their self-faces better compared to famous faces independent from stimuli being fil-tered or unfiltered, older participants displayed a completely different pattern including the inability to recognize their filtered self-faces. Again, significant associations were obtained between filtered and unfiltered recognition conditions suggesting convergent processing mechanisms for younger adults but not for the older age group. This dissertation provides a first insight in the divergence of response behavior in older adults with a recent face processing model. While the obtained data undermine the im-portance of horizontal information in younger adults by replicating and extending previously published work, a profoundly different type of processing is suggested at a higher age which largely relies on low-level pictorial information due to the inability to process horizontally filtered faces configurally. Specifically, it is suggested that with age, focusing on aging-salient features with configural processing disrupted may function as a critical source of di-agnostic information which can ultimately result in performance similar to younger adults.
Die Modulation molekularer Systeme mit Licht ist ein in den letzten Jahren immer stärker untersuchtes Forschungsgebiet. Es existiert bereits eine große Anzahl an Publikationen, die mittels statischer Spektroskopie und anderer statischer Methoden Einblicke in die ablaufenden Prozesse gewähren konnten. Untersuchungen im Ultrakurzzeitbereich sind jedoch eher selten, liefern aber detaillierte Informationen zu den ablaufenden Prozessen. Den Wissensstand diesbezüglich zu erweitern, war Ziel dieser Dissertation.
Untersucht wurden neun photoschaltbare, molekulare Dyaden hinsichtlich ihrer Dynamik nach Photoanregung. Die Dyaden setzten sich aus einem Fluorophor (Bordipyrromethen, BODIPY), einem Photoschalter (Dithienylethen, DTE; offen oder geschlossen) und gegebenenfalls einer COOH-Ankergruppe zusammen.
Die Unterschiede in den Molekülstrukturen bestanden in der Verknüpfung der einzelnen Bauteile (kurze oder lange, beziehungsweise gerade oder gewinkelte Brücke) und der Art des Fluorophors und des Photoschalters (jeweils zwei verschiedene Strukturen).
Durch Belichtung mit UV- oder sichtbarem Licht konnten photostationäre Zustände generiert werden, die 40 – 98 % geschlossenes Isomer (je nach Molekül) beziehungsweise 100 % offenes Isomer enthielten.
Unter Verwendung von Licht verschiedener Wellenlängen konnten beide Teile der Dyade (BODIPY beziehungsweise DTE) separat angeregt und hinsichtlich der ablaufenden Photodynamik untersucht werden, wobei der Fokus der Arbeit auf transienten Absorptionsmessungen mit Anregung des BODIPY lag. Bei einem Großteil der untersuchten Moleküle kam es in diesem Fall, je nach Zustand des Photoschalters, zu einem intramolekularen Energietransfer nach der Theorie von Theodor Förster. Durch diese Energietransferprozesse kommt es zu einer drastischen Verkürzung der Lebenszeit des angeregten Zustands des BODIPY. Ausgehend von Lebenszeiten im Bereich von Nanosekunden im Falle der offenen Dyaden (entspricht der Fluoreszenzlebensdauer) reduziert sich die Lebenszeit auf wenige Pikosekunden, beziehungsweise je nach Aufbau des Moleküls sogar noch weiter. Die unterschiedlich schnellen Transferprozesse sind im Sinne der Förster-Theorie durch die unterschiedlichen Entfernungen und relativen Orientierungen der beiden beteiligten Übergangsdipolmomente (von DTE und BODIPY) erklärbar.
Neben Experimenten mit Anregung des BODIPY-Teils der Dyaden wurden weitere Experimente durchgeführt, in denen der geschlossene Photoschalter direkt angeregt wurde. Aus diesen Messungen konnten Erkenntnisse über die Relaxation des DTE erlangt werden. Auf diese Weise war es möglich, bei einigen der Moleküle die Ringöffnungsreaktion zu beobachten und zu charakterisieren. Im Fall von Dyade 4 konnten zusätzlich kohärente Schwingungen des Moleküls nach Photoanregung detektiert werden, die sich anhand einer Frequenzmodulation der Absorptionsbande des BODIPY-Teils über einen Zeitbereich von 2 ps beobachten ließen.
Surface water can contain a complex mixture of organic micropollutants (i.e. residues of pharmaceuticals or biocides). Conventional wastewater treatment plants (WWTPs) do not completely remove a broad range of anthropogenic chemicals and therefore represent a leading point source. To upgrade WWTPs, technical solutions based on oxidative and sorptive processes have been developed and successfully implemented. Acknowledging these substantial advances, this thesis focuses on another key topic and aims to investigate whether improved biological treatment processes likewise effectively remove anthropogenic micropollutants from wastewater. The work conducted on this topic was part of two European research projects (ATHENE, ENDETECH).
The ATHENE project aimed to go beyond the state-of-the-art by developing biological wastewater treatment processes that exploit the full potential of biodegradation. With the objective to explore the potential of complementary strictly anaerobic conditions within the biological wastewater treatment, combinations of aerobic and anaerobic treatments on site of a WWTP were implemented. Based on pre-experiments, two promising treatment combinations were selected for a more comprehensive evaluation. An aerobic treatment was paired with an anaerobic pre-treatment under iron-reducing conditions, and an activated sludge treatment was combined with an anaerobic post-treatment under substrate-limiting conditions. For the evaluation of these processes, an effect-based assessment was applied and combined with chemical data of 31 selected target organic micropollutants as well as ten metabolites. To assess the removal of endocrine disrupting chemicals (EDCs), yeast based reporter gene assays covering seven receptor-mediated mechanisms of action including (anti-)estrogenicity, (anti-) androgenicity, retinoid-like, and dioxin-like activity were conducted. Furthermore, the removal of unspecific toxicity (Microtox assay) and oxidative stress response as a marker for reactive toxicity (AREc32 assay) were analyzed to cover micropollutants acting via a non-specific mechanism of action. Moreover, to assess toxicity of the whole effluent in vivo, standardized in vivo bioassays with four aquatic model species (Desmodesmus subspicatus, Daphnia magna, Lumbriculus variegatus, Potamopyrgus antipodarum) were performed.
The combination of aerobic and anaerobic treatments resulted in a low additional removal of the selected target organic micropollutants (by 14-17%). In contrast, the removal of endocrine and dioxin-like activities (by 17-75%) and non-specific in vitro toxicities (by 27-60%) was significantly enhanced. Compared to technical solutions (i.e. ozonation), the combination with an anaerobic pre-treatment under iron-reducing conditions was likewise effective in removing the estrogenic activity as well as the unspecific toxicity, whereas anti-androgenic activity and dioxin-like activity were less effectively removed. Exposure to effluents of the conventional activated sludge treatment did not induce adverse in vivo effects in the investigated aquatic model species. Accordingly, no further improvement in water quality could be observed. In conclusion, the combination of aerobic and anaerobic treatment processes significantly enhanced the removal of specific and non-specific in vitro toxicities. Thus, an optimization of the biological wastewater treatment can lead to a substantially improved detoxification. These capacities of a treatment technology can only be uncovered by complementary effect-based measurements.
The global objective of the ENDETECH project was to develop a biotechnological solution to eliminate recalcitrant pharmaceuticals in wastewater direct from sites, where high loads are expected (i.e. hospitals). For this purpose, laccase, an enzyme mainly found in wood decaying fungi, was immobilized on ceramic membranes for application in bioreactors. In a proof of principle experiment, the performance of immobilized laccase in removing a mixture of 38 antibiotics without and in combination with a natural mediator (syringaldehyde; SYR) was investigated. For the evaluation of the enzymatic membrane bioreactors, chemical data on the elimination of the selected target antibiotics was combined with the outcomes of two in vitro bioassays. Growth inhibition tests with an antibiotic sensitive Bacillus subtilis strain were conducted to assess the residual antibiotic activity of the effluents, and Microtox assays were performed to detect a potential formation of toxic by-products.
The treatment by laccase without SYR did not reduce the load of antibiotics significantly. In contrast, in combination with a SYR concentration of 10 µmol L-1, 26 out of 38 antibiotics were removed by >50% after 24 h treatment. Moreover, increasing the SYR concentration to 1000 µmol L-1 resulted in a further improvement of the antibiotic removal. 32 out of 38 antibiotics were removed by over 50%, whereby 17 were almost completely eliminated (>90%). However, the treatment with laccase in combination with SYR resulted in a time-dependent increase of unspecific toxicity. While SYR alone did not affect B. subtilis, the combination of laccase with SYR led to a strong time-dependent growth inhibition up to 100%. Similar to that, a time-dependent increase of unspecific toxicity in the Microtox assay was observed. In conclusion, the laccase-mediator process successfully degrades a broad spectrum of antibiotics and thus represents a promising technology to treat wastewater from sites, where high loads are expected. However, further research is required to reduce the formation of unspecific toxicity before an implementation of this technology can be considered.
The process of urbanization is one of the major causes of the global loss of biodiversity; however, cities nowadays also have the potential to serve as new habitats for wildlife. The European rabbit (Oryctolagus cuniculus, L. 1758) is a typical example of a wildlife species that reaches stable population densities in cities. Due to intense plant and soil damages, German city authorities aim to control high rabbit densities through the application of a yearly hunting regime (e. g., in Munich, Berlin or Frankfurt am Main). In contrast, population densities of O. cuniculus are on decline in German rural areas, i. e., numbers of yearly hunting bags decreased. The aim of my doctoral thesis was to answer the following research questions: Do population densities of the European rabbit correlate with the intensity of urbanization in and around Frankfurt am Main and if so, which factors play a role in varying densities? How are burrow construction behaviors and group sizes, daytime activity patterns and anti-predator behaviors as well as communication behaviors of this mammal affected by urbanization?
In my first study, I focused on population dynamics across 17 different study sites in and around Frankfurt. As one of yet few studies, I invented an approach that quantified the intensity of urbanization (degree of urbanity) of each study site base on four variables: (1) intensity of anthropogenic disturbance per min and ha, (2) number of residents within a radius of 500 m, (3) proportion of artificial ground cover and (4) numbers of anthropogenic objects per ha. Spearman rank correlations confirmed that with increasing degree of urbanity also rabbit and burrow densities increased. The access to dense shrubs, bushes etc. as suitable sites for burrow construction is the most determining factor for rabbit abundances, and therefore I presumed different densities along the rural-to-urban gradient to be driven by shifts in the availability of thick vegetation.
In the second study, I calculated two indices that in both cases classified burrows to be either accumulated, evenly or randomly distributed within study sites. Additionally, in cooperation with local hunters the number of burrow entrances and animals that occupy the same burrow had been determined during the hunting season. With increasing degree of urbanity burrow distribution patterns shifted from accumulated in rural areas towards more evenly distributed within the city center of Frankfurt. This is a clear sign for an increasing access to sites suitable for burrow construction along the rural to-urban gradient. Additional Spearman rank correlations revealed that the external dimensions of burrows decreased (shorter distances between entrances) and that burrows became less complex (fewer entrances) along the rural-to-urban gradient. In accordance, the number of rabbits that commonly shared the same burrow system was highest within rural areas, whereas I found mainly pairs and single individuals within highly urbanized study sites.
In the last study I compared activity patterns, burrow use and percentages of anti-predator behaviors from one hour before sunrise until one hour after sunset of rural, suburban and urban rabbit groups. A linear mixed model (LMM) and Spearman rank correlations confirmed that rabbits located at urban and suburban sites spent more time outside their protective burrows compared to their rural conspecifics. At suburban sites, individuals invested the least amount of time in anti-predator behavior. Results of this third study gave evidence that suburban rabbit populations on one hand benefit from less predation pressure by natural predators in comparison to rural sites, whereas on the other hand are exposed to less intense disturbance by humans compared to urban study sites.
The last study focused on the effects that urbanization had on the latrine-based communication behavior of rabbits. As many other mammals, O. cuniculus exchange information via the deposition of excreta in latrines, and depending on the intended receiver(s), latrines are either formed in central areas for within-group communication or at territorial boundaries, e. g., for between-group communication. The relative importance of within- vs. between-group communication depends on, amongst other factors, population densities and group sizes which I proved both to shift along the considered rural-to-urban gradient. I determined latrine sizes, latrine densities and latrine utilization frequencies relative to their distance to the nearest burrow at 15 different study sites. Latrine densities and utilization frequencies increased with increasing distance from the burrow in suburban and urban populations whereas at rural sites, largest latrines and those containing the most fecal pellets were close to the burrow, suggesting that within-group communication prevailed.
To sum up, for the first time, I was able to relate shifts in the ecology and behavior of the European rabbit as adaptations to a gradual anthropogenic habitat alteration that are typical for “urban exploiters”. Especially the suburban habitat provides high landscape heterogeneity (“edge habitat“) which is essential for high and stable rabbit populations. Moreover, here, comparably low human disturbance and predation pressure are given in contrast to the agriculturally transformed, open landscapes which are nowadays typical for most rural areas in central Europe. I argue that this mainly leads to the observed behavioral changes along the rural-to-urban gradient. Future plans for rural land management actions should aim to increase refuge availability by generating networks of ecotones. This would also benefit species that depend on similar ecosystem structures as the European rabbit and are on decline in Germany.
Compact stars can be treated as the ultimate laboratories for testing theories of dense matter. They are not only extremely dense objects, but they are known to be associated with strong magnetic fields, fast rotation and, in certain cases, with very high temperatures. Here, we present several different approaches to model numerically the signatures and properties of these stars, namely:
•The effects of strong magnetic fields on hybrid stars by using a fully general relativistic approach. We solved the coupled Maxwell-Einstein equations in a self-consistent way, taking into consideration the anisotropy of the energy-momentum tensor due purely to the magnetic field, magnetic field effects on equation of state and the interaction between matter and the magnetic field (magnetization). We showed that the effects of the magnetization and the magnetic field on the equation of state for matter do not play an important role on global properties of neutron stars (only the pure magnetic _eld contribution does). In addition, the magnetic field breaks the spherical symmetry of stars, inducing major changes in the populated degrees of freedom inside these objects and, potentially, converting a hybrid star into a hadronic star over time.
•The effects of magnetic fields and rotation on the structure and composition of proto-neutron stars. We found that the magnetic field not only deforms these stars, but also significantly alters the number of trapped neutrinos in the stellar interior, together with the strangeness content and temperature in each evolution stage from a hot proto-neutron star to a cold neutron star.
•The influence of the quark-hadron phase transitions in neutron stars. In particular, previous calculations have shown that fast rotating neutron stars, when subjected to a quark-hadron phase transition in their interiors, could give rise to the backbending phenomenon characterized by a spin-up era. In this work, we obtained the interesting backbending phenomenon for fast spinning neutron stars. More importantly, we showed that a magnetic field, which is assumed to be axisymmetric and poloidal, can also be enhanced due to the phase transition from normal hadronic matter to quark matter on highly magnetized neutron stars. Therefore, in parallel to the spin-up era, classes of neutron stars endowed with strong magnetic fields may go through a `magnetic-up era' in their lives.
•Finally, we were also able to calculate super-heavy white dwarfs in the presence of strong magnetic fields. White dwarfs are the progenitors of supernova Type Ia explosions and they are widely used as candles to show that the Universe is expanding and accelerating. However, observations of ultraluminous supernovae have suggested that the progenitor of such an explosion should be a white dwarf with mass above the well-known Chandrasekhar limit ~ 1.4 M. In corroboration with other works, but by using a fully general relativistic framework, we obtained also strongly magnetized white dwarfs with masses M ~ 2:0 M.
Einfluss der natürlichen Verbindung Curcumin auf die Invasion von Harnblasenkarzinomzellen in vitro
(2017)
Das Harnblasenkarzinom macht 3,4 % aller bösartigen Tumore aus. In Deutschland erkranken jedes Jahr 16.000 Menschen mit stetig steigenden Inzidenzraten. Betroffen sind vor allem äl-tere Menschen.
Die Therapie erfolgt in Abhängigkeit vom Tumorstadium. Im fortgeschrittenen Stadium wird der Patient i. d. R. mit zwei bis drei Zyklen MVAC (Methotrexat, Vinblastin, Doxrubicin und Cisplatin) behandelt. Unter Chemotherapie lässt sich die Überlebenszeit des Patienten verlän-gern, dennoch schränken rasch aufkommende Resistenzen den Wirkungsgrad erheblich ein. Curcumin kann den Bedarf von Patienten, die Krankheit zusätzlich aktiv bekämpfen zu können, decken. Die natürliche Substanz hat das Potenzial, sich als eine zusätzliche Therapieoption beim fortgeschrittenen Harnblasenkarzinom zu etablieren. Ziel der Studie war es, die Wirk-samkeit von Curcumin durch Lichtexposition zu erhöhen und die Bedeutung dieses Ansatzes für die Hemmung der Tumorinvasion anhand von Harnblasenkarzinomzellen zu evaluieren.
Zellkulturen der Harnblasenkarzinomzelllinien UMUC3, RT112 und TCCSUP wurden angelegt. Die Tumorzellen wurden vor den Versuchen mit Curcumin in verschiedenen Konzentrationen (0,05 μg/ml, 0,1 μg/ml und 0,2 μg/ml) und/oder mit Tageslicht behandelt und in entspre-chende Proben eingeteilt. Mittels Adhäsionsversuchen wurde das Bindungsverhalten der Krebszellen an extrazelluläre Matrixproteine (Kollagen, Fibronektin) und humane Endothelzel-len (HUVEC) untersucht. Die Migrationstendenz wurde mithilfe eines Chemotaxisexperiments ermittelt. Um die Wirkung von Curcumin auf die für den Metastasierungsprozess relevanten α- und β-Integrin-Subtypen zu untersuchen, wurde eine FACScan-Analyse durchgeführt. Der Western Blot diente zur Quantifizierung der Integrinproteine vor und nach Behandlung. Zu-sätzlich wurde durch Blockadeanalysen dargestellt, in welchem Rahmen die Tumorzellen in ihrem Bindungs- und Migrationsverhalten von selektiven Integrinen abhängig sind.
Eine Bestrahlung von Curcumin mit Tageslicht (CurcuminLicht) hatte eine signifikante Wirkungs-steigerung der Substanz gegenüber unbestrahltem Curcumin zur Folge. Einheitlich verringerte CurcuminLicht die Adhäsion sämtlicher Tumorzelllinien an immobilisiertes Kollagen und Fibronektin. Die Interaktion von UMUC3 und RT112 mit HUVEC wurde gehemmt, hingegen er-höhte sich die Bindungsrate von TCCSUP signifikant gegenüber der unbehandelten Kontrolle. Die Tumorzellmotilität (Chemotaxis) wurde in Gegenwart von CurcuminLicht deutlich geblockt. Die FACScan-Analyse und Western Blotting verwiesen auf distinkte Modulationen der α- und β-Integrin-Subtypen. Diese waren in Abhängigkeit vom Tumorzelltyp unterschiedlich ausge-prägt. Mittels Blockadestudien konnte demonstriert werden, dass die Integrin-Subtypen α3, α5 und β1 wesentlich in Adhäsions- und Migrationsereignisse eingebunden sind.
Die Ergebnisse verweisen auf die Bedeutung der Lichtexposition für die Wirkeffektivität der Natursubstanz Curcumin. CurcuminLicht vermag, invasive Prozesse im Rahmen der Tumordis-semination zu unterbinden, und könnte sich somit als wertvolles Additivum im Rahmen der konventionellen Tumorbehandlung erweisen. In nachfolgenden Studien sollten die erarbeite-ten Daten am Tiermodell verifiziert werden.
In der vorliegenden Arbeit sollte der Einfluss von langjährigem Lastkraftwagenfahren auf die posturale Kontrolle untersucht werden. Hierzu wurden die Auswirkungen verschiedener Einflussfaktoren, die mit langjährigem Lastkraftwagenfahren assoziiert sind, im Hinblick auf die posturale Kontrolle analysiert. In diesem Rahmen wurden auf einer Autobahnraststätte in Deutschland 180 (179m/1w) Lastkraftwagenfahrer im Alter von 21 bis 65 Jahren mit einer Berufserfahrung von 1 bis 45 Jahren untersucht. Mit Hilfe eines Fragebogens wurden Informationen über die Arbeitszeit und den Gesundheitszustand der Lastkraftwagenfahrer, wie beispielsweise bestehende Rückenschmerzen oder Sportverhalten, erhoben. Für die Messung der Parameter der posturalen Kontrolle in habitueller Standposition wurde die Druckmessplatte GP Multisens der Firma GeBioM (Münster, Deutschland) verwendet. Es wurde die prozentuale Druckverteilung im Vorfuß-Rückfußbereich für den linken und rechten Fuß gemessen. Des Weiteren konnte die Körperschwankung in frontaler (anterior/posterior) und sagittaler (medial/lateral) Ebene aufgezeichnet werden. Dadurch lassen sich unter anderem Rückschlüsse auf eine Verlagerung des Körperschwerpunktes ziehen. Die statistische Auswertung erfolgte mit Hilfe des Statistikprogrammes BiAS Version 11.0 (2015). Die erhobenen Daten wurden unter Verwendung des Kolmogoroff-Smirnoff-Lillifors-Tests auf Normalverteilung getestet. Das Signifikanzniveau lag bei α=5%. Daneben wurde ein zweiseitiges 95%-Konfidenzintervall sowie der Toleranzbereich der Daten berechnet. Da keine Normalverteilung der Daten vorlag, wurde der Kruskal Wallis Test mit anschließender Bonferoni-Holm Korrektur zum Vergleich der Daten eingesetzt. Die Korrelationen wurden durch einfache, lineare Korrelation nach Pearson oder Rang-Korrelation nach Spearman & Kendall berechnet. Die Studienteilnehmer wurden zusätzlich gemäß ihres BMI, ihrer bereits als Lastkraftwagenfahrer geleisteten Arbeitsjahre, nach bestehenden Rückenschmerzen und nach sportlicher Betätigung jeweils verschiedenen Gruppen zugeordnet. Die Gruppen wurden anschließend hinsichtlich der gemessenen Parameter miteinander verglichen. In Bezug auf ein zunehmendes Alter konnte eine signifikant zunehmende sagittale Schwankung (p ≤ 0,01) sowie eine erhöhte Belastung des rechten Fußes (p ≤ 0,01) gemessen werden. Im Vergleich zwischen normalgewichtigen und übergewichtigen Lastkraftwagenfahrern zeigten sich signifikante Unterschiede hinsichtlich der gemessenen Parameter der posturalen Kontrolle. Es konnte beobachtet werden, dass es mit zunehmenden BMI zu einer erhöhten Schwankung in frontaler (p ≤ 0,04) und sagittaler (p ≤ 0,001) Ebene kommt. Hinsichtlich der Fußdruckbelastung kam es zu keinen signifikanten Veränderungen zwischen den BMI-Gruppen. Lastkraftwagenfahrer mit mehr Arbeitsjahren zeigten erhöhte frontale und sagittale Körperschwankungen. Es lag eine signifikante, positive Korrelation zwischen der frontalen Schwankung und einer Zunahme der Arbeitsjahre (p ≤ 0,04) vor. Auch bei der sagittalen Schwankung bestand eine signifikante Korrelation (p ≤ 0,01). Lediglich bei der Belastung des rechten Vorfußes konnte eine signifikante Korrelation nachgewiesen werden (p ≤ 0,01), während bei den anderen Parametern der Fußbelastung keine signifikante Korrelation belegt werden konnte. Im Gruppenvergleich nach Arbeitsjahren zeigte sich, dass mit ansteigenden Arbeitsjahren als Lastkraftwagenfahrer zu einem Anstieg des BMI kommt. Im Vergleich von Lastkraftwagenfahrern mit und ohne Rückenschmerzen waren keine signifikanten Unterschiede bei den gemessenen Parametern der posturalen Kontrolle nachweisbar. Auch bei der Analyse des Einflusses von sportlicher Aktivität auf die posturale Kontrolle konnte kein Unterschied zwischen der Gruppe mit sportlicher Aktivität und ohne sportliche Aktivität gemessen werden.
Mit dieser Studie konnten die gesundheitsgefährdenden Einflüsse des Lastkraftwagenfahrens auf die posturale Kontrolle nachgewiesen werden. Vor allem das langjährige Sitzen und der erhöhte BMI haben einen Einfluss auf die Körperstabilität und stören die Kompensationsmechanismen der Aufrechterhaltung der posturalen Kontrolle. Die genauen Steuerungsmechanismen der Körperstabilität sind sehr komplex und wurden in dieser Studie nicht im Einzelnen analysiert. Um welche konkreten Strukturen es sich handelt, die durch das langjährige Lastkraftwagenfahren gestört werden, kann mit den Ergebnissen dieser Studie nicht erfasst werden.
Aufgrund einer hohen Inzidenz und einer ungünstigen Prognose stellt die Behandlung von Patienten mit lebermetastasierten kolorektalen Karzinomen eine große Herausforderung in der klinischen Routine dar. Weiterhin sind die chirurgische Resektion und eine systemische Chemotherapie die Standards in der Behandlung dieser Patienten. Allerdings kommen viele Patienten für eine chirurgische Therapie aufgrund einer fortgeschrittenen Lebermetastasierung nicht in Frage. Eine relativ hohe Rezidivrate nach operativer Metastastenentfernung und ein Tumorprogress unter systemischer Chemotherapie stellen ein weiteres Problem dar.
Sind konventionelle Therapien ausgeschöpft, können von Seiten der interventionellen Radiologie eine Reihe minimal-invasiver Therapiemöglichkeiten angeboten werden.
Nach Zugang über die Arteria femoralis superficialis erfolgt bei der transarteriellen Chemoembolisation (TACE) unter angiographischer Kontrolle eine lokale Applikation von Chemotherapeutika und Embolisate in Blutgefäße von Lebermetastasen. Bei der perkutanen thermischen Ablation erfolgt eine Punktion von Lebermetastasen Computertomografie-gesteuert mit nachfolgender Tumordestruktion durch Hitze. Diese beiden Therapieverfahren können auch je nach klinischer Ausgangslage miteinander kombiniert werden.
Die vorliegende Arbeit umfasst 452 Patienten mit nicht-reseziebaren Lebermetastasen kolorektaler Metastasen die sich einer Therapie mittels TACE in 4-wöchigen Intervallen unterzogen. Dabei wurden 233 Patienten palliativ nur mit TACE behandelt, während 219 Patienten neoadjuvant mit TACE behandelt wurden, bevor eine perkutane thermische Ablation, entweder in Form einer Mikrowellenablation oder Laserablation durchgeführt wurde. Für beide Patientengruppen wurden das mediane Gesamtüberleben sowie das progressionsfreie Überleben ab der ersten TACE berechnet. Für beide Überlebenszeiten wurden ferner verschiedene Faktoren getestet, die potentiell eine prognostische Aussagekraft haben. Es wurde auch getestet auf welche Kombination an Chemotherapeutika das beste Ansprechen nach TACE erzielt wird.
Des Weiteren wurden von 34 Patienten gezielt 55 Lebermetastasen mit Diffusions-gewichteter MRT-Bildgebung (DWI) untersucht. Durch Dokumentation eines aus der DWI errechneten ‚apparenten Diffusionskoeffizienten‘ (ADC) wurde getestet ob damit eine Vorhersage über das Therapieansprechen erfolgen kann.
Einen Monat nach der ersten TACE zeigten 7 Metastasen ein Therapieansprechen, wobei kein signifikanter Unterschied zwischen absoluten prätherapeutischen ADC Werten von Metastasen mit und ohne Therapieansprechen bestand (p=0,94).
Drei Monate nach der ersten TACE zeigten 17 Metastasen ein Therapieansprechen. Es bestand ein signifikanter Unterschied zwischen absoluten prätherapeutischen ADC Werten von Metastasen mit (median 1,08x10-3mm²/s) und ohne Therapieansprechen (median 1,30x10-3mm²/s). Dabei zeigten prätherapeutische ADC Werte einen mäßigen Vorhersagewert für das Therapieansprechen (AUC 0,7).
Bei Metastasen die ein Therapieansprechen nach 3 Monaten zeigten wurde ein signifikanter Anstieg von ADC Werten beobachtet (p<0,001).
Mit einer Sensitivität von 77% und einer Spezifität von 74% konnte ein Ansprechen nach drei TACE Sitzungen vorhergesagt werden, wenn es zu einem Anstieg der ADC Werte um 12,17% kam (AUC 0,817). Zudem wurde eine starke und signifikante Korrelation zwischen dem prozentualen Anstieg der ADC Werte und einer prozentualen Größenänderung der Lebermetastasen beobachtet werden (r=0,651, p<0,001).
Die palliativ mit TACE behandelten Patienten zeigten ein Gesamtüberleben von 12,6 Monaten und ein progressionsfreies Überleben von 5,9 Monaten. Dagegen lag das Gesamtüberleben und das progressionsfreie Überleben der neoadjuvant behandelten Patienten mit folgender thermischen Ablation bei 25,8 und 10,8 Monaten.
Die Unterschiede im Gesamtüberleben und progressionsfreien Überleben zwischen den beiden Gruppen waren statistisch signifikant (p<0,001).
Extrahepatische Metastasten vor Therapie mit TACE waren ein signifikanter prognostischer Einflussfaktor in der Überlebensanalyse der neoadjuvant und palliativ therapierten Gruppe. Anzahl, Größe und Lokalisation waren ferner signifikante Faktoren für das Gesamtüberleben und progressionsfreie Überleben der neoadjuvanten Kohorte. Geschlecht, Lokalisation des Primärtumors, T- und N- Stadien des TNM-Klassifikationssystem des Primärtumors, zeitliches Auftreten der Lebermetastasen, Ablationsmethode und Patientenalter hatten keinen Einfluss auf das Überleben in beiden Kohorten. Das beste Ansprechen auf TACE wurde bei einer Verwendung einer Dreifachkombination von Chemotherapeutika beobachtet (p=0,021).
Zusammenfassend zeigt die Arbeit, dass die TACE eine effektive Therapie bei Lebermetastasen kolorektaler Karzinome darstellt. Eine Messung von ADC Werten erscheint ein potentieller Biomaker für das Ansprechen von Lebermetastasen zu sein.
Eiskeime (INP) sind Aerosolpartikel, die das Entstehen von Eiskristallen in der Atmosphäre zwischen 0 und -37°C ermöglichen, indem sie die zur Ausbildung der Eisphase nötige Energie gegenüber einem reinen Wassersystem stark herabsetzen. Dabei sind aktive Stellen auf der Oberfläche dieser Partikel für die erste Nukleation von Eis verantwortlich. In der Folge können die Eiskristalle zulasten von verdunstenden Wasserdampfmolekülen und Wassertröpfchen weiter anwachsen. Über Eismultiplikationsprozesse zersplittern und vervielfältigen sich die Eiskristalle und wachsen über Bereifung schließlich zu einer kritischen Größe heran, wodurch sie als Niederschlag zu Boden fallen können. Auch wenn der Anteil der zur heterogenen Eisnukleation fähigen Aerosole vergleichsweise gering ist, spielen INP eine entscheidende Rolle für die Entwicklung von Niederschlag und nehmen Einfluss auf Strahlungsprozesse, indem sie auf die Phase der Wolken und damit auf deren Strahlungseigenschaften einwirken. Viele Fragen im Forschungsgebiet der heterogenen Eisnukleation sind jedoch weiterhin nicht hinreichend genau geklärt. Ohne eine verbesserte Kenntnis von Konzentrationen, geographischer und vertikaler Verteilung, sowie zeitlicher Variation, Quellen und Natur von INP, sind noch vorhandene Wissenslücken im Strahlungsantrieb durch Wechselwirkungen von Aerosolen und Wolken nur zu einem gewissem Grad zu reduzieren. Dies ist nötig, um aktuelle Beobachtungsdaten der sich erwärmenden Atmosphäre besser verstehen und die zukünftigen Änderungen des Klimas sicherer vorhersagen zu können. In dieser Arbeit wird die Vakuumdiffusionskammer FRIDGE verwendet, um atmosphärische INP-Konzentrationen zu bestimmen. Aerosolpartikel werden dabei in einem ersten Schritt auf einem Silicium-Probenträger elektrostatisch niedergeschlagen. Die Effizienz des Sammelprozesses, also der Anteil der Partikel die tatsächlich auf dem Si-Substrat abgeschieden werden, wurde mittels zweier unabhängiger Methoden auf etwa 60% bestimmt. In einem zweiten Mess-Schritt werden die Proben in FRIDGE typischen Bedingungen von Mischphasenwolken ausgesetzt, wodurch Eiskristalle an den INP aktiviert werden und im Verlauf einer Messung anwachsen. Eine Kamera beobachtet die durch das Eiswachstum entstehenden Helligkeitsänderungen auf dem dunklen Probensubstrat. Die Kriterien, wann ein Objekt als Eiskristall identifiziert und gezählt wird, mussten im Rahmen dieser Arbeit neu entwickelt werden. In der zu Beginn der Arbeit vorgefundenen Einstellung hatte bereits eine sehr geringe Helligkeitsänderung, wie sie durch das hygroskopische Wachstum von Aerosolpartikeln hervorgerufen wird, zu Signalen geführt, die fälschlicherweise als Eiskristalle gezählt wurden. Das reevaluierte Messverfahren von FRIDGE wurde im Zuge der FIN-02 Kampagne in einem groß angelegten Laborexperiment an der AIDA Wolkenkammer mit zahlreichen anderen INP-Zählern aus der ganzen Welt verglichen. Für den Großteil der Messungen der untersuchten Modell-Aerosoltypen konnte eine zufriedenstellende Übereinstimmung mit den anderen Instrumenten erzielt werden. In einer einmonatigen Feldmesskampagne im östlichen Mittelmeerraum konnten die ersten INP-Messungen an Bord eines unbemannten Flugzeugs durchgeführt werden. Während der Kampagne auf Zypern wurden mehrere Fälle von transportiertem Saharastaub beprobt, in denen die INP-Konzentration maßgeblich erhöht war. Lidar-Beobachtungen und ein Staubtransportmodell zeigten, dass sich das Maximum der Staubschichten zumeist in etwa 2-4 Kilometern Höhe befand. In der Höhe wurden INP-Konzentrationen gefunden, die im Mittel um einen Faktor 10 größer waren als auf Bodenniveau. Es wird gefolgert, dass INP-Messungen am Boden möglicherweise nur begrenzte Aussagekraft über die Situation nahe der Wolkenbildung besitzen. Im Rahmen BACCHUS-Projekts wurden zwischen August 2014 und Januar 2017 (mit Unterbrechungen) alle 1-2 Tage Proben an drei Reinluftstationen gesammelt (insgesamt über 900). Das INP-Messnetz mit einer geographischen Ausdehnung von der Arktis zum Äquator bestand aus Stationen in Spitzbergen, Martinique und im Amazonas. Die Station im brasilianischen Regenwald ist durch wechselnde Bedingungen von sauberer Regen- und verunreinigter Trockenzeit charakterisiert. In der Trockenzeit steigen die Partikelkonzentrationen durch starke Belastung aus Biomassenverbrennung um eine Größenordnung an; eine gleichzeitige Zunahme der INP-Konzentrationen konnte nicht beobachtet werden. Daraus kann vermutet werden, dass Partikel aus Feueremissionen keine ausgezeichneten Fähigkeiten zur Eisnukleation aufweisen. Die INP-Konzentrationen in der Karibik konnten mit dem Jahresgang von transportieren Saharastaub in Verbindung gebracht werden. In der Arktis wurden die niedrigsten INP-Konzentrationen der drei Stationen beobachtet. Zum Zeitpunkt des Erstellens dieser Arbeit können die determinierenden Einflussfaktoren, sowie der anthropogene Einfluss zur Zeit des arktischen Dunstes noch nicht abschließend geklärt werden.
If the biotechnological production of chemicals can further replace or support regular synthetic chemistry, industry will be able to move away from fossil oils towards renewable sources. However, in many cases the much needed adaptation of biotechnological production systems is not yet developed to the necessary level.
For processes where short fatty acids (FA) are needed, as for example in the microbial production of biofuels in the gasoline range, protein engineering had not yet delivered feasible solutions. In this thesis, several approaches to introduce chain length control on type I fatty acid synthases (FAS) were established and made available in a publication and two patents. Therein, engineering was focused on rational design based on available structural information.
First, the type I FAS from C. ammoniagenes was used as a model enzyme to probe modifications on FAS in a low complex in vitro environment in order to gain information about structure-function relationships. At this stage, engineering was conducted in several rounds, first addressing possible ways to alter product distributions by changing substrate affinities through concise mutations in binding channels. Several FAS constructs were generated ranging from first successes, where short FA were produced as side products, to FAS where native chain length programming was overwritten and only short FA were produced.
Furthermore, another engineering target was addressed with the modification of domain-domain interactions on FAS. For its exploitation to direct synthesis, contact surfaces on catalytic domains were changed to interfere with acyl carrier protein binding. This channeling of the kinetic process on the enzyme led to similar successes and short FA became the primary product.
The two approaches have proven to be potent tools to introduce systems of chain length control in FAS. This rational engineering has the big advantage that it is mostly minimally invasive and due to the high conservation of de novo FA synthesis, individual mutations could easily be used in other FAS (and their organisms) as well. Even heterologous expression of modified FAS genes is feasible.
Engineering was not only tested in a defined in vitro environment and but also in S. cerevisiae as an exemplary in vivo system. The results eventually confirmed the in vitro findings and proved that the chosen engineering could be transferred to more complex systems. Even before any optimization for highest output, the titers of short FA from S. cerevisiae fermentation matched previous reports with 118 mg/L.
In sum, this work covers several layers from basic research to preliminary applications. The presented modifications to create short FA producing FAS can be a key step in synthesis pathways and will likely enable a whole range of new succeeding research. It can be seen as a valuable contribution towards establishing novel ways for the production of chemicals from renewable sources.
Ein Ziel dieser Arbeit war die Entwicklung und biologische Evaluierung einer Sensorik zur Verbesserung der Prognose des Apfelschorfs. Als Grundlage für die Schorfprognose dient nach dem Modell von Mills die Länge der Blattnässedauer in Abhängigkeit von der Lufttemperatur. Es wurden mehrjährige Vergleiche verschiedener käuflicher Blattnässesensoren durchgeführt und in Zusammenarbeit mit der Firma THIES Clima ein Sensor für Wasserbenetzung entwickelt. Der Vergleich der käuflichen Sensoren zeigte deutliche Unterschiede in der Anzeige der Nässedauer zwischen den verschiedenen getesteten Sensoren. Die Eignung dieser Sensoren für die Prognose war sehr verschieden. Der im Rahmen des Verbundprojektes entwickelte Sensor ist zuverlässig, wetterfest, korrosionsbeständig und wartungsarm. Die einzelnen Prototypen wurden nach der Evaluierung in der Klimakammer im Freiland getestet und die Einstellungen anhand von Bioassays auf ihre Eignung zur Prognose überprüft. Der marktreife Prototyp kann ohne weitere Modellierung zur Erfassung der Blattnässe von Apfelblättern in die Prognose eingebunden werden.
Ein weiteres Ziel der vorliegenden Arbeit war es, die Zusammenhänge der diurnalen Rhythmik der Sporenausschleuderung von Venturia inaequalis zu untersuchen. Im Freiland wurden die Ascosporenflüge unter natürlichen Bedingungen und mit Störlicht registriert. Im Labor wurde der Sporenausstoß unter dem Einfluss der Beleuchtungsstärke und Wellenlängen-Zusammensetzung untersucht. Sowohl im Freiland als auch im Labor konnte eine Aufhebung der Dunkelhemmung des Sporenausstoßes erreicht werden. Der sichtbare Anteil des Lichts konnte auch bei Helligkeiten von über 10000 Lux als Auslöser des Sporenausstoßes ausgeschlossen werden. Durch die Bestrahlung der Pseudothecien tragenden Blätter mit nicht sichtbaren infraroten Lichtanteilen wurde eine Freisetzung der Ascosporen auch im Dunkeln erreicht und die diurnale Rhythmik der Sporenausschleuderung im Freiland wurde aufgelöst.
HCMV ist ein Pathogen mit einer weltweit sehr hohen Prävalenz und stellt nach wie vor ein großes Problem für Immunsupprimierte (Transplantations- und AIDS-Patienten) und für ungeborene Kinder dar. Seine Pathogenese ist weiterhin nur unzureichend bekannt, eine Impfprophylaxe existiert nicht und es stehen nur wenige, unzureichende Medikamente zur Therapie zur Verfügung. Auch ein verstärkender Einfluss des Virus auf die Tumormalignität ist gezeigt. Aber die der viralen Onkomodulation zugrundeliegenden Mechanismen, insbesondere die Frage, wie und wann Tumorwachstum und -invasion durch HCMV beschleunigt werden, bedürfen weiterer Aufklärung.
Die immediate early-Proteine IE1 und IE2 sind wichtige Regulatorproteine einer HCMV-Infektion – insbesondere IE1, welches einen entscheidenden Einfluss auf die Genexpression der Wirtszelle nimmt. Es wurde a-priori die Hypothese erstellt, dass über einen positiven Einfluss von IE1 auf die Enterokinaseexpression die Trypsin-vermittelte Tumorinvasion gefördert wird.
Im ersten Teil dieser Arbeit wurde ein effizientes, zuverlässiges Protokoll zur Herstellung IE1- und IE2-exprimierender Tumorzelllinien mit Hilfe von lentiviralem Gentransfer ausgearbeitet. Damit verbunden konnten zwei persistent-transduzierte humane Tumorzelllinien, U-251 MGIE1 und U-251 MGIE2, mit hohen Expressionsraten etabliert werden. Weiter konnte im zweiten Teil der Arbeit, sowohl im Akutmodell als auch an persistent-transduzierten Zellen, gezeigt werden, dass die Enterokinaseexpression nicht im Zusammenhang mit der IE1-Expression steht.
Durch die Erarbeitung des Transduktions-Protokolls und die Etablierung der persistent-transduzierten humanen Tumorzelllinien ist es nun möglich, die isolierten Auswirkungen von IE1 und IE2 auf humane Tumorzellen zu untersuchen. Die Widerlegung der Hypothese über die Beeinflussung der Enterokinaseexpression durch IE1 liefert eine Erkenntnis, um die Mechanismen der erhöhten Tumorinvasion besser verstehen zu können. Insgesamt konnte durch diese Arbeit ein Beitrag geliefert werden, die durch HCMV verursachten onkomodulatorischen Effekte noch besser nachvollziehen zu können. Dies wiederum kann künftig dazu dienen therapeutische Strategien, welche der Invasion und Metastasierung entgegen wirken, zu verbessern bzw. zu entwickeln.
Etablierung innovativer Strategien zur Resistenzumgehung bei der Therapie des Urothelkarzinoms
(2017)
Patienten mit fortgeschrittenem Blasenkarzinom haben eine sehr schlechte Prognose. Neue Behandlungsansätze, die ihnen eine realistische Heilungschance bieten, sind dringend notwendig. Der Einsatz des mTOR-Inhibitors TEM könnte ein innovatives Lösungskonzept darstellen. Zu berücksichtigen ist jedoch die Gefahr einer Resistenzinduktion unter Langzeitbehandlung. Basierend auf vorausgegangenen Studien wurde im Rahmen der Promotionsarbeit postuliert, dass die Behandlung mit dem HDAC-Inhibitor VPA eine Therapiestrategie darzustellen vermag, mit der durch Tem bedingte Resistenzen umgegangen werden können.
In der vorliegenden Arbeit wurde das biologische Verhalten verschiedener Blasenkarzinomzellen unter chronischer Tem-Therapie studiert und anschließend der Einfluss von VPA auf Wachstum und Proliferation der Zellen (TEM-resistent versus TEM-sensibel) untersucht.
Verwendet wurden die Zelllinien RTT112 und UMUC3. Die Resistenz wurde durch TEM induziert. Das Zellwachstum wurde mit MTT und die Proliferation mittels BrdU-Einbau evaluiert. Mittels Flow-Zytometrie erfolgte die Analyse der Zellzyklusprogression. Relevante Zellzyklusproteine und intrazelluläre Zielproteine wurden mittels Western Blot Verfahren analysiert. siRNA Knock-Down-Studien dienten zur Beurteilung der biologischen Relevanz der Proteine.
Die chronische mTOR-Blockade mit TEM über mehrere Monate hinweg ging mit einer Resistenzinduktion einher, nachgewiesen über eine Verschiebung des IC50-Wertes. VPA bewirkte nicht nur bei den TEM-sensiblen, sondern auch den TEM-resistenten Zellen eine signifikante Wachstums- und Proliferationshemmung. Der Effekt korrelierte mit einer Zunahme von Tumorzellen in der G0/G1-Phase des Zellzyklusses und Abnahme von S-Phase-Zellen. Die G2/M-Phase reduzierte sich in RT112-Kulturen und bei TEM-sensitiven UMUC3-Zellen. Hingegen erhöhte sich der Anteil von TEM-resistenten UMUC3-Kulturen in G2/M. VPA bewirkte bei allen Zellpopulationen Veränderungen an der Cyclin-Cdk-Achse. Insbesondere bei UMUC3-Zellen kam es unter VPA zur Suppression in der Aktivität mTOR-relevanter Signalmoleküle (Rictor, Raptor, Akt, p70S6). In beiden Zelllinien, RT112 und UMUC3, erhöhte sich der Expressionsspiegel der acetylierten Histone H3 und H4. Mittels siRNA wurde belegt, dass die Blockade von Cyclin A und Cdk2 mit einem verminderten Tumorwachstum assoziiert ist.
Aufgrund der vorgestellten Daten lässt sich postulieren, dass die Anwendung von VPA die Gefahr einer durch TEM induzierten Resistenz abzuwenden vermag. Die Ergebnisse der vorliegenden Arbeit präsentieren vielversprechende anti-tumorale Effekte VPAs und stellen möglicherweise eine innovative und effiziente Strategie zur Behandlung des fortgeschrittenen Blasenkarzinoms dar. Da Tem und VPA in der Klinik bereits etabliert sind, wäre eine Umsetzung rasch möglich.
Zur Verifizierung der am in vitro Modell erhobenen Daten sind weitere, vertiefende Untersuchungen am lebenden Organismus essentiell, um die Resistenzphänomene zu belegen.
Glioblastoma multiforme accounts for more than 80% of all malignant gliomas in adults and a minor fraction of new annual cases occurs in children. In the last decades, research shed light onto the molecular patterns underlying human malignancies which resulted in a better understanding of the disease and finally an improved long term survival for cancer patients. However, malignancies of the central nervous system and especially glioblastomas are still related to poor outcomes with median survivals of less than 6 months despite extensive surgery, chemotherapy and radiation. Hence, a better understanding of the molecular mechanism driving and sustaining cancerous mutations in glioblastomas is crucial for the development of targeted therapies. Apoptosis, a form of programmed cell death, is an important feature of eukaryotic cells and crucial for the maintenance of multicellular homeostasis. Because apoptosis is a highly complex and tightly regulated signaling pathway, resisting apoptotic stimuli and avoiding cell death is a hallmark of the cancerous transformation of cells. Hence, targeting molecular structures to reestablish apoptotic signaling in tumor cells is a promising approach for the treatment of malignancies. Smac mimetics are a group of small molecular protein inhibitors that structurally derive from an intracellular protein termed Smac and selectively block Inhibitor of apoptosis (IAP) proteins, which are often aberrantly expressed in cancer. Several studies confirmed the antitumoral effects of Smac mimetics in different human malignancies, including glioblastoma, and give rationales for the development of potent Smac mimetics and Smac mimetic-based combination protocols. This study investigates the antitumoral activity of the bivalent Smac mimetic BV6 in combination with Interferon α. Latter is a well characterized cytokine with an essential role in immunity, cell differentiation and apoptosis. This study further aims to address the molecular mechanisms underlying the antitumoral activity of the combination treatment by using well established molecular cell death assays, flow cytometry, western blot analysis, genetic approaches and selective pharmacological inhibition. Since different Smac mimetics and Smac mimetic-based combination therapies are currently under clinical evaluations, findings of this study may have broad implications for the application of Smac mimetics as clinical cancer therapeutics.
Rhabdomyosarcoma is the most common paediatric soft-tissue sarcoma, and for tumour recurrence, the prognosis is still unfavourable. The current standard therapy consisting of surgery, radiation and combined chemotherapy does not consider the specific biology of this tumour.
Histone deacetylases (HDACs) and the Lysine-specific demethylase-1 (LSD1) are two epigenetic modifiers which are both part of repressor complexes leading to transcriptional silencing of target genes. Whereas HDACs lead to deacetylation of several lysine-residues within the histone tail, LSD1 is specific for demethylation of H3K4me2 and H3K4me1, as well as in a different context for H3K9me2. Rhabdomyosarcoma is reported to harbour high levels of LSD1, but the functional relevance is yet unclear. HDAC inhibition proved to be effective as single agent treatment, however, the proximity of HDAC1/2 and LSD1 in repressor complexes at the DNA implies a suitable rationale for a combination therapy potentially leading to cooperative effects on target gene transcription. In this study, we aimed to evaluate the potential of a combined LSD1 and HDAC inhibition for cell death induction in rhabdomyosarcoma cell lines. Whereas LSD1 inhibitors failed to induce cell death on their own, the combined inhibition of HDACs and LSD1 resulted in highly synergistic cell death induction. This effect extended to several combinations of LSD1 and HDAC inhibitors as well as to four different rhabdomyosarcoma cell lines, two of embryonal and two of alveolar histology.
With the use of the HDAC inhibitor JNJ-26481585 and the reversible LSD1 inhibitor GSK690, we demonstrated that the cell death induced by the combination matches with the details of intrinsic mitochondrial apoptosis. JNJ-26481585/GSK690-induced cell death is partially caspase-dependent and leads to caspase cleavage, followed by substrate cleavage as shown for PARP, as well as loss of the mitochondrial membrane potential.
Furthermore, JNJ-26481585 and GSK690 acted together to transcriptionally upregulate the proapoptotic proteins NOXA, BIM and BMF, which resulted in respective changes on protein level for both cell lines. However, the antiapoptotic BCL-2 family proteins BCL-2, MCL-1 and BCL-xL displayed only minor changes in protein levels upon treatment with GSK690 and JNJ-26481585, which did not rely on transcriptional activity. Therefore, the increase in proapoptotic proteins induces a shift towards proapoptotic signalling at the mitochondrial membrane. This shift is functionally relevant since knockdown of a proapoptotic protein or overexpression of one of the antiapoptotic proteins BCL-2 and MCL-1, as well as a stabilized mutant MCL-1, can significantly protect from GSK690/JNJ-26481585-induced cell death.
Knockdown of the mitochondrial membrane protein BAK, which is directly guarding the mitochondrial membrane integrity, potently protected from GSK690/JNJ-26481585- induced cell death, directly linking the shift in the BCL-2 family proteins to the observed loss of mitochondrial membrane potential and the further downstream activation of caspases. Furthermore, treatment with JNJ-26481585 and GSK690 resulted in a cell cycle arrest in G2/M phase, indicating additional effects on the tumour cells beside apoptosis induction. Taken together, the combined inhibition of LSD1 and HDACs is a promising strategy for rhabdomyosarcoma treatment.
The estimation of water balance components as well as water-related indicators on the land surface by means of global hydrological models have evolved in recent decades. Results of such models are frequently used in global- and continental-scale assessments of the current and future state of the terrestrial water cycle and provide a valuable data basis, e.g., for the Intergovernmental Panel on Climate Change. The Water – Global Assessment and Prognosis (WaterGAP) model is one of the state-of-the-art models in that field and has been in development and application for around 20 years. The evaluation, modification and application of WaterGAP is the subject of this thesis. In particular, the sensitivity of climate input data on radiation calculation and simulated water fluxes and storages is evaluated in the first part. Effects of model modification such as updated spatial input datasets, improved process representation or an alternative calibration scheme are the focus of the second part. Finally, three applications of WaterGAP give insight into the capabilities of that model, namely an estimate of global and continental water balance components, an assessment of groundwater depletion and the impact of climate change on river flow regimes. Model experiments, which are described in six journal papers as well as the appendices, were used as the basis for answering the total of 13 research questions. One of the major foci was to quantify the sensitivity of simulated water fluxes and storages to alternative climate input data. It was found that the handling of precipitation undercatch leads to the greatest difference in water balance components, especially in those areas where WaterGAP is not calibrated due to a lack of river discharge observations. The modifications of WaterGAP in the last few decades has led in general to an improved simulation of monthly river discharge, but process representation in semi-arid and arid regions still requires improvements. With the most current model version, WaterGAP 2.2b, and for the time period 1971–2000, river discharge to the oceans and inland sinks is estimated to be 40 000 km3 yr-1, whereas actual evapotranspiration is simulated as 70 500 km3 yr-1. Future research needs for WaterGAP in particular but also for the global hydrological model community in general are defined, promoting a community-driven effort for a robust assessment of the continental water cycle.
Introduction:
The evolutionary patterns of symbiotic organisms are inferred using cophylogenetic methods. Congruent phylogenies indicate cospeciation or host-switches to closely-related hosts, whereas incongruent topologies indicate independent speciation. Recent studies suggest that coordinated speciation is a rare event, and may not occur even in the highly specialized associations. The cospeciation hypothesis was mainly tested for free-living mutualistic associations, such as plant-pollinator interactions, and host-parasitic systems but was rarely tested on obligate, mutualistic associations involving intimate physiological interactions. Symbionts with lower partner selectivity may not experience coordinated speciation due to frequent switching of partners. On the other hand, symbionts with high partner selectivity may influence each other’s evolution owing to the highly interdependent lifestyles. Symbiont association patterns are also influenced by habitat and it has been proposed that symbiotic interactions are stronger in warm regions as compared to cooler regions (also referred as latitudinal gradient of biotic specialization). This hypothesis however, has recently been challenged and it has been suggested that a gradient of biotic specialization may not exist at all. Reliable species concepts are a prerequisite for understanding the association and evolutionary patterns of symbiotic organisms. The species concepts of many groups traditionally relied on the morphological species concept, which may not be adequate for distinguishing species due to the: i) homoplasious nature of morphological characters, an due to the inability to distinguish cryptic species. Thus phylogenetic species concept along with coalescent-based species delimitation approaches, which utilize molecular data for inferring species boundaries have been used widely for resolving taxonomic relationships. Lichens are obligatory symbiotic associations consisting of a fungal partner (mycobiont) and one or more photosynthetic partners, algae, and/or cyanobacteria (photobionts). I used the lichen forming fungal genus Protoparmelia as my study system, which consists of ~25-30 previously described species inhabiting different habitats, from the arctic to the tropics. This makes Protoparmelia an ideal system to explore the association and evolutionary patterns across different macrohabitats.
Objectives:
The objectives of this thesis were to 1. Elucidate the phylogenetic position of Protoparmelia within Lecanorales, and infer the monophyly of Protoparmelia; 2. Understand species diversity within Protoparmelia s.str. using coalescent-based species delimitation approaches; and 3. To identify the Trebouxia species associated with Protoparmelia using phylogenetic and species delimitation approaches and to infer the association and cophylogenetic patterns Protoparmelia and Trebouxia in different macrohabitats.
Results and discussion:
Chapter 1: Taxonomic position of Protoparmelia
In the first part of this study I explored the taxonomic position of Protoparmelia within the order Lecanorales. Overall this study included 54 taxa from four families, sequenced at five loci (178 sequences). I found Protoparmelia to be polyphyletic and sister to Parmeliaceae.
Chapter 2: Multilocus phylogeny and species delimitation of Protoparmelia spp.
In this part of the study, I identified and delimited the Protoparmelia species forming a monophyletic clade sister to Parmeliaceae i.e., Protoparmelia sensu stricto group, based on the multilocus phylogeny and coalescent-based species delimitation approaches. I included 18 previously described and three unidentified Protoparmelia species, which represents ~70% of the total described species, and 73 other taxa, sequenced at six loci. I found that the sensu stricto group comprised of 25 supported clades instead of 12 previously described Protoparmelia species. I tested the speciation probabilities of these 25 clades using species delimitation softwares BP&P and spedeSTEM. I found nine previously unrecognized lineages in Protoparmelia and I propose the presence of at least 23 species for Protoparmelia s.str., in contrast to the 12 described species included in the study.
Chapter 3: Association and cophylogenetic patterns of Protoparmelia and its symbiotic partner Trebouxia
...
The objectives of this thesis were to understand how distinct classes of cell types interact to shape oscillatory activity in cortical circuits of the turtle. We chose the turtle cortex as a model system for cortical computations for two reasons. One is that the phylogenetic position of turtles makes their cortex functionally and anatomically particularly interesting. The second is that reptilian brains present several unique experimental advantages. Turtles have a three-layered cortex that forms the dorsalmost part of their pallium and receives direct input from visual thalamus. Thus turtle cortex, while sharing several features with mammalian cortices, constitutes a simpler system for studying cortical computations and dynamics. Freshwater turtles are semiaquatic species, that dive for hours and hibernate for months without breathing. Their brains are adapted to these behaviors so that they can operate under severe anoxia. This property allows for ex vivo wholebrain and whole-cortex (”cortical slab”) preparations in vitro, enabling the use of many sophisticated techniques for monitoring activity in parallel.
I thus set out to utilize the advantages of our model system, by using optogenetic methods to reliably evoke oscillations in an ex vivo whole-cortex preparation while observing activity in parallel with planar multi-electrode arrays (MEA), linear silicon depth-electrodes and patch-clamp recording techniques. This required several technical aspects to be solved. Prior work in turtle cortex (Prechtl, 1994; Prechtl et al., 1997; Senseman and Robbins, 2002) indicated that visual stimuli evoke complex activity patterns (e. g. wave patterns) in dorsal cortex. The goal was to examine these dynamics in detail and to provide mechanistic explanations for them whenever possible. The recent advent of optogenetics, the development of microelectrode arrays, and the possibility to combine these techniques with classical electrophysiological approaches on a resistant, accessible and stable preparation led me to explore a number of technical avenues.
First I had to establish gene delivery methods in reptiles. I settled on recombinant viruses, and show results from several serotypes of adeno-associated virus (AAV), i lentivirus and rabies virus. I report successful gene expression of genes of interest with several subtypes of AAV, including the commonly used AAV2/1 and AAV2/5 serotypes. Second I had to find promoters enabling global and cell-type specific gene expression in reptiles. Ubiquitous high-yield promoters such as CAG/CB7 or CMV drive high levels of expression in turtles; cell-type specific promoters such as hSyn (expression limited to neurons) and CaMKIIa (expression limited exclusively o mostly to excitatory neurons) appear similarly biased in turtles. Other cell-type specific promoters reported in the literature (fNPY, fPV, fSST) failed to express in turtles.
A second major aspect of my work focused on electrophysiological recordings using microelectrode arrays and the interpretation of extracellular signals recorded from cortex in ex vivo preparations. We observed that spike signals produced by pyramidal and inhibitory neurons were very often followed by a slower potential. We identified these slower potentials as reflections of synaptic currents, and thus of the axonal projections of the neurons, at least within the deep layers of cortex. This also resulted in a means to classify neurons as excitatory or inhibitory with much higher reliability than classical methods (e. g. spike width). The final aspect of my work concerns the use of optogenetics to dissect the mechanisms of cortical oscillations and wave propagation. I show that oscillations can be induced by light in turtle cortex after transfection with AAV2/1 carrying the gene for channelrhodopsin 2 (ChR2). By using the CaMKIIa promoter, ChR2 induced currents are limited to LII/III excitatory cells; we can therefore control excitatory drive to cortical networks. If this drive is strong enough, layer III inhibitory interneurons are recruited and fire in a concerted fashion, silencing the excitatory population. The visually evoked 20 Hz oscillations observed in chronically recorded animals (Schneider, 2015) or in anaesthetized animals (Fournier et al., in press) thus appear to result from a feedback loop between E and I cells within layers II & III. Details of these interactions are being investigated but - layer I interneurons, by contrast, do not seem to be involved. By pulsing light I could control the frequency of the oscillations within a range of several Hz around the natural oscillation frequency. Above this range, cortex could only follow the stimulus at a fraction (1/2, 1/3,...) of the light pulse frequency. Using a digital micromirror device, I limited activation of the cortical networks spatially, enabling the study of wave propagation in this system.
Reptilian cortex offers a relatively simple model system for a reductionist and comparative strategy on understanding cortical computations and dynamics. Turtle dorsal cortex could thus give fundamental insights to the primordial organization tional, computational and functional principles of cortical networks. These insights are relevant to our understanding of mammalian brains and may prove valuable to decipher fundamental questions of modern neuroscience.
Expression, perception and recognition of intense emotions in healthy and depressed individuals
(2017)
Die Fähigkeit die Gefühle anderer zu erkennen und einzuordnen ermöglicht es soziale Situationen richtig einzuschätzen und soziale Beziehungen aufzubauen. Da Emotionen also in unserem Leben eine wichtige Rolle spielen, kann eine Dysregulation der Emotionsverarbeitung auch zu elementaren Einschränkungen führen. Menschen, die unter depressiven Episoden leiden, durchleben beispielsweise regelmäßig Phasen intensiver und anhaltender Traurigkeit. Jedoch ist noch nicht vollständig erklärt, wie es zu dieser verzerrten Emotionswahrnehmung kommt. Diese Dissertation hatte deshalb das Ziel, den Ausdruck, die Wahrnehmung und das Erkennen extremer Emotionen genauer zu beleuchten.
In Studie 1 wurden der Ausdruck und das Erkennen extremer Emotionen untersucht.
Hierbei dienten aus dem Internet bezogene Videosequenzen von Kindern und Erwachsenen als Basis, in denen diese sich in Situationen befanden, die sie extrem negative oder extrem positive Emotionen durchleben ließen. Die Gesichtsausdrücke der Kinder und Erwachsenen wurden dann zum Zeitpunkt der stärksten emotionalen Erregung in ein Bild umgewandelt und von unabhängigen Ratern auf ihre Valenz und ihr Arousal eingeschätzt. Es wurde beobachtet, dass - entgegen der Vorhersage etablierter Emotionstheorien (z.B. Ekman, 1993) – Emotionen hoher positiver und negativer Intensität schwer auseinander zu halten sind. Tatsächlich wurden positive Emotionsausdrücke häufig als negativ eingeschätzt. Eine mögliche Erklärung dafür liefern Aragón und Kollegen (2015). Sie schätzen den Ausdruck negativer Emotionen in positiven Situationen als Emotionsregulationsstrategie ein, die dazu dient ein emotionales Equilibrium wieder herzustellen, das durch die überwältigenden positiven Emotionen aus dem Gleichgewicht gebracht wurde.
In Studie 2 und 3 wurde die Wahrnehmung negativer Emotionen bei depressiven Menschen im Vergleich zu gesunden Kontrollprobanden auf subjektiver und physiologischer Ebene untersucht. Hierbei wurde zunächst im Rahmen von Studie 2 untersucht, ob Parameter des autonomen Nervensystems (ANS) sich zwischen depressiven und gesunden Probanden unterscheiden. ANS-Parameter umfassten Hormone (Cortisol und DHEA), Herzratenvariabilität (HRV), Hautleitfähigkeit (GSR), Hauttemperatur (TEMP) und Atemfrequenz (RSP). Es konnten erhöhte DHEA-Werte, eine erhöhte Hauttemperatur und eine reduzierte Atemfrequenz in der Patientengruppe gefunden werden. Eine erhöhte Hauttemperatur korrelierte zudem mit der Ausprägung depressiver Symptome und der aktuellen Stimmung. Reduzierte HRV-Werte wurden hauptsächlich auf antidepressive Medikation zurückgeführt.
In Studie 3 wurde dann die Reaktion der Probanden auf emotionsevozierende Stimuli verschiedener Valenzkategorien (neutral, leicht negative, hoch negative) untersucht. Hierbei wurden sowohl physiologische Parameter (TEMP, HRV, GSR, RSP) als auch die subjektive Einschätzung der Stimuli bezüglich ihrer Valenz und ihres Arousal erhoben. Die Befunde bezüglich Hauttemperatur und HRV-Werte aus Studie 2 konnten in Studie 3 repliziert
werden. Zudem zeigte sich eine akzentuierte Reaktion der RSP sowie höhere Valenz- und Arousalratings in der Patientengruppe. Das subjektiv intensivere Empfinden der Stimuli bei den Patienten hing zusätzlich mit emotionaler und sozialer Kompetenz zusammen.
In dieser Dissertation konnte gezeigt werden, dass Ausdrücke intensiver Emotionen im Gesicht oft als zweideutig wahrgenommen werden. Um ein genaueres Verständnis der Emotionswahrnehmung bei depressiven Menschen zu erlangen, konnten zudem mehrere Parameter des ANS identifiziert werden, die teils noch nicht untersucht wurden und einer intensiveren Emotionswahrnehmung bei depressiven Patienten zugrunde liegen könnten.
Hierbei wurden zusätzlich Zusammenhänge zu weiteren Aspekten der Depression, wie Defiziten in sozialen Kompetenzen, aufgezeigt. Damit gibt diese Dissertation umfassende Aufschlüsse über Emotionsverarbeitungsprozesse bei gesunden und depressiven Menschen.
Das Ziel der vorliegenden publikationsbasierten Dissertation liegt darin, ein Erhebungskonzept zu entwickeln, das es erlaubt, ICT-Skills – das heißt Fertigkeiten für das Lösen von Aufgaben in einer Informations- und Kommunikationstechnologie-Umgebung – theoretisch fundiert zu erheben sowie die Validität der intendierten Testwerteinterpretation empirisch zu untersuchen. Die Testwerte sollen als ICT-spezifische Fertigkeiten höherer Ordnung interpretiert werden.
Für die Erfassung von ICT-Skills kann auf keine lange Forschungstradition zurückgegriffen werden. Daher ist es das Ziel der ersten Arbeit, eine Rahmenkonzeption zur Messung von ICT-Skills zu erstellen. Dabei werden drei Ziele verfolgt: Erstens soll für die Itementwicklung spezifiziert werden, auf welchen generischen und ICT spezifischen Fertigkeiten ICT-Skills basieren. Mithilfe etablierter psychologischer Theorien aus den relevanten Fertigkeitsbereichen werden kognitive Schwierigkeiten bei der Bewältigung von ICT-Aufgaben beschrieben, die als Grundlage für die Entwicklung der Items dienen. Zweitens werden für die Implementierung der Items Rationale für deren Erstellung in einer simulationsbasierten Umgebung formuliert, die es erlauben sollen, die intendierten kognitiven Prozesse realitätsnah in den Items abzubilden. Obgleich diese Arbeit einen konzeptionellen Fokus hat, besteht das dritte Ziel darin, die Rahmenkonzeption empirisch zu erproben, um zu beurteilen, ob die Rahmenkonzeption zur Itementwicklung und -implementierung geeignet war.
Aus der Rahmenkonzeption, die ein breites Spektrum relevanter ICT-Aufgaben für die Erfassung sowie eine simulationsbasierte Erhebung vorsieht, resultieren sehr heterogene Items. Deshalb unterscheiden sich ICT-Skills-Items von eher homogenen Itempools, wie sie typischerweise zur Erfassung von Konstrukten der psychologischen Leistungsdiagnostik, etwa zur Intelligenzdiagnostik, verwendet werden. Aus diesem Grund ist für die Konstruktvalidierung der Testwerteinterpretation, die das Ziel der zweiten und dritten Arbeit darstellt, zunächst konzeptionelle Forschungsarbeit nötig, um angemessene Validierungsstrategien für heterogene Items zu entwickeln. Diese in der zweiten und dritten Arbeit erforderlichen konzeptionellen Beiträge bedingen die Struktur dieses Rahmentextes, in dem zunächst die konzeptionellen Beiträge aller drei Arbeiten vorgestellt und anschließend alle empirischen Ergebnisse berichtet werden. Die konzeptionellen Entwicklungen für die Validierung der intendierten Interpretation der Testwerte orientieren sich an Vorgehensweisen der psychologischen Leistungsdiagnostik, der nomothetischen Spanne und der Konstruktrepräsentation (vgl. Embretson, 1983). Mit diesen wird untersucht, inwiefern sich die zentralen Annahmen der Rahmenkonzeption aus der ersten Arbeit, nämlich die bei der Aufgabenlösung involvierten Fertigkeiten und kognitiven Prozesse, in den Testwerten widerspiegeln.
Das Ziel der zweiten Arbeit besteht darin, die nomothetische Spanne von ICT-Skills zu untersuchen und den postulierten Zusammenhang mit generischen und ICT-spezifischen Fertigkeiten empirisch zu untersuchen. Neben dem klassischen Ansatz, der Zusammenhänge über alle Items hinweg betrachtet, wird das Zusammenspiel verschiedener Fertigkeiten auch auf Itemebene analysiert. Darüber hinaus sollen potentielle Variationen in den Zusammenhängen über die sehr heterogenen Items durch Merkmale erklärt werden, welche für diese Heterogenität bezeichnend sind. Die empirischen Ergebnisse dienen – basierend auf den in der Rahmenkonzeption definierten Fertigkeiten – als Evidenzen für die Validität der Testwerteinterpretation.
Das Ziel der dritten Arbeit ist es, die Konstruktrepräsentation zu untersuchen, indem Evidenzen für die intendierten kognitiven Prozesse in der Itembearbeitung gesammelt werden. Klassischerweise werden in homogenen Itempools Itemmerkmale zwischen Items verglichen und wenn möglich quantifiziert, um die Schwierigkeit in Items zu beschreiben. Da die Items sehr heterogen sind, wurden zwei experimentelle Ansätze entwickelt, die diese kognitiven Prozesse in Itemvarianten verändern oder eliminieren. Die Auswirkungen dieser Manipulationen werden in Bezug auf die Itemschwierigkeit und den Zusammenhang mit anderen Konstrukten untersucht. Verändert werden die in der Rahmenkonzeption abgeleiteten schwierigkeitsdeterminierenden Merkmale, um zu untermauern, dass die ICT Skills Items ICT-spezifische Fertigkeiten erfordern. Eliminiert werden alle Merkmale die Fertigkeiten höherer Ordnung erfordern sollten. Mit diesen experimentellen Strategien können die zentralen Punkte der intendierten Testwerteinterpretation untersucht werden.
Neben den empirischen Ergebnissen zur Untermauerung der intendierten Testwerteinterpretation für den entwickelten ICT-Skills-Test ist der Erkenntnisgewinn dieser Arbeit auch in den konzeptionellen Beiträgen zu sehen. Mit diesen wurde exemplarisch gezeigt, wie ein Konstrukt wie ICT-Skills erfasst werden kann, indem man sich an den Vorgehensweisen der psychologischen Leistungsdiagnostik orientiert und dabei auf Annahmen kognitiver Prozesse zurückgreift.
Multicellular organisms require that cells adhere to each other. This cell-cell adhesion is indispensable for the formation and the integrity of epithelial structures, tissues and organs. Mammals have developed four different cell-cell adhesion structures, the adhering junctions, which ensure the tight contact between cells but are also important platforms for communication and exchange in tissues. Two of these adhering junctions are cadherin based, the belt-like adherens junctions and the spot-like desmosomes. Both structures have in common that they are composed of single membrane spanning proteins, the cadherins, which accomplish adhesion in a calcium-dependent manner. The intracellular parts of classical as well as desmosomal cadherins bind to different adaptor proteins of the armadillo-protein family and others which build a protein plaque underneath the membrane and link the cadherins to the actin or intermediate filament cytoskeleton.
Desmosomes are of special importance for tissues that have to withstand mechanical stress. Although they are essential to stabilize tissues they have to be highly flexible and dynamic structures, as processes like wound healing or tissue remodeling require that adhesive interactions can be modulated. The molecular dynamics within desmosomes are not jet understood in detail, but it is assumed that two different membrane associated pools of desmosomal cadherins exist in cells. Cadherins that are incorporated in mature desmosomes are part of the junctional pool, whereas cadherins that are not associated with firm desmosomes and the intermediate filament cytoskeleton belong to the non-junctional pool. Lateral movements between the two pools results in a dynamic equilibrium and allows for example the exchange of old cadherins. Little is known about the breakdown of desmosomal cadherins. Several studies found that desmosome assembly or endocytosis are cholesterol dependent processes and claimed that membrane microdomains play a role in the regulation of desmosome dynamics. Moreover, membrane rafts may be involved in the pathomechanism of the desmosome associated disease pemphigus, were autoantibodies bind to the cadherin desmoglein-3 and trigger its internalization which results in a loss of adhesion in skin cells.
Membrane rafts are cholesterol dependent nanoscale structures of cellular membranes that are able to regulate the distribution of proteins within the plasma membrane and thus form platforms for cell signaling and membrane trafficking. Flotillins are proteins that are associated with membrane rafts and are reported to be involved in processes like endocytosis, endosomal sorting and a multitude of different signaling events. We could recently show that the membrane raft associated proteins flotillin-1 and flotillin-2 bind directly to the armadillo protein y-catenin which can be part of both, the adherens junction and the desmosome. The aim of this study was to eluciadate a possible role of flotillins in the regulation of desmosomes.
HaCaT keratinocytes were chosen as the main cell system for this study and at first the association of desmosomal components with flotillins was analyzed in detail. It was found that flotillins are clearly associated with desmosomal proteins. They colocalize with desmoglein-3 at cell borders and precipitate the other desmogleins. Further binding assays revealed that both flotillins bind to all desmogleins and the long isoforms of the second class of desmosomal cadherins, the desmocollins. The interaction is a direct one and was mapped to the ICS sequence within the cadherins. This close association rendered the question whether flotillins are functionally implicated in desmosome regulation. To address this issue, stable flotillin knockdown HaCaT cells were analyzed in detail. The molecular morphology of desmoglein-3, desmoglein-1 and two plaque proteins was clearly altered in the absence of flotillins. The membrane staining of all tested desmosomal proteins was derailed and disordered. Furthermoore, the loss of flotillins had an impact on the adhesive capacity of HaCaT keratinocytes. The cell-cell adhesion was weakened in the absence of flotillins, which was monitored by an increased fragmentation of knockdown cells in a cell dissociation assay.
In order to find out the mechanism by which flotillins influence the membrane morphology and the adhesiveness in keratinocytes, the association of desmosomal proteins with membrane microdomains was examined, at first. A predominant part of desmoglein-3 is associated with membrane rafts in HaCaT keratinocytes, whereas only a minor part of desmoglein-1 is found there. However, the raft-association of none of the examined proteins was altered in the absence of flotillins. Furthermore, flotillin depletion did not change the distribution of desmogleins with the two different cadherin pools. Less desmoglein-3 is found in the junctional pool of the flotillin depleted cells compared to the control cells, but this is due to an overall diminished desmoglein-3 protein level in these cells.
Flotillins are involved in endocytic processes but their exact role there is under debate. The endocytic uptake of desmosomal cadherins requires intact membrane rafts, but the precise mechanism is still unknown. A possible involvement of flotillins on the endocytosis of desmoglein-3 was addressed next. It is known that the internalization of desmoglein-2 is dependent on the GTPase dynamin, arguing for an involvement of dynamin in the endocytosis of desmoglein-3 as well. When dynamin and thus desmoglein-3 endocytosis was inhibited using chemical compounds, the mislocalization of desmoglein-3 that was observed in flotillin knockdown cells was restored. This suggest that inhibition of desmoglein-3 endocytosis enhances the amount and/or availability of desmoglein-3 at the plasma membrane, which then normalizes the morphological alterations caused by a knockdown of flotillins. Furthermore the morphological alterations in the flotillin knockdown HaCaT cells were found to be similar to the localization of desmoglein-3 that was observed upon treatment of keratinocytes with PV IgG These structures have been described before as linear arrays and are assumed to be sites of endocytic uptake. This strengthens the idea that enhanced desmoglein-3 internalization takes place in the absence of flotillins, which then results in a weakened adhesion.
Altogether this study revealed flotillins as novel players in desmosome mediated cell-cell adhesion processes. By binding to desmosomal cadherins and desmosomal plaque proteins, flotillins stabilize desmosomes at the plasma membrane and are required for a proper cell-cell adhesion.
The future heavy-ion experiment CBM (FAIR/GSI, Darmstadt, Germany) will focus on the measurements of very rare probes, which require the experiment to operate under extreme interaction rates of up to 10 MHz. Due to high multiplicity of charged particles in heavy-ion collisions, this will lead to the data rates of up to 1 TB/s. In order to meet the modern achievable archival rate, this data ow has to be reduced online by more than two orders of magnitude.
The rare observables are featured with complicated trigger signatures and require full event topology reconstruction to be performed online. The huge data rates together with the absence of simple hardware triggers make traditional latency limited trigger architectures typical for conventional experiments inapplicable for the case of CBM. Instead, CBM will employ a novel data acquisition concept with autonomous, self-triggered front-end electronics.
While in conventional experiments with event-by-event processing the association of detector hits with corresponding physical event is known a priori, it is not true for the CBM experiment, where the reconstruction algorithms should be modified in order to process non-event-associated data. At the highest interaction rates the time difference between hits belonging to the same collision will be larger than the average time difference between two consecutive collisions. Thus, events will overlap in time. Due to a possible overlap of events one needs to analyze time-slices rather than isolated events.
The time-stamped data will be shipped and collected into a readout buffer in a form of a time-slice of a certain length. The time-slice data will be delivered to a large computer farm, where the archival decision will be obtained after performing online reconstruction. In this case association of hit information with physical events must be performed in software and requires full online event reconstruction not only in space, but also in time, so-called 4-dimensional (4D) track reconstruction.
Within the scope of this work the 4D track finder algorithm for online reconstruction has been developed. The 4D CA track finder is able to reproduce performance and speed of the traditional event-based algorithm. The 4D CA track finder is both vectorized (using SIMD instructions) and parallelized (between CPU cores). The algorithm shows strong scalability on many-core systems. The speed-up factor of 10.1 has been achieved on a CPU with 10 hyper-threaded physical cores.
The 4D CA track finder algorithm is ready for the time-slice-based reconstruction in the CBM experiment.
Freundschaft und Liebe haben eines gemeinsam: die innige und wechselseitige Zuneigung zweier Personen zueinander. Das Mittelalter kennt die diskursive Trennung von Freundschaft und Liebe als Codes der Intimität nicht. Mit dem Terminus "minne" wird in der mittelalterlichen Literatur sowohl die Freundschaft zweier Männer als auch die Liebe zwischen Ritter und Dame beschrieben. Die Gesellschaft des Mittelalters um 1200 ist eine patriarchal organisierte und damit männlich homosozial geprägte Kriegergesellschaft. Vor diesem Hintergrund wird die These formuliert, dass Freundschaft im Mittelalter eher nicht der unwahrscheinliche Code der Intimität ist, sondern die Liebe. Mit dieser These wird die moderne Perspektive auf personale Zweierbeziehungen umgekehrt, die intuitiv die heterosoziale Beziehung und damit Liebe als Code der Intimität präferiert.
Im Zentrum des Interesses stehen männlich homosoziale Freundschaften und heterosoziale Liebesbeziehungen. Diese werden auf Basis linearer und triangulärer Figurenkonstellationen und unter Rückgriff auf Niklas Luhmanns Thesen, die er in „Liebe als Passion“ (1982) entwickelt, untersucht. Luhmann unterscheidet drei historische Stufen des Liebesdiskurses und ordnet diese Epochen zu: die höfische Liebe des Mittelalters, die passionierte Liebe der frühen Neuzeit und die romantische Liebe des 19. Jahrhunderts, die bis heute den Liebesdiskurs prägt. Die strikte Epocheneinteilung, die Luhmann vornimmt, wird für die Analyse der mittelhochdeutschen Texte aufgebrochen um zu zeigen, dass in der Literatur des Mittelalters Beispiele für alle drei Formen der Liebe zu finden sind. Die höfische Epik präsentiert Freundschaft und Liebe als Codes der Intimität, die sich einerseits wechselseitig bedingen, andererseits miteinander konkurrieren. Zwar stehen in den untersuchten Texten die heterosozialen Beziehungen im Fokus, doch mündet die Dominanz der Liebe als Code der Intimität nicht in der Verdrängung der Freundschaft. Im Gegenteil: Freundschaft dient der Liebe als Modell.
Staaten haben keine Freunde, sondern Interessen – das scheint sowohl unter Praktikern als auch unter Forschern der internationalen Politik allgemein bekannt zu sein. Entgegen diese weit verbreiteten Ansicht argumentiert diese Dissertation, dass es in der Tat Raum für das Konzept von Freundschaft in den internationalen Beziehungen gibt, und dass ein besseres Verständnis der hiermit verbundenen Dynamiken nicht nur dazu beiträgt, eine sich verändernde globale Ordnung besser zu verstehen, sondern auch die Beziehungen zwischen China und Afrika.
Aufbauend auf der konstruktivistischen Literatur zu staatlicher Identität sowie Erkenntnissen aus Psychologie, Soziologie und Anthropologie wird in einem ersten Schritt ein neues Modell internationaler Freundschaft entwickelt. Es bezieht sich auf eine verlässliche Beziehung zwischen Staaten, die sich gegenseitig entsprechend ihres eigenen Selbstverständnisses anerkennen, und die durch gegenseitige Identifikation sowie häufigen Austausch und enge Zusammenarbeit eine als intim zu bezeichnende Beziehung entwickelt haben. Dies bedeutet zwar nicht, dass ungleiche Macht und konkurrierende Interessen irrelevant werden; aber sie ermöglichen es den beteiligten Staaten, konstruktiv mit potenziell konfliktreichen Fragen von Macht und Interesse umzugehen, und bilden so eine zentrale Säule legitimer internationaler Ordnungen.
In einem zweiten Schritt wird dieses Modell der internationalen Freundschaft zur Analyse der chinesisch-äthiopischen und chinesisch-südafrikanischen Beziehungen herangezogen. Ausgehend von den Sichtweisen der jeweiligen Staatseliten wird das komplexe Zusammenspiel von Interessen und Identitäten in den gegenwärtigen Beziehungen zwischen China und Afrika beleuchtet, und wie die beiden bilateralen Beziehungen durch eine Reihe bewusster Entscheidungen schrittweise ihre aktuellen Qualitäten erworben haben. Heute bilden geteilte Ideen von historisch gewachsener Solidarität, überschneidendend strategischen Interessen und dem gemeinsamen Engagement für ein Projekt alternativer Modernisierung und globaler Transformation die Grundlage für zwei Beziehungen, die von China als beispielhafte „internationale Beziehungen neuen Typs“ gepriesen werden. Somit liefern die chinesisch-äthiopischen und chinesisch-südafrikanischen Beziehungen auch wichtige Einblicke, wie eine chinazentrierte internationale Ordnung aussehen könnte - zumindest für diejenigen Staaten, die diese Ordnung und ihre von Peking definierten Regeln und Rollen als legitim akzeptieren.
Frontal fibrosierende Alopezie: Literaturanalyse und Vergleich des eigenen Patientenkollektivs
(2017)
Seit Steven Kossard 1994 das Krankheitsbild der frontal fibrosierenden Alopezie bei 6 postmenopausalen Frauen erstmals beschrieb, wurden zunehmend mehr Fälle und Beschreibungen größerer Kohorten publiziert. Die Diagnose wird vorrangig klinisch gestellt. Typischerweise zeigt sich eine meist asymptomatische, vernarbende Regression des temporo-frontalen Haaransatzes mit Verlust der Haarfollikel und einem perifollikulären Erythem. Des Weiteren kann es auch zu einem Haarausfall in anderen Regionen des Capillitiums, im Bereich der Augenbrauen und anderer Körperregionen kommen. Histologisch zeigen sich eine perifollikuläre Fibrose und ein lymphozytisches Infiltrat. Die Pathogenese der frontal fibrosierenden Alopezie ist ungeklärt. Da es für die Therapie kein Konzept gibt, beruhen Therapieansätzen meistens auf Behandlungskonzepten anderer Alopezieformen.
In dieser Arbeit wurden weltweit erschienene Daten von insgesamt 932 Patienten mit frontal fibrosierenden Alopezie zusammengefasst und klinische Charakteristika, Komorbiditäten, sowie krankheitsbegünstigende- und auslösende Faktoren identifiziert und Therapien und deren Erfolge systematisch erhoben und ausgewertet. Diese wurden mit Daten von 12 Patientinnen des eigenen Kollektivs verglichen.
Hier ergaben sich für die Kriterien Geschlecht, Status der Menopause, Alter bei Auftreten, Erkrankungsdauer und Ethnie ähnliche Ergebnisse. Bezüglich der Beteiligung einzelner Areale fanden sich für die Bereiche frontaler Haaransatz und Augenbrauen ähnliche Werte, während die Beteiligung der übrigen Körperstellen zum Teil stark differierte. Auch die Charakteristika perifollikuläres Erythem, Verlust von Haarfollikeln und die histologischen Kriterien perifollikuläre Fibrose und lymphozytäres Infiltrat kamen in der Gruppe der eigenen Patienten häufiger vor als in der Gruppe der Literaturpatienten. Bezüglich der Komorbiditäten fiel in beiden Gruppen eine im Vergleich zur Normalbevölkerung erhöhte Prävalenz von Schilddrüsenerkrankungen auf.
Die Auswertung der Therapieversuche ergab in beiden Gruppen in den meisten Fällen einen fortschreitenden Verlauf, allenfalls eine Stabilisierung, wobei kein Therapieversuch positiv herausstach. In Ausnahmefällen konnte ein erneutes Haarwachstum, vorrangig im Bereich der Augenbrauen, beobachtet werden.
Für die Patienten des eigenen Patientenkollektivs wurde das Vorliegen einer atopischen Hautdiathese gemessen am Erlanger Atopiescore erhoben. Hierbei konnte jedoch kein Zusammenhang gefunden werden. Mit Hilfe zweier Fragebögen- dem Functional Assessment of Non-Life Threatening Conditions (FANLTC) und dem modifizierten Hairdex- wurde die Lebensqualität in Abhängigkeit der Ausprägung der frontal fibrosierenden Alopezie und der Erkrankungsdauer ausgewertet. Die These, dass die Ausprägung der Alopezie und die Erkrankungsdauer negativ in linearem Zusammenhang mit der Lebensqualität stehen, bestätigte sich hierbei nicht. Die Lebensqualität von Patienten mit frontal fibrosierender Alopezie ist unabhängig von der Ausprägung und der Erkrankungsdauer bis auf eine Ausnahme sehr gut, was darauf hindeutet, dass sich die Erkrankung auf die Lebensqualität nicht negativ auswirkt.
In dieser Dissertation wurde die Rolle des Proteins Carboxypeptidase E (CPE) im Glioblastom (GBM) untersucht. Ursprünglich wurde CPE in der neuroendokrinen Regulation beschrieben, wo es die Reifung der meisten Neuropeptide und Hormone reguliert und somit Einfluss auf Stoffwechsel und humorale Effekte hat (Fricker et al., 1982; Fricker & Snyder, 1982 and 1983; Davidson & Hutton, 1987; Shen & Loh, 1997; Lou et al., 2005). Ab 1989 wurde CPE in unterschiedlichen Tumorentitäten nachgewiesen (Grimwood et al., 1989; Manser et al., 1991), jedoch ohne Hinweise, welche Bedeutung das Protein dort haben könnte. Erst im letzten Jahrzehnt konnten sowohl pro- als auch anti-tumorigene Wirkungen von CPE gezeigt werden. Die beschriebenen Wirkungen von CPE sind jedoch von dessen Isoform abhängig. Das ∂(delta)N-trunkierte CPE zeigte sich mit erhöhtem Tumorwachstum und schlechter Überlebensprognose in verschiedenen Krebsentitäten assoziiert (Murthy et al., 2010; Lee et al., 2011; Zhou et al., 2013). Im Gegensatz dazu verringerte sezerniertes CPE (sCPE) im Fibrosarkom und Glioblastom die Zellmigration, was einen anti-tumorigenen Effekt suggeriert (Höring et al., 2012; Murthy et al., 2013a). Die Molekularmechanismen, die für die Regulation der Migration zuständig sind, sind jedoch kaum untersucht. Die meisten Untersuchungen von sCPE in Normal- und Tumorgewebe beschränken sich hauptsächlich auf Apoptose und Zellüberleben (Skalka et al., 2013; Murthy et al., 2013b; Cheng et al., 2013; Selvaraj et al., 2015; Cheng et al., 2015). Die vorliegende Arbeit ist demzufolge die erste Studie, die sich dem Mechanismus der Migrationsregulation durch sCPE im Glioblastom widmet.
Humane Gliome stellen die größte und bösartigste Gruppe hirneigener Tumore dar. Bösartige Gliome sind höchst resistent gegen alle zurzeit verfügbaren Behandlungsmethoden. Einer der Hauptgründe dafür ist, dass die Tumorzellen durch diffuse Infiltration in das Gehirn einwandern können. Ferner sind Gliomzellen metabolisch sehr aktiv und können sich dadurch an schnell verändertes Milieu anpassen (Fack et al., 2015; Demeure et al., 2016). Über die grundlegenden Mechanismen für diese Art des infiltrierenden Tumorwachstums ist bisher noch nicht viel bekannt. Zurzeit sind nur wenige Schlüsselfaktoren beschrieben, die den sogenannten Mechanismus der Migration oder Proliferation ("go or grow") in bösartigen Tumoren beeinflussen: wenige Transkriptionsfaktoren, miRNAs sowie metabolische Faktoren. Interessanterweise, sind miRNAs zum Teil mit der Regulation des Metabolismus in Tumorzellen assoziiert. Eine vorangehende Studie aus unserem Labor hat sCPE aufgrund seines Potentials, Zellwanderung zu verringern, als einen weiteren Schlüsselfaktor identifiziert. Wir konnten zeigen, dass sCPE in der Gliomzelllinie LNT-229 zur einer differentiellen Regulation von Migration und Proliferation führt (Höring et al., 2012). Die vorliegende Arbeit widmet sich nun der Frage nach den genauen zugrundeliegenden Mechanismen, wie sCPE seine Effekte auf molekularer Ebene vermittelt. Darüber hinaus soll geklärt werden, ob sCPE auch in der metabolischen Adaptation eine Rolle spielt und dadurch ebenfalls die Gliomzellmigration beeinflußen kann.
Der Gyrus dentatus ist eine anatomische Region im Hippocampus und besitzt die einzigartige Fähigkeit auch im adulten Gehirn lebenslang neue Nervenzellen zu generieren. Dieser Prozess wird als adulte Neurogenese bezeichnet, stellt eine besondere Form struktureller Plastizität dar und es wurde gezeigt, dass adult neugebildete Körnerzellen im Gyrus dentatus essentiell am Prozess des hippocampalen Lernens und der Gedächtnisausbildung beteiligt sind. Es wird vermutet, dass neue Körnerzellen aufgrund ihrer charakteristischen Eigenschaften verstärkt auf neue Informationsmuster reagieren können und darauf spezialisiert sind Muster, die eine hohe Ähnlichkeit zueinander haben zu separieren und diese Unterschiede zu kodieren. Obwohl bereits eine Vielzahl von wissenschaftlichen Studien zum Verständnis der Entwicklung und Funktion adult neugebildeter Körnerzellen beitragen konnte, bestehen immer noch Unklarheiten darin, wie sich diese neuen Nervenzellen strukturell entwickeln, wann es zu einer funktionellen Integration kommt und wie diese beiden Prozesse miteinander zusammenhängen. In den vorliegenden Arbeiten wurde die strukturelle Entwicklung und synaptische Integration adult neugebildeter Körnerzellen in das bestehende hippocampale Netzwerk der Ratte und Maus unter in vivo Bedingungen untersucht. Zur Beantwortung dieser Fragen wurden Methoden aus der Anatomie, Histologie und in vivo Elektrophysiologie kombiniert. Der Nachweis neuer Körnerzellen erfolgte entweder durch immunhistologische Färbungen gegen spezifische Marker für unreife und reife Körnerzellen, Markierungen mit Bromdesoxyuridin oder retro- bzw. adenovirale intrazerebrale Injektionen und Expression von GFP. Es wurde eine in vivo Stimulation des Tractus perforans in der anästhesierten Ratte zur Langzeitpotenzierung der Körnerzellsynapsen und anschließend eine immunhistologische Analyse der Expression von synaptischen Aktivitäts- und Plastizitätsmarkern in neugebildeten und reifen Körnerzellen nach der Stimulation durchgeführt. Zusätzlich wurden detaillierte drei-dimensionale Rekonstruktion dendritischer Bäume erstellt und dendritische Dornenfortsätze an retroviral markierten Zellen analysiert.
Die vorliegenden Daten belegen den generellen Verlauf der Entwicklung neugeborener Körnerzellen in zwei unterschiedliche Phasen: eine frühe dendritische Reifung und eine späte funktionelle und synaptische Integration. Neugeborene Körnerzellen zeigten ein rasches dendritisches Auswachsen, dass innerhalb der ersten drei bis vier Wochen abgeschlossen war. Während dieses Wachstumsprozesses passieren Dendriten nacheinander die Körnerzellschicht und anschließend die innere, mittlere und äußere Molekularschicht. Dadurch sind sie innerhalb ihrer morphologischen Entwicklungsphasen anatomisch auf spezifische präsynaptische Partner limitiert. In der wissenschaftlichen Literatur wird eine transiente kritische Phase beschrieben, in der neugeborene Körnerzellen eine starke Plastizität und sensitivere synaptische Erregbarkeit aufweisen. Obwohl die vorliegenden Resultate keine direkten Hinweise auf eine stärkere bzw. sensitivere Plastizität neugeborener Körnerzellen liefern, konnte eine Phase zwischen vier und fünf Wochen identifiziert werden, in der neue Körnerzellen einen sprunghaften Anstieg in ihrer Fähigkeit zur Expression synaptischer Aktivitätsmarker (z.B. Arc und c-fos) und Ausbildung struktureller Plastizität (Dendriten und Dornenfortsätze) zeigten. Die präsentierten Resultate machen deutlich, dass Dornenfortsätze neuer Körnerzellen nach elf Wochen eine vergleichbare Dichte, Größenverteilung und Plastizität aufzeigen, die vergleichbar mit denen vorhandener Körnerzellen sind. Die Fähigkeit zur dendritischen Plastizität nach synaptischer Aktivierung zeigten jedoch nur neugeborene Körnerzellen zwischen der vierten und fünften Woche. Diese Ergebnisse implizieren, dass die Integration neugebildeter Körnerzellen kontinuierlich verläuft und obwohl die vorliegenden Daten die Existenz einer dendritischen Plastizität und einen sprunghaften Anstieg synaptischer Plastizität in der vierten und fünften Woche belegen, wurden keine weiteren Hinweise auf eine transiente kritische Phase gefunden. Des Weiteren zeigten dendritische Bäume von gereiften adult neugeborenen und reifen Körnerzellen Unterschiede, die daraufhin deuten, dass neue Körnerzellen eine eigene Subpopulation darstellen.
Cancer cells, in general and especially Rhabdomyosarcoma (RMS) cells have been reported to be highly susceptible to oxidative stress. Based on this knowledge we examined whether the inhibition of the two main antioxidant defense pathways, i.e. the thioredoxin (TRX) and the glutathione (GSH) system, represents a possible new strategy to induce cell death in RMS. To do so, we combined the -glutamylcysteine synthetase (γGCL) inhibitor buthionine sulfoximine (BSO) or the cystine/glutamate antiporter (xc-) inhibitor erastin (ERA), both GSH depleting enzymes, with the thioredoxinreductase (TrxR) inhibitor auranofin (AUR) to evaluate synergistic cell death in the alveolar RMS (ARMS) cell line RH30 and the embryonal RMS (ERMS) cells RD.
Furthermore, we tried to unravel the underlying molecular mechanisms of AUR/BSO or AUR/ERA treatment in RMS cells. Thereby we showed that AUR/BSO as well as AUR/ERA treatment leads to proteasome inhibition characterized by the accumulation of ubiquitinated proteins, which is in agreement with the already published ability of AUR to inhibit proteasomeassociated deubiquitinases (DUBs) aside from TrxR. As a consequence, the protein levels of ubiquitinated short-lived proteins, like NOXA and MCL-1, increase upon treatment with AUR/BSO or AUR/ERA. Consistently, we could detect an increased binding of NOXA to MCL-1. Interestingly, not only NOXA protein levels but also mRNA levels rise upon treatment, pointing to a transcriptional regulation of pro-apoptotic NOXA through AUR/BSO or AUR/ERA combination treatment. The fact that siRNA mediated knockdown of NOXA rescues cells from combination treatment-induced cell death strengthens the role of NOXA as an important regulator of cell death induction. Apart from proteasome inhibition and subsequent NOXA accumulation, AUR cooperates with BSO or ERA to trigger BAX/BAK activation, which is needed for cell death induction, too. Additionally, loss of mitochondrial membrane potential (MMP) as well as caspase activation and PARP cleavage is detected after treatment of RMS cells with AUR/BSO or AUR/ERA.
Except of apoptotic cell death we also detected features of iron-dependent ferroptosis after treatment with AUR/BSO or AUR/ERA. This is not surprising, since BSO and ERA already have been described to induce ferroptotic cell death. Although lipid peroxidation takes place in both cell lines, only in RH30 cells, cell death seems to be partially ferroptosis-dependent, since especially in this cell line AUR/BSO- or AUR/ERA-induced cell death can be rescued with different ferroptosis inhibitors.
Although both combination treatments, AUR/BSO as well as AUR/ERA, induce production of reactive oxygen species (ROS), only the thiol-containing ROS scavengers GSH and its precursor N-acetylcysteine (NAC), but not the non-thiolcontaining antioxidant α-Tocopherol (α-Toc), consistently prevent proteasome inhibition, NOXA accumulation and cell death.
Additionally, we demonstrated that BSO and ERA abolish AUR-mediated upregulation of GSH thereby releasing the AUR cytotoxic effect on RMS cells, in line with the described ability of cysteines to inhibit the function of AUR. Together, this points to the conclusion that GSH depletion, rather than an increase in ROS levels, is important for AUR/BSO- or AUR/ERA-induced cell death.
In conclusion, through revealing that the antitumor activity of AUR is enhanced in combination with GSH depleting agents, we identified redox homeostasis as a new and promising target for the treatment of RMS cells.
This thesis is concerned with quantum dynamical propagation methods suitable for high-dimensional systems, and their application to excitation energy transfer (EET), electron transfer (ET), and intra-molecular vibrational redistribution (IVR) in molecular aggregates. The theoretical description of these processes, which are often ultrafast – with time scales in the range of femtoseconds to picoseconds – is challenging, both with regard to quantum dynamical simulations and electronic structure calculations.
The present thesis comprises two parts. The first part concerns the implementation of a novel quantum dynamical method based on Gaussian Wavepackets (GWPs): the 2-Layer Gaussian-MCTDH (2L-GMCTDH) method. This method, which has recently been proposed in [S. Römer, M. Ruckenbauer, I. Burghardt, The Journal of Chemical Physics, 2013, 138, 064106] was implemented in a Fortran90 code and applied to various high-dimensional test systems. The second part of the thesis addresses the combined electronic structure and dynamical study of a novel type of donor-acceptor systems that have been investigated in a joint project with experimental collaboration partners at Strasbourg University. In both parts, numerical applications focus on high-dimensional model Hamiltonians for EET and ET processes.
Regarding the first part, the interest of using GWP-based methods is two-fold: First, GWPs represent spatially localized basis sets that are useful for on-the-fly dynamics in conjunction with electronic structure calculations. Second, they are naturally suited for the explicit representation of quantum mechanical system-bath type problems where a large number of vibrational bath modes are weakly perturbed from equilibrium. In this context, various methods exist that are based upon classically evolving GWP bases. A major improvement results from variational methods which involve optimized, non-classical GWP trajectories. In particular, the variational Gaussian-based Multi-Configuration Time-Dependent Hartree (GMCTDH) and its variational Multi-Configurational Gaussians (vMCG) variant were originally derived as semiclassical variants of the Multi-Configuration Time-Dependent Hartree (MCTDH) method. However, the G-MCTDH and vMCG methods mostly use Frozen Gaussian (FG) basis sets that are far less flexible than the single-particle (SPF) representation of standard MCTDH. As a consequence, a significantly larger number of GWPs are generally required to reach convergence. To remedy the lack of flexibility of the FG basis sets, the abovementioned two-layer (2L-G-MCTDH) approach has been introduced: Here, the first layer is composed of flexible SPFs, while the second layer is composed of low-dimensional FGs. The numerical scaling properties are significantly improved as compared with the conventional G-MCTDH and vMCG schemes. The first implementation of the method in an in-house Fortran90 code is presented, along with applications to (i) a model of site-to-site vibrational energy flow in the presence of intra-site vibrational energy redistribution (IVR) and (ii) a multidimensional donor-acceptor electron transfer system described within a linear vibronic coupling model. The second system relates to a model for ET at an oligothiophene-fullerene interface relevant to organic photovoltaics. Besides the description of the implementation, a detailed assessment of the convergence properties and comparison with multi-layer MCTDH (ML-MCTDH) benchmark calculations is presented. Finally, a perspective is given on the future combination with the existing ML-MCTDH scheme; indeed, such a combination is straightforward since the first layer of the 2L-G-MCTDH approach can be chosen to be orthogonal.
Regarding the second part of the thesis, two generations of a novel donor-acceptor (DA) system for organic photovoltaics applications, involving self-assembled block co-oligomers DA dyads and triads with perylene-diimide (PDI) accepter units, are addressed within a collaborative project with S. Haacke and S. Mery (University of Strasbourg). Based upon detailed excited-state electronic structure investigations along with quantum dynamical and kinetic studies, the relevant ET formation and recombination steps are characterized quantitatively, in view of optimizing the chemical design and reducing recombination losses.
In a first-generation variant of the abovementioned DA systems, which involves liquid-crystalline triads, we were able to show that a highly efficient inter-chain ET process prevails over intra-molecular ET, leading to fast recombination. Due to the latter, this system turns out to be inefficient for photovoltaic applications. To fully understand the elementary steps, high-dimensional quantum dynamics simulations were carried out using the ML-MCTDH method, in collaboration with Matthias Polkehn from our group. In the second-generation variant, which is in the focus of the present thesis, both the nanomorphology and the chemical design were modified. The present work, focuses upon the aspect of chemical design, by characterizing a series of modified DA’s, with donor units of varying length while the PDI accepter units remain unchanged. The intra-molecular ET is observed in these systems, but the processes are comparatively slow, of the order of tens to hundreds of picoseconds. Hence, a kinetic analysis using the Marcus-Levich-Jortner rate theory is employed. Among the main results of the study is that addition of an electron donating amine unit strongly increases the lifetime of the charge-separated state, and therefore reduced recombination losses.
Overall, the present thesis shows how a combination of high-dimensional quantum dynamics, electronic structure calculations, and vibronic coupling model Hamiltonians can be employed to obtain an accurate picture of EET, ET, and IVR in high-dimensional molecular assemblies. Furthermore, the 2L-GMCTDH method paves the way for accurate and efficient on-the-fly calculations; a suitable set-up for such calculations is currently in progress.
Terahertz (THz) physics are an emerging field of research dealing with electromagnetic radiation in the far-infrared to microwave region. The development of innovative technologies for the generation and detection of THz radiation has only in the recent past led to a tremendous rise of both fundamental research as well as investigation of possible fields of application for THz radiation. The most prominent reason has long been the scarce accessibility of the THz region of the electromagnetic spectrum - commonly loosely located between 0.1 and 30 THz - to broad research, and it was mostly limited to astronomy and high energy physics facilities. Over the recent years, numerous novel concepts on both the source and detector side have been proposed and successfully implemented to overcome this so-called THz gap. New technology has become available and paved the way for wide-spread experimental laboratory work and accompanying theoretical investigations. First application studies have emerged and in some cases even commercial development of the field of THz physics is on the rise. Despite these enormous progresses, a continuing demand for more efficient THz detectors still impels current technological research. Relatively low source powers are often a major limiting factor and the request for new detection concepts, their understanding and implementation, as well as the optimization on a device basis has been and still remains in place. One of these concepts is the use of field-effect transistors (FETs) high above their conventional cut-off frequencies as electronic THz detectors. The concept has been proposed in a number of theoretical publications by M. Dyakonov and M. Shur in the early 1990's, who pioneered to show that under certain boundary conditions, non-linear collective excitations of the charge carrier system of a two-dimensional electron gas (2DEG) by incident THz radiation can exhibit rectifying behaviour - a detection principle, which has become known as plasma wave or plasmonic mixing. Up until this day, the concept has been successfully implemented in many device realizations - most advanced in established silicon CMOS technology - and stands on the edge of becoming commercially available on a large scale. The main direction of the work presented in this thesis was the modeling and experimental characterization of antenna-coupled FETs for THz detection - termed TeraFETs in this and the author's previous works - which have been implemented in different material systems. The materials presented in this thesis are AlGaN/GaN HEMTs and graphene FETs. In a number of scientific collaborations, TeraFETs were designed based on a hydrodynamic transport model, fabricated in the respective materials, and characterized mainly in the lower THz frequency region from 0.2 to 1.2 THz. The theoretical description of the plasma wave mixing mechanism in TeraFETs, as initiated by Dyakonov and Shur, was based on a fluid-dynamic transport model for charge carriers in the transistor channel. The THz radiation induces propagating charge density oscillations (plasma waves) in the 2DEG, which via non-linear self-mixing cause rectification of the incident THz signals. Over the course of this work, it became evident in the on-going detector characterization experiments that this original theoretical model of the detection process widely applied in the respective literature does not suffice to describe some of the experimental findings in TeraFET detection signals. Thorough measurements showed signal contributions, which are identified in this work to be of thermoelectric origin arising from an inherent asymmetric local heating of charge carriers in the devices. Depending on the material, these contributions constituted a mere side effect to plasmonic detection (AlGaN/GaN) or even reached a comparable magnitude (graphene FETs). To include these effects in the detector model, the original reduced fluid-dynamic description was extended to a hydrodynamic transport model. The model yields at the current stage a reasonable qualitative agreement to the measured THz detection signals. This thesis presents the formulation of a hydrodynamic charge carrier transport model and its specific implementation in a circuit simulation tool. A second modeling aspect is that the transport equations cover only the intrinsic plasmonic detection process in the active gated part of the TeraFET's transistor channel. In order to model and simulate the behavior of real devices, extrinsic detector parts such as ungated channel regions, parasitic resistances and capacitances, integrated antenna impedance, and others must be considered. The implemented detector model allows to simulate THz detection in real devices with the above influences included. Besides presentation of the detector model, experimental THz characterization of the fabricated TeraFETs is presented in this work. Careful device design yielded record detection performance for detectors in both investigated materials. The respective results are shown and the experimental observations of the thermoelectric effect in TeraFETs are compared to modeling results. It is the goal of this work to provide a framework for further theoretical and experimental studies of the plasmonic and thermoelectric effect in TeraFETs, which could eventually lead to a new type of THz detectors particularly exploiting the thermoelectric effect to enhance the sensitivity of today's plasmonic TeraFETs.
Colorectal cancer (CRC) has the third highest incidence and the fourth highest mortality rate worldwide and represents a substantial health care burden and affects the life of millions of people. CRC is a genetic disease caused by the stepwise accumulation of genetic alterations. The initiating event in colorectal carcinogenesis is the aberrant activation of the WNT pathway, but other pathways are also commonly deregulated, including the PI3K/AKT pathway. A number of previous studies using genetically engineered mouse models aimed at dissecting the exact role of PI3K/AKT pathway in CRC, but have yielded in rather conflicting results. Despite the inconsistent results, these studies already put forward the idea that PI3K/AKT signaling in combination with other genetic events might substantially contribute to tumor progression. Since the PI3K/AKT pathway is frequently activated in CRC, it represents an ideal candidate for therapeutic intervention. Although extensive efforts had led to the development of numerous inhibitors targeting the PI3K/AKT pathway, the diversity of genetic alterations can challenge the identification of the most effective therapeutic targets. Therefore, the discovery of shared tumor-promoting mechanisms downstream of these genetic alterations might unravel new biomarkers and druggable targets. The aim of this study was to elucidate the precise role of PI3K/AKT pathway during the course of colorectal carcinogenesis and to decipher novel protumorigenic molecular mechanisms downstream of PI3K/AKT activation that can be used for therapeutic intervention.
To obtain a better insight into the role of the PI3K/AKT pathway during colorectal carcinogenesis, mice expressing an oncogenic variant of AKT1 (AktE17K) specifically in the intestinal epithelial cells (IEC) were used. At the age of 6 months untreated AktE17K mice showed clearly perturbed intestinal homeostasis, but no tumor formation. To induce colonic tumorigenesis, AktE17K mice were subjected to treatment with the colonic carcinogen azoxymethane (AOM). In response to AOM, AktE17K mice developed invasive but non-metastatic tumors, which showed strong nuclear accumulation of TP53. To investigate the role of PI3K/AKT signaling specifically in CRC progression, AktE17K mice were crossed to TP53-deficient mice (Tp53ΔIEC). Unlike AktE17K mice, untreated Tp53ΔIEC; AktE17K, developed highly invasive small
intestinal tumors by the age of 6 months. To investigate the role of AKT hyperactivation in colonic tumor progression, Tp53ΔIEC; AktE17K mice were subjected to AOM treatment. AKT hyperactivation significantly enhanced tumor progression and induced metastatic dissemination.
To get a better insight how AKT signaling can promote tumor progression, whole tumor tissues from AOM-treated Tp53ΔIEC and Tp53ΔIEC; AktE17K mice were subjected to next generation mRNA sequencing and phospho-proteomic analysis by mass spectrometry. Both analyses indicated that AKT hyperactivation expands the inflammatory tumor microenvironment and upregulates pathways associated with invasion and metastasis. Importantly, Gene Set Enrichment Analysis revealed that AOM-induced colon tumors of Tp53ΔIEC; AktE17K animals, are highly similar in their gene expression profile to the CMS4 subtype of human CRC, which is associated with worse overall- and relapse-free survival. Gene expression analysis also suggested elevated NOTCH signaling in the Tp53ΔIEC; AktE17K tumors. Interestingly, while the expression of Notch3 mRNA was increased in the tumors of Tp53ΔIEC; AktE17K mice, the expression of the other NOTCH receptors was unaffected by AKT hyperactivation. In vitro experiments using TP53-deficient mouse tumor organoids with hyperactive AKT signaling confirmed the direct, tumor cell-intrinsic link between AKT activation and increased Notch3 expression. Moreover, inhibition of EZH2 mimicked the effect of AKT hyperactivation on Notch3 expression, suggesting that AKT regulates Notch3 via an epigenetic mechanism.
Knock-down of Notch3 in TP53-deficient mouse tumor organoids with hyperactive AKT signaling resulted in differential regulation of several pathways with potential role in invasion and metastasis and in cell death and survival. Subsequent in vivo experiments confirmed the role of NOTCH3 signaling in CRC progression. Treatment of AOM-induced Tp53ΔIEC; AktE17K mice with a NOTCH3 antagonistic antibody or the γ-secretase inhibitor DAPT significantly reduced invasion and metastasis. Importantly, NOTCH3 expression was also found to be associated with human CRC progression, suggesting that NOTCH3 represent a valid target for the treatment of CRC. This work, using genetically engineered mouse models and advanced in vitro techniques, has demonstrated a strong tumor promoting role for PI3K/AKT signaling in CRC progression and has identified NOTCH3 signaling as a potential therapeutic target downstream of the PI3K/AKT pathway.
Colorectal cancer (CRC) has the third highest incidence and the fourth highest mortality rate worldwide and represents a substantial health care burden and affects the life of millions of people. CRC is a genetic disease caused by the stepwise accumulation of genetic alterations. The initiating event in colorectal carcinogenesis is the aberrant activation of the WNT pathway, but other pathways are also commonly deregulated, including the PI3K/AKT pathway. A number of previous studies using genetically engineered mouse models aimed at dissecting the exact role of PI3K/AKT pathway in CRC, but have yielded in rather conflicting results. Despite the inconsistent results, these studies already put forward the idea that PI3K/AKT signaling in combination with other genetic events might substantially contribute to tumor progression.
Since the PI3K/AKT pathway is frequently activated in CRC, it represents an ideal candidate for therapeutic intervention. Although extensive efforts had led to the development of numerous inhibitors targeting the PI3K/AKT pathway, the diversity of genetic alterations can challenge the identification of the most effective therapeutic targets. Therefore, the discovery of shared tumor-promoting mechanisms downstream of these genetic alterations might unravel new biomarkers and druggable targets. The aim of this study was to elucidate the precise role of PI3K/AKT pathway during the course of colorectal carcinogenesis and to decipher novel pro-tumorigenic molecular mechanisms downstream of PI3K/AKT activation that can be used for therapeutic intervention.
To obtain a better insight into the role of the PI3K/AKT pathway during colorectal carcinogenesis, mice expressing an oncogenic variant of AKT1 (AktE17K) specifically in the intestinal epithelial cells (IEC) were used. At the age of 6 months untreated AktE17K mice showed clearly perturbed intestinal homeostasis, but no tumor formation. To induce colonic tumorigenesis, AktE17K mice were subjected to treatment with the colonic carcinogen azoxymethane (AOM). In response to AOM, AktE17K mice developed invasive but nonmetastatic tumors, which showed strong nuclear accumulation of TP53. To investigate the role of PI3K/AKT signaling specifically in CRC progression, AktE17K mice were crossed to TP53- deficient mice (Tp53ΔIEC). Unlike AktE17K mice, untreated Tp53ΔIECAktE17K, developed highly invasive small intestinal tumors by the age of 6 months. To investigate the role of AKT hyperactivation in colonic tumor progression, Tp53ΔIECAktE17K mice were subjected to AOM treatment. AKT hyperactivation significantly enhanced tumor progression and induced metastatic dissemination.
To get a better insight how AKT signaling can promote tumor progression, whole tumor tissues from AOM-treated Tp53ΔIEC and Tp53ΔIECAktE17K mice were subjected to next generation mRNA sequencing and phospho-proteomic analysis by mass spectrometry. Both analyses indicated that AKT hyperactivation expands the inflammatory tumor microenvironment and upregulates pathways associated with invasion and metastasis. Importantly, Gene Set Enrichment Analysis revealed that AOM-induced colon tumors of Tp53ΔIECAktE17K animals, are highly similar in their gene expression profile to the CMS4 subtype of human CRC, which is associated with worse overall- and relapse-free survival7 . Gene expression analysis also suggested elevated NOTCH signaling in the Tp53ΔIECAktE17K tumors. Interestingly, while the expression of Notch3 mRNA was increased in the tumors of Tp53ΔIECAktE17K mice, the expression of the other NOTCH receptors was unaffected by AKT hyperactivation. In vitro experiments using TP53-deficient mouse tumor organoids with hyperactive AKT signaling confirmed the direct, tumor cell-intrinsic link between AKT activation and increased Notch3 expression. Moreover, inhibition of EZH2 mimicked the effect of AKT hyperactivation on Notch3 expression, suggesting that AKT regulates Notch3 via an epigenetic mechanism.
Knock-down of Notch3 in TP53-deficient mouse tumor organoids with hyperactive AKT signaling resulted in differential regulation of several pathways with potential role in invasion and metastasis and in cell death and survival. Subsequent in vivo experiments confirmed the role of NOTCH3 signaling in CRC progression. Treatment of AOM-induced Tp53ΔIECAkt E17K mice with a NOTCH3 antagonistic antibody or the γ-secretase inhibitor DAPT significantly reduced invasion and metastasis. Importantly, NOTCH3 expression was also found to be associated with human CRC progression, suggesting that NOTCH3 represent a valid target for the treatment of CRC. This work, using genetically engineered mouse models and advanced in vitro techniques, has demonstrated a strong tumor promoting role for PI3K/AKT signaling in CRC progression and has identified NOTCH3 signaling as a potential therapeutic target downstream of the PI3K/AKT pathway.
Proteinen die ExHepatitis C ist eine entzündliche Erkrankung der Leber, die durch das Hepatitis-C-Virus (HCV) verursacht wird. Trotz vieler Bemühungen ist heutzutage immer noch keine prophylaktische Vakzinierung verfügbar. Neuartige Therapien versprechen eine hohe Heilungsrate, sind aber mit hohen Kosten verbunden. HCV induziert oxidativen Stress, welcher für das Auftreten und die Progression der Pathogenese eine zentrale Rolle spielt. Um zellulären Stress (z.B. durch ROS) entgegenzuwirken, haben Zellen cytoprotective und detoxifizierende Mechanismen entwickelt, die die zelluläre Homöostase aufrechterhalten. Dabei kontrolliert der redoxsensitive Transkriptionsfaktor Nrf2 als Heterodimer zusammen mit sMaf- pression von cytoprotective und ROS-detoxifizierenden Genen. Vorherige Studien haben gezeigt, dass HCV den Nrf2/ARE-Signalweg beeinträchtigt. Dabei induziert HCV eine Translokation der sMaf-Proteine aus dem Zellkern in das Cytoplasma, wo diese das virale Protein NS3 binden. Im Cytoplasma lokalisierte sMaf-Proteine verhindern dadurch eine Translokation von Nrf2 in den Zellkern. Folglich ist die Expression von Nrf2/ARE-abhängigen cytoprotective Genen inhibiert und intrazelluläre ROS-Spiegel dauerhaft erhöht. Ein weiterer zentraler cytoprotective Mechanismus ist die Autophagie. Sie dient der Aufrechterhaltung der zellulären Homöostase durch den Abbau von defekten Proteinen und Organellen. Des Weiteren ist bekannt, dass Autophagie nicht nur im Laufe von Nährstoffmangel induziert wird, sondern auch durch erhöhte Mengen an ROS. In sämtlichen Studien konnte beobachtet werden, dass Autophagie für die Aufrechterhaltung des viralen Lebenszyklus eine wesentliche Rolle spielt, da sie mit der Ausbildung des membranous web, der Translation, der Replikation und der Freisetzung des Virus interferiert. Ausgehend davon sollte in dieser Arbeit zunächst die Relevanz von HCV-induziertem oxidativen Stress, resultierend aus der Nrf2/ARE-Signalweginhibition, als möglicher Aktivator der Autophagie untersucht werden. Dabei wurde in HCV-positiven Zellen eine Akkumulation von LC3-II beobachtet, was auf eine Induktion der Autophagie schließen lässt. In Übereinstimmung damit wurde eine erhöhte Expression von Autophagie-Markerproteinen in HCV-infizierten PHHs detektiert. Im Laufe der Autophagie wird p62 abgebaut. Somit sollte eine Induktion der Autophagie in einer Verminderung der Menge an p62 resultieren. Nichtsdestotrotz ist eine Akkumulation von p62 in HCV-positiven Zellen nachzuweisen. Dies erscheint zunächst widersprüchlich. Aufgrund der Tatsache, dass die Expression der katalytischen Untereinheit des Proteasoms (PSMB5) Nrf2-abhängig ist, führt die beeinträchtigte Nrf2-Aktivität in HCV-positiven Zellen jedoch zu einer verringerten Aktivität des konstitutiven Proteasoms. Dieser Befund kann auch die erhöhte Halbwertzeit von p62 in HCV-positiven Zellen erklären. Kürzlich wurde ein Zusammenspiel des Nrf2/ARE-Signalwegs und der Autophagie beobachtet. Dabei kann Nrf2 nicht nur über den kanonischen Signalweg aktiviert werden, sondern auch durch eine direkte Interaktion des phosphorylierten Autophagie-Adaptorproteins p62 (pS[349] p62) mit Keap1. In HCV-positiven Zellen können nicht nur eine Zunahme der Gesamtmenge von p62 beobachtet werden, sondern auch erhöhte Mengen an pS[349] p62. Die Berechnung des Quotienten aus pS[349] p62 und p62 zeigt in etwa eine Verdopplung der Menge an pS[349] p62 , was auf eine vermehrte Phosphorylierung von p62 in HCV-positiven Zellen rückschließen lässt. Des Weiteren konnte beobachtet werden, dass erhöhte Mengen an ROS, wie sie auch in HCV-positiven Zellen vorkommen, Autophagie induzieren können, die durch eine Akkumulation von LC3-II und die Zunahme von LC3 Puncta charakterisiert ist. Auch eine Zunahme von pS[349] p62 konnte beobachtet werden. Ferner resultierte die Überexpression der phosphomimetischen Mutante (p62 [S351E]) in einer Akkumulation von LC3-II, was auf die Fähigkeit von pS[349] p62 rückschließen lässt, Autophagie zu induzieren. Eine Modulation der Autophagie mittels der Inhibitoren 3-Methyladenin und Bafilomycin führte zu einer inhibierten Freisetzung von infektiösen viralen Partikeln und unterstreicht damit, dass der Autophagie eine essentielle Bedeutung bei der Freisetzung viraler Partikel zukommt. Eine HCV-Infektion wird sowohl von erhöhten Mengen an ROS als auch von einer Induktion der Autophagie begleitet. Dementsprechend führte eine Verminderung des intrazellulären Radikalspiegels durch eine Inkubation mit den Radikalfängern PDTC und NAC zu geringeren Mengen an LC3-II und pS[349] p62. Dabei konnte auch eine Abnahme der freigesetzten infektiösen viralen Partikel beobachtet werden, was ein Zusammenspiel zwischen erhöhten Mengen an ROS, Induktion der Autophagie und Virusfreisetzung nahelegt. Vorschlag: Erhöhte Mengen an ROS werden durch eine Aktivierung des Nrf2/ARE-Signalwegs detoxifiziert und würden somit den zuvor beschriebenen viralen Mechanismus verhindern. HCV die Aktivierung Nrf2/ARE-regulierter Gene beeinträchtigt, wurde die Hypothese aufgestellt, dass in HCV-positiven Zellen dieser komplexe Mechanismus dazu dient, die Translokation des pS[349] p62-abhängig freigesetzte Nrf2 in den Zellkern zu verhindern. Das wiederum hat eine eingeschränkte Expression von Nrf2/ARE-abhängigen Genen und Detoxifizierung von ROS zur Folge. Um diese Hypothese experimentell zu untersuchen, wurden HCV-positive und negative Zellen cotransfiziert mit dem p62 Wildtyp (p62 [wt]), der p62 phosphomimetischen Mutante (p62 [S351E]) oder einem Kontrollplasmid in Kombination mit einem Reporterkonstrukt, welches die Nrf2-Aktivierung darstellt (OKD48). Während in HCV-negativen Zellen im Vergleich zum p62 [wt] eine Transfektion mit p62 [S351E] zu einer signifikanten Aktivierung des Nrf2-abhängigen Reportergens führt konnte dies in HCV-positiven Zellen nicht beobachtet werden. Zusammengenommen beschreiben diese Ergebnisse einen neuartigen Mechanismus wie HCV das Zusammenspiel zwischen dem Nrf2/ARE-Signalweg, erhöhten Mengen an ROS und Autophagie beeinflusst. Dabei übt HCV einen negativen Effekt auf den Nrf2/ARE-Signalweg aus, um dem pS[349] p62-abhängig freigesetzten Nrf2 zu entkommen. Folglich werden erhöhte Mengen an ROS aufrechterhalten, die eine Induktion der Autophagie ermöglichen, welche für die Freisetzung viraler Partikel essentiell ist.
Glucose homeostasis is tightly regulated by insulin production from ß-cells and glucagon production from α-cells. Changes in the balance of these hormones lead to Diabetes Mellitus (DM), which is foreseen to be the 7th leading cause of death by 2030, warranting a high demand to identify new therapeutics. DM is characterized by a reduction in ß-cell mass and reduced insulin production from ß-cells. α-cell development and fate mainly depend on the activity of the homeodomain-containing transcription factor Aristaless related homeobox (Arx). Conditional loss- of- function of Arx in α-cells leads to their conversion into functional insulin-producing ß-cells and thus an expansion of ß-cell mass. Therefore, inhibition of Arx is an interesting target for the expansion of ß-cells. The zebrafish model provides a fast, cost-effective and reliable translational platform for drug discovery in an in vivo setting. Here, we screened ~6217 small molecules on a transgenic zebrafish line (TgBAC(arxa:Luc2)) in which the arx promoter drives the expression of the luciferase gene which allows a sensitive and quantitative readout of promoter activity. Small molecule screening allowed us to identify 36 candidate repressors of arxa promoter activity. Furthermore, we started to validate these candidates in other assays. Preliminary results showed that DMAT (a potent CK2 inhibitor) and CNS-1102 (NMDA receptor inhibitor) increase functional ß-cell regeneration. By lineage tracing α-cells during ß-cell regeneration, we could show that both DMAT and CNS-1102 promote α- to ß-cell transdifferentiation. Here, we propose that Casein kinase II and NMDA receptor as potential molecular targets that could be exploited for the treatment of diabetes by generating functional beta-cells from the non-beta-cell progenitor, particularly alpha-cells in situ.
Bei Knochendefekten kritischer Größe gestaltet sich die selbstständige Regeneration als nahezu unmöglich, weshalb es nötig ist die Therapie zu optimieren. Die Verwendung autologer Spongiosatransplantate stellt den aktuellen Goldstandard dar, was jedoch mit einer Reihe von Komplikationen, beispielsweise Schmerzen an der Entnahmestelle oder Wundheilungsstörungen verbunden ist. Das Knochen Tissue Engineering repräsentiert eine aussichtsreiche Alternative. Die Kombination eines osteokonduktiven Gerüststoffes mit regenerativen Zellen, wie zum Beispiel mononukleäre Zellen des Knochenmarks (BMC), stellt einen vielversprechenden Ansatz dar. Die BMCs haben im Vergleich zu anderen verwendbaren Zelltypen, z.B. mesenchymale Stammzellen (MSCs) oder endothelialen Vorläuferzellen (EPCs), den entscheidenden Vorteil einer kurzen Aufbereitungszeit, wodurch die definitive Frakturversorgung beschleunigt wird.
Mittels Inhibierung von MicroRNAs (miRNAs) mit Einfluss auf das osteogene und angiogene Potenzial der BMCs soll dieses System weiter verbessert werden. MiRNAs umfassen eine Gruppe kurzer, nicht-codierender RNAs die an der Steuerung grundlegender biologischer Prozesse beteiligt sind. Im Rahmen dieser Studie sind die MIR92A sowie MIR335 von besonderem Interesse. MIR92A blockiert die Angiogenese durch Verringerung der Expression des pro-angiogenen Proteins Integrin alpha 5 (ITGA5, CD51) sowie durch die Aktivierung des Notch-Signalweges um die Vascular endothelial growth factor (VEGF)-induzierte Blutgefäßbildung zu reduzieren. MIR335 hemmt über die Verringerung der Proteinkonzentration des Runt-related transcription factor 2 (RUNX2) die Proliferation und Differenzierung von humanen mesenchymalen Stammzellen (hMSCs) zu osteogenen Zellen. Aufgrund der erläuterten Erkenntnisse sollte in dieser Arbeit überprüft werden, ob die Neutralisation von MIR92A (Vaskularisierung) und MIR335 (osteogene Differenzierung) in BMCs mittels spezifischer antiMIR zu einer weiteren Verbesserung der BMC gestützten Therapie großer Knochendefekte führt.
Im ersten Teil der Versuche wurde das Prinzip der Lipotransfektion, zur Einbringung der Antikörper gegen die miRNAs in BMCs, optimiert und die Transfektionseffizenz bestimmt. In Abhängigkeit von der Zellsorte wurden mit 30 % - 69 % ausreichend hohe Transfektionseffizenzen erzielt, um jeweils 24 h nach Transfektion einen signifikanten Rückgang der Target-miRNA-Konzentrationen zu erreichen.
Nachdem die Wirksamkeit der Transfektion nachgewiesen war, wurden im zweiten Teil der Experimente die spezifischen Effekte der antiMIR auf die Zielgene überprüft. Der Einsatz von antiMIR92A führte nach 72 h zu einer erhöhten Genexpression von ITGA5 sowie VEGFA, zwei für die Angiogenese entscheidende Proteine. Zusätzliche konnte mittels FACS-Analyse eine signifikant gesteigerte CD51-Oberflächenexpression dokumentiert werden. Bei der Verwendung von antiMIR335 konnte eine verstärkte Expression der für die osteogene Differenzierung entscheidenden Indikatoren RUNX2 und BMP2 nachgewiesen werden. Die additionale Gabe von VEGFA (MIR92A) oder BMP2 (MIR335) konnte nach 48 h einen Trend zu verstärkter ITGA5 und VEGFA, beziehungsweise RUNX2 und BMP2 Expression erkennen lassen.
Zusammenfassend hat diese Studie verdeutlicht, dass die Inhibierung der MIR92A und MIR335 eine vielversprechende Möglichkeit bietet, das BMC gestützte Knochen Tissue Engineering weiter zu optimieren.
In this doctoral thesis the transformation from relativistic hydrodynamics to transport and vice versa is studied. Approximations made by hybrid (hydrodynamics + transport) simulations of relativistic heavy ion collisions are discussed and their reliability is assessed at intermediate collision energies. A new method to simulate heavy ion collisions is suggested, based on the forced thermalization in high-density regions.
Hintergrund: Als Komplikation einer Subarachnoidalblutung können zerebrale Infarkte auftreten. Arterielle Vasospasmen stehen im Verdacht diese auszulösen, jedoch wird zunehmend eine multifaktorielle Ätiologie diskutiert. Die orale Gabe des Calciumantagonisten Nimodipin als Prophylaxe stellt den einzigen pharmakologischen Therapieansatz mit nachgewiesener positiver Wirkung auf das Patientenoutcome dar. Durch die gute Wirksamkeit bei oraler Aufnahme erfolgt die intraarteielle Applikation in von Vasospasmen betroffene Gefäße. Weiterhin wird die Perkutane Transluminale Angioplastie bei fokalen hochgradigen Vasospasmen eingesetzt. Diese endovaskulären Verfahren sind bisher nicht in signifikanten randomisierten Studien untersucht worden.
Zielsetzung: Neu aufgetretene Infarktmuster von Patienten nach SAB wurden hinsichtlich Wirkung und möglicher Komplikationen dieser Therapieansätze untersucht.
Methoden: Die klinisch erfassten Daten und die Bildgebung der im Zeitraum von 01.01.2007 bis 31.12.2011 in der Neuroradiologie der Universitätsklinik Frankfurt am Main behandelten und in die Untersuchung eingeschlossenen 88 Patienten wurde erneut untersucht. Im Falle neu aufgetretener zerebraler Infarkte wurden die Infarktmuster hinsichtlich einer Ätiologie analysiert.
Ergebnisse: 53,4% der Patienten entwickelten nach SAB neue zerebrale Infarkte nach intraarterielle Nimodipinapplikation und zusätzlicher PTA in einzelnen Fällen. Hiervon konnten 89,4% ätiologisch zerebralen Vasospasmen zugeordnet werden. Bei 5,7% aller Patienten traten Infarkte im Zusammenhang mit Komplikationen der intraarteriellen Nimodipingabe und PTA in Form von Thrombembolien und einer Gefäßdissektion auf. Die Ätiologie eines Infarktmusters verblieb unklar.
Fazit: Es konnte kein Vorteil für die intraarterielle Gabe von Nimodipin und PTA bei refraktärem Vasospasmus gezeigt werden. Weiterhin traten in 5,7% des Patientenkollektivs ischämische Komplikationen auf, sodass beide Verfahren nicht als Standardtherapie bei Patienten mit Vasospasmus nach SAB empfohlen werden können.
Diese Doktorarbeit widmet sich der Untersuchung von Systemen von Quarks und der Wechselwirkung zwischen ihnen mit Hilfe von Lattice QCD. Aus Quarks zusammengesetzte Objekte heißen Hadronen. Ein bestimmter Typ von Hadronen ist das sogenannten Tetraquark. In Teilchendetektoren wie dem LHCb in der Schweiz oder Belle in Japan wurden in jüngerer Zeit Zustände gefunden, die als Kandidaten für Tetraquarks gelten. Diese Arbeit befasst sich mit der Beschreibung und Untersuchung solcher Tetraquark-Zustände. Die Systeme, um die es in dieser Arbeit hauptsächlich geht, enthalten vier Quarks unterschiedlicher Masse. Zwei Quarks wird im Großteil der Arbeit eine unendlich große Masse zugeordnet. Zwei Quarks haben eine endliche Masse. In dieser statisch-leichten Näherung ist es möglich, das Potential der schweren Quarks in Anwesenheit der leichten Quarks zu bestimmen und zu überprüfen, ob es attraktiv genug dazu ist, einen gebundenen Zustand der vier Quarks zu bilden. Dieses Vorgehen ist als Born-Oppenheimer-Approximation bekannt. Die Observable, die berechnet werden muss, ist also das Vier-Quark-Potential.
Im ersten Teil der Arbeit werden verschiedene Vier-Quark-Potentiale aufgeführt und die zugehörigen Quantenzahlen genannt. Jeder der geeigneten Kanäle wird auf seine Fähigkeit untersucht, einen gebundenen Zustand zu bilden. Eine ausführliche systematische und statistische Analyse liefert den eindeutigen Befund, dass Bindung nur für Isospin I = 0 und nichtstatistsche u- und d-Quarks möglich ist. Im Falle von I = 1 oder nichtstatistschen s- und c-Quarks ist kein gebundener Zustand zu erwarten. Schließlich wird für den Fall der u- und d-Quarks eine Extrapolation zu physikalischen Quarkmassen durchgeführt. Die Bindung wird mit abnehmender Quarkmasse stärker. Am physikalischen Punkt wird eine Bindungsenergie von −90(+43−36) MeV festgestellt. Somit wird für Quantenzahlen I(J^P) = 0(1^+) ein gebundener b̄b̄ud-Zustand postuliert. Im zweiten Teil der Arbeit wird die statisch-leichte Näherung aufgehoben. So kann der Spin der schweren Quarks einbezogen werden. Dies führt unter anderem dazu, dass B- und B* -Mesonen unterscheidbar werden. Ein Nachteil dessen, dass vier Quarks endlicher Masse verwendet werden, ist der, dass es nun nicht mehr möglich ist, das Potential der schweren Quarks in Gegenwart der leichten zu bestimmen. Stattdessen wird aus der Korrelationsfunktion des Vier-Quark-Zustands direkt die Masse bestimmt. Zur Beschreibung der schweren Quarks wird der Ansatz der Nichtrelativistischen QCD (NRQCD) gewählt. Es wird der aus dem ersten Teil bekannte gebundene b̄b̄ud-Zustand mit Quantenzahlen I(J^P) = 0(1^+) weiter untersucht. Wir nehmen an, dass die Quantenzahlen durch ein BB*-Molekül realisiert werden. Wir bestimmen mithilfe des generalisierten Eigenwertproblems (GEP) den Grundzustand. Die Masse des Grundzustands ist ein Hinweis auf die Existenz eines gebundenen Zustands. Insgesamt bekräftigt der Befund das im ersten Teil der Arbeit gefundene Resultat, die Vorhersage eines bisher nicht gemessenen Tetraquark-Zustandes, qualitativ. Im dritten Teil der Arbeit geht es um Vier-Quark-Systeme, die ein schweres Quark und ein schweres Antiquark sowie ein leichteres Quark und ein leichteres Antiquark enthalten. Neben einem gebundenen Vier-Quark-Zustand ist u.a. die Bildung eines Bottomonium-und-Pion-Zustands möglich. Dies macht die theoretische Beschreibung dieses Systems ungleich schwieriger als die Beschreibung des im ersten und zweiten Teil der Arbeit untersuchten Systems. Seine experimentelle Untersuchung hingegen ist weniger aufwändig. So wurden bereits Kandidaten für einen solchen Zustand gemessen: Z_b(10610) und Z_b(10650). Zunächst wird ein Szenario beschrieben, in welcher Reihenfolge die zu den verschiedenen Strukturen gehörenden Potentiale vorliegen. So handelt es sich bei dem Grundzustandspotential des Systems um das Potential eines unangeregten Bottomonium-Zustands mit einem Pion in Ruhe. Darüber liegen zahlreiche Bottomonium-Zustände mit Pionen mit endlichem Impuls. Inmitten dieser Potentiale liegt gegebenenfalls das gesuchte Tetraquark-Potential. Ziel ist, einen Weg zu finden, die Bottomonium-und-Pion-Potentiale und das Tetraquark-Potential voneinander zu unterscheiden. Im ersten Schritt wird der Bottomonium-und-Pion-Grundzustand mithilfe des GEP aus dem System entfernt. Der erste angeregte Zustand ist im Anschluss daran weitgehend frei von Einflüssen des Grundzustands. Man findet, dass das Potential des ersten angeregten Zustandes attraktiv ist, sodass die Bildung eines Tetraquark-Zustandes nicht ausgeschlossen ist. Um den ersten angeregten Zustand weiter zu untersuchen, wird ein quantenmechanisches Modell verwendet, das die Volumenabhängigkeit des Überlapp eines Testzustands mit den verschiedenen Strukturen beschreibt. Es damit prinzipiell möglich, unter Zuhilfenahme mehrerer Gittervolumina eine Aussage über die Struktur des ersten angeregten Zustands zu treffen.
Inhibition of midbrain dopamine (DA) neurons codes for negative reward prediction errors, and causally affects conditioning learning. DA neurons located in the ventral tegmental area (VTA) display two-fold longer rebound delays from hyperpolarizing inhibition in comparison to those in the substantia nigra (SN). This difference has been linked to the slow inactivation of Kv4.3-mediated A-type currents (IA). One known suppressor of Kv4.3 inactivation is a splice variant of potassium channel interacting protein 4 (KChIP4), KChIP4a, which has a unique potassium channel inactivation suppressor domain (KISD) that is coded within exon 3 of the KChIP4 gene. Previous ex vivo experiments from our lab showed that the constitutive knockout of KChIP4 (KChIP4 KO) removes the slow inactivation of IA in VTA DA neurons, with marginal effects on SN DA neurons. KChIP4 KO also increased firing pauses in response to phasic hyperpolarization in these neurons. Here I show, using extracellular recordings combined with juxtacellular labeling in anesthetized mice, that KChIP4 KO also selectively changes the number and duration spontaneous firing pauses by VTA DA neurons in vivo. Pauses were quantified with two different statistical methods, including one developed in house. No other firing parameter was affected, including mean frequency and bursting, and the activity of SN DA neurons was untouched, suggesting that KChIP4 gene products have a highly specific effect on VTA DA neuron responses to inhibitory input.
Following up on this result, I developed a new mouse line (KChIP4 Ex3d) where the KISD-coding exon 3 of KChIP4 is selectively excised by cre-recombinase expressed under the dopamine transporter (DAT) promoter, therefore disrupting the expression of KChIP4a only in midbrain DA neurons. I show that these mice have a highly selective behavioral phenotype, displaying a drastic acceleration in extinction learning, but no changes in acquisition learning, in comparison to control littermates. Computational fitting of the behavioral data with a modified Rescorla-Wagner model confirmed that this phenotype is congruent with a selective increase in learning from negative prediction errors. KChIP4 Ex3d also had normal open field exploration, novel object preference, hole board exploration and spontaneous alternation in a plus maze, indicating that exploratory drive, responses to novelty, anxiety, locomotion and working memory were not affected by the genetic manipulation. Furthermore semi-quantitative IHC revealed that KChIP4 Ex3d mice have increased Kv4.3 expression in TH+ neurons, suggesting that the absence of KChIP4a increases the binding of other KChIP variants, which known to increase surface expression of Kv4 channels.
Furthermore, in the course of my experimental study I identified that the most used mouse line where cre-recombinase is expressed under the DAT promoter (DAT-cre KI) has a different behavioral phenotype during conditioning in relation to WT littermate controls. These animals displayed increased responding during the initial trials of acquisition and delayed response latency extinction, consistent with an increase in motivation, which is in line with a decrease in DAT function.
I propose a working model where the disruption of KChIP4a expression in DA neurons leads to an increase in binding of other KChIP variants to Kv4.3 subunits, promoting their increased surface expression and increasing IA current density; this then increases firing pauses in response to synaptic inhibition, which in behaving animals translates to an increase in negative prediction error-based learning.
In dieser klinischen, randomisierten, doppelverblindeten Vergleichsstudie untersuchten wir, welchen Einfluss auf die Passgenauigkeit von Einzelzahnkronen und dreigliedrigen Brücken aus Vollkeramik zum einen die Anwendung einer intraoralen Digitalisierung mithilfe eines Intraoralscanners (Lava C.O.S Scanner, 3M ESPE, D-Seefeld) und zum anderen der Einsatz einer extraoralen Digitalisierung auf Basis einer konventionellen Abformung (Impregum penta soft, 3M ESPE, D-Seefeld) hat. Als weiteres Prüfkriterium wurde die Effizienz der jeweiligen Abformmethoden untersucht. Die Fragestellung sollte eine Aussage dazu treffen können, ob die digitale Abformung im klinischen Alltag des Zahnarztes einen Vorteil gegenüber der konventionellen Abformung erbringen kann.
In der Studie wurden 25 Patienten eingeschlossen und beide Abformmethoden nach der Zahnpräparation in einer randomisierten Abfolge angewandt. Beim Intraoralscanner waren ein Ganzkieferscan für die Brückenrestaurationen und ein Quadrantenscan für Einzelzahnkronen erforderlich. Die klinischen Arbeitsschritte wurden zeitlich erfasst. Die Kronen- und Brückengerüste aus Zirkoniumdioxidkeramik basierten auf den unterschiedlichen Abformmethoden. Die Gerüste wurden vor der Anprobe verblindet und mit Hilfe von Silikonreplikas die Passgenauigkeit am marginalen Randspalt, an der axialen Wand, am axio-okklusalen Übergang, sowie am okklusalen Messpunkt unter 66x Vergrößerung ermittelt.
Der marginale Randspalt der Restaurationen auf der Basis der konventionellen Abformung betrug 68,64 μm (Medianwert), respektive 60,31 μm bei der digitalen Abformung und unterschied sich statistisch signifikant. Die Passung an der axialen Wand ergab bei der digitalen Abformung 88,27 μm, bei konventioneller 92,13 μm, am axio-okklusalen Übergang 144,78 μm vs. 155,60 μm, am okklusalen Messpunkt 155,57 μm vs. 171,51 μm. Letzter wies einen statistisch signifikanten Unterschied auf (Mann-Whitney U Test, p = 0,05). Die Zeitmessung zeigte eine Ersparnis von 5 min 6 sec beim Quadrantenscan und 1 min 34 sec beim Ganzkieferscan zu Gunsten der digitalen Abformung.
Die Studienergebnisse weisen eine effizientere klinische Arbeitsweise der digitalen gegenüber der konventionellen Abformung nach, die mit einer identischen Passungsqualität einhergeht.
Der römische Kaiser Claudius, dritter Prinzeps nach Augustus, regierte von 41 – 54 n. Chr. und wurde vermutlich von Agrippina, seiner letzten Ehefrau, mit einem Pilzgericht vergiftet. Obwohl er wegen seiner angeborenen Körperbehinderung als dynastischer Nachfolger nicht vorgesehen war, folgte er C. Caligula unmittelbar nach dessen Ermordung auf den Kaiserthron.
Die dem Amt inhärenten strukturellen Schwierigkeiten wurden verstärkt durch seine imbecillitas, die nicht nur Seneca, seinen Zeitgenossen, sondern auch Tacitus, Sueton und Cassius Dio, die ihn nachfolgend zum Sujet ihrer Werke machen, erheblich verunsicherte.
Besonders die Vertreter der antiken Historiographie und Biographie stehen vor der Herausforderung, glaubhaft erklären zu müssen, warum ein imbecillus, der Gegenentwurf zu Augustus, an die Macht gelangen und sie 13 Jahre behalten konnte, ohne unterschiedlich motivierten Anschlägen zum Opfer zu fallen. Aus dieser Diskrepanz entstehen – abhängig von der persönlichen Vorstellung des jeweiligen Autors und den gesellschaftlich bedingten Vorurteilen über Behinderung – unterschiedliche Bilder, die nicht nur das Dilemma des behinderten Kaisers, sondern auch das seiner Interpreten illustrieren: Claudius tritt, je nach Situation und Interaktionspartnern, als willenlos Re-agierender oder als taktisch Agierender auf: Als Regierenden hingegen zeigen ihn die Berichte gar nicht oder selten. Unberechenbarkeit, Übertreibung und Wiederholung werden für die antiken Schriftsteller zum Herrschafts- und Persönlichkeitsmerkmal des Prinzeps, die Antithese zum Narrativ.
Das essentielle Kommunikationsproblem des behinderten Claudius scheint, folgt man den Berichten, aus einem bewussten oder charakterbedingten Verzicht auf die patria potestas zu resultieren, mit katastrophalen Auswirkungen auf sein Ansehen als Prinzeps. Die von allen Autoren kritisierte Abhängigkeit von den Mitgliedern seines Hofes, zu deren prominentesten Opfern die junge und unerfahrene Messalina und letztlich Claudius selbst zählen, erregt Spott und Unmut der Plebs und verunsichert die Aristokratie durch eine als willkürlich empfundene Rechtsprechung.
Andererseits verweisen die Darstellungen seiner erstaunlichen Amtserhebung, des siegreichen Britannienfeldzugs, des abrupten Sturzes Messalinas, aber auch Agrippinas plötzlicher Angst, die sie zum Gattenmord veranlasst, auf einen Kaiser, der bei Bedarf offenbar recht gezielt das Klischee des imbecillus als Mittel des Machterhalts zu bedienen vermag.
So entsteht aus Claudius, abhängig vom gesellschaftlichen Status Behinderter, in den antiken und modernen Schriften, die sich mit ihm und seiner Amtsführung befassen, die paradoxe Figur eines schuldigen Opfers bzw. unschuldigen Täters: Sowohl Opfer- als auch Täterrolle sind a priori durch die Behinderung gerechtfertigt und relativiert.
Die Arbeit untersucht am Fall der Religionspolitik in den Verfassungsgebungsprozessen der deutschen Bundesländer, ob Verfassungen eher das Ergebnis von Konflikt oder Konsens sind. Die Länderverfassungen zeigen eine hohe religionspolitische Vielfalt, die in dieser Arbeit erstmals vollständig erhoben und systematisiert wird. Die religionspolitischen Normen der Verfassungen werden vier Typen von Religionspolitik zugewiesen (Statusverleihung, Redistribution, Religionsfreiheit und Restriktion). Für die Verbreitung der einzelnen Normen werden die historischen Verläufe von 1919 bis 2015 analysiert und Trends beschrieben. Für die Erklärung der Unterschiede entwickelt die Arbeit ein ökonomisches Modell des Parteienwettbewerbs, in dem religiöse Parteien, insbesondere CDU und CSU, die zentrale Rolle spielen. In dem Modell wird angenommen, dass religiöse Parteien (einschließlich der Union) nur dann die Interessen nicht- und andersreligiöser Wähler berücksichtigen – wenn dies für ihren Wahlerfolg notwendig ist. Die zentrale Idee des Modells ist, dass religionspolitische Policies unterschiedliche Kosten und Nutzen für religiöse und nichtreligiöse Wähler implizieren. Diesen Kosten und Nutzen müssten religiöse Parteien Rechnung tragen, wenn sie Politikergebnis und Wahlergebnis gleichzeitig optimieren – d.h. rational abwägend agieren. Aus der Überprüfung dieses Modells lässt sich ableiten, ob die Religionspolitik in Verfassungen das Ergebnis offener Verhandlungen mit dem Ziel der Herstellung bzw. Abbildung eines gesellschaftlichen Konsenses sind – oder ob sie vielmehr das Ergebnis harter politischer Auseinandersetzungen sind und die gesellschaftlichen Machtverhältnisse reproduzieren. Je weniger Ersteres und je mehr Zweiteres gegeben ist, desto weniger können Verfassungen voraussetzungslos als Rahmen oder Bezugspunkt eines fairen politischen Wettstreits dienen. Die Arbeit belegt dieses Modell empirisch mit einem Mixed-Methods-Ansatz aus multiplen Regressionsanalysen und fuzzy set Qualitative Comparative Analysis (fsQCA).
Einleitung: Sirolimus, ein mechanistic target of rapamycin (mTOR)-Inhibitor, wurde trotz fehlender Zulassung zur Rejektionsprophylaxe nach Lebertransplantation als Reserveimmunsuppresivum in individuellen Indikationen eingesetzt. Als weiterer mTOR-Inhibitor wurde Everolimus 2012 für diese Indikation zugelassen. Ziel dieser Arbeit war eine systematische Analyse klinischer und pharmakologischer Daten im Rahmen einer Konversion einer Sirolimus- zu einer Everolimus-basierten Immunsuppression im Langzeitverlauf nach Lebertransplantation
Methoden und Patienten: Es erfolgte eine retrospektive, systematische Analyse biochemischer und klinischer Daten vor und nach der Umstellung bei 16 Patienten (Männer/Frauen, 8/8) nach Lebertransplantation, bei denen eine Umstellung der Immunsuppression von Sirolimus auf Everolimus erfolgt war mit besonderem Augenmerk auf Transplantatfunktion, Nierenfunktion und metabolische Komorbiditäten. Die statistische Analyse erfolgte mittels des Friedman-Tests zum Vergleich mehrerer abhängiger Stichproben, worauf bei signifikantem Ergebnis eine Post-hoc-Analyse folgte.
Ergebnisse: Die Patienten waren im Median (Minimum-Maximum) 10,1 (4-22,3) Jahre nach Lebertransplantation von Sirolimus auf Everolimus umgestellt worden. Bei der Mehrheit der Patienten war keine Dosisanpassung nach der Umstellung notwendig. Im Beobachtungszeitraum wurden keine Transplantatabstoßung oder klinisch relevante Komplikationen beobachtet. Zudem wurden vor und nach Umstellung keine signifikanten Unterschiede hinsichtlich Nierenfunktion, Diabetes mellitus oder arteriellem Blutdruck festgestellt. Die Bilirubin-Serumkonzentration war nach der Umstellung auf Everolimus niedriger, während AST-, ALT- und Triglycerid-Serumkonzentrationen signifikant höher waren.
Zusammenfassung: Diese Arbeit stellt die erste systematische Analyse der Konversion einer Sirolimus- auf eine Everolimus-basierten Immunsuppression im Langzeitverlauf nach Lebertransplantation dar. Relevante Komplikationen einschließlich Abstoßungen wurden nicht beobachtet.
Die Verarbeitung während des Hörprozesses von Säugetieren verläuft von der Kochlea mit den inneren und äußeren Haarsinneszellen (äHZ) über afferente Nervenbahnen bis zum auditorischen Kortex (AK). Die daran beteiligten Schaltstationen und deren Funktion sind überwiegend aufgeklärt. Die Hörbahn ist zudem in besonderer Weise durch efferente Rückkopplungen gekennzeichnet, die interne Modulationen sowie sekundäre Reaktionen auf den Reiz ermöglichen. Anatomisch betrachtet verlaufen efferente Projektionen vom AK zu sämtlichen am Hörprozess beteiligten Kerngebieten. Vom Olivenkomplex erfolgt über mediale und laterale Fasern eine Innervation der äHZ bzw. des Hörnervs. Trotz der gut beschriebenen Anatomie ist die funktionelle Beziehung zwischen dem AK und der Peripherie weitgehend ungeklärt. In der vorliegenden Arbeit wurde der funktionelle Zusammenhang vom AK zu den äHZ in der mongolischen Wüstenrennmaus untersucht. Dafür wurde entweder eine pharmakologische Blockierung der Kortexaktivität durch den Natriumkanalblocker Lidocain erzeugt oder eine Aktivierung der Kortexaktivität durch die Anwendung elektrischer Reize ausgelöst. Der Einfluss der Manipulationen wurde in der Kochlea mittels Messungen von Distorsionsprodukt-otoakustischen Emissionen (DPOAE) erfasst. Diese entstehen durch die nichtlineare Verstärkung leiser Schallsignale durch die äHZ zur Erzielung hoher Sensitivität und Frequenzauflösung. Die DPOAE treten als kubische (z. B. 2f1-f2) und quadratische (z. B. f2-f1) Verzerrungen auf und geben Aufschluss über unterschiedliche Parameter der äHZ-Verstärkungsfunktion.
Die Lidocainversuche wurden entweder kontra- oder ipsilateral zur DPOAE-Messung durchgeführt. In beiden Konstellationen traten nach der Lidocaininjektion Erhöhungen und Verringerungen der DPOAE-Pegel im Vergleich zur Basismessung oder unveränderte DPOAE-Pegel auf. Im Mittel lagen die Pegeländerungen bei ca. 11 dB, in Einzelfällen betrugen sie bis zu 44,8 dB. In den Gesamtdaten waren die Effekte nach kontralateraler Injektion oft signifikant größer als nach ipsilateraler Injektion. Ebenso waren die Effekte in der 2f1-f2 Emission meist signifikant größer als in der f2-f1 Emission. Zudem wurde beobachtet, dass signifikant größere Effekte bei einer Stimulation mit Pegeln von 60/50 dB SPL im Vergleich zu 40/30 dB SPL erreicht wurden. Grundsätzlich trat in allen Datensätzen eine Reversibilität der DPOAE-Pegel mit zunehmender Versuchsdauer auf. Die Effekte waren direkt nach der Injektion am größten und erreichten je nach Stimuluspegel und Emissionstyp nach 28-100 min die Basispegel. In keinem der Datensätze lag eine Abhängigkeit der im Kortex gereizten charakteristischen Frequenz (CF) zum betroffenen Frequenzbereich in der Kochlea vor. Die Effekte waren über den gesamten gemessenen Frequenzbereich von 1-40 kHz nachweisbar. Allerdings waren die Frequenzbereiche von 1-10 kHz und 30,5-40 kHz besonders stark von der Lidocaininjektion betroffen.
Auch nach der elektrischen Reizung wurden die drei oben beschriebenen Effekttypen definiert. Mit 54,6 % war der Prozentsatz unveränderter DPOAE-Pegel allerdings sehr hoch. In den anderen beiden Kategorien konnten zusätzlich Differenzierungen im zeitlichen Verhalten der DPOAE-Pegel vorgenommen werden. In 21,6 % bzw. 16,5 % der Datensätze waren die Verringerungen bzw. Erhöhungen bis zum letzten gemessenen Zeitpunkt nach der elektrischen Reizung irreversibel und nur in jeweils 2,8 % der Datensätze war eine Reversibilität zu verzeichnen. In diesen Fällen war die Effektdauer mit im Mittel 31 bzw. 25 min kürzer als in den Lidocainversuchen. Auch die Effektstärken waren mit maximal 23,9 dB und je nach Effekttyp im Mittel 5,1-13,7 dB geringer als nach der Lidocaininjektion. Die größten Effekte traten in einem mittleren Stimuluspegelbereich von 45-55 dB SPL auf. Wiederum konnte keine Abhängigkeit des betroffenen Frequenzbereichs von der kortikal gereizten CF nachgewiesen werden. In Einzelfällen waren auf DPOAE-Ebene nur die Frequenzen ober- und unterhalb der kortikalen CF beeinflusst, wohingegen bei der CF selbst keine Effekte auftraten.
Durch Kontrollexperimente (Salineinjektion bzw. Einführen der Elektrode ohne elektrische Reizung) konnte nachgewiesen werden, dass die Effekte durch die Manipulation der Kortexaktivität hervorgerufen wurden. Somit liegt eine funktionelle Beziehung zwischen dem AK und der Peripherie vor, die langanhaltende massive Ausmaße annehmen kann. Die Effektrichtung ist vermutlich durch die exzitatorisch oder inhibitorisch wirkenden Neurone vom Colliculus inferior zum Olivenkomplex bedingt. Die größeren Effekte in der kontralateralen Konfiguration lassen sich durch die Diskrepanz in der Anzahl der gekreuzten (2/3) und ungekreuzten (1/3) medialen Efferenzen erklären. Die kubischen Komponenten der äHZ-Verstärkungsfunktion scheinen stärker beeinflusst zu sein als die quadratischen Komponenten, was in größeren Pegeländerungen in der 2f1-f2 Emission resultiert. Die teils großen Effektstärken sowie die nicht vorhandene Frequenzabhängigkeit zwischen AK und Kochlea sind vermutlich auf den großen Kortexbereich zurückzuführen, der von den gewählten Injektionsvolumina bzw. elektrischen Reizstärken betroffen war. Die großen Effekte im mittleren Stimuluspegelbereich lassen sich sowohl mit einer möglichen Schutzfunktion der Efferenzen vor zu lauten Schallereignissen als auch mit einer Verbesserung des Signal-Rausch-Verhältnisses zur erleichterten Detektion akustischer Signale in Einklang bringen. Insgesamt deuten die Ergebnisse darauf hin, dass die Aktivität des AK einen starken Einfluss auf periphere auditorische Mechanismen hat, wodurch die kochleäre Verarbeitung akustischer Signale je nach kortikalem Verarbeitungsstatus massiv modifiziert werden kann.
Die chemischen und physikalischen Eigenschaften eines Festkörpers sind vom inneren Aufbau des Festkörpers abhängig. Die Methode der Wahl zur Bestimmung von Kristallstrukturen sind Beugungsexperimente. Fehlordnungen in den Kristallstrukturen werden mit Beugungsexperimenten häufig nur unzureichend ausgewertet oder ignoriert. In dieser Arbeit wurden die (möglichen) Stapelfehlordnungen der Aminosäuren DL-Norleucin und DL-Methionin, sowie von Chloro (phthalocyaninato)aluminium(III) untersucht. Dazu wurden Gitterenergieminimierungen mit Kraftfeld- und quantenchemischen Methoden an einem Satz geordneter Modellstrukturen durchgeführt.
In den Kristallstrukturen der α- und β-Phasen von DL-Norleucin ordnen sich die Moleküle in Doppelschichten an und bilden jeweils eine Schichtstruktur mit unterschiedlicher Stapelsequenz. Röntgenbeugungsexperimente an Kristallen dieser Verbindung zeigen charakteristische diffuse Streuung. Die durchgeführten Gitterenergieminimierungen reproduzieren die experimentelle Stabilitätenreihenfolge der beiden Polymorphe von DL-Norleucin. Die berechneten Gitterenergien zeigen, dass es für DL-Norleucin bevorzugte Stapelsequenzen gibt. Die Gitterenergien und Molekülstrukturen einer einzelnen Doppelschicht sind dabei von der Anordnung benachbarter Doppelschichten abhängig. Zudem wurden Strukturmodelle mit Stapelsequenzen aufgebaut, die aus kristallographischer Sicht möglich sind, jedoch experimentell nicht beobachtet wurden, und deren Gitterenergie berechnet. Diese Stapelsequenzen liefern im Vergleich zu den energetisch günstigsten Stapelsequenzen einen signifikanten Energieverlust und treten daher selten auf. Ausgehend von den Ergebnissen der Gitterenergieminimierungen mit DFT-D-Methoden wurden Stapelwahrscheinlichkeiten mit Hilfe der Boltzmann-Statistik berechnet. Es wurde ein großes geordnetes Modell mit einer Stapelsequenz gemäß der Stapelwahrscheinlichkeiten aufgebaut. Dieses Modell wurde verwendet, um Beugungsexperimente zu simulieren und mit experimentellen Daten zu vergleichen. Die theoretischen und experimentellen Beugungsdaten waren in guter Übereinstimmung.
Die Moleküle in den Kristallstrukturen der α- und β-Phasen von DL-Methionin bilden Doppelschichten. Die beiden Phasen unterscheiden sich in der Stapelung der Doppelschichten und der Molekülkonformation. Es wurden Gitterenergieminimierungen sowohl mit Kraftfeld-Methoden als auch mit DFT-DMethoden an geordneten Modellen mit unterschiedlichen Stapelsequenzendurchgeführt. Die experimentell bestimmte Stabilitätenreihenfolge der Polymorphe von DL-Methionin bei tiefen Temperaturen wurde durch die Ergebnisse der kraftfeldbasierten Rechnungen reproduziert. Die Modellstrukturen wurden während den Rechnungen moderat verzerrt. Die Bandbreite der relativen Energien aller Modelle ist relativ gering, sodass eine Stapelfehlordnung aus thermodynamischer Sicht nicht ausgeschlossen werden kann. In der Regel liefern Gitterenergieminimierungen mit DFT-D Methoden genauere Ergebnisse. Die Modellstrukturen wurden während den Rechnungen nur leicht verzerrt. Allerdings unterscheidet sich das Energieranking zwischen den Kraftfeld- und DFT-D-Methoden deutlich. Die experimentell bestimmte Stabilitätenreihenfolge der Polymorphe von DL-Methionin wurde mit DFT-D-Methoden nicht reproduziert. Die Energieunterschiede zwischen den beiden Polymorphen (ΔE = 1,60 kJ∙mol−1 (DFT-D2) bzw. ΔE = 0,83 kJ∙mol−1 (DFT-D3)) sind relativ gering und liegen im Fehlerbereich der Methode. Die Bandbreite der relativen Energien aller Strukturmodelle beträgt nur etwa 1,8 kJ∙mol−1. Auf dieser Grundlage ist eine Stapelfehlordnung in den Kristallstrukturen von DL-Methionin möglich, jedoch nicht experimentell beobachtet. Nicht nur die Kraftfeld-,sondern auch die DFT-D-Methoden scheinen für die Berechnung der Gitterenergien für das System DL-Methionin nicht genügend genau zu sein. Die erhaltenen relativen Energien sollten daher mit Vorsicht betrachtet werden.
Chloro(phthalocyaninato)aluminium(III) (AlPcCl) bildet eine Schichtstruktur, in der sich die Moleküle zu Doppelschichten zusammenlagern. Die 1984 durchgeführte Kristallstrukturbestimmung [98] lieferte auf Grund der schlechten Datenqualität nur eine ungenaue Kristallstruktur. Die asymmetrische Einheit enthält zwei Moleküle, von denen das eine Molekül geordnet, das andere fehlgeordnet ist. Die Kristallstruktur von AlPcCl ist fehlgeordnet, weil eine einzelne Doppelschicht von Molekülen eine tetragonale P4/n-Symmetrie aufweist, die vier symmetrieäquivalente Möglichkeiten bietet, eine zweite Doppelschicht auf einer ersten Doppelschicht zu platzieren. Mit Hilfe der OD-Theorie wurde ein Satz geordneter Modelle mit verschiedenen Stapelsequenzen aufgestellt und die Gitterenergie zunächst mit Kraftfeld-Methoden und anschließend mit DFT-DMethoden berechnet. Auf Grund unzureichender Parametrisierung, musste das Kraftfeld an das System AlPcCl angepasst werden. Die Modellstrukturen werden während den Kraftfeld-Rechnungen nur leicht verzerrt. Die berechneten Gitterenergien hängen allerdings stark von der verwendeten Parametrisierung und den Atomladungen ab und sollten daher mit Vorsicht betrachtet werden. Genauere Ergebnisse erzielten Gitterenergieminimierungen mit DFT-D-Methoden. Die verschiedenen Stapelsequenzen haben eine ähnliche Energie, was die Stapelfehlordnung in der Kristallstruktur von AlPcCl erklärt. Die Überlagerung der vier energetisch günstigsten geordneten Stapelsequenzen führt zu einer gemittelten Struktur, die sehr gut die fehlgeordnete experimentelle Kristallstruktur von AlPcCl erklärt.