Doctoral Thesis
Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178)
Is part of the Bibliography
- no (178)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
Since 2009 has the central Nigerian Nok Culture – until then primarily known for its highly artistic terracotta figurines and early evidence of iron working in the first millennium BCE – been the focus of a research project by the Goethe University Frankfurt/Main, Germany. The analysis of Nok sculptures has so far been almost entirely restricted to their stylistic features which show such great similarities that one hypothesis of the Frankfurt project has been the possible central production of these artfully crafted figurines.
This volume, written within the scope of a dissertation project completed in 2015, challenges this hypothesis by using scientific materials analysis. Combining the results of the mineralogical and geochemical analyses as well as geographic and geological observations, an alternative model for the organisation and procedure of the manufacture of the famous Nok terracottas is suggested.
They were – as the domestic pottery that is used for comparison and differentiation in this study – manufactured with locally available raw materials (clay and temper) but in different manufacturing sequences with regard to temper and clay composition. The terracottas’ clay was obviously reserved for their production only, demonstrating – aside from stylistic similarities – the value these figurines had during the Nok Culture.
Metal-organic frameworks (MOFs) have emerged as a promising class of crystalline porous inorganic-organic hybrid materials showing a wide range of applications. In order to realize the integration of MOFs into specific devices, this thesis mainly focuses on the controlled growth and the properties of highly oriented surface-mounted metal-organic frameworks (SURMOFs).
The stepwise layer-by-layer (LbL) growth method exhibits vast advantages for the controllable growth of SURMOFs regarding the crystallite orientation, film thickness and homogeneity. However, up to date, only a few MOFs have been demonstrated to be suited for this protocol. So the first project of this thesis was designed to extend the applicability of the LbL growth. To this end, a semi-rigid linker based [Cu2(sdb)2(bipy)] (sdb = 4,4’-sulfonylbiphenyl dicarboxylate; bipy = 4,4’-bipyridine) MOF was chosen. Employing the LbL growth, [Cu2(sdb)2(bipy)] SURMOFs were successfully grown onto both pyridyl- and carboxyl-terminated surfaces at the temperature range of 15-65 °C. Interestingly, the orientation of the SURMOFs largely depends on temperature on both surfaces. At low temperatures (below 40 °C), SURMOFs with exclusive [010] orientation are obtained. In contrast, at high temperatures (40-65 °C), [001] oriented SURMOF growth is favored. A novel growth mode was demonstrated, which is, instead of surface chemistry, the temperature-induced ripening processes and the tendency to minimize surface energies can dominate the SURMOF growth.
Inspired by the advantages of LbL deposition of isoreticular SURMOFs, the second project was conceived to grow multivariate SURMOFs (MTV-SURMOFs) using mixed dicarboxylate linkers. We advance a hypothesis that linker acidity (expressed by the pKa values) may have an influence on the oriented growth of MTV-SURMOFs. To test the hypothesis, seven isoreticular [Cu2L2(dabco)] (L = single kind of dicarboxylate linker; dabco = 1,4-diazabicyclo[2.2.2]octane) SURMOFs were grown onto pyridyl-terminated surfaces at 60 °C. The quality of [001] orientation is greatly affected by the acidity of the linkers. With this observation, we deposited a series of [Cu2Lm2(dabco)] (Lm = mixed dicarboxylate linkers) SURMOFs under the same conditions. [Cu2Lm2(dabco)] SURMOFs with exclusive [001] orientation are obtained when the growth solution contains two linkers of relatively high pKa value or more than two kinds of linkers (independent of the pKa values), while the mixtures of ligands with relatively low pKa values or a high content of low pKa valued linkers can result in mis-oriented growth of SURMOFs with unexpected [100] orientation.
Moreover, the LbL growth shows enormous potential in the rational construction of functional SURMOFs. Therefore, the third project of this thesis was devised to deposit SURMOFs containing redox-active species. For this, the 4,4’-biphenyldicarboxylic acid (H2(bpdc)) linker was functionalized with ferrocene (Fc) and dimethyl ferrocene (Me2Fc) moieties. [Cu2(bpdc-amide-Fc)2(dabco)] SURMOF (Fc-SURMOF) is perfectly grown along the [100] direction, while mis-oriented growth of [Cu2(bpdc-amide-Me2Fc)2(dabco)] SURMOF (Me2Fc-SURMOF) was observed. Surprisingly, Fc-SURMOF shows excellent electrochemical properties due to the reversible oxidation and reduction of the ferrocene moieties in the oriented pores, while the Me2Fc-SURMOF was found to be a closely packed insulating layer since no extensive charge transfer is observed. A diffusion controlled mechanism of redox reaction is proposed, where the diffusion of the counter anions in the pores limits the current.
Besides the LbL growth protocol, the spin-coating technique is also promising for the oriented growth of SURMOFs. Driven by the specific applications, the fourth project of this thesis was planned to grow functional SURMOFs containing catalytically active units. The Keggin-type polyoxometalates (POMs) with high catalytic activities were chosen to functionalize the HKUST-1 SURMOFs. Combining the technique with methanol vapor induced growth, a series of POM functionalized HKUST-1 SURMOFs (denoted as POM@HKUST-1 SURMOFs) were controllably deposited onto pyridyl-terminated surfaces. The SURMOFs exhibit great potential as electrocatalysts in electrochemical devices due to the excellent redox properties of POMs. In addition, the PTA@HKUST-1 (PTA = phosphotungstic acid) SURMOF can be employed as an ideal platform for the selective loading of methylene blue (MB) dye with high efficiency. Owing to the strong binding between the dye molecules and the framework, the MB dye cannot be desorbed by ion exchange and MB loaded PTA@HKUST-1 SURMOF shows reliable redox properties under inert conditions, further confirming the application potential in electrochemical devices.
Melt segregation inside the earth consists of two different processes: 1) Generation of partially molten rock and 2) separation of melt, produced from partially molten rock, from the solid residual matrix. This thesis focuses on the later process. The 2 phase flow dynamics combines the study of flow dynamics of melt and matrix. Several studies have given the background theoretical frameworks for the flow dynamics of melt inside the earth. [McKenzie, 1984] summarizes the studies of [Ahern and Turcotte, 1979; Frank, 1968; Sleep, 1975] and gives a complete set of governing equations for the 2-phase flow problem.
[Bercovici et al., 2001] gives a general formulation considering the univariate system of equations related to matrix and melt flow which includes the interfacial surface force. The assumption of melt having negligible viscosity compare to the matrix has been abandoned. Therefore, based on these formulations, we have constructed our numerical model and thereafter a fortran code PERCOL2D to get an insight of melt percolation process through porous media. Additionally, we have used the Helmhotz decomposition, which splits a smooth and rapidly decaying vector field into an irrotational vector field and an incompressible vector field [Srámek, 2007], for matrix and fluid viscosity in order to lower the number of linearly independent variables to minimize the computational complications. The melt residing at inter-granular areas of lithosphere, forms an interconnected network even at low porosity. Therefore, being less dense than the matrix, melt moves up through porous media due to its buoyancy. Compaction of matrix, which occurs to compensate the melt separation, is considered in this thesis, where the effective bulk and shear viscosity of matrix are function of melt fraction. We have effective bulk viscosity of matrix as inversely proportional to melt fraction. Porosity dependence of effective bulk and shear viscosity leads to stronger melt focusing in highly porous region like mid ocean ridges [Katz, 2008] since the ratio of bulk and shear viscosity is smaller (< 10) than the constant viscosity case for the porous waves having non dimensional amplitude 5% or higher. Moreover, it is observed in [Richard et al., 2012] that the solitary wave formed in porosity dependent viscous matrix settings are steeper than the one formed in the constant matrix viscosity setting.
Firstly some 1D numerical experiments with PERCOL2D have been carried out using fixed and periodic boundary conditions for zero source term (i.e. no melting or no freezing) and negligible surface tension.
3 series of model setups with different initial conditions have been carried out varying the width, non-dimensional amplitude and the background porosity value of the initial input of porous wave.
A mathematical derivation for 1D solitary wave solution for the two phase flow through porosity dependent compacting media, is obtained in this thesis which is different than the study of [Barcilon and Lovera, 1989; Barcilon and Richter, 1986; Scott and Stevenson, 1984; Spiegelman, 1993a,b] as the effective viscosity of matrix is constant there.
Although [Simpson and Spiegelman, 2011] gives the solitary wave solutions in 1D, 2D and 3D considering the porosity dependent effective viscosity of the matrix, but using the small background porosity approximation, they neglect the background porosity (i.e φ0) and therefore the effect of variation of compaction lengths, which causes variation in the shape and dynamics of the solitary wave. Therefore, the study [This thesis, Richard et al., 2012] can be used for more general purpose. Solitary waves in varying viscous medium, are steeper (cf fig.5.1) compared to the one in constant viscous medium and their speed decreases as an inverse function of the background porosity. Additionally, this analytical solution is used in our code PERCOL2D and also in FDCON for numerical benchmarking (1D) of PERCOL2D.
The role of melt grain contiguity is considered in the revised viscosity formulation [Schmeling et al., 2012] based on elastic moduli theory of a fluid filled poro-elastic medium. This formulation is used in this thesis to produce a comparative dispersion relationship between speed of the wave and the non dimensional amplitude of porous wave, based on both the viscosity formulations (fig. 6.20) where one can see that the model based on [Bercovici et al., 2001] formulation, converges to the same dispersion relationship obtained from [Simpson and Spiegelman, 2011]. Whereas, the dispersion relationship using [Schmeling et al., 2012] formulations, shows time-dependent decrease of phase velocity with increasing amplitude and it is not yet clear that whether these solutions converge to steady state porosity waves before the porosity becomes 1.
Um die Funktionsweise von biologischen Prozessen zu untersuchen, werden Trigger-Signale benötigt, die die Prozesse initiieren können, ohne dabei dem Organismus zu schaden oder Nebenreaktionen hervorzurufen. Ein geeignetes Trigger-Signal stellt Licht dar, da es bei geeigneter Wellenlänge nichtinvasiv ist und nur wenige biologische Prozesse durch Licht gesteuert werden. Um einen Prozess mit Licht aktivierbar zu machen, benötigt man eine lichtsensitive Einheit, beispielsweise eine photolabile Schutzgruppe, die durch die Bestrahlung mit Licht einen zuvor blockierten Bereich freisetzt.
Hauptziel dieser Arbeit war es die Zweiphotonen-Technik für die Photolyse von photolabil geschützten Oligonukleotiden nutzbar zu machen und das Photolyseergebnis zu visualisieren.
Dazu wurden zunächst verschiedene mit Zweiphotonen-sensitiven Schutzgruppen modifizierte Phosphoramidite synthetisiert und über Festphasensynthese in Oligonukleotide eingebaut. Die Oligonukleotide mit den erstmals neu eingebauten Schutzgruppen ANBP und hNDBF wurden zunächst auf ihre Einphotonen-Eigenschaften, wie Schmelzpunkt, Absorptionsverhalten und Quantenausbeute untersucht. Weiterhin wurden erste Versuche zur wellenlängenselektiven Photolyse von hNDBF- und ANBP-geschützten Oligonukleotiden durchgeführt.
Die Existenz eines Zweiphotonen-induzierten Effekts kann durch die quadratische Abhängigkeit des erzeugten Effekts von der eingestrahlten Leistung nachgewiesen werden. Dazu wurde ein Verdrängungs-Assay entwickelt, dessen Doppelstrang-Sonde aus einem FRET-Paar besteht. Der Fluorophor-markierte Strang dient dabei als Gegenstrang zum photolabil geschützten Strang. Durch einen Thiol-Linker am photolabil geschützten Oligonukleotid konnte dieses erfolgreich in Maleimid-Hydrogele immobilisiert werden und der Verdrängungs-Assay im Gel durchgeführt werden. Die immobilisierten Stränge enthielten DEACM bzw. ANBP Schutzgruppen. Neben der quadratischen Abhängigkeit der Photolyse von der eingestrahlten Leistung konnten in diesen Hydrogelen auch 3D-aufgelöste Photolysen realisiert werden, die eindeutig die Zwei-Photonen-Photolyse belegen. Diese 3D-Experimente wurden zusammen mit Dr. Stephan Junek am MPI für Hirnforschung durchgeführt. Durch die Wahl zweier unterschiedlicher Sequenzen für die dTDEACM und dGANBP modifizierten Stränge und zwei unterschiedlicher Fluorophore für die Doppelstrang-Sonden, konnte die orthogonale Zweiphotonen-Photolyse gezeigt werden. Um zu zeigen, dass die Zweiphotonen-Photolyse von Oligonukleotiden auch in Organismen realisiert werden kann ohne das biologische System zu schädigen, wurde versucht den Verdrängungs-Assay auch in Zellen durchzuführen. Durch die Verwendung der Patch-Clamp-Technik in Zusammenarbeit mit Dr. Stephan Junek am MPI für Hirnforschung konnten die Stränge über die Elektrolyt-Lösung in Hippocampus-Neuronen eingebracht werden und durch Zweiphotonen-Bestrahlung dort photolysiert werden, was zu einem deutlichen Fluoreszenzanstieg führte. Durch die angeschlossene Patch-Clamp-Pipette konnten so zusätzlich elektrophysiologische Messungen durchgeführt werden, die zeigten, dass die durchgeführte Zweiphotonen-Bestrahlung nicht invasiv für die Zellen ist.
Die durchgeführten Experimente beweisen, dass Zweiphotonen-sensitive Schutzgruppen auf Oligonukleotiden photolysiert werden können und dass ihr Einsatz auch in biologischen Systemen möglich ist. Der entwickelte Verdrängungs-Assay ermöglicht es weiterhin neue photolabile Schutzgruppen auf Oligonukleotiden auf ihre Zweiphotonen-Sensitivität zu untersuchen.
Ein weiteres Projekt beschäftigte sich mit der Synthese der neuen Schutzgruppe DMA-NDBF-OH, die in-silico von der Arbeitsgruppe von Prof. Andreas Dreuw aus Heidelberg als effiziente Zweiphotonen-sensitive Schutzgruppe beschrieben wird. Es wurde versucht DMA-NDBF-OH über zwei Syntheserouten herzustellen. Eine Route basierte auf der Einführung der Funktionalitäten an einem unmodifizierten Dibenzofuran, die leider an der Bromierung der Seitenkette scheiterte. Die zweite Syntheseroute wurde in Anlehnung an die NDBF-Synthese von Deiters et al., bei der das Dibenzofuran durch eine Kondensation zweier modifizierter Benzolringe und einem Pd-katalysierten Ringschluss aufgebaut wird, durchgeführt. Mit dieser Syntheseroute konnte das DMA-NDBF-OH erfolgreich synthetisiert werden. Aufgrund ihrer starken bathochromen Verschiebung sollte sich diese Schutzgruppe hervorragend für die wellenlängenselektive Photolyse auf Ein- und Zweiphotonenebene eignen.
In this thesis, the production of charged kaons and Φ mesons in Au+Au collisions at sqrt sAuAu = 2.4 GeV is studied. At this energy, all particles carrying open and hidden strangeness are produced below their respective free nucleon-nucleon threshold with the corresponding so-called excess energies: sqrt sK+ exc = -0.15 GeV, sqrt sK- exc = -0.46 GeV, sqrt sΦ exc = -0.49 GeVGeV. As a consequence, the production cross sections are very sensitive to medium effects like momentum distributions, two- or multistep collisions, and modification of the in-medium spectral distribution of the produced states [1]. K+ and K- mesons exhibit different properties in baryon dominated matter, since only K- can be resonantly absorbed by nucleons. Although strangeness exchange reactions have been proposed to be the dominant channel for K- production in the analyzed energy regime, the production yield and kinematic distributions could also be explained in smaller systems based on statistical hadronization model fits to the measured particle yields, including a canonical strangeness suppression radius RC, and taking the Φ feed-down to kaons into account [2, 3]. For the first time in central Au+Au collisions at such low energies, it is possible to reconstruct and do a multi differential analysis of K- and Φ mesons. In principle, this should be the ideal environment for strangeness exchange reactions to occur, as the particles are produced deeply sub-threshold in a large and long-living system. Therefore, it is the ultimate test to differentiate between the different sources for K- production in HIC.
In total 7.3x10exp9 of the 40% most central Au(1.23 GeV per nucleon)+Au collisions are analyzed. The data has been recorded with the High Acceptance DiElectron Spectrometer HADES located at Helmholtzzentrum für Schwerionenforschung GSI in April/May 2012. A substantially improved reconstruction method has been employed to reconstruct the hadrons with high purity in a wide phase space region.
The estimated particle multiplicities follow a clear hierarchy of the excess energy: 41.5 ± 2.1|sys protons at mid-rapidity per unit in rapidity, 11.1 ± 0.6|sys ± 0.4|extrapol π-, (3.01 ± 0.03|stat ± 0.15|sys ± 0.30|extrapól) x10 exp -2 K+, (1.94 ± 0.09|stat ± 0.10|sys ± 0.10|extrapol)x10 exp -4 K- and (0.99 ± 0.24|stat ± 0.10|sys ± 0.05|extrapol)x10 exp -4 Φ per event. The multiplicities of the strange hadrons increase more than linear with the mean number of participating nucleons hAparti, supporting the assumption that the necessary energy to overcome the elementary production threshold is accumulated in multi-particle interactions. Transport models predict such an increase, but are overestimating the measured particle yield and are not able to describe the kinematic distributions of K+ mesons perfectly. However, the best description is given by the IQMD model with a density dependent kaonnucleon potential of 40 MeV at nuclear ground state density.
The K-=K+ multiplicity ratio is constant as a function of centrality and follows with (6.45 ± 0.77)x10 exp -3 the trend of increasing with beam energy indicated from previous experiments [4]. The effective temperature of K- TK+eff = (84 ± 6) MeV is found to be systematically lower than the one of K+ TK+eff = (104 ± 1) MeV, which has also been observed by the other experiments.
The Φ=K- ratio is with a value of 0.52 ± 0.16 higher than the one obtained at higher center-of-mass energies and smaller systems. This behavior is predicted from a tuned version of the UrQMD transport model [5], when including higher mass baryonic resonances which can decay into Φ mesons and from statistical hadronization models when suppressing open strangeness canonically. The found ratio is constant as a function of centrality and results with a branching ratio of 48.9%, that ~ 25% of all measured K- originate from Φ feed-down decays. A two component PLUTO simulation, consisting of a pure thermal and a K- contribution originating from Φ decays, can fully explain the observed lower effective temperature in comparison to K+ and the shape of the measured rapidity distribution of K-. As a result, we find no indication for strangeness exchange reactions being the dominant mechanism for K- production in the SIS18 energy regime, if taking the contribution from Φ feed-down decays into account.
The hadron yields for the 20% most central collisions can be described by a statistical hadronization model fit with the chemical freeze-out temperature of Tchem = (68 ± 2) MeV and baryochemical potential of μB = (883 ± 25) MeV, which is higher than expected from previous parameterizations. The analysis of the transverse mass spectra of protons indicate a kinetic freeze-out temperature of Tkin = (70 ± 4) MeV and radial flow velocity of βr = 0.43 ± 0.01, which is in agreement with the parameters obtained from the linear dependence of the effective temperatures on the particle mass Tkin = (71.5 ± 4.2) MeV and βr = 0.28 ± 0.09.
The Hepatitis C virus (HCV) infects more than 170 million individuals worldwide and causes challenging HCV-related diseases. Unfortunately, there is no vaccine available. Therefore, a better understanding of the HCV life cycle is urgently needed to develop more effective and better tolerated therapies.
It has been reported that the secretory pathway plays an essential role for the release of HCV, and the SNARE complexes are a central factor controlling intracellular vesicular trafficking. Recently, our group observed that α-taxilin that binds to free syntaxin 4 prevents the SNARE complex formation and exerts an inhibitory effect on the release of HCV particles. Therefore, it was analyzed whether the t-SNARE protein syntaxin 4 is involved in the HCV life cycle.
An increased intracellular amount of syntaxin 4 was found in HCV-positive cells, while the level of syntaxin 4-specific transcripts was decreased as observed in HCV-positive Huh7.5 cells and in HCV-infected primary human hepatocytes (PHH). Since in HCV-positive cells a significant longer half-life of syntaxin 4 was found, the decreased expression is overcompensated, leading to the elevated amount of syntaxin 4. Overexpression of syntaxin 4 increases the amount of secreted infectious viral particles, while silencing of syntaxin 4 expression decreases the number of released viral particles, which indicates that HCV could use the SNARE-dependent secretory pathway for viral release. Confocal immunofluorescence microscopy and co-immunoprecipitation experiments revealed that syntaxin 4 interacts with HCV core and NS5A. To identify the binding domain, various mutants of syntaxin 4 were generated. Based on these mutants, it was found that the H3 domain of syntaxin 4 interacts with core. These data show that the t-SNARE protein syntaxin 4 is an essential cellular factor for HCV morphogenesis and secretion.
HCV induces autophagy, and in HCV-infected cells a major fraction of the de novo synthesized viral particles is not released but intracellularly degraded. Syntaxin 17 is an autophagosomal SNARE required for the fusion of autophagosomes with lysosomes to form autolysosomes and thereby to deliver the enclosed contents for degradation. Therefore, we aim to investigate whether syntaxin 17 is a relevant factor for the HCV life cycle by regulating the fusion between autophagosomes and lysosomes. It was found that HCV-positive cells possess a decreased amount of syntaxin 17, and HCV reduces the intracellular level of syntaxin 17 by NS5A-mediated interruption of c-Raf signaling, which triggers the syntaxin 17 transcription, and by HCV-dependently induced autophagy. Overexpression of syntaxin 17 decreases the intracellular amount of viral particles and reduces the number of released infectious viral particles by favoring the formation of autolysosomes, in which HCV particles can be degraded. Vice versa, inhibition of syntaxin 17 expression by specific siRNAs results in an elevated amount of intracellular viral particles and increases the number of released viral particles by impaired autophagosome-lysosome fusion. Confocal immunofluorescence microscopy analyses show a fraction of core protein in autophagosomes as stained by lysotracker and the autophagy maker p62. These data identify syntaxin 17 as a novel factor controlling the release of HCV and reveal the autophagosome-autolysosome fusion as an essential step affecting the equilibrium between the release of infectious viral particles and lysosomal degradation of intracellular viral particles.
Taken together, these data identify the t-SNARE proteins syntaxin 4 and syntaxin 17 as essential cellular factors for HCV morphogenesis and secretion.
For the transport of high-intensity hadron beams in low-energy beam lines of linear accelerators, the compensation of space charge forces by the accumulation of particles of opposite charge is an important effect, reducing the required focusing strength and potentially the emittance growth due to space charge forces. In this thesis, space charge compensation was studied by including the secondary particles in particle-in-cell simulations.
For this purpose, a new electrostatic particle-in-cell code named bender was developed. The software was tested using known self-consistent solutions for an electron plasma confined in an external potential as well as for a KV distributed beam in a periodic focusing lattice. For the simulation of compensation, models for residual gas ionisation by proton and electron impact were implemented.
The compensation process was studied for a 120 keV, 100 mA proton beam transported through a short drift section. Various features in the particle distributions were identified, which can not explained by a uniform reduction in the electric field of the beam. These were tied to the presence of thermal electrons confined within the beam potential. Using the Poisson-Boltzmann equation, their distribution could be reproduced and their influence on the beam for a wider range of parameters studied. However, the observed temperatures show a significant numerical influence. The hypothesis was formed, that stochastical heating present in particle-in-cell simulations is the mechanism leading to the formation of the observed (partial) thermal equilibrium.
For the low-energy beam transport line of the Frankfurt neutron source FRANZ, bender was used to predict the pulse shaping in the novel ExB chopper system. The code was also used for the design and the study of an electron lens for the Integrable Optics Test Accelerator at Fermi National Accelerator Laboratory. Aberrations due to guiding center drifts and the strong electric field of the electron beam as well as the current limits in such a system were investigated.
The transition from the marine to the terrestrial realm is one of the most fascinating issues in evolutionary biology for it required the appearance, in different organisms, of several novel adaptations to deal with the demands of the new realm. Adaptations include, for instance, modifications in different metabolic pathways, development of body structures to facilitate movement and respiration, or tolerance to new conditions of stress. The transition to the land also gives an extraordinary opportunity to study whether evolution used similar changes at the genomic level to produce parallel adaptations in different taxa. Mollusks are among taxa that were successful in the conquest of the land. For instance, several lineages of the molluscan clade Panpulmonata (Gastropoda, Heterobranchia) invaded the intertidal, freshwater and land zones from the marine realm. In my dissertation, using tools from bioinformatics, phylogenetics, and molecular evolution, I used panpulmonates as a suitable model group to study the independent invasions into the terrestrial realm and the adaptive signatures in genes that may have favored the realm transitions. My work includes two peer-reviewed published papers and one manuscript under review. In Publication 1 (Romero et al., 2016a), I used mitochondrial and nuclear molecular markers to resolve the phylogeny of the Ellobiidae, a family that possesses intertidal and terrestrial species. The phylogeny provided an improved resolution of the relationships within inner clades and a framework to study the tempo and mode of the land transitions. I showed that the terrestrialization events occurred independently, in different lineages (Carychiinae, Pythiinae) and in different geological periods (Mesozoic, Cenozoic). In addition, the diversification in this group may not have been affected by past geological or climate changes as the Cretaceous-Paleogene (K-Pg) event or the sea-level decrease during the Oligocene. In Publication 2 (Romero et al., 2016b), I generated new mitochondrial genomes from terrestrial species and compared them with other panpulmonates. I used the branch-site test of positive selection and detected significant nonsynonymous changes in the terrestrial lineages from Ellobioidea and Stylommatophora. Two genes appeared under positive selection: cob (Cytochrome b) and nad5 (NADH dehydrogenase 5). Surprisingly, I found that the same amino acid positions in the proteins encoded by these genes were also under positive selection in several vertebrate lineages that transitioned between different habitats (whales, bats and subterranean rodents). This result suggested an adaptation pattern that required parallel genetic modifications to cope with novel metabolic demands in the new realms. In Manuscript 1 (Romero et al., under review), I de novo assembled transcriptomes from several panpulmonate specimens resulting in thousands of genes that were clustered in 702 orthologous groups. Again, I applied the branch-site test of positive selection in the terrestrial lineages from Ellobioidea and Stylommatophora and in the freshwater lineages from Hygrophila and Acochlidia. Different sets of genes appeared under positive selection in land and freshwater snails, supporting independent adaptation events. I identified adaptive signatures in genes involved in gas-exchange surface development and energy metabolism in land snails, and genes involved in the response to abiotic stress factors (radiation, desiccation, xenobiotics) in freshwater snails. My work provided evidence that supported multiple land invasions within Panpulmonata and provided new insights towards understanding the genomic basis of the adaptation during sea-to-land transitions. The results of my work are the first reports on the adaptive signatures at the codon level in genes that may have facilitated metabolic and developmental changes during the terrestrialization in the phylum Mollusca. Moreover, they contribute to the current debate on the conquest of land from the marine habitat, a discussion that has been only based in vertebrate taxa. Future comparative genome-wide analyses would increase the number of genes that may have played a key role during the realm transitions.
Prognostische Faktoren und das Outcome von Patienten mit einem primären Glioblastom sind in der Fachliteratur gut beschrieben. Im Gegensatz dazu gibt es wenige vergleichbare Informationen zu Patienten mit einem sekundären Glioblastom. Das Ziel dieser Arbeit war es, das Outcome von Patienten mit einem sekundären Glioblastom zu beurteilen und prognostische Faktoren in Be-zug auf das Gesamtüberleben zu identifizieren.
Dazu wurde die interne Datenbank des Universitätsklinikums Frankfurt/Main von Patienten mit Hirntumoren retrospektiv nach klinischen Daten durchsucht. Alle Patienten hatten ein histologisch gesichertes WHO Grad II oder III Gliom und anschließend ein WHO Grad IV sekundäres Glioblastom. Paraffiniertes Hirntumorgewebe wurde auf Mutationen der Isocitrat Dehydrogenase-1 (IDH1) mittels einer immunhistochemischen Färbung mit einem R132H (clone H09) spezifischen Antikörper untersucht. Eine uni- und multivariate statistische Analyse wurde durchgeführt, um Faktoren zu ermitteln, die potentiell das Gesamt-überleben beeinflussen könnten.
Es wurden 45 Patienten mit einem histologisch gesicherten sekundären Glioblastom untersucht. Das mediane Alter betrug 41 Jahre. 14 Patienten unterzogen sich einer radiologisch kompletten Resektion des sekundären Glioblastoms, 31 Patienten wurden subtotal reseziert oder biopsiert. Initial ist bei 37 Patienten ein astrozytärer Tumor nachgewiesen worden und die restlichen Patienten litten an Oligodendrogliomen oder gemischten Gliomen; bei der initialen Diagnose wurden 17 WHO Grad II und 28 WHO Grad III Tumoren fest-gestellt. Die mediane Zeit zwischen Ursprungstumor und dem Auftreten des sekundären Glioblastoms betrug 158,9 Wochen. Das mediane Gesamtüberleben betrug 445 Tage nach der Diagnose eines sekundären Glioblastoms. Mutationen des IDH1 (R132H) Proteins wurden bei 24 Patienten festgestellt und fehlten bei 17 Patienten; bei 4 Patienten konnte keine IDH1 immunhistochemische Färbung durchgeführt werden.
In der univariaten Analyse konnte der Zeitraum zwischen initialer Läsion und dem Progress zu einem sekundären Glioblastom als statistisch signifikanter Einflussfaktor identifiziert werden- Patienten mit einem Zeitraum von mehr als 2 Jahren hatten ein besseres Gesamtüberleben (460 vs. 327 Tage, p = 0,011). Außerdem konnte bei Patienten, die eine kombinierte Radiochemotherapie bekamen, ein besseres Gesamtüberleben nachgewiesen werden als bei Patienten, welche ausschließlich eine Therapieform erhielten (611 vs. 380 Tage, p < 0,001). Weiterhin konnten ein WHO Grad II Ursprungstumor (472 vs. 421 Tage, p = 0,05) und eine Frontalllappenlokalisation des Glioblastoms (472 vs. 425 Ta-ge, p = 0,031) das Überleben steigern.
In der multivariaten Analyse konnte gezeigt werden, dass die Mutation des IDH1 (R132H) Proteins in statistisch signifikanter Weise mit einem längeren Gesamtüberleben assoziiert war (p = 0,012); statistische Signifikanz für ein län-geres Gesamtüberleben bei Patienten mit initial einem WHO Grad II (p = 0,047) und einer Frontallappenlokalisation des Glioblastoms (p = 0,042) stellte sich auch ein. In Bezug auf die Patienten spezifischen Daten wurden zwei Prognosegruppen erstellt; Patienten in der guten Prognosegruppe scheinen einen Benefit von einer totalen Tumorresektion zu haben (p = 0,02), während eine Resektion für die andere Prognosegruppe keine große Rolle spielte (p = 0,926).
Trotz des relativ geringen Erkrankungsalters haben sekundäre Glioblastom Patienten eine schlechte Prognose. Die Ergebnisse dieser Arbeit unterstreichen die Wichtigkeit und den prognostischen Wert der IDH1 Diagnostik, die Notwendigkeit einer kombinierten Radiochemotherapie und eine Risikostratifizierung für eine Prognoseabschätzung anhand der Patienten spezifischen Einflussfaktoren.
Die Populationsgenetik beschäftigt sich mit dem Einfluss von zufälliger Reproduktion, Rekombination, Migration, Mutation und Selektion auf die genetische Struktur einer Population.
In dieser Arbeit mit dem englischen Titel "Ancestral lines under mutation and selection" wird das Zusammenspiel von zufälliger Reproduktion, gerichteter Selektion und Zweiwegmutation untersucht.
Dazu betrachten wir eine haploide Population in der jedes Individuum zu jedem Zeitpunkt genau einen von zwei Typen aus S:={0,1} trägt. Dabei sei 1 der neutrale und 0 der selektiv bevorzugte Typ. Im Diffusionslimes sehr großer Populationen modellieren wir den Prozess der Frequenz der Typ-0-Individuen durch eine Wright-Fisher-Diffusion X:=(X_t) mit Mutation und gerichteter Selektion.
Zu jedem Zeitpunkt s gibt es genau ein Individuum, dessen Nachkommen ab einem bestimmten zukünftigen Zeitpunkt t>s die gesamte Population ausmachen werden. Wir nennen dieses Individuum den gemeinsamen Vorfahren zum Zeitpunkt s, da alle Individuen zu allen Zeitpunkten r>t von ihm abstammen. Sei R_{s} dessen Typ zum Zeitpunkt s. Wir nehmen an, dass der Prozess X zum Zeitpunkt 0 im Gleichgewicht ist und definieren die Wahrscheinlichkeit, dass der gemeinsame Vorfahre zum Zeitpunkt 0 Typ 0 hat, durch h(x):= P(R_{0}=0|X_{0}=x). Eine Darstellung von h(x) wurde bereits von Fearnhead (2002) und Taylor (2007) gefunden und dort mit vorwiegend analytischen Methoden bewiesen. In dieser Arbeit entwickeln wir in Kapitel 3 ein neues Teilchenbild, den pruned lookdown ancestral selection graph (pruned LD-ASG), der für sich selbst genommen interessant ist und eine neue probabilistische Interpretation der Darstellung von h(x) liefert.
Durch Erweiterung des Teilchenbildes auf Nachkommenverteilungen mit schweren Tails und mit Hilfe einer Siegmund Dualität gelingt es uns in Kapitel 4 das Resultat für h(x) von klassischen Wright-Fisher-Diffusionen auf Lambda-Wright-Fisher-Diffuison zu erweitern.
Eine Verbindung zwischen Ideen von Taylor (2007), der den gemeinsamen Prozess (X,R) untersucht hat, und einem von Fearnhead (2002) betrachteten Prozess (R,V), der die Entwicklung des Typs R des gemeinsamen Vorfahren in einer Umgebung von V sogenannten virtuellen Linien beschreibt, stellen wir in Kapitel 6 her. Wir bestimmen die gemeinsame Dynamik des Tripels (X,R,V). In Kapitel 7 betrachten wir ein diskretes Bild mit endlicher Populationsgröße N und schlagen dort eine Brücke zu Resultaten von Kluth, Hustedt und Baake (2013).
Des Weiteren entwickeln wir in Kapitel 5 dieser Arbeit einen Algorithmus zur Simulation der Typen einer Stichprobe von m Individuen, die aus einer Wright-Fisher-Population mit Mutation und Selektion im Gleichgewicht gezogen wird. Mittels dieses Algorithmus illustrieren wir die Typenverteilung für verschiedene Parameterwerte und Stichprobengrößen.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
One of the most important shifts in mathematics learning and instruction in the last decades has taken place in the conception of the subject matter, changing from a perspective of mathematics as composed of concepts and skills to be learned, to a new one emphasizing the mathematical modelling of the reality (De Corte, 2004). This shift has had, as it is to be expected, an impact on classroom processes, and changed instructional settings and practices.
Instructional explanations, the object of study in the present work, are an interesting topic in that landscape, since they continue to be a typical form of classroom discourse, especially −but no exclusively−when new contents are introduced to the students (e.g. Leinhardt, 2001; Perry, 2000; Wittwer & Renkl, 2008). Consequently, good teachers are also supposed to be good explainers, independently whether they are the main speaker, or play the role of moderator in exchange between students (e.g. Charalambous, Hill, & Ball, 2011; Danielson, 1996; Inoue, 2009).
Despite the central role that instructional explanations play in classroom practices, current instructional quality models, which describe how effective teaching practices should look like, do not consider instructional explanations as a key element (Danielson, 1996; Klieme, Lipowsky, Rakoczy, & Ratzka, 2006; Pianta & Hamre, 2009). Moreover, aside from a few notable exceptions (Duffy, Roehler, Meloth, & Vavrus, 1986; Leinhardt & Steele, 2005; Perry, 2000), instructional explanations have not been investigated empirically within other traditions either. Thus, there is scarce of empirical work about instructional explanations and their potential contribution to promote students’ learning.
The purpose of the present work is to examine instructional explanations from a theoretical perspective as well as empirically, in order to characterize them and investigate their association with students’ learning outcomes. The underlying theoretical framework chosen to organize the study is the one proposed by Leinhardt (2001) with some adaptations according to pertinent complementary literature (Drollinger-Vetter & Lipowsky, 2006; Leinhardt & Steele, 2005).
The empirical work of this dissertation was carried out in the context of the project “Analysis of mathematic lessons” (FONIDE 209) funded by the Chilean Ministry of Education during 2007. This study, in turn, was embedded in the international extension of the research project the ‘‘Quality of instruction, learning, and mathematical understanding’’ carried out between 2000 and 2006 by the German Institute for International Educational Research (DIPF) in Frankfurt, Germany, and the University of Zurich in Switzerland (e.g. Klieme & Reusser, 2003; Klieme et al., 2006). According to the design of the original project, the study considers the inclusion of different perspectives, namely, teachers, students and external observers, by means of questionnaires, tests and classroom observation protocols.
The examination of instructional explanations in this dissertation begins in chapter 2 with the review of relevant literature and introduction of the theoretical background underpinning the study of instructional explanations. This theoretical review comprises three subsections, the first one describing the evolution of the process-product-paradigm into the actual instructional quality models that are presented in a next step. The second subsection includes a detailed theoretical presentation of explanations and instructional explanations, addressing the main theoretical issues and giving examples of the few empirical works about instructional explanations found in the literature. Finally, the third subsection with the description of Chilean teaching practices in order to contextualize the study.
Chapter 3 presents the research questions and lists the associated work hypotheses that are investigated throughout this work. Chapter 4 includes the methodological aspects of the work, indicating the description of the sample, design of the study, the methods used the gather the data and the analyses chosen to answer the proposed research questions.
Chapter 5 contains the presentation of results, which are organized by research question, starting with the results from quantitative analyses and continuing with the results from qualitative analyses. This chapter closes with a general summary of the results organized according to the central themes of the study. Finally, chapter 6 concludes with a discussion of the link between the results and the instructional explanations literature and research, or lack thereof, that originally motivated the research questions addressed in this study. This chapter finishes with a discussion of the limitations of the study and the implications of its results, as well as an examination of areas where the research on instructional explanations can be fruitfully expanded in the future.
Die vorliegende Arbeit lässt sich in den Bereich Data Science einordnen. Data Science verwendet Verfahren aus dem Bereich Computer Science, Algorithmen aus der Mathematik und Statistik sowie Domänenwissen, um große Datenmengen zu analysieren und neue Erkenntnisse zu gewinnen. In dieser Arbeit werden verschiedene Forschungsbereiche aus diesen verwendet. Diese umfassen die Datenanalyse im Bereich von Big Data (soziale Netzwerke, Kurznachrichten von Twitter), Opinion Mining (Analyse von Meinungen auf Basis eines Lexikons mit meinungstragenden Phrasen) sowie Topic Detection (Themenerkennung)....
Ergebnis 1: Sentiment Phrase List (SePL)
Im Forschungsbereich Opinion Mining spielen Listen meinungstragender Wörter eine wesentliche Rolle bei der Analyse von Meinungsäußerungen. Das im Rahmen dieser Arbeit entwickelte Vorgehen zur automatisierten Generierung einer solchen Liste leistet einen wichtigen Forschungsbeitrag in diesem Gebiet. Der neuartige Ansatz ermöglicht es einerseits, dass auch Phrasen aus mehreren Wörtern (inkl. Negationen, Verstärkungs- und Abschwächungspartikeln) sowie Redewendungen enthalten sind, andererseits werden die Meinungswerte aller Phrasen auf Basis eines entsprechenden Korpus automatisiert berechnet. Die Sentiment Phrase List sowie das Vorgehen wurden veröffentlicht und können von der Forschungsgemeinde genutzt werden [121, 123]. Die Erstellung basiert auf einer textuellen sowie zusätzlich numerischen Bewertung, welche typischerweise in Kundenrezensionen verwendet werden (beispielsweise der Titel und die Sternebewertung bei Amazon Kundenrezensionen). Es können weitere Datenquellen verwendet werden, die eine derartige Bewertung aufweisen. Auf Basis von ca. 1,5 Millionen deutschen Kundenrezensionen wurden verschiedene Versionen der SePL erstellt und veröffentlicht [120].
Ergebnis 2: Algorithmus auf Basis der SePL
Mit Hilfe der SePL und den darin enthaltenen meinungstragenden Phrasen ergeben sich Verbesserungen für lexikonbasierte Verfahren bei der Analyse von Meinungsäußerungen. Phrasen werden im Text häufig durch andere Wörter getrennt, wodurch eine Identifizierung der Phrasen erforderlich ist. Der Algorithmus für eine lexikonbasierte Meinungsanalyse wurde veröffentlicht [176]. Er basiert auf meinungstragenden Phrasen bestehend aus einem oder mehreren Wörtern. Da für einzelne Phrasen unterschiedliche Meinungswerte vorliegen, ist eine genauere Bewertung als mit bisherigen Ansätzen möglich. Dies ermöglicht, dass meinungstragende Phrasen aus dem Text extrahiert und anhand der in der SePL enthaltenen Einträge differenziert bewertet werden können. Bisherige Ansätze nutzen häufig einzelne meinungstragende Wörter. Der Meinungswert für beispielsweise eine Verneinung muss nicht anhand eines generellen Vorgehens erfolgen. In aktuellen Verfahren wird der Wert eines meinungstragenden Wortes bei Vorhandensein einer Verneinung bisher meist invertiert, was häufig falsche Ergebnisse liefert. Die Liste enthält im besten Fall sowohl einen Meinungswert für das einzelne Wort und seine Verneinung (z.B. „schön“ und „nicht schön“).
1.3 übersicht der hauptergebnisse 5
Ergebnis 3: Evaluierung der Anwendung der SePL
Der Algorithmus aus Ergebnis 2 wurde mit Rezensionen der Bewertungsplattform CiaoausdemBereichderAutomobilversicherunge valuiert.Dabei wurden wesentliche Fehlerquellen aufgezeigt [176], die entsprechende Verbesserungen ermöglichen. Weiterhin wurde mit der SePL eine Evaluation anhand eines Maschinenlernverfahrens auf Basis einer Support Vector Machine durchgeführt. Hierbei wurden verschiedene bestehende lexikalische Ressourcen mit der SePL verglichen sowie deren Einsatz in verschiedenen Domänen untersucht. Die Ergebnisse wurden in [115] veröffentlicht.
Ergebnis 4: Forschungsprojekt PoliTwi - Themenerkennung politischer Top-Themen
Mit dem Forschungsprojekt PoliTwi wurden einerseits die erforderlichen Daten von Twitter gesammelt. Andererseits werden der breiten Öffentlichkeit fortlaufend aktuelle politische Top-Themen über verschiedene Kanäle zur Verfügung gestellt. Für die Evaluation der angestrebten Verbesserungen im Bereich der Themenerkennung in Verbindung mit einer Meinungsanalyse liegen die erforderlichen Daten über einen Zeitraum von bisher drei Jahren aus der Domäne Politik vor. Auf Basis dieser Daten konnte die Themenerkennung durchgeführt werden. Die berechneten Themen wurden mit anderen Systemen wie Google Trends oder Tagesschau Meta verglichen (siehe Kapitel 5.3). Es konnte gezeigt werden, dass die Meinungsanalyse die Themenerkennung verbessern kann. Die Ergebnisse des Projekts wurden in [124] veröffentlicht. Der Öffentlichkeit und insbesondere Journalisten und Politikern wird zudem ein Service (u.a. anhand des Twitter-Kanals unter https://twitter.com/politwi) zur Verfügung gestellt, anhand dessen sie über aktuelle Top-Themen informiert werden. Nachrichtenportale wie FOCUS Online nutzten diesen Service bei ihrer Berichterstattung (siehe Kapitel 4.3.6.1). Die Top-Themen werden seit Mitte 2013 ermittelt und können zudem auf der Projektwebseite [119] abgerufen werden.
Ergebnis 5: Erweiterung lexikalischer Ressourcen auf Konzeptebene
Das noch junge Forschungsgebiet des Concept-level Sentiment Analysis versucht bisherige Ansätze der Meinungsanalyse dadurch zu verbessern, dass Meinungsäußerungen auf Konzeptebene analysiert werden. Eine Voraussetzung sind Listen meinungstragender Wörter, welche differenzierte Betrachtungen anhand unterschiedlicher Kontexte ermöglichen. Anhand der Top-Themen und deren Kontext wurde ein Vorgehen entwickelt, welches die Erstellung bzw. Ergänzung dieser Listen ermöglicht. Es wurde gezeigt, wie Meinungen in unterschiedlichen Kontexten differenziert bewertet werden und diese Information in lexikalischen Ressourcen aufgenommen werden können, was im Bereich der Concept-level Sentiment Analysis genutzt werden kann. Das Vorgehen wurde in [124] veröffentlicht.
Alle lebenden Organismen sind in der Lage, sich an den re-gelmäßigen Wechsel von Licht und Dunkelheit und den zeitli-che Veränderungen im Takt der Jahreszeiten anzupassen. Die-se Synchronisierung der Aktivitäts- und Ruhephasen, sowie von physiologischen Stoffwechselprozessen an die vorgegebe-nen tageszeitlichen und saisonalen Zyklen findet beim Säu-getier in der inneren Uhr im Nucleus Suprachiasmaticus (SCN) statt. Das Licht, als wichtigster Zeitgeber für die Synchronisation der inneren Uhr, findet Eingang zum SCN über die Retina und den retinohypothalamischen Trakt (RTH), der Glutamat als Neurotransmitter nutzt. Ist dieses System fehlerhaft, führt dies zu Störung der oben beschriebenen Anpassungsprozesse. Dies hat eine gestörte Homöostase des Organismus zu Folge, aus denen sich wiederum Veränderungen im Tag/Nacht- Rhythmus, Schlafstörungen und depressive Ver-stimmungen ergeben können. Die genannten Symptome decken sich mit den Frühsymptomen den neurodegenerativen Erkran-kung Morbus Parkinson.
Ziel der vorliegenden Arbeit war es, Störungen im photoneu-roendokrinen System, insbesondere Veränderungen in der Re-tina an den photosensitiven Ganglienzellen mit dem Photo-pigment Melanopsin und dem SCN bei transgene Mäuse mit dem humanen alpha-Synuclein zu untersuchen. Hierbei wurden transgene Mäuse mit dem gesunden humanen alpha-Synuclein (Wildtyp) und transgene Mäuse mit der für Parkinson spezi-fischen Mutation im alpha-Synuclein Ala53Thr (A53T) vergli-chen.
Die immunochemischen Untersuchungen an Retina und SCN zei-gen einen signifikanten Anstieg der alpha-Synuclein Immun-reaktion bei der A53T Maus im Vergleich zum Wildtyp.
Parallel dazu wurden Unterschiede in Bezug auf das Photo-pigment Melanopsin zwischen den beiden Gruppen untersucht. Melanopsin ist lichtsensitiv und trägt, durch Übermittlung der aktuellen Lichtverhältnisse über den retinohypothalami-schen Trakt zum SCN, zur Synchronisation der circadianen Rhythmik bei. Durch den in dieser Arbeit nachgewiesene Me-lanopsindefizit und des deutlich reduzierten Vglut2 im hy-pothalamischen Trakt der A53T Maus lässt sich die Hypothese ableiten, dass möglicherweise die Überexpression des mu-tierten alpha-Synuclein in der Retina einen Untergang von melanopsinhaltigen Ganglienzellen herbeiführt und dadurch die Synchronisation der inneren Uhr durch Licht gestört ist. Diese Hypothese wird durch die Aktivitätsprofile ge-stützt, die durch die Aufzeichnung der lokomotorischen Ak-tivität der Tiere erstellt wurden.
Da in beiden Gruppen unter Dauerdunkel (DD) ein endogener zirkadianer Rhythmus beobachtet werden konnte, lässt dies auf die Funktionstüchtigkeit der inneren Uhr im SCN schlie-ßen. Im anschließenden Versuch die endogene Rhythmik an exogenen Reize anzupassen, zeigte sich bei dem A53T Stamm eine fehlende Synchronisierung an vorgegebene Lichtverhält-nisse mit gesteigerter Tagaktivität und reduzierten Schlaf-phasen. Somit trägt der fehlerhaft verarbeitete Lichtreiz bei A53T Mutanten zur Destabilisierung des zirkadianen Rhythmus der Lokomotion bei. Trotz des gestörten glutama-tergen Signalweges im retinohypothalamischen Trakt konnten keine Unterschiede in der Expression der Homerproteine zwi-schen Wildtyp und A53T unter Standard-Photoperiode und nach Schlafdeprivation nachgewiesen werden.
Die vorliegenden Befunde liefern Erkenntnisse zur Entste-hung der Frühsymptome bei Morbus Parkinson. Dies könnte neue Ansatzpunkte für die Therapie und Linderung von Schlafstörungen sowie Veränderungen im Tag/Nachtrhythmus liefern.
In view of the diverse functionalities of RNA, the search for tools suitable for regulating and understanding RNA grows continuously. Dysfunction of RNA controlled processes can lead to diseases, calling for external regulation mechanisms – a difficult task in view of the complexity of biological systems. One of the recently developed methods that aim to systematically control RNA relates to photoregulation. Here, the RNA functions are triggered by photochromic molecules – for example, azobenzene or spiropyran – which are bound either covalently or non-covalently to the target RNA. This is a flexible approach, which can be improved by using suitably substituted chromophores. However, many issues regarding the details of photocontrol are still open. A detailed understanding of the mechanism of photocontrol is therefore of crucial importance.
The present thesis explores theoretical approaches to the photocontrol of RNA, focussing upon azobenzene chromophores covalently bound to RNA. The aim of the thesis is to characterize, at a molecular level, the effect of trans-to-cis isomerization of the azobenzene chromophore on RNA, and thus understand the mechanism of RNA unfolding triggered by azobenzene isomerization. In particular, we attempt to answer the following questions:
How does azobenzene isomerization happen in an RNA environment, i.e., how is
the isomerization influenced by the local RNA environment?
Conversely, how is RNA dynamics, on a longer time scale, affected by azobenzene attachment and photoisomerization?
Further, can regulation be enhanced by substituted azobenzenes? And, does simulation yield a picture that is consistent with experiment?
Due to the very different times scales of azobenzene isomerization (femtoseconds to picoseconds) and the much slower RNA response (nanoseconds to milliseconds), complementary techniques have been chosen: (i) hybrid quantum-classical approaches, i.e., on-the-fly Quantum Mechanics/Molecular Mechanics (QM/MM), to characterize the isomerization and RNA response on an ultrafast time scale, and (ii) molecular dynamics with enhanced sampling techniques, in particular, Replica Exchange MD (REMD), to explore longer time scales where the effect of RNA unfolding becomes manifest. Furthermore, substituent effects on azobenzene were separately investigated, in collaboration with two experimental groups.
The first part of this thesis is focused on the conformational influence of azobenzene on a small RNA hairpin on longer time scales using REMD simulations. In accordance with experiment, it is found that both the trans and cis form of azobenzene destabilize the RNA system. Trans azobenzene stays stacked in the double strand, whereas the cis form flips out of the RNA. These stacking interactions are the main reason why a trans azobenzene-RNA-complex is more stable than a cis-azobenzene-RNA-complex. Furthermore, the loop region of the RNA hairpin is highly destabilized by the intercalation of azobenzene.
In the second part, on-the-fly QM/MM simulations of the same azobenzene substituted hairpin are undertaken. These simulations use a surface hopping (SH) algorithm in conjunction with hybrid QM/MM electronic structure calculations to give a complete picture of the isomerization process on a picosecond time scale. It is shown that, due to the constraints of the RNA environment, the isomerization time of the azobenzene chromophore is significantly increased (from 300 femtoseconds in the gas phase to around 20 picoseconds in the RNA environment), and the isomerization yield is low. To the best of our knowledge, these are the first QM/MM simulations reported for azobenzene in a nucleic acid environment.
In the third and final part of this thesis, the properties of substituted azobenzenes have been explored, in collaboration with two experimental groups at the department. In particular, para- and meta-hydroxy substituted azobenzenes were suggested as improved photoswitches for the photoregulation of RNA, but spectroscopic investigations showed that isomerization was inefficient in some of the investigated species. Therefore, we investigated the photoisomerisation pathway of the keto/enol-form of para- and meta-hydroxy-azobenzenes by Time-Dependent Density Functional Theory (TDDFT) calculations. These calculations show that the competing keto/enol-tautomerism can result in an unstable cis form, making these substituted chromophores unsuitable as photoswitches.
Overall, the present thesis has contributed to obtaining a molecular-level understanding of photocontrol in azobenzene substituted RNAs, showing that theory and simulations can provide useful guidance for new experiments.
Photoinduzierte Energietransferprozesse und -reaktionen spielen in vielen Gebieten von Chemie, Physik und Biologie eine wichtige Rolle. Zu den prominentesten Beispielen zählen der Lichtsammelprozess in der Photosynthese und der Anregungsenergietransfer in funktionellen Materialien. Der Fokus dieser Arbeit liegt auf letzterem Bereich, genauer auf organischer Elektronik und flexiblen Donor-Akzeptor-Bausteinen und Schaltern. Im Besonderen werden hier zwei verschiedene Typen von funktionellen organischen Systemen betrachtet: zum einen oligomere Fragmente organischer halbleitender Polymere wie Oligo-p-Phenylen-Vinylen (OPV) und Oligo-Thiophen (OT), welche als Bausteine für neuartige organische Solarzellen dienen, und zum anderen kleine funktionelle Donor-Akzeptor-Einheiten wie Dithienylethen-Bordipyrromethen (DTE-BODIPY). Letzteres wurde in Kooperation mit den experimentellen Gruppen von K. Rück-Braun (TU Berlin) und J. Wachtveitl (Goethe Universität) untersucht. Um die relevanten Energietransfermechanismen genauer zu verstehen, wurden an diesen Systemen elektronische Strukturrechnungen und quantendynamische Untersuchungen durchgeführt. Hierzu wurden mittels ab initio-Methoden Modell-Hamiltonians parametrisiert und mit hochdimensionalen quantendynamischen oder semiklassischen Methoden kombiniert. Während die Parametrisierung für kleinere Fragmente durchgeführt wurde, lässt sich der so parametrisierte Hamiltonian ohne Weiteres auf größere Systeme erweitern. Die dynamischen Studien der betreffenden Systeme wurden mittels der Multikonfigurationellen Zeitabhängigen Hartree (MCTDH) Methode durchgeführt, welche eine vollständige quantendynamische Beschreibung des Systems zulässt. Für größere Systeme wurde die semiklassische Ehrenfest Methode in Verbindung mit dem Langevin-Ansatz zur Beschreibung von Umgebungseffekten genutzt. Hierzu wurde ein eigens für diese Methode und Systeme geschriebenes Programm eingesetzt. Im Falle der OT- und OPV-Oligomere wurde die Dynamik bei Vorliegen eines strukturellen Defekts untersucht. Ziel war es hierbei, die dynamischen Phänomene, welche durch die Photoanregung induziert werden, zu untersuchen. Des Weiteren wurde untersucht, ob das Konzept von „spektroskopischen Einheiten“, welche die Lokalisierung der Anregung durch strukturelle Defekte beschreibt, in diesen Systemen zutrifft. Hierzu wurden die Systeme in einer Frenkel-Basis definiert, welche ein auf einem Monomer lokalisiertes Elektron-Loch-Paar beschreibt. Delokalisierte elektronische Anregungen können somit als Superposition solcher Frenkel-Zustände beschrieben werden. Neben der Frenkel-Basis wurde aber auch eine verallgemeinerte Elektron-Loch-Basis verwendet, welche über zusätzliche Ladungstransferzustände eine räumliche Separation von Elektronen und Löchern erlaubt.Die Parametrisierung des OPV- und OT-Hamiltonians erfolgte mittels der Algebraischen Diagrammatischen Konstruktions (ADC(2))-Methode, welche in Kombination mit einer Übergangs-Dichte-Matrix-Analyse eine sehr akkurate Beschreibung der Frenkel- und Ladungstransferzustände basierend auf den supermolekularen Zuständen erlaubt. Um vibronische Effekte auf die Dynamik miteinzubeziehen,wurden nieder- und hochfrequente Torsions- und alternierende Bindungslängenmoden des Systems im Hamiltonian berücksichtigt. Hierzu wurden eindimensionale Schnitte der Potentialflächen entlang dieser Koordinaten berechnet und mittels einer Transformation in diabatische Potentialflächen überführt. Mit diesem Setup wurden die quantendynamischen und semiklassischen Simulationen für ein OPV/OT-Hexamer und ein 20-mer durchgeführt. Die Ergebnisse dieser Simulationen zeigen, dass der Energietransfer auf einer Subpikosekunden-Zeitskala stattfindet und eine starke Abhängigkeit vom Vorliegen eines strukturellen Defekts aufweist. Des Weiteren konnte auf einer Zeitskala von 100 Femtosekunden eine Lokalisierung des Exzitons beobachtet werden. Fluktuationseffekte werden zudem über Quantenfluktuationen im Falle von MCTDH bzw. über thermische Fluktuationen im Falle des Ehrenfest-/Langevin-Ansatzes berücksichtigt. Letzterer ist jedoch nicht in der Lage, die kohärente Charakteristik der mit den Schwingungsmoden gekoppelten Exziton- und Lokalisierungsdynamik wiederzugeben. Dagegen kann dieser Ansatz erfolgreich genutzt werden, um eine fluktuationsgetriebene „Hopping“-Dynamik des quasi- stationären Zustandes auf einer längeren Zeitskala in Abhängigkeit von der Temperatur zu beschreiben. Die Beschreibung der Photodynamik der DTE-BODIPY-Dyade zielt darauf ab, experimentell beobachtete vibrationelle Schwingungen des BODIPY-Fragments zu erklären, die ohne eine direkte Anregung dieses Fragments zustande kommen. Diese wurden nach einer selektiven Anregung des DTE-Fragments in zeitaufgelösten UV/Vis Anreg-Abtast-Experimenten beobachtet. Der Fokus der Untersuchung liegt daher auf der Beschreibung der photoinduzierten intramolekulare Energieumverteilung (IVR) auf einer Subpikosekunden-Zeitskala. Die DTE-BODIPY Dyade wurde mittels eines Hamiltonians, welcher durch TDDFT Rechnungen parametrisiert wurde, dargestellt. Basierend auf den Normalmoden des Systems, wurden lokale DTE- und BODIPY-Moden konstruiert, wobei einige dieser Moden miteinander gekoppelt sind und die Photoanregung des DTE auf das BODIPY-Fragment übertragen. Hierbei zeigte sich, dass die Zeitskala und die charakteristischen Frequenzen des Experiments mittels der hochdimensionalen MCTDH-Methode gut reproduziert wurden. Aus den Simulationen ergab sich zudem, dass der beobachtete Energietransfer stark von einem Reservoir von vibrationell angeregten lokalen DTE-Moden beeinflusst wird. Der untersuchte IVR- Prozess zeigt zudem eine ausgeprägte Abhängigkeit von lokalen Kopplungen und der Kopplung an eine Umgebung.
Hintergrund: Die Delegation ärztlicher Leistungen an nichtärztliches medizinisches Fachpersonal wird in Deutschland vor dem Hintergrund eines absehbaren Hausärztemangels bei gleichzeitig wachsendem Bedarf an hausärztlichen Betreuungsleistungen seit einiger Zeit diskutiert. Inzwischen wurden unterschiedliche Qualifikationsmodelle für Medizinische Fachangestellte (MFA) (z.B. die Versorgungs-assistentin in der Hausarztpraxis, VERAH) konzipiert und implementiert, die für eine Delegation von Leistungen qualifizieren. VERAH sind v.a. in Baden-Württemberg in Hausarztpraxen tätig, da deren Einsatz dort im Rahmen der Hausarztzentrierten Versorgung (HzV) seit 2008 finanziell honoriert wird. Dabei ist es den Praxen freigestellt, wie sie das VERAH-Konzept und damit auch die Delegation umsetzen. Auch gesetzliche Vorgaben zur Delegation lassen erheblichen Spielraum bei der Umsetzung. Erschwerend kommt hinzu, dass weiterhin Unklarheit darüber besteht, welche Leistungsübertragung als „Delegation“ und welche eher als „Substitution“ zu verstehen ist.
Zielrichtung der Arbeit: Ziel dieser publikationsbasierten Dissertation ist eine Darstellung der Formen und Graduierungen von Delegation, d.h. der tatsächlichen Umsetzung von Leistungsübertragung in der Hausarztpraxis am Beispiel der VERAH in Baden-Württemberg. Es können Empfehlungen für das Gelingen der Delegation aus der Analyse von Ergebnissen auf Patienten-, Praxis- und Teamebene abgeleitet werden.
Resultate: Diese Dissertation basiert auf sechs Publikationen, die im Rahmen von zwei Projekten zur Evaluation des VERAH-Einsatzes in der HzV in Baden-Württemberg entstanden. Die Evaluationen basieren auf einem Mixed Methods-Design, d.h. auf der Analyse von querschnittlich erhobenen quantitativen Daten sowie qualitativen Daten zu verschiedenen Fragen des VERAH-Einsatzes.
Es existiert ein breites Spektrum an Formen und Graduierungen der Delegation in Hausarztpraxen, die am HzV-Modell teilnehmen. VERAH übernehmen einerseits supplementäre (zusätzliche) ärztliche Tätigkeiten, wie z.B. Geriatrisches Assessment oder Impfberatungen, aber auch komplementäre (ergänzende) Tätigkeiten wie z.B. die Beratung der Angehörigen zu Hilfeleistungen im Gesundheitssystem. Vor allem im Rahmen von Hausbesuchen üben VERAH auch substituierende (ersetzende) Funktionen
aus. Auf Patientenseite sind gerade ältere, multimorbide und pflegebedürftige Patienten Empfänger delegierter Leistungen. Sie erhalten eine umfassende Betreuung und werden beim Erhalt ihrer häuslichen Selbständigkeit unterstützt. Die Patienten sehen in der VERAH eine zusätzliche Vertrauensperson in der Praxis und akzeptieren sie als kompetente Ansprechpartnerin. Die Hausärzte profitieren durch die Delegation von Tätigkeiten an VERAH, indem sie entlastet werden und Zeit für wichtige medizinische Aufgaben gewinnen. Für VERAH stellt die Delegation eine Erweiterung ihrer Tätigkeits- und Kompetenzbereiche dar und kann insofern als ein Schritt zur Professionalisierung des nichtärztlichen Personals einer Hausarztpraxis gelten.
Viele Faktoren, die zum Gelingen einer Umsetzung der Delegation beitragen, können vom hausärztlichen Team selbst beeinflusst werden. Darunter fallen das Engagement der MFA, die Qualifikation, zeitliche Flexibilität, ausreichend Gestaltungsspielraum, Grad der Autonomie, Abgrenzung des Verantwortungsbereiches und auch adäquates Equipment. Entsprechend richten sich die hier formulierten Empfehlungen meist an die Praxis, aber auch an den Gesetzgeber.
Bedeutung für die übergeordnete Fragestellung: Die Ergebnisse dieser Arbeit zeigen, dass mit dem VERAH-Konzept erste Ansätze einer teambasierten Versorgung vorhanden sind, und dass sich die Analyse dieses Konzeptes eignet, um Desiderata für die Zukunft von Delegation (haus-)ärztlicher Leistungen an nichtärztliches Personal formulieren zu können. Teambasierte Ansätze bedürfen, wie auch internationale Beispiele verdeutlichen, einer Weiterentwicklung der bestehenden Delegationskonzepte in deutschen Hausarztpraxen. Idealerweise mündet eine mit Delegation einhergehende Aufgaben- und Rollenneuverteilung in einer Betreuungsform, in der alle Teammitglieder entsprechend ihrer Qualifikation an der Versorgung der Patienten in der Hausarztpraxis beteiligt sind. Daher kommt die Einbindung von Pflegekräften in die hausärztliche Versorgung genauso in Frage, wie auch speziell ausgebildete VERAH/MFA. In jedem Fall sollte über Schritte der Professionalisierung nichtärztlicher Berufsgruppen nachgedacht werden. Ob sich in Deutschland, wie in den USA und in Kanada, aus diesen Delegationskonzepten im Laufe der Zeit Substitution (im Sinne der Verantwortungsübertragung an nichtärztliche Berufsgruppen) entwickelt, bleibt abzuwarten. Die Ergebnisse der Dissertation zeigen, dass es mit der gegenwärtigen Umsetzung der Delegation an VERAH zu einer Erweiterung des Leistungsspektrums in den Hausarztpraxen kommen kann; eine Ausweitung der Delegation sollte jedoch zeitnah vorangetrieben werden.