Universitätspublikationen
Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178)
Is part of the Bibliography
- no (178)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
- Alzheimer (1)
- Amphisphaeriales (1)
- Angiogenesis (1)
- Arbeitsbedingungen (1)
- Asian Tiger Mosquito (1)
- Asiatische Tigermücke (1)
- Außerschulisches Lernen (1)
- Batten disease (1)
- Beatmung (1)
- Biodiversität (1)
- Biomoleküle (1)
- Blockplay (1)
- Broken symmetry (1)
- CCLM (1)
- CORDEX-EAS (1)
- Call Center (1)
- Carotinoidbiosynthese (1)
- Computerkompetenz (1)
- Conformational Dynamics (1)
- DDX6 (1)
- DFT (1)
- DPOAE (1)
- Delegation (1)
- Density Functional Theory (1)
- Deutschland (1)
- ESD (1)
- Early Childhood (1)
- Emittanz (1)
- Enzymes and Biomimetic Systems (1)
- Epigenetik (1)
- Error Mitigation (1)
- Erythropoetin (1)
- Exercise (1)
- Exercise Metabolism (1)
- Eye Tracking (1)
- FPGA (1)
- FRANZ-Projekt (1)
- Familie (1)
- Family (1)
- Fault Tolerance (1)
- Fettsäuresynthase (1)
- Forschungsbohrung Sichenhausen (1)
- Fragmentierungsquerschnitte (1)
- Freiheit (1)
- Gas Chromatography (1)
- Geoelektrik (1)
- Geometrie (1)
- Geometry (1)
- Germanistik (1)
- Geschichte 1966-2001 (1)
- Geschlechterforschung (1)
- Gespräch (1)
- Gesundheitliche Ungleichheit (1)
- Gesundheitsverhalten (1)
- Grundschule (1)
- HIV (1)
- Halocarbons (1)
- Halogenated Trace Gases (1)
- Handlung (1)
- Hausarztpraxis (1)
- Hegel (1)
- HepG2 Zellen (1)
- Hodgkin-Lymphom (1)
- Holzklötzchen (1)
- Hydroxylation (1)
- Immigration (1)
- Integral Geometry (1)
- Intelligence (1)
- Interaction (1)
- Invariant object recognition (1)
- Inversion (1)
- Ionenquelle (1)
- Ionizing Radiation (1)
- Iran (1)
- Juvenile neuronal ceroid lipofuscinosis (1)
- Karotte (1)
- Kinzigtal (1)
- Konstruktvalidität (1)
- Kurdistan (1)
- LINE-1 (1)
- LU-102 (1)
- Lernen (1)
- Lungenkontusion (1)
- Lösungsprozess (1)
- Material Flow Analysis (1)
- Mathematics Learning (1)
- Mathematik (1)
- Medizinische Fachangestellte (1)
- Mehrsprachigkeit (1)
- Mitochondria (1)
- Mitochondrium (1)
- Modellorganismus (1)
- Moesia Superior (1)
- Molarenevolution (1)
- Monsun (1)
- Multikomponentenreaktion (1)
- Mycophenolat Mofetil (1)
- NMR shift calculation (1)
- Nahrungsmittelallergie (1)
- Namibia (1)
- Nok Culture (1)
- Oligonukleotide (1)
- Optical Spectroscopy (1)
- Ostasien (1)
- P-TEFb (1)
- Palladium-Katalyse (1)
- Participation (1)
- Partizipation (1)
- Pb-Ag (1)
- Pepperpot (1)
- Pestalotia (1)
- Pestalotiopsis (1)
- Phaeodactylum tricornutum (1)
- Pharmacology (1)
- Photodynamics (1)
- Primärversorgung (1)
- Proteine (1)
- Prozedurales Wissen (1)
- Qualifikation (1)
- RCM (1)
- RNAPII (1)
- Rainwater Harvesting (1)
- Reasoning (1)
- Republik Moldau (1)
- Retrotransposition (1)
- Ribonucleic Acids (1)
- Roman (1)
- Rotorest (1)
- SORN (1)
- STARS (1)
- STDP (1)
- Saccharomyces cerevisiae (1)
- Schlitz-Gitter (1)
- Scientific Materials Analysis (1)
- Sellerie (1)
- Single Event Effects (1)
- Single-particle (1)
- Skeletal muscle fiber-type switching (1)
- Soziolinguistik (1)
- Spiel (1)
- Sportunterricht (1)
- Sprachliche Minderheiten (1)
- Staatstheorie (1)
- Stahlenschäden (1)
- Strafrecht (1)
- Strukturwandel (1)
- Support (1)
- Sustainability Evaluation (1)
- Talk (1)
- Technologiebasiertes Problemlösen (1)
- Terracotta Figurines (1)
- Time-of-Flight Mass Spectrometry (1)
- Time-resolved Fluorescence (1)
- Trace Gas Analysis (1)
- Transfer learning (1)
- Transition Metals (1)
- Turkish immigrants (1)
- Türkisch (1)
- Universa feature extraxtion (1)
- Unternehmensstrafrecht (1)
- Unterstützung (1)
- Valuation Theory (1)
- Verankerung (1)
- Verbandsstrafrecht (1)
- Vogelsberg (1)
- Water Reuse (1)
- Wirtschaftsstrafrecht (1)
- Working Memory (1)
- Zelle (1)
- Zellfusion (1)
- Zurechnung (1)
- Zweiphotonen (1)
- archaeometallurgy (1)
- categorisation-elaboration model (1)
- cell biology (1)
- cryo-EM (1)
- drug discovery (1)
- enantioselektive Synthese (1)
- episodic team process model (1)
- frühkindliche Erziehung (1)
- fungi (1)
- global and virtual teams (1)
- high-content screening (1)
- ibrutinib (1)
- ionisierende Strahlung (1)
- kinetische Therapie (1)
- lattice (1)
- magnetic exchange coupling constants (1)
- magnon condensation (1)
- magnon-phonon interactions (1)
- medieval/early modern (1)
- microRNA (1)
- molecular phylogenetics (1)
- multiple myeloma (1)
- neural networks (1)
- phase transitions (1)
- photolabile Schutzgruppe (1)
- plasticity (1)
- proteasom inhibitor (1)
- quantum chromodynamics (1)
- regionale Klimasimulation (1)
- steroid (1)
- synaptic normalization (1)
- team innovation (1)
- unterrichtliche Vor- und Nachbereitung (1)
- variability (1)
- yttrium-iron garnet (1)
- Übergewicht und Adipositas im Kindesalter (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
Tulasnella species (Tulasnellaceae, Cantharellales, Basidiomycota) form inconspicuous basidiomata on rotten branches or trunks of trees, difficult to find and recognize in nature. However, according to ultrastrucural and molecular data, species of Tulasnellaceae are the most frequent mycorrhriza forming fungi (mycobionts) of green, photosynthetic orchids worldwide. Species of Tulasnellaceae were also found as prominent mycobionts of the extraordinary diverse orchids in tropical montane rainforest of Southern Ecuador. Orchids obligately depend on mycobionts during the juvenile stage when the fungi have to deliver carbon to the non-photosynthetic protocorm and thus the fungi substantially influence the establishment of orchids in the wild. Species of Tulasnellaceae can acquire carbon from decaying bark or wood by specific saprotrophic capabilities as was recently proven through comparative genomics that included data on decay enzymes from Tulasnella cf. calospora isolated from orchid mycorrhizae (Anacamptis laxiflora, Italy). Thus, species of Tulasnellaceae can be saprotrophs and symbionts simultaneously.
It is currently under discussion, whether specific species of Tulasnella are required for seed germination and establishment of distinct terrestrial and epiphytic orchids in nature or if species of Tulasnella are generalists concerning their association with orchids. The inconsistences in species concepts and taxonomy of Tulasnella spp., however, strongly impede progress in this field of research. The aim of the present study was, therefore, to revise the species concepts by combining, for the first time, morphological and molecular data from basidiomata.
Specimens were collected in tropical Andean forest in Southern Ecuador and in temperate forests in Germany. Additional specimens were loaned from fungaria. In total, 205 specimens, corresponding to 16 own samples and 189 specimens from fungaria were analyzed. The mycobiont relationships of Tulasnella spp. with orchids from the sampling area in Ecuador were studied in populations of Epidendrum rhopalostele. The basis for molecular-phylogenetic analysis was completed by data obtained from own previous investigations on mycobionts from the investigation area and Tulasnella isolates from Australia.
30 morphospecies are illustrated and delimited by a morphological key based on traditional species concepts. Tulasnella andina from Ecuador and Tulasnella kirschneri from China are presented as species new to science. Tulasnella cruciata is described from herbarium material for the first time. Tulasnella aff. eichleriana and T. violea are reported for the first time from Ecuador. Molecular sequences of two Tulasnella spp. isolated from mycobionts of Epidendrum rhopalostele cannot be related to any morphological species concept. Statistical analyses suggest that conventional diagnostic using morphological characteristics is ambiguous for delimiting morphologically similar species.
For the first time sequences of the ITS-5.8S rDNA region were obtained after cloning from fresh basidiomata. Extraction of DNA from herbarium specimens was, however, unsuccessful. Sequences from 16 fresh basidiomata, six pure cultures, and sequences of orchids mycorrhizae (e.g. from Epidendrum rhopalostele) available in the database GenBank were analyzed. Proportional
variability of ITS-5.8S rDNA sequences within and among cultures and within and among specimens were used to designate morphospecies. Results suggest an intragenomic variation of less than 2 %, an intraspecific variation of up to 4 % and an interspecific divergence of more than 9 % for Tulasnella spp.
Four percent of intraspecific divergence was defined as a minimum threshold for delimiting phylogenetic species. This threshold corroborates the so far used 3 % to 5 % divergence in delimitation of operational taxonomic units of Tulasnella mycobionts.
Quite a number of sequences of Tulasnella are available in GenBank, mostly obtained from direct PCR amplification from orchid mycorrhizae. By including closely related sequences in the phylogenetic analysis, several morphological cryptic species of Tulasnella, mostly from Ecuador, were found. Arguments are given for molecular support of the new species Tulasnella andina and the established species Tulasnella albida, T. asymmetrica, T. eichleriana, T. tomaculum, and T. violea. Thus, by combining molecular and morphological data species concepts in Tulasnella are improved. The definitions of Tulasnella calospora and T. deliquescens, however, remain phylogenetically inconsistent.
The present investigation is a first step to expand our knowledge on the intraand interspecific morphological and molecular variability of Tulasnella spp. and to delimit species relevant for studies on ecology and communities of orchids and Tulasnellaceae.
Development of the flash-heating method for measuring melting temperatures in the diamond anvil cell
(2016)
A new ‘laser flash-heating’ method has been developed for measuring melting temperatures above 2000 K in a diamond anvil cell at gigapascals of pressure. It overcomes the general difficulties in detecting an onset of melting in a diamond anvil cell. It also circumvents the notorious experimental difficulties associated with the long heating durations of the CW laser-heating and the short timescales in the pulsed laser-heating and shock-compression experiments.
In this method, the duration of heating a sample is tuned to avoid chemical reactions of the sample with the diamond anvils and the surrounding pressure medium, while maintaining the accuracy of the temperature measurements. The absence of chemical reactions is confirmed by the EDS technique. Melt detection is now unambiguous from the analysis of textures on the surface and in depth of the recovered samples using the SEM and FIBM techniques, respectively. Using this method, the following has been achieved.
1. The melting curve of hcp-Re has been measured to 48 GPa, 4200 K for the first time. It has a significantly steeper slope than those observed for other transition metals like W and Mo with bcc structures. Above 20 GPa, Re becomes the most refractory metal surpassing W.
2. The melting curve of bcc-Mo has been measured to 45 GPa, 3100 K. It agrees with previous melt-slopes approaching zero value with pressure as reported in the LHDAC experiments using ADXRD and visual observation techniques for inferring the onset of melting. Flash-heating experiments at pressures higher than 50 GPa are required to further corroborate the flat melt-slope and resolve the long standing controversy about melting of Mo.
3. The melting curve of bcc-Ta has been measured to 85 GPa, 4300 K. Unlike in previous experiments using ADXRD and visual observation as probes, it has been tightly bracketed with an unambiguous detection of the onset of melting, without any chemical reaction. The present melting curve cannot be reconciled with shock measurements and theoretical predictions, and the precision of measurements calls for a reevaluation of theoretical, shock compression, and other DAC approaches to determine melting at high pressures. A further analysis with TEM technique for investigating the structure of the heated portion below and above melting temperatures of Ta may benefit in resolving various phase transitions predicted to explain the vast discrepancies in the reported melt-slopes.
When extrapolated to one atmosphere pressure, all the measured flashmelting curves agree with the known melting points.
In Anbetracht der wachsenden soziokulturellen Vielfalt in Deutschland und in anderen europäischen Ländern wächst die Relevanz pädagogischer Ansätze zur kulturellen Verständigung und somit auch der soziokulturellen Kommunikation und Sozialisationsforschung.
D. Kumbier und F. Schulz von Thun beschreiben diese Situation in folgender Weise: "Wenn Menschen miteinander in Kontakt treten, prallen Welten aufeinander. Das ist schon innerhalb einer Kultur der Fall, weil jeder mit einem persönlichen mentalen System ausgestattet ist, das ihn zu einem einmaligen und einsamen Inselbewohner macht. Unsere ganze Kommunikationspsychologie legt es darauf an, für diesen Prozess der Bewegung von Welten ein Bewusstsein zu schaffen und auf diese Grundlage kompetente Umgangsformen aufzubauen" (Kumbier/Schulz von Thun 2008, S. 9).
Hier begegnen sich zwei Welten, die auf zwei verschiedenen Kontinenten liegen, deren Werteorientierungen und kulturelle Normen und Gebräuche auf verschiedenen Weltreligionen basieren, die sich im Laufe der Jahrhunderte anders entwickelt haben. Hier ist die Rede von Asien und Europa, vom Christentum und Islam, von einem Entwicklungsland und einem Industrieland, nämlich von Afghanistan und Deutschland.
Eine nähere Betrachtung zeigt, dass das Christentum, das Judentum und der Islam eine gemeinsame Wurzel haben und sich von dem gemeinsamen Stammvater Abraham herleiten. Der große Unterschied besteht darin, dass Europa die Aufklärung erlebt hat und Religion heute überwiegend als eine Option empfunden wird. ...
In etwa 40% der Fälle erleiden Patienten bei einem Polytrauma eine Verletzung des Thorax. Diese Patienten haben im Verlau ein erhöhtes Pneumonierisiko, eine längere Beatmungs-, Intensiv- und Krankenhausverweildauer sowie ein erhöhtes Letalitätsrisiko. Um eine optimierte Versorgung dieser Patienten zu erreichen wurde seit 2003 im Universitätsklinikum Frankfurt ein standardisiertes Behandlungsverfahren durchgeführt und über die Jahre weiterentwickelt. Grundlage dieses Konzepts ist die Behandlung des Patienten mittels kinetischer Therapie im Rotorest®Bett sowie den drei Kern-Maßnahmen: Beatmung mit einem PEEP von 15mbar, frühzeitige assistierte Spontanatmung und frühzeitige enterale Ernährung. Ziel der Arbeit war die Weiterentwicklung des Behandlungsstandards wissenschaftlich unter besonderem Fokus auf die Entwicklung einer Pneumonie aufzuarbeiten. Das Konzept sah 2003 eine Beatmung, mit einem an die Oxygenierung adaptierten PEEP vor. Die Dauer der Therapie im Rotorest®Bett wurde nach Klinik entschieden. 2006 wurde standardmäßig die Therapie im Rotorest®Bett für mindestens 72h mit einem PEEP von 15mbar durchgeführt. Eine assistierte Beatmungsform sollte zeitnah etabliert werden. Im Jahr 2009, wurde das Behandlungsschema verkürzt, die Therapiedauer mit einem PEEP von 15mbar wurde auf 40 bis 48 Stunden reduziert sowie der PEEP danach initial um 4mbar reduziert. Im Anschluss erfolgte alle 8 Stunden eine weitere Reduktion des PEEP um 2mbar. Weiterhin wurde in diesem Zeitraum auf eine Antiinfektivaprophylaxe verzichtet. 108 Patienten (61,7%; ISS 37±13 Punkte) konnten in diese retrospektive Studie eingeschlossen werden. 38,3% der Patienten mussten ausgeschlossen werden, einerseits auf Grund fehlender Krankenakten oder anderseits auf Grund des Beginns der Therapie im RotoRest®Bett erst nach >48h. Durch die Anpassung des Therapiestandards über die Jahre reduzierte sich die Beatmungszeit von 17±15 Tage auf 8±8 Tage (p<0,001), die Verweildauer auf ITS von 17±9 auf 10±9 Tage (p<0,001), während die Krankenhausverweildauer unverändert blieb. Dies war begleitet von einer Reduktion der Therapiedauer im Rotorest®Bett von im Median 5 auf 3 Tage (p=0,017) sowie einer Reduktion des Anteils an Patienten mit mandatorischer Beatmung in den ersten drei Behandlungstagen von 87% (95% CI 78-96%) im Jahr 2003 auf 38,6% (95% CI 29-49%) im Jahr 2009. Die Rate an Pneumonien konnte von 25% in 2003 über 37% in 2006 auf 17% in 2009 gesenkt werden, der Unterschied war jedoch nicht signifikant. Das Risiko zu versterben war bei Entwicklung einer Pneumonie signifikant erhöht (24% vs. 4,5%, p=0,006). In der univariaten Analyse waren relevante Faktoren für die Entwicklung einer Pneumonie ein höheres Alter der Patienten (48 Jahre vs. 36 Jahre; p = 0,018), die zunehmende Höhe des Beatmungsspitzendruckes (p<0,01) sowie der Hämoglobinwert bei Aufnahme (Rs -0,28; p=0,004). Umgekehrt war eine Transfusion von Blutprodukten am ersten Behandlungstag mit einem erhöhten Pneumonierisiko verbunden (p<0,05), dies galt auch für die Verabreichung der einzelnen Komponenten, EKs (p=0,027), FFP (p=0,037) sowie von TKs (p=0,046). Keine signifikante Korrelation zur Entwicklung einer Pneumonie hatte die Verletzungsschwere (ISS) sowie die Höhe des PEEP oder der Grad der Oxygenierungsstörung (paO2/FiO2) in den ersten fünf Behandlungstagen. In der multivariaten Analyse, mit der Entwicklung einer Pneumonie als abhängigen Faktor, adjustiert auf ISS und Alter der Patienten zeigte sich als unabhängige Risikofaktoren die Gabe von EKs (OR 3,646 95%CI 1,074-12,383), die Ernährung mit >5000kcal in den ersten fünf Behandlungstagen (OR 3,219 95%CI 1,033-10,034) sowie die Höhe des Beatmungsspitzendruckes (OR 1,135 95%CI 1,010-1,275).
In Zusammenschau war ein primärer Erfolg des Konzeptes, dass kein Patient im Verlauf ein moderates oder schweres ARDS entwickelt hat. Es konnte durch die Anpassung des Behandlungsstandards sowohl die Beatmungszeit als auch die Verweildauer auf der ITS signifikant reduziert werden. Auch die Pneumonierate konnte nach einem Anstieg im Jahr 2006 bis 2009 deutlich reduziert werden. Als Risikofaktoren für die Entwicklung einer Pneumonie zeigten sich aus der Literatur bekannte Parameter wie das Alter der Patienten und die Invasivität der Beatmung sowie die Transfusion von Blutprodukten. In der multivariaten Analyse bestätigte sich dies für die Gabe von EKs, die Invasivität der Beatmung sowie der Ernährung mit kumulativ > 5000 kcal in den ersten fünf Tagen.
Patienten, die mit dem in dieser Arbeit beschrieben Protokoll behandelt wurden, zeigten aber kein signifikant erhöhtes Pneumonierisiko in Abhängigkeit zur Verletzungsschwere als Polytrauma (ISS) oder zum Grad der Oxygenierungsstörung in den ersten Tagen.
This thesis addresses the reconstruction of the topographic evolution and the climate dynamics of the Early Cenozoic North American Cordillera through integrated geochronology, sedimentology, stable isotope, and clumped isotope thermometry studies. It encompasses the scientific disciplines of geochemistry, tectonics, and Earth surface processes.
The behaviour of electronic circuits is influenced by ageing effects. Modelling the behaviour of circuits is a standard approach for the design of faster, smaller, more reliable and more robust systems. In this thesis, we propose a formalization of robustness that is derived from a failure model, which is based purely on the behavioural specification of a system. For a given specification, simulation can reveal if a system does not comply with a specification, and thus provide a failure model. Ageing usually works against the specified properties, and ageing models can be incorporated to quantify the impact on specification violations, failures and robustness. We study ageing effects in the context of analogue circuits. Here, models must factor in infinitely many circuit states. Ageing effects have a cause and an impact that require models. On both these ends, the circuit state is highly relevant, an must be factored in. For example, static empirical models for ageing effects are not valid in many cases, because the assumed operating states do not agree with the circuit simulation results. This thesis identifies essential properties of ageing effects and we argue that they need to be taken into account for modelling the interrelation of cause and impact. These properties include frequency dependence, monotonicity, memory and relaxation mechanisms as well as control by arbitrary shaped stress levels. Starting from decay processes, we define a class of ageing models that fits these requirements well while remaining arithmetically accessible by means of a simple structure.
Modeling ageing effects in semiconductor circuits becomes more relevant with higher integration and smaller structure sizes. With respect to miniaturization, digital systems are ahead of analogue systems, and similarly ageing models predominantly focus on digital applications. In the digital domain, the signal levels are either on or off or switching in between. Given an ageing model as a physical effect bound to signal levels, ageing models for components and whole systems can be inferred by means of average operation modes and cycle counts. Functional and faithful ageing effect models for analogue components often require a more fine-grained characterization for physical processes. Here, signal levels can take arbitrary values, to begin with. Such fine-grained, physically inspired ageing models do not scale for larger applications and are hard to simulate in reasonable time. To close the gap between physical processes and system level ageing simulation, we propose a data based modelling strategy, according to which measurement data is turned into ageing models for analogue applications. Ageing data is a set of pairs of stress patterns and the corresponding parameter deviations. Assuming additional properties, such as monotonicity or frequency independence, learning algorithm can find a complete model that is consistent with the data set. These ageing effect models decompose into a controlling stress level, an ageing process, and a parameter that depends on the state of this process. Using this representation, we are able to embed a wide range of ageing effects into behavioural models for circuit components. Based on the developed modelling techniques, we introduce a novel model for the BTI effect, an ageing effect that permits relaxation. In the following, a transistor level ageing model for BTI that targets analogue circuits is proposed. Similarly, we demonstrate how ageing data from analogue transistor level circuit models lift to purely behavioural block models. With this, we are the first to present a data based hierarchical ageing modeling scheme. An ageing simulator for circuits or system level models computes long term transients, solutions of a differential equation. Long term transients are often close to quasi-periodic, in some sense repetitive. If the evaluation of ageing models under quasi-periodic conditions can be done efficiently, long term simulation becomes practical. We describe an adaptive two-time simulation algorithm that basically skips periods during simulation, advancing faster on a second time axis. The bottleneck of two-time simulation is the extrapolation through skipped frames. This involves both the evaluation of the ageing models and the consistency of the boundary conditions. We propose a simulator that computes long term transients exploiting the structure of the proposed ageing models. These models permit extrapolation of the ageing state by means of a locally equivalent stress, a sort of average stress level. This level can be computed efficiently and also gives rise to a dynamic step control mechanism. Ageing simulation has a wide range of applications. This thesis vastly improves the applicability of ageing simulation for analogue circuits in terms of modelling and efficiency. An ageing effect model that is a part of a circuit component model accounts for parametric drift that is directly related to the operation mode. For example asymmetric load on a comparator or power-stage may lead to offset drift, which is not an empiric effect. Monitor circuits can report such effects during operation, when they become significant. Simulating the behaviour of these monitors is important during their development. Ageing effects can be compensated using redundant parts, and annealing can revert broken components to functional. We show that such mechanisms can be simulated in place using our models and algorithms. The aim of automatized circuit synthesis is to create a circuit that implements a specification for a certain use case. Ageing simulation can identify candidates that are more reliable. Efficient ageing simulation allows to factor in various operation modes and helps refining the selection. Using long term ageing simulation, we have analysed the fitness of a set of synthesized operational amplifiers with similar properties concerning various use cases. This procedure enables the selection of the most ageing resilient implementation automatically.
Heutzutage unterliegen insbesondere aquatische Ökosysteme durch den permanenten Anstieg nicht-heimischer Arten einem folgenreichen Wandel. Dabei stellt der Biodiversitätsverlust nur den Endpunkt einer biologischen Invasion dar. Dazwischen wirken sich Faktoren wie Konkurrenz-, Prädationsdruck oder die Übertragung von Krankheitserregern wie z.B. Parasiten auf den Rückgang der Arten aus. Als integraler Bestandteil eines jeden Ökosystems spielen Parasiten bei Invasionsprozessen eine entscheidende Rolle und können durch ihren Einfluss auf heimische und nicht-heimischen Arten Invasionen begünstigen. Fische übernehmen aufgrund ihrer vielseitigen Bedeutung im Nahrungsnetz eine Schlüsselfunktion als Wirte diverser Parasitenarten und sind deshalb ausgezeichnete Untersuchungsobjekte, um durch nicht-heimische Arten verursachte Veränderungen in Nahrungsnetzstrukturen oder Parasitenfaunen aquatischer Ökosysteme aufzudecken.
Vor diesem Hintergrund wurde die vorliegende kumulative Dissertation angefertigt, welche auf drei (ISI-) Einzelpublikationen basiert. Die Arbeit beschäftigte sich unter Verwendung morphologischer und molekularbiologischer Methoden schwerpunktmäßig mit der Parasitendiversität und Nahrungsökologie zweier eingeschleppter Fischarten in stark anthropogen beeinflussten deutschen Fließgewässern. Dabei handelte es sich um die hauptsächlich durch das Ballastwasser von Schiffen verbreitete invasive Schwarzmundgrundel Neogobius melanostomus aus den Flüssen Rhein und Main sowie den von Hobby-Aquarianern in den durch Industrieabwässer thermisch belasteten Gillbach ausgesetzten Zebrabuntbarsch Amatitlania nigrofasciata. Unter Berücksichtigung nahrungsökologischer und räumlich-zeitlicher Aspekte sollten die parasitologischen Risiken und Konsequenzen, welche durch das Einschleppen nicht-heimischer Fischarten auftreten, aufgezeigt werden, um übergeordnet die Folgenabschätzung auf dem Gebiet der Invasionsbiologie zu verbessern. Das Nahrungsspektrum beider Fischarten wies sowohl räumliche (zwischen den Flüssen und Standorten), als auch zeitliche (monatlich) Variationen auf, was die Anpassungsfähigkeit bzw. die optimale Nutzung zur Verfügung stehender Ressourcen von invasiven Arten verdeutlicht. Ebenso wurden Unterschiede in der Parasitierung nachgewiesen, was die Notwendigkeit räumlicher und zeitlicher Analysen zur Erfassung der vollständigen Parasitenfauna einer invasiven Art, inklusive aller Variationen der Befallszahlen, unterstreicht. Beide Fischarten bilden zudem Zwischenwirte für heimische, als auch nicht-heimische Parasitenarten, wobei die direkte Einschleppung von nicht-heimischen Parasiten aus dem ursprünglichen Verbreitungsgebiet der Fische auszuschießen ist und somit die Enemy-Release-Hypothese (Verlust ursprünglicher Gegenspieler wie Prädatoren oder Parasiten) unterstützt. Dies könnte zusammen mit der opportunistischen Ernährungsweise ein Grund für die starke Ausbreitung sowie die anhaltend hohen Individuenzahlen dieser Arten im jeweils betrachteten Verbreitungsgebiet (Rhein, Main sowie Gillbach) sein.
Besonders hervorzuheben ist der Nachweis der nicht-heimischen Nematoden Anguillicoloides crassus und Camallanus cotti. Durch die Aufdeckung einer besonderen Form von Hyperparasitismus konnten erstmalig hohe Befallszahlen von A. crassus in N. melanostomus dokumentiert werden. Die hoch abundante Grundelart gilt somit potentiell als entscheidender Überträger des invasiven Parasiten auf den Europäischen Aal. Der durch seine hohe Virulenz in der Aquaristik bekannte C. cotti gelangte durch das Aussetzen von Zierfischen in den Gillbach und trat mit hohen Befallszahlen in A. nigrofasciata auf und wird bereits auf die heimische Fischfauna übertragen (z.B. auf den Gründling Gobio gobio und den Döbel Squalius cephalus). Ebenso ist der starke Befall der heimischen Parasiten Pomphorhynchus sp. (Acanthocephala) und Raphidascaris acus (Nematoda) bei N. melanostomus sowie A. anguillae (Acanthocephala) bei A. nigrofasciata zu nennen. Durch die zusätzliche Wirtfunktion der Neozoen und die hohen Befallsintensitäten ist mit einem verstärkten Spillback-Effekt (Rückinfizierung) auf heimische Fischarten zu rechnen.
Die stetig steigende Anzahl biologischer Invasionen führt zu immer weitreichenderen Veränderungen heimischer Ökosysteme. Für den Erhalt der Biodiversität sowie einhergehender Ökosystemfunktionen rückt auch die Forschung über Neobiota immer mehr in den Mittelpunkt. In diesem Zusammenhang gewinnen auch Pathogene wie Parasiten immer mehr an Bedeutung, welche durch gebietsfremde Arten eingeschleppt werden und die bestehende Biodiversität gefährden können. Die Ergebnisse der durchgeführten Studien haben gezeigt, dass die Verknüpfung von parasitologischen und nahrungsökologischen Untersuchungen Einblicke in die hoch dynamischen Prozesse der Invasionsbiologie geben können, was ein Vorantreiben der Forschung und Folgenabschätzungen auf diesem Gebiet ermöglicht.
Ischemic injuries of the cardiovascular system are still the leading cause of death worldwide. They are often accompanied by loss of cardiomyocytes (CM) and their replacement by non-functional heart tissue. Cardiac fibroblasts (CF) play a major role in the recovery after ischemic injury and in the scar formation. In the last few years researchers were able to reprogram fibroblasts into CM in vitro and in murine models of myocardial infarction using various protocols including a cocktail of microRNAs (miRs). These miRs can target hundreds of messenger RNAs and inhibit their translation into proteins, potentially regulating multiple cellular signaling pathways. Because of this, there has been a rising interest in the use of miRs for therapeutic purposes. However, as different miRs have different effects in different cells, there is the danger of causing serious side effects. These could be alleviated by enacting a cell-specific transport of miRs, for example by using aptamers. Aptamers are usually short strands of DNA or RNA, which can fold into a specific three-dimensional confirmation which allows them to bind specifically to target molecules. Aptamers are commonly selected from a large library for their ability to bind to target molecules using a procedure called SELEX. Aptamers have already been used to transport miRs into cancer cells.
In this thesis, we first established the transport of miRs into cells of the cardiovascular system using aptamers. MiR-126 is an important part of the signaling in endothelial cells (EC), protects from atherosclerosis and supports angiogenesis, which is why we chose it as a candidate to transport into the vasculature. We first tested two aptamers for their ability to internalize into EC and fibroblasts. Both the aptamer for the ubiquitously expressed transferrin receptor (TRA) and a general internalizing RNA motif, but not a control construct, could internalize efficiently into all cell types tested. We then designed three chimeras (Ch) using different strategies to connect TRA to miR-126. While all chimeras could internalize efficiently, only Ch3, which connects TRA to Pre-miR-126 using a sticky bridge structure, had functional effects in EC. Ch3 reduced the protein expression of VCAM-1 in EC and increased the VEGF induced sprouting of EC in a spheroid-sprouting assay. Treatment of breast cancer cells with Ch3 emulated the effects of treatment with classical miR-126-3p and miR-126-5p mimics. In the SK-BR3 cell line Ch3 and miR-126-3p reduce the viability of the cells while they reduce recruitment of EC by the MCF7 cell line. miR-126-5p had no apparent effect in the SK-BR3 line, but increased viability of MCF7 cells, as did Ch3. This implies that Ch3 can be processed to both functional miR-126-3p and miR-126-5p in treated cells.
We were unable to achieve a reprogramming of adult murine cardiac fibroblasts into cells resembling CM using the cocktail of 4 miRs. This indicates that the miR-mediated transdifferentiation is only possible in neonatal fibroblasts. The effects in mice after an AMI might possibly be caused by an enhanced plasticity of fibroblasts in and close to the infarcted area.
We also screened to find aptamers specifically binding to cells of the cardiovascular system. We used two oligonucleotide libraries in a cell-SELEX to select candidates which bind to CF, but not EC. We observed that only the library which contains two randomized regions of 26 bases showed an enrichment of species binding to fibroblasts. We then sequenced rounds 5-7 of the SELEX and analyzed the data bioinfomatically to select 10 candidate aptamers. All candidates showed a strong binding not only to CF, but also EC. This indicates that the selection pressure against species binding to EC was not high enough and would have to be increased to find true CF-aptamers. Four promising candidates were also analyzed for their potential to be internalized and we surprisingly found that all of them were internalized by EC and CF more efficiently than TRA. The similar behavior of the candidates implies that they possibly share a ligand, which is expressed both by EC and CF, but more prominently by the latter.
This work demonstrates the possibility of using aptamers to transport miRs into cells of the cardiovascular system. It also shows that it is possible to select aptamers for non-cancerous mammalian cells, which has not been done before. It is reasonable to assume that a refinement of the cell-SELEX will allow selection of cell-specific aptamers. Due to the failure of reprogramming of adult fibroblasts into induced cardiomyocytes we were unable to test whether a miR-mediated reprogramming might be inducible using aptamer transported-miRs. Ultimately, aptamer mediated transport of miRs is a feasible and promising therapeutic option for the treatment of cardiovascular diseases and other disorders like cancer.
The development of the atrioventricular (AV) canal and the cardiac valves is tightly linked and a critically regulated process. Anomalies in components of the involved pathways can lead to congenital valve malformations, a leading cause of morbidity and mortality in neonates. Myocardial Bmp as well as endocardial Notch and Wnt signaling have been identified as critical factors for the induction of EMT during the formation of the endocardial cushions and cardiac valves. Of these, canonical Wnt signaling positively regulates endocardial proliferation and EMT but negatively regulates endocardial differentiation. Further, elevated Wnt signaling leads to the ectopic expression of myocardial Bmp ligands suggesting a high level of integration of the involved pathways and crosstalk amongst the different cardiac tissues.
Here we have identified a novel role for Id4 as a mediator between Bmp and Wnt signaling. Id4 belongs to the Id family of proteins and is known to be involved in bone and nervous system development. We found that in zebrafish, id4 is expressed in the endocardium of the AV canal at embryonic stages and throughout the atrial chamber in addition to AV canal, in adults. Using transcription activator-like effector nucleases (TALENs) we established an id4 mutant allele. Our analysis shows that id4 mutant larvae are susceptible to retrograde blood flow, and show aberrant expression of developmental valvular markers. These include expanded expression domains of markers like bmp4, cspg2a and Alcam. In contrast, valve maturation as assessed by the expression of spp1 is considerably reduced in id4 mutants. Using conditional transgenic systems, along with elegant in vivo imaging of transgenic reporter lines, we further found that id4 is a transcriptional target of Bmp signaling, and it is capable of dose dependently restricting Wnt signaling in the endocardium of the Atrioventricular Canal.
Taken together, our data identifies Id4 as a novel player in Atrioventricular Canal and valve development. We show that Id4 function is important in valve development acting downstream of Bmp signaling by restricting endocardial Wnt to allow valve maturation
Die vorliegende Studie vermittelt einen epidemiologischen Überblick über das mit Haut- und Nagelläsionen assoziierte Pilzspektrum im Westen Panamas. Hierzu wurden Proben von vermutlich durch Pilzinfektionen verursachten Haut- sowie Nagelläsionen gesammelt und zum Anlegen von Kulturen verwendet. Die isolierten Pilze wurden basierend auf dem D-H-S System (Rieth), anhand morphologischer Merkmale, rDNA Sequenzdaten sowie phylogenetischen Analysen klassifiziert und mit Hilfe von Literaturdaten sowie physiologischen Eigenschaften als saprotrophe, opportunistische oder pathogene Organismen beurteilt. In Panama wurden 52 Proben von 51 Personen gesammelt, wobei das Material von 42 Haut- und Nagelläsionen der Füße, vier Läsionen der Fingernägel, zwei Chromomykosen, einer Tinea nigra und drei sonstigen Hautläsionen stammt. Bei 75 Prozent (n = 39) der Proben konnten Pilze kultiviert und insgesamt 201 Pilzstämme isoliert und subkultiviert werden. Hiervon wurden 50 Isolate (24,9 %) als Dermatophyten, 24 Stämme (11,9 %) als Hefen und 127 Isolate (63,2 %) als Schimmelpilze klassifiziert. Bei 19 Probanden (48,7 %) konnten Dermatophyten isoliert werden, wobei aus dem Probenmaterial von 12 Personen (63,2 %) ebenfalls andere Pilzarten nachgewiesen wurden. Von zwei Läsionen (5,1 %) wurden nur Hefen isoliert, wobei einmal eine Schwarze Hefe kultiviert wurde. In dem Material acht weiterer Proben (20,5 %) wurden Schimmelpilze und Hefestämme nachgewiesen und bei zehn Probanden (25,6 %) konnten aus dem Probenmaterial nur Schimmelpilze kultiviert werden. 172 Isolate wurden taxonomisch klassifiziert und 44 Arten aus 25 Gattungen, 17 Familien, 15 Ordnungen, sechs Klassen sowie den Abteilungen Ascomycota oder Basidiomycota zugeordnet. Die Ascomyceten stellen mit 164 Stämmen 40 verschiedener Arten aus 23 Gattungen, 15 Familien, 11 Ordnungen und vier Klassen die am häufigsten isolierte und vielfältigste Gruppe dar, während die Basidiomycota nur mit acht Isolaten vier verschiedener Arten zwei unterschiedlicher Gattungen, Familien, Ordnungen und Klassen nachgewiesen wurden. Im Rahmen dieser Arbeit wurden in Panama die anthropophilen Dermatophyten Trichophyton rubrum und T. interdigitale dokumentiert, wobei T. rubrum die am häufigsten isolierte Art darstellt. Kultivierte Hefen waren Candida albicans, C. duobushaemulonii, C. tropicalis, Hortaea werneckii, Sporobolomyces sp., Trichosporon asahii, T. japonicum und T. montevideense. Die Schimmelpilze stellen die größte und ökologisch diverseste Organismengruppe der kultivierten Pilze dar. So wurden von den untersuchten Läsionen sowohl humanpathogene Erreger, als auch opportunistische Arten und rein saprotrophe Pilze sowie mehrere Vertreter wahrscheinlich bisher nicht wissenschaftlich beschriebener Arten bzw. Gattungen nachgewiesen. Aus dem Probenmaterial wurden die Pilze Acremonium collariferum, Aspergillus awamori, A. clavatus, A. flavus, A. giganteus, A. heteromorphus, A. niger, A. ochraceus, A. sclerotiorum, A. versicolor, Chaetomium globosum, Chrysosporium tuberculatum, Cladosporium sphaerospermum, C. tenuissimum, Curvularia geniculata, C. lunata, Fonsecaea pedrosoi, Fusarium oxysporum, F. solani, Lophotrichus bartlettii, Microascus cinereus, Neoscytalidium dimidiatum, Penicillium commune, Scolecobasidium sp., Scopulariopsis carbonaria, S. croci, Verticillium cf. epiphytum und Wardomycopsis litoralis isoliert. Zudem wurden vier Isolate von zwei vermutlich neuen Arten der Gattung Acremonium (Bionectriaceae, Hypocreales), zwei Stämme mit einer genetischen Affinität zu der Gattung Cryptendoxyla (Cephalothecaceae, Sordariales) und jeweils ein mit den Gattungen Fusicladium (Venturiaceae, Venturiales), Knufia (Trichomeriaceae, Chaetothyriales) bzw. Rhexothecium (Eremomycetaceae, Dothideomycetidae) assoziierter Stamm kultiviert. Im Rahmen dieser Studie wurden A. giganteus, C. tenuissimum, L. bartlettii, S. carbonaria, S. croci, V. epiphytum und W. litoralis erstmalig von Mykosen des Menschen dokumentiert und die in der Literatur als Verursacher sowie Besiedler von Haut- und Nagelläsionen beschriebenen Organismen A. clavatus, A. flavus, A. niger, A. ochraceus, C. tropicalis, C. globosum, C. sphaerospermum, C. lunata, F. oxysporum, M. cinereus, P. commune, T. asahii, T. japonicum und T. montevideense wurden das erste Mal in klinischem Probenmaterial aus Panama nachgewiesen. Die Arten A. awamori, A. heteromorphus, C. globosum, C. tenuissimum, L. bartlettii, M. cinereus, P. commune, S. croci, T. asahii, T. japonicum, T. montevideense, V. epiphytum, W. litoralis und die Gattung Scolecobasidium wurden zudem erstmalig für Panama dokumentiert. Die Isolation von W. litoralis ist ebenfalls der erste Nachweis dieses Pilzes außerhalb von Spanien und auf dem amerikanischen Kontinent. Die große Anzahl im Rahmen dieser Arbeit beschriebener, bisher für die Wissenschaft unbekannter bzw. nicht in Panama dokumentierter Pilzarten lässt auf eine große mykologische Biodiversität in Panama schließen und zeigt den Bedarf weiterer Forschung.
Magnetism is a beautiful example of a macroscopic quantum phenomenon. While known at least since the ancient Greeks, a microscopic theoretical explanation of magnetism could only be achieved with the advent of quantum mechanics at the beginning of the 20th century. Then it was understood that in a certain class of solids the famous Pauli exclusion principle leads to an effective interaction between the microscopic magnetic moments, i.e., the spins, which favors an ordered, and hence macroscopically magnetic, state. Nowadays, magnetic phenomena are used in a host of applications, and are especially relevant for information storage and processing technologies.
Despite the long history of the field, magnetic phenomena are still an active research topic. In particular, in the last decade the fields of spintronics and spin-caloritronics emerged, which manipulate the microscopic spins via charge and heat currents respectively. This opens new avenues to potential applications; including the possibility to use the magnetic spin degrees of freedom instead of charges as carriers of information, which could provide a number of advantages such as reduced losses and further miniaturization.
In this thesis we do not delve any further into the realm of possible applications. Instead we use sophisticated theories to explore the microscopic spin dynamics which is the basis of all such applications. We also focus on a particular compound: Yttrium-iron garnet (YIG), which is a ferrimagnetic insulator. This material has been widely used in experiments on magnetism over the last decades, and is a popular candidate for spintronic devices. Microscopically, the low-energy magnetic properties of YIG can be described by a ferromagnetic Heisenberg model. For spintronics and spin-caloritronics applications, it is however insufficient to only consider the magnetic degrees of freedom; one should also include the coupling of the spins to the elastic lattice vibrations, i.e., the phonons. Besides giving an overview on techniques used throughout the thesis, the introductory Ch. 1 provides a discussion of the microscopic Hamiltonian used to model the coupled spin-phonon system in the subsequent chapters.
The topic of Ch. 2 are the consequences of the magnetoelastic coupling on the low-energy magnon excitations in YIG. Starting from the microscopic spin-phonon Hamiltonian, we rigorously derive the magnon-phonon hybridization and scattering vertices in a controlled spin wave expansion. For the experimentally relevant case of thin YIG films at room temperature, these vertices are then used to compute the magnetoelastic modes as well as the magnon damping. In the course of this work, the damping of magnons in this system was also investigated experimentally using Brillouin light scattering spectroscopy. While comparison to the experimental data shows that the magnetoelastic interactions do not dominate the total magnon relaxation in the experimentally accessible regime, we are able to show that the spin-lattice relaxation time is strongly momentum dependent, thereby providing a microscopic explanation of a recent experiment.
In the final Ch. 3, we investigate a different phenomenon occurring in thin YIG films: Room temperature condensation of magnons. Prior work attributed this condensation process to quantum mechanics, i.e., it was interpreted as Bose-Einstein condensation. However, this is not satisfactory because at room temperature, the magnons in YIG behave as purely classical waves. In particular, the quantum Bose-Einstein distribution reduces to the classical Rayleigh-Jeans distribution in this case. In addition, the effective spin in YIG is very large. Therefore we start from the hypothesis that the room temperature magnon condensation is actually a new example of the kinetic condensation of classical waves, which has so far only been observed by imaging classical light in a photorefractive crystal. To distinguish this classical condensation from the quantum mechanical Bose-Einstein one, we refer to it as Rayleigh-Jeans condensation. To prove our claim, we consider the classical equations of motion of the coupled spin-phonon system. By eliminating the phonon degrees of freedom, we microscopically derive a non-Markovian stochastic Landau-Lifshitz-Gilbert equation (LLG) for the classical spin vectors. We then use this LLG to perform numerical simulations of the magnon dynamics, with all parameters fixed by experiments. These simulations accurately reproduce all stages of the magnon time evolution observed in experiments, including the appearance of the magnon condensate at the bottom of the magnon spectrum. In this way we confirm our initial hypothesis that the magnon condensation is a classical Rayleigh-Jeans condensation, which is unrelated to quantum mechanics.
Entwicklung und Test einer supraleitenden 217 MHz CH-Kavität für das Demonstrator-Projekt an der GSI
(2016)
In den letzten Jahrzehnten vergrößerten sich die Anwendungsgebiete von Linearbeschleunigern für Protonen und schwere Ionen, insbesondere im Nieder- und Mittelenergiebereich, stetig. Der überwiegende Teil dieser mittlerweile bewährten Anwendungen lag im Bereich der Synchrotroninjektion oder der Nachbeschleunigung von radioaktiven Ionenstrahlen. Darüber hinaus wird seit einiger Zeit die Entwicklung neuartiger, supraleitender Hochleistungslinearbeschleunigerkavitäten stark vorangetrieben, welche vor allem bei der Forschung an Spallationsneutronenquellen, in der Isotopenproduktion oder bei der Transmutation langlebiger Abfälle aus Spaltreaktoren Anwendung finden sollen. Die am Institut für Angewandte Physik der Goethe-Universität Frankfurt entwickelte CH-Kavität ist optimal für den Einsatz in derartigen Hochleistungsapplikationen geeignet. Sie ist die erste Vielzellenstruktur für den Nieder- und Mittelenergiebereich und kann sowohl normal- als auch supraleitend verwendet werden. Bislang konnten in der Vergangenheit ein supraleitender 360 MHz CH-Prototyp sowie eine für hohe Leistungen optimierte supraleitende 325 MHz CH-Struktur erfolgreich bei kryogenen Temperaturen ohne Strahl getestet werden. Um die Forschung im Bereich der Kernphysik, der Kernchemie und vor allem im Bereich der superschweren Elemente auch in Zukunft weiter fortzusetzen, ist der Bau eines neuen supraleitenden, dauerstrichbetriebenen Linearbeschleunigers an der GSI geplant. Das Kernstück des zukünftigen cw-LINAC basiert auf dem Einsatz supraleitender 217 MHz CH-Kavitäten, mit deren Hilfe ein adäquater Teilchenstrahl mit
maximal 7,5 MeV/u für die SHE-Synthese bereitgestellt werden soll. Auf dem Weg zur Realisierung des geplanten cw-LINACs wurde im Zuge des Demonstrator-Projektes die Umsetzung der ersten Sektion des gesamten Beschleunigers beschlossen. Der Fokus des Projektes liegt auf der Demonstration der Betriebstauglichkeit innerhalb einer realistischen Beschleunigerumgebung sowie insbesondere auf der erstmaligen Inbetriebnahme einer supraleitenden CH-Kavität mit Strahl. Im Rahmen der vorliegenden Arbeit wurde die erste supraleitende 217 MHz CH-Kavität für das Demonstrator-Projekt entwickelt, produziert und ihre Hochleistungseigenschaften in einem vertikalen Kryostaten bei 4,2 K getestet. Hierbei lag das Hauptaugenmerk auf der HF-Auslegung der Kavität, den begleitenden Tuningmaßnahmen während der Produktion sowie den ersten Leistungstests unter kryogenen Bedingungen. Weitere Schwerpunkte lagen auf der kompakten Bauweise, dem effektiven Tuning, der Oberflächenpräparation sowie auf dem Strahlbetrieb der Kavität mit einem dauerstrichfähigem 5 kW Hochleistungskoppler. Die Umsetzung
der Kavität beruhte auf dem geometrischen Konzept der supraleitenden, siebenzelligen 325 MHz CH-Struktur.
Ihre elektromagnetische und strukturmechanische Auslegung erfolgte mittels der Simulationsprogramme ANSYS Multiphysics und CST Studio Suite. Um während des Test- bzw. Strahlbetriebs mit der entsprechend notwendigen Kopplungsstärke die HF-Leistung in die Kavität einzuspeisen, wurden unterschiedliche Kopplerantennen für den jeweiligen Fall ausgelegt. Zum Erreichen der geforderten Zielfrequenz wurde ein Verfahren erarbeitet, welches die hierfür notwendigen Mess- und Arbeitsschritte während der einzelnen
Produktionsphasen beinhaltet. Diesbezüglich wurden während der Produktion der Kavität eine Reihe von Zwischenmessungen beim Hersteller durchgeführt, um den Frequenzverlauf innerhalb der jeweiligen Fertigungsschritte entsprechend beeinflussen zu können
und um vorangegangene Simulationswerte zu validieren. Alle untersuchten Parameter konnten während der Messungen in guter Übereinstimmung zu den Simulationen reproduziert und die Zielfrequenz der Kavität schließlich erreicht werden. Nach Abschluss der letzten Oberflächenpräparationen wurde die Kavität in einer neuen kryogenen Testumgebung innerhalb der Experimentierhalle des IAP für einen vertikalen Kalttest vorbereitet.
Daraufhin erfolgte das Evakuieren der Kavität, das Abkühlen auf 4,2 K sowie ihre Konditionierung. Anschließend erfolgte die Bestimmung der intrinsischen Güte der Kavität.
Sie betrug 1,44 x 10E9 und besitzt somit den bisher höchsten Gütewert, der jemals bei einer supraleitenden CH-Struktur erreicht wurde. Es konnte ein maximaler Beschleunigungsgradient von 7 MV/m im Dauerstrichbetrieb erreicht werden, was einer effektiven Spannung von 4,2 MV entspricht. Die zugehörigen magnetischen und elektrischen Oberflächenfelder lagen bei 39,3 mT bzw. 43,5 MV/m. Ein thermaler Zusammenbruch konnte während des gesamten Leistungstests nicht festgestellt werden, was auf eine gute thermische Eigenschaft der Kavität hindeutet. Allerdings zeigte der gemessene Verlauf ein frühes Abfallen der Güte ab 2,5 MV/m, was durch anormale Leistungsverluste aufgrund von Feldemission hervorgerufen wurde. Dies war aufgrund der unzureichenden Oberflächenbehandlung der Kavität zu erwarten, da die Hochdruckspülung aus technischen Gründen nur entlang der Strahlachse erfolgte. Dennoch konnte die Designvorgabe des geplanten cw-LINACs hinsichtlich der Güte bei 5,5 MV/m um einen Faktor 2 übertroffen werden.
Die positiven Ergebnisse der Simulationsrechnungen und der Messungen zeigen, dass die Anforderungen des Demonstrator-Projekts, insbesondere hinsichtlich des benötigten Beschleunigungsgradienten, mittels der entwickelten supraleitenden 217 MHz CH-Kavität erfüllt werden. Somit wurde im Rahmen dieser Arbeit maßgeblich an der Umsetzung des Demonstrator-Projekts bzw. an der Realisierung des geplanten cw-LINACs beigetragen und der Weg für einen Strahlbetrieb der Kavität vorbereitet.
Panama, a small country between the major continents of North and South America, is one of the lesser studied regions in Central America, but is recognized for its mega-biodiversity. This is particularly true for Eastern Panama, which I am considering as the easternmost portion of the country, covering the area from the Chepo, which is also the beginning of the San Blas mountain range, towards east, up to the Darien Mountain range on the border with its neighboring country Colombia. In the lowland region I visited two physiographic areas: the Isthmian-Atlantic Moist Forests (IAMF) and the Chocó-Darién Moist Forests (CDMF). In the IAMF I worked at the localities of Río Mono, Wacuco, La Moneda, Arretí, Metetí, Filo del Tallo, and Laguna de Matusagaratí. In the CDMF I visited the localities of Cruce de Mono, Cana, Garachiné, Sambú, and Pavarandó. And I have worked in the highlands of Darién (DM), Majé (MM), Jingurudó-Sapo (JSM), Pirre (PM) and San Blas (SSM) in the highlands.
Before my research, 138 reptile and 104 amphibian species had been reported for EP. From 2008 to 2013, I collected specimens to evaluate the diversity of amphibians and reptiles for this region. I applied an integrative approach to evaluate the taxonomy, diversity, biogeography, and conservation of the herpetofauna of EP. I included analyses of morphometrics, molecular genetics (e.g. barcoding), biogeography, bioacoustics (in anurans), hemipenial morphology (in squamates), and ecology. This is the first regional evaluation of the biodiversity in EP applying integrative taxonomy. Aside from morphological and bioacoustic data, my work is based on the barcoding of 608 specimens, from which I obtained 16S mtDNA for 486 specimens and COI mtDNA for 455. In total I have got sequences for 69.2 %of the amphibian and 48.6 % of the reptile species present in EP. For the morphological analyses, I compared 1597 specimens, including my samples complemented by specimens obtained from various museums. The bioacoustic data were obtained from the analysis of 1504 calls of 27 species of frogs. Based on specimens collected in EP and according to external morphology, I could identify 65 species of amphibians and 72 reptiles, but after applying an integrative approach these numbers increased to 79 amphibians and 88 reptiles described species within my collected specimens. Additionally, I uncovered 33 taxonomic units that could not be assigned to any described species until now, 22 of them represent confirmed candidate species (CCS), and 11 were classified as Unconfirmed candidate species (UCS). Thus, increasing the known species of amphibian by 19.4 % and of reptiles by 4.8 %. Currently, there are 145 reptiles and 129 amphibians known to occur in EP. Based on my results, I have initiated several projects to solve taxonomic uncertanties, including the species of the genera Bolitoglossa, Diasporus, Dactyloa, Ecnomiohyla, Lepidoblepharis, and the taxonomic status of the species Pristimantis caryophyllaceus and Norops tropidogaster.
Out of the 22 CCS I found, I described nine species new to science with type locality in EP, six amphibians and four reptiles. Among these is a new species of Bolitoglossa described from Cerro Chucantí, Cordillera de Majé, Provincia de Darién, Panama. Additionally, I include comments on the other species of congeneric salamanders known to occur in the region. Among the tink frogs, only Diasporus quidditus was known to occur in EP. During my field work I collected six additional species of this genus, four of which are new to science, plus two species new for this region.
I also described one new species of Dactyloa (giant anole lizards) related to the former D. chocorum. I synonymized D. chocorum with D. purpurescens, and included information about the other species of the group from EP. The new species of Dactyloa resembles D. ibanezi, D. limon, and D. purpurescens in external morphology but differs from these species in dewlap coloration, dorsal color pattern, morphometrics, and scalation. I discovered one species of the genus Ecnomiohyla, which exhibits significant genetic distances (16S mtDNA gene) and morphological differences to all known Ecnomiohyla species. Along with the description of the new Ecnomiohyla species, I provide detailed comparisons of morphological and molecular characters of almost all members of the genus in Lower Central America, as well as an identification key for the entire genus. Two new species of the genus Lepidoblepharis from EP were described. In the corresponding work, I include an analysis of Lepidoblepharis spp. in the region, including phylogeography and taxonomy. One of the new species, Lepidoblepharis emberawoundule, can be differentiated from most species in the genus by its small size and its low number of lamellae under the fourth toe and finger. The other species described from EP, Lepidoblepharis rufigularis, can be differentiated from all species in the genus by its small size and the reddish throat in males.
Im Rahmen dieser Arbeit wurden zum Vergleich die Strukturen der ATP-Synthasen von Arabidopsis thaliana, Asparagus officinalis, Allium cepa, Helianthus annus, Solanum tuberosum, Bos taurus und Saccharomyces cerevisiae gelöst. Die ATP-Synthase von S. cerevisiae konnte mit einer Auflösung von 19 Å gelöst werden. Der Winkel zwischen den zwei ATP-Synthase-Monomeren in dem ATP-Synthase-Dimer hatte für jede Spezies einen bestimmten Wert. Dieser Winkel änderte sich innerhalb einer Spezies nur wenig im Gegensatz zu Untersuchungen mit Einzelpartikelanalyse.
Die ATP-Synthase-Dimere aus den untersuchten Spezies besitzen unterschiedliche Winkel zwischen 78˚ und 122˚. Der Winkel des ATP-Synthase-Dimers aus S. tuberosum (122˚) viel größer als der in anderen Pflanzen (~98˚), B. taurus (105˚) und S. cerevisiae (78˚). Die Proben von S. tuberosum und B. taurus waren jedoch dünner, was den Winkel eventuell beeinflussen könnte. Um dies auszuschließen müssen in Zukunft weitere Untersuchungen durchgeführt werden.
Des Weiteren wurde im peripheren Stiel der ATP-Synthasen von allen Pflanzenspezies eine Dichte entdeckt, die in B. taurus und S. cerevisiae nicht vorhanden ist. Die Dichte könnte durch eine zusätzliche Untereinheit oder veränderte Untereinheit im Vergleich zu B. taurus und S. cerevisiae kommen.
Weiterhin wurde die Bildung von Reihen aus ATP-Synthase-Dimeren untersucht. Es wurden ATP-Synthase-Dimere von Polytomella sp. gereinigt und in Lipid rekonstituiert. Es wurde das ATP-Synthase-Dimer von Polytomella sp. verwendet, da dieses besonders stabil ist und während der Reinigung nicht zum ATP-Synthase-Monomer zerfällt. Zur Rekonstitution wurde die milde GRecon-Methode verwendet. Hierbei werden Membranproteine in einem Zuckergradienten gleichzeitig in Lipid rekonstituiert und nach ihrer Dichte getrennt. Abhängig von der Dichte der Proteoliposomen ist die Konzentration an Membranproteinen unterschiedlich. In Proteoliposomen mit einer hohen Konzentration bilden sich dünne Schichten in denen die ATP-Synthase-Dimeren Zickzack-Muster formen. Dies deutet darauf hin, dass das ATP-Synthase-Dimer die Membran verformt. In Proteoliposomen mit einer niedrigeren Konzentration an ATP-Synthase-Dimeren wurden runde Vesikel detektiert, in denen die ATP-Synthase-Dimere lange Reihen bilden und die Membran innerhalb jedes ATP-Synthase-Dimer ebenfalls verformt ist. Molekulare Simulationen bestätigen dieses Ergebnis.
Zudem wurde das ATP-Synthase-Dimer in zwei verschiedene Lipide ohne Cardiolipin rekonstituiert, da Cardiolipin ein Lipid ist welches in der bakteriellen und mitochondrialen Membran gefunden wurde und in hohen Konzentrationen in Membrankrümmungen lokalisiert ist (Huang et al., 2006), wie auch die ATP-Synthase-Dimere. Ohne Cardiolipin ist die Rekonstitution nicht geglückt beziehungsweise sind die ATP-Synthase-Dimere weniger gut zueinander angeordnet. Das deutet auf die Wichtigkeit von Cardiolipin in der Stabilisierung der Reihen von ATP-Synthase-Dimeren hin. Weitere Experimente mit verschiedenen ATP-Synthase-Dimeren in verschiedenen Lipiden sind nötig um dies zu untermauern.
Ein weiteres Ziel dieser Arbeit war es ein klonierbares Label zu etablieren, um ein bestimmtes Protein in Kryo-Elektronentomogramme zu identifizieren. Das Label sollte klein sein, um das zu identifizierbare Protein nicht zu beeinflussen und groß genug um in Kryo-Elektronentomogramme identifizierbar zu sein. In Einzelbildern wurde das 6 kDa große Metallothionein gebunden mit Gold identifiziert, wenn zwei Metallothioneine an dem gewünschten Protein kloniert wurden. Metallothionein besteht zu 33 % aus Cysteinen, welche Schwermetalle binden.
In meinen Studien habe ich bewiesen, dass drei Metallothioneine, gebunden mit Gold, in Kryo-Elektronentomogramme detektiert werden können. Jedoch tritt bei der Verwendung von Metallothionein durch die hohe Anzahl an Cysteinen vermehrt Aggregation auf. Bei meinen Untersuchungen fand ich heraus, dass auch das Maltose-Binde-Protein (MBP) ein Signal gleicher Intensität erzeugt. Durch Verwendung von MBP tritt aber keine Aggregation auf und man kann MBP auch zum Reinigen des Proteins verwenden.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von regionalen Klimasimulationen für die Region Ostasien. Hierfür werden zwei verschiedene Modellierungsansätze verwendet. Der dynamische Regionalmodellierungsansatz, vertreten durch COSMO CLM (CCLM), und der statistische Modellierungsansatz, vertreten durch STARS. Die Simulationen erfolgten unter den Rahmenbedingungen des Coordinated Regional Climate Downscaling Experiment (CORDEX). Beide Regionalmodelle wurden im Rahmen dieser Arbeit umfassend für die Region CORDEX-Ostasien kalibriert und evaluiert. Das statistische Modell STARS wurde hierbei erstmals auf kontinentaler Ebene angewendet. Auf Basis der kalibrierten Modelle wurden Projektionen der zukünftigen klimatischen Entwicklung der Region durchgeführt.
Zur Auswertung der einzelnen Kalibrierungsläufe wurde ein komplexes Evaluierungsschema, mit einem Gütekennzahlensystem basierend auf einer linearisierten Form der relativen Modelldifferenz, entwickelt. Neben den etablierten univariaten statistischen Kennwerten (Mittelwert, Varianz, Trend) enthält das Gütekennzahlensystem auch ein bivariates statistisches Maß, welches die zweidimensionalen Stichprobenverteilungen zweier Variablen (beispielsweise Temperatur und Niederschlag) bewertet.
Im Rahmen der Kalibrierung konnte ein Großteil des Parameterraums des statistischen Modells STARS systematisch untersucht werden. Es zeigte sich, dass nur wenige Parameter einen Einfluss auf die Simulationen haben. Die meisten Parameter zeigten eine geringe und teilweise unsystematische Beeinflussung. Es konnte zudem eine Schwachstelle des Modells in Bezug auf die Variablenkorrelationen identifiziert werden. Bei der Kalibrierung des dynamischen Regionalmodells CCLM zeigte sich, dass aufgrund der groben horizontalen Auflösung des Modells eine signifikante Verbesserung der Simulationen durch eine Anpassung der physikalischen Parametrisierungen erfolgen kann.
Im Rahmen einer abschließenden Evaluierung wurden beide Modelle hinsichtlich ihres räumlichen Bias, des simulierten Jahresgangs und der Abbildung des asiatischen Monsunphänomens untersucht. Im ersten Punkt ergab sich kein qualitativer Unterschied zwischen CCLM und STARS. Beide Modelle zeigen eine deutliche Überschätzung der 2m-Temperatur im Winter über dem nördlichen Teil CORDEX-Ostasiens und eine Überschätzung des Luftdrucks über dem Hochland von Tibet im Sommer. Unterschiede zwischen beiden Modellen ergaben sich hingegen beim simulierten Jahresgang.
In Bezug auf die Modellierung des Monsunphänomens zeigt CCLM eine Unterschätzung der Intensität des indischen Sommermonsuns und eine Überschätzung des Sommermonsuns über dem westlichen Nordpazifik. Das statistische Modell STARS zeigte eine Auffälligkeit bei der Simulation des Jahresgangs sowie der räumlichen und zeitlichen Entwicklung des Sommermonsuns. Aufgrund der Konzeption des Modells ergab sich in einzelnen Regionen eine systematische Deformation des Jahresgangs. Trotz der identifizierten Schwachstellen von CCLM und STARS, bilden beide Modelle das Klima über der Region CORDEX-Ostasien qualitativ ähnlich gut ab wie aktuelle Reanalysen (ERA-Interim).
Auf Basis der kalibrierten und evaluierten Modelle wurden Klimaprojektionen für einen nahen (2020-2046), mittleren (2041-2070), und späten (2071-2100) Projektionszeitraum unter den Emissionsszenarien RCP2.6, RCP4.5 und RCP8.5 durchgeführt. Aufgrund von Modellbeschränkungen begrenzen sich die Rechnungen des Modells STARS auf den nahen Projektionszeitraum und die Emissionsszenarien RCP2.6 und RCP4.5. Die Projektionen beider Modelle zeigen eine deutliche und statistisch signifikante Erhöhung der 2m-Temperatur über der gesamten Region mit einer stärkeren Erwärmung über dem Kontinent gegenüber dem Meer. Aufgrund der relativ großen interannulären Variabilität des Niederschlags und des Luftdrucks werden statistisch nicht signifikante Änderungssignale und teils widersprüchliche Änderungen für den nahen Projektionszeitraum simuliert. Für den späten Projektionszeitraum ergeben sich jedoch deutliche Änderungssignale in den Simulationen des Modells CCLM. Insbesondere über dem Hochland von Tibet wird für den Zeitraum von 2071-2100 eine Temperaturerhöhung von über 7.0°C simuliert. Der Luftdruck und der Niederschlag zeigen räumlich heterogene Änderungssignale. Die spezifische Ausprägung der Luftdruckänderungen deutet auf eine Abschwächung der indischen Sommermonsunzirkulation und eine deutlichen Intensivierung des Sommermonsun über dem westlichen Nordpazifik hin. Die Niederschlagsänderungen über dem ostasiatischen Monsungebiet lassen auf eine Entkopplung der östlichen Monsunsysteme schließen. Trotz der heterogenen Änderungssignale im Niederschlag wird in den meisten Regionen eine Zunahme der Intensität von Extremniederschlägen simuliert. Dies gilt selbst für Regionen mit einer simulierten Abnahme der jährlichen Niederschlagssumme wie Westindonesien.
This thesis is concerned with protein structures determined by nuclear magnetic resonance (NMR), and the text focuses on their analysis in terms of accuracy, gauged by the correspondence between the structural model and the experimental data it was calculated from, and in terms of precision, i.e. the degree of uncertainty of the atomic positions. Additionally, two protein structure calculation projects are described...
Photoinduzierte Energietransferprozesse und -reaktionen spielen in vielen Gebieten von Chemie, Physik und Biologie eine wichtige Rolle. Zu den prominentesten Beispielen zählen der Lichtsammelprozess in der Photosynthese und der Anregungsenergietransfer in funktionellen Materialien. Der Fokus dieser Arbeit liegt auf letzterem Bereich, genauer auf organischer Elektronik und flexiblen Donor-Akzeptor-Bausteinen und Schaltern. Im Besonderen werden hier zwei verschiedene Typen von funktionellen organischen Systemen betrachtet: zum einen oligomere Fragmente organischer halbleitender Polymere wie Oligo-p-Phenylen-Vinylen (OPV) und Oligo-Thiophen (OT), welche als Bausteine für neuartige organische Solarzellen dienen, und zum anderen kleine funktionelle Donor-Akzeptor-Einheiten wie Dithienylethen-Bordipyrromethen (DTE-BODIPY). Letzteres wurde in Kooperation mit den experimentellen Gruppen von K. Rück-Braun (TU Berlin) und J. Wachtveitl (Goethe Universität) untersucht. Um die relevanten Energietransfermechanismen genauer zu verstehen, wurden an diesen Systemen elektronische Strukturrechnungen und quantendynamische Untersuchungen durchgeführt. Hierzu wurden mittels ab initio-Methoden Modell-Hamiltonians parametrisiert und mit hochdimensionalen quantendynamischen oder semiklassischen Methoden kombiniert. Während die Parametrisierung für kleinere Fragmente durchgeführt wurde, lässt sich der so parametrisierte Hamiltonian ohne Weiteres auf größere Systeme erweitern. Die dynamischen Studien der betreffenden Systeme wurden mittels der Multikonfigurationellen Zeitabhängigen Hartree (MCTDH) Methode durchgeführt, welche eine vollständige quantendynamische Beschreibung des Systems zulässt. Für größere Systeme wurde die semiklassische Ehrenfest Methode in Verbindung mit dem Langevin-Ansatz zur Beschreibung von Umgebungseffekten genutzt. Hierzu wurde ein eigens für diese Methode und Systeme geschriebenes Programm eingesetzt. Im Falle der OT- und OPV-Oligomere wurde die Dynamik bei Vorliegen eines strukturellen Defekts untersucht. Ziel war es hierbei, die dynamischen Phänomene, welche durch die Photoanregung induziert werden, zu untersuchen. Des Weiteren wurde untersucht, ob das Konzept von „spektroskopischen Einheiten“, welche die Lokalisierung der Anregung durch strukturelle Defekte beschreibt, in diesen Systemen zutrifft. Hierzu wurden die Systeme in einer Frenkel-Basis definiert, welche ein auf einem Monomer lokalisiertes Elektron-Loch-Paar beschreibt. Delokalisierte elektronische Anregungen können somit als Superposition solcher Frenkel-Zustände beschrieben werden. Neben der Frenkel-Basis wurde aber auch eine verallgemeinerte Elektron-Loch-Basis verwendet, welche über zusätzliche Ladungstransferzustände eine räumliche Separation von Elektronen und Löchern erlaubt.Die Parametrisierung des OPV- und OT-Hamiltonians erfolgte mittels der Algebraischen Diagrammatischen Konstruktions (ADC(2))-Methode, welche in Kombination mit einer Übergangs-Dichte-Matrix-Analyse eine sehr akkurate Beschreibung der Frenkel- und Ladungstransferzustände basierend auf den supermolekularen Zuständen erlaubt. Um vibronische Effekte auf die Dynamik miteinzubeziehen,wurden nieder- und hochfrequente Torsions- und alternierende Bindungslängenmoden des Systems im Hamiltonian berücksichtigt. Hierzu wurden eindimensionale Schnitte der Potentialflächen entlang dieser Koordinaten berechnet und mittels einer Transformation in diabatische Potentialflächen überführt. Mit diesem Setup wurden die quantendynamischen und semiklassischen Simulationen für ein OPV/OT-Hexamer und ein 20-mer durchgeführt. Die Ergebnisse dieser Simulationen zeigen, dass der Energietransfer auf einer Subpikosekunden-Zeitskala stattfindet und eine starke Abhängigkeit vom Vorliegen eines strukturellen Defekts aufweist. Des Weiteren konnte auf einer Zeitskala von 100 Femtosekunden eine Lokalisierung des Exzitons beobachtet werden. Fluktuationseffekte werden zudem über Quantenfluktuationen im Falle von MCTDH bzw. über thermische Fluktuationen im Falle des Ehrenfest-/Langevin-Ansatzes berücksichtigt. Letzterer ist jedoch nicht in der Lage, die kohärente Charakteristik der mit den Schwingungsmoden gekoppelten Exziton- und Lokalisierungsdynamik wiederzugeben. Dagegen kann dieser Ansatz erfolgreich genutzt werden, um eine fluktuationsgetriebene „Hopping“-Dynamik des quasi- stationären Zustandes auf einer längeren Zeitskala in Abhängigkeit von der Temperatur zu beschreiben. Die Beschreibung der Photodynamik der DTE-BODIPY-Dyade zielt darauf ab, experimentell beobachtete vibrationelle Schwingungen des BODIPY-Fragments zu erklären, die ohne eine direkte Anregung dieses Fragments zustande kommen. Diese wurden nach einer selektiven Anregung des DTE-Fragments in zeitaufgelösten UV/Vis Anreg-Abtast-Experimenten beobachtet. Der Fokus der Untersuchung liegt daher auf der Beschreibung der photoinduzierten intramolekulare Energieumverteilung (IVR) auf einer Subpikosekunden-Zeitskala. Die DTE-BODIPY Dyade wurde mittels eines Hamiltonians, welcher durch TDDFT Rechnungen parametrisiert wurde, dargestellt. Basierend auf den Normalmoden des Systems, wurden lokale DTE- und BODIPY-Moden konstruiert, wobei einige dieser Moden miteinander gekoppelt sind und die Photoanregung des DTE auf das BODIPY-Fragment übertragen. Hierbei zeigte sich, dass die Zeitskala und die charakteristischen Frequenzen des Experiments mittels der hochdimensionalen MCTDH-Methode gut reproduziert wurden. Aus den Simulationen ergab sich zudem, dass der beobachtete Energietransfer stark von einem Reservoir von vibrationell angeregten lokalen DTE-Moden beeinflusst wird. Der untersuchte IVR- Prozess zeigt zudem eine ausgeprägte Abhängigkeit von lokalen Kopplungen und der Kopplung an eine Umgebung.
Clouds and precipitation are essential climate variables. Because of their high spatial and temporal variability, their observation and modeling is difficult. In this thesis multiple observational data sources, including satellite data and station data are globally analyzed to understand the distribution and variability of clouds and precipitation, while a special focus is on the diurnal cycle of both variables. Substantial diurnal cycles of clouds and precipitation are observed in the tropics, with different properties over land and ocean. But also in Europe cloud diurnal cycles are observed in the summer season. Overall the maximum cloud cover and also the maximum precipitation is observed in the afternoon over land, and in the morning over ocean. The analyzed climate model simulations and the model-based reanalysis fail to simulate the observed diurnal cycles. Owing to their limited resolution, models can not fully resolve the processes responsible for the existence of diurnal cycles of clouds and precipitation.
Übergewicht und Adipositas im Kindesalter werden als gesellschaftliches Problem diskutiert. Dem Sportunterricht kommt im Umgang mit den Betroffenen eine besondere Bedeutung und Verantwortung zu. In der vorliegenden Forschungsarbeit wird die Annahme vertreten, dass der Sportunterricht seinem Auftrag nur dann gerecht werden kann, wenn es gelingt, dass auch die übergewichtigen und adipösen Kinder positive Anerkennungserfahrungen im Feld von Bewegung, Spiel und Sport sammeln können. Das Konstrukt der Anerkennung impliziert zwei Ebenen, die sich gegenseitig beeinflussen: Auf personaler Ebene bezieht sich das Streben nach Anerkennung auf den Selbstwert (sozialpsychologische Perspektive) und auf sozialer Ebene auf den Wunsch nach Anerkennung durch die Mitglieder der Gruppen, denen man angehört (soziologische Perspektive). Die vorliegende Untersuchung befasst sich mit den Anerkennungserfahrungen übergewichtiger (n = 105) und adipöser Kinder (n = 48) im Vergleich zu ihren normalgewichtigen Mitschülerinnen und Mitschülern (n = 447) als wesentlicher Indikator für freudvolle Teilnahme im schulischen Sportunterricht. Operationalisiert werden die Anerkennungsverhältnisse auf sozialer Ebene über das Maß der erhaltenen sozio-emotionalen Anerkennung der Betroffenen mit Hilfe soziometrischer Verfahren und auf personaler Ebene über die sportliche Selbstwahrnehmung mit Hilfe eines konzipierten und validierten Körperkonzept-Fragebogens. Zur Berechnung der Ergebnisse wird ein verteilungsfreies Verfahren – der Kruskal-Wallis-Test – eingesetzt. Die Ergebnisse legen insgesamt einige Unterschiede der Anerkennungsverhältnisse in Abhängigkeit vom Körpergewichtsstatus dar: Die soziometrische Analyse zeigt, dass das Ausmaß des Körpergewichts für die Wahl der Spielgefährten im Sportunterricht eine Rolle spielt (p = .002). Während normal- und übergewichtige Schülerinnen und Schüler sich in den erhaltenen Wahlen nicht statistisch relevant unterscheiden, sind die adipösen signifikant weniger anerkannt. Als besondere Risikogruppe stellen sich adipöse Mädchen mit Migrationshintergrund heraus (p = .010). Hinsichtlich des Körperkonzepts zeigen sich signifikante Unterschiede in der „Selbsteinschätzung der allgemeinen Sportlichkeit“ zugunsten der normalgewichtigen Kinder (p = .000). Im Faktor „Selbsteinschätzung der konditionellen Fähigkeit Kraft“ schätzen sich die Kinder mit dem höchsten Körpergewichtsstatus am positivsten ein (p = .004). Keinen Unterschied in Abhängigkeit vom Körpergewichtsstatus zeigt sich in der „Selbstakzeptanz der äußeren Erscheinung“ (p = .751).
Es bleibt festzuhalten, dass die übergewichtigen Kinder weitgehend diskriminierungsfrei am Sportunterricht teilnehmen, ihre Sportlichkeit realistisch einschätzen und mit ihrem Äußeren zufrieden sind. Eine ähnliche Selbsteinschätzung weisen die adipösen Kinder vor, jedoch ergibt sich auf dem extrem erhöhten Körpergewichtsstatus ein soziales Problem, dem aus pädagogischer Sicht entgegen zu wirken ist.
Im Rahmen des FAIR Projektes wurde ein neuartiger Prototyp eines nicht strahlzerstörenden Bunch Struktur Monitors (BSM) am GSI UNILAC entwickelt. Ziel ist es, ein zuverlässiges Diagnosegerät zu entwickeln, welches die longitudinale Struktur der Ionenbunche innerhalb des LINACs untersuchen kann. Notwendig ist hierbei eine effektive Zeitauflösung deutlich unter 100 ps, bei möglichst wenigen Makropuls Mittelungen. Nach der erfolgreichen Inbetriebnahme soll der BSM Prototyp dazu dienen, die Umsetzbarkeit eines weiteren nichtinvasiven Geräts für den geplanten Proton-LINAC bei FAIR mit einer notwendigen Zeitauflösung von 10 ps zu beurteilen.
Die numerische Simulation von Materialien, welche dem Hochstrom-Ionenstrahl ausgesetzt sind, zeigten einen sehr hohen thermischen Stress. Daher wurde der Ansatz eines nicht strahlzerstörenden Diagnosegerätes verfolgt. Das Design beruht auf der Erzeugung von Sekundärelektronen durch Strahl-Restgas Kollisionen im Strahlrohr. Durch das Anlegen eines homogenen Hochspannungspotentials von bis zu -31 kV, wird ein Elektronenstrahl erzeugt, welcher die zeitliche Struktur des Ionenbunches trägt. Die zeitliche Information des Elektronenstrahles wird beim Durchfliegen eines HF-Ablenkers, welcher resonant an die 36 MHz des Beschleunigers gekoppelt ist, in eine räumliche Intensitätsverteilung umgewandelt. Anschließend wird die Elektronenverteilung auf einem bildgebenden MCP-Phosphor-Detektor durch eine CCD-Kamera detektiert und in die Bunch Struktur überführt.
Intensive Untersuchungen der BSM Eigenschaften ergaben eine höchste Auflösung von 37 ±6.3 ps bei gleichzeitig akzeptabler Intensität auf dem MCP-Detektor. Unter anderem wurden auch stabile Einzelschussmessungen durchgeführt, welche für die Profilmessung nur einen einzelnen Makropuls benötigten, statt über typischerweise 8-32 Pulse zu mitteln.
Durch die systematische Manipulation der Bunchlänge durch einen Rebuncher sind nicht gaußförmige Profile von 280 ps bis 650 ps detektiert worden, welche als Studie für eine Emittanzbestimmung genutzt worden sind. In Abhängigkeit des Analyseverfahrens sind Werte von εGauss = 1.42 ±0.14 keV/u ns bis εSD = 3.03 ±0.33 keV/u ns für die Emittanz bestimmt worden.
Des Weiteren ist ein Finite-Elemente Modell erstellt worden, um die Zeitstruktur der Sekundärelektronen innerhalb des elektronenoptischen Systems zu bestimmen. Für das Setup mit der höchsten Auflösung von 37 ps ergab sich eine zusätzliche Zeitverbreiterung von 5.6 ps, welche nur geringfügig die experimentell bestimmte Auflösung verschlechtert.
Der nicht strahlzerstörende BSM liefert eine ausreichend hohe zeitliche Auflösung für detailreiche Untersuchung der longitudinalen Bunchstruktur, ohne negative Einflüsse auf den Ionenstrahl auszuüben. Fortgeschrittene Messungen, wie longitudinale Emittanzbestimmung und Makropulsanalysen, sind möglich und werden dazu beitragen, die LINAC Strukturen besser zu verstehen und weiter zu optimieren.
Obwohl bei der Umsetzung des Arbeitsprinzips für den geplanten Proton-LINAC die veränderten Strahlparameter berücksichtigt werden müssen, zeigen die Ergebnisse, wie die Zeitstrukturuntersuchung und die erreichte Phasenauflösung von 0.5° bei 36 MHz, dass zeitliche Auflösungen bei Aufrechterhaltung der Phasenauflösung von bis zu 10 ps für einen neuen BSM Prototypen möglich sind.
Light scalar mesons can be understood as dynamically generated resonances. They arise as 'companion poles' in the propagators of quark-antiquark seed states when accounting for hadronic loop contributions to the self-energies of the latter. Such a mechanism may explain the overpopulation in the scalar sector - there exist more resonances with total spin J=0 than can be described within a quark model.
Along this line, we study an effective Lagrangian approach where the isovector state a_{0}(1450) couples via both non-derivative and derivative interactions to pseudoscalar mesons. It is demonstrated that the propagator has two poles: a companion pole corresponding to a_{0}(980) and a pole of the seed state a_{0}(1450). The positions of these poles are in quantitative agreement with experimental data. Besides that, we investigate similar models for the isodoublet state K_{0}^{*}(1430) by performing a fit to pion-kaon phase shift data in the I=1/2, J=0 channel. We show that, in order to fit the data accurately, a companion pole for the K_{0}^{*}(800), that is, the light kappa resonance, is required. A large-N_{c} study confirms that both resonances below 1 GeV are predominantly four-quark states, while the heavy states are quarkonia.
Recently, two of the most common types of bone cancers in children and young adults have been proven to exhibit vulnerability to poly(ADP)-ribose polymerase, (PARP) inhibitors (e.g. olaparib, talazoparib). Ewing’s sarcoma (ES) are reported to harbor a fusion gene EWS-FLI1 (85%), inducing tumorigenesis. Additional, as the fusion gene acts as aberrant transcription factor, it similarly induces elevated PARP expression levels sensitizing ES to PARP inhibition. Second, by an exome sequencing approach in a set of primary osteosarcomas (OS) we identified mutation signatures being reminiscent of BRCA deficiency. Therefore, the sensitivity of a panel of OS cell lines to either talazoparib single treatment or in combination with several chemotherapeutic drugs was investigated.
To screen ES tumor cell lines against PARP inhibitors we applied four different PARP inhibitors (talazoparib, olaparib, niraparib and veliparib) that are frequently being used for clinical studies. We combined those PARP inhibitors with a set of chemotherapeutics (temozolomide (TMZ), SN-38, etoposide, ifosfamide, doxorubicin, vincristine and actinomycin D) that are part of the first-line therapy of ES patients. Here, we demonstrate how PARP inhibitors synergize with TMZ or SN-38 to induce apoptosis, whereas the combination of PARP inhibitors with the other drugs are not favorable. By investigation of key checkpoints in the molecular mechanisms of cell death, the pivotal role of the mitochondrial pathway of apoptosis mediating the synergy between olaparib and TMZ was revealed.
Employing talazoparib monotherapy in combination with or without several chemotherapeutic drugs (TMZ, SN-38, cisplatin, doxorubicin, methotrexate and etoposide/carboplatin), the correlation between homologous recombination (HR) repair deficiency (BRCAness) and the response to talazoparib as prototypical PARP inhibitor was validated in different OS cell lines. By calculation of combination indices (CI) and fraction affected (Fa) values, we identified TMZ as the most potent chemotherapeutic drug in combination with talazoparib inducing the mitochondrial apoptotic pathway in OS.
In our studies of two independent tumor entities with contrary genetic background we identified the combination of PARP inhibitor and TMZ as being most effective. Our studies point out that after TMZ induced DNA methylation and concomitant PARP trapping, DNA damage-imposed checkpoint kinase activation consequently induces G2-cell cycle arrest. Subsequent, PARP inhibitor/TMZ causes MCL-1 degradation, followed by activation of BAK and BAX, succeeding in loss of mitochondrial outer membrane potential (LMMP) and activation of downstream effector-caspases in mitochondrial apoptosis. Our findings emphasize the importance of PARP inhibition in order to chemosensitize ES, which express high PARP levels, or OS that bear features of BRCAness.
The PANDA experiment will be one of the flagship experiments at the future Facility for Antiproton and Ion Research (FAIR) in Darmstadt, Germany. It is a versatile detector dedicated to topics in hadron physics such as charmonium spectroscopy and nucleon structure. A DIRC counter will deliver hadronic particle identification in the barrel part of the PANDA target spectrometer and will cleanly separate kaons with momenta up to 3.5 GeV/c from a large pion background. An alternative DIRC design option, using wide Cherenkov radiator plates instead of narrow bars, would significantly reduce the cost of the system. Compact fused silica photon prisms have many advantages over the traditional stand-off boxes filled with liquid. This work describes the study of these design options, which are important advancements of the DIRC technology in terms of cost and performance. Several new reconstruction methods were developed and will be presented. Prototypes of the DIRC components have been built and tested in particle beam, and the new concepts and approaches were applied. An evaluation of the performance of the designs, feasibility studies with simulations, and a comparison of simulation and prototype tests will be presented.
Zur vollständigen Charakterisierung der Hochstrom-Protonenquelle im Rahmen des FRANZ-Projektes war es notwendig, die Emittanz dieser zu bestimmen. Die vorliegende Arbeit befasst sich mit der Entwicklung zweier unterschiedlicher Emittanz-Messsysteme, welche in der Lage sind, im kritischen Einsatzbereich hinter der Ionenquelle die Emittanz zu bestimmen.
Die grundsätzliche Problematik der Emittanzmessung an Hochstrom-Ionenquellen liegt in den besonderen Anforderungen, die an diese Messsysteme gestellt werden. Zum einen müssen diese extrem hohe Strahlleistungsdichten und Strahlströme verarbeiten können, ohne Schaden zu nehmen. Zum anderen, was die besondere Herausforderung darstellt, ist es notwendig, dass sie unempfindlich gegenüber Hochspannungsüberschläge sind, da es naturgemäß an einer Ionenquelle zu Hochspannungsüberschlägen kommen kann, welche die sensible und teure Messelektronik schädigen können.
Aus diesem Grund wurde eine Pepperpot-Emittanz-Messanlage weiterentwickelt, welche komplett ohne hochspannungsempfindliche Elektronik auskommt. Diese besteht aus einem effizient wassergekühlten Messkopf mit einer Lochblende aus einer Wolframlegierung. Die Lochgeometrie wurde an die zu vermessende Ionenquelle angepasst. Anstelle einer Multichannelplate und / oder eines Leuchtschirms kommt eine mit Öl vorbehandelte Aluminiumplatte als Schirm zum Einsatz. Aufgrund der Wechselwirkung der, durch die Lochblende hindurch driftenden, Teilstrahlen mit der Oberfläche des Schirms, bilden sich auf diesem, mit bloÿem Auge sichtbare, Kohlenstoffabdrücke aus. Aus der Lage im Ortsraum und der Intensitätsverteilung der einzelnen Abdrücke kann die Phasenraum-Verteilung berechnet werden. Der Nachweis, dass die Intensitätsverteilung der Kohlenstoffabdrücke proportional zur Strahlstromdichtenverteilung eines jeden Abdrucks ist, wurde im Rahmen der Grundlagenuntersuchungen erbracht. Parallel wurde eine zweite, konventionelle Schlitz-Gitter-Emittanz-Messanlage entwickelt und aufgebaut.
Für die Auswertung der Rohdaten wurde eine Analysesoftware entwickelt, welche kompatibel zu beiden Messsystemen ist. Mittels dieser kann aus den Rohdaten die Phasenraum-Verteilung, die Emittanzen (Lage und Fläche) berechnet und in verschiedenen Schnittebenen graphisch dargestellt werden. Ein Hauptaspekt lag in der notwendigen Untergrundreduktion. Insbesondere bei der Analyse der Pepperpot-Schirme tritt bei der Digitalisierung derselben eine nicht physikalische Veränderung der Intensitätsverteilung der Kohlenstoffabdrücke auf. Die erfolgreiche Separation der Abdrücke vom Hintergrund war von entscheidender Bedeutung.
Mit beiden Emittanzmesssystemen konnte im Rahmen dieser Arbeit die Emittanz der FRANZ-Hochstrom-Protonenquelle bestimmt und Abhängigkeiten diverser Strahlparameter untersucht werden. Dabei zeigen die Ergebnisse beider Messsysteme eine sehr gute Übereinstimmung, was die Leistungsfähigkeit des Pepperpot-Messsystems in diesem Einsatzbereich bestätigt.
Für die Erzeugung der, im Rahmen verschiedener Emittanzmessungen, benötigten Plasmadichten wurde die eingespeiste Bogenleistung um 265% von 2.85kW auf 7.56kW erhöht. Die geringe Varianz der gemessenen Emittanzen lässt den Schluss zu, dass sich die Ionentemperatur im Rahmen der Messgenauigkeit in dem untersuchten Bereich nicht merklich ändert. Dies ist insofern bemerkenswert, da dies bedeutet, dass sich die Ionentemperatur nicht signifikant verändert hat, obwohl die Leistung im Plasma stark erhöht wurde.
Im Laufe der Grundlagenuntersuchungen des Pepperpot-Systems wurde festgestellt, dass es unter bestimmten Voraussetzungen zur Bildung von zwei Kohlenstoffabdrücken pro Blendenloch kommen kann. Mit Hilfe von Strahlsimulationen mittels dem Code IGUN sowie vergleichenden Emittanzmessungen konnte nachgewiesen werden, dass bei der Extraktion im sogenannten angepassten Fall zwei Teilstrahlen extrahiert werden. Durch eine geringfügige Erhöhung der Perveanz können diese beiden Teilstrahlen in einen laminaren Ionenstrahl überführt werden.
Im Hinblick auf die Konditionierung der FRANZ-LEBT wurde erstmals im Institut der Transport eines Hochstrom-Ionenstrahls durch einen Solenoiden sowie die Auswirkungen dessen auf die Strahlemittanz untersucht. Aufgrund des projektierten Protonenstroms von Ip = 50mA wurden diese Untersuchungen mit einem vergleichbaren Protonenstrom und einer Strahlenergie von E = 55keV durchgeführt.
Darüber hinaus wurde die zeitliche Entwicklung der Emittanz innerhalb eines Strahlpulses (80Hz,1ms,Ip = 56mA,It = 70mA) hinter dem Solenoiden untersucht. Eine Analyse zeigt, dass die Strahlemittanz innerhalb der Messgenauigkeit entlang des Pulsplateus nahezu konstant bleibt. Jedoch ändert sich die Divergenz des Strahlkerns innerhalb des Zeitraumes des Pulsanstiegs, aufgrund der Raumladungskompensation sowie des ansteigenden Stroms.
Xenorhabdus and Photorhabdus bacteria are gaining more and more attention as a subject of research because of their unique yet similar life cycle with nematodes and insects. This work focused on the secondary metabolites that are produced by Xenorhabdus and Photorhabdus. With the help of modern HPLC-MS methodologies and increasingly available bacterial genome sequences, the structures of unknown secondary metabolites could be elucidated and thus their biosynthesis pathways could be proposed, too.
The first paper reported 17 depsipeptides termed xentrivalpeptides produced by the bacterium Xenorhabdus sp. 85816. Xentrivalpeptide A could be isolated from the bacterial culture as the main component. The structure of xentrivalpeptide A was elucidated by NMR and the Marfey´s method. The remaining xentrivalpeptides were exclusively identified by feeding experiments and MS fragmentation patterns.
The second paper described the discovery and isolation of xenoamicin A from Xenorhabdus mauleonii DSM17908. Additionally, other xenoamicin derivatives from Xenorhabdus doucetiae DSM17909 were analyzed by means of feeding experiments and MS fragmentation patterns. The xenoamicin biosynthesis gene cluster was identified in Xenorhabdus doucetiae DSM17909.
The manuscript for publication focused on the biosynthesis of anthraquinones in Photorhabdus luminescens. The Type II polyketide synthase for the biosynthesis of anthraquinone derivatives was discovered in P. luminescens in a previous publication by the Bode group,1 in which a partial reaction mechanism for the biosynthesis has been proposed. The manuscript reported in this thesis however elucidated the biosynthetic mechanisms in a greater detail as compared to the previous publication. Particularly, the biosynthetic mechanism was deciphered through heterologous expression of anthraquinone biosynthesis (ant) genes in E. coli. Additionally, deactivation of the genes antG encoding a putative CoA ligase and antI encoding a putative hydrolase, was performed in P. luminescens. Selected ant genes were over-expressed in E. coli as well as the corresponding proteins purified for in vitro assays. Model compounds were chemically synthesized as possible substrates of AntI and were used for in vitro assays. Here, it was revealed that the CoA ligase AntG played an essential role in the activation of the ACP AntF. Furthermore, a chain shortening mechanism by the hydrolase AntI was identified and was further confirmed by in vitro assays using model compounds. Additionally, this chain shortening mechanism was supported by homology based structural modeling of AntI.
Die Dissertation befasst sich mit den kognitiven Prozessen die Intelligenz ausmachen und ist in drei Teile aufgeteilt. Der erste Teil rezensiert den Beitrag kognitiver und nicht-kognitiver Variablen zur Vorhersage von Hochbegabung in einer Altersspanne die von der Geburt bis zur Einschulung reicht. Aus dem nicht-kognitiven Bereich stammen Konstrukte wie Schlafverhalten, motivationale Faktoren wie Neugier und Interesse, und deren Interaktion mit dem sozialen Umfeld. Kognitive Variablen stellen frühe, außergewöhnliche Sprach-, Lese-, Schreib- und Rechenfähigkeiten dar, sowie Intelligenzquotienten, die mit den gängigsten testpsychologischen Verfahren ermittelt werden, und Komponenten der Informationsverarbeitung wie Habituation und Arbeitsgedächtnis. Trotz der Berichte über mittlere Korrelation ist die aktuelle Datenlage kritisch zu betrachten und weist eine niedrige Vorhersagevalidität der Frühprognose von Hochbegabung auf. Es wird mit dem dynamischen Modell der Intelligenz argumentiert, nach dem die mangelnde prognostische Validität und die Unzuverlässigkeit der kognitiven Vorhersageindikatoren auf die Annahme zurückzuführen sind, dass kognitive Prozesse unabhängig voneinander sind. Erst im Laufe des Lebens werden diese immer häufiger miteinander verknüpft und korreliert (Mutualismus). Das bedeutet, es findet eine zunehmende Integration kognitiver Prozesse statt und daraus resultiert der g-Faktor.
Doch das Arbeitsgedächtnis spielt weiterhin eine zentrale Rolle in Bezug auf Intelligenz, wenn nicht im Säuglingsalter, dann zumindest ab dem Vorschulalter und besonders im Erwachsenenalter. Arbeitsgedächtniskapazität stellt das Ausmaß an Fähigkeit dar, Informationen simultan zu speichern und zu verarbeiten, ohne die Notwendigkeit auf Vorwissen zurückzugreifen. Es kann damit als eng umschriebener kognitiver Prozess aufgefasst werden. Vorherige Forschungsarbeiten haben bereits deutlich gezeigt, dass Arbeitsgedächtnis und Intelligenz korrelativ stark zusammenhängen. Das ist durchaus überraschend, denn die Aufgaben und Tests mit denen die Konstrukte jeweils erfasst werden können sich oberflächlich stark unterscheiden. Um fluide Intelligenz valide erfassen zu können, sind Aufgaben zum induktiven Denken, wie zum Beispiel Matrix-Aufgaben, sehr beliebt. Im Rahmen der zweiten Arbeit hat man sich dem Einfluss der Prozesse Zielmanagement und Regel-Induktion auf den Zusammenhang zwischen Arbeitsgedächtnis und Problemlösung der Matrix-Aufgaben gewidmet. Zielmanagement wurde bereits zuvor mit dem Arbeitsgedächtnis in Verbindung gebracht jedoch war die Befundlage hinsichtlich der Regel-Induktion unklar. Daher sollte die Hypothese ob Regel-Induktion unabhängig vom Arbeitsgedächtnis ist, in einem kritischen Experiment überprüft werden. Bei Neutralisierung der Notwendigkeit für Regelinduktion, indem den Probanden die Regeln im Voraus erklärt wurden, konnte man einen erhöhten Zusammenhang zwischen dem Arbeitsgedächtnis und der Leistung in der Matrix-Aufgabe erkennen. Das deutete in der Tat darauf hin, dass Regel-Induktion nicht vom Arbeitsgedächtnis abhängig ist, zumindest nicht im gleichen Maße wie Zielmanagement. Darüber hinaus zeigte sich: Die Kenntnis der Regeln beeinflusst den Problemlöseprozess. Eye-Tracking-Messungen weisen auf eine konstruktive Anpassungsstrategie in der Experimentalbedingung (mit Regelwissen) hin. Basierend auf den Erkenntnissen aus vier Experimenten, wird mit zwei möglichen Mechanismen argumentiert, die die Steigerung des Zusammenhangs zwischen Arbeitsgedächtnis und Matrix-Problemlösen in der Experimentalgruppe erklären könnten.
Alternativ zur zuvor angenommenen Unabhängigkeit von Regel-Induktion und Arbeitsgedächtnis, könnte die erhöhte Korrelation bei bekannten Regeln auch mit der beobachteten Strategieänderung erklärbar sein. Die dritte und letzte Arbeit widmete sich deshalb erneut dieser Fragestellung. Erneut kamen Matrix-Aufgaben zum Einsatz und es wurden Testleistung, Augenbewegung und Reaktionszeiten erhoben, um den Einfluss von Regelwissen zu erfassen. Es zeigte sich die Anwendung einer effektiveren Lösungsstrategie in der Experimentalbedingung. Anhand der Eye-Tracking Messung wurde gezeigt, dass Probanden mit Regelwissen über einen längeren Zeitraum das problemrelevante Areal der Matrix-Aufgabe fixieren, und eine niedrigere Frequenz an Sakkaden zwischen diesem Areal und den Antwortalternativen aufwiesen.
Weitere Einflussvariablen auf die Lösestrategie stellen Schwierigkeit der Aufgabe und Fähigkeiten des Probanden dar. Diese weisen einen differenziellen Einfluss auf zwei Subgruppen von Indikatoren der Augenbewegungsmessung auf, die in Relation zu den Reaktionszeiten gesetzt wurden um ein besseres Verständnis dieser Variablen zu erzielen. Es wird vermutet, dass Variablen wie Augenbewegungen und Reaktionszeiten das Ausmaß des Entstehens von mentalen Modellen während des logischen Denkens widerspiegeln. Unter der Annahme dass die Komplexität von Mentalen Modellen mit einer gewissen Belastung für das Arbeitsgedächtnis einhergeht, lassen sich auch vorherige Ergebnisse mit dieser Hypothese in Einklang bringen. Abschließend werden die grundlegenden kognitiven Prozesse des induktiven Denkens diskutiert und ein Ausblick auf zukünftige Intelligenzmessung angeboten.
Functional dynamics of ribonucleic acids : development and application of spectroscopic tools
(2016)
Im Rahmen der vorliegenden Dissertation wird der Aufbau eines zeitaufgelösten Fluorimeters, die photophysikalische Grundcharakterisierung der drei 2-(Pyrenylethinyl)-Adenosine (PyAs) und das Wechselwirkungsgeflecht des tetracyclinbindenden Aptamers (TC-Aptamer) mit seinem Liganden Tetracycyclin (TC) und Mg2+ dargestellt.
Das zeitaufgelöste Fluorimeter basiert auf der experimentellen Technik des zeitkorrelierten Einzelphotonenzählens. Es verfügt über zwei Anregungsquellen: gepulste UV-LEDs und einen frequenzverdoppelten titandotierten Saphirlaser. Diese Quellen Decken einen Wellenlängenbereich von (310 - 550) nm ab. Das Spektrometer kann unter günstigen Umständen eine Zeitauflösung von 50 ps erreichen bei einer zeitlichen Messungenauigkeit von weniger als 0,02 %.
Die Leistungsfähigkeit des Aufbaus wird anhand einer umfangreichen Studie an den drei PyAs demonstriert.
Die drei PyAs 2-(1-Pyrenylethinyl)-Adenosine (1PyA), 2-(2-Pyrenylethinyl)-Adenosine (2PyA) und 2-(4-Pyrenylethinyl)-Adenosine (4PyA) sind eine Gruppe fluoreszierender RNA-Nukleosidanaloga, welche die Gesamtheit aller möglichen Konfigurations-isomere der Grundverbindung PyA umfassen. Ihre zeitabhängigen Fluoreszenzzerfallseigenschaften werden ergänzt von stationären Absorptions- und Fluoreszenzspektren, ultraschneller transienter Absorptionsspektroskopie und quantenchemischen Rechnungen. Die Fluoreszenz von 1PyA und 4PyA gehorchen der Regel von Kasha, wohingegen 2PyA einen triexponentiellen Zerfall mit ausgeprägter Abhängigkeit von der Anregungswellenlänge zeigt. Die transienten Absorptionsspektren aller drei Isomere weisen im gesamten Spektrum dominante, wenig strukturierte Absorptionsbanden des ersten angeregten Zustands auf, welche im nahen UV in unterschiedlichem Maße vom Grundzustandsbleichen und stimulierter Emission überlagert werden. 2PyA zeigt eine deutlich ausgeprägte Signatur für eine interne Umwandlung hin zum S1, wenn es in höhere angeregte Zustände angeregt wird.
Das Fluoreszenzverhalten von 2PyA wird mithilfe eines lokal angeregten (LE) und zweier intramolekularer Ladungstransferzustände, von denen einer der koplanaren Orientierung von Pyren und Adenin (MICT) und der andere einer um 90 ° verdrehten Orientierung (TICT) entspricht. Der LE-Zustand ist hierbei verknüpft mit dem S2 von 2PyA, welcher einer rein pyrenlokalisierten Anregung entspricht. Dieser Zustand existiert so in 1PyA und 4PyA nicht. Der verdrehte TICT-Zustand ist nur in 2PyA bevölkerbar, weil für 2PyA die Barriere zur Bildung von Rotameren am niedrigsten ist und das Molekül nach Anregung daher in diese Geometrie kommen kann und dann durch die stärkere elektrostatische Anziehung stabilisiert wird. 1PyA und 4PyA emittieren hingegen nur aus dem MICT-Zustand.
Die Komplexbildung des TC-Aptamers mit seinem Liganden TC in Lösung wird empfindlich beeinflusst durch die-Konzentration von Magnesiumkationen. Dies wird untersucht durch Bindungs- und Faltungs- und Denaturierungsstudien mit verschiedenen Mg- und Harnstoffkonzentrationen. Als experimentelle Observable dienen hierbei die konformationsabhängige Nukleobasenabsorption und ihr Zirkulardichroismus im fernen UV, die Fluoreszenz des Liganden TC und die freiwerdende Wärme der exothermen Bindungsreaktion des Aptamers mit Mg in An- und Abwesenheit von TC.
Ohne Mg ist eine Interaktion des TC-Aptamers mit TC nicht nachweisbar. Dies liegt daran, dass Mg die notwendige elektrostatische Abschirmung der negativen elektrischen Ladung am RNA-Rückgrat zur Verfügung stellt. Die Abschirmung erlaubt es dem Aptamer kompakte Strukturen mit tertiären Kontakten auszubilden. Wenn die Mg-Konzentration die Faltung des Aptamers vollständig unterstützt (> 1 mM), so befindet sich das Aptamer weitgehend in einer vorgefalteten Konformation, welche der bindungskompetenten stark ähnelt. In diesem Zustand kann das Aptamer seinen Liganden extrem schnell, nämlich annähernd diffusionslimitiert binden. Unter diesen Bedingungen hat TC kaum Einfluss auf die Konformation seines Aptamers.
Bei physiologischen Mg-Konzentrationen (0,2 - 0,8 mM) kann das Aptamer kompakte Konformationen mit tertiären Strukturen einnehmen. Diejenige Konformation, welche der bindenden sehr stark ähnelt, dominiert das konformationelle Gleichgewicht jedoch noch nicht vollständig, es ist lediglich eine Konformation von vielen möglichen. Daher eröffnen physiologische Mg-Konzentrationen dem TC-Aptamer Teile des Konformationsraumes, welche andernfalls nicht zugänglich wären und TC stabilisiert selektiv die native Konformation. Diese konformationelle Verschiebung liefert kann hierbei zur robusten Signalgebung für die Funktion als Riboschalter dienen.
The lung comprises more than 40 different cell types, from epithelial cells to resident mesenchymal cells. These cells arise from the foregut endoderm and differentiate into specialized cell types that form the respiratory and conducting airways, and the trachea. However, the molecular pathways underlying these differentiation processes are poorly understood, and may be relevant to pathological conditions. According to the World Health Organization (WHO), while the respiratory disease rate is increasing, limited treatment and therapies are available. Thus, there is a growing need for new treatment strategies and alternative therapies. Various in vivo and in vitro studies in the model organism mus musculus have already provided valuable information on lung cell lineages and their differentiation and/ or dedifferentiation during development and pathological conditions. However, there remain many questions regarding the key regulators and molecular machinery driving lung cell differentiation and underlying lung progenitor/stem cell biology.
Aiming to develop new animal models for lung diseases, we used a forward genetic careening approach, which provides an unbiased method for identifying genes with important roles in lung cell differentiation, and thus probable contributors to pathological conditions. We conducted an N-ethyl-N-nitrosourea (ENU) mutagenesis screen in mice and used several histological and immunohistochemical approaches to identify and isolate mutants, focusing on mutations associated with cell differentiation rather than those affecting early development and patterning of the respiratory system. Thus, we screened for phenotypes in the respiratory system of pups from the F2 generation at postnatal day 7 and 0 (P7; P0). I specifically screened 114 families. Each F1 male animal is the founder of 5 to 6 F2 female daughters. For each family, at least 4 F2 females per male founder were analyzed. In total, I screened 630 litters at P7 and P0 with 7 pups on average for each litter. As a result of this extensive screening, 11 different phenotypes in 42 different F2s were discovered at primary screen and later just 2 phenotypes recovered in F3 generation of identified carriers. To identify the causative genes for each of these phenotypes, whole exome sequencing will be conducted in the future to identify recurring SNPs; these can subsequently be linked causatively to the resultant phenotype(s) via complementation studies. In turn, these linkages would enable the creation of mutant mice using CRISPR/Cas9 genomic engineering, which would be invaluable to the further study of respiratory development and disease.
Juvenile neuronal ceroid-lipofuscinosis (JNCL) is a rare lysosomal storage disease in children with lethal outcome and no therapy. The origin of JNCL has been traced to autosomal recessive mutations in the CLN3 gene, and ~85% of the JNCL patients harbor a 1.02 kb deletion that removes the exons 7 and 8 and the surrounding intronic DNA (CLN3Δex7/8). So far, structure, function and localization of the CLN3 protein remain elusive. However, there is strong evidence that CLN3 modulates a process or condition that is essential in many cellular pathways. Lipid metabolism and antero-/retrograde transport, two mechanisms CLN3 was previously implicated in, fulfill these requirements. Notably, also a bioactive group of glycosphingolipids referred to as gangliosides is tightly interrelated with these functions. Furthermore, a-series gangliosides have been shown to be involved in the development and sustenance of the brain, where they are essential for neurite outgrowth and cell survival. Defects in ganglioside metabolism were shown to play a crucial role in many lysosomal storage disorders. However, the contribution of gangliosides to NCL pathology is largely unknown.
The present study analyzed central enzymes and metabolites of the a-series ganglioside pathway in a JNCL cell model. The core finding was, thereby, the reduced amount of the neuroprotective ganglioside GM1 in homozygous CbCln3Δex7/8 cells. This was caused by the enhanced action of the GM1-degrading multimeric enzyme complex and in particular, by the upregulation of protein levels and increased enzyme activity of β-galactosidase (Glb1).
Improved binding of Glb1 to substrate-carrying membranes was provided by an increase in LBPA levels. In combination with other smaller alterations in the ganglioside pattern, a shift towards less complex gangliosides became present. The resulting loss of neuroprotection may be the reason for the multifocal pathology in homozygous CbCln3Δex7/8 cells.
The second part of the present study investigated the cellular mechanisms behind the altered ganglioside profile with regard to the potential role of CLN3. Here, the anterograde transport of GM1 to the plasma membrane presented a positive correlation with the amount of full-length CLN3. In case of the truncated protein this correlation was missing, resulting in reduced PM staining with CTxB-FITC. However, transfection of full-length CLN3 in these cells restored the CTxB-FITC intensity. Based on the neuroprotective role of GM1, the corresponding increase in GM1 levels may be the cause for the restoration effects observed in previous studies using full-length CLN3. Hence, administration of GM1 was expected to improve cell viability of homozygous CbCln3Δex7/8 cells and beyond that to rescue potentially some disease phenotypes. However, no effect could be observed. The reason for this may be reduced caveolar uptake and the mislocalization of ganglioside GM1 to the trans-Golgi network (TGN) and redirection towards degradative compartments.
Both are in line with the idea of an impaired endocytic flux in CLN3 deficiency. The observed localization of CLN3 in the TGN suggests a potential role for CLN3 in the lipid sorting machinery, subsequently altering membrane composition and its regulatory functions. The resulting imbalance may affect many of the cellular processes impaired in JNCL.
Primäre Tumore werden nach ihrem Entstehungsort benannt. Selbst Metastasen zeigen eine gewisse Ähnlichkeit mit ihrem ursprünglichen Gewebe. Somit gehören alle Geschwülste, die ursprünglich der Harnblase entstammen, zu den Harnblasenkarzinomen.
Das Harnblasenkarzinom geht meist (90-95%) von der Schleimhaut der ableitenden Harnwege aus und wird als Urothel bezeichnet. Dementsprechend haben die meisten Patienten mit der Diagnose Blasenkarzinom ein Urothel-Blasenkarzinom. Die restlichen Blasenkarzinome entfallen auf Adenokarzinome, Plattenepithelkarzinome, kleinzellige Karzinome, Sarkome, Paragangliome, Melanome oder Lymphome (Humphrey A. et al. 2016, Moch H. et al 2016).
Die Urothel-Blasenkarzinome können sowohl flach, als auch warzenförmig wachsen. Je nach Diagnostik „oberflächlich“ oder „muskelinvasiv“ lassen sich die Urothel-Blasenkarzinome in zwei Hauptgruppen unterteilen;
Etwa 70% der Erkrankten haben dabei ein oberflächliches Urothel-Blasenkarzinom, das auf die Blasenschleimhaut begrenzt ist und durch eine Basistherapie, sog. Transurethrale Resektion (TUR-B) behandelt wird. Dabei werden die in der Schleimhaut gewachsenen Tumore getrennt reseziert. Therapieergänzend und/oder prophylaktisch wird die Blase danach mit einem Chemotherapeutikum gespült (intravesikale Instillation). Diese Zytostatika-Behandlung soll das Wiederauftreten eines Rezidivs verhindern bzw. eventuell verlangsamen (Iida K. et al. 2016, Celik O. et al. 2016).
This thesis deals with the NMR characterization of the structure and the folding dynamics of DNA G quadruplexes as potential therapeutic target in cancer therapy and building block for DNA based nanotechnology.
The first part of this thesis (Chapters 1-5) introduces the reader to the world of G quadruplexes.
The main features of the classic Watson Crick double helix and alternative non B DNA structures are illustrated in Chapter 1. Many different base pairing schemes are possible, besides the canonical Watson Crick motif, thereby expanding the structural complexity of DNA. Non canonical base pairing, such as Hoogsteen hydrogen bonding, enables the assembly of triplets and quartets, which are the building blocks of triplex and quadruplex structures, respectively.
The structural characteristics of DNA G quadruplexes are delineated in detail in Chapter 2.
G quadruplex structures are extremely polymorphic, in terms of strands orientation, loops geometry, grooves width and arrangement of the glycosidic torsion angles. The various structural elements as well as the different cation coordination geometries are here presented, with a special emphasis on the diversity of conformations reported for the telomeric DNA G quadruplexes.
Chapter 3 describes the biological roles of G quadruplex structures in the genome. After introducing the architecture of the telomeric DNA and its interacting proteins, the mechanism of the telomeres elongation catalysed by the telomerase enzyme and its implications for cancer are discussed. The occurrence of G quadruplex structures in functional regions of the genome, such as promoter regions of oncogenes, and their possible roles in regulating the gene transcription are then outlined in the second part of the chapter.
The potential of G quadruplex as a novel anti cancer target is examined in Chapter 4 and the proposed anti cancer mechanisms for a ligand stabilizing G quadruplex structures are discussed.
RNA G quadruplexes and their putative role in gene regulation at the level of translation are briefly illustrated at the end of the chapter.
A general overview on the NMR methods to investigate the G quadruplex structures is presented in Chapter 5. The experimental set up used for the real time NMR studies of the G quadruplex folding is also described.
The second part of the thesis (Chapters 6-8), which is the cumulative part, comprises the original publications grouped in three Chapters according to the topic.
The state of the art on small molecules targeting G quadruplex structures is given at the beginning of Chapter 6, including a summary of the experimental structures of G quadruplexes in complex with ligands available up to date. The publications presented in Chapters 6.1-6.3 are concerned with the elucidation of the interaction modes between DNA G quadruplexes and selected ligands with potential therapeutic applications.
The binding ability of two natural alkaloids (berberine and sanguinarine) to telomeric G quadruplexes is examined in Chapter 6.1. The ability of carbazole and diguanosine derivatives (synthetized in the group of Prof. Dash, IISER, Kolkata) to interact with c-MYC G quadruplex and down regulate c-MYC expression is explored in Chapter 6.2 and Chapter 6.3, respectively.
The energy landscape of human telomeric G quadruplex structures is discussed in Chapter 7, in light of the experimental kinetic studies as well as molecular dynamics simulations reported in literature until now. Up to date there is no general consensus regarding the folding pathway of unimolecular human telomeric G quadruplex, in particular due to the lack of atomic resolution data on the species involved in the folding. Chapter 7.1 presents the first real time NMR study of the human telomeric G quadruplex folding kinetics.
The final chapter of this thesis (Chapter 8) outlines the potential of G-quadruplex structures as building blocks in nanotechnology. After illustrating briefly the additional possibilities offered by alternative non B DNA structures to programme nanomaterials, a number of applications employing G quadruplex structures in different fields of nanotechnology are described. The article presented in Chapter 8.1 investigates the structural and photoswitching properties of a novel intermolecular azobenzene containing G quadruplex synthetized in the group of Prof. Heckel (Goethe University, Frankfurt).
Mitochondrial membrane dynamics is increasingly implicated in various human diseases. Numerous studies show that the protein OPA1 plays a central role in determining mitochondrial ultrastructure and apoptotic remodeling of the inner mitochondrial membrane during Cytochrome c release and apoptosis. Crista junctions are crucial for the regulation of apoptotic Cytochrome c release. Previous publications suggest that OPA1 is required to maintain a normal structure of the inner mitochondrial membrane. The protein MIC60 (Mitofilin) appears to be an essential physical constituent of crista junctions and is also crucial for the general determination of mitochondrial ultrastructure. Furthermore, recent studies suggest that MIC60 is also implicated in Cytochrome c release during apoptosis.
In this regard, the question whether OPA1 is essential for crista junction formation was investigated. In addition to that, the interplay between OPA1 and MIC60 and its physiological role were analyzed. Electron microscopy of OPA1+/- and OPA1+/+ mice, as well as of OPA1-/- and OPA1+/+ MEFs clearly showed that OPA1 plays a role but is not essential for crista junction formation. In contrast to that, the results indicate that OPA1 is crucial to maintain a normal structure of the inner mitochondrial membrane. Immunogold experiments fit well to these observations as OPA1 was found equally distributed throughout the cristae membrane with only a minor part located at crista junctions. MIC60 localization studies showed a clear enrichment at crista junctions. Interaction studies revealed that endogenous OPA1 and MIC60 physically interact with each other. Analysis of protein levels upon OPA1 or MIC60 depletion indicate that both proteins play a dual role in cristae- and crista junction formation in which MIC60 is a physical constituent of crista junctions essential for their formation while OPA1 primarily has a regulatory impact on MIC60 function. Finally, apoptosis assays and cell viability measurements showed that knockout of OPA1 in MEFs leads to increased cellular resistance suggesting that the interplay of these proteins is important for the regulation of crista junction remodeling during apoptosis.
Besides its role in determining mitochondrial ultrastructure, OPA1 mediates inner membrane fusion of mitochondria thereby contributing to mitochondrial quality control. Additionally, proteolytic processing is crucial for the ability of OPA1 to distinguish between functional and dysfunctional mitochondria. Functional mitochondria are fused while dysfunctional mitochondria are not, a process termed selective mitochondrial fusion. Dysfunctional mitochondria were shown to be degraded by mitophagy in a fission-dependent manner. Numerous studies suggest that OPA1 and mitophagy are directly linked. However, this idea is still under debate. Mitophagy is also crucial for mitochondrial quality control, which directly impacts mitochondrial integrity. Furthermore, mitochondrial quality control has been linked to neurodegeneration as demonstrated by the observation that mutations in OPA1 cause the disorder ADOA-1.
In order to analyze a potential link between OPA1 and mitophagy, mitochondrial colocalization with LC3 was analyzed microscopically in primary adult skin fibroblasts isolated from OPA1+/- and OPA1+/+ mice in an age-dependent manner. Fibroblasts from young OPA1+/- mice showed increased colocalization of mitochondria with autophagosomes compared to fibroblasts from young wild type mice suggesting that OPA1 exerts an inhibitory role in mitophagy. This effect was even more pronounced in old mice, which also displayed higher mitophagy levels in general than young mice, consistent with the finding that old mice had higher Parkin levels than young mice. Mitochondrial fragmentation was elevated in fibroblasts from young and old OPA1+/- mice compared to control fibroblasts. However, extensive mitochondrial fusion, which occurred in fibroblasts from old wild type mice, was prevented in old OPA1+/- mice. Furthermore, old wild type mice had decreased numbers of crista junctions compared to young wild type mice, an effect that was not observed in OPA1+/- mice. Despite the observed age-dependent phenotypes in mitochondrial quality control and mitochondrial integrity, deletion of one allele of OPA1 had no influence on the life span in vivo. Analysis of the OPA1-dependent proteome of aging mice, which was performed in collaboration with Ansgar Poetsch and Carina Ramallo-Guevara from Bochum, showed that OPA1-dependent aging is accompanied by a reduction of proteins involved in autophagy. In contrast to that, a switch from glucose to fatty acid metabolism and alterations in apoptotic proteins were observed in both OPA1+/- and OPA1+/+ mice in an age-dependent manner indicating that the changes in proteins implicated in autophagy could be a compensatory response to the diminished inhibitory effect of OPA1 on mitophagy. On the other hand, increased mitochondrial degradation by mitophagy could be a cellular response to itself compensating for the loss of OPA1 mediated fusion thereby contributing to the observation that OPA1+/- and OPA1+/+ mice had no differences in life span. Furthermore, analysis of the OPA1-dependent proteome of aging mice revealed that OPA1, besides its role in mitochondrial fusion, could interact with the fission machinery: MFF and Neuronal pentraxin 1, two proteins involved in mitochondrial fission, were up-regulated in 12-month-old OPA1+/- mice suggesting that a reduced fission activity could contribute to mitochondrial hyperfusion in aged wild- type mice. Nonetheless, the exact nature of the possible interplays between OPA1 and these candidates remains to be investigated.
Die eukaryotische RNA-Polymerase II (RNAPII) ist der zentrale Faktor für die Umsetzung des genetischen Codes in funktionelle Proteine. Durch die Transkription wird die statische Information der DNA in ein transient nutzbares RNA-Molekül umgewandelt. Bei diesem fundamentalen Prozess der Genexpression wird ein spezifischer DNA-Abschnitt des Genoms abgelesen und in die komplementäre RNA transkribiert, die entweder direkt regulatorische bzw. funktionelle Aufgaben in der Zelle übernimmt oder als Matrize für die Proteinbiosynthese dient. Zur Erhaltung der Funktionalität eines Organismus und zur schnellen und gezielten Reaktion auf exogene Reize ist eine strikte Regulation der Transkription und der zahlreichen beteiligten Faktoren notwendig. Aufgrund der zentralen Rolle in der Genexpression ist diese Regulation äußerst vielschichtig und erfordert eine feinabgestimmte Maschinerie an Enzymen und Transkriptionsfaktoren, deren genaue Wirkungsweise und Abhängigkeit noch nicht vollständig verstanden sind. Fehler in der Transkriptionsregulation werden mit einer Reihe von schwerwiegenden metabolischen Störungen und der möglichen malignen Transformation der betroffenen Zelle in Verbindung gebracht.
Während einige Regulationsmechanismen der RNAPII bereits seit längerer Zeit beschrieben sind, ist eine besondere Form der RNAPII-abhängigen Regulation erst in den letzten Jahren Gegenstand genauerer Untersuchungen geworden. So erfährt die RNAPII bei einer Vielzahl von Genen unmittelbar nach der Transkriptionsinitiation einen Arrest, der das Enzym nicht weiter über die DNA prozessieren lässt und somit die produktive Elongation des Gens blockiert. Die Aufhebung dieses promotornahen Arrests wird durch den positiven Transkriptions-Elongationsfaktor b (P-TEFb) dominiert, der durch distinkte post-translationale Modifikationen der C-terminalen Domäne der RNAPII und assoziierter Faktoren den Übergang in die produktive Transkriptionselongation ermöglicht. P-TEFb selbst unterliegt dabei einer strengen Regulation durch die Inkorporation in inhibierende Speicherkomplexe (7SK snRNPs), bestehend aus der 7SK snRNA und mehrerer assoziierter Proteine. Abseits des 7SK snRNP wurde P-TEFb als Bestandteil großer Multiproteinkomplexe identifiziert, die einen positiven Einfluss auf die Transkriptionselongation besitzen. Die Transition von P-TEFb aus dem 7SK snRNP in diese sogenannten Superelongationskomplexe (SECs) stellt einen der zentralen Regulationsmechanismen der eukaryotischen Transkription dar, ist jedoch noch nicht ausreichend verstanden.
Ein zentrales Element aller SECs bilden die Mitglieder der AF4/FMR2-Proteinfamilie, darunter das AF4 Protein, dem neben der Erhaltung der strukturellen Integrität mittlerweile auch eine Funktion in der Rekrutierung von P-TEFb zugeschrieben wird. Dabei scheint AF4 jedoch auf die Hilfe bislang noch nicht charakterisierter Faktoren angewiesen zu sein. AF4 ist über diese Rolle hinaus als Bestandteil des Fusionsproteins AF4-MLL eng mit der onkogenen Zelltransformation im Falle einer durch die Translokation t(4;11)(q21;q23) bedingten, akuten lymphoblastischen Leukämie assoziiert.
Das zentrale Thema dieser Arbeit stellen Untersuchungen zum Transfer von P-TEFb aus dem 7SK snRNP zum AF4-Protein dar. Dabei konnte zunächst die DEAD-Box RNA-Helikase DDX6 als Integraler Bestandteil der AF4-SECs identifiziert werden, der bereits eine Funktion in der Kontrolle des microRNA- wie auch des mRNA-Metabolismus zugeschrieben werden konnte. Aus diesem Grund wurde von uns eine mögliche Beteiligung von DDX6 an der Rekrutierung von P-TEFb zum AF4-SEC durch Modulationen der 7SK snRNA postuliert. Des Weiteren konnte eine Bindefähigkeit von DDX6 gegenüber der 7SK snRNA sowie eine direkte Korrelation zwischen des zellulären DDX6-Proteinlevel und der Akkumulation von P-TEFb im AF4-SEC nachgewiesen werden. Sowohl die Überexpression von DDX6 als auch die von AF4 resultierten in einer gesteigerten mRNA-Produktion, wobei die Ergebnisse auf einen kooperativen Mechanismus zwischen den beiden Proteinen in der Aktivierung der Transkription hindeuteten. Außerdem konnte die These einer DDX6-vermittelten Aktivierung von P-TEFb anhand von Expressionsanalysen des bekannten P-TEFb Zielgens HEXIM1, dessen Expression im Zusammenhang eines negativen Rückkopplungsmechanismus gesteigert wird, bestätigt werden. Damit konnte der DEAD-Box RNA-Helikase DDX6 in dieser Arbeit das erste Mal eine entscheidende Funktion in der Rekrutierung von P-TEFb aus dem 7SK snRNP in den AF4-SEC, und somit an der Kontrolle der eukaryotischen Transkription, zugeschrieben werden.
Die vorliegende Dissertation untersucht wie Hegel nicht nur den Begriff der Freiheit, aber auch das Subjekt der Freiheit verstanden hat. Sie versucht diese Idee Hegels durch die gegenwärtige Philosophie, insbesondere die analytische Philosophie, und auch die Soziologie, insbesondere die Soziologie von Talcott Parsons, umzudenken.
Im ersten Kapitel wird die Idee der Freiheit als private Sphäre analysiert, die durch eine ganze Gruppe von subjektiven Rechten gesichert oder sogar geschaffen ist, die ohne Hilfe anderer Struktur existierte und von den meisten Naturrechttheoretiker verteidigt wurden, den alten sowie den neuen. Hegel nannte diese Ideen abstraktes Recht. Er wirft diese Vorstellung als noch funktional unvollständig oder metaphysisch inkohärent vor.
Im zweiten Kapitel wird das andere große Modell der Freiheit in der Moderne, nämlich, die Freiheit als Autonomie analysiert. Hegel untersucht diese Idee durch die Konzepte der Verantwortlichkeit und Handelns, die sich in der Praxis des Strafrechts befinden. Nach Hegel ist Verantwortlichkeit das Ergebnis einer gesamten sozialen Beziehung der Anerkennung. Daher ist ein Verbrechen, erstens, die Verletzung einer Norm und diese Normverletzung ist zugleich Anerkennungsverletzung. Zweitens, ein Verbrechen ist die Negation des objektiven Rechts, die dem Akteur zurechnen werden kann, und das ist, warum ein Verbrechen eine Anerkennungsverletzung ist. Ein zentraler Begriff für die Verantwortlichkeit ist der Vorsatz. In dem Konzept von Vorsatz finden wir sowohl die Absicht wie das Wissen, d. i. wenn jemand vorsätzlich handelt, nicht nur wünscht er etwas, sondern er denkt auch, wie er handeln sollte, um zu erreichen, was sie will. Man findet im Vorsatz auch die Idee des Grundes. Dies öffnet wiederum die Idee der moralischen Standards und auch die Möglichkeit eines moralischen Gewissens. Hegel sieht Kant als der größte Befürworter dieser Theorie. Hegel kritisiert Kant, dass er eine Art solipsistischer Methode hat. Die Gewissheit des Guten in die eigene Handlung könnte das Böse verbreiten. Hegel argumentiert, dass ohne eine soziale Basis dafür, die Sittlichkeit, solche moralischen Standards und moralisches Gewissen nicht möglich sind.
Im letzten Kapitel wird analysiert, wie jemand in der hegelschen Lehre frei sein könnte. Nach Hegel gibt es mindestens drei Bedingungen, sodass jemand tatsächlich als frei betrachtet werden könnte: eine metaphysische Bedingung, eine psychologische Bedingung, und eine soziale Bedingung. Diese drei Bedingungen entsprechen den Hauptkritiken gegen die Möglichkeit des freien Willens. Die erste der Kritik besagt, dass es in einer durch mechanische Gesetze geregelten Welt keinen Raum für die Freiheit gibt. Nach Hegel sei die Möglichkeit der teleologischen Erklärung zugleich die Möglichkeit für die Freiheit. In der psychologischen Bedingung argumentiert Hegel, dass das hedonistische oder Wunsch-Überzeugung-Handlung Modell in der Tat fast eine mechanische Erklärung wäre. In einem systemischen Selbstbewusstsein Vorstellung der individuellen Persönlichkeit, in dem alle Teile des Akteurs systemisch artikuliert sind, könnte das Individuum wirklich frei handeln, da das Individuum nicht mehr in seinen Wünschen oder anderen Trieben verschwunden wäre. Am Ende argumentiert noch Hegel, dass die Gary Strawson‘ Kritik an der Idee des freien Willens, dass wir nicht den ersten Umstand unseres Lebens, unsere Sozialisierung und Erziehung ändern könnten, nicht korrekt wäre. Freiheit bedeutet nicht, jeden Aspekt unseres Lebens zu bestimmen, sondern uns selbst und unser Handeln zu bestimmen. Hegel zufolge können wir in der Tat unseren Anfang ändern, indem wir uns selbst neu interpretieren. Diese Art der Selbstbestimmung setzt die Teilnahme an der Gesellschaft voraus. Wenn wir die semantische in unserer Kultur ändern, ändern wir uns selbst und solches aktive Engagement mit unserer Gesellschaft wäre auch eine Bedingung, um ein freies Leben zu führen.
Technology integration in physical education : examining the physical education teachers' domain
(2016)
Physical education (PE), in the meantime, has evolved as school subject that willingly adapts to technology trends to foster student learning. Several efforts to nurture and facilitate technology integration in PE indicate the growth in interest in this topic over the past years: multiple physical education teacher education (PETE) programs, textbooks, and journal papers have adopted technology issues as a regular topic in the realm of PE research and practice. Although there are plenty of conceptual papers and technology teaching tips available in common publication outputs, empirical evidence on technology integration in PE is still a rare sight. Empirical evidence on technology integration in PE is still limited. However, available studies reported vastly positive findings, favorably of a mutual linking of technology and PE Scanning through the various articles that described pedagogical scenarios for technology integration in PE, five pedagogical scenarios that stand for a typical and most beneficiary use of technology integration in PE classes in regard to student learning: a) homework and theory, b) informational Input, c) learning stations, d) feedback, and e) physical activity tracking. Focusing on the PE teachers? perspective, two empirical studies were carried out. The theoretical framework consists of three building blocks: the a) significance of technology in everyday life and school, b) organizational development and agents of school development and change, and c) determinants of technology integration in schools and in the classroom ? emphasizing the teacher as an agent of change. The first study examined PE teachers? subjective theories toward technology integration in PE. Findings indicated that a) computer literacy, b) household computer ownership, c) professional experience, as well as d) gender had an effect on PE teachers? subjective theories toward technology integration in PE. The second study surveyed PE teachers? computer literacy, and instructional technology and media use in PE. The majority of the PE teachers seldom used technology in PE classes. PE teachers? computer literacy had a statistically significant effect on their technology use in PE class for information and communications technology (ICT) such as laptops, Internet, and digital cameras. PE teachers who showed higher levels of computer literacy were more likely to use technology in the classroom. However, the sample tended to consist of PE teachers that do not use technology often. No statistical relation was found for the link of PE teachers? computer literacy and the use of traditional media (e.g., printed images, chalkboard) in the classroom. Conclusively summing up the discussion, the following developmental areas in the field of technology can be posited: a) curriculum development, b) media database, c) documentation, d) empirical research, e) PE environment, f) dissemination, g) implementation strategies, and g) professional development and PETE. Nonetheless, several concerns against technology integration in PE can be stated: a) Physical activity levels and physical activity time, b) sedentary lifestyle, c) empirical evidence, d) unfiltered experience and alienation, and e) preparation time and budget.
Nanomaterials, i.e., materials that are manufactured at a very small spatial scale, can possess unique physical and chemical properties and exhibit novel characteristics as compared to the same material without nanoscale features. The reduction of size down to the nanometer scale leads to the abundance of potential applications in different fields of technology. For instance, tailoring the physicochemical properties of nanomaterials for modification of their interaction with a biological environment has been reflected in a number of biomedical applications.
Strategies to choose the size and the composition of nanoscale systems are often hindered by a limited understanding of interactions that are difficult to study experimentally. However, this goal can be achieved by means of advanced computer simulations. This thesis explores, from a theoretical and a computational viewpoints, stability, electronic and thermo-mechanical properties of nanoscale systems and materials which are related to biomedical applications.
We examine the ability of existing classical interatomic potentials to reproduce stability and thermo-mechanical properties of metal systems, assuming that these potentials have been fitted to describe ground-state properties of the perfect bulk materials.
It is found that existing classical interatomic potentials poorly describe highly-excited vibrational states when the system is far from the potential energy minimum. On the other hand, construction of a reliable computational model is essential for further development of nanomaterials for applications. A new interatomic potential that is able to correctly reproduce both the melting temperature and the ground-state properties of different metals, such as gold, platinum, titanium, and magnesium, by means of classical molecular dynamics simulations is proposed in this work. The suggested modification of a many-body potential has a general nature and can be utilized for similar numerical exploration of thermo-mechanical properties of a broad range of molecular and solid state systems experiencing phase transitions.
The applicability of the classical interatomic potentials to the description of nanoscale systems, consisting of several tens-hundreds of atoms, is also explored in this study. This issue is important, for instance, in the case of nanostructured materials, where grains or nanocrystals have a typical size of about a few nanometers. We validate classical potentials through the comparison with density-functional theory calculations of small
atomic clusters made of titanium and nickel. By this analysis, we demonstrate that the classical potentials fitted to describe ground-state properties of a bulk material can describe the energetics of nanoscale systems with a reasonable accuracy.
In this work, we also analyze electronic properties of nanometer-size nanoparticles made of gold, platinum, silver, and gadolinium; nanoparticles composed of these materials are of current interest for radiation therapy applications. We focus on the production of low-energy electrons, having the kinetic energy from a few electronvolts to several tens of electronvolts. It is currently established that the low-energy secondary electrons of such energies play an important role in the nanoscale mechanisms of biological damage resulting from ionizing radiation. We provide a methodology for analyzing the dynamic response of nanoparticles of the experimentally relevant sizes, namely of about several nanometers, exposed to ionizing radiation. Because of a large number of constituent atoms (about 1000 −10000 atoms) and consequently high computational costs, the electronic properties of such systems can hardly be described by means of ab initio methods based on a quantum-mechanical treatment of electrons, and this analysis should rely on model approaches. By comparing the response of smaller systems (of about 1 nm size) calculated within the ab initio- and the model framework, we validate this methodology and make predictions for the electron production in larger systems.
We have revealed that a significant increase in the number of the low-energy electrons emitted from nanometer-size noble metal nanoparticles arises from collective electron excitations formed in the systems. It is demonstrated that the dominating mechanisms of electron yield enhancement are related to the formation of plasmons excited in a whole system and of atomic giant resonances formed due to excitation of valence d electrons in individual atoms of a nanoparticle. Being embedded in a biological medium, the noble metal nanoparticles thus represent an important source of low-energy electrons, able to produce a significant irrepairable damage in biological systems.
A general methodology for studying electronic properties of nanosystems is used to make quantitative predictions for electron production by non-metal nanoparticles. The analysis illustrates that due to a prominent collective response to an external electric field, carbon nanoparticles embedded in a biological medium also enhance the production of low-energy electrons. The number of low-energy electrons emitted from carbon nanoparticles is demonstrated to be several times higher as compared to the case of liquid water.
Identification of disease modulating compounds in juvenile neuronal ceroid lipofuscinosis (JNCL)
(2016)
Mutationen im CLN3 Gen verursachen die neurodegenerative Erkrankung juvenile neuronale Zeroidlipofuszinose (JNCL). Bei dieser Erkrankung sind die Autophagie, der lysosomale pH Wert und der mitochondriale Metabolismus beeinträchtigt. Störungen dieser Prozesse führen zu einer erhöhten Verletzlichkeit neuronaler Zellen gegenüber alters- und umweltbedingten Schäden, einer Anhäufung von Autophagosomen und lysosomalem Speichermaterial, Zelltod und Neurodegeneration. Um die JNCL zu erforschen bedienen wir uns eines Zellmodels aus der Maus, welches die häufigste krankheitsauslösende CLN3 Mutation im Menschen, die Deletion der Exons 7 und 8, nachbildet. Die aus dem Kleinhirn dieser Mäuse stammenden cerebellaren Körnerstammzellen werden als CbCln3Δex7/8/Δex7/8 Zellen, solche aus wild-typ Mäusen als CbCln3+/+ Zellen bezeichnet. Die JNCL ist nicht heilbar und die Entwicklung von Wirkstoffen steht noch am Anfang.
Die vorliegende Arbeit befasst sich mit der Durchführung eines Hochdursatzscreenings um Wirkstoffe zu identifizieren, welche eine Anhäufung von Autophagosomen in CbCln3Δex7/8/Δex7/8 Zellen verhindern können. Unter 1750 verschiedenen untersuchten Wirkstoffen konnten wir 28 aktive „Hits“ identifizieren und stellten fest, dass Kalziumkanalblocker, Östrogene und HMG-CoA-Reduktase Inhibitoren gehäuft vertreten waren. Eine sorgfältige Untersuchung die möglichen Interaktionen der aktiven Wirkstoffe mit zellulären Signalwegen und die Analyse ihrer Dosis-Wirkungskurven unterstützte uns bei der Auswahl von Verapamil, Nicardipin und Fluspirilen zur näheren Untersuchung. Diese Wirkstoffe sind Kalziumkanalblocker und Fluspirilen blockt auch D2 Dopaminrezeptoren.
Außerdem untersuchten und quantifizierten wir mitochondriale Phänotypen in CbCln3Δex7/8/Δex7/8 Zellen. Unsere Untersuchungen ergaben, dass Mitochondrien in CbCln3Δex7/8/Δex7/8 Zellen einer signifikanten Hyperfusion unterliegen und ein schwächeres Membranpotenzial aufweisen. Weiterhin fanden wir eine Verringerung der maximalen der mitochondrialen Elektronentransportkapazität und eine verringerte Aktivität des Enzyms Zitratsynthase, welches die Effizienz des Zitratzyklus bestimmt.
Fluspirilen, Verapamil und, in geringerem Ausmaß, Nicardipin, verbesserten einige krankheitsbedingte lysosomale und mitochondriale Phänotypen. Des Weiteren konnten Verapamil und Nicardipin, nicht aber Fluspirilen, den erhöhten zellulären Kalziumspiegel in CbCln3Δex7/8/Δex7/8 Zellen absenken. Erniedrigungen im Kalziumgehalt können durch die Inhibition der kalziumabhängigen Protease Calpain 1 zu einer Induktion der Autophagie führen. Wir untersuchten, ob eine chemische Inhibition der Calpain 1-Protease die Anzahl der Autophagosomen in CbCln3Δex7/8/Δex7/8 Zellen senkt, und stellten fest, dass dies nicht der Fall ist. Eine Inhibition von Calpain 1 führte lediglich zu einem Anstieg der Zahl zellulärer Autophagosomen. Als Nächstes untersuchten wir die Auswirkung der Wirkstoffbehandlung auf den Autophagiefluss. Verapamil und Nicardipin hatten keinen Einfluss auf den Autophagiefluss in der getesteten Konzentration in CbCln3Δex7/8/Δex7/8 Zellen während Fluspirilen die Autophagie induzierte. Gleichzeitig stellten wir fest, dass hohe Dosen von Nicardipin und Verapamil teilweise vor einem Verlust des lysosomalen pH-Werts durch eine Behandlung mit Bafilomycin A1 schützen konnten. Da Fluspirilen auch ein Dopaminrezeptorblocker ist, untersuchten wir die Auswirkung einer erhöhten Dosis von Dopamin auf die Zahl der Autophagosomen. Wir fanden, dass eine mittlere Dosierung von Dopamin einen Trend zu einer leichten Verringerung von Autophagosomen in CbCln3Δex7/8/Δex7/8 Zellen zur Folge hat.
Wir vermuten, dass die Kalziumkanalblocker Verapamil und Nicardipin und der Dopaminrezeptorblocker Fluspirilen unterschiedliche zelluläre Signalwege benutzen, aber letztendlich um ähnliche Botenstoffe verwenden, um die Funktion der Lysosomen in CbCln3Δex7/8/Δex7/8 Zellen zu verbessern. Die Verringerung des intrazellulären Kalziumgehalts durch Verapamil und Nicardipin führt zu einer Aktivierung von Adenylatzyklasen, welche eine Erhöhung des intrazellulären cAMP Spiegels herbeiführen. Fluspirilen inhibiert Dopaminrezeptoren vom Typ D2 (D2DR), was zu einer selektiven Aktivierung von Dopaminrezeptoren des Typs D5 (D5DR) führen könnte. Im Gegensatz zu D2 führen D5D Rezeptoren zu einer Aktivierung von Adenylatzyklasen und einer Erhöhung des cAMP Spiegels. cAMP aktiviert die Protein Kinase A (PKA), welche durch eine Proteinphosphorylierung von lysosomalen Chloridkanälen und Protonenpumpen die lysosomale Aktivität erhöht. Dies führt zu einer Verbesserung des Abbaus von Autophagosomen und lysosomalem Speichermaterial und zu einer verbesserten Zellgesundheit in CbCln3Δex7/8/Δex7/8 Zellen.
Eine Verbesserung der lysosomalen Funktion in der JNCL kann einen wirksamen Therapieansatz ergeben. Wir hoffen, dass die hier vorgestellten Methoden und Ergebnisse einen ersten Schritt in diese Richtung darstellen.
Das Hören hat für den Menschen eine maßgebliche Bedeutung hinsichtlich Kommunikation und Orientierung. Auch wenn sich der Mensch stark auf seinen visuellen Sinn verlässt, wird mit dem Ausfall des Hörvermögens deutlich, wie viele Informationen oft unterbewusst über die Analyse von Schallsignalen gezogen werden. Trotz dieser grundlegenden Relevanz sind bis heute noch nicht alle Komponenten, die dem Hörprozess zugrunde liegen, entschlüsselt.
Um sich diesen offenen Fragestellungen anzunähern, müssen Forscher oft auf Tiermodelle zurückgreifen. Auf Grund ihres exzellenten Gehörs haben sich hier in den letzten Jahrzehnten Fledermäuse als taugliche Versuchstiere qualifiziert. Diese Tiere sind in der Lage sich ohne Verwendung des visuellen Systems in absoluter Dunkelheit zu orientieren, indem sie mit Hilfe der wiederkehrenden Echos ihrer ausgesendeten Ultraschalllaute die Umgebungsstrukturen analysieren. Weiterhin umfasst der zur Kommunikation und Ortung verwendete Frequenzbereich bei Fledermäusen ein Vielfaches von dem des menschlichen, was ebenfalls verschiedene Aspekte der Hörforschung begünstigt. Die in dieser Studie verwendete fruchtfressende Fledermausart Carollia perspicillata eignet sich hervorragend für akustische Untersuchungen, da ihr Innenohr keine speziellen morphologischen Spezialisierungen aufweist.
Anhand der Fledermausart C. perspicillata sollen innerhalb der vorliegenden Studie verschiedene offene Fragestellungen bezüglich der Innenohrmechanik näher beleuchtet werden. Um sich diesen Fragestellungen anzunähern, wurde eine Kombination aus zwei etablierten Methoden verwendet. Zum einen die Messung von Distortions-Produkt otoakustischen Emissionen (DPOAEs), welche auf Grund ihrer Generierung durch aktive Prozesse innerhalb der Kochlea die Möglichkeit bietet, Veränderungen im Innenohr festzustellen und zum anderen kontralaterale akustische Stimulation (KAS), welche eine erprobte Methode zur Aktivierung des efferenten Systems darstellt. Dadurch, dass die äußeren Haarsinneszellen in der Kochlea direkte synaptische Kontakte mit efferenten Fasern der absteigenden Hörbahn eingehen, kann eine Aktivierung des efferenten Systems Modulationen des kochleären Verstärkers bewirken, wodurch sich wiederum die Antworteigenschaften der Kochlea verändern. Mit einer Kombination dieser beiden Methoden lassen sich demnach zum einen höhere Zentren der Hörbahn aktivieren, die über efferente Fasern einen direkten Einfluss auf das Innenohr nehmen, zum anderen die induzierten Modulationen in Form von DPOAEs mit Hilfe eines sensitiven Mikrofons aufnehmen. Die Grundvoraussetzung für die Funktionalität dieser Methodenkombination ist das Vorhandensein von efferenten Fasern innerhalb der Kochlea. Da das efferente System verschiedener Säuger eine große Diversität aufweist, wurden innerhalb dieser Arbeit zusätzlich zu den akustischen Untersuchungen histologische Schnittserien der Kochlea von C. perspicillata angefertigt. Hierbei lag das Hauptaugenmerk auf dem Verlauf der efferenten Fasern innerhalb der Kochlea. Mit Hilfe der Thiocholinmethode wurde der Ort der Umsetzung des Achetylcholinabbauenden Enzyms Achetylcholin-esterase angefärbt. Achetylcholin ist der vorranig vorkommende Transmitter an den efferenten Synapsen.
Diese Studie untersucht weiter den Einfluss der Narkose auf das Innenohr. In zahlreichen Studien, die Innenohrmechanik betreffend, wurden die Untersuchungen an narkotisierten Tieren durchgeführt. Oftmals wird zwar die Problematik der möglichen Beeinflussung des Innenohres durch das verwendete Narkosemittel diskutiert, aber meisthin als unumgänglich eingestuft. Innerhalb der vorliegenden Studie wurde ein Großteil der Experimente an narkotisierten und auch wachen Tieren durchgeführt, um die Auswirkungen der häufig verwendeten Ketamin-Xylazin-Narkose auf die Innenohr-aktivität zu verdeutlichen.
In der Literatur lässt sich eine Vielzahl von akustischen Untersuchungen finden, in denen artifizielle Stimuli wie Reintöne oder Rauschen verwendet werden. Die Problematik dahinter ergibt sich daraus, dass diese Art der Töne in der Natur selten zu finden sind. Derartige Studien werfen daher die Frage auf, ob das Innenohr beispielsweise Rauschstimuli auf die gleiche Weise verarbeitet wie natürliche, komplexere Stimuli. Innerhalb der vorliegenden Studie wurden demzufolge im Vergleich zu artifiziellen Stimuli arteigene Rufe der Fledermausspezies C. perspicillata aufgenommen und als akustische Stimuli während der Messungen verwendet.
Im Zuge dieser Fragestellung wurde in einem weiteren Teilprojekt versucht ein neues Verfahren zur Messung von OAEs zu etablieren, mit dem es möglich ist das Ohr nicht ausschließlich mit den herkömmlich verwendeten Reintönen zu stimulieren, sondern ebenfalls mit komplexen Lauten, wie arteigenen Kommunikations- und Echo-ortungsrufen. Hierfür wurde ein von Douglas Keefe vorgestelltes Paradigma zur Messung von OAE-Residualen herangezogen, welches die am Trommelfell gemessenen akustischen Signale von den Trommelfellantworten auf einzelne Komponenten dieser Signale subtrahiert.
Anhand der in dieser Studie gewonnenen Ergebnisse kann deutlich gezeigt werden, dass eine akustische Stimulation der kontralateralen Kochlea mit verschiedenen artifiziellen sowie arteigenen Stimuli zuverlässig eine Änderung des Pegels der 2f1-f2 DPOAE von bis zu 37,3 dB in der ipsilateralen Kochlea bei wachen Tieren bewirkt. Dabei unterscheidet sich die Art der Beeinflussung deutlich je nach verwendetem kontralateralem Stimulus. Die Stimulation mit artifiziellem Breitbandrauschen supprimiert den Emissionspegel über den gesamten getesteten Frequenzbereich um etwa 11,6 dB, während die verwendeten arteigenen Laute eine vergleichbare Beeinflussung des DPOAE-Pegels ausschließlich in einem Frequenzbereich zwischen 50 und 70 kHz bewirken. Im Frequenzbereich von 20 bis 30 kHz verursachen die arteigenen Laute nahezu keine Pegelabsenkung, was im deutlichen Kontrast zu den Ergebnissen unter KAS mit Breitbandrauschen steht. Unter Narkoseeinfluss konnte, unabhängig vom verwendeten Stimulus, keine Beeinflussung des DPOAE-Pegels festgestellt werden, was die Annahme bestätigt, dass die verwendete Ketamin-Xylazin-Narkose einen drastischen Einfluss auf den Hörprozess und insbesondere auf das efferente System nimmt. Die Ursache dafür, dass arteigene Stimuli anders verarbeitet werden als artifizielle Stimuli (wie z. B. Breitbandrauschen) konnte zwar nicht abschließend geklärt werden, aber die Vermutung liegt nahe, dass in diesem Verarbeitungsprozess höhere Zentren der Hörbahn involviert sind und selektiven Einfluss auf die ablaufenden Prozesse nehmen.
Die Etablierung des OAE-Residual-Messparadigmas auf der Basis der Methode von Keefe und Ling (1998) sollte die Möglichkeit bieten sowohl Reintöne als auch komplexe, arteigene Stimuli zu verwenden und so eine Erweiterung des herkömmlich verwendeten Messverfahrens darstellen. Über verschiedene Vorversuche unter Anwendung einer Zweitonreizung konnte gezeigt werden, dass die Ergebnisse des neu entwickelten Paradigmas mit denen der herkömmlichen DPOAE-Messungen hinsichtlich Reintonstimuli vergleichbar sind. Anhand der gewonnenen Ergebnisse mit einer Stimulation mit komplexen Signalen zeigen sich allerdings die Schwierigkeiten der neuen Methode. Die bisher erhobenen Daten zeigen keine klaren, reproduzierbare Ergebnisse, sollten aber die Grundbedingungen für die weiterführenden Versuche ebnen.
Rhythms, i.e. periodic sequences of events or states, are a ubiquitous feature of physiological systems such as the heart, the lungs or the brain. For the brain in particular, the diversity of rhythms is remarkable, ranging from low frequency rhythms in the slow/delta band (0.5-4 Hz) during sleep to gamma band oscillations (30-120 Hz) rhythms during alert behavior, all expressed in various brain areas and at various spatial scales. To understand whether these rhythms subserve a function for the organism it is important to also understand the underlying mechanisms that generate them. While the generation of some rhythms appear to be well-understood, e.g. sleep spindles, others such as the cortical beta rhythm (13-30 Hz) have remained elusive.
Understanding the generation of a brain rhythm involves multiple spatial scales, from identifying intracellular mechanisms such as the contribution of individual transmembrane currents to studying how specific neuronal populations or areas affect the full physiological rhythm present in the intact, highly interconnected brain. The aim of this work has been to delineate the mechanistic contributions of individual brain areas to the in vivo generation of two particular rhythms present in efferent areas: (1) The first part of this work studies the influence of thalamocortical neurons on cortical slow/delta waves (0.5-4 Hz) of sleep that are sometimes also present in awake animals. (2) The second part is about the contribution of primary visual cortex to the beta rhythm (13-30 Hz) in extrastriate cortex of awake behaving animals.
Mikroalgen wird aufgrund ihrer photoautotrophen Lebensweise, ihrer meist einfachen Anzucht und ihres schnellen Wachstums ein großes Potential als Produzenten verschiedener Stoffe, wie beispielsweise den Sekundärmetaboliten der Carotinoidbiosynthese, zugesprochen. Zur Produktion solcher Stoffe bedarf es der Aufklärung der in einem Biosyntheseweg operierenden Enzyme und ihrer zugehörigen Gene.
In dieser Arbeit sollte einerseits durch genetische Modifikation der Carotinoidbiosynthese der Fucoxanthingehalt erhöht und andererseits die Produktion von Astaxanthin in P. tricornutum erreicht werden. Bisher fehlen experimentelle Nachweise über die Funktion, Regulation und die limitierenden Eigenschaften daran beteiligter Gene und deren Enzyme. Um dem Ziel der Arbeit näher zu kommen, wurden zuerst potentiell an der Regulation der Carotinoidbiosynthese beteiligte Gene ausgewählt und deren Enzyme funktionell charakterisiert. Eines dieser Enzyme ist das Eingangsenzym der Carotinoidbiosynthese, die Phytoen-Synthase. Die entsprechend annotierte putative Sequenz (psy #Pt56881) wurde zur Analyse herangezogen. Nachdem im Rahmen dieser Arbeit über die Komplementation in einem dafür ausgerichteten E. coli Stamm der funktionelle Nachweis der Phytoen-Synthase erbracht werden konnte, wurde untersucht, ob die Phytoen-Synthase einer lichtabhängigen Expression unterliegt und somit die Carotinoidsynthese im WT von P. tricornutum limitiert. Durch die Inhibierung der Phytoen-Desaturase mittels Norflurazon konnte die verstärkte Akkumulation des Produktes der Phytoen-Synthase, Phytoen, bei einem Transfer der P. tricornutum-Kulturen von Schwach- in Starklicht gezeigt werden. Die Expression der Phytoen-Synthase von P. tricornutum wird demnach durch die Lichtbedingungen reguliert und limitiert auch die Carotinoidsynthese. Ein weiteres an der Carotinoidsynthese beteiligtes Enzym ist die Zeaxanthin-Epoxidase. Sie bietet zugleich eine Möglichkeit, an dieser Stelle die Carotinoidsynthese in Richtung Astaxanthinproduktion umzulenken. Für P. tricornutum sind drei potentielle Genkandidaten (zep1: #Pt45845; zep2: #Pt56488; zep3: #Pt56792) annotiert, welche ebenfalls im Rahmen dieser Arbeit funktionell charakterisiert wurden. Der funktionelle Nachweis erfolgte dabei ebenfalls mittels eines Komplementationsansatzes in einem damit neu etablierten Expressionssystem mit npq2-Mutanten aus der Modellpflanze A. thaliana. Die Analyse der Transformanden zeigte eine Epoxidase-Aktivität des Produktes aus zep2 und zep3. Das Enzym Zeaxanthin-Epoxidase 2 weist dabei eine andere Spezifität auf als die Zeaxanthin-Epoxidase 3, welche funktionell betrachtet der Zeaxanthin-Epoxidase aus A. thaliana am nächsten kommt. Die Zeaxanthin-Epoxidase 2 akzeptiert im Unterschied zu Zeaxanthin-Epoxidase 3 neben Zeaxanthin auch andere Substrate wie Lutein mit nur einem 3 Hydroxy-β-Iononring und stellt damit einen validen Kandidaten für die Umwandlung von Diatoxanthin in Diadinoxanthin in P. tricornutum dar. Obwohl die Transkriptanalysen ausreichende Mengen an RNA von zep1 in A. thaliana zeigen und anhand eines zusätzlichen mit der Sequenz für GFP markierten zep1-Konstruktes in WT-Protoplasten von A. thaliana der Import in den Chloroplasten und die Expression nachgewiesen werden konnte, weist die Zeaxanthin-Epoxidase 1 zumindest in den A. thaliana-Transformanden keine Epoxidase-Aktivität auf. Des Weiteren zeigt die diurnale Expression in P. tricornutum, dass die Regulation der Zeaxanthin-Epoxidasen an den Bedarf photoprotektiver Pigmente angepasst wird. Während die Regulation des Transkript-Levels von zep2 und zep3 nahezu parallel laufen und ein gemeinsames Maximum aufweisen, zeigt das Transkript-Level von zep1 ein anderes Maximum.
Die gewonnenen Erkenntnisse wurden dann zur Steigerung der Synthesekapazität mittels genetischer Modifikation des Carotinoidsyntheseweges in P. tricornutum angewendet. Durch das Einbringen zusätzlicher Genkopien der Phytoen-Synthase in P. tricornutum konnte dabei eine deutliche Steigerung des Fucoxanthingehalts unter Schwachlichtbedingungen erreicht werden. Gleichzeitig konnte durch weitere inhibitorische Versuche mittels Norflurazon beim Transfer von Schwach- zu Starklicht demonstriert werden, dass die Carotinoidsynthese durch die Kombination der genetischen Modifikation mit der Phytoen-Synthase und Starklicht per se weiterhin gesteigert werden kann. Zusammen mit den Transkriptanalysen zeigen die Pigmentanalysen, dass es einen nicht-linearen Zusammenhang zwischen RNA-Menge und gebildeter Phytoenmenge gibt, welcher durch eine zusätzliche Substratlimitierung der Phytoen-Synthase erklärt werden kann.
Bevor das Herunterregulieren der Zeaxanthin-Epoxidasen in P. tricornutum durchgeführt und damit ein verstärkter Fluss zur Astaxanthinbildung erreicht werden sollte, wurde das Potential von P. tricornutum zur Astaxanthinproduktion überprüft. Hierfür wurde die β-Carotin-Ketolase (bkt #CrAEA35045.1) aus C. reinhardtii einmal ohne und zusätzlich mit verschiedenen Präsequenzen fusioniert separat in P. tricornutum eingebracht. Astaxanthin konnte trotz Nutzung funktionell bestätigter Präsequenzen aus der Literatur nicht nachgewiesen werden. Die Versuche zeigen damit, dass hier noch weitere Untersuchungen nötig sind, um mittels eines geeigneten Transportsystems Fremd-Proteine in den Chloroplasten von P. tricornutum einzubringen. Das Ausbleiben der Astaxanthinproduktion konnte an dieser Stelle nicht hinreichend geklärt werden.
Insgesamt schaffen die Ergebnisse dieser Arbeit eine weitere Grundlage, um die Carotinoidbiosynthese in P. tricornutum besser zu verstehen und diese mittels genetischer Modifikationen biotechnologisch nutzbar zu machen.
Die Untersuchung befasst sich am Beispiel der fotografischen Arbeiten von Barbara Klemm mit einer aktuellen Entwicklung in der Fotografie. Der Lebens- und Berufsweg der Fotografin steht dabei stellvertretend für eine Generation von Reportage- und Dokumentarfotografen, die in der zweiten Hälfte des 20. Jahrhunderts nicht nur erfolgreich in ihrem Beruf gearbeitet, sondern darüber hinaus auch im musealen Kontext Beachtung erfahren haben. Durch die wachsende öffentliche Aufmerksamkeit und das damit verbundene Ansehen entwickelten sich die Arbeiten von Barbara Klemm von dokumentarischen Zeitungsbildern zu künstlerischen Fotografien. Wie dieser Prozess vom Zeitungsbild zum Museumsbild im Einzelnen abgelaufen ist, wird in der vorliegenden Arbeit untersucht.
Zu Beginn wird der gegenwärtige Umgang mit Fotografie in der Gesellschaft und in der Kunst thematisiert. Es wird die Entwicklung des fotografischen Mediums seit 1960 parallel zu den Wirkjahren von Barbara Klemm untersucht und gezeigt, welchen Einfluss diese Veränderungen auf ihr Werk und dessen Wahrnehmung hatten.
Dies ist im Allgemeinen die Frage nach der Wahrnehmung von Fotografie und im Speziellen nach der Veränderung von Wahrnehmung oder besser nach der Veränderung der Umwelt, die dem Betrachter eine andere Sicht auf die Fotografie ermöglicht. Das Thema ist aus der Sicht der Kunstwissenschaft und Kunstpädagogik bedeutsam, denn es zeigt, wie sich gesellschaftliche Kategorisierungen nicht unmittelbar, sondern im Laufe eines jahrzehntelangen Prozesses verändern. Eine Veränderung, deren Ursachen in einer engen Vernetzung von Wahrnehmung, Kommunikation, gesellschaftlicher Faktoren und ganz unterschiedlicher Entwicklungen innerhalb verschiedener einflussnehmender Systeme in einer gemeinsamen Umwelt zu suchen sind. Die analoge Schwarzweißfotografie ist die Technik in der Barbara Klemm arbeitet. Dies stellt heutzutage eine Besonderheit dar, denn die Sehgewohnheiten der Betrachter sind durch sehr verschiedene Bildarten geprägt. Diese reichen von Schnappschüssen und Amateuraufnahmen mit Kleinbild- oder handykameras bis hin zu professionellen Fotografien in der Werbung oder in Hochglanzmagazinen. Aufgrund der digitalen Technik, bei der mehr Aufnahmen in kurzer Zeit gemacht werden können, treten Komposition, Bildaufbau und Beleuchtung oft in den Hintergrund. Die Unterschiede zwischen analoger und digitaler Fotografie werden zudem in einer geschichtlichen Entwicklung der Reportagefotografie der vergangenen Jahrzehnte vertieft. Barbara Klemm arbeitete den größten Teil ihres Berufslebens als Bildjournalistin bei der Frankfurter Allgemeinen Zeitung. Von 1970 bis 2004 war sie zuständig für die Bereiche Politik und Feuilleton. In diesen Jahren entstanden Bilder, die heute zum kollektiven Gedächtnis vieler Deutscher zählen. Ausgehend von ihrer Arbeit wird dargestellt, wie die Fotografien einem Publikum zugänglich gemacht wurden und im Laufe der Zeit über das Medium der Zeitung hinaus in andere Bereiche der Öffentlichkeit gelangten, vor allem in die Kunst, aber auch in die Bereiche der Geschichte und Erinnerungsarbeit. Unter Verwendung der theoretischen Grundlage und Kategorisierung von Niklas Luhmann werden Arbeiten der Fotografin im System Journalismus und im System Kunst untersucht. An dieser Stelle waren Operatoren notwendig, die ihre Bilder aus dem System des Zeitungswesens in das System der Kunst transferierten. Diese Aufgabe konnten nur bestimmte Schlüsselfiguren (Schlüsselpersonen) erfüllen, denn Barbara Klemm hatte zu keiner Zeit intendiert, künstlerisch zu arbeiten. Das bedeutet, nur ein anerkannter Museumsdirektor oder ein erfahrener Ausstellungskurator konnte ihre Position in das „System Kunst“ einführen.
Nach einer kurzen biografischen Vorstellung der Arbeits- und Lebensstationen werden der Stil, die Technik und die Komposition Barbara Klemms Fotografien analysiert, um anschließend einen Versuch zu unternehmen, die besondere Ästhetisierung der Bilder zu erklären. So besitzt eine gelungene Fotografie von Barbara Klemm einen Mehrwert gegenüber den reinen Reportagebildern. Was der Betrachter vor Barbara Klemms Bildern empfindet und assoziiert, ist zum Teil individuell, zum Teil aber auch sozial, gesellschaftlich und kulturell – also intersubjektiv bestimmt. All seine Erfahrungen prägen die Beziehung zu jedem einzelnen Bild. Dass die Fotografien von Barbara Klemm heute eine breite Akzeptanz erfahren, hängt auch mit gesellschaftlichen Abläufen zusammen. Wissen und Meinungen festigen sich durch Wiederholung, die zur Gewohnheit werden. Vertrautem begegnet man folglich eher mit Sympathie und Wohlwollen, nicht zuletzt vermittelt es eine gewisse Sicherheit. Die langjährige Präsenz als Fotografin bei der Frankfurter Allgemeinen Zeitung stellt demnach eine fruchtbare Basis dar. Symbolisch gesprochen ist ihre Anstellung bei der Tageszeitung das stabile Fundament, auf dem ihr späterer Erfolg als künstlerische Fotografin aufbaut.
Die Inauguraldissertation „Strafrechtsdogmatische und strafprozessuale Probleme bei der Einführung und Umsetzung einer Verbandsstrafbarkeit. Untersuchung des Entwurfs eines Ge-setzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unternehmen und sonstigen Verbänden“ verfasst von Frau Franziska Osterloh, LL.M., befasst sich mit der Einführung einer Verbandsstrafbarkeit. Betreut wurde die Arbeit an der Johann Wolfgang von Goethe – Universität, Frankfurt am Main, von Herrn Prof. Dr. Matthias Jahn. Anlass des aktuellen Auflebens der wissenschaftlichen Diskussion und Anknüpfungspunkt dieser Arbeit war der Entwurf eines Gesetzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unter-nehmen und sonstigen Verbänden, der auf Vorschlag des nordrhein-westfälischen Justiz-ministeriums der Justizministerkonferenz der Länder im November 2013 vorgelegt wurde.
Zu Beginn wird anhand einer kurzen historischen Einführung und einer Darstellung der rechtlichen Grundlagen von Verbandstätigkeit außerhalb des (Kern-)Strafrechts aufgezeigt, dass der Verband als Rechtssubjekt weitestgehend anerkannt und verselbstständigt ist. An-schließend werden die kriminalpolitischen Argumente zur Begründung einer Verbandsstraf-barkeit in ihren wesentlichen Zügen wiedergegeben.
In dem folgenden der Arbeit untersucht die Verfasserin die strafrechtsdogmatischen Probleme der Einführung einer Verbandsstrafbarkeit. Dabei konzentrieren sich die Ausführungen auf die „klassischen“ Eckpunkte des wissenschaftlichen Diskurses, die Handlungs-, Schuld- und Straffähigkeit von Verbänden. Hierbei liegt ein Schwerpunkt auf der Auseinandersetzung mit der Frage der möglichen Schuldfähigkeit eines Verbandes. Als Ergebnis dieses Kapitels wird festgehalten, dass die bloße Zurechnung ebenso wie die selbstständige Verbandsschuld, nicht den Anforderungen des Schuldprinzips genügen kann. Der Bezug zu der natürlichen Hand-lung, die nach außen in Erscheinung tritt, ist mit Hilfe einer Zurechnung erforderlich und dann ausreichend, wenn für den Verband die Möglichkeit bestanden hätte, durch Organi-sationsstrukturen die Ausführung der Handlung zu verhindern.
Anhand dieser Ergebnisse werden die materiell-rechtlichen Aspekte des untersuchten Gesetzesentwurfs näher beleuchtet und insbesondere die in § 2 des Entwurfs enthaltenen Tatbestände, die sich stark an §§ 30, 130 OWiG anlehnen, untersucht. Die Verfasserin kommt zu dem Ergebnis, dass die Tatbestände unter Berücksichtigung einer teleologischen Aus-legung und restriktiven Handhabung nicht gegen Verfassungsrecht verstoßen.
Die Untersuchung der strafprozessualen Aspekte des Gesetzesentwurfs bezieht sich zum einen auf die übergeordneten Verfahrensprinzipien und deren im Ergebnis weitgehende An-wendbarkeit auf Verbände und zum anderen auf die konkreten Normierungen des Entwurfs. Ein Schwerpunkt wird hierbei auf die Beschuldigtenrechte gelegt, die nach Ansicht der Verfasserin noch nicht hinreichend klar normiert sind. Abschließend werden einige strafprozessuale Besonderheiten untersucht, die nicht ausdrücklich oder lediglich beiläufig von dem Gesetzesentwurf aufgefasst werden.
Als Gesamtergebnis der Arbeit wird der untersuchte Gesetzesentwurf zwar als begrüßens-werte Präzisierung und Bereicherung der Diskussion um eine Verbandsstrafbarkeit, jedoch nicht als dessen Schlusspunkt eingeordnet.
Die in den letzten Jahrzehnten erfolgten Entwicklungen im Bereich der Informations- und Kommunikationstechnologien (IKT) haben beinahe alle Teilbereiche der Gesellschaft erreicht (OECD, 2000) und so können Alltag, Beruf, aber auch soziale Interaktionen benannt werden (Autor, Levy, & Murnane, 2003). Das technologiebasierte Problemlösen stellt ein relevantes Kompetenzkonstrukt dar, wobei die empirische Validierung der Testwertinterpretation noch aussteht. „Technologiebasiertes Problemlösen ist die Kompetenz, digitale Technologien, Kommunikationshilfen und Netzwerke erfolgreich für die Suche, Vermittlung und Interpretation von Informationen zu nutzen.“(OECD, 2009; zitiert nach Rammstedt, 2013). Ziel einer Konstruktvalidierung ist es theoretische Annahmen – sowie nomologische Netze – mit empirischen Belegen zu prüfen und somit Aussagen über die Gültigkeit der Testwertinterpretationen treffen zu können (vgl. Messick, 1995). Zu diesem Zweck wurden die folgenden fünf Leithypothesen aufgestellt:
1. Im technologiebasierten Problemlösen können Teilsequenzen durch Routinen im Umgang mit IKT bewältigt werden.
Mit dem Ziel der Analyse von Lösungsprozessen wurden Prozessdaten aus dem Feldtest der PIAAC-Studie genutzt und automatisierbare Teilschritte (beispielsweise Schließen eines Popups) analysiert. Eine schnelle Bearbeitung dieser Teilschritte wurde auch mit einer höheren Lösungswahrscheinlichkeit des Problems assoziiert. Die Testwerte des technologiebasierten Problemlösens spiegeln die bildungsbiographischen Lernerfolge wider, die zu einem routinierten Umgang mit IKT führen.
2. Durch die Entstehungsgeschichte von IKT begründet, bestehen Differenzen im technologiebasierten Problemlösen.
Entstehung moderner IKT legt eine Differenzierung von drei Kohorten nahe (orientiert an lernintensiven Phasen der Kindheit und Jugend):
- Erlebten die Entstehung und Verbreitung von Hardware (geboren 1946-1966)
- Begleiteten die Verbreitung von Computersoftware und dessen Nutzung (geboren 1966-1981)
- Nutzung und Gestaltung digitaler Inhalte des Internets (geboren 1981-1995)
Erwartungsgemäß unterscheiden sich die Kohorten im technologiebasierten Problemlösen – genauer in der Nutzung von Routinen im Lösungsprozess und im erreichten Kompetenzniveau. Ältere Kohorten benötigten im Mittel mehr Zeit für Teilschritte, die durch Routinen bearbeitet werden können und sie erreichten im Mittel niedrigere Kompetenzniveaus. Obwohl Lesekompetenzen eine wesentliche Bedeutung im technologiebasierten Lösen von Problemen haben, können sie die Kohortenunterschiede nicht umfassend aufklären. Weil ältere Personenkohorten während ihrer formellen Ausbildungsphasen IKT – wie sie heute verwendet werden – nicht nutzen konnten, haben informelle Lerngelegenheiten eine wesentliche Bedeutung. So profitieren ältere Personen von einem regelmäßigen, beruflichen oder privaten Umgang mit diesen Technologien. Die Testwerte des technologiebasierten Problemlösens spiegeln entstehungsgeschichtlich begründete Kohortenunterschiede wider, welche durch lebenslange, formelle und informelle Lerngelegenheiten minimiert werden können.
3. Der Umgang mit IKT ist – begründet durch deren Entstehungsgeschichte – eher weniger Teil der formellen und schulischen Bildung.
Technologiebasiertes Problemlösen wird weniger in formellen und schulischen Lerngelegenheiten erworben, als andere Kompetenzen wie beispielsweise mathematische und Lesekompetenzen. Folglich wurden für das technologiebasierte Problemlösen kleinere Differenzen zwischen hohen, mittleren oder niedrigen Bildungsabschlüssen erwartet und konnten empirisch anhand der PIAAC-Daten belegt werden. Vorteile von Personen mit einem hohen Bildungsabschluss konnten durch höhere Lesekompetenzen erklärt werden. Die Testwerte des technologiebasierten Problemlösens bilden entstehungsgeschichtlich begründete Unabhängigkeiten des Kompetenzkonstruktes ab, das zumeist nicht schulisch erworben wurde.
4. Technologiebasiertes Problemlösen ist ein eigenständiges Kompetenzkonstrukt, das Parallelen zu mathematischen und Lesekompetenzen aufweist.
Mathematische und Lesekompetenzen stehen in einem Zusammenhang mit dem Umgang mit IKT und somit auch mit dem technologiebasierten Problemlösen. Die Leseanteile am technologiebasierten Problemlösen werden als größer eingeschätzt, als die der mathematischen Kompetenz und stärkere Effekte durch Lesekompetenz konnten empirisch
nachgewiesen werden. Die Annahme der Eigenständigkeit des technologiebasierten Problemlösens wird im Weiteren dadurch gestützt, dass der alltägliche Umgang mit mathematischen und Leseinhalten weniger stark mit ihm assoziiert ist, als der Umgang mit IKT. Nomologische Netze zwischen technologiebasiertem Problemlösen und mathematischen sowie Lesekompetenzen konnten empirisch gestützt werden und die Annahme der Eigenständigkeit des Kompetenzkonstruktes bestärkt.
5. Die Nutzung von IKT – als Lerngelegenheit verstanden – und andere Lerngelegenheiten sowie Indikatoren erfolgreichen Lernens können zum technologiebasierten Problemlösen beitragen.
Lebenslanges Lernen ist ein Teil der menschlichen Natur und in diesem Rahmen dienen verschiedenste formelle und informelle Lerngelegenheiten dem Erwerb von Wissen und Kompetenzen (Dohmen, 2001). So erreichen Personen im technologiebasierten Problemlösen ein höheres Kompetenzniveau, wenn sie regelmäßig privaten oder beruflichen Umgang mit IKT hatten. Neben diesen informellen Lerngelegenheiten steht auch die Teilnahme an Weiterbildungen in einem positiven Zusammenhang mit der technologiebasierten Bewältigung von Problemen. Des Weiteren hat eine positive Einstellung gegenüber dem Lernen neuer Inhalte einen Einfluss auf die technologiebasierte Problemlösekompetenz. Die Testwerte des technologiebasierten Problemlösens spiegeln die Lernerfolge durch das lebenslange Lernen wider, die durch verschiedene bildungsbiographische Merkmale – insbesondere formelle und informelle Lerngelegenheiten – befördert werden.
Das technologiebasierte Problemlösen in der Operationalisierung der PIAAC-Studie lässt eine konstruktrepräsentative Testwertinterpretation zu und ermöglicht somit eine differenzierte Beschreibung von Kompetenzen im Umgang mit IKT.
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
Different approaches are possible when it comes to modeling the brain. Given its biological nature, models can be constructed out of the chemical and biological building blocks known to be at play in the brain, formulating a given mechanism in terms of the basic interactions underlying it. On the other hand, the functions of the brain can be described in a more general or macroscopic way, in terms of desirable goals. This goals may include reducing metabolic costs, being stable or robust, or being efficient in computational terms. Synaptic plasticity, that is, the study of how the connections between neurons evolve in time, is no exception to this. In the following work we formulate (and study the properties of) synaptic plasticity models, employing two complementary approaches: a top-down approach, deriving a learning rule from a guiding principle for rate-encoding neurons, and a bottom-up approach, where a simple yet biophysical rule for time-dependent plasticity is constructed.
We begin this thesis with a general overview, in Chapter 1, of the properties of neurons and their connections, clarifying notations and the jargon of the field. These will be our building blocks and will also determine the constrains we need to respect when formulating our models. We will discuss the present challenges of computational neuroscience, as well as the role of physicists in this line of research.
In Chapters 2 and 3, we develop and study a local online Hebbian self-limiting synaptic plasticity rule, employing the mentioned top-down approach. Firstly, in Chapter 2 we formulate the stationarity principle of statistical learning, in terms of the Fisher information of the output probability distribution with respect to the synaptic weights. To ensure that the learning rules are formulated in terms of information locally available to a synapse, we employ the local synapse extension to the one dimensional Fisher information. Once the objective function has been defined, we derive an online synaptic plasticity rule via stochastic gradient descent.
In order to test the computational capabilities of a neuron evolving according to this rule (combined with a preexisting intrinsic plasticity rule), we perform a series of numerical experiments, training the neuron with different input distributions.
We observe that, for input distributions closely resembling a multivariate normal distribution, the neuron robustly selects the first principal component of the distribution, showing otherwise a strong preference for directions of large negative excess kurtosis.
In Chapter 3 we study the robustness of the learning rule derived in Chapter 2 with respect to variations in the neural model’s transfer function. In particular, we find an equivalent cubic form of the rule which, given its functional simplicity, permits to analytically compute the attractors (stationary solutions) of the learning procedure, as a function of the statistical moments of the input distribution. In this way, we manage to explain the numerical findings of Chapter 2 analytically, and formulate a prediction: if the neuron is selective to non-Gaussian input directions, it should be suitable for applications to independent component analysis. We close this section by showing how indeed, a neuron operating under these rules can learn the independent components in the non-linear bars problem.
A simple biophysical model for time-dependent plasticity (STDP) is developed in Chapter 4. The model is formulated in terms of two decaying traces present in the synapse, namely the fraction of activated NMDA receptors and the calcium concentration, which serve as clocks, measuring the time of pre- and postsynaptic spikes. While constructed in terms of the key biological elements thought to be involved in the process, we have kept the functional dependencies of the variables as simple as possible to allow for analytic tractability. Despite its simplicity, the model is able to reproduce several experimental results, including the typical pairwise STDP curve and triplet results, in both hippocampal culture and layer 2/3 cortical neurons. Thanks to the model’s functional simplicity, we are able to compute these results analytically, establishing a direct and transparent connection between the model’s internal parameters and the qualitative features of the results.
Finally, in order to make a connection to synaptic plasticity for rate encoding neural models, we train the synapse with Poisson uncorrelated pre- and postsynaptic spike trains and compute the expected synaptic weight change as a function of the frequencies of these spike trains. Interestingly, a Hebbian (in the rate encoding sense of the word) BCM-like behavior is recovered in this setup for hippocampal neurons, while dominating depression seems unavoidable for parameter configurations reproducing experimentally observed triplet nonlinearities in layer 2/3 cortical neurons. Potentiation can however be recovered in these neurons when correlations between pre- and postsynaptic spikes are present. We end this chapter by discussing the relation to existing experimental results, leaving open questions and predictions for future experiments.
A set of summary cards of the models employed, together with listings of the relevant variables and parameters, are presented at the end of the thesis, for easier access and permanent reference for the reader.
Diese Dissertation geht der Frage nach, wie die Literacy-Förderung der Kinder im Kindergartenalter in türkischstämmigen Familien in Deutschland stattfindet. Es wird der Frage nachgegangen, wie sich sozioökonomische und soziokulturelle Verhältnisse der Familien die Literacy-Förderung beeinflussen. Es wurden zwei qualitative Untersuchungen durchgeführt. Im ersten Teil der Arbeit wurden zwölf Mütter anhand halbstrukturierter Interviews befragt. Die Daten wurden anhand der qualitativen Inhaltsanalyse ausgewertet. Im zweiten Teil wurde als nichtteilnehmende, offene Beobachtung der Vorlesesituation durchgeführt. Anhand der Sequenzanalyse wurde die Vorgehensweise der Mütter während des Vorleseprozesses ausgewertet.
Es wurde untersucht, inwieweit der ökonomische Status und das kulturelle Kapital der Eltern für die Literacy-Förderung prägend sind. In den untersuchten Familien sind sowohl die literacy-bezogenen Aktivitäten als auch die Erziehung insgesamt stark an den Normen der Mehrheitsgesellschaft orientiert. Entscheidend sind nicht auf Ethnizität bezogene Zuschreibungen, sondern die sozioökonomische Stellung und das kulturelle Kapital der Eltern bei der Literacy-Förderung in den türkischstämmigen Familien.
Die Untersuchung zeigt im ersten Teil, dass die untersuchten Familien bei der Literacy-Förderung mit zahlreichen Hindernissen konfrontiert sind, die nicht primär ethnisch begründet sind, sondern vielmehr auf sozioökonomische und soziokulturelle Faktoren zurückgeführt werden müssen. Die berufliche Situation und Arbeitsbedingungen der Eltern erschweren die Durchführung der literacy-bezogenen Aktivitäten. Der ökonomische Status und der Bildungsstand sowie das kulturelle Kapital der Eltern ist der Grund für Hindernisse. Das macht sich bemerkbar in drei Gesichtspunkten: (i) Bei der direkten Anregung des Kindes zu Literacy, wenn das Kind zum Schreiben initiiert wird, sein Interesse für Bücher geweckt oder bei alltäglichen Aktivitäten zum Schriftentdecken herangeführt wird. Die Mütter, die über kulturelles Kapital verfügen, führen diese Aktivitäten regelmäßig und effizient durch. (ii) Bei der Gestaltung der Literacy-Umgebung, wenn diese vielfältig gestaltet wird (z.B. die Auswahl elektronischer Medien). Hierbei macht sich der sozioökonomische Status am deutlichsten bemerkbar. (iii) Auch bei der die Vorbildfunktion der Eltern als indirekte Anregung macht sich kulturelles Kapital bemerkbar. Im zweiten Teil der empirischen Untersuchung zur Vorlesesituation sind zwei Handlungsmuster festgestellt worden, die dem Vorleseverhalten der Mütter zugrundeliegen. Dabei ist das kulturelle Kapital entscheidend. Die Mütter mit niedrigem Kulturkapital führen den Vorleseprozess monologisch und einseitig, sodass die Kinder nicht oder nicht hinreichend einbezogen werden. Die Mütter mit höherem Kulturkapital dagegen gestalten den Vorleseprozess dialogisch, sodass das Kind eingebunden wird. Der wichtigste Unterschied zwischen den beiden Handlungsmustern ist die Vermittlung der Erzählung. Im dialogischen Handlungsmuster wird der Vorleseprozess interaktiv gestaltet und die Haupthandlung der Geschichte im Blick behalten. Im monologischen Handlungsmuster aber hoffen die Vorlesenden, dass die Kinder durch bloßes Zuhören die Geschichte begreifen. Hier dominiert die Fokussierung auf die Einzelhandlungen. Während die Mütter höherem Kulturkapital die Vermittlung der Erzählung als ein zu erreichendes Ziel begreifen, tritt dies bei denen mit geringem Kulturkapital in den Hintergrund.
The high selectivity of biological transformations taking place in Nature have long inspired synthetic chemists to develop analogous chemical processes. Similarly, transient intermediates identified in chemical transformations often provide a basis to understand biological processes. Therefore, new insights gained in biological studies are often useful for chemistry and vice versa.
Proteins, and catalytically active enzymes, are among the most essential units of living cells. Metalloproteins or -enzymes, i.e., proteins or enzymes that contain transition metal ions such as copper, nickel, iron or zinc are often involved in processes like (1) metal-ion storage and transport, (2) exchange of electrons with the environment in catalysis and electron transfer reactions, and (3) dioxygen storage, transport, and metabolization.
For decades, copper-mediated biological oxidations have spurred a great deal of interest among synthetic and catalytic chemists. Copper enzymes such as dopamine β-monooxygenase (DβM), peptidylglycine α-hydroxylating monooxygenase (PHM),particulate methane monooxygenase (pMMO) and tyrosinase activate molecular oxygen (O2) and incorporate one of the oxygen atoms selectively into C−H bonds yielding hydroxylated organic substrates. Remarkable progress in bioinorganic research has led to the development of a large number of copper-based model systems supported by various nitrogen donor ligands that bind O2, cleave the O−O bond, and/or afford hydroxylation reactions similar to copper enzymes. These synthetic model systems have helped to understand the structureactivity relationships of their biological role models and supporting theoretical studies have contributed substantially to the development of the field. Specifically, several density functional theory (DFT) studies have provided detailed mechanistic insights into coppermediated aliphatic and aromatic hydroxylation reactions. Until to date, however, pertinent quantum chemical research still suffers from severe problems as to identify sufficiently accurate and efficient methods for mechanistic studies, and conflicting literature reports have created confusions within the scientific community. Therefore, the first aim of this thesis is to identify a DFT method well suited to describe copper-mediated hydroxylation reactions. With this method at hand a number of interesting hydroxylation reactions is investigated aiming at a detailed understanding of the underlying reaction mechanisms.
The thesis is divided into four chapters of which the first, the introductory chapter, is further divided into three sections (1) copper proteins and enzymes, (2) copper-O2 reactivity in enzymes and (3) biomimetic Cu/O2 chemistry. The first section gives a brief overview of a number of copper enzymes. The second section provides a concise introduction to the biochemical transformations brought about by those copper enzymes that perform aliphatic and aromatic hydroxylation reactions. It is shown that such copper enzymes carry different types of active sites which are responsible for their specific biological functions. These copper enzymes with their biological function are the role models for synthetic chemistry. In the third section, biomimetic Cu/O2 chemistry, the insights gathered in the past 35 years of extensive research on copper-based synthetic model systems that mimic various aspects of copper-enzyme reactivity are reviewed. Various types of active copper sites have been realized in these synthetic model systems and a brief introduction to the respective reactivities towards C−H bonds is presented. We will specifically focus on isomerization processes of dinuclear active Cu2O2 sites and the specific reactivity aspects of these isomers, as these phenomena have been the subject of enormous research efforts aiming at the understanding of the function of the enzyme tyrosinase.
Theory has been integral part of this research and density functional theory (DFT) has effectively taken over the role as a working horse in most studies. Therefore, the second chapter is devoted to an exposition of earlier DFT applications in mechanistic studies of Cu/O2 chemistry. We specifically highlight the problems related to the use of DFT in this field and illustrate the present state of knowledge.
The third chapter of this thesis provides results and discussion of (1) DFT benchmark studies and (2) mechanistic studies. In the first section, the results of a careful benchmark study on the performance of various DFT methods to study the μ-η2:η2-peroxodicopper(II)/bis(μ-oxo)dicopper(III) core isomerization and the C–H hydroxylation processes are compared with available experimental reference data. We provide an assessment of the effects of relativity, counteranions, and dispersion on the reference reactions. The most suitable DFT method evolving from this study, BLYP-D/def2-TZVP including solvent and relativistic corrections, is applied in the next sections to investigate the mechanistic scenario underlying three copper-dioxygen mediated hydroxylation reactions of aliphatic and aromatic C–H bonds. Our mechanistic studies show that bis(μ-oxo)dicopper(III) complexes are capable of achieving selective aliphatic and aromatic C–H hydroxylations. The study of substituent effects in these reactions has further shown that the bis(μ-oxo)dicopper complex acts as an electrophile in hydroxylation.
The fourth chapter presents the conclusions of our investigations. Part of the work presented in this thesis has been published in a peer reviewed journal and enclosed in appendix 1. Further research work, not presented in chapters 1-4, was conducted during my PhD time. This has led to two publications which are added in the appendix.
Trotz einer fast 30-jährigen Forschungs- und Umsetzungshistorie stellen Projekte zum Aufbau integrierter Datenhaushalte (Data Warehouses) für Unternehmen immer noch eine große Herausforderung dar. Gerade in Data Warehouse-Projekten bei Finanzdienstleistern führt eine hohe semantische Komplexität häufig zu Projektverzögerungen oder zum Scheitern der Vorhaben. Dies zeigt die Arbeit anhand von explorativen Fallstudien auf und fragt nach den Gründen für diesen typischen Verlauf. Eine mögliche Ursache liegt in einer unzureichenden Kommunikation zwischen den Projektbeteiligten, was zu Missverständnissen in der Konzeption und somit zu Fehlimplementierungen führt, die – gerade wenn sie spät erkannt werden – deutliche Verzögerungen und Budgetüberschreitungen zur Folge haben. Ausgehend von diesen beobachteten Praxisproblemen sucht die vorliegende Arbeit auf der Grundlage des Design-Science-Research nach Lösungsansätzen: unter Übertragung der Erkenntnisse der Kommunikationstheorie wurden drei Artefakte entwickelt, sukzessive verbessert und validiert. Die Paper zeigen auf, dass sich durch den Einsatz formalisierter Templates, eines verbesserten Vorgehensmodells in Verbindung mit einem korrespondieren Softwaretool das Kommunikationsverhalten in den Projekten verbessern lässt und somit eine höhere Projekt-Performance erreicht wird. Hierzu wurden insgesamt sechs Projekte zum Aufbau von Data Warehouses im Finanzdienstleistungsumfeld in Fallstudien analysiert und zudem Experten-Interviews mit den Projektbeteiligten durchgeführt, die im Ergebnis die positive Wirkung der Artefakte unterstützen.
Basierend auf den Daten der Erhebung „Gesundheit in Deutschland Aktuell“ von 2010 (GEDA2010)vom Robert Koch-Institut wird in dieser Dissertation der Frage nachgegangen, wie sich
Arbeitsbedingungen auf die Gesundheit und das Gesundheitsverhalten auswirken und eine systematische Analyse für Deutschland durchgeführt. Dabei werden sowohl Aspekte der Geschlechterforschung als auch der Erforschung sozialer Ungleichheiten mitbetrachtet. Die Ergebnisse liefern unteranderem Hinweise darauf, dass Gesundheitsverhalten als Coping-Strategie in stressreichen Arbeitssituationen, die beispielsweise durch Leistungsdruck oder Schichtarbeit gekennzeichnet sind, genutzt wird.
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.