Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (5621) (remove)
Language
- German (3575)
- English (2017)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5621)
Is part of the Bibliography
- no (5621)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Genexpression (9)
- Nanopartikel (9)
Institute
- Medizin (1479)
- Biowissenschaften (821)
- Biochemie und Chemie (723)
- Physik (582)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (293)
- Geowissenschaften (138)
- Neuere Philologien (114)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
In the context of information theory, the term Mutual Information has first been formulated by Claude Elwood Shannon. Information theory is the consistent mathematical description of technical communication systems. To this day, it is the basis of numerous applications in modern communications engineering and yet became indispensable in this field. This work is concerned with the development of a concept for nonlinear feature selection from scalar, multivariate data on the basis of the mutual information. From the viewpoint of modelling, the successful construction of a realistic model depends highly on the quality of the employed data. In the ideal case, high quality data simply consists of the relevant features for deriving the model. In this context, it is important to possess a suitable method for measuring the degree of the, mostly nonlinear, dependencies between input- and output variables. By means of such a measure, the relevant features could be specifically selected. During the course of this work, it will become evident that the mutual information is a valuable and feasible measure for this task and hence the method of choice for practical applications. Basically and without the claim of being exhaustive, there are two possible constellations that recommend the application of feature selection. On the one hand, feature selection plays an important role, if the computability of a derived system model cannot be guaranteed, due to a multitude of available features. On the other hand, the existence of very few data points with a significant number of features also recommends the employment of feature selection. The latter constellation is closely related to the so called "Curse of Dimensionality". The actual statement behind this is the necessity to reduce the dimensionality to obtain an adequate coverage of the data space. In other word, it is important to reduce the dimensionality of the data, since the coverage of the data space exponentially decreases, for a constant number of data points, with the dimensionality of the available data. In the context of mapping between input- and output space, this goal is ideally reached by selecting only the relevant features from the available data set. The basic idea for this work has its origin in the rather practical field of automotive engineering. It was motivated by the goals of a complex research project in which the nonlinear, dynamic dependencies among a multitude of sensor signals should be identified. The final goal of such activities was to derive so called virtual sensors from identified dependencies among the installed automotive sensors. This enables the real-time computability of the required variable without the expenses of additional hardware. The prospect of doing without additional computing hardware is a strong motive force in particular in automotive engineering. In this context, the major problem was to find a feasible method to capture the linear- as well as the nonlinear dependencies. As mentioned before, the goal of this work is the development of a flexibly applicable system for nonlinear feature selection. The important point here is to guarantee the practicable computability of the developed method even for high dimensional data spaces, which are rather realistic in technical environments. The employed measure for the feature selection process is based on the sophisticated concept of mutual information. The property of the mutual information, regarding its high sensitivity and specificity to linear- and nonlinear statistical dependencies, makes it the method of choice for the development of a highly flexible, nonlinear feature selection framework. In addition to the mere selection of relevant features, the developed framework is also applicable for the nonlinear analysis of the temporal influences of the selected features. Hence, a subsequent dynamic modelling can be performed more efficiently, since the proposed feature selection algorithm additionally provides information about the temporal dependencies between input- and output variables. In contrast to feature extraction techniques, the developed feature selection algorithm in this work has another considerable advantage. In the case of cost intensive measurements, the variables with the highest information content can be selected in a prior feasibility study. Hence, the developed method can also be employed to avoid redundance in the acquired data and thus prevent for additional costs.
The cones of nonnegative polynomials and sums of squares arise as central objects in convex algebraic geometry and have their origin in the seminal work of Hilbert ([Hil88]). Depending on the number of variables n and the degree d of the polynomials, Hilbert famously characterizes all cases of equality between the cone of nonnegative polynomials and the cone of sums of squares. This equality precisely holds for bivariate forms, quadratic forms and ternary quartics ([Hil88]). Since then, a lot of work has been done in understanding the difference between these two cones, which has major consequences for many practical applications such as for polynomial optimization problems. Roughly speaking, minimizing polynomial functions (constrained as well as unconstrained) can be done efficiently whenever certain nonnegative polynomials can be written as sums of squares (see Section 2.3 for the precise relationship). The underlying reason is the fundamental difference that checking nonnegativity of polynomials is an NP-hard problem whenever the degree is greater or equal than four ([BCSS98]), whereas checking whether a polynomial can be written as a sum of squares is a semidefinite feasibility problem (see Section 2.2). Although the complexity status of the semidefinite feasibility problem is still an open problem, it is polynomial for fixed number of variables. Hence, understanding the difference between nonnegative polynomials and sums of squares is highly desirable both from a theoretical and a practical viewpoint.
The application of natural products (NPs) as drugs and lead compounds has greatly improved human health over the past few decades. Despite their success, we still need to find new NPs that can be used as drugs to combat increasing drug resistance via new modes of action and to develop safer treatments with less side effects.
Entomopathogenic bacteria of Xenorhabdus and Photorhabdus that live in mutualistic symbiosis with nematodes are considered as promising producers of NPs, since more than 6.5% of their genomes are assigned to biosynthetic gene clusters (BGCs) responsible for production of secondary metabolites. The investigation on NPs from Xenorhabdus and Photorhabdus can not only provide new compounds for drug discovery but also help to understand the biochemical basis involved in mutualistic and pathogenic symbiosis of bacteria, nematode host and insect prey.
Nonribosomal peptides (NRPs) are a large class of NPs that are mainly found in bacteria and fungi. They are biosynthesized by nonribosomal peptide synthetases (NRPSs) and display diverse functions, representing more than 20 clinically used drugs. Although a large number of NRPs have been identified in Xenorhabdus and Photorhabdus, the advanced genome sequencing and bioinformatic analysis indicate that these bacteria still have many unknown NRPS-encoding gene clusters for NRP production that are worth to explore. Therefore, this thesis focuses on the discovery, biosynthesis, structure identification, and biological functions of new NRPs from Xenorhabdus and Photorhabdus.
The first publication describes the isolation and structure elucidation of seven new rhabdopeptide/xenortide-like peptides (RXPs) from X. innexi, incorporating putrescine or ammonia as the C-terminal amines. Bioactivity testing of these RXPs revealed potent antiprotozoal activity against the causative agents of sleeping sickness (Trypanosoma brucei rhodesiense) and malaria (Plasmodium falciparum), making them the most active RXP derivatives known to date. Biosynthetically, the initial NRPS module InxA might act iteratively with a flexible methyltransferase activity to catalyze the incorporation of the first five or six N-methylvaline/valine to these peptides.
The second publication focuses on the structure elucidation of seven unusual methionine-containing RXPs that were found as minor products in E. coli carrying the BGC kj12ABC from Xenorhabdus KJ12.1. To confirm the proposed structures from detailed HPLC-MS analysis, a solid-phase peptide synthesis (SPPS) method was developed for the synthesis of these partially methylated RXPs. These RXPs also exhibited good effects against T. brucei rhodesiense and P. falciparum, suggesting RXPs might play a role in protecting insect cadaver from soil-living protozoa to support the symbiosis with nematodes.
The third publication presents the identification of a new peptide library, named photohexapeptide library, which occurred after the biosynthetic gene phpS was activated in P. asymbiotica PB68.1 via promoter exchange. The chemical diversity of the photohexapeptides results from unusual promiscuous specificity of five out of six adenylation (A) domains being an excellent example of how to create compound libraries in nature. Furthermore, photohexapeptides enrich the family of the rare linear D-/L-peptide NPs.
The fourth publication concentrates on the structure elucidation of a new cyclohexapeptide, termed photoditritide, which was produced by P. temperata Meg1 after the biosynthetic gene pdtS was activated via promoter exchange. Photoditritide so far is the only example of a peptide from entomopathogenic bacteria that contains the uncommon amino acid homoarginine. The potent antimicrobial activity of photoditritide against Micrococcus luteus implies that photoditritide can protect the insect cadaver from food competitor bacteria in the complex life cycle of nematode and bacteria.
The last publication reports a new family of cyclic lipopeptides (CLPs), named phototemtides, which were obtained after the BGC pttABC from P. temperata Meg1 was heterologously expressed in E. coli. The gene pttA encodes an MbtH protein that was required for the biosynthesis of phototemtides in E. coli. To determine the absolute configurations of the hydroxy fatty acids, a total synthesis of the major compound phototemtide A was performed. Although the antimalarial activity of phototemtide A is only weak, it might be a starting point towards a selective P. falciparum compound, as it shows no activity against any other tested organisms.
Mesenchymale Knochenmarksstammzellen (engl. Bone Marrow-Derived Mesenchymal Stem Cells (BMSCs)) sind hochproliferative multipotente Progenitorzellen mit einem hohen Regenerationspotential. Sie können aus dem Knochenmark in geschädigte Knorpelareale migrieren und dort zu Chondrozyten differenzieren. Somit können sie zur Reparatur traumatisch oder osteoarthrotisch bedingter Knorpelschäden beitragen. In verschiedenen Bereichen des Gelenks konnten zudem sympathische Nervenfasern sowie der sympathische Neurotransmitter Noradrenalin (NE) nachgewiesen werden. NE inhibiert die chondrogene Differenzierungskapazität von BMSCs und kann so zur Pathogenese der Osteoarthrose (OA) beitragen. Unbekannt ist zum derzeitigen Zeitpunkt, inwiefern NE die Proliferation von humanen BMSCs beeinflusst. Ziel unserer Studie war, den Einfluss von NE auf die Proliferationskapazität humaner BMSCs zu untersuchen und beteiligte intrazelluläre Signalwege zu identifizieren.
Zu diesem Zweck wurden BMSCs von Patienten nach stattgehabtem Gelenktrauma (Trauma BMSCs) und von Patienten mit diagnostizierter OA (OA BMSCs) untersucht. Zunächst erfolgte eine Analyse des Genexpressionsmusters der verschiedenen Adrenorezeptoren (ARs). Anschließend wurden sowohl Trauma als auch OA BMSCs mit NE in unterschiedlichen Konzentrationen sowie mit NE in Kombination mit verschiedenen AR-Antagonisten (Doxazosin (α1), Yohimbin (α2) oder Propranolol (β2)) behandelt. Die Aktivierung der AR-gekoppelten Signalwege wurde anhand der Phosphorylierung der beiden Hauptsignalwege der extrazellulären signalregulierten Kinasen 1/2 (ERK1/2) und der Proteinkinase A (PKA) via Western Blot untersucht.
Die Genexpression diverser AR-Subtypen konnte in Trauma (α2B-, α2C- und β2-AR) und OA BMSCs (α2A-, α2B- und β2-AR) nachgewiesen werden. Die Behandlung mit NE in hohen Konzentrationen führte zu einer statistisch signifikanten Inhibition der Proliferation von Trauma und OA BMSCs. Die Behandlung mit NE in niedrigen Konzentrationen hatte hingegen keinen Einfluss auf die Proliferation von Trauma und OA BMSCs. Sowohl ERK1/2 als auch PKA wurden in Trauma und OA BMSCs nach Behandlung mit NE aktiviert. Lediglich der β2-Antagonist Propranolol konnte sowohl die Effekte auf die Proliferation als auch auf die Aktivierung von ERK1/2 und PKA aufheben. Doxazosin und Yohimbin hatten hingegen keinen signifikanten Einfluss auf die Proliferation sowie die ERK1/2- und PKA-Phosphorylierung.
Unsere Untersuchungen zeigen, dass NE die Proliferation von Trauma und OA BMSCs konzentrationsabhängig inhibiert. Dieser Effekt wird vornehmlich über eine β2-AR-gekoppelte ERK1/2- und PKA-Aktivierung vermittelt. Über diesen Mechanismus kann NE das regenerative Potential von humanen BMSCs verringern und somit zur Pathogenese der OA beitragen. Über eine zielgerichtete Beeinflussung des β2-Signalweges könnten sich zukünftig neue therapeutische Optionen bei der Behandlung osteoarthrotisch oder traumatisch bedingter Knorpelschäden ergeben.
Stickstoffmonoxid (NO) ist ein gasförmiger Botenstoff, der über die Regulation des Vasotonus, die Hemmung der Thrombocytenaggregation sowie die Stimulation der Angiogenese auf die vaskuläre Homöostase einwirkt. Das wichtigste NO-produzierende Enzym im kardiovaskulären System ist die endotheliale NO-Synthase (eNOS), deren Aktivität durch posttranslationale Modifikationen wie Phosphorylierung und Acylierung, durch Interaktionen mit regulatorischen Proteinen wie Ca2 /Calmodulin und Caveolin sowie durch differentielle subzelluläre Lokalisation reguliert wird. Dabei sind die Faktoren, welche die (Trans-)Lokation der eNOS zwischen subzellulären Kompartimenten wie den Caveolae der Plasmamembran und dem Golgi-Apparat dirigieren, weitgehend unbekannt. Zur Identifizierung neuer Interaktionspartner wurde humane eNOS im "yeast two-hybrid"-System als "Köderprotein" eingesetzt und dabei das Fragment eines neuen humanen Proteins identifiziert, das vorläufig NOSTRIN (für: eNOS traffic inducer) genannt wurde. Im Rahmen der vorliegenden Arbeit gelang nun die Klonierung der kompletten NOSTRIN-cDNA, der Nachweis einer spezifischen Interaktion von eNOS und NOSTRIN in Säugerzellen sowie die Charakterisierung von NOSTRIN als Modulator der subzellulären Lokalisation und Aktivität von eNOS. Nach der kompletten Klonierung der NOSTRIN-cDNA mit Hilfe einer 5'-RACE resultierte ein offenes Leseraster von 506 Aminosäuren entsprechend einer Größe von ca. 58 kDa für NOSTRIN. Eine Datenbankrecherche zum Vergleich der NOSTRIN-Sequenz mit Sequenzen bekannter Proteinmotive ergab die Vorhersage einer N-terminalen Cdc15-Domäne sowie einer C-terminalen SH3-Domäne. Die direkte Interaktion zwischen eNOS und NOSTRIN konnte durch Copräzipitation in vivo und in vitro bestätigt werden. Weiterhin wurde nachgewiesen, dass die SH3-Domäne von NOSTRIN essentiell für die Bindung an eNOS ist. Zur Untersuchung des Einflusses von NOSTRIN auf die eNOS-Lokalisation wurden stabil transfizierte CHO-Zellen, die eNOS überexprimierten ("CHO-eNOS") eingesetzt. In der Immunofluoreszenz war eNOS vornehmlich in Assoziation mit der Plasmamembran und dem Golgi-Apparat zu sehen. Mit Hilfe des Semliki-Forest-Virussystems (SFV) wurde nun NOSTRIN transient überexprimiert; dabei zeigte sich für NOSTRIN eine vesikelartige Verteilung im Cytoplasma. Die NOSTRIN-Überexpression führte zu einer drastischen Umverteilung von eNOS, die nun in charakteristischen vesikelartigen Strukturen mit NOSTRIN colokalisierte. Die Verwendung von NOSTRIN-Konstukten, bei denen die SH3- Domäne deletiert war ("NOSTRIN.SH3"), veränderte zwar die typische NOSTRIN-Lokalisation nicht, ließ aber auch die subzelluläre Verteilung von eNOS unverändert, so dass NOSTRIN.SH3 und eNOS in unterschiedlichen zellulären Kompartimenten lokalisiert waren. Mit Hilfe der Immunofluoreszenz konnte ebenfalls eine Colokalisation von NOSTRIN und Caveolin-1, einem inhibitorisch wirkenden Interaktionspartner von eNOS, nachgewiesen werden. Die Analyse von Copräzipitationen mit NOSTRIN bzw. NOSTRIN.SH3 zeigte, dass Caveolin-1 in eNOS-unabhängiger Weise an NOSTRIN bindet, so dass ein ternärer Komplex aus NOSTRIN, eNOS und Caveolin-1 resultiert. Zur Klärung der Frage, ob NOSTRIN neben der subzellulären Lokalisation auch die Aktivität von eNOS beeinflusst, wurde die NO-Freisetzung von CHO-eNOS-Zellen analysiert. Dabei ergab sich, dass die transiente Überexpression von NOSTRIN in CHO-eNOS-Zellen die eNOS-Aktivität um 62 % im Vergleich zu Kontrollzellen reduzierte. In humanen primären Endothelzellen konnte mittels Immunoblotting und Immunofluoreszenzmikroskopie das Vorkommen von endogenem NOSTRIN sowie dessen Colokalisation mit endogener eNOS an der Plasmamembran nachgewiesen werden. Die Ergebnisse der vorliegenden Dissertation führen zur Hypothese, dass NOSTRIN als "molekulare Klammer" zwischen eNOS und Caveolin-1 dient, eine dynamische Umverteilung von eNOS innerhalb der Zelle vermittelt und damit das Enzym - direkt und/oder indirekt - inhibiert. Somit dürfte NOSTRIN als Modulator der Aktivität und Lokalisation von eNOS eine wichtige Rolle bei der Regulation der endothelialen NO-Produktion spielen.
Extracts of Boswellia serrata, also known as Indian frankincense, have been used to treat inflammatory diseases in the Indian ayurvedic medicine or Chinese traditional medicine (TCM) for over 3000 years, but the molecular mechanisms of the anti-inflammatory effects are still not well understood. It is obvious that the boswellic acids, the major compounds in the extracts, are responsible for the efficacy. This work employed a protein fishing technique to identify putative targets of boswellic acids at different stages within the inflammatory cascade. For fishing experiments, boswellic acids were immobilized to sepharose and incubated with cell lysates. After washing and boiling, fished proteins were separated by SDS-PAGE and analysed by MALDI-TOF-MS. CatG, DNA-PK and the protein kinase Akt were identified by protein pulldowns with immobilised BAs and characterised as selective and important targets for BAs with an IC50 in the range of physiologically achievable plasma levels up to 5 microM. In addition, the influence on several signal transductions by BAs was tested. Calcium influx, arachidonic acid release, platelet aggregation and TNFalpha-release were assayed to reveal further pharmacological effects of BAs. Celecoxib is a well-known selective COX-2 inhibitor that is in clinical use. In this work, it is demonstrated that celecoxib is also a highly potent direct 5-LO inhibitor. Celecoxib is used in arthritis and its gastro-intestinal side effects are reduced compared to non-selective NSAIDs. In patients with a familiar disposition to polyp forming, celecoxib reduced polyps and the incidence of colon cancer. Because of lowered leukotriene levels in patients under celecoxib therapy it was plausible to test whether celecoxib interferes with 5-LO. Here it is shown that the activity of 5-LO is inhibited in PMNL and cell-free assays with IC50 of 8 microM in intact cells, 20 microM with supplemented arachidonic acid and 30 microM in cell-free systems. Thus, celecoxib is a dual inhibitor of COX-2 and 5-LO. Since 2006, celecoxib has been approved as an orphan drug for the treatment of familial adenomatous polyposis. Aside from this indication, it could be useful for treatment of asthma and other diseases where 5-LO is implicated.
In Philadelphia Chromosome (Ph) positive ALL and CML the fusion between BCR and ABL leads to the BCR/ABL fusion proteins, which induces the leukemic phenotype because of the constitutive activation of multiple signaling pathways down-stream to the aberrant BCR/ABL fusion tyrosine kinase. Targeted inhibition of BCR/ABL by ABL-kinase inhibitors induces apoptosis in BCR/ABL transformed cells and leads to complete remission in Ph positive leukemia patients. However, a large portion of patients with advanced Ph+ leukemia relapse and acquire resistance. Kinase domain (KD) mutations interfering with inhibitor binding represent the major mechanism of acquired resistance in patients with Ph+ leukemia. Tetramerization of BCR/ABL through the N-terminal coiled-coil region (CC) of BCR is essential for the ABL-kinase activation. Targeting the CC-domain forces BCR/ABL into a monomeric conformation, reduces its kinase activity and increases the sensitivity for Imatinib. Here we show that i.) targeting the tetramerization by a peptide representing the Helix-2 of the CC efficiently reduced the autophosphorylation of both WT BCR/ABL and its mutants; ii.) Helix-2 inhibited the transformation potential of BCR/ABL independently of the presence of mutations; iii.) Helix-2 efficiently cooperated with Imatinib as revealed by their effects on the transformation potential and the factor-independence related to BCR/ABL with the exception of mutant T315I. These findings suggest that BCR/ABL harboring the T315I mutation have a transformation potential which is at least partially independent from its kinase activity. Targeted inhibition of BCR/ABL by small molecule inhibitors reverses the transformation potential of BCR/ABL. We definitively proved that targeting the tetramerization of BCR/ABL mediated by the N-terminal coiled-coil domain (CC) using competitive peptides, representing the Helix-2 of the CC, represents a valid therapeutic approach for treating Ph+ leukemia. To further develop competitive peptides for targeting BCR/ABL, we created a membrane permeable Helix-2 peptide (MPH-2) by fusing the Helix-2 peptide with a peptide transduction tag. In this study, we report that the MPH-2: (i) interacted with BCR/ABL in vivo; (ii) efficiently inhibited the autophosphorylation of BCR/ABL; (iii) suppressed the growth and viability of Ph+ leukemic cells; and (iv) was efficiently transduced into mononuclear cells (MNC) in an in vivo mouse model. The T315I mutation confers resistance against all actually approved ABL-kinase inhibitors and competitive peptides. It seems not only to decrease affinity for kinase inhibitors but to confer additional features to the leukemogenic potential of BCR/ABL. To determine the role of T315I in resistance to the inhibition of oligomerization and in the leukemogenic potential of BCR/ABL, we investigated its influence on loss-of-function mutants with regard to the capacity to mediate factor-independence. Thus we studied the effects of T315I on BCR/ABL mutants lacking functional domains in the BCR portion indispensable for the oncogenic activity of BCR/ABL such as the N-terminal coiled coil (CC), the tyrosine phosphorylation site Y177 and the serine/threonine kinase domain (ST), as well as on the ABL portion of BCR/ABL (#ABL-T315I) with or without the inhibitory SH3 (delta SH3-ABL) domain. Here we report that i.) T315I restored the capacity to mediate factor independence of oligomerization_deficient p185BCR/ABL; ii.) resistance of p185-T315I against inhibition of the oligomerization depends on the phosphorylation at Y177; iii.) autophosphorylation at Y177 is not affected by the oligomerization inhibition, but phosphorylation at Y177 of endogenous BCR parallels the effects of T315I; iv.) the effects of T315I are associated with an intact ABL_kinase activity; v.) the presence of T315I is associated with an increased ABL_kinase activity also in mutants unable to induce Y177 phosphorylation of endogenous BCR; vi.) there is no direct relationship between the ABL-kinase activity and the capacity to mediate factor_independence induced by T315I as revealed by the #ABL-T315I mutant, which was unable to induce Y177 phosphorylation of BCR only in the presence of the SH3 domain. In contrast to its physiological counterpart c-ABL, the BCR/ABL kinase is constitutively activated, inducing the leukemic phenotype. The N-terminus of c-ABL (Cap region) contributes to the regulation of its kinase function. It is myristoylated, and the myristate residue binds to a hydrophobic pocket in the kinase domain known as the myristoyl binding pocket in a process called “capping”, which results in an auto-inhibited conformation. Because the cap region is replaced by the N-terminus of BCR, BCR/ABL “escapes” this auto-inhibition. Allosteric inhibition by myristate “mimics”, such as GNF-2, is able to inhibit unmutated BCR/ABL, but not the BCR/ABL that harbors the “gatekeeper” mutation T315I. Here we investigated the possibility of increasing the efficacy of allosteric inhibition by blocking BCR/ABL oligomerization. We demonstrate that inhibition of oligomerization was able not only to increase the efficacy of GNF-2 on unmutated BCR/ABL, but also to overcome the resistance of BCR/ABL-T315I to allosteric inhibition. These results strongly suggest that the response to allosteric inhibition by GNF-2 is inversely related to the degree of oligomerization of BCR/ABL. Taken together these data suggest that the inhibition of tetramerization inhibits BCR/ABL-mediated transformation and can contribute to overcome Imatinib-resistance. The study provides the first evidence that an efficient peptide transduction system facilitates the employ-ment of competitive peptides to target the oligomerization interface of BCR/ABL in vivo. Further the data show that T315I confers additional leukemogenic activity to BCR/ABL, which might explain the clinical behavior of patients with BCR/ABL -T315I-positive blasts. In summary, our observations establish a new approach for the molecular targeting of BCR/ABL and its resistant mutants represented by the combination of oligomerization and allosteric inhibitors.
Necroptosis is an immunogenic form of programmed cell death characterized by plasma membrane accumulation of activated mixed lineage kinase domain-like (MLKL) that eventually leads to membrane disruption and release of danger-associated molecular patterns (DAMPs). Necroptotic cell death is tightly controlled by checkpoints, including compartmentalization as well as post-translational modifications (PTMs), like phosphorylation and ubiquitination of receptor-interacting protein kinase (RIPK) 1, RIPK3 and MLKL. Removal of plasma membrane-located activated MLKL via endocytosis or exocytosis can counteract necroptosis, but up till now, the exact mechanisms by which necroptosis is regulated downstream of MLKL activation and oligomerization are not fully understood.
Ubiquitination is a key post-translational modification that regulates various cellular processes including cell survival and cell death signaling via ubiquitination of RIPK1, RIPK3 and MLKL. M1-linked (linear) poly-ubiquitination is mediated exclusively by the linear ubiquitin chain assembly complex (LUBAC) which critically regulates cell fate and immune signaling via death receptors such as TNF receptor 1 (TNFR1).
In this study, we demonstrate that M1 poly-Ubiquitin (poly-Ub) increases during necroptosis which can be blocked by inhibition of LUBAC activity with the small-molecule HOIL-1-interacting protein (HOIP) inhibitor HOIPIN-8 or by loss of LUBAC catalytic subunit HOIP. Intriguingly, HOIPIN-8, as well as the HOIP inhibitor gliotoxin, and HOIP knockdown effectively prevent TNFα/smac mimetic/zVAD.fmk-induced necroptotic cell death in cells of human origin, without affecting necroptotic RIPK1 and RIPK3 phosphorylation, necrosome formation and oligomerization of phosphorylated MLKL. We demonstrate that HOIPIN-8 treatment inhibits MLKL translocation to intracellular membranes and accumulation in plasma membrane hotspots as well as MLKL exocytosis. We further confirm that HOIPIN-8 treatment suppresses necroptotic cell death in primary human pancreatic organoids (hPOs). Using time-lapse imaging and live/dead staining, we demonstrate loss of organoid structure and hPO cell death induced by smac mimetics and caspase inhibitors, thus providing a novel platform to investigate necroptosis in near physiological settings. Inhibition of LUBAC activity with HOIPIN-8 prevents hPO collapse and extends cell viability. Of note, loss of the M1 Ub-targeting deubiquitinating enzymes (DUBs) OTU DUB with linear linkage specificity (OTULIN) and cylindromatosis (CYLD) in human cell lines does not affect necroptosis induction and HOIPIN-8-mediated rescue of necroptosis. Intriguingly, inhibition of LUBAC activity with HOIPIN-8 does not block necroptotic cell death in murine cell lines.
Using massive analyses of cDNA ends (MACE)-seq-based global transcriptome analysis we confirm that necroptosis induces a pro-inflammatory cytokine profile which is dependent on LUBAC function and necroptotic signaling. Loss of LUBAC activity prevents the MLKL-dependent production and release of pro-inflammatory cytokines and chemokines.
Finally, we identify Flotillin-1 and -2 (FLOT1/2) as putative targets of necroptosis-induced M1 poly-Ub. Ubiquitin-binding in ABIN and NEMO (UBAN)-based pulldowns of M1 poly-ubiquitinated proteins revealed enrichment of FLOTs after necroptosis induction which is dependent on LUBAC activity and can be blocked with necroptosis inhibitors Nec-1s, GSK’872 and NSA, targeting RIPK1, RIPK3 and MLKL, respectively. Of note, loss of FLOT1/2 potentiates necroptosis suppression induced by LUBAC inhibition with HOIPIN-8.
Together, these findings identify LUBAC-mediated M1 poly-Ub as an important mediator of necroptosis and identify FLOTs as novel putative targets of LUBAC-mediated M1 poly-Ub during necroptosis. In addition, by modeling necroptosis in primary human organoids, we further expand the spectrum of experimental models to study necroptosis in human cellular settings.
Formulation scientists have developed a toolkit of strategies that can improve the solubility and subsequent bioavailability of poorly soluble candidates. Amorphous formulations are especially appealing due to the significant improvement in solubility the amorphous form can provide, but must be stabilized for effective performance (Timpe, 2007).
2. The Importance of Drug Polymer Interactions in Precipitation Inhibition
Polymeric “precipitation inhibitors” have seen widespread usage in the literature (Warren, 2010). The precipitation inhibition effect of polymers on precipitations is related to interference with nucleation and crystal growth (Xu, 2013). Many techniques have been reported in the literature to predict these interactions, however, they are not suitable to screening due to API and time resources required, which are not amenable to early stage pharmaceutical development.
3. Mesoporous Silica: An Emerging Formulation Technology
Mesoporous silicon dioxide has emerged in recent years as a new option for stabilizing the amorphous form. Upon impregnation of the silica with a concentrated drug solution, the drug can be molecularly adsorbed and locally and sterically confined, preventing recrystallization (Ditzinger, 2018). Upon administration of mesoporous silica formulations to the body the amorphous formulation generates supersaturation which must be stabilized using precipitation inhibitors (Guzman, 2007).
4. Co-incorporation: A New Method to Combine Precipitation Inhibitors with Mesoporous Silica
There has been no systematic study of how best to incorporate precipitation inhibitors into mesoporous silica formulations. The current standard practice involves combining inhibitors in a physical mixture with the drug-loaded silica, either by pestle and mortar or overhead stirring. Due to the lack of a defined protocol, there is uncertainty about how reliably the precipitation inhibitor is combined with the drug-loaded silica on a batch to batch basis. In this work, a novel co-incorporated formulation of glibenclamide and the precipitation inhibitor, HPMCAS, onto mesoporous silica was described. By co-incorporating the precipitation inhibitor, the formulation significantly outperformed the commonly applied simple physical blend due to the formation of drug-polymer interactions in the solid state.
5. In Silico Pharmaceutics: A New Method to Select Precipitation Inhibitors for Mesoporous Silica
An approach that can incorporate understanding of the drug-polymer interactions with a quick and efficient screening process would be very useful. The COnductor like Screening MOdel for Real Solvents (COSMO-RS) is a quantum mechanical theory, which can be used to derive thermodynamic properties of interest. (Klamt, 1993, 1995, 2003). We proposed excess mixing enthalpies of drug and polymer could be calculated using the COSMO-RS theory. This new approach was applied to screen precipitation inhibitors for three model compounds, all of which showed a strong positive correlation between the rank assigned based on the calculated free enthalpy of mixing and the overall formulation performance.
6. Conclusion
This body of work aimed to improve the processes underpinning the design and development of mesoporous silica with precipitation inhibitors. Firstly, this involved two extensive literature reviews in the area of solubility enhancement formulation technologies and precipitation inhibition. Secondly, a mechanistic rational and experimental approach was developed to improve the formulation of precipitation inhibitors with mesoporous silica, the “co-incorporation” approach significantly improved process efficiency and formulation performance. Finally, combining insights from the aforementioned review, and learnings from the mechanistic analysis of the “co-incorporation” approach, an in silico screening protocol was developed to calculate the enthalpy of interaction between drug and polymer, to identify the most optimal precipitation inhibitor for a given formulation.
Die 5 Lipoxygenase (5 LO) ist das Schlüsselenzym in der Synthese von Leukotrienen. Sie wird auf transkriptioneller und posttranskriptioneller Ebene reguliert. Die Differenzierung myeloider Zelllinien mit 1,25-Dihydroxyvitamin D3 (1,25(OH)2D3) und transformierendem Wachstumsfaktor beta (TGFbeta) führt zu einer Erhöhung der 5 LO mRNA-, Protein-Bildung und der zellulären Enzymaktivität. Hier wurde gezeigt, dass dabei reife, nicht jedoch prä-mRNA der 5 LO im Zytosol und im Zellkern stark angereichert wird und dass beide Agentien in die mRNA-Prozessierung eigreifen. Obwohl die Bindung von VDR-Retinoid-X-Rezeptor (RXR)-Heterodimeren an Bindungsstellen im 5 LO-Promotor mittels DNAseI-Footprinting und EMSAs nachgewiesen wurde, konnten Reportergene unter der Kontrolle des 5 LO-Promotors in transienten und stabilen Transfektionen durch 1,25(OH)2D3/TGFbeta nicht stimuliert werden. Offensichtlich wird die Induktion der Expression der 5 LO durch 1,25(OH)2D3/TGFbeta durch Elemente außerhalb des Promotors vermittelt. In transienten Transfektionen führte der Einbau der kodierenden Sequenz der 5 LO in Luziferase-Plasmide bei Cotransfektion von VDR/RXR zu einer 5 fachen Induktion der Reportergen-Aktivität durch 1,25(OH)2D3/TGFbeta, was durch zusätzlichen Einbau der letzten vier Introns auf eine 13-fache Erhöhung gesteigert wurde. Der VDR zeigte einen Ligand-unabhängigen Effekt. Diese Reportergen-Effekte waren promotorunabhängig und von der kodierenden Sequenz gesteuert. RT-PCR-Analyse wies auf eine Deletion von Teilen der kodierenden Sequenz im Laufe der mRNA-Prozessierung hin, was durch 1,25(OH)2D3/TGFbeta verhindert wird. Auch Cotransfektion der TGFbeta-Effektoren Smads 3/4 führte in Abhängigkeit von der kodierenden Sequenz und in geringerem Maße von der 3'-UTR und den Introns J M, aber unabhängig vom Promotor, zu einer starken Erhöhung der Reportergenaktivität. Die 5 LO-Expression wird in den untersuchten Zellen vermutlich durch posttranskriptionelle Prozesse (Splicing, mRNA-Reifung) herunterreguliert, während 1,25(OH)2D3/TGFbeta die Expression der 5 LO durch eine Gegenregulation zu erhöhen, an der Komplexe beteiligt sind, die vermutlich Smads, VDR-RXR-Dimere, andere Transkriptionsfaktoren, Coaktivatoren, RNA-Polymerase II und Splicing-Faktoren enthalten. Hyperacetylierung des 5 LO-Promoters durch Inkubation mit mit dem Histondeacetylase-Inhibitor TsA führte zu einer transkriptionellen Aktivierung. Die kodierende Sequenz (und die Introns) wirkt diesem Effekt vermutlich durch die Rekrutierung von HDACs an VDR oder Smads, die direkt oder indirekt an die kodierende Region binden, entgegen.
The RAF family of kinases constitutes the members A, B and CRAF. They mediate RAS signaling by linking it to the MEK/ERK transduction module, which regulates cellular processes such as cell proliferation, migration, survival and cell death. As the RAS/RAF/MEK/ERK (MAPK) pathway is found to be activated in human cancers, the RAF kinases have been exploited as valuable therapeutic targets and RAF inhibitors show promising results in the clinic, esp. with tumors harboring an activating BRAFV600E mutation. However, RAF inhibitors paradoxically accelerate metastasis in RAS mutant and BRAF wildtype tumors. They also become ineffective over time in BRAFV600E tumors because of reactivation of downstream mitogen-activated protein kinase (MAPK) signaling by promoting RAF dimerization. Aims of the present work were 1) to investigate the role of ARAF kinase in the paradoxical activation of the enzymatic cascade by RAF inhibitors downstream of mutated RAS and 2) to study the consequences of the loss of ARAF function on signal transduction in vitro and in vivo (nude mice). We have engineered several cell lines that would allow the study of basal and RAF inhibitor induced effects on MAPK activation, tumor cell migration and invasion.
In summary, we were able to show that the RAF isoform ARAF has an obligatory role in promoting MAPK activity and tumor cell invasion in a cell type dependent manner. In these cell types, ARAF depletion prevented the activation of MAPK kinase 1 (MEK1) and extracellular signal-regulated kinase 1 and 2 (ERK1/2) and led to a significant decrease of protrusions growing out of tumor cell spheroids in a three-dimensional (3D) culture that were otherwise induced by BRAFV600E-specific or BRAF/CRAF inhibitors (GDC-0879 and sorafenib, respectively). RAF inhibitors stimulated homodimerization of ARAF and heteromerization of BRAF with CRAF and the scaffolding protein KSR1. However, induced oligomerization was not sufficient to activate MAPK signaling if ARAF was depleted. By employing full length recombinant kinases, we were able to show for the first time that the three RAF isoforms competed for the binding to MEK1. In cell culture models, the overexpression of dimer-deficient ARAF mutants impaired the interaction between ARAF and endogenous MEK1 and thus prevented the subsequent phosphorylation of MEK1 and ERK1/2. Our findings reveal a new role for ARAF in directly activating the MAPK cascade through homodimerization and thereby promoting tumor cell invasion, suggesting the conserved RAF-dimer interface as a target for RAS- and RAF mediated cancer therapy.
Collectively, we provide evidence for the dual role ARAF plays in controlling MAPK signaling and cancer as loss of ARAF promoted strong lung metastasis formation in nude mice. Preliminary data describing the underlying mechanisms behind ARAF-regulated metastases have been presented and discussed.
Bewegung und sportliche Aktivität fördern die Gesundheit des Organismus und senken das Risiko chronischer Krankheiten. Sie bewirken dabei eine Vielzahl von physiologischen und biochemischen Veränderungen in der Skelettmuskulatur, insbesondere Muskelfasertyp-Transformation, Änderungen des Muskelmetabolismus und der Angiogenese. Unter basalen Bedingungen spielen reactive oxygen species (ROS) eine essentielle Rolle für die normale Muskelfunktion. Die Sport-induzierte Produktion von ROS erweist sich als wichtige physiologische Funktion für die Regulierung der Muskelkraft und der Anpassungsreaktion der Muskelfasern auf das Training. Eine der wichtigsten Quellen von ROS im kardiovaskulären System sowie in der Skelettmuskulatur ist die Familie der NADPH-Oxidasen (Nox). Im Unterschied zu anderen NADPHOxidasen ist Nox4 konstitutiv aktiv und produziert Wasserstoffperoxid (H2O2), welches in diversen zellulären Signalkaskaden involviert ist. Gleichzeitig gibt es zahlreiche Hinweise, dass Nox4 über die ROS-Produktion an Sport-induzierten Anpassungsprozessen in Skelettmuskeln beteiligt ist. Vor diesem Hintergrund wurde die Hypothese aufgestellt, dass Nox4 die Sport-induzierte Transformation von langsam- zu schnellkontrahierenden Muskelfasern, die Änderungen des Muskelstoffwechsels sowie die Sport-induzierte und die retinale Angiogenese beeinflusst. Die Untersuchung der Sportinduzierten Fasertyptransformation zeigte, dass die relative Zusammensetzung der Muskelfasern in Nox4-Knockout- und Wildtyp-Mäusen sehr ähnlich und somit von Nox4 unabhängig war. Obwohl das Training die Expression von PGC1α und GLUT4 sowie die AMPK-Aktivierung steigerte, hatte Nox4 nur eine geringe, nicht konstitutive Auswirkung auf den Muskelmetabolismus. Außerdem zeigte die vorliegende Studie, dass Nox4 die Sport-induzierte Angiogenese fördert. Nox4 führte zu einer erhöhten Stretch- und Hypoxie-induzierten Expression von VEGF in Myoblasten, die aus C2C12-Zellen und Satellitenzellen differenziert wurden. Als Folge des Nox4-Knockouts wurde nicht nur eine Reduktion der VEGF-Expression, sondern auch eine Steigerung der Expression von Angiopoietin 1 (Ang1) nachgewiesen, welches die Sport-induzierte Angiogenese hemmte. Das Fehlen von Nox4 schützte außerdem vor der retinalen Neoangiogenese und trug zu einer schnelleren Heilung nach der Oxygen-inducedretinopathy (OIR) bei, indem das Netzwerk neuer Gefäße mittels Ang1 stabilisiert wurde. Somit führt Nox4 zur Sport- und Hypoxie-induzierten Angiogenese durch einen Doppelmechanismus der Induktion und Aufrechterhaltung der VEGF Expression und der Hemmung von Ang1.
This thesis presents experimental studies of proton capture and fragmentation reactions with heavy-ion storage rings. In one experiment, the 96Ru(p, γ)97Rh cross sections near the Gamow window have been measured at the ESR of GSI. In the other experiment, the measurement of the fragmentation yields has been carried out at the CSRe of IMP.
It is essential to determine the cross sections of (γ, p) or (p, γ) reactions for p-process network calculations. However, only very few of the required cross sections have been measured and thus most of them rely solely on Hauser-Feshbach model predictions. The predictions of the model have always very large uncertainties because of the not well-known input parameters. These parameters can be constrained by experiments. Compared to the traditional activation technique, a novel method using a storage ring has been developed to measure the cross sections of (p, γ) reactions in inverse kinematics.
This proton capture experiment has been performed at the ESR, where the circulating 96Ru44+ ions interacted with a hydrogen gas target at 9, 10 and 11 MeV/u. The nuclear reaction products of (p, p), (p, α), (p, n) and (p, γ) reactions were registered by position sensitive detectors. A Geant4 simulation code has been developed to distinguish the (p, γ) reaction products unambiguously from the background reactions. In this work, a relative normalization method has been utilized to accurately determine the cross sections of the (p, γ) reaction. The 96Ru(p, γ)97Rh cross section in the Gamow window of the p process is sensitive to two parameters, i.e., the γ-ray strength function and the optical model potential, while it is mainly sensitive to the γ-ray strength function in the energy region of our experiment. Therefore, our experimental (p, γ) cross sections near 10 MeV/u have been used to directly constrain the γ-ray strength function used in the model. Furthermore, the proton potential has also been constrained by combining our results with additional experimental data for this reaction in the lower energy region. The constrained model has been used to calculate the reaction rate over a wide temperature range, which is an extremely important input for astrophysical calculations.
The yields of fragments produced by 78Kr fragmentation reactions have been measured at the CSRe for the Tz = −1/2 and Tz = 1/2 nuclei along or close to the paths of αp- and rp-processes. The measured yields present a significant odd-even staggering effect for Tz = −1/2 nuclides but they are small for Tz = 1/2 nuclides.
The magnitude of this effect for four consecutive yields has been quantified using a third-order difference formula. It is found that the largest odd-even staggering is reached near the closed shells Z = 20 and Z = 28. Our experimental results could also compared with the data from other experiments with different projectile-target combinations. All these experimental data strongly support the closed shells Z = 20 and Z = 28 for the Tz = −1/2 nuclei.
Bacteria are highly organized organisms which are able to adapt to and propagate under a multitude of environmental conditions. Propagation hereby requires reliable chromosome replication and segregation which has to occur cooperatively with other cellular processes such as transcription, translation or signaling. Several mechanisms were proposed for segregation of the Escherichia coli (E. coli) chromosome, for example a mitotic-like active segregation model or entropy-based passive chromosome segregation. Another segregation model suggests coupled transcription, translation and insertion of membrane proteins (termed "transertion"), which links the replicating chromosome (nucleoid) to the growing cell cylinder.
Fluorescence microscopy was widely used to provide evidence for a distinct segregation model. However, the dynamic nature of bacterial chromosomes, the small bacterial size and the optical resolution limit of ~ 200-300 nm impair unveiling the underlying mechanisms. With the emergence of super-resolution fluorescence microscopy techniques and advanced labeling methods, a new toolbox became available enabling scientists to visualize biomolecules and cellular processes in unprecedented detail. Single-molecule localization microscopy (SMLM) represents a set of super-resolution microscopy techniques which relies on the temporal separation of the fluorescence signal and detection of single fluorophores. Separation can be achieved using photoactivatable or -convertible fluorescent proteins (FPs) in photoactivated localization microscopy (PALM), photoswitchable organic dyes in direct stochastic optical reconstruction microscopy (dSTORM) or dynamically binding fluorescent probes in point accumulation for imaging in nanoscale topography (PAINT). In all these techniques, the fluorescence emission pattern of single fluorophores is spatially localized with nanometer-precision. An artificial image is finally reconstructed from the coordinates of all single fluorophores detected. This provides a spatial resolution of ~ 20 nm, which is perfectly suited to investigate cellular processes in bacteria. In this thesis, different SMLM techniques were applied to study fundamental processes in E. coli. This includes determination of protein copy numbers and distributions as well as the nanoscale organization of nucleic acids and lipids.
A novel labeling approach was applied and used for super-resolution imaging of the E. coli nucleoid. It is based on the incorporation of the modified thymidine analogue 5-ethynyl-2’- deoxyuridine (EdU) into the replicating chromosome. Azide-functionalized organic fluorophores can be covalently attached to the ethynyl group of incorporated EdU bases using a copper-catalyzed "click chemistry" reaction. Under the investigated growth condition, E. coli cells exhibited overlapping replication cycles, which is commonly referred to as multi-fork replication and enables cells to divide faster than they can replicate the entire chromosome. dSTORM imaging of such labeled nucleoids revealed chromosome features with diameters of 50 - 200 nm, representing highly condensed DNA filaments. Sorting single E. coli cells by length allowed visualizing structural changes of the nucleoid throughout the cell cycle. Replicating nucleoids segregated and expanded along the bacterial long axis, while constantly covering the entire width of the cell. Measuring cell and nucleoid length revealed a relative nucleoid expansion rate of 78 ± 6 %. At the same time, nucleoids populated 63 ± 8 % of the cell length, almost exclusively being localized to the cylindrical part of the cell. This value was hence normalized to the cylindrical fraction of the cell, yielding a value of 79 ± 10 % (nucleoid-populated fraction of the cell cylinder), which is in good agreement with the observed relative nucleoid expansion rate. These results therefore support a growth-mediated segregation model, in which the chromosome is anchored to the inner membrane and passively segregated into the prospective daughter cells upon cell growth. 3-dimensional dSTORM imaging of labeled nucleoids confirmed that compacted nucleoids helically wrap along the inner membrane. Similar results were obtained by imaging orthogonally aligned E. coli cells using a holographic optical tweezer approach.
In order to visualize particular proteins together with the nucleoid, several correlative imaging workflows were established, facilitating multi-color SMLM imaging in single E. coli cells. These workflows bypass prior limitations of SMLM, including destruction of FPs by reactive oxygen species in copper-catalyzed click reactions or incompatibility of PALM imaging with dSTORM imaging buffers. A sequential SMLM imaging routine was developed which is based on postlabeling and retrieval of previously imaged cells. Optimal imaging conditions can be maintained for each fluorophore, enabling to extract quantitative information from PALM measurements while correlating the protein distribution to the nucleoid ultrastructure within the highly resolved cell envelope. Applying this workflow to an E. coli strain carrying a chromosomal rpoC - photoactivatable mCherry (PAmCh) fusion, transcribing RNA polymerase (RNAP) was found to be localized on the surface of nucleoids, where active genes are exposed towards the cytosol. During growth in nutrient-rich medium, the majority of RNAP molecules was bound to the chromosome, thus ensuring that the RNAP pool is equally distributed to the daughter cells upon cell division. This work represented the first triple-color SMLM study performed in E. coli cells. ...
Redox homeostasis must be kept in balance for an intact redox signaling, which is necessary to control neuronal pathways such as growth cone pathfinding, synaptic plasticity and transmission (Oswald, Garnham, Sweeney, & Landgraf, 2018).
Nucleoredoxin (NXN) is an oxidoreductase and thioredoxin-like protein holding two conserved cysteine residues in its structure (Funato & Miki, 2007), which are essential for its redox-regulating functionality. The function of NXN in neurons is still less well studied. But the expression of NXN in neurons, which was confirmed through analyzing adult NXN-LacZ reporter mice, suggested a dominant functional role in neuronal pathways. Initial experiments revealed calcium-calmodulin-dependent kinase 2 a (Camk2a) as a potential interaction partner through a Yeast-2-Hybrid screen (not shown) which is the major protein to induce synaptic plasticity during neuronal activity. Therefore, neuronal expression of NXN and the potential interaction with Camk2a prompted us to investigate deeper into the neuronal pathway. The goal of this work was to confirm the interaction of Camk2a and NXN with further experiments and to characterize behavior of mice carrying a neuronal NXN deletion. To achieve a pan-neuronal depletion of NXN expression in our mouse model, we used the Cre/loxP system with a NestinCre driver. We did not achieve the expected complete deletion of NXN due to unknown compensatory mechanisms. Nevertheless, the partial deletion of NXN in our transgenic mouse model prevented embryonic lethality as occurring in complete NXN knockout mice (Funato et al., 2010). The interaction of Camk2a and NXN was confirmed through proximity ligation assay (PLA) and immunofluorescence staining of primary cortical neurons.
Investigations of the functional interaction revealed a lower redox-sensitivity of Camk2a activity in NXN-deficient brain samples. Additionally, the respiratory activity was significantly reduced in mitochondria of NXN deficient mouse brain pointing to possible dysfunctional mitochondria which is also observed in various neurodegenerative diseases, e.g.: Alzheimer, Parkinson, and Huntington disease (Norat et al., 2020). Unexpectedly, behavioral studies revealed only a subtle effect of the pan-neuronal NXN-deficiency. Significant differences between genotypes were found at the reduction of exploratory behavior and a reduced motivation for the voluntary wheel running in NesNXN-/- mice, which is normally seen as a joyful and rewarding activity. The observed behavior of NesNXN-/- mice potentially results from interaction mechanisms of NXN with Camk2a, as well as decreased oxidation of
Camk2a and further unidentified target proteins of NXN.
Conclusively, function of NXN was revealed as a non-essential redox modulator of Camk2a in neurons. The behavioral phenotype of NesNXN-/- mice is probably compensated through unknown mechanisms. Redox signaling of Camk2a in neurons is regulated through various components such as TXN or GSH, which can backup each other (Branco et al., 2017; Ren et al., 2017). NXN is an additional but not essential regulator.
Most of the elements heavier than iron are produced through neutron capture reactions in the s- and r -process. The overall path of the s-process is well understood and can be accurately reproduced in network simulations. However, there are still some neutron capture reactions of unstable nuclei involved in the s-process, which were not yet measured due to the difficulty in producing suitable targets. In those cases, theoretical models have to be used to estimate the missing cross section.
One example is the branching point nucleus 86Rb, whose neutron capture cross section cannot be directly measured due to its short half life of 18.86 days. It is, however, also possible to measure its inverse, the 87Rb(g,n) reaction in order to obtain the 86Rb(n,g) cross section through the principle of detailed balance.
Natural rubidium was irradiated with a quasi-monoenergetic photon beam in the energy range between 10.7 MeV and 16 MeV in order to investigate the photo-dissociation cross section of 87Rb. The results are presented in this thesis. Not only the total cross section of 87Rb(g,n), but also the partial production cross section of the ground and isomeric state of 84Rb through the 85Rb(g,n) reaction was measured.
Not all isotopes can be reached via neutron capture reaction, and are therefore bypassed by the s- and r -process. These 35 proton-rich isotopes are called p-nuclei and are produced in the γ-process by a chain of photo-disintegration reactions in Type II supernovae. Network calculations of Type II supernova show that the γ-process can explain the production of most p-nuclei, but some – especially 92/94Mo and 96/98Ru – are heavily underproduced. While this could be the result of deficiencies in the corresponding stellar models or insufficient knowledge of the involved reaction rates, it is also possible that the missing p-nuclei are synthesized in other production scenarios.
An alternative scenario for 92Mo is the production via a chain of proton capture reactions in Type Ia supernovae. One important reaction in this chain is the 90Zr(p,g) reaction. The reaction cross section was already measured several times, but the results were inconclusive. In the present work, the 90 Zr(p,g) reaction was measured using the in-beam gamma-ray spectroscopy technique and the discrepancies between the data sets could be largely explained.
Die nach dem Verfall des Moskauer Imperiums innerhalb der nordatlantischen Allianz entstandene Diskussion über eine eigenständigere europäische Sicherheitspolitik ist nicht neu. Ist diese Diskussion heute jedoch eingebunden in eine generelle Debatte über die künftigen sicherheitspolitischen Strukturen und einer stärkeren organisatorischen Verflechtung beispielsweise von Vereinten Nationen, Europäischer Union, OSZE und NATO, so stand in den späten fünfziger und frühen sechziger Jahren vor allem die Frage einer verstärkten politischen Konsultation und Kooperation innerhalb des Bündnisses und damit verbunden die Teilhabe der (kontinental-)europäischen Mitglieder der Atlantischen Allianz am nuklearen Entscheidungsprozeß auf der Tagesordnung. Dahinter stand die zwiespältige europäische Besorgnis, die USA könnten sich entweder mit Moskau einigen und ihre Streitkräfte in Europa reduzieren oder ganz abziehen, oder aber sie würden bleiben und die europäischen Staaten dominieren. Für beide Fälle wollten die Europäer, unter ihnen in vorderster Linie Bundeskanzler Konrad Adenauer und - als Sonderfall - Charles de Gaulle, Vorsorge treffen, wobei die nukleare Partizipation als Königsweg zu Macht und Einfluß in der Allianz galt. Die amerikanische Regierung hingegen war stets an einer stärkeren Teilung der Verteidigungslasten interessiert, ohne aber ihren Einfluß aufgeben oder von den Verbündeten zu abhängig werden zu wollen. Zur Vertrauensbildung und engeren Anbindung war Washington hierbei auch zu Zugeständnissen in der Teilhabe an der nuklearen Verfügungsgewalt bereit, womit jedoch möglichst neue nationale Nuklearstreitmächte vermieden werden sollten. ...
Im Rahmen unserer Arbeit haben wir die diagnostische Aussagekraft von dem Nukleären Matrix-Protein 22 (NMP22) bei Urothelkarzinomen anhand des Standard-Laborverfahrens „Two-Side-ELISA“ ( Enzym-Immunoassay) überprüft. Unsere Studie umfasste 107 Patienten, diese Anzahl erwies sich als ausreichend, um signifikante Ergebnisse über die Eignung des Tests zu erhalten. Unser repräsentatives Patientengut aus der Urologischen Klinik – mit dem Symptom Makrohämaturie – setzte sich aus benignen und malignen Harnwegserkrankungen, darunter 54 Harnblasenkarzinome, 8 Nierenbeckenkarzinome, 2 Ureterkarzinome und 43 benigne Harnwegserkrankungen (z.B. Zystitis, Urethritis, Pyelonephritis, Blasenhalssklerose, Harnleiter- und Blasenpapillome) zusammen. Patienten mit unterschiedlichen Stadien des Urothelkarzinoms G1, G2 und G3 wurden gezielt in unsere Studie aufgenommen. Die Tumorstadienklassifizierung erfolgte mit Hilfe der histologischen Untersuchungen nach der TNM-Klassifikation. Unsere gewonnenen histologischen Ergebnisse wurden mit den NMP22-Werten korreliert. Für die Ermittlung der NMP22-Levels bei den 107 gesammelten Urinproben wurde ein kommerzieller Kit verwendet (MATRITECH, WallacADL-GmbH, Freiburg, Deutschland). Die Aussagekraft des NMP22-Tests konnte anhand eigener Untersuchungen und durch Vergleich mit Untersuchungen in der Fachliteratur- anhand bestehender Vergleichskriterienbeurteilt werden. Die Auswertung erfolgte gemäß den in der Fachliteratur etablierten Kenngrößen Sensitivität und Spezifität. Die Sensitivität und Spezifität des NMP22-Tests in unserer Studie wurden bei einem von uns bestimmten Cut-off-Wert von 7,5 U/ml, der mit dem Cut-off-Wert vom NMP22-Kit Hersteller übereinstimmt, errechnet. Es zeigte sich eine Sensitivitätsabhängigkeit vom Grading. Der Bereich der Sensitivität bei dem Tumormarker NMP22 reichte von 38%-77%. Die Spezifität schwankte zwischen 66% und 80%. Die Spezifität bei den Patienten, die unter Harnwegsinfektionen litten betrug 42.9%. Die allgemeine Sensitivität des NMP22-Tests betrug bei den Blasentumoren 55.6 %. Die Sensitivität für die oberflächlichen Blasenkarzinome (Ta, T1) war 36%. Invasive Blasentumore wurden in 80% der Fälle entdeckt. Abhängig von dem Grading der Blasentumore fanden wir folgende Sensitivitäten des NMP22-Tests : G1 38%, G2 52% und G3 77%. Die Spezifität war 66.9%. Zusammenfassend können wir sagen, dass wir in Übereinstimmung mit allen uns bekannten Studien eine sehr hohe Sensitivität für den NMP22-Test bei Patienten mit invasivem Blasenkrebs finden. Im Grading 1 befinden sich allerdings in unserer Studie die meisten Werte im Normbereich. Aus diesem Grunde haben wir bei Urothelkarzinomen bei Grading 1 eine totale Einschränkung der Aussage des NMP22-Immunoassays und deshalb ist es für das Grading 1 nicht geeignet. NMP22 ist erst für die Früherkennung der Grading 2 und 3 der Blasenkrebse geeignet. Gutartige urologische Erkrankungen, wie die Zystitis oder andere Harnwegsinfektionen, führten zu falsch-positiven Ergebnissen. Unsere Schlussfolgerung ist, dass der NMP22-Test erst ab fortgeschrittenen Stadien, d.h. ab Grading 2 und Grading 3 echte positive Ergebnisse liefert und somit eine diagnostische Aussage macht. Unsere Werte für Sensitivität und Spezifität decken sich weitgehend mit den Angaben aus der Literatur. Unsere Studie hat gezeigt, dass zum gegenwärtigen Zeitpunkt die routinemäßige Anwendung des Harnblasentumormarkers NMP22 für die Primärdiagnostik von Urothelkarzinomen nicht geeignet ist. Zusammenfassend kann derzeit der NMP22 Test somit nicht die Zystoskopie und die Zytologie als Standarddiagnostik für die Frühdetektion von Blasentumoren ersetzen. Wegen der hohen Rate an falschpositiven Resultaten durch entzündliche Reizzustände der Blase bzw. benigne Harnwegserkrankungen wie z.B. Harnwegsinfekte und Harnsteine und wegen der sehr arbeits- und zeitaufwendigen Durchführung können wir den NMP22-ELISA-Test nicht zur routinemäßigen Blasenkrebsfrüherkennung empfehlen. Als Voraussetzung zur richtigen Interpretation der erhaltenen NMP22-Messwerte sollten bestimmte Ausschlusskriterien beachtet werden, so dass andere Ursachen für erhöhte NMP22- Messwerte weitestgehend ausgeschlossen werden können. Unter diesen Bedingungen erachten wir die Einsatzmöglichkeiten für den NMP22-Test als immunologischen nicht-invasiven Test in Verbindung mit der Zystoskopie und der Zytologie bei der Früherkennung von Blasentumoren als sinnvoll. Der Einsatz des NMP22-Tests könnte beispielsweise bei bereits erfolgreich behandelten Blasenkrebs-Patienten als Maßnahme zur Beobachtung in Verbindung mit der Zystoskopie und Zytologie sinnvoll sein. Alle Untersuchungen gemeinsam ermöglichen eine umfassende Diagnostik und eine höhere Sicherheit, und sie sind somit bei der Detektion des Harnblasenkarzinoms aussagekräftiger. Für die Zukunft sind nicht nur weitere randomisierte, prospektive Studien bedeutsam, die über ein geeignetes heterogenes, klinisch relevantes Patientengut verfügen, sondern auch die Vereinfachung der NMP22-Test Durchführung, so dass die Akzeptanz des Testsystems in Klinik und Praxis erhöht werden kann.
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.
Melting inside earth is a common phenomenon and can be observed in many different regions where melt travels through the mantle and crust to eventually reach the surface where it crystallizes to build large volcanic provinces, whole stratigraphic layers of flood basalts, or even the oceanic crust. Often, melt reaching the surface is a good source of information. It can be used to achieve a better understanding about processes taking place in deeper regions inside the mantle and it is therefore essential to fundamentally understand melting and melt percolation processes. In order to achieve a deeper understanding, the aim of this thesis is to investigate processes that are connected to melting by using numerical models.
The physical model used is a so called two-phase flow model which describes the ability of melt to percolate through a viscously deforming, partially molten matrix. A famous feature of two-phase flow are solitary porosity waves, which are waves of locally higher porosity ascending through a partially molten background, keeping its shape constant, driven by decompaction and compaction of the solid matrix in front and behind the wave.
The viscosity law for shear- and volume viscosity was strongly simplified in most previous studies that modeled solitary waves. Often the porosity dependency is underestimated or its influence on the volume viscosity is even neglected, leading to too high viscosities. In this work more realistic laws are used that strongly decrease for small melt fractions. Those laws are incorporated into a 2D Finite Difference mantle convection code with two-phase flow to study the ascent of solitary porosity waves.
The model results show that an initial Gaussian-shaped wave rapidly evolves into a solitary wave with a certain amplitude, traveling upwards with constant velocity. Even though strongly weaker viscosities are used, the effect on dispersion curves and wave shape are only minor as long as the background porosity is rather small. The results are still in agreement to semi-analytical solutions which neglect shear stresses in the melt segregation equation. Higher background porosities and wave amplitudes lead to significant decrease in phase velocity and wave width, as the viscosity is strongly effected. However, the models show that solitary waves are still a possible mechanism for more realistic matrix viscosities.
While the ascending of porosity waves are mostly described by the movement of fluid melt, partially molten regions inside Earth trigger upwelling of both, solid and fluid phases, which can be called diapirism. While diapirs can have a wide variety of wavelengths, porosity waves are restricted to a few times the compaction length. The size of a melt perturbation in terms of compaction length therefore describes whether material is transported by diapirism or porosity waves. In this thesis we study the transition from diapiric rise to solitary porosity waves by systematically changing the size of a porosity perturbation from 1.8 to 120 times the compaction length. In case of a perturbation of the size of a few times the compaction length a single porosity wave will emerge, either with a positive or negative vertical matrix flux and if melt is not allowed to move relative to the matrix a diapir will emerge. In between these physical end members a regime can be observed where the partially molten perturbation will split up into numerous solitary waves, whose phase velocity is low compared to the Stokes velocity and the swarm of solitary waves will ascend jointly as a diapir, slowly elongating due to a higher amplitude main solitary wave.
Solitary waves will always emerge from a melt perturbation as long as two-phase flow is enabled, but the time for a solitary wave to emerge increases non-linearly with the perturbation radius in terms of compaction length. In nature, in many cases this time might be too long for solitary waves to emerge.
Another important feature when it comes to two-phase flow is the transport of trace elements in melt. Incompatible elements prefer to go into the melt, which eventually enriches the area where it crystallizes again. In order to model this redistribution, the code FDCON was extended to allow for fully consistent transport of elements in melt, including melting, freezing and re-equilibration with time. A 2D model, a simple representation of a volcanic back arc, is set up to investigate the behavior of trace elements. The influence of retention number and re-equilibration time is examined. Lava-lamp like convection can be observed in the lower part of the model, producing melt, that eventually leads to enrichment in trace elements in the upper high-viscous layer. The total enrichment in this layer approaches an asymptotic value and a 0D model is introduced to recreate this behavior.
Das Funneling-Prinzip ist für Großprojekte wie SNS und IFMIF zur Erzeugung hoher Strahlströme bei hoher Brillanz von großem Interesse und bietet die Möglichkeit der Strahlstromerhöhung bei gleichbleibender Emittanz. Das Frankfurter Funneling-Experiment ist ein skalierter Aufbau einer ersten Funneling-Stufe von HIDIF. Hauptbestandteile des Experimentes sind zwei Multicusp-Ionenquellen, ein Zwei-Strahl-RFQ-Beschleuniger, ein Einzellen- und ein Mehrzellen-Deflektor sowie eine Emittanzmeßanlage. Das Zusammenführen zweier Ionenstrahlen nach dem Funneling-Prinzip konnte am IAP im Jahr 2000 erstmalig realisiert werden. Allerdings war aufgrund der unmodulierten End-Elektroden des RFQ-Beschleunigers der Strahlradius und die Emittanz bereits bei Eintritt in den Deflektor viel zu groß. Die dadurch aufgetretenen Strahlverluste an den Elektroden führten also nicht zu der gewünschten Strahlstromverdoppelung. Daraufhin wurden die letzten Elektrodenstücke der beiden Beschleuniger gegen modulierte Elektroden ausgetauscht. Der Fokus der Ionenstrahlen wird nun mittels eines sogenannten 3D-Matchings in den Strahlkreuzungspunkt gelegt. Experimente mit den neuen RFQ-End-Elektroden und dem überarbeiteten Mehrzellen- Deflektor stehen noch aus. Die vorliegende Arbeit entstand als theoretischer Teil im Rahmen des Frankfurter Funneling-Experimentes. Es sind zahlreiche Simulationsrechnungen zum bestehenden experimentellen Aufbau durchgeführt worden, die in Auszügen in Kapitel 7 dargestellt wurden. Weiterhin wurde die Teilchendynamik und die Raumladung in Deflektoren, das Emittanzwachstums während des Funnelings, der Einfiuß der inhomogenen Felder bei verschiedenen Deflektorgeometrien ausführlich untersucht und ausgewertet (Kapitel 8). Für diese Aufgaben sind einerseits neue Programme für eine dreidimensionale Deflektorsimulation und andererseits Software zur Auswertung mit graphischer Darstellung geschrieben worden. Diese wurden in Kapitel 6 vorgestellt. Die für diese Arbeit entwickelten Programme ermöglichen die Berechnung der Potential- und Feldverteilungen in elektrischen Hochfrequenz-Funneling-Deflektoren sowie die Simulation des Funnelingprozesses zweier Ionenstrahlen. Ferner sind diverse Auswertemethoden in tabellarischer oder graphischer Form wie Strahlverlauf, Emittanzebenen, Dichteverteilungen und Verlustgraphen verfügbar. Damit sind umfangreiche Simulationen und Auswertungen bezüglich des Deflektordesigns und der Strahldynamik sowie Optimierungen solcher Systeme möglich. Der Einfluß der Raumladungskräfte und der inhomogenen Felder auf den Funnelingprozeß konnten in Kapitel 8 gezeigt werden. Für den im Experiment verwendeten Mehrzellen-Deflektor sollten folgende Strahlparameter eingehalten werden: der Strahlradius in der x-y-Ebene sollte vor Eintritt in den Deflektor kleiner als 0.5 cm sein, die Energiebreite deltaW < +- 2% und die Phasenbreite deltaPhi < +- 30° betragen. Ansonsten treten Teilchenverluste durch Elektrodenkontakt auf oder der Bunch wird in longitudinaler Richtung zu groß, so daß die Möglichkeit besteht, das eine Überlappung der Bunche stattfindet. Mit der vorliegenden Arbeit sind Programme zur detaillierten Berechnung und Analyse von Funneling-Systemen entwickelt worden. Zukünftige Aufgaben sind neben der Untersuchung der Randfelder in Deflektoren die Minimierung des Emittanzwachstums durch die inhomogenen Felder. Nach ersten Strahltests und Funnelingergebnissen ist zu entscheiden, ob eine Matching-Sektion zwischen RFQ-Beschleuniger und Funneling-Deflektor zur weiteren Strahlanpassung eingebracht werden muss.
In dieser Arbeit wird die erstmals von Stevenson et al. (89, GRL) beschriebene spannungsangetriebene Schmelzsegregation, die Kanalisierungsinstabilität, numerisch mit Hilfe des 2D Finite-Differenzen-Codes FDCON (Schmeling, 00, Kluwer) untersucht. Diese Untersuchung stellt eine Weiterführung der numerischen Experimente von Richardson et al. (96, JGR) und Hall et al. (00, GRL) dar, so dass die Erforschung der Kanalisierungsinstabilität erweitert wird um den Aspekt ihres Verhaltens bezüglich eines äußeren Spannungsfeldes bei verschiedenen initialen Porositätsverteilungen, der Untersuchung der Kanalisierungsinstabilität bei großen Dehnungen und der damit verbundenen Analyse der entstehenden Strukturen, des Einflusses des Auftriebs auf die Ausbildung von Kanalnetzwerken und um die abschließende Prüfung, ob durch ein durch die Kanalisierungsinstabilität ausgebildetes Kanalnetzwerk die Möglichkeit besteht, Schmelze zu einem MOR zu fokussieren. Die Kanalbildung wird derzeit von Holtzman et al. (03, G3) (Hochdruckexperimente an synthetischem Olivin+MORB), Spiegelman et al. (03, G3) (theoretische Untersuchung der Kanalisierungsinstabilität) und Rabinowicz et al. (04, JGR) (numerische Simulation und theoretische Betrachtung der Kanalisierungsinstabilität) intensiv untersucht, die Fokussierung der Schmelze behandeln Sparks et al. (94, Academic Press), Hall et al. (03, G3) sowie Kühn (05, in-press). Viskositätsunterschiede in einer schmelzgefüllten porösen Matrix verursachen bei deren Deformation einen Druckgradienten, welcher die Schmelze in Richtung der maximalen Hauptspannung anreichert und zur Ausbildung von Kanälen, welche eine inhomogene Schmelzverteilung aufweisen, führt. Die Wachstumsrate Alpha dieser Kanäle weist zur Wellenzahl k eine Proportionalität von Alpha ~ ak^2/(1+bk^2) auf. Dieser Zusammenhang hat zur Folge, dass sich ab einer bestimmten Wellenzahl alle Schmelzverteilungen größerer Wellenzahl gleich verstärken. Bei anhaltender Dehnung kann beobachtet werden, dass die ausgebildeten Kanäle an den verarmten Kanalstellen auseinander gerissen werden. Nachfolgend verbinden sich die hierdurch entstandenen Schmelzlinsen unter der Bildung von en-echelon arrays wieder, wodurch sich wiederum ein langer, in etwa um 45° ausgelenkter (linksdrehendes Koordinatensystem, mit 0° gleich der Vertikalen) Kanal bildet. Diese Beobachtungen fanden unter der Bedingung, dass kein Auftrieb zwischen Schmelze und Matrix existiert, statt. Wird dieser Auftrieb hinzugefügt, so ist erkennbar, dass eine Kombination zwischen den die Kanalisierungsinstabilität und den Auftrieb bestimmenden Parametern existiert, bei der sich Solitonen ausbilden. Diese Solitonen folgen bei ihrem schnelleren Aufstieg dem Verlauf der schmelzgefüllten Kanäle und passieren dabei, ohne ihre Form zu verändern, andere kleine Solitonen, die ihren Weg kreuzen. Die durchschnittliche Aufstiegsgeschwindigkeit der Solitonen entspricht einem Vielfachen der Aufstiegsgeschwindigkeit der Schmelze aufgrund von Segregation. Weiterhin deckt sich die Solitonaufstiegsgeschwindigkeit mit der von Schmeling angegebenen. Bisher konnte in die Theorie für trockene (wasserfreie) Medien kein frühzeitiger Abfall der Wachstumsrate bei großen Wellenzahlen implementiert werden. Lediglich unter dem Gesichtspunkt der Diffusion von Wasser zwischen der Matrix und der Schmelze und des erweichenden Effekts von Wasser konnte bei einer spezifischen Wellenzahl eine maximale Wachstumsrate gefunden werden (Hall et al., 2000, GRL). Der Versuch der Anwendung der bisher erzielten Ergebnisse auf die Interaktion eines aufsteigenden Plumes mit einer spreizenden Kruste erbrachte keine direkte Fokussierung der Schmelze zum MOR hin. Die Spannungsverteilung dieser Experimente zeigt, dass der Plumestamm aufgrund eines defokussierenden Kanalnetzwerks im Stamm sowie eines nahezu vertikal verlaufenden Kanalnetzwerks am Rand des Plumestammes von einer Zone erhöhter Schmelzkonzentration ummantelt sein könnte. In dieser Ummantelung steigt die Schmelze dann in vertikal verlaufenden Kanälen auf, wobei sie in den hier vorgestellten Experimenten (Plumekopfausdehnung ~150 km) in einer Entfernung von ~100 km zum MOR auf die Lithosphärenunterseite (Tiefe ~50 km) treffen würde. Aufgrund der Lithosphärenstruktur (Wurzel-t-Gesetz) könnte die Schmelze an der schrägen Lithosphärenunterseite zum MOR hin strömen (Sparks et al., 94, Academic Press sowie Hall et al., 03 G3). Diese Prozesse (Kanalisierungsinstabilität (Stevenson et al., 89, GRL), Entlangströmen der Schmelze an der Lithosphärenunterseite (Sparks et al., 94, Academic Press sowie Hall et al., 03, G3) und der Recyclingprozess der Schmelze) stellen das Erklärungsmodell dieser Arbeit dar, wie eine Fokussierung von Schmelze zum MOR bei einer Interaktion von diesem mit einem Plume aussehen könnte.
O programa de ajustamento estrutural na república da Guiné-Bissau : Uma avaliação política e ética
(2007)
Os guineenses assumiram o desenvolvimento como uma das metas a atingir e a estabilização e o ajustamento foi-lhes imposta como solução para os problemas estruturais existentes. No entanto, a forma como têm vindo a ser concebidos pelo Banco Mundial e pelo Fundo Monetário Internacional, direccionada sobretudo para a área económica, acabou por limitar o papel dos Programas de Ajustamento Estrutural (PAE) tidos como indutores do desenvolvimento, tornando-os num agregado de premissas austeras, com resultados não esperados. As propostas do FMI e do BM, tendendo para a liberalização económica e estímulo dos mercados em detrimento da intervenção estatal, traduzem-se em medidas de redução de taxas de utilização dos serviços públicos, supressão de subsídios, redimensionamento da administração pública, cortes, congelamentos salariais e privatizações. Os resultados destas reformas foram catastróficos, porquanto não só não melhoraram o défice orçamental, como os efeitos negativos das restrições orçamentais sobre o bem-estar, geraram um ambiente de promiscuidade social e o agravamento do sector informal como estratégia de sobrevivência Tendo em conta o objecto em estudo, isto é, a relação de forças que encontrámos entre o relacionamento entre os actores políticos guineenses e as Instituições Financeiras Internacionais, notámos que a ausência de comportamentos éticos também influiu nos resultados. Por um lado, o BM e o FMI, perante um Estado fragilizado, apresentaram condicionalismos à obtenção de empréstimos e ajudas, por outro lado, os actores guineenses, mesmo perante este dilema, não se coibiram do exercício da corrupção, do clientelismo e do neo-patrimonialismo, como estratégia para o enriquecimento fácil. Palavras-chave: Programas de Ajustamento Estrutural; Desenvolvimento; Boa governação; Ética e Moral.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
Ein professioneller Orchestermusiker verbringt die meiste Zeit in körperlich ungünstiger Sitzhaltung beim Spielen. Die Folge ist ein Anstieg des Risikos für die Entwicklung von muskuloskelettalen Beschwerden [44, 127, 128]. Eine Verbesserung der Arbeitsbedingungen lässt sich u.a. durch den Einsatz von ergonomischen Stühlen erzielen, da sie einen Einfluss auf die Körperhaltung des Orchestermusikers besitzen. Im Mittelpunkt der vorliegenden Arbeit standen daher sechs unterschiedliche von der Firma Mey für Orchestermusiker konzipierte Stühle. Die Studie beinhaltete eine Untersuchung des Einflusses der Stühle auf die Oberkörperstatik und die Sitzdruckverteilung von Orchestermusikern und den Einfluss auf ihr Instrumentalspiel im Vergleich zur habituellen Sitzhaltung. Das Probandenkollektiv umfasste 24 Berufsmusiker des Polizeiorchesters Mainz (Rheinland-Pfalz, Deutschland) und bestand zum größten Teil aus Blasinstrumentalisten (3 Frauen, 21 Männer). Das Durchschnittsalter betrug 45 Jahre. Die Überprüfung der Oberkörperstatik erfolgte durch einen 3D-Rückenscanner (ABW GmbH, Frickenhausen, Deutschland), eine Evaluation der Druckverhältnisse im Gesäß durch eine Druckmessmatte (GeBioM GmbH, Münster, Deutschland), womit sich bei jedem Stuhl ein bestimmtes Druckmuster kennzeichnen ließ. Die Messung erfolgte pro Stuhl und Messgerät stets im Wechsel zwischen der statischen Position ohne Instrument (oI) und der statischen Position mit Instrument (mI). Bei der statistischen Auswertung kam es zur Verwendung nicht parametrischer Tests (Friedman-, Wilcoxon Matched- Pairs-Test), wobei das Signifikanzniveau bei ≤0,05 lag. Es erfolgte eine Unterteilung in einen Inter- und einen Intrastuhlvergleich.
Die Ergebnisse des Interstuhlvergleichs zeigten bezüglich der Schulterregion keine signifikanten Veränderungen, wohingegen im Hinblick auf die WS-Parameter Signifikanzen zwischen Stuhl 2 und 5 verzeichnet wurden: in der habituellen Position offenbarte die Rumpflänge D die größte Abweichung mit einem Längenunterschied von 14mm (p≤0,001), so auch die Rumpflänge S (16 mm; p≤0,001). Bezüglich dieser Stühle wiesen die restlichen WS-Parameter Abweichungen von max. 4° bzw. 3mm auf. Zwischen Stuhl 2 und 3 ergaben sich m.I. im Hinblick auf den thorakalen (p≤0,01) und lumbalen Biegungswinkel (p≤0,001) max. Diskrepanzen von 2,5°. Die größten Unterschiede in der Beckenregion zeigten sich beim Beckenabstand zwischen Stuhl 3 und 5 o.I. (7mm) und m.I. (4mm), (beide Bedingungen p≤0,001). Im Hinblick auf die Druckparameter fand sich eine Abhängigkeit zwischen belasteter Fläche und Sitzbeinhöckerdruck (SBH): eine kleine Fläche bedeutete eine schlechte Druckverteilung und umgekehrt. Stühle 1 und 4 besaßen den geringsten SBH (p≤0,001). Im Intrastuhlvergleich zeigten die Bereiche der WS, Schultern und Becken jeweils mindestens einen signifikanten Parameter auf, wie z.B. Schulterblattabstand, sagittale Rumpfneigung und Beckenabstand. Korrelationen zwischen den Parametern waren nicht zu erkennen. M.I. kommt es hinsichtlich des SBH auf der linken Hälfte im Schnitt auf allen Stühlen zu einer Druckerhöhung von 8,46%, auf der rechten zu einer von 11,11%. Im Hinblick auf den Oberschenkeldruck (OS) vollzieht sich die größte Veränderung (7,4bar) der rechten Gesäßhälfte auf Stuhl 2 mit p≤0,001. Der Interstuhlvergleich zeigt also, dass die Wahl eines Stuhls keine Auswirkung auf die Körperhaltung hat. Ursache für Diskrepanzen hinsichtlich des SBH ist die unterschiedliche Polsterung und Größe der Sitzfläche, welche eine hohe Relevanz in Bezug auf die Umverteilung des Drucks und den subjektiven Komfort besitzt. Eine gepolsterte und große Oberfläche ist gleichzusetzen mit einer günstigen Druckverteilung und einem angenehmen individuellen Sitzgefühl. Der Intrastuhlvergleich offenbart ebenfalls keine klinisch relevanten Veränderungen im Oberkörper. Ausschließlich in der Druckverteilung ist eine signifikante Variabilität hinsichtlich des OS rechts bei Stuhl 2 vorhanden (p≤0,001). Die Sitzposition der Probanden ist symmetrisch. Die Symmetrie bezieht sich sowohl auf den Schulter-, WS- und Beckenbereich, als auch auf die Druckverhältnisse im Gesäßbereich.
In der vorliegenden Studie konnte belegt werden, dass gepolsterte und breite Sitzoberflächen mit gleichmäßiger Druckverteilung und gleichzeitig hohem Komfort einhergehen. Im Hinblick auf das Musizieren über einen längeren Zeitraum ist das Vorhandensein eines hohen Komforts für den Orchestermusiker von Bedeutung. Diese Erkenntnisse sind bei der Weiterentwicklung von ergonomischen Stühlen zu berücksichtigen. Eine Analyse der Schulter- und Rumpfmuskulatur und Messung des Beckenwinkels ist in weiteren Studien zusätzlich erforderlich, um zu erforschen, inwieweit die Stühle die Fehlfunktionen des Bewegungsapparates beeinflussen.
Object recognition is such an everyday task it seems almost mundane. We look at the spaces around us and name things seemingly effortlessly. Yet understanding how the process of object recognition unfolds is a great challenge to vision science. Models derived from abstract stimuli have little predictive power for the way people explore "naturalistic" scenes and the objects in them. Naturalistic here refers to unaltered photographs of real scenes. This thesis therefore focusses on the process of recognition of the objects in such naturalistic scenes. People can, for instance, find objects in scenes much more efficiently than models derived from abstract stimuli would predict. To explain this kind of behavior, we describe scenes not solely in terms of physical characteristics (colors, contrasts, lines, orientations, etc.) but by the meaning of the whole scene (kitchen, street, bathroom, etc.) and of the objects within the scene (oven, fire hydrant, soap, etc.). Object recognition now refers to the process of the visual system assigning meaning to the object.
The relationship between objects in a naturalistic scene is far from random. Objects do not typically float in mid-air and cannot take up the same physical space. Moreover, certain scenes typically contain certain objects. A fire hydrant in the kitchen would seem like an anomaly to the average observer. These "rules" can be described as the "grammar" of the scene. Scene grammar is involved in multiple aspects of scene- and object perception. There is, for instance, evidence that overall scene category influences identification of individual objects. Typically, experiments that directly target object recognition do not involve eye movements and studies that involve eye movements are not directly aimed at object recognition, but at gaze allocation. But eye movements are abundant in everyday life, they happen roughly 4 times per second. Here we therefore present two studies that use eye movements to investigate when object recognition takes place while people move their eyes from object to object in a scene. The third study is aimed at the application of novel methods for analyzing data from combined eye movement and neurophysiology (EEG) measurements.
One way to study object perception is to violate the grammar of a scene by placing an object in a scene it does not typically occur in and measuring how long people look at the so-called semantic inconsistency, compared to an object that one would expect in the given scene. Typically, people look at semantic inconsistencies longer and more often, signaling that it requires extra processing. In Study 1 we make use of this behavior to ask whether object recognition still happens when it is not necessary for the task. We designed a search task that made it unnecessary to register object identities. Still, participants looked at the inconsistent objects longer than consistent objects, signaling they did indeed process object and scene identities. Interestingly, the inconsistent objects were not remembered better than the consistent ones. We conclude that object and scene identities (their semantics) are processed in an obligatory fashion; when people are involved in a task that does not require it. In Study 2, we investigate more closely when the first signs of object semantic processing are visible while people make eye movements.
Although the finding that semantic inconsistencies are looked at longer and more often has been replicated often, many of these replications look at gaze duration over a whole trial. The question when during a trial differences between consistencies occur, has yielded mixed results. Some studies only report effects of semantic consistency that accumulate over whole trials, whereas others report influences already on the duration of the very first fixations on inconsistent objects. In study 2 we argue that prior studies reporting first fixation duration may have suffered from methodological shortcomings, such as low trial- and sample sizes, in addition to the use of non-robust statistics and data descriptions. We show that a subset of fixations may be influenced more than others (as is indicated by more skewed fixation duration distributions). Further analyses show that the relationship between the effect of object semantics on fixation durations and its effect on oft replicated cumulative measures is not straightforward (fixation duration distributions do not predict dwell effects) but the effect on both measures may be related in a different way. Possibly, the processing of object meaning unfolds over multiple fixations, only when one fixation does not suffice. However, it would be very valuable to be able to study how processing continues, after a fixation ends.
Study 3 aims to make such a measure possible by combining EEG recordings with eye tracking measurements. Difficulties in analyzing eye tracking–EEG data exist because neural responses vary with different eye movements characteristics. Moreover, fixations follow one another in short succession, causing neural responses to each fixation to overlap in time. These issues make the well-established approach of averaging single trial EEG data into ERPs problematic. As an alternative, we propose the use of multiple regression, explicitly modelling both temporal overlap and eye movement parameters. In Study 3 we show that such a method successfully estimates the influence of covariates it is meant to control for. Moreover, we discuss and explore what additional covariates may be modeled and in what way, in order to obtain confound-free estimates of EEG differences between conditions. One important finding is that stimulus properties of physically variable stimuli such as complex scenes, can influence EEG signals and deserve close consideration during experimental design or modelling efforts. Overall, the method compares favorably to averaging methods.
From the studies in this thesis, we directly learn that object recognition is a process that happens in an obligatory fashion, when the task does not require it. We also learn that only a subset of first fixations to objects are affected by the processing of object meaning and its fit to its surroundings. Comparison between first fixation and first dwell effects suggest that, in active vision, object semantics processing sometimes unfolds over multiple fixations. And finally, we learn that regression-based methods for combined eye tracking-EEG analysis provide a plausible way forward for investigating how object recognition unfolds in active vision.
Im Rahmen der vorliegenden Arbeit sollte überprüft werden, ob es bei hyperfunktionellen Dysphonien besondere Merkmale des Stimmeinsatzes gibt und inwieweit er sich vom Stimmeinsatz, der aus einer eutonen Grundhaltung heraus angestimmt wird unterscheidet. Weiterhin sollte eine Möglichkeit geschaffen werden, funktionelle Stimmstörungen objektivierbar zu machen und ihr Vorhandensein leichter zu dokumentieren. Obwohl in der wissenschaftlichen Literatur hyperfunktionelle Stimmstörungen beschrieben werden, so ist doch wenig über die Stimmeinsätze und die dabei stattfindenden physiologischen Vorgänge bekannt. Auch finden sich nur sehr wenige Ansätze funktionelle Stimmstörungen mit objektiven Meßmethoden zu klassifizieren. Durch die Untersuchung von 15 Patienten mit hyperfunktioneller Dysphonie in der Klinik für Phoniatrie und Pädaudiologie der Johann Wolfgang Goethe-Universität Frankfurt am Main sollte im folgenden geklärt werden, ob und, wenn ja, auf welche Weise sich die Stimmeinsätze bestimmten Typen zuordnen ließen. Weiterhin sollte bestimmt werden, ob die gefundenen Typen immer im selben Kontext auftraten, oder ob sie sich intraindividuell gehäuft fanden. Der Prozeß der Datengewinnung soll nun nochmals sehr kurz erläutert werden (näheres unter Kapitel 4). Alle Patienten wurden gebeten, den Text „Ein einäugiges Ungeheuer“ in ihrer gewohnten Sprechstimmlautstärke vorzulesen. Diese Aufnahmen wurden im Phonetiklabor durchgeführt und mit dem Programm „Cool Edit 96“ von Syntrillium gespeichert. In dem Text findet sich eine besondere Häufung von Vokalen und Diphthongen in den Stimmeinsätzen. Aus dem Text wurden 18 verschiedene Stimmeinsätze mit der Silbe /EIN-/ ausgewählt und als Einzelsequenz abgespeichert. Anschließend erfolgte eine manuelle Bearbeitung der Stimmeinsätze mit dem Programm „Glottal Segmentation of voice and speech“. Dabei wurden jeweils die ersten zwölf glottalen Zyklen des Stimmeinsatzes erfaßt und analysiert. Die so gewonnenen Daten wurden mit dem Zusatzprogramm „Periodendauerstatistik“ graphisch dargestellt. Dabei wurde ein Frequenz-Zeit-Diagramm angezeigt, welches in der Ordinate die Frequenz und in der Abszisse jeweils einen glottalen Zyklus abbildet. Diese Darstellung nimmt keinen direkten Bezug auf die Periodendauer, es wird lediglich die Anzahl der glottalen Zyklen mit der dazugehörigen Frequenz erfaßt. Eine Zusatzfunktion des Programms ist es, daß alle Darstellungen der 18 Stimmeinsätze wiederum in einer Abbildung, zum besseren Vergleich untereinander, wiedergegeben werden können. Insgesamt wurden über 500 Stimmeinsätze untersucht. Bei allen untersuchten Stimmeinsätzen fanden sich vier immer wieder vorkommende Typen. Drei davon sind typisch für hyperfunktionelle Dysphonien, der vierte (Typ 1) entspricht dem physiologischen, weichen Stimmeinsatz und findet sich bei hyperfunktionellen Dysphonien eher selten. Diese Form des Stimmeinsatzes sollte während einer Therapie angestrebt werden, da der Sprecher hier aus einer eutonen Grundspannung heraus intoniert. Eine Häufung der einzelnen Typen kann individuell vermehrt auftreten. Beim interindividuellen Vergleich hingegen konnte keine Typuspräferenz pro Worteinsatz festgestellt werden. Im Verlauf einer erfolgreichen Therapie kann am Patienten eine Verschiebung zum Typ 1 hin vermerkt werden, dies wurde jedoch bislang nur beispielhaft überprüft und wird Gegenstand weiterer Forschungen sein. Mit den vorgestellten Ergebnissen, steht ein objektives Verfahren zur Therapieverlaufsbeobachtung bei funktionellen Dysphonien zur Verfügung. Dabei ist wichtig, daß sowohl Stimmschallsignal als auch Elektroglottogramm ohne Beeinträchtigung der Phonation des Patienten aufgezeichnet werden können. Diese Aufzeichnungen können zu einem späteren Zeitpunkt beliebig oft vom Untersucher/Therapeuten angehört und auch visuell beurteilt werden. Die daraus gewonnenen Ergebnisse können mit dem Patienten besprochen werden. Bei erfolgreicher Therapie kann der Patient anhand der wechselnden Kurvenverläufe seine Fortschritte nicht nur selbst hören, sondern auch anhand der erfolgenden Typisierung visualisieren. Dies fällt dem Patienten in der Regel leichter, als die auditive Kontrolle, da unsere visuelle Wahrnehmung in der heutigen Umgebung stärker trainiert wird, als die auditive. Die Befunde belegen deutlich, daß hyperfunktionelle Funktionsabläufe nicht nur auf die Ebene der Glottis beschränkt sind, sondern vielmehr auf Verengungen im Hypo- und Mesopharynx, in Kombination mit erhöhter Spannung in der Vokaltraktwand, dem Mundboden sowie der Zunge und der mimischen Gesichtsmuskulatur zurückzuführen sind. Die entstehende faukale Enge durch Dorsalverlagerung des Zungengrundes sowie ein unphysiologischer Hochzug des Kehlkopfes behindern zusätzlich die Resonanz im Vokaltrakt und die wechselseitige Beeinflussung von Kopf- und Brustresonanz. Die Resonatoren können nicht im optimalen Verhältnis zueinander schwingen, dadurch behindern sie sich gegenseitig und es kann kein tragfähiger, reiner Klang entstehen. Genau an diesem Punkt, der Abstimmung der Resonatoren untereinander, setzen die meisten Therapieverfahren an. Diese Therapieerfolge können mit der dargestellten Methode jetzt auch quantitativ nachgewiesen und dokumentiert werden.
Ziel der vorliegenden Studie war es, mittels Vergleichsanalysen einen Einblick zu erhalten, in wie weit sich die Ergebnisse der visuellen (subjektiv) Farbwahrnehmung und instrumentengestützter Farbmessung (objektiv) unterscheiden. Die Studie beinhaltet einen In- Vitro, sowie einen In-vivo-Versuchsaufbau. Im In-vitro-Versuch waren 20 Probanden, zusammengestellt aus zehn Frauen und zehn Männern entweder Studierende der Zahnheilkunde, Zahnärzte/innen und Zahntechniker, aufgefordert, in einem Phantomkopf jeweils einen mit Ober- und Unterkieferkunststoffseitenzähnen bestücktes Kiefermodell, hinsichtlich der Farberscheinung zu beurteilen bzw. zu messen. Der Versuch wurde jeweils einmal mit und einmal ohne Zahnfleischmaske durchgeführt. In der anschließenden Auswertung der Ergebnisse wurde untersucht, ob die Beurteilungen bzw. Messwerte sowohl subjektiv als auch objektiv bei Frauen und Männern, mit und ohne Zahnfleischmaske gleich ausfallen oder ob es zu großen Unterschieden kommt. In der In-vivo-Studie bestimmten die Teamleiter (Frau/ Mann) an den 20 Probanden jeweils einen Seitenzahn ohne Füllung von vestibulär visuell und mit dem Digital Shade Guide. Auch hier wurden die Ergebnisse ausgewertet nach den Gruppen Frauen/Männer und subjektiv/objektiv. Es ist kein Unterschied bei der Beurteilung der Farben durch Frauen oder Männern ersichtlich. Zusammenfassend wird festgestellt, dass unter der Limitation einer In-vitro-Studie kein Vorteil in der objektiven gegenüber der subjektiven Farbnahme zu erkennen ist. Die Zahnfleischmaske nimmt keinen Einfluss auf die Farbwahrnehmung. Auch in der In-vivo-Studie sind keine nennenswerten gleichbleibenden Ergebnisse innerhalb der instrumentengestützten Farbnahme zu erhalten. Allenfalls eine Kombination aus subjektiver und objektiver Farbnahme scheint hilfreich zu sein, um eine exakte Farbbestimmung durchzuführen.
The project investigates how economic paradigm shifts that occur at the beginning of the 1970s (primarily the abandonment of the gold standard and the endlessly increasing pool of capital awaiting investment that succeeded it) led to the emergence of a unique building type: the high-altitude observation deck. Part investment vehicle, part iteration of an ongoing fascination with the view from above, the project presents the observation deck as the point where three distinct paradigms intersect: observation, speculation and spectacle. Tracing the emergence of the observation deck through a series of case studies (Top of the World atop the World Trade Center (NYC), One World Observatory (NYC), The Tulip (London) the project enriches its interdisciplinary approach with archival research and fieldwork. Re-telling the complicated collaboration between architect Warren Platner and graphic designer Milton Glaser at the end of the 1960s, the project lays out how the observation deck is conceived at a time when the perceived “crisis” of New York results in a rapidly accelerating neoliberalization of urban space. An avatar of this emerging ideology the observation deck is heavily invested in making the city visually comprehensible. Incorporating a sort of neoliberalist geometry, the deck transforms the city into a product to be consumed instead of a reality to live in and thus paves the way for other ventures of what has been called the “experience economy.” Thus, it signals the ongoing shift away from an architecture that possesses any use value, towards one that, as Barthes put it with regards to Eiffel Tower, is centered only on viewing and being viewed. A speculative machine, the observation deck renders the city into a product.
The putative effects of dark matter are most easily explained by a collisionless fluid on cosmological scales and by Modified Newtonian Dynamics (MOND) on galactic scales. Hybrid MOND dark matter models combine the successes of dark matter on cosmological scales and those of MOND on galactic scales. An example of such a model is superfluid dark matter (SFDM) which postulates that this differing behavior with scale is caused by a single underlying substance with two phases. In this thesis, I highlight successful observational tests of SFDM regarding strong lensing and the Milky Way rotation curve. I also discuss three problems due to the double role of the aforementioned single underlying substance and show how these may be avoided. Finally, I introduce a novel Cherenkov radiation constraint for hybrid MOND dark matter models. This constraint is different from standard modified gravity Cherenkov radiation constraints because such hybrid models allow even non-relativistic objects like stars to emit Cherenkov radiation.
Very little is known about the occlusal wear pattern in the Neanderthal posterior dentition. Usually dental wear is closely related to the physical properties of the ingested food, and consequently can be used to obtain information about diet. Neanderthal dietary reconstructions have been mostly based on the analysis of accompanying faunal remains and isotopic signatures of bones and tooth enamel, suggesting that they exploited larger portions of animal proteins from large and medium-sized herbivores. Probably these studies may do not reflect the bulk diet, tending to underestimate plant consumption and to overestimate meat consumption. In the present work the occlusal wear pattern of maxillary molars of Homo neanderthalensis (N=19) and early Homo sapiens (N=12)have been analyzed, applying non-destructive methods based on virtual three-dimensional polygonal models generated from surface scanning of dental casts. The sample groups occupied different geographical areas at different chronological times. The 3D digital tooth models were analyzed using the “Occlusal Fingerprint Analysis” (OFA) method (Kullmer et al. 2009), describing and quantifying the occlusal wear pattern derived from two wear facet angles (dip and dip direction), wear facet area and occlusal relief index (ORI). The OFA method provides information about the dynamics of the occlusal relationships and their function, permitting the reconstruction of the mandibular movements responsible for the contacts created during the chewing cycle. Since jaw movements and diet are closely related, the results obtained, can be used to interpret the diet of the two Pleistocene hominin species. In order to evaluate how dietary differences influence the occlusal wear pattern, upper molars of modern hunter-gatherers (N=42) with known diet and different dietary habits, have been included in the sample and compared with those of Neanderthals and early Homo sapiens. Results show that within the modern hunter-gatherers sample, the occlusal wear pattern of carnivorous populations differs from those who relied on a mixed-diet. In particular, the study of relative facet areas clearly distinguish meat-eaters from mixed-diet hunter-gatherers, while ORI results and wear facet inclinations (dip angle) seem to reflect directly the abrasiveness of the diet, including the influence of exogenous materials during food preparation. The Neanderthal occlusal wear pattern is characterized by an ecogeographic variation, suggesting the exploitation of different food resources. In particular Neanderthals who inhabited relatively warm environments of southern Europe and the Near East exhibit an occlusal wear pattern different from those of meat-eaters hunter-gatherers from tempered and cooler regions, displaying some features similar to those of Bushmen. These results suggest the exploitation of a broad variety of food sources. The analysis of the occlusal wear pattern in Neanderthals and early Homo sapiens who inhabited Europe during the cooler Oxygen Isotope Stage 3 (OIS3) shows many similarities between the two hominid species. These results indicate the exploitation of similar and low-diversified food sources, based mostly on the consumption of animal proteins, as suggested through the clear similarities with the wear patterns found in modern meat-eaters hunter-gatherers. In both studied groups, Neanderthals and early Homo sapiens the occlusal wear pattern is characterized by high ORI and dip angle values, suggesting the intake of a low-abrasive diet, probably due to the absence of sophisticated food preparation techniques introducing external silica grains, e.g. from soil (grinding of seeds) or plant cells, as those, seen in modern hunter-gatherer populations. The analysis of the occlusal fingerprints in Neanderthal and early European Homo sapiens upper molars suggests that both species followed very similar adaptive dietary strategies, based on a distinctive versatility and flexibility in the daily diet, depending on availability of resources according to environmental circumstances.
Occurrence and sources of 2,4,7,9-tetramethyl-5-decyne-4,7-diol (TMDD) in the aquatic environment
(2011)
The aim of the present study was to identify the sources of 2,4,7,9-tetramethyl-5-decyne-4,7-diol (TMDD) into the aquatic environment and to investigate its occurrence in rivers and wastewater treatment plants (WWTPs). Therefore, TMDD was analyzed in 441 wastewater samples from influents and effluents of 27 municipal WWTPs, in 6 sludge samples, in 52 wastewater samples from 3 sewage systems of municipal WWTPs, in 489 surface samples from 24 rivers, in 9 wastewater samples of 3 paper-recycling industries and in 65 groundwater samples. TMDD was also analyzed in household paper products, in 23 samples of toilet
papers, in 5 types of paper towels and in 12 types of paper tissues. The samples were collected between 2007 and 2011. The water samples were extracted with solid phase extraction (SPE) and the household paper samples with Soxhlet extraction. Gas chromatography-mass spectrometry (GC-MS) was used for quantification purposes. Between November 2007 and January 2008, TMDD was detected in the river Rhine at Worms with permanent high concentrations (up to 1330 ng/L). The results showed that TMDD is uniformly distributed across the river at Worms. An increase of the mean TMDD concentration from approximately 500 ng/L to 1000 ng/L was registered in January 2008. Due to the minor fluctuations of the TMDD concentration during the sampling period it is expected that the input of TMDD into the river is continuous. Therefore, TMDD might rather originate from effluents of municipal WWTPs than from temporal sources. The mean TMDD load based on the analysis of 147 water samples collected in the River Rhine was 62.8 kg/d which is equivalent to 23 t/a suggesting that TMDD must be used and/or produced in high quantities in order to be found in those high concentrations. To determine if TMDD is discharged by effluents of municipal WWTPs into the rivers, 24 hours influent and effluent samples of four municipal WWTPs in the Frankfurt/Rhine-Main metropolitan region were collected during November 2008 and February 2010 and analyzed for TMDD. The TMDD influent concentrations varied between 134 ng/L and 5846 ng/L and the effluent concentrations between <LOQ (limit of quantitation) and 3539 ng/L. The TMDD elimination rates in the four WWTPs varied between 33% and 68%. The results showed that effluents of municipal WWTPs are an important source of TMDD in the aquatic environment because TMDD is not completely removed from the sewage during the wastewater treatment. Weekly and daily variations of the TMDD concentration in the influents of two municipal WWTPs indicated that both private households and indirect industrial dischargers contribute to the introduction of TMDD into the municipal sewage systems. A more detailed study of the TMDD elimination rate in the different wastewater treatment stages was carried out in the WWTP Niederrad/Griesheim in Frankfurt am Main. The results showed that the removal of TMDD is mainly carried out during the aerobic biological treatments, where the elimination rate was 46%. In contrast, during the anoxic treatment the removal efficiency was only 1.4% and during the mechanical treatment the elimination rate was 19%. To determine the sources of TMDD in the sewage, household paper products (paper tissues, toilet papers and paper towels) were analyzed for TMDD using Soxhlet extraction. TMDD was detected in 83% of the samples (n=40). The highest mean TMDD concentrations were found in recycled toilet paper (0.20 μg/g) and in paper towels (0.11 μg/g). In paper tissues and non-recycled toilet paper the mean TMDD concentrations were lower 0.080 μg/g and 0.025 μg/g respectively. According to these results the high TMDD influent concentrations found previously in municipal WWTPs (mean 1.20 μg/L) cannot be explained due to migration of TMDD from the household paper products into the sewage. Thus indirect industrial dischargers are the cause of the high influent TMDD concentrations. Effluents of municipal WWTPs with different indirect industrial dischargers (textile-, metal processing-, food processing-, electroplating-, paper-recycling- and printing ink factories) were analyzed. The highest mean TMDD concentrations were found in the effluents of municipal WWTPs that have paper-recycling (71.3 μg/L) and printing ink factories (138 μg/L) as indirect industrial dischargers. These results were confirmed by analyzing process wastewater of three paper-recycling factories located in Germany. High TMDD concentrations were detected and fluctuated between 1.83 μg/L and 113 μg/L. TMDD was also analyzed in the wastewater of a non-recycling-paper factory but its concentration was much lower (0.066 μg/L) indicating that TMDD is introduced into the processing water during the papermaking process due to the use of waste paper. Analyses of wastewater samples from different parts of the sewage pipes of a municipal WWTP in Hesse, which receives the wastewater from a printing ink factory, were carried out. The TMDD concentration in the wastewater sample from the sewage pipe of the printing ink factory was much higher (3,300 μg/L) than the TMDD concentration detected in the other wastewater samples from the sewage system (0.030 μg/L – 0.89 g/L). These results confirm the printing ink production as one of the principal sources of TMDD in the sewage. Analysis of surface water samples of the River Modau downstream from the effluent of the WWTP Nieder-Ramstadt showed TMDD concentrations of up to 28.0 μg/L. These high TMDD concentrations might be caused by the indirect wastewater discharges of a paint factory connected to the municipal sewage system. These results indicate that TMDD is introduced into the municipal WWTPs principally by indirect industrial dischargers and they are mainly paint and printing ink factories. The paper-recycling factories also represent an important source of TMDD in municipal WWTPs but indirectly. According to statements given by the representatives of two paper recycling factories neither TMDD or any other TMDD containing product is used or added during the papermaking process. Therefore, TMDD is washed out from the printing inks of the coloured waste paper and concentrated in the process wastewater in the closed water circuits of paper-recycling factories reaching rivers and municipal WWTPs. The occurrence and distribution of TMDD in surface waters in Germany was also studied. The results showed that TMDD is widely distributed across different rivers systems in the federal states of Hesse, North-Rhine-Westphalia, Bavaria, Baden-Wuerttemberg and Rhineland-Palatinate. In Hesse, TMDD was detected in the some of main rivers with mean concentrations of 812 ng/L (Schwarzbach, Hessian Ried), 374 ng/L (Kinzig), 393 ng/L (Main, at Frankfurt), 539 ng/L (Werra), 326 ng/L (Fulda), 151 ng/L (Emsbach) and 161 ng/L (Nidda). In small rivers (creeks) the mean TMDD concentrations varied between <LOQ (Diemel, Urselbach) and 1890 ng/L (Darmbach). The results showed that the TMDD concentrations in creeks are highly influenced by both effluents of WWTPs and by the distance between the sampling point and the nearest WWTP. Surface samples from sampling locations downstream from WWTPs dischargers showed higher TMDD concentrations (mean 518 ng/L) than sampling locations upstream from WWTPs dischargers (mean 35.1 ng/L). The behavior of TMDD during bank filtration was investigated at two locations, at a water utility company at the Lower River Rhine (urban area) and at the Oderbruch polder (rural area). The results indicated that TMDD is removed from the surface water by bank filtration at both sampling locations. The removal process is probably carried out in the first meters of the aquifer (hyporheic zone) by biodegradation processes, since TMDD does not tend to be absorbed by sediments and it was not found in the groundwater of monitoring wells. In groundwater samples from the Hessian Ried (n=23) TMDD was found only in five samples and the highest TMDD concentration was 135 ng/L. According to these results, TMDD does not represent a concern for drinking water in Germany, since it does not reach the groundwater with high concentrations and it has a low toxicity potential. The input of TMDD into the North Sea was estimated to be 60.7 t/a by considering the mean transported loads of TMDD by the River Rhine at Wesel (58.3 t/a) and Meuse in the Netherlands (2.40 t/a). The estimated discharge of TMDD by German municipal WWTPs (8.19 t/a) and paper-recycling factories (9.24 t/a) into rivers seems to be too low considering that the mean TMDD load in the River Rhine downstream from Wesel is 58.3 t/a. However, due to the high density of population and industries at the Lower Rhine it is expected that more relevant sources of TMDD are located along the Rhine River increasing the transported load. According to the results of this PhD project TMDD is a non-ionic surfactant contained in products, which are applied on surfaces (printing inks and paints) and has the potential to reach the aquatic environment. Therefore, TMDD should fulfill the requirement of a biodegradability of 80% established by the “Law on the Environmental Impact of Detergents and Cleaning Products” in Germany. However, due to the partial elimination rates of TMDD obtained in municipal WWTPs (between 33% and 68%) and to the absence of information about the execution of the biodegradation test on TMDD, it is unknown if TMDD is in accordance with this law. Otherwise, its use as surfactant in such products is questionable.
The objective of the present doctoral thesis was to investigate the occurrence, distribution, and behaviour of six hydrophilic ethers: ethyl tert-butyl ether (ETBE), 1,4-dioxane, ethylene glycol dimethyl ether (monoglyme), diethylene glycol dimethyl ether (diglyme), triethylene glycol dimethyl ether (triglyme), and tetraethylene glycol dimethyl ether (tetraglyme) in surface-, waste-, ground- and drinking water samples. Solid phase extraction and gas chromatography/mass spectrometry were used to analyze the six hydrophilic ethers. Altogether more than 150 surface water samples, almost 100 of each groundwater and wastewater samples, and 10 raw and drinking water samples were analyzed during the research project.
Initially, the method was validated in order to simultaneously determine the analytes of interest in various aquatic environments. A solid phase extraction method that uses coconut charcoal (Resprep® activated coconut charcoal, Restek) or carbon molecular sieve material (SupelcleanTM Envi-CarbTM Plus, Supelco) for analyte absorption were found suitable for determination of ETBE, 1,4-dioxane, and glymes in surface-, drinking-, ground- and wastewater samples. Precision and accuracy of both methods was demonstrated for all analytes of interest. The recovery of target compounds from the ultrapure water spiked at 1.0 µg L−1 was between 86.8 % and 98.2 %, with relative standard deviation below 6 %. The samples spiked at 10.0 µg L−1 gave slightly higher recovery of 90.6 % to 112.2 % with a relative standard deviation below 3.4 % for each analyte. Detection and quantification limits in ultrapure water and surface waters were furthermore established. The limit of quantitation (LOQ) in ultrapure water ranged between 0.024 µg L−1 to 0.057 µg L−1 using Restek cartridges, and 0.030 µg L−1 to 0.069 µg L−1 using Supelco cartridges. In the surface water samples the calculated LOQ was 0.032 µg L−1 to 0.067µg L−1 using coconut charcoal material and 0.032 µg L−1 to 0.052 µg L−1 using the carbon molecular sieve material. Moreover, stability of the unpreserved and preserved water samples as well as the extracts was determined. Preservation of samples with sodium bisulfate (at 1 gram per Liter) resulted in much better stability of the ethers in water samples. Subsequently, 27 samples obtained from seven surface water bodies in Germany (Rivers Rhine, Lippe, Main, Oder, Rur, Schwarzbach and Wesel-Datteln Canal) were analyzed for the six hydrophilic ethers. ETBE was present in only two surface waters (Rhine River and Wesel-Datteln Canal) with concentrations close to the LOQ (up to 0.065 µg L−1). 1,4-Dioxane was detected in all of the water samples at concentrations reaching 1.93 µg L–1. Monoglyme was identified only in the Main and Rhine Rivers at the maximum concentration of 0.114 µg L–1 and 0.427 µg L–1, respectively. Very high concentrations (up to 1.73 µg L−1) of diglyme, triglyme, and tetraglyme were detected in the samples from the Oder River. These glymes were also detected in the Rhine River; however the concentrations did not exceed 0.200 µg L–1. Furthermore, tetraglyme was detected in the Main River at an average concentration of 0.409 µg L–1 (n = 6) and in one sample from the Rur River at 0.192 µg L–1.
Four sampling campaigns were conducted at the Oderbruch polder between October 2009 and May 2012, in order to study the behavior of the hydrophilic ethers and organophosphates during riverbank filtration and in the anoxic aquifer. Moreover the suitability of these target compounds was assessed for their use as groundwater organic tracers. At the time of each sampling campaign, concentrations of triglyme and tetraglyme in the Oder River were between 20–185 ng L–1 (n = 4) and 273¬–1576 ng L–1 (n = 4). Monoglyme, diglyme, and 1,4-dioxane were analyzed only during the two last sampling campaigns. At that time, the concentration of diglyme in Oder River was 65¬–94 ng L-1 (n = 2) and 1,4-dioxane 1610¬–3290 ng L–1 (n = 2). In the drainage ditch, following bank filtration, concentrations of ethers ranged between 1090 ng L–1 and 1467 ng L–1 for 1,4-dioxane, 23¬ng L–1 and 41 ng L–1 for diglyme, 37 ng L–1 and 149 ng L–1 for triglyme, and 496 ng L–1 and 1403 ng L–1 for tetraglyme. In the anoxic aquifer, 1,4-dioxane showed the greatest persistence during the groundwater passage. At the distance of 1150 m from the river and an estimated groundwater age of 41.9 years, a concentration above 200 ng L−1 was detected. A positive correlation was found for the inorganic tracer chloride (Cl−) with 1,4-dioxane and tetraglyme. Similarities in the behavior of Cl− and the organic compound suggested that 1,4-dioxane and tetraglyme are controlled by the same hydraulic process and therefore can be used as additional tracers to study the dynamics of the groundwater system. These results show that high concentrations of ethers are present in the surface water and are not removed during bank filtration processes. Moreover, the hydrophilic ethers persist in the anoxic aquifer and little or no degradation is expected, supporting, their possible application as organic tracers.
A separate sampling project was conducted for 1,4-dioxane that focused primarily on its fate in the aquatic environment. This study provided missing information on the extent of water pollution with 1,4-dioxane is Germany. Numerous waste-, surface-, ground- and drinking water samples were collected in order to determine the persistence of 1,4-dioxane in the aquatic environment. The occurrence of 1,4-dioxane was determined in wastewater samples from four municipal sewage treatment plants (STP). The influent and effluent samples were collected during weekly campaigns. The average influent concentrations in all four plants ranged from 262 ± 32 ng L−1 to 834 ± 480 ng L−1, whereas the average effluents concentrations were between 267 ± 35 ng L−1 and 62,260 ± 36,000 ng L−1. The source of increased 1,4-dioxane concentrations in one of the effluents was identified to originate from impurities in the methanol used in the postanoxic denitrification process. Spatial and temporal distribution of 1,4-dioxane in the river Main, Rhine, and Oder was also examined. Concentrations reaching 2,200 ng L−1 in the Oder River, and 860 ng L−1 in both Main and Rhine River were detected. The average load during the sampling was estimated to be 6.5 kg d−1 in the Main, 34.1 kg d−1 in the Oder, and 134.5 kg d−1 in the Rhine River. In all of the sampled rivers, concentrations of 1,4-dioxane increased with distance from the mouth of the river and were found to negatively correlate with the discharge of the river. In order to determine if 1,4-dioxane can reach drinking water supplies, samples from a Rhine River bank filtration site and potable water from two drinking water production facilities were analyzed for the presence of 1,4-dioxane in the raw water and finished potable water. The raw water (following bank filtration) contained 650 ng L−1 to 670 ng L−1 of 1,4-dioxane, whereas the concentration in the finished drinking water fell only to 600 ng L−1 and 490 ng L−1, respectively.
During the final project, investigations of the source identification of high glyme concentrations in the Oder River were carried out. During four sampling campaigns between January, 2012 and April, 2013, 50 samples from the Oder River in the Oderbruch region and Poland were collected. During the first two samplings in the Oderbruch polder, glymes were detected at concentration reaching 0.07 µg L-1 (diglyme), 0.54 µg L−1 (triglyme) and 1.73 µg L−1 (tetraglyme) in the Oder River. The extensive sampling campaign of the Oder River (about 500 km) in Poland helped to identify the area of possible glyme entry into the river. During that sampling the maximum concentrations of triglyme and tetraglyme were 0.46 µg L−1 and 2.21 µg L−1, respectively. A closer investigation of the identified area of pollution, helped to determine the possible sources of glymes in the Oder River. Hence, the final sampling focused on the Kaczawa River, a left tributary of the Oder River and Czarna Woda, a left tributary of Kaczawa River. Moreover, samples from an industrial wastewater treatment plant were collected. Samples from Czarna Woda stream and Kaczawa River contained even higher concentrations of diglyme, triglyme, and tetraglyme, reaching 5.18 µg L−1, 12.87 µg L−1 and 80.81 µg L−1, respectively. Finally, three water samples from a wastewater treatment plant receiving influents from a copper smelter were analyzed. Diglyme, triglyme, and tetraglyme were present at an average concentration of 569 µg L−1, 4300 µg L−1, and 65900 µg L−1, respectively in the wastewater. Further research helped to identify the source of the glymes in the wastewater. The gas desulfurization process – Solinox implemented in the nearby copper smelter uses glymes as physical absorption medium for sulfur dioxide.
Results of this doctoral research provide important information about the occurrence, distribution, and behavior of hydrophilic ethers: 1,4-dioxane, monoglyme, diglyme, triglyme, and tetraglyme in the aquatic environment. A method capable of analyzing a wide range of ether compounds: from a volatile ETBE to a high molecular weight tetraglyme was validated. 1,4-Dioxane and tetraglyme were found to be applicable as organic tracers, since they are not easily attenuated during bank filtration and the anoxic groundwater passage. The extent of water pollution with 1,4-dioxane was shown in waste-, surface-, ground-, and drinking waters. One source of extremely high concentrations of 1,4-dioxane in a municipal sewage treatment plant applying postanoxic denitrification was identified, however more information is needed on the entry of 1,4-dioxane into surface waters. Moreover, 1,4-dioxane was present in drinking water samples from river bank filtration, which demonstrates its persistence in the aquatic environment and its low degradation potential during bank filtration and subsequent water treatment. Furthermore, this was the first study that focused primarily on identifying sources of glymes in surface waters. Glymes find a widespread use in industrial sectors, hence establishing their origin in the surface water is difficult (as with 1,4-dioxane). In this work, a gas desulphurization process was identified to be a dominating source of glyme pollution in the Oder River.
Die vorliegende Monografie setzt sich mit der Bedeutung und der Verwendung der Farbe Ocker in einem Längsschnitt durch die Kunst- und Kulturgeschichte der Menschheit auseinander. Auf Grundlage von archäologischen Funden, kulturgeschichtlichen Forschungen und kunstwissenschaftlichen Erkenntnissen ist das Hauptanliegen dieser Arbeit, die Funktion und Bedeutung der Verwendung des Ockers als Farbe und Substanz zu erörtern. Die Arbeit wird ergänzt durch einen Katalog von Funden und Beispielen. Nach der ersten Einarbeitung in die Literatur zum Thema Ocker stellte sich heraus, daß Ocker über die Verwendung als gut verfügbares Farbmaterial hinaus, weitreichendere Bedeutung hat. Die Farbe Ocker, eine der frühesten Farben der Menschheitsgeschichte, fand schon zu kultischen Zwecken in prähistorischer Zeit Verwendung und weist ein großes Spektrum an historischer Verwendungs- und Bedeutungsvielfalt auf. Diese Untersuchung geht von der Hypothese aus, daß Ocker über einen Zeitraum von mehr als 60000 Jahren bis ins 20. Jahrhundert und in die Gegenwart in kultischen Handlungen und künstlerischen Äußerungen des Menschen in einem semantischen Feld zwischen Malfarbstoff und einem mythischreligiösen Bezugsrahmen als Symbol oder Zeichen Verwendung findet.
Oder - ist er doch frei?
(2005)
Die Arbeit beschäftigt sich mit der interdisziplinären Kontroverse um die Willensfreiheit. Es wird aufgezeigt, dass, unter Einbezug der heutigen naturwissenschaftlichen Erkenntnisse und deren Grenzen, es immer noch möglich ist, eine Willensfreiheit mit der damit verbundenen Verantwortung in der starken Begriffsform von Kant im Sinne eines Kausalneuanfangs anzunehmen. Die Hinführung zu einer positiv bejahten Willensfreiheit erfolgt entsprechend der Beweisführung Kants. Es werden neuro- und naturwissenschaftliche Erkenntnisgrenzen und Widersprüche (inhaltlicher und methodischer Art) aufgezeigt, und es wird so ein „Spielraum“ für eine theoretisch denkbare Willensfreiheit eröffnet. Dieser theoretisch denkbare Raum wird mit Hilfe empirischer Studien mit der aus der Praxis erforderlichen Annahme einer praktischen Willensfreiheit ausgefüllt. Neurowissenschaftliche, genetische und sozialwissenschaftliche Studien zeigen hierbei auf, dass das Gehirn wegen seiner Plastizität nur ein Glied in einer Kausalkette ist und deswegen zu keiner Falsifikation einer Hypothese von einem Kausalanfang, das heißt der Willensfreiheit, dienen kann. Die praktische Umsetzung der Willensfreiheit wird einerseits durch die Zuhilfenahme des Informationsbegriffes, der neurowissenschaftliche und philosophische Kategorien umfassen kann, und andererseits durch das Konzept eines emotionalen Gleichgewichtes zugelassen. Letzteres stellt den Zustand im Menschen dar, der als informationelles Patt einen nicht vorhersagbaren Kausalneuanfang ermöglicht. Dieser ist in jedem Menschen als Freiheitspotential angelegt, mit dem allerdings in einer aktiven Weise gearbeitet werden muss, damit Freiheit zur Geltung kommen kann. Letzteres ist von Bedeutung hinsichtlich kultureller Veränderungen, technischer Innovationen, Therapien, Motivationen, Identifikationen und vieler anderer menschlicher Potentiale.
Within the last twenty years, the contraction method has turned out to be a fruitful approach to distributional convergence of sequences of random variables which obey additive recurrences. It was mainly invented for applications in the real-valued framework; however, in recent years, more complex state spaces such as Hilbert spaces have been under consideration. Based upon the family of Zolotarev metrics which were introduced in the late seventies, we develop the method in the context of Banach spaces and work it out in detail in the case of continuous resp. cadlag functions on the unit interval. We formulate sufficient conditions for both the sequence under consideration and its possible limit which satisfies a stochastic fixed-point equation, that allow to deduce functional limit theorems in applications. As a first application we present a new and considerably short proof of the classical invariance principle due to Donsker. It is based on a recursive decomposition. Moreover, we apply the method in the analysis of the complexity of partial match queries in two-dimensional search trees such as quadtrees and 2-d trees. These important data structures have been under heavy investigation since their invention in the seventies. Our results give answers to problems that have been left open in the pioneering work of Flajolet et al. in the eighties and nineties. We expect that the functional contraction method will significantly contribute to solutions for similar problems involving additive recursions in the following years.
The behaviour of electronic circuits is influenced by ageing effects. Modelling the behaviour of circuits is a standard approach for the design of faster, smaller, more reliable and more robust systems. In this thesis, we propose a formalization of robustness that is derived from a failure model, which is based purely on the behavioural specification of a system. For a given specification, simulation can reveal if a system does not comply with a specification, and thus provide a failure model. Ageing usually works against the specified properties, and ageing models can be incorporated to quantify the impact on specification violations, failures and robustness. We study ageing effects in the context of analogue circuits. Here, models must factor in infinitely many circuit states. Ageing effects have a cause and an impact that require models. On both these ends, the circuit state is highly relevant, an must be factored in. For example, static empirical models for ageing effects are not valid in many cases, because the assumed operating states do not agree with the circuit simulation results. This thesis identifies essential properties of ageing effects and we argue that they need to be taken into account for modelling the interrelation of cause and impact. These properties include frequency dependence, monotonicity, memory and relaxation mechanisms as well as control by arbitrary shaped stress levels. Starting from decay processes, we define a class of ageing models that fits these requirements well while remaining arithmetically accessible by means of a simple structure.
Modeling ageing effects in semiconductor circuits becomes more relevant with higher integration and smaller structure sizes. With respect to miniaturization, digital systems are ahead of analogue systems, and similarly ageing models predominantly focus on digital applications. In the digital domain, the signal levels are either on or off or switching in between. Given an ageing model as a physical effect bound to signal levels, ageing models for components and whole systems can be inferred by means of average operation modes and cycle counts. Functional and faithful ageing effect models for analogue components often require a more fine-grained characterization for physical processes. Here, signal levels can take arbitrary values, to begin with. Such fine-grained, physically inspired ageing models do not scale for larger applications and are hard to simulate in reasonable time. To close the gap between physical processes and system level ageing simulation, we propose a data based modelling strategy, according to which measurement data is turned into ageing models for analogue applications. Ageing data is a set of pairs of stress patterns and the corresponding parameter deviations. Assuming additional properties, such as monotonicity or frequency independence, learning algorithm can find a complete model that is consistent with the data set. These ageing effect models decompose into a controlling stress level, an ageing process, and a parameter that depends on the state of this process. Using this representation, we are able to embed a wide range of ageing effects into behavioural models for circuit components. Based on the developed modelling techniques, we introduce a novel model for the BTI effect, an ageing effect that permits relaxation. In the following, a transistor level ageing model for BTI that targets analogue circuits is proposed. Similarly, we demonstrate how ageing data from analogue transistor level circuit models lift to purely behavioural block models. With this, we are the first to present a data based hierarchical ageing modeling scheme. An ageing simulator for circuits or system level models computes long term transients, solutions of a differential equation. Long term transients are often close to quasi-periodic, in some sense repetitive. If the evaluation of ageing models under quasi-periodic conditions can be done efficiently, long term simulation becomes practical. We describe an adaptive two-time simulation algorithm that basically skips periods during simulation, advancing faster on a second time axis. The bottleneck of two-time simulation is the extrapolation through skipped frames. This involves both the evaluation of the ageing models and the consistency of the boundary conditions. We propose a simulator that computes long term transients exploiting the structure of the proposed ageing models. These models permit extrapolation of the ageing state by means of a locally equivalent stress, a sort of average stress level. This level can be computed efficiently and also gives rise to a dynamic step control mechanism. Ageing simulation has a wide range of applications. This thesis vastly improves the applicability of ageing simulation for analogue circuits in terms of modelling and efficiency. An ageing effect model that is a part of a circuit component model accounts for parametric drift that is directly related to the operation mode. For example asymmetric load on a comparator or power-stage may lead to offset drift, which is not an empiric effect. Monitor circuits can report such effects during operation, when they become significant. Simulating the behaviour of these monitors is important during their development. Ageing effects can be compensated using redundant parts, and annealing can revert broken components to functional. We show that such mechanisms can be simulated in place using our models and algorithms. The aim of automatized circuit synthesis is to create a circuit that implements a specification for a certain use case. Ageing simulation can identify candidates that are more reliable. Efficient ageing simulation allows to factor in various operation modes and helps refining the selection. Using long term ageing simulation, we have analysed the fitness of a set of synthesized operational amplifiers with similar properties concerning various use cases. This procedure enables the selection of the most ageing resilient implementation automatically.
Matroids are combinatorial objects that generalize linear independence. A matroid can be represented geometrically by its Bergman fan and we compare the symmetries of these two objects. Sometimes, the Bergman fan has additional automorphisms, which are related to Cremona transformations in projective space. Their existence depends on a combinatorial property of the matroid, as has been shown by Shaw and Werner, and we study the consequences for the structure of such matroids. This allows us to gain a better understanding of the so-called Cremona group of a matroid and we apply our results to root system matroids.
A lot of software systems today need to make real-time decisions to optimize an objective of interest. This could be maximizing the click-through rate of an ad displayed on a web page or profit for an online trading software. The performance of these systems is crucial for the parties involved. Although great progress has been made over the years in understanding such online systems and devising efficient algorithms, a fine-grained analysis and problem specific solutions are often missing. This dissertation focuses on two such specific problems: bandit learning and pricing in gross-substitutes markets.
Bandit learning problems are a prominent class of sequential learning problems with several real-world applications. The classical algorithms proposed for these problems, although optimal in a theoretical sense often tend to overlook model-specific proper- ties. With this as our motivation, we explore several sequential learning models and give efficient algorithms for them. Our approaches, inspired by several classical works, incorporate the model-specific properties to derive better performance bounds.
The second part of the thesis investigates an important class of price update strategies in static markets. Specifically, we investigate the effectiveness of these strategies in terms of the total revenue generated by the sellers and the convergence of the resulting dynamics to market equilibrium. We further extend this study to a class of dynamic markets. Interestingly, in contrast to most prior works on this topic, we demonstrate that these price update dynamics may be interpreted as resulting from revenue optimizing actions of the sellers. No such interpretation was known previously. As a part of this investigation, we also study some specialized forms of no-regret dynamics and prediction techniques for supply estimation. These approaches based on learning algorithms are shown to be particularly effective in dynamic markets.
We provide a mathematical framework to model continuous time trading in limit order markets of a small investor whose transactions have no impact on order book dynamics. The investor can continuously place market and limit orders. A market order is executed immediately at the best currently available price, whereas a limit order is stored until it is executed at its limit price or canceled. The limit orders can be chosen from a continuum of limit prices.
In this framework we show how elementary strategies (hold limit orders with only finitely many different limit prices and rebalance at most finitely often) can be extended in a suitable
way to general continuous time strategies containing orders with infinitely many different limit prices. The general limit buy order strategies are predictable processes with values in the set of nonincreasing demand functions (not necessarily left- or right-continuous in the price variable). It turns out that this family of strategies is closed and any element can be approximated by a sequence of elementary strategies.
Furthermore, we study Merton’s portfolio optimization problem in a specific instance of this framework. Assuming that the risky asset evolves according to a geometric Brownian
motion, a proportional bid-ask spread, and Poisson execution times for the limit orders of the small investor, we show that the optimal strategy consists in using market orders to keep the
proportion of wealth invested in the risky asset within certain boundaries, similar to the result for proportional transaction costs, while within these boundaries limit orders are used to profit from the bid-ask spread.
On development, feasibility, and limits of highly efficient CPU and GPU programs in several fields
(2013)
With processor clock speeds having stagnated, parallel computing architectures have achieved a breakthrough in recent years. Emerging many-core processors like graphics cards run hundreds of threads in parallel and vector instructions are experiencing a revival. Parallel processors with many independent but simple arithmetical logical units fail executing serial tasks efficiently. However, their sheer parallel processing power makes them predestined for parallel applications while the simple construction of their cores makes them unbeatably power efficient. Unfortunately, old programs cannot profit by simple recompilation. Adaptation often requires rethinking and modifying algorithms to make use of parallel execution. Many applications have some serial subroutines which are very hard to parallelize, hence contemporary compute clusters are often homogeneous, offering fast processors for serial tasks and parallel processors for parallel tasks. In order not to waste the available compute power, highly efficient programs are mandatory.
This thesis is about the development of fast algorithms and their implementations on modern CPUs and GPUs, about the maximum achievable efficiency with respect to peak performance and to power consumption respectively, and about feasibility and limits of programs for CPUs, GPUs, and heterogeneous systems. Three totally different applications from distinct fields, which were developed in the extent of this thesis, are presented.
The ALICE experiment at the LHC particle collider at CERN studies heavy-ion collisions at high rates of several hundred Hz, while every collision produces thousands of particles, whose trajectories must be reconstructed. For this purpose, ALICE track reconstruction and ALICE track merging have been adapted for GPUs and deployed on 64 GPU-enabled compute-nodes at CERN.
After a testing phase, the tracker ran in nonstop operation during 2012 providing full real-time track reconstruction. The tracker employs a multithreaded pipeline as well as asynchronous data transfer to ensure continuous GPU utilization and outperforms the fastest available CPUs by about a factor three.
The Linpack benchmark is the standard tool for ranking compute clusters. It solves a dense system of linear equations using primarily matrix multiplication facilitated by a routine called DGEMM. A heterogeneous GPU-enabled version of DGEMM and Linpack has been developed, which can utilize the CAL, CUDA, and OpenCL APIs as backend. Employing this implementation, the LOEWE-CSC cluster ranked place 22 in the November 2010 Top500 list of the fastest supercomputers, and the Sanam cluster achieved the second place in the November 2012 Green500 list of the most power efficient supercomputers. An elaborate lookahead algorithm, a pipeline, and asynchronous data transfer hide the serial CPU-bound tasks of Linpack behind DGEMM execution on the GPU reaching the highest efficiency on GPU-accelerated clusters.
Failure erasure codes enable failure tolerant storage of data and real-time failover, ensuring that in case of a hardware defect servers and even complete data centers remain operational. It is an absolute necessity for present-day computer infrastructure. The mathematical theory behind the codes involves matrix-computations in finite fields, which are not natively supported by modern processors and hence computationally very expensive. This thesis presents a novel scheme for fast encoding matrix generation and demonstrates a fast implementation for the encoding itself, which uses exclusively either integer or logical vector instructions. Depending on the scenario, it is always hitting different hard limits of the hardware: either the maximum attainable memory bandwidth, or the peak instruction throughput, or the PCI Express bandwidth limit when GPUs or FPGAs are used.
The thesis demonstrates that in most cases with respect to the available peak performance, GPU implementations can be as efficient as their CPU counterparts.
With respect to costs or power consumption, they are much more efficient. For this purpose, complex tasks must be split in serial as well as parallel parts and the execution must be pipelined such that the CPU bound tasks are hidden behind GPU execution. Few cases are identified where this is not possible due to PCI Express limitations or not reasonable because practical GPU languages are missing.
Within the last thirty years, the contraction method has become an important tool for the distributional analysis of random recursive structures. While it was mainly developed to show weak convergence, the contraction approach can additionally be used to obtain bounds on the rate of convergence in an appropriate metric. Based on ideas of the contraction method, we develop a general framework to bound rates of convergence for sequences of random variables as they mainly arise in the analysis of random trees and divide-and-conquer algorithms. The rates of convergence are bounded in the Zolotarev distances. In essence, we present three different versions of convergence theorems: a general version, an improved version for normal limit laws (providing significantly better bounds in some examples with normal limits) and a third version with a relaxed independence condition. Moreover, concrete applications are given which include parameters of random trees, quantities of stochastic geometry as well as complexity measures of recursive algorithms under either a random input or some randomization within the algorithm.
Different numerical approaches and algorithms arising in the context of modelling of cellular tissue evolution are discussed in this thesis. Being suited in particular to off-lattice agent-based models, the numerical tool of three-dimensional weighted kinetic and dynamic Delaunay triangulations is introduced and discussed for its applicability to adjacency detection. As there exists no implementation of a code that incorporates all necessary features for tissue modelling, algorithms for incremental insertion or deletion of points in Delaunay triangulations and the restoration of the Delaunay property for triangulations of moving point sets are introduced. In addition, the numerical solution of reaction-diffusion equations and their connection to agent-based cell tissue simulations is discussed. In order to demonstrate the applicability of the numerical algorithms, biological problems are studied for different model systems: For multicellular tumour spheroids, the weighted Delaunay triangulation provides a great advantage for adjacency detection, but due to the large cell numbers the model used for the cell-cell interaction has to be simplified to allow for a numerical solution. The agent-based model reproduces macroscopic experimental signatures, but some parameters cannot be fixed with the data available. A much simpler, but in key properties analogous, continuum model based on reaction-diffusion equations is likewise capable of reproducing the experimental data. Both modelling approaches make differing predictions on non-quantified experimental signatures. In the case of the epidermis, a smaller system is considered which enables a more complete treatment of the equations of motion. In particular, a control mechanism of cell proliferation is analysed. Simple assumptions suffice to explain the flow equilibrium observed in the epidermis. In addition, the effect of adhesion on the survival chances of cancerous cells is studied. For some regions in parameter space, stochastic effects may completely alter the outcome. The findings stress the need of establishing a defined experimental model to fix the unknown model parameters and to rule out further models.
Random constraint satisfaction problems have been on the agenda of various sciences such as discrete mathematics, computer science, statistical physics and a whole series of additional areas of application since the 1990s at least. The objective is to find a state of a system, for instance an assignment of a set of variables, satisfying a bunch of constraints. To understand the computational hardness as well as the underlying random discrete structures of these problems analytically and to develop efficient algorithms that find optimal solutions has triggered a huge amount of work on random constraint satisfaction problems up to this day. Referring to this context in this thesis we present three results for two random constraint satisfaction problems. ...
This thesis investigated the acquisition of restrictive and appositive interpretations of relative clauses in German-speaking children between the age of 3 and 6 in three experiments.
The theoretical background shows that restrictive relative clauses are semantically less complex than appositive ones. This assumption is supported by observations from a typological overview on the semantic functions attested across languages. It is shown that the existence of appositive relative clauses implies the availability of restrictive readings in a given language. Furthermore, restrictive readings may be favored due to the functioning of general processing principles. Previous research on the acquisition of relative clauses demonstrates that the acquisition of the semantic functions of relative clauses is an understudied area. In contrast, the acquisition of syntactic aspects of relative clauses is well documented. Relative clauses start to be produced in the third year of life and can be interpreted target-like between the age of 4 and 8 depending on their structure. Which semantic interpretation children assign to relative clauses at this age, however, is still an open question.
Based on the formal background and insights from previous studies, three experiments were designed: two picture selection tasks and one acceptability task. The crucial aspect of the experimental design constitutes the interaction of an ordinal number word and the interpretation of the relative clause in sentences like “Take the third car(,) that/which is red”. The scope of the ordinal number reveals whether the relative clause had been attached restrictively at the NP-level or whether it had been attached higher up at the DP shell resulting in an appositive interpretation.
The results of the experiments demonstrate that 4- to 6-year-old German-speaking children and adults prefer restrictive readings over appositive ones. This preference is found within the group data and is mirrored by the results of an individual analysis. In addition, while the majority of children has acquired restrictive readings at the age of 4, appositive interpretations are mastered only by about half of the children between age 4 and 6. Interestingly, 3-year-old children show a different pattern than their older peers. Appositive but not restrictive interpretations seem to be available to these children. Although the results may be taken as evidence that appositivity is acquired before restrictivity in relative clauses by German-speaking children, I propose the contrary. Based on assumptions about the complexity of restrictive and appositive derivations, I argue that the appositive interpretations observed at the age of 3 do not result from a target-like syntactic and semantic representation. I propose that 3-year-old children do not yet identify relative clauses as nominal modifiers. Instead, they are derived from an incorrect attachment of the relative clause higher up in the syntactic tree.
The results of the three experiments are the first to show that neither a prototypical unintegrated prosodic contour nor the presence of a lexical marker, the discourse particle “ja”, or a visual context biasing for appositivity led to an increase of appositive interpretations in the children’s groups. Adults, in contrast, were sensitive to the presence of the discourse particle and the cues from the visual context. As for children, the prosodic format of the relative clauses did not systematically change the interpretation preferences of adults.
The proposed acquisition path may not be specific to German. Instead, it is predicted to hold cross-linguistically and may also be transferred to the interpretation of adjectives. Moreover, the assumptions on how children integrate relative clauses during comprehension may be generalized to other types of subordinate clauses.
State-of-the-art climate models contain, to a significant degree, empirical components. In particular, subgrid-scale (SGS) parameterizations are usually highly tuned against observations or high-resolution model data. While this enables the models to minimize the error during hindcasts, it is not guaranteed that it yields a benefit for climate projections because of climate change. In this thesis the Fluctuation-Dissipation theorem (FDT) is used to update the statistics of the system in the presence of an external forcing. If the empirical parameters are tuned objectively to the data (i.e., they depend on the statistics of the data), then they might be updated with the FDT. This ansatz is tested within a framework of a semi-empirical model (SEM) based on the leading variance patterns of a quasigeostrophic three-layer model (QG3LM) and supplemented by a purely data-driven parameterization. We show that the FDT is able to successfully update the tuning parameters of the data-driven SGS closure, resulting in a systematic improvement in model performance in comparison to an untreated SEM. Ideally, SGS parameterizations should contain little to no tuning parameters. Thus, complementary to the FDT approach we investigate a stochastic SGS closure constrained by first principles that is calculated using the stochastic mode reduction (SMR). The SMR allows for an analytic derivation of the SGS closure from the model equations while requiring only minimal tuning. We successfully apply the SMR to the QG3LM and construct the reduced stochastic model (RSM). Furthermore, we show that the RSM is more robust against an external forcing than the SEM. Additionally, we find that, under appropriate conditions, the FDT is able to update the empirical parts of the RSM. Yet, only for the response in mean streamfunction the RSM provides useful results, while the response in covariance of the streamfunction is incorrect for most cases. Nevertheless, we obtain a remarkably accurate response in both moments for the RSM in an idealized setting. In combination with the results of the FDT study this indicates that the considered RSM is too low dimensional and encourages us to investigate the response of larger RSMs in the future.
The implementation of pump-probe experiments with ultrashort laser pulses enables the study of dynamical processes in atoms or molecules, which may provide a deeper inside in their physical origin. The application of this method to systems as nitrous oxide, which is not only a simple example for polyatomic molecules but which also plays a crucial role in the greenhouse effect, promises interesting and beneficial findings. This thesis presents, on the one hand, the technical extension of an existing experimental setup for high-harmonic generation (HHG) and ultra-fast laser physics by an extreme ultraviolet (XUV) spectrometer for the in-situ observation of the harmonic spectrum during ongoing measurements. The present setup enables the production of short laser pulse trains in the XUV spectral range with durations of a few hundred attoseconds (1 as = 10^−18 s) via HHG and supports to perform XUV-IR pump-probe experiments using the infrared (IR) driving field with durations of a few femtoseconds. Moreover, a reaction microscope is implemented, which enables the coincident detection of several charged particles emerging from an ionization or dissociation process and to reconstruct their full 3-D-momentum vectors. With this technique it is possible to perform time-resolved momentum spectroscopy of few-particle quantum systems. Here, the design and the calibration of the XUV spectrometer is presented as well as a first application to the analysis of experimental data by providing information on the produced photon energies. On the other hand, the results of an XUV-pump IR-probe measurement on nitrous oxide (N2O) are discussed. With the broad harmonic spectrum (∼ 17 − 45 eV) it is possible to address several states of the singly and doubly ionized cation. One reaction channel is the single ionization into a stable state of N2O+. Here, the coincidently measured photoelectron energies allow the observation of sidebands, which served to estimate the pulse durations of the involved XUV pulse trains as well as of the fundamental IR pulses. Additionally, single ionization of nitrous oxide can lead to a dissociation into a charged and a neutral fragment. The four respective dissociation channels are compared by presenting their branching ratios, kinetic energy release (KER) distributions and their dependencies on the time delay between pump and probe pulse. In the production of the dication, there are two competitive processes: direct double ionization considering photon energies above the double-ionization threshold, and autoionization of singly ionized and excited molecules in the case of photon energies near the double-ionization threshold. In both cases, the ionization leads to a Coulomb explosion into two charged fragments, where the N − N bond or the N − O bond may dissociate. The influence of the IR-probe field on the ionization yield and the KER was investigated for both dissociation channels and compared. In addition, the corresponding photoelectron energy spectra are presented, which show indications for autoionizing states being involved, and their dependence on the delay and the KER of the respective ions is analyzed.
Die zentralen Objekte der Dissertation sind Translationsflächen. Dabei handelt es sich um Riemann’sche Flächen, die aus in die euklidische Ebene eingebetteten Polygonen durch Verkleben von parallelen gleichlangen Seiten entstehen. Zwei Translationsflächen sind gleich, wenn es möglich ist, die Polygone durch ”Zerschneiden und mittels Translationen neu Zusammenkleben“ ineinander zu überführen. Die Gruppe GL_2(R) operiert auf der Menge der Translationsflächen via der linearen Abbildungen auf den Polygonen. Der Stabilisator einer Translationsfläche X unter dieser Operation wird die Veech-Gruppe von X genannt und mit SL(X) bezeichnet. Die Veech-Gruppe ist eine diskrete Untergruppe von SL_2(R) und damit eine Fuchs’sche Gruppe.
Fuchs’sche Gruppen werden je nach ihrer Limesmenge in elementare und nicht-elementare Gruppen eingeteilt. Letztere wiederum unterteilt man in Gruppen erster oder zweiter Art. Fuchs’sche Gruppen mit endlichem co-Volumen heißen Gitter und sind genau die endlich erzeugten Gruppen erster Art. Translationsflächen, deren Veech-Gruppe ein Gitter ist, heißen Veech-Flächen und sind von besonderem Interesse, da für sie die Veech Alternative gilt.
Ein feineres Maß für die Größe einer Fuchs’schen Gruppe ist der kritische Exponent. Er ist definiert als das Infimum aller reellen Zahlen, für die die Poincaré Reihe konvergiert und liegt für alle unendlichen Fuchs’schen Gruppen zwischen 0 und 1. Hauptziel der Dissertation ist der Beweis von Theorem 1. Es gibt Translationsflächen, für die der kritische Exponent ihrer Veech-Gruppe echt zwischen 1/2 und 1 liegt.
Der kritische Exponent von elementaren Gruppen ist höchstens 1/2, Translationsflächen mit elementaren Veech-Gruppen sind also als Kandidaten für das Theorem ausgeschlossen. Der kritische Exponent von Gittern ist 1. Also scheiden auch Veech-Flächen für das Theorem aus.
Bis zum Jahr 2003 waren Gitter die einzigen bekannten nicht-elementaren Veech-Gruppen. McMullen klassifizierte die Veech-Flächen vom Geschlecht 2 und zeigte, dass jede solche Fläche, die nur eine Singularität besitzt, in der GL_2(R)-Bahn der Fläche L_D liegt, die aus einem L-förmigen Polygon mit geeigneten von D abhängigen Seitenlängen entsteht.
Während auch heute noch keine Translationsfläche mit Veech-Gruppe zweiter Art bekannt ist, fanden McMullen und unabhängig davon Hubert und Schmidt Konstruktionen unendlich erzeugter Veech-Gruppen erster Art. Eine Abschätzung des kritischen Exponenten dieser Gruppen war 10 Jahre lang eine wichtige offene Frage, die nun durch Theorem 1 beantwortet wird.
Zentral in der Konstruktion von Hubert und Schmidt sind spezielle Punkte, nämlich Verbindungspunkte. Hubert und Schmidt konstruieren Translationsflächen, deren Veech-Gruppen kommensurabel zum Stabilisator SL(X;P) von P sind und damit den gleichen kritischen Exponenten haben. Für Verbindungspunkte mit unendlicher SL(X)- Bahn (diese Punkte heißen nicht-periodisch) ist SL(X;P) unendlich erzeugt und von erster Art.
Wir zeigen Theorem 1, indem wir zeigen, dass für jedes D kongruent 0 mod 4, (kein Quadrat), und jeden nicht-periodischen Verbindungspunkt P in L_D der kritische Exponent der Gruppe SL(L_D;P) echt zwischen 1/2 und 1 liegt.
Eine natürliche Frage in diesem Zusammenhang ist die Abhängigkeit von P: Punkte Q in der SL(L_D)-Bahn von P sind auch er nicht-periodische Verbindungspunkte und die zugehö̈rigen Gruppen SL(L_D;P) und SL(L_D;Q) sind konjugiert zueinander. Daher widmen wir uns in Kapitel 4 der Bestimmung der Bahnen nicht-periodischer Verbindungspunkte.
Die Verbindungspunkte haben die Form P=(x_r+x_iw;y_r+y_iw) mit x_r,x_i,y_r,y_i aus Q. Wir zeigen, dass der Hauptnenner N(P) dieser (gekürzten) Brüche eine Invariante der Bahn ist. Daraus folgt:
Theorem 2. Es gibt unendlich viele verschiedene Bahnen von Verbindungspunkten von L_D.
Wir kennen die Operation der horizontalen und der vertikalen Scherungen A und B aus SL(L_D). Im Spezialfall D=8 erzeugen diese beiden Elemente die ganze Gruppe und wir geben je ein Verfahren an, um eine untere und eine obere Schranke an die Anzahl der Bahnen von nicht-periodischen Verbindungspunkten P mit fixiertem Hauptnenner N(P) zu finden. Damit zeigen wir:
Theorem 3. Die Menge der Verbindungspunkte P mit festem Wert N(P) zerfällt in eine endliche Anzahl von SL(L_8)-Bahnen.
Im Beweis von Theorem 1 ist es nötig, die Nicht-Mittelbarkeit eines Graphen zu zeigen. Da wir nur sehr wenige Informationen über dessen Struktur in unserer konkreten Situation haben, entwickeln wir in Kapitel 1 die folgende Methode:
Theorem 4. Sei G ein Graph, den man durch Weglassen von Kanten in einen Wald G′ ohne Blätter überführen kann, bei dem das Supremum der Längen von zusammenhängenden Valenz-2-Teilgraphen von G′ beschränkt ist. Dann ist G nicht mittelbar.
Um diese Methode anzuwenden, ordnen wir jeder Ecke P von G ein Komplexitätsmaß s(P) zu und weisen nach, dass dieser Wert für die Operation von Worten in A- und B-Potenzen mit wachsender Wortlänge ”tendenziell wächst“.
By translocating proteasomal degradation products into the endoplasmic reticulum (ER) for loading of major histocompatibility complex (MHC) class I molecules, the ATP binding cassette (ABC) transporter associated with antigen processing (TAP) plays a pivotal role in the adaptive immunity against infected or malignantly transformed cells. A key question regarding the transport mechanism is how the inter-domain communication and conformational dynamics of the TAP complex are connected during the peptide transport. To identify residues involved in this processes, we evolved a Trojan horse strategy in which a small artificial protease is inserted into antigenic epitopes. After binding, the TAP backbone in contact is cleaved, allowing the peptide sensor site to be mapped by mass spectrometry. Within this study, the peptide sensor and transmission interface have been identified. This region aligns with the cytosolic loop 1 (CL1) of Sav1866 and MsbA. Based on a number of experimental data and the homology to the bacterial ABC exporter Sav1866, we constructed a 3D structural model of the core TAP complex. According to this model, the CL1 and CL2 of TAP1 are extended cytosolic loops connecting the transmembrane helices (TMH) 2 and 3, and TMH4 and 5 respectively, and contact both nucleotide binding domains (NBDs) of the opposite subunit. In contrast to exporters, the cytosolic loop (named L-loop) of BtuCD importer is much shorter, and contacts only one NBD. The data confirm that the CL1 of TAP1 functions as signal transducer in ABC exporters, because it does not interfere with substrate binding but with substrate transport. The peptide contact site identified herein is restructured during the ATP hydrolysis cycle. Importantly, TAP showed a structural change trapped in the ATP hydrolysis transition state, because direct contact between peptide and CL1 is abolished. By cysteine scanning, the most conserved residues within CL1 were identified, which disrupted the tight coupling between peptide binding and transport. Together with Val-288, these residues are essential in sensing the bound peptide and inter-domain signal transmission. To characterize the molecular architecture of CL1, a convenient and minimally perturbing approach was used, which combined cysteine substitution in the CL1 region and determination of accessibility to thiol specific compounds with different properties. These studies revealed that the N-terminal region of CL1 has a good accessibility for hydrophilic (iodoacetamidofluorescein, IAF) and amphiphilic probes (BODIPY maleimide, BM), whereas the C-terminal region is accessible for hydrophobic probe (coumarin maleimide, CM). Kinetic studies of fluorescence labeling suggest that this region displayed a different accessibility to probes when the protein undergoes distinct conformations (e. g. nucleotide free state), thereby reflecting conformational transitions. Fluorescence labeling with BM induces a lost of peptide transport, whereas the peptide binding remains unaffected. These results indicate that covalent modifications of the CL1 residues influenced the inter-domain communication between transmembrane domain (TMD) and NBD. The X-loop is a recently discovered motif in the NBD of ABC exporters, which stays in close contact to the CLs. Moreover, because the X-loop precedes the ABC signature motif, it probably responds to ATP binding and hydrolysis and may transmit conformational changes to the CLs. By substitution of the highly conserved Glu-602 of TAP2 with residues that have different chemical properties, it was shown for the first time that the X-loop is a functional important element, which plays an key role in coupling substrate binding to downstream events in the transport cycle. We further verified domain swapping in the TAP complex by cysteine cross-linking. The TAP complex can be reversibly arrested either in a binding or translocation incompetent state by cross-linking of the X-loop to CL1 or CL2, respectively. These results resolve the structural arrangement of the transmission interface and point to different functions of the cytosolic loops in substrate recognition, signaling and transport.
Despite mounting evidence of the anthropogenic influence on the Earth's climate, underlying mechanisms of climate change often remain elusive. The investigation of periods of rapid climate change from geological archives may provide crucial information about magnitude, duration, teleconnections of and regional responses to global and hemispheric scale climate perturbations. Thus, paleoclimate reconstructions may help in mitigating and adapting to the challenges of the coming decades. The '8.2 kyr B.P. climatic event' has previously been proposed as a possible analogue for the future climatic scenario of a reduced Atlantic Meridional Overturning Circulation (AMOC). The catastrophic drainage of the Laurentide meltwater lakes through the Hudson Bay and into the Labrador Sea, that occurred ca. 8.47 kyr B.P., caused the slowdown of the AMOC around 8.2 kyr B.P.. Subsequently, reduced heat transfer towards Europe triggered a substantial decline in (winter) temperature and pronounced changes in atmospheric circulation patterns in many regions of the northern hemisphere, especially the North Atlantic realm and Europe. Among the regions affected by the 8.2 kyr B.P. climatic event, the Eastern Mediterranean region is of particular interest for both past and future climate developments. Traditionally characterized as a region highly sensitive to variations in the climate systems of the high and low latitudes, abrupt climate changes have the potential to strongly alter atmospheric circulation patterns and thus precipitation distribution in the region that may have severe socioeconomical consequences. The analysis of stable hydrogen (δD) and oxygen isotopes (δ18O) in precipitation is an excellent tool to trace changes in atmospheric circulation. Here, we present a comparative study of δD and δ18O in precipitation from the Eastern Mediterranean region both in a present day scenario and during the 8.2 kyr B.P. climatic event. We analyze the influences of topography, air mass trajectory, climate and seasonality among others the stable isotopic compositions of meteoric waters from the Central Anatolian Plateau (CAP), Turkey, in order to create a first-order template which may serve as a reference against which paleoenvironmental proxy data may be more accurately interpreted and tested. Further, we employ a multiproxy approach on the early Holocene peat deposits of the classical site of Tenaghi Philippon (TP), NE Greece, to investigate paleoenvironmental responses to northern hemisphere cooling during the 8.2 kyr B.P. climatic event and aim to determine changes atmospheric circulation from δD of leaf wax n-alkanes (δDwax).
Based on δD and δ18O data from more than 480 surface water samples from the CAP, we characterize moisture sources affecting the net isotopic budget of precipitation, manifesting in a systematic north-south difference in near-sea level moisture compositions. Rainout, induced by the major orographic barriers of the plateau, the Pontic Mountains to the north and the Taurus Mountains to the south, strongly shape the modern patterns of δD and δ18O. Stable isotope data from the semi-arid plateau interior provide clear evidence for an evaporitic regime that drastically affects surface water compositions. Strong evaporative enrichment contrasts rainfall patterns along the plateau margins, in part obfuscating the effects of topography and air mass trajectory.
Consequently, in order to address possible influences of evaporation on δD and δ18O in paleoprecipitation from TP, we analyze n-alkane abundances and distributions along with stable carbon isotope compositions of total organic carbon (δ13CTOC) and palynological data to estimate surface moisture conditions during the early Holocene (ca. 8.7 - 7.5 kyr B.P.) and especially during the 8.2 kyr B.P. climatic event. A period of relatively dry surface conditions from ca. 8.7 to 8.2 kyr B.P., indicated by low values of the 'aquatic index' (Paq ) and by elevated Average Chain Length (ACL) values, in concert with elevated δ13CTOC values, precedes the 8.2 kyr B.P. climatic event. The event itself is characterized by slightly wetter, more humid conditions, as suggested by an increase in Paq values as well as reduced ACL and δ13CTOC values between ca. 8.2 and 7.9 kyr B.P.. In the upper section of the core, a distinct change in paleohydrology becomes. A steep increase in Paq and a decrease in ACL values as well as variations in δ13CTOC from 7.9 kyr B.P. onwards imply considerably elevated surface moisture levels, likely caused by the increased activity of the karstic system of the surrounding mountains. Collectively, the biomarker proxies presented here, reveal a concise picture of changing moisture conditions at TP that is consistent with palynological data and provide detailed paleoenvironmental information for the analysis of δDwax as a paleoprecipitation proxy. The long-term decline in δDwax values characterizes the lower section of the core until ca. 8.2 kyr B.P.. The 8.2 kyr B.P. climatic event itself is connected to two distinct positive hydrogen isotope excursions: a minor shift in δDwax around 8.2 kyr B.P. and a major shift in δDwax between ca. 8.1 and 8.0 kyr B.P.. The upper part of the section shows a progressive trend towards higher δDwax values. With no indication of increased evaporitic conditions at TP during the 8.2 kyr B.P. climatic event, as evident in biomarker proxies and pollen data, we link shifts in δDwax to changes in Mediterranean air mass trajectories supplying precipitation to northeastern Greece, with variations in the relative contributions of northerly derived, D-depleted moisture and southerly-derived, D-enriched moisture. Possible control mechanisms include changes in the influence of the Siberian High and differences in the influence of the African and Asian monsoon circulations on anticyclonic conditions in the Mediterranean region as well as regional inflow of moist air from the Aegean Sea.
Although everyone is familiar with using algorithms on a daily basis, formulating, understanding and analysing them rigorously has been (and will remain) a challenging task for decades. Therefore, one way of making steps towards their understanding is the formulation of models that are portraying reality, but also remain easy to analyse. In this thesis we take a step towards this way by analyzing one particular problem, the so-called group testing problem. R. Dorfman introduced the problem in 1943. We assume a large population and in this population we find a infected group of individuals. Instead of testing everybody individually, we can test group (for instance by mixing blood samples). In this thesis we look for the minimum number of tests needed such that we can say something meaningful about the infection status. Furthermore we assume various versions of this problem to analyze at what point and why this problem is hard, easy or impossible to solve.
We study the price-setting problem of market makers under perfect competition in continuous time. Thereby we follow the classic Glosten-Milgrom model that defines bid and ask prices as the expectation of a true value of the asset given the market makers partial information that includes the customers trading decisions. The true value is modeled as a Markov process that can be observed by the customers with some noise at Poisson times.
We analyze the price-setting problem by solving a non-standard filtering problem with an endogenous filtration that depends on the bid and ask price process quoted by the market maker. Under some conditions we show existence and uniqueness of the price processes. In a different setting we construct a counterexample to uniqueness. Further, we discuss the behavior of the spread by a convergence result and simulations.
We investigate multivariate Laurent polynomials f \in \C[\mathbf{z}^{\pm 1}] = \C[z_1^{\pm 1},\ldots,z_n^{\pm 1}] with varieties \mathcal{V}(f) restricted to the algebraic torus (\C^*)^n = (\C \setminus \{0\})^n. For such Laurent polynomials f one defines the amoeba \mathcal{A}(f) of f as the image of the variety \mathcal{V}(f) under the \Log-map \Log : (\C^*)^n \to \R^n, (z_1,\ldots,z_n) \mapsto (\log|z_1|, \ldots, \log|z_n|). I.e., the amoeba \mathcal{A}(f) is the projection of the variety \mathcal{V}(f) on its (componentwise logarithmized) absolute values. Amoebas were first defined in 1994 by Gelfand, Kapranov and Zelevinksy. Amoeba theory has been strongly developed since the beginning of the new century. It is related to various mathematical subjects, e.g., complex analysis or real algebraic curves. In particular, amoeba theory can be understood as a natural connection between algebraic and tropical geometry.
In this thesis we investigate the geometry, topology and methods for the approximation of amoebas.
Let \C^A denote the space of all Laurent polynomials with a given, finite support set A \subset \Z^n and coefficients in \C^*. It is well known that, in general, the existence of specific complement components of the amoebas \mathcal{A}(f) for f \in \C^A depends on the choice of coefficients of f. One prominent key problem is to provide bounds on the coefficients in order to guarantee the existence of certain complement components. A second key problem is the question whether the set U_\alpha^A \subseteq \C^A of all polynomials whose amoeba has a complement component of order \alpha \in \conv(A) \cap \Z^n is always connected.
We prove such (upper and lower) bounds for multivariate Laurent polynomials supported on a circuit. If the support set A \subset \Z^n satisfies some additional barycentric condition, we can even give an exact description of the particular sets U_\alpha^A and, especially, prove that they are path-connected.
For the univariate case of polynomials supported on a circuit, i.e., trinomials f = z^{s+t} + p z^t + q (with p,q \in \C^*), we show that a couple of classical questions from the late 19th / early 20th century regarding the connection between the coefficients and the roots of trinomials can be traced back to questions in amoeba theory. This yields nice geometrical and topological counterparts for classical algebraic results. We show for example that a trinomial has a root of a certain, given modulus if and only if the coefficient p is located on a particular hypotrochoid curve. Furthermore, there exist two roots with the same modulus if and only if the coefficient p is located on a particular 1-fan. This local description of the configuration space \C^A yields in particular that all sets U_\alpha^A for \alpha \in \{0,1,\ldots,s+t\} \setminus \{t\} are connected but not simply connected.
We show that for a given lattice polytope P the set of all configuration spaces \C^A of amoebas with \conv(A) = P is a boolean lattice with respect to some order relation \sqsubseteq induced by the set theoretic order relation \subseteq. This boolean lattice turns out to have some nice structural properties and gives in particular an independent motivation for Passare's and Rullgard's conjecture about solidness of amoebas of maximally sparse polynomials. We prove this conjecture for special instances of support sets.
A further key problem in the theory of amoebas is the description of their boundaries. Obviously, every boundary point \mathbf{w} \in \partial \mathcal{A}(f) is the image of a critical point under the \Log-map (where \mathcal{V}(f) is supposed to be non-singular here). Mikhalkin showed that this is equivalent to the fact that there exists a point in the intersection of the variety \mathcal{V}(f) and the fiber \F_{\mathbf{w}} of \mathbf{w} (w.r.t. the \Log-map), which has a (projective) real image under the logarithmic Gauss map. We strengthen this result by showing that a point \mathbf{w} may only be contained in the boundary of \mathcal{A}(f), if every point in the intersection of \mathcal{V}(f) and \F_{\mathbf{w}} has a (projective) real image under the logarithmic Gauss map.
With respect to the approximation of amoebas one is in particular interested in deciding membership, i.e., whether a given point \mathbf{w} \in \R^n is contained in a given amoeba \mathcal{A}(f). We show that this problem can be traced back to a semidefinite optimization problem (SDP), basically via usage of the Real Nullstellensatz. This SDP can be implemented and solved with standard software (we use SOSTools and SeDuMi here). As main theoretic result we show that, from the complexity point of view, our approach is at least as good as Purbhoo's approximation process (which is state of the art).
Die Wechselwirkung zwischen zwei verschiedenartigen Wellenphänomenen in einer Höhe von ca. 10 bis 100 km, der mittleren Atmosphäre, ist das zentrale Thema der vorliegenden Arbeit. Schwerewellen entstehen durch Oszillationen der Luft in einer stabil geschichteten Atmosphäre. Durch die Vielzahl von Schwerewellen-Paketen, die in der Troposphäre durch Gebirge, Gewitter, Fronten und andere dynamische Prozesse angeregt werden, wird Energie und Impuls in die mittleren Atmosphäre transportiert. Durch den turbulenten Zerfall von brechenden Schwerewellen wird auf die mittlere Strömung eine Kraft ausgeübt, welche im Bereich der Mesopause bei ca. 90 km maximal wird. Daraus resultiert die sogenannte interhemispherische residuelle Zirkulation, die in der Mesosphäre den Sommer- mit dem Winterpol verbindet und die beeindruckend kalte Sommer-Mesopause mit Temperaturen von unter −140°C verursacht. Thermische Gezeiten sind ein weiterer wichtiger Teil in der Dynamik der mittleren Atmosphäre. Sie werden durch die Erwärmung der Tagseite der Erde angeregt und sind globale Schwingungen mit Perioden von 24 Stunden und harmonischen Vielfachen. Mit Wind- und Temperatur-Amplituden von bis zu 50 m/s und 30 K dominieren sie die Tagesvariabilität im Mesopausen-Bereich.
In der Mesosphäre wird die Wechselwirkung zwischen Schwerewellen und thermischen Gezeiten wichtig. Dort wird durch die Gezeitenwinde das Brechen von Schwerewellen zeitlich moduliert und eine periodische Kraft erzeugt, welche auf die Gezeiten rückwirkt. Doch selbst unter Zuhilfenahme modernster Hochleistungsrechner kann in komplexen Zirkulationsmodellen nur ein Bruchteil des turbulenten sowie des Wellen-Spektrums aufgelöst werden. Der Effekt der nichtaufgelösten Skalen, wie Turbulenz und Schwerewellen, muss somit in effizienter Weise parametrisiert werden. Üblicherweise wird in Schwerewellen-Parametrisierungen die horizontale und zeitliche Variation des Hintergrundmediums vernachlässigt. Es entsteht eine vertikale Säule, in der sich stationäre Schwerewellen-Züge instantan nach oben ausbreiten. Es ist jedoch äußerst fraglich, inwieweit eine solche Beschreibung, auf der ein Großteil früherer Untersuchungen basiert, für das Ergründen der Schwerewellen-Gezeiten-Wechselwirkung hinreicht. Für diese Arbeit wurde deswegen das Ziel gesetzt, die Defizite der konventionellen Beschreibung der Schwerewellen-Ausbreitung in realistischen Gezeiten zu quantifizieren.
Die "Ray Tracing"-Methode wird auf die Problemstellung der Schwerewellen-Gezeiten-Wechselwirkung angewendet. In der "Ray Tracing"-Methode werden Schwerewellen-Pakete entlang ihrer Ausbreitungspfade explizit verfolgt und Veränderungen der Schwerewellen-Eigenschaften durch den Einfluss der Hintergrundströmung berücksichtigt. Vom Autor wurde das globale "Ray Tracing"-Modell RAPAGI (RAy PArameterization of Gravity-wave Impacts) entwickelt und mit realistischen Gezeitenfeldern aus dem Zirkulationsmodell HAMMONIA (HAmburg MOdel of the Neutral and Ionized Atmosphere) betrieben. In verschiedenen "Ray Tracing"-Experimenten wird für ein einfaches Schwerewellen-Ensemble gezeigt, wie horizontale Gradienten des Hintergrundmediums sowie dessen Zeitabhängigkeit wesentlichen Einfluss auf die Ausbreitung und Dissipation von Schwerewellen nehmen. Zum einen führt die durch Gezeitenwellen hervorgerufene Transienz zu einer tageszeitlichen Modulation der absoluten Schwerewellen-Frequenz.
Die dadurch induzierten Variationen der horizontalen Phasengeschwindigkeit der Schwerewellen können die anfängliche Phasengeschwindigkeit um bis zu eine Größenordnung übertreffen und folgen dem Verlauf des Hintergrundwindes. Die kritische Filterung von Schwerewellen wird durch diese Modulation abgeschwächt, was im Vergleich zu konventionellen Schwerewellen-Parametrisierungen zu einer im Mittel um 30 % geringeren Kraftwirkung auf die Gezeiten führt. Zum anderen werden durch horizontale Gradienten in der gesamten Hintergrundströmung Schwerewellen-Pakete horizontal abgelenkt. Wellen, die gegen die Hintergrundströmung laufen, werden in der Stratosphäre in die Maxima der Wind-Jets hineingeführt. Durch dieses Verhalten wird analog zum Fermatschen Prinzip der geometrischen Optik die Laufzeit der Schwerewellen in der mittleren Atmosphäre minimiert. Es entsteht eine Fokussierung von Schwerewellen-Feldern, bei gleichzeitiger Zunahme der horizontalen Wellenzahl in den Experimenten im Mittel um ca. 10 %. Dadurch reduziert sich der Schwerewellen-Impulsfluss und die mittlere und ebenfalls die periodische Kraft auf die Hintergrundströmung im Mittel um weitere 20 % bis 30 %. Konventionelle Schwerewellen-Parametrisierungen scheinen somit die Kraftwirkung von brechenden Schwerewellen zu uberschätzen. Aus den Ergebnissen der Arbeit wird klar, dass Schwerewellen-Parametrisierungen nicht "blind" für jede Untersuchung genutzt werden können. Alle Annahmen und Näherungen in Parametrisierungen müssen je nach Zielstellung neu getestet werden.
On the molecular basis of novel anti-inflammatory compounds and functional leukocyte responses
(2006)
Inflammation is a complex pathophysiological event that can be triggered by activation of a number of distinct activation pathways eventually leading to the release of pro-inflammatory molecules and enzymes. Among all cells involved in inflammatory processes, neutrophils, monocytes and platelets are of major relevance. Activation of leukocytes occurs via binding of agonists to distinct GPCRs leading to activation of G proteins and proximate signaling cascades. In short, GPCR activation by pro-inflammatory agonists such as fMLP, PAF or LTB4 leads to activation of G proteins that are associated with the receptor at the cytosolic side of the plasma membrane. G proteins consist of a Gα- and a Gβγ-subunit which are associated in the inactive state. In this state, G proteins bind GDP. Upon activation, GDP is replaced by GTP that results in the dissociation of the Gα- from the Gβγ-subunit. Both subunits are capable of activating distinct PLC-β isoenzymes that catalyze the turnover of PtdIns(4,5)P2 into the second messengers Ins(1,4,5)P3 and DAG. Every GPCR holds a distinct pattern of associated G proteins which preferentially activate distinct PLC-β isoenzymes. Ca2+ channels within the SR/ER-membrane function as specific receptors for Ins(1,4,5)P3. Ligation of Ins(1,4,5)P3 to this receptor causes a release of Ca2+ from intracellular stores into the cytosol that is subsequently followed by the influx of Ca2+ e through channels in the plasma membrane. Ca2+ represents an important signaling molecule, involved in the regulation of cellular processes and enzymes that mediate inflammatory events such as ROS formation and the release of degradative enzymes. 5-LO and COXs are involved in the biosynthesis of pro-inflammatory eicosanoids and catalyze the turnover of AA into LTs and PGs, respectively. Both enzymes play pivotal roles in the initiation and maintenance of allergic diseases and inflammatory processes. LTB4 is regarded as a potent chemotactic and chemokinetic substance, whereas the cysteinyl-LTs cause smooth muscle contraction and increased vascular permeability. Therefore, 5-LO inhibitors are assumed to possess therapeutic potential for the treatment of diseases related to inflammation. Besides the intervention with 5-LO activity, inhibition of COX-activity is an effective way to suppress inflammatory reactions. The two COX isoenzymes, namely COX-1 and COX-2 show different patterns in terms of tissue expression and sensitivity towards inhibitors. COX-1 is supposed to be constantly expressed whereas COX-2 expression is upregulated at sites of inflammation. The extract of H. perforatum is commonly used for the treatment of mild to moderate depressive disorders, accompanied by a moderate profile of side effects. The extract´s efficacy as an antidepressant can be traced back to the content of the phloroglucinol hyperforin which represents the most abundant lipophilic constituent. However, in folk medicine hypericum extracts are additionally used for the treatment of inflammatory disorders such as rheumatoid arthritis or inflammatory skin diseases. In fact, it was shown that hypericum extracts and hyperforin possess anti-inflammatory potential. Hyperforin was described as a dual inhibitor of 5-LO and COX-1. The phloroglucinols MC and S-MC from M. communis significantly differ from the molecular structure of hyperforin. Hyperforin represents a monomeric prenylated derivative whereas MS and S-MC are non-prenylated oligomeric compounds. To date, the anti-inflammatory potential of SM and S-MC has not been investigated in detail. So far, solely antioxidant activity was attributed to MC and S-MC that indeed might qualify them as anti-inflammatory drugs. The phloroglucinols MC, S-MC and hyperforin are potent inhibitors of ROS formation and HLE release. However, any inhibitory potential of these compounds was only observed when cells were activated by GPCR agonists such as fMLP or PAF. In contrast, when cells were stimulated under circumvention of G protein-associated signaling cascades, the abovementioned inhibitors were not effective at all. In leukocytes, [Ca2+]i plays a pivotal role in signal transduction and regulation of the indicated pro-inflammatory cellular functions. We were able to show that MC, S-MC and hyperforin inhibited GPCR-mediated Ca2+ mobilization with approximately the same potency as the above-mentioned leukocyte responses. However, all of the indicated phloroglucinols were ineffective when cells were stimulated with ionomycin. Since ionomycin as well as GPCR agonists exert their effects by mobilizing Ca2+ i, it seems conceivable that MC, S-MC and hyperforin somehow interfere with G protein-associated signaling pathways. In order to investigate PLC as a potential target of hyperforin, the effects of hyperforin were compared to those of the broad spectrum PLC inhibitor U-73122. We found that both inhibitors acted in a comparable manner in terms of agonist-induced Ca2+ mobilization and in regard of the manipulation of basal Ca2+ levels in unstimulated cells. In this respect, significant differences between hyperforin and U-73122 were obvious for inhibition of total PLC activity in vitro. Thus, U-73122 blocked PLC activity whereas hyperforin was ineffective in this respect. This might indicate that only certain PLC isoenzymes are affected by hyperforin. Alternatively, other components within G protein-associated signaling pathways such as G proteins itself or the Ins(1,4,5)P3 receptor must be taken into account as putative targets of hyperforin. We were able to introduce MC and S-MC as novel dual inhibitors of 5-LO and COX-1. Interestingly, such a pattern was also described for hyperforin. MC and S-MC turned out to be direct inhibitors of 5-LO, based on the fact that they inhibit 5-LO not only in intact cells but also as purified enzyme in vitro. For MC and S-MC, great discrepancies were observed between the IC50 values concerning 5-LO inhibition and the concentrations that exert the antioxidative effects. It seems probable that 5-LO inhibition is not related to reduction of the active site iron as a result of the antioxidant activity of MC and S-MC but rather to direct interference with the 5-LO enzyme. The capability of MC and S-MC to suppress COX-1 activity seems not to be a unique effect of these phloroglucinols because for COX-1, the IBPC, present in both MC and S-MC, turned out to be the most active compound. ....
Background
Cochlear Implants (CIs) provide near normal speech intelligibility in quiet environments to individuals suffering from sensorineural hearing loss. Perception of speech in situations with competing background noise and especially music appraisal however are still insufficient. Hence, improving speech perception in ambient noise and music intelligibility is a core challenge in CI research. Quantitatively assessing music intelligibility is a demanding task due to its inherently subjective nature. However, previous approaches have related electrophysiological measurements to speech intelligibility, a corresponding relation to music intelligibility, can be assumed. Recent studies have investigated the relation between results obtained from hearing performance tests and Spread of Excitations (SoEs) measurements. SoE functions are acquired by measuring Electrically Evoked Compound Action Potentials (ECAPs) which represent the electrical response generated in the neural structures of the auditory nerve. The parameters designed to describe SoE functions are used to estimate the dispersal of the electric field in the cochlea. The quality of spatial separation of the electrical field generated by adjacent electrodes are assumed to correlate with hearing performance measures.
Aim of study
This study investigated the relation of parameters derived by ECAP measurements and perceptive skills which aim to access the level of speech and music intelligibility in CI users. In addition, the ratings assessed in a questionnaire on self-rated music intelligibility were correlated to a test battery consisting of measures for speech reception threshold (SRT) in noise (Oldenburger Satztest (OLSA)) and music intelligibility (Adaptive Melody-Pattern-Discrimination Test (AMPDT)). We hypothesised that results from this test battery correlated to subjective ratings and measures describing SoE functions.
Methods
The patient collective covered 17 well-experienced bilateral CI listeners (8 females, 9 males) between the age of 14 and 77 years with a minimum CI experience of two years. Music enjoyment and self-rated musicality was evaluated by means of a questionnaire. The AMPDT included two psychoacoustic tests: timbre difference discrimination threshold (TDDT) and background contour discrimination threshold (BCDT). The accentuation of harmonics in a foreground melody created a background melody. Accentuation was realised by sound level increment, frequency detuning and onset asynchrony. Subjects had to detect target intervals comprising both foreground and background melody by discriminating timbre differences in a Three-Interval Three-Alternative Forced-Choice (3I3AFC) procedure. In a One-Interval Two-Alternative Forced-Choice (1I2AFC) procedure, subjects had to classify the background melody’s contour. SoE was measured via a spatial forward-masking paradigm. A basal, medial and apical recording electrode was measured. Probe electrodes were one electrode position apical to the recording. The width of normalised SoE functions was calculated at their 25 % and 50 % level (excitation distance (DIST)). Furthermore, exponential functions were calculated for SoE profiles with more than three data points for each side. The OLSA assessed SRT in noise. The noisy environment was presented through an array of four loudspeakers (MSNF). The Fastl noise-condition allows to make use of gap listening representing the temporal characteristics of speech as a fluctuating noise. The OLnoise-condition is a continuous noise resulting in a maximum portion of masking.
Results
We found that background melody contour classiffication (BCDT) is more challenging to CI users than the detection of small perceptual timbre differences (TDDT). Background melody contour classification was possible with harmonic accentuation by sound level increment whereas accentuation by onset asynchrony was more demanding. CI users failed in background melody contour classification obtained by frequency detuning. SRTs assessed in the OLSA were significantly lower in the OLnoise than in the Fastl noise masking condition. A number of N = 90 SoE functions were acquired from ECAP measurements, in which N = 48 showed a clearly present ECAP response. The DIST at the 25 % and 50 % level was narrower for the basal than for the apical and medial electrode. SoE functions showed asymmetric profiles with larger amplitudes towards the basal end of the cochlea. Correlation analysis between the AMPDT, OLSA and DISTs showed no significant correlation. Correlation analysis between the AMPDT, OLSA and the questionnaire’s results could not prove that musical activities (music listening, singing or playing instruments) improve music intelligibility. However, CI supply has restored the importance of music, self-rated musicality and musical enjoyment in this study’s subjects.
Conclusions
The present study’s results imply that CI listeners are only able to detect distinct timbre alterations throughout the course of a musical piece whereas they cannot discriminate background melodies hidden in a pattern of complex harmonic sounds. Furthermore, SoE measurements do not seem to be an adequate tool to predict neither speech nor music intelligibility in CI listeners, contrary to our initial hypothesis. This finding is consistent with a number of studies who did not find a correlation between music or speech intelligibility and channel interactions assessed by SoE measurements. It can be concluded that albeit CI supply restores musical enjoyment in patients with sensorineural hearing loss, music perception is still poor and does not significantly improve by regular musical activities such as listening to music, singing or playing instruments.
The research presented in this thesis characterizes U2AF homology motifs (UHM) and their interactions with UHM ligand motifs (ULM) in the context of splicing regulation. UHM domains are a subgroup of RNA recognition motifs (RRM) originally discovered in the proteins U2AF65 and U2AF35. Whereas canonical RRMs are usually involved in binding of RNA, UHM domains bind tryptophan containing linear protein motifs (ULM) instead. In the first article, we analyze the complex network of interactions between splicing factors and RNA that initiate the assembly of the spliceosome at the 3´ splice site of an intron. The protein U2AF65 binds a pyrimidine-rich element in introns and recruits U2snRNP by binding its protein component SF3b155. My contribution was to define the binding site of the protein U2AF65 to the intrinsically unstructured N-terminus of the scaffolding protein SF3b155. I could show that the UHM domain of U2AF65 recognizes a ULM in SF3b155, and that this binding site is not overlapping with the binding sites of other splicing factors, like p14, to SF3b155. As the U2AF65-UHM:SF3b155-ULM interaction is mutually exclusive with an interaction between U2AF65-UHM and a ULM in the splicing factor SF1, which was reported to initially recognize the branch point sequence, my results provide the molecular details on how SF3b155 replaces SF1 during spliceosomal reorganizations. In the second article, we show that overexpression of the UHM domain of the splicing factor SPF45 induces exon 6 skipping in the pre-mRNA of Fas (CD95/APO-1). I provide evidence for in vitro binding of SPF45-UHM to ULM sequences in the splicing factors U2AF65, SF1, and SF3b155. I crystallized free and SF3b155-bound SPF45 UHM and solved both structures by X-ray crystallography. The analysis of the complex interface and sequence differences in the ULMs allowed me to design mutations of SPF45-UHM, which selectively inhibit binding to distinct ULMs. After assessing the ULM binding properties in vitro, we could show that the activity of SPF45-UHM in influencing the splicing pattern of Fas relies on interactions with SF3b155 and/or SF1, but that an interaction with U2AF65 is dispensable. A mechanism for the activity of SPF45-UHM could thus be engaging in ULM interactions and thus interfering with the network of interactions that initiate the assembly of the spliceosome at the 3´splice site, as described above. In the third article, we describe an unusual flexible homodimerization mode of the UHM in the splicing factor Puf60, which enables simultaneous interactions with ULM sequences on other splicing factors. I could show that the NMR relaxation properties of Puf60-UHM are inconsistent with a model of a rigid dimer, but rather indicate a dimerization via a flexible linker. I identified a flexible loop in the peptide backbone of Puf60-UHM, and showed that mutiation of acidic residues in this loop impairs the dimerization. To analyze the dimerization interface in further detail, I solved the structure of Puf60-UHM by X-ray crystallography. The acidic residues in the flexible loop of one UHM dimer subunit mediate the dimerization by contacting basic residues on the β-sheet surface of the other dimer subunit. Differences in the four dimer interfaces observed for the eight molecules in the asymmetric unit of the crystal support the model of an undescribed, flexible mode of dimerization, and thus complement the NMR relaxation data. Furthermore, I could show that the Puf60-UHM dimer and U2AF65-UHM contact different ULM sequences on the SF3b155 N-terminus in vitro, thus providing a possible explanation for the mutual cooperative activation of Puf60 and U2AF65 in splicing assays described in the literature. The fourth article is a review about recent research on the recognition of DNA double strand breaks (DSB) by covalent histone modifications. The p53 binding protein 1 (53BP1) is a DSB sensor and a checkpoint protein for mitosis. Recent crystallographic evidence indicates that 53BP1 recognizes DSB sites by binding histone H4 dimetylated at lysine 20 (H4-K20). We provide a comprehensive overview of the atomic resolution structures that revealed how proteins can specifically recognize histone tail modifications, especially methylated lysines, to read the information stored in what is called the histone code.
At present, there is a huge lag between the artificial and the biological information processing systems in terms of their capability to learn. This lag could be certainly reduced by gaining more insight into the higher functions of the brain like learning and memory. For instance, primate visual cortex is thought to provide the long-term memory for the visual objects acquired by experience. The visual cortex handles effortlessly arbitrary complex objects by decomposing them rapidly into constituent components of much lower complexity along hierarchically organized visual pathways. How this processing architecture self-organizes into a memory domain that employs such compositional object representation by learning from experience remains to a large extent a riddle. The study presented here approaches this question by proposing a functional model of a self-organizing hierarchical memory network. The model is based on hypothetical neuronal mechanisms involved in cortical processing and adaptation. The network architecture comprises two consecutive layers of distributed, recurrently interconnected modules. Each module is identified with a localized cortical cluster of fine-scale excitatory subnetworks. A single module performs competitive unsupervised learning on the incoming afferent signals to form a suitable representation of the locally accessible input space. The network employs an operating scheme where ongoing processing is made of discrete successive fragments termed decision cycles, presumably identifiable with the fast gamma rhythms observed in the cortex. The cycles are synchronized across the distributed modules that produce highly sparse activity within each cycle by instantiating a local winner-take-all-like operation. Equipped with adaptive mechanisms of bidirectional synaptic plasticity and homeostatic activity regulation, the network is exposed to natural face images of different persons. The images are presented incrementally one per cycle to the lower network layer as a set of Gabor filter responses extracted from local facial landmarks. The images are presented without any person identity labels. In the course of unsupervised learning, the network creates simultaneously vocabularies of reusable local face appearance elements, captures relations between the elements by linking associatively those parts that encode the same face identity, develops the higher-order identity symbols for the memorized compositions and projects this information back onto the vocabularies in generative manner. This learning corresponds to the simultaneous formation of bottom-up, lateral and top-down synaptic connectivity within and between the network layers. In the mature connectivity state, the network holds thus full compositional description of the experienced faces in form of sparse memory traces that reside in the feed-forward and recurrent connectivity. Due to the generative nature of the established representation, the network is able to recreate the full compositional description of a memorized face in terms of all its constituent parts given only its higher-order identity symbol or a subset of its parts. In the test phase, the network successfully proves its ability to recognize identity and gender of the persons from alternative face views not shown before. An intriguing feature of the emerging memory network is its ability to self-generate activity spontaneously in absence of the external stimuli. In this sleep-like off-line mode, the network shows a self-sustaining replay of the memory content formed during the previous learning. Remarkably, the recognition performance is tremendously boosted after this off-line memory reprocessing. The performance boost is articulated stronger on those face views that deviate more from the original view shown during the learning. This indicates that the off-line memory reprocessing during the sleep-like state specifically improves the generalization capability of the memory network. The positive effect turns out to be surprisingly independent of synapse-specific plasticity, relying completely on the synapse-unspecific, homeostatic activity regulation across the memory network. The developed network demonstrates thus functionality not shown by any previous neuronal modeling approach. It forms and maintains a memory domain for compositional, generative object representation in unsupervised manner through experience with natural visual images, using both on- ("wake") and off-line ("sleep") learning regimes. This functionality offers a promising departure point for further studies, aiming for deeper insight into the learning mechanisms employed by the brain and their consequent implementation in the artificial adaptive systems for solving complex tasks not tractable so far.
If we want to develop a semantic analysis for explicit performatives such as I promise you to free Willy, we are faced with the following puzzle: In order to account for the speech act expressed by the performative verb, one can assume that the so-called performative clause is purely performative and provides the illocutionary force of the speech act whose content is given by the semantic object denoted by the complement clause. Yet under this perspective, the performative clause that is, next to the performative verb, the indexicals I and you that refer to the speaker and to the addressee of the utterance context is semantically invisible and does not contribute compositionally its meaning to the meaning of the entire explicit performative sentence. Conversely, if we account for the truth conditional contribution of the performative clause and deny that the meaning of the performative verb is purely performative, then we have to find a way to account for the speech act expressed by the performative verb. Of course, there is already the widely accepted and very appealing indirectness account for explicit performative utterances developed by Bach & Harnish (1979). Roughly, Bach and Harnish solve this puzzle in deriving the performativity by means of a pragmatic inference process. According to them, the important speech act performed by means of the utterance of the explicit performative sentence is a kind of the conventionalized indirect speech act. However, the boundary between semantics and pragmatics can be drawn in many various ways. Therefore, I think there could be other perspectives regarding the interface between the truth-functional treatment of the declarative explicit performative sentences and the speech acts performed with their utterances and which are expressed by the performative verbs. Hence, this thesis consists in the experiment to develop a further analysis and to check out its consequences with respect to the semantics and pragmatics of explicit performative utterances and the new interface emerged. Briefly, the experiment runs as follows: First, I develop an analysis for explicit performative sentences framed by parenthetical structures such as in (1)(a). In a second step, this parenthetical analysis is applied to the proper Austinian explicit performative sentences in (1)(b). (1) a. Tomorrow, I promise you this, I will teach them Tyrolean songs. b. I promise you that I will teach them Tyrolean songs. To analyze at first explicit performatives framed by parenthetical structures bears the convenience that we are faced with two utterances of two main clauses. In (1)(a) there is the utterance of the host sentence Tomorrow I will teach them Tyrolean songs, and the utterance of the explicit parenthetical I promise you this, where the demonstrative this refers to the utterance of Tomorrow I will teach them Tyrolean songs. Since speakers perform speech acts with utterances of main clauses, I assume that the meaning of the explicit parenthetical I promise you this specifies that the actual illocutionary force of the utterance of Tomorrow I will teach them Tyrolean songs is the illocutionary force of a promise. Hence, instead of deriving an indirect illocutionary force by means of a pragmatic inference schema, we can deal with an ordinary direct speech act that is performed with the utterance of the host sentence. This kind of analysis stresses the particular discourse function of explicit performative utterances. Performative verbs are used whenever the contextual information is not sufficient to determine the illocutionary force of the corresponding implicit speech act. The resulting consequences of the parenthetical analysis are interesting since they cast a different light on performative verbs. Surprisingly, the performative verbs are not performative at all. They do not constitute the execution of a speech act, but are execution supporting. Instead of constituting the particular illocutionary force, they merely specify the illocutionary force of the utterance of the host sentence. For instance, the speaker utters the explicit parenthetical I promise you this for specifying what he is simultaneously doing. Hence the speaker does not succeed in performing the promise simply because he is uttering I promise you this. Rather, by means of the information conveyed by the utterance of I promise you this, the potential illocutionary forces of the utterance of the host sentence are disambiguated. Thus, it is not the case that explicit parentheticals are trivially true when uttered. Their function is more complex. Their self-verifying property (‘saying so makes it so’) is explained by means of disambiguation. Furthermore, according to the parenthetical analysis, instead of being purely performative, the performative verbs contribute compositionally their meanings to the truth conditions of the entire explicit performative sentence. Together with its consequences, this analysis is applied to the proper Austinian performatives, which display subordination. I assume that regardless of their structure, explicit performatives always semantically and pragmatically behave as the parenthetical analysis predicts.
Physical soil properties feature high spatial variabilities which are known to affect geophysical measurements. However, these variations are not considered in most cases. The challenging task is to quantify the influence of soil heterogeneities on geophysical data. This question is analysed for DC resistivity and GPR measurements which are frequently used for near-surface explorations. To determine the pattern of electric soil properties in situ with the required high spatial resolution, geophysical measuring techniques are methodically enhanced. High-resolution dipole-dipole resistivity measurements are used to determine the electric conductivity distribution of the topsoil. Due to the small electrode separations, the actual electrode geometry has to be considered and an analytic expression for geometric factors is derived instead of assuming point electrodes. Two methods are used to determine soil permittivity with GPR:(i) the coefficient of reflection at the interface air-soil is measured with an air-launched horn antenna, (ii) the velocity of the groundwave is measured with a new setup using two receiver antennas enhancing the lateral resolution from in the best case 0.5 m for standard techniques to approximately 0.1 m with the new technique. With the optimised measuring techniques, the electric properties of sandy soils are determined in the field. Conductivity and permittivity show high spatial variability with correlation lengths of a few decimetres. Geostatistical simulation techniques are used to generate synthetic random media featuring the same statistical properties as in the field. FD calculations are carried out with this media to provide realistic synthetic data of resistivity and GPR measurements. Conductivity variations as determined in the field generate significant variations of simulated Schlumberger sounding curves resulting in uncertainties of the inverted models. Even in pedologically homogeneous sandy soil, moisture pattern and resulting permittivity variations cause strong GPR diffractions as demonstated by FD calculations. This influences the detectability of small objects such as e.g. landmines or of large reflectors as e.g. the groundwater table. Conductivity variations as typical for soils showed to have a minor effect on GPR measurements than variations of permittivity. In summary, geostatistical analysis and simulation provide a powerful tool to simulate geophysical measurements under field conditions including soil heterogeneity which can be used to quantify the uncertainty of field measurements by geologic noise.
This thesis presents various algorithms which have been developed for on-line event reconstruction in the CBM experiment at GSI, Darmstadt and the ALICE experiment at CERN, Geneve. Despite the fact that the experiments are different — CBM is a fixed target experiment with forward geometry, while ALICE has a typical collider geometry — they share common aspects when reconstruction is concerned.
The thesis describes:
— general modifications to the Kalman filter method, which allows one to accelerate, to improve, and to simplify existing fit algorithms;
— developed algorithms for track fit in CBM and ALICE experiment, including a new method for track extrapolation in non-homogeneous magnetic field.
— developed algorithms for primary and secondary vertex fit in the both experiments. In particular, a new method of reconstruction of decayed particles is presented.
— developed parallel algorithm for the on-line tracking in the CBM experiment.
— developed parallel algorithm for the on-line tracking in High Level Trigger of the ALICE experiment.
— the realisation of the track finders on modern hardware, such as SIMD CPU registers and GPU accelerators.
All the presented methods have been developed by or with the direct participation of the author.
Navigating a complex environment is assumed to require stable cortical representations of environmental stimuli. Previous experimental studies, however, show substantial ongoing remodeling at the level of synaptic connections, even under behaviorally and environmentally stable conditions. It remains unclear, how these changes affect sensory representations on the level of neuronal populations during basal conditions and how learning influences these dynamics.
Our approach is a joint effort between the analysis of experimental data and theory. We analyze chronic neuronal population activity data – acquired by out collaborators in Mainz – to describe population activity dynamics during basal dynamics and during learning (fear conditioning). The data analysis is complemented by the analysis of a circuit model investigating the link between a neural network’s activity and changes in its underlying structure.
Using chronic two-photon imaging data recorded in awake mouse auditory cortex, we reproduce previous findings that responses of neuronal populations to short complex sounds typically cluster into a near discrete set of possible responses. This means that different stimuli evoke basically the same response and are thus grouped together into one of a small set of possible response modes. The near discrete set of response modes can be utilized as a sensitive and robust means to detect and track changes in population activity over time. Doing so we find that sound representations are subject to a significant ongoing remodeling across the time span of days under basal conditions. Auditory cued fear conditioning introduces a bias into these ongoing dynamics, resulting in a differential generalization both on the level of neuronal populations and on the behavioral level. This means that sounds that are perceived similar to the conditioned stimulus (CS+) show an increased co-mapping to the same response mode the CS+ is mapped to. This differential generalization is also observed in animal behavior, where sounds similar to the CS+ result in the same freezing behavior as the CS+, whereas dissimilar sounds do not. These observations could provide a potential mechanism of stimulus generalization, which is one of the most common phenomena associated with post-traumatic stress disorder, on the level of neuronal populations.
To investigate how the aforementioned changes in neuronal population activity are linked to changes in the underlying synaptic connectivity, we devised a circuit model of excitatory and inhibitory neurons. We studied this firing rate model to investigate the effect of gradual changes in the network’s connectivity on its activity. Apart from an input dominated uni-stable regime (one response per stimulus independent of the network) and a network dominated uni-stable regime (one response per network independent of the stimulus), we also find a multi-stable regime for strong recurrent connectivity and a high ratio of inhibition to excitation. In this regime the model reproduces properties of neural population activity in mouse auditory cortex, including sparse activity, a broad distribution of firing rates, and clustering of stimuli into a near discrete set of response modes. This clustering in the multi-stable regime means that, not only can identical stimuli evoke different responses, depending on the network’s initial condition, but different stimuli can also evoke the same response.
Applying gradual drift to the network connectivity we find periods of stable responses, interrupted by abrupt transitions altering the stimulus response mapping. We study the mechanism underlying these transitions by analyzing changes in the fixed points of this network model, employing a method to numerically find all the fixed points of the system. We find that such abrupt transitions typically cannot be explained by the mere displacement of existing fixed points, but involve qualitative changes in the fixed point structure in the vicinity of the response trajectory. We conclude that gradual synaptic drift can lead to abrupt transitions in stimulus responses and that qualitative changes in the network’s fixed point topology underlie such transitions.
In summary we find that cortical networks display ongoing representational drift under basal conditions that is biased towards a differential generalization during fear conditioning. A circuit model is able to reproduce key characteristics of auditory cortex, including a clustering of stimulus responses into a near discrete set of response modes. Implementing synaptic drift into this model leads to periods of stable responses interrupted by abrupt transitions towards new responses.
In Deutschland erkranken pro Jahr ~1800 Kinder neu an Krebs, wobei Leukämien mit 33,8 % die häufigste diagnostizierte Krebsform darstellen. Besonders Leukämien mit dem Phänotyp einer akuten lymphatischen Leukämie (ALL) sind mit der Erkrankung im Kindesalter assoziiert. Die häufigsten genetischen Ursachen kindlicher ALLs sind ein hyperdiploider Karyotyp oder chromosomale Translokationen. Unter Säuglingen im Alter von nur wenigen Monaten mit einer ALL treten hier oft reziproke chromosomale Translokationen mit Beteiligung des MLL-Gens auf. Die t(4;11)-assoziierte Leukämie, mit dem AF4-Gen als Translokationspartner, stellt den häufigsten Krankheits-Phänotyp dieser Patientengruppe dar. Die Erkrankung zeichnet sich durch eine stark erhöhte Leukozytenzahl im peripheren Blut bei Diagnose aus. Aufgrund immunphänotyperischer und morphologischer Analysen werden die Leukozyten und auch die Erkrankung durch einen pro B-Zell Phänotyp charakterisiert. Ein weiteres klinisches Merkmal ist das schnell auftretende Rezidiv, welches schlecht auf eine folgende Therapie anspricht und zu sehr geringen Überlebensraten führt, wodurch die t(4;11)-assoziierte Leukämie als Hochrisiko-Leukämie klassifiziert wird. Als genetische Grundlage des Mechanismus der t(4;11)-Leukämogenese wird die Expression der resultierenden Fusionsproteine MLL•AF4 und AF4•MLL angenommen. Durch die Expression beider Fusionsproteine wird die Funktion des Wildtyp MLL-Proteins gehemmt, welches als epigenetischer Regulator für die Hämatopoese und die Ausbildung des Körperbauplans während der Embryogenese essenziell ist. Weiterhin wird auch die Funktion des Wildtyp AF4-Proteins gehemmt, welches einen bedeutenden Bestandteil der zellulären Transkriptionsinitiations- und Elongationsmaschinerie darstellt. Außerdem beeinflussen beide Fusionsproteine zelluläre Mechanismen wie die Proliferation, das Überleben und die Differenzierung, weshalb die Erforschung des Pathomechanismus der Fusionsproteine essenziell für die Rekapitulation und damit für die Therapie und Heilung der Erkrankung ist.
Aktuell rekapitulieren Studien der beiden Fusionsproteine die humane Erkrankung jedoch nur unzureichend. Das MLL•AF4-Protein zeigte bisher eine Blockierung der Apoptose nach unterschiedlichsten Induktionen in zellbasierten Systemen. Allerdings konnte dem Fusionsprotein kein onkogenes Potenzial in vitro nachgewiesen werden und auch in vivo führte die Expression von MLL•AF4 zur Bildung von hauptsächlich myeloischen Neoplasien nach langen Latenzzeiten. Die Expression des reziproken AF4•MLL-Proteins führte in zellbasierten Systemen zu einem verstärkten Metabolismus durch die Steigerung der zellulären Transkription und beeinflusste so die Proliferation. Parallel trat eine hohe Apoptoserate auf, sodass die Proliferation nahezu unverändert schien. Da in vitro jedoch die Kontaktinhibition und Wachstumstransformation von Zellen gezeigt werden konnte und im Mausmodell der humane Phänotyp einer pro B-ALL ausgelöst wurde, scheint das AF4•MLL-Protein das treibende Onkogen der t(4;11)-assoziierten Leukämie zu sein. Allerdings wird die Erkrankung auch in diesem Modell erst nach einer langen Latenzzeit beobachtet und auch die zellulären Mechanismen, in welchen das onkogene Potenzial des reziproken Fusionsproteins entscheidend ist, bleiben weiter zu untersuchen. Deshalb sollten im Rahmen dieser Arbeit hauptsächlich die Auswirkungen der Expression des onkogenen AF4•MLL-Proteins unter verschiedenen Aspekten untersucht, und kooperierende Ereignisse analysiert werden.
Grundlegend sollte die Auswirkung des reziproken Fusionsproteins in humanen Zellen studiert, und auch Effekte des MLL•AF4-Proteins mit früheren Studien verglichen werden, um zellbiologisch relevante Mechanismen aufzudecken. Weiterhin sollte der Einfluss möglicher sekundärer Mutationen und die Wirkung von Koffein als Stimulans untersucht werden, um mögliche Ursachen der langen Latenzzeiten in t(4;11)-assoziierten Mausmodellen zu identifizieren. Da jedoch etwa 20 % aller t(4;11)-Patienten kein AF4•MLL-Protein bilden und als Reziprok oft der solitäre MLL C-Terminus exprimiert wird, sollte zudem der Effekt des MLL•C-Proteins im Mausmodell studiert werden. Insgesamt konnten alle erhobenen Daten mit Resultaten früherer Studien kombiniert werden, wodurch ein spezifisches Modell der t(4;11)-assoziierten Leukämogenese entstand. Das Modell diskutiert die onkogene Funktion des AF4•MLL-Proteins besonders während der hämatopoetischen Differenzierung. Durch die Ergebnisse dieser Arbeit zum klonogenen Wachstum der humanen Zellen nach Expression von AF4•MLL und der Ergebnisse im MLL•C-Mausmodell konnte ein Einfluss des Reziproks auf die Differenzierung von Leukozyten gezeigt werden.
Weiterhin konnte nach AF4•MLL-Expression in humanen Zellen die Steigerung des Metabolismus aber auch die einhergehende vermehrte Apoptose bestätigt werden, welche die lange Latenzzeit im AF4•MLL-Mausmodell begründen könnte. Durch Kooperation mit dem MLL•AF4-Protein, welches anti-apoptotische Effekte zeigt, könnte es jedoch zum frühen Ausbruch der Erkrankung im Säuglingsalter kommen. Allerdings konnte in dieser Arbeit auch eine Steigerung der Proliferation von MLL•AF4-exprimierenden Zellen beobachtet werden, wenn anti-apoptotische Mechanismen des Fusionsproteins inaktiv sind, welche aus der Aktivierung des RAS/RAF/MEK/ERK-Signalwegs resultiert. Werden neben der Translokation zusätzliche RAS-Mutationen aquiriert, die bei 26 % der Kinder mit einer t(4;11)-Leukämie auftreten, wird der Signalweg und somit die Proliferation der leukämischen Blasten zusätzlich stabilisiert. Dadurch kommt es zu höheren Leukozytenzahlen und einem noch früheren Ausbruch der Erkrankung. Weiterhin deckte die Analyse von sekundären Mutationen auch die Beteiligung des FLT3-Signalwegs an der Therapieresistenz durch Quieszenz auf. Ein besonderer Einfluss von Koffein als Stimulans in t(4;11)-Zellen konnte hingegen ausgeschlossen werden. So wurde der Pathomechanismus der t(4;11)-assoziierten Leukämie in dieser Arbeit weiterführend aufgeklärt, wodurch Strategien zur Therapie und Heilung der Erkrankung in Zukunft intensiviert werden können.
Modern experiments in heavy ion collisions operate with huge data rates that can not be fully stored on the currently available storage devices. Therefore the data flow should be reduced by selecting those collisions that potentially carry the information of the physics interest. The future CBM experiment will have no simple criteria for selecting such collisions and requires the full online reconstruction of the collision topology including reconstruction of short-lived particles.
In this work the KF Particle Finder package for online reconstruction and selection of short-lived particles is proposed and developed. It reconstructs more than 70 decays, covering signals from all the physics cases of the CBM experiment: strange particles, strange resonances, hypernuclei, low mass vector mesons, charmonium, and open-charm particles.
The package is based on the Kalman filter method providing a full set of the particle parameters together with their errors including position, momentum, mass, energy, lifetime, etc. It shows a high quality of the reconstructed particles, high efficiencies, and high signal to background ratios.
The KF Particle Finder is extremely fast for achieving the reconstruction speed of 1.5 ms per minimum-bias AuAu collision at 25 AGeV beam energy on single CPU core. It is fully vectorized and parallelized and shows a strong linear scalability on the many-core architectures of up to 80 cores. It also scales within the First Level Event Selection package on the many-core clusters up to 3200 cores.
The developed KF Particle Finder package is a universal platform for short- lived particle reconstruction, physics analysis and online selection.
In this thesis hard probes are studied in the partonic transport model BAMPS (Boltzmann Approach to MultiParton Scatterings). Employing Monte Carlo techniques, this model describes the 3+1 dimensional evolution of the quark gluon plasma phase in ultra-relativistic heavy-ion collisions by propagating all particles in space and time and carrying out their collisions according to the Boltzmann equation. Since hard probes are produced in hard processes with a large momentum transfer, the value of the running coupling is small and their interactions should be describable within perturbative QCD (pQCD). This work focuses on open heavy flavor, but also addresses the suppression of light parton jets, in particular to highlight differences due to the mass. For light partons, radiative processes are the dominant contribution to their energy loss. For heavy quarks, we show that also binary interactions with a running coupling and an improved Debye screening matched to hard-thermal-loop calculations play an important role. Furthermore, the impact of the mass in radiative interactions, prominently named the dead cone effect, and the interplay with the Landau-Pomeranchuk-Migdal (LPM) effect are studied in great detail. Since the transport model BAMPS has access to all medium properties and the space time information of heavy quarks, it is the ideal tool to study the dissociation and regeneration of J/psi mesons, which is also investigated in this thesis.
A synchrotron is a particular type of cyclic particle accelerator and the first accelerator concept to enable the construction of large-scale facilities [10], such as the largest particle accelerator in the world, the 27-kilometre-circumference Large Hadron Collider (LHC) by CERN near Geneva, Switzerland, the European Synchrotron Radiation Facility (ESRF) in Grenoble, France for the synchrotron radiation, the superconducting, heavy ion synchrotron SIS100 under construction for the FAIR facility at GSI, Darmstadt, Germany and so on. Unlike a cyclotron, which can accelerate particles starting at low kinetic energy, a synchrotron needs a pre-acceleration facility to accelerate particles to an appropriate initial value before synchrotron injection. A pre-acceleration can be realized by a chain of other accelerator structures like a linac, a microtron in case of electrons, for example, Proton and ion injectors Linac 4 and Linac 3 for the LHC, UNLAC as the injector for the SIS18 in GSI and in future the SIS18 as injector for the SIS100. The linac is a commonly used injector for the ion synchrotron and consists of some key components. The three main parts of a linac are: An ion source creating the particles, a buncher system or an RFQ followed by the main drift tube accelerator DTL. In order to meet the energy and the beam current requirement of a synchrotron injector linac, its cost is a remarkable percentage of the total facility costs.
However, the normal conducting linac operation at cryogenic temperatures can be a promising solution in improving the efficiency and reducing the costs of a linac. Synchrotron injectors operate at very low duty factor with beam pulse lengths in 1 micros to 100 micros range, as most of the time is needed to perform the synchrotron cycle. Superconducting linacs are not convenient, as they cannot efficiently operate at low duty factor and high beam currents.
The cryogenic operation of ion linacs is discussed and investigated at IAP in Frankfurt since around 2012 [1, 37]. The motivation was to develop very compact synchrotron injectors at reduced overall linac costs per MV of acceleration voltage. As the needed beam currents for new facilities are increasing as well, the new technology will also allow an efficient realization of higher injector linac energies, which is needed in that case. Operating normal conducting structures at cryogenic temperature exploits the significantly higher conductivity of copper at temperatures of liquid nitrogen and below. On the other hand, the anomalous skin effect reduces the gain in shunt impedance quite a bit[25, 31, 9]. Some intense studies and experiments were performed recently, which are encouraging with respect to increased field levels at linac operation temperatures between 30 K and 70 K [17, 24, 4, 23, 5, 8]. While these studies are motivated by applications in electron acceleration at GHz-frequencies, the aim of this paper is to find applications in the 100 to 700 MHz range, typical for proton and ion acceleration. At these frequencies, a higher impact in saving RF power is expected due to the larger skin depth, which is proportional to the frequency to the power of negative half with respect to the normal skin effect. On the other hand, it is assumed that the improvement in maximum surface field levels will be similar to what was demonstrated already for electron accelerator cavities. This should allow to find a good compromise between reduced RF power needs for achieving a given accelerator voltage and a reduced total linac length to save building costs.
A very important point is the temperature stability of the cavity surface during the RF pulse. This is of increasing importance the lower the operating temperature is chosen: the temperature dependence of the electric conductivity in copper gets rather strong below 80 K, as long as the RRR - value of the copper is adequate. It is very clear, that this technology is suited for low duty cycle operated cavities only - with RF pulse lengths below one millisecond. At longer pulses the cavity surface will be heated within the pulse to temperatures, where the conductivity advantage is reduced substantially. These conditions fit very well to synchrotron injectors or to pulsed beam power applications.
H – Mode structures of the IH – and of the CH – type are well-known to have rather small cavity diameters at a given operating frequency. Moreover, they can achieve effective acceleration voltage gains above 10 MV/m even at low beam energies, and already at room temperature operation[29]. With the new techniques of 3d – printing of stainless steel and copper components one can reduce cavity sizes even further – making the realization of complex cooling channels much easier.
Another topic are copper components in superconducting cavities – like power couplers. It is of great importance to know exactly the thermal losses at these surfaces, which can’t be cooled efficiently in an easy way.
Einleitung Ziel dieser retrospektiven Studie war die Evaluation des Eurotransplant Senior Program (ESP) an unserem Zentrum unter besonderer Berücksichtigung operativer Gesichtspunkte und der Vergleich mit älteren Empfängern aus dem regulären Eurotransplant Kidney Allocation System (ETKAS). Patienten und Methoden Die Daten von 73 Patienten (durchschnittliches Empfänger-/Spenderalter 67,1 Jahre / 71,1 Jahre) aus dem ESP- und 51 Patienten (63,6 Jahre/49,7 Jahre) aus dem ETKAS-Programm, die zwischen den Jahren 1999 und 2006 transplantiert wurden, wurden miteinander verglichen. Das mittlere Follow-up betrug 39,5 ± 23,6 Monate. Ergebnisse Die Nierenfunktion der Spender gemessen an der Kreatinin-Clearance (ESP vs. ETKAS: 81,7 vs. 109,9 ml/min), die kalte Ischämiezeit (10,6 vs. 15,1h), die Dauer der Nierenersatztherapie (42,2 vs. 76,8 Monate) sowie die HLA Mismatches (4,1 vs. 2,4) waren zwischen den Gruppen signifikant verschieden (p<0,001). Die primäre Funktionsaufnahme der Transplantate lag im ESP vs. ETKAS bei 74% vs. 69%, 90% vs. 92% der Patienten wurden mit einem funktionierenden Transplantat entlassen (alle p>0,05). Die chirurgische Komplikationsrate lag im ESP vs. ETKAS bei 47% vs. 28% (p=0,031), die Revisionsrate bei 33% vs. 24% (p=0,259). 18% der Patienten aus dem ESP und 14% aus dem ETKAS sind im Verlauf des Follow-up verstorben (p=0,273), 95% davon mit guter Transplantatfunktion. Das 3-Jahres-Patientenüberleben betrug im ESP vs. ETKAS 84% vs. 92% (p=0,252), das zensierte 3-Jahres-Transplantatüberleben 85% vs. 88% (p=0,757). Schlussfolgerungen Es zeigte sich eine deutliche Erweiterung des Spender- und Empfängerpools durch das ESP. Die Transplantationsergebnisse im ESP waren hinsichtlich Patienten- und Transplantatüberleben durchaus mit den Ergebnissen der ETKAS-Gruppe vergleichbar. Patienten und deren betreuende Ärzte sollten allerdings über eine höhere chirurgische Komplikationsrate im ESP informiert sein. Chirurgische Komplikationen können die postoperative Behandlung der Patienten erheblich beeinflussen, bleiben jedoch meist ohne signifikanten Einfluss auf das Transplantationsergebnis.
In der heutigen Zeit ist der Konsum von Drogen wie THC und Amphetaminen insbe-sondere unter Jugendlichen weit verbreitet. Vor allem durch die aufputschende Wirkung der Amphetamine und deren Ruf als Partydroge kommt es gehäuft an Wochenenden zu vermehrten Autofahrten unter Drogeneinfluss. Die vorliegende Arbeit untersucht die Auswirkungen von THC- und Amphetaminkon-sum auf verschiedene Sehleistungen. Zu diesem Zweck wurde eine Gruppe von Kraft-fahrzeugführern, die unter Drogeneinfluss standen, mit einem nicht beeinflussten Kol-lektiv verglichen. Es zeigten sich signifikante Unterschiede im Bereich der Testzeit sowie des Stereose-hens, wobei die Gruppe der Drogenkonsumenten und hier vorrangig die Amphetamin-konsumenten deutlich schlechter abschnitten. Die Beeinträchtigungen im Bereich der Testzeit dürften auf eine deutlich eingeschränkte Konzentrationsfähigkeit unter Amphetamin- und THC- Konsum zurück zu führen sein, vermutlich hervorgerufen durch Wirkungen im Bereich des Hypothalamus und Hippo-campus, welche im Bereich der Aufmerksamkeit sowie des Lernverhaltens eine wich-tige Rolle spielen. Verbindungen dieser beiden Hirnareale zur Sehbahn könnten eine Erklärung für die Einschränkungen im Bereich des Stereosehens vor allem der Amphetamingruppe sein, da diese Substanzgruppe sowohl Hippocampus, Hypothalamus als auch die Mandel-kerne beeinflusst, THC hingegen nur den Hippocampus. Insgesamt muss anhand der vorliegenden Ergebnisse von einer Beeinträchtigung der Fahrtüchtigkeit unter THC und Amphetaminen unabhängig von der konsumierten Dro-genmenge ausgegangen werden. Hieraus lässt sich ableiten, dass die Einführung eines Grenzwertes aufgrund der sehr individuellen Beeinträchtigungen auf die kognitiven und optischen Fähigkeiten einer einzelnen Person als äußerst problematisch zu bewerten ist und somit die Fahrsicherheit und Fahreignung nur bei einem völligen Verzicht auf jeg-lichen Cannabis- oder Amphetaminkonsum gewährleistet ist.
The adult mammalian heart is unable to regenerate lost myocardial tissue after injury. In contrast, some lower vertebrates including zebrafish are able to undergo complete epimorphic regeneration following multiple types of cardiac injury. During the process of regeneration, spared zebrafish cardiomyocytes in the vicinity of the injured area undergo dedifferentiation and proliferation, thereby giving rise to new cardiomyocytes which replace the injured muscle. Insights into the molecular networks controlling these regenerative processes might help to develop novel therapeutic strategies to restore cardiac performance in humans.
While TGF-β signaling has been implicated in zebrafish cardiac regeneration, the role of individual TGF-β ligands remains to be determined. Here, I report the opposing expression response of two TGF-β ligand genes, mstnb and inhbaa, during zebrafish heart regeneration. Using gain- and loss-of-function approaches, I show that these ligands exert opposite effects on cardiac regeneration and specifically on cardiomyocyte proliferation. Notably, I show that overexpression of mstnb and loss of inhbaa negatively regulate cardiomyocyte proliferation and therefore disturb cardiac regeneration. In contrast, loss of mstnb and activation of inhbaa not only promote physiological cardiomyocyte proliferation but also enhance cardiac regeneration. I also identify Inhbaa as a mitogen which promotes cardiomyocyte proliferation independent of the well-established Nrg-ErbB signaling. Mechanistically, I unraveled that Mstnb and Inhbaa function through alternate Activin type 2 receptor complexes to control the activities of the signal transducers, Smad2 and Smad3, thereby regulating cardiomyocyte proliferation.
Altogether, I reveal novel and unidentified opposite functions of two TGF-β ligands during cardiac development and regeneration, resulting in a pro-mitogenic as well as an anti-mitogenic effect on cardiomyocytes. This study should therefore stimulate further research on targeting specific TGF-β family members to generate novel regenerative therapeutic strategies.
Ziel der vorliegenden Arbeit war der Nachweis der bekannten Tonotopie im auditorischen Cortex der Katze mittels optical recording intrinsischer Signale (ORIS) mit der Frage, ob ORIS eine funktionelle Bildgebung ermöglicht, die den etablierten elektrophysiologischen Ableitungsmethoden an räumlicher und zeitlicher Auflösung ebenbürtig oder sogar überlegen ist. Hierzu wurde ein ORIS- Setup erstellt, dessen Schwankungsbreiten von Beleuchtungseinheit und aufzeichnendem System in Ableitung mit grünem Licht bei einer Größenordnung von 0,03% hinreichend niedrig lagen, um stimulusassoziierte Signale in den von den meisten Autoren berichteten Amplituden sicher ableiten zu können. Es wurden spontane wie durch elektrische und akustische Stimuli evozierte Änderungen in den Reflexionseigenschaften des primären auditorischen Cortex (A1) der Ketamin- und Isofluran- anästhesierten Katze beobachtet. In Ruhe stellten sich bei 540nm in sämtlichen Versuchstieren (n=4) spontane Absorptionsoszillationen mit einer Grundfrequenz von 0,1Hz und einer Amplitude zwischen 1 und 3,5% dar („Mayer-waves“), deren Ursprung (intra- versus extracerebral) jedoch nicht gesichert werden konnte und die sich von den anliegenden Stimuli unbeeinflußt zeigten. Ein der bekannten Tonotopie korrespondierendes Muster aktivierter Areale nach Stimulation konnte lediglich bei ¼ der Versuchstiere nachgewiesen werden (P124, elektrische Reizung, 30 Mittelungsdurchgänge). Die erreichten Absorptionsmaxima nach 12dB überschwelliger elektrischer Reizung des Hörnerven lagen bei etwa 0,5% mit einer Latenz bis zum Signalmaximum von 5,5 sec. Bei P126 war erst nach Mittelung von 18 Durchgängen ein zeitlicher Zusammenhang zwischen optisch erhobenen Daten und Stimulus nachweisbar. Bei P125 stellte sich nach 30 Mittelungsschritten zwar ein caudo-rostraler Shift der optischen Maxima bei Stimulation von 1kHz auf 4kHz dar, was der bekannten cortikalen Frequenzrepräsentation entsprach, doch ließ die darauffolgende Reizung mit 16 kHz keinen weiteren Shift nach rostral erkennen. Das cortikale Gebiet maximaler optischer Aktivität lag gegenüber dem Ort der 4kHz-Repräsentation caudomedial versetzt. Dies widerspricht der bekannten cortikalen Cochleotopie. Es fand sich nach Mittelung über 18 (P126) bzw. 30 (P124 und P125) Durchgänge gleicher Stimulation bei allen Tieren ein fleckiges, stimulusassoziiertes, jedoch nicht tonotop verteiltes Signal in Form einer Absorptionszunahme mit Maximum nach 6-8,5 Sekunden. Es erreichte Amplituden zwischen 1% und 2,5%. Die optischen Aktivitätsmuster zeigten eine erhebliche Varianz unter Durchgängen bei gleichem Stimulus. In einem Experiment (P126) fand ein Vergleich der optisch generierten Ergebnisse mit elektrophysiologischen Multiunit-Messungen statt. Es konnte nur bei einer Stimulationsfrequenz (8kHz) eine schwache Korrelation der lektrophysiologischen Multiunit-Antworten mit den optisch erhobenen Reflexionsänderungen festgestellt werden. Wir schließen daher, dass die Darstellung einer Tonotopie mittels ORIS nur in einem Bruchteil der untersuchten Versuchstiere mit gegenüber elektrophysiologischen Methoden deutlich geringerer Reliabilität, Validität und räumlicher Auflösung machbar ist, möglicherweise, weil ORIS am primären auditorischen Cortex der Katze lediglich ein grobes Signal der Tonotopie liefert, ohne hierbei auf die Lokalisation aktiver Neurone beschränkt zu sein. ORIS ist demnach zum Ersatz der etablierten Elektrophysiologie am A1 der Katze nicht geeignet.
Optimierte Labordiagnostik zum Nachweis einer Heparin-induzierten Thrombozytopenie (HIT) Typ II
(2002)
Es ist bekannt, dass nicht alle Patienten, die sich unter einer Heparintherapie nachweislich gegen Heparin/PF4-Komplex immunisieren, das klinische Bild einer Heparin-induzierten Thrombozytopenie (HIT) Typ II entwickeln, wenngleich Heparin/PF4-Antikörper ursächlich für diese schwerwiegende Nebenwirkung angeschuldigt werden. Es ist davon auszugehen, dass in Abhängigkeit von der Grunderkrankung der Anteil der Patienten mit Heparin/PF4-Antikörpern, der keine Klinik entwickelt, relativ groß ist. Da die bisher entwickelten Testsysteme auf dem Nachweis von Heparin/PF4-Antikörpern beruhen, wirkt sich dieses Phänomen nachteilig auf die Testspezifität aus. In der vorliegenden Arbeit wurde untersucht, welche der Immunglobulinklassen der HITspezifischen Antikörper für die Auslösung einer HIT Typ II von Bedeutung sind, und inwieweit die isolierte Bestimmung einer der Immunglobulinklassen IgG, IgM und IgA in der Lage ist, die Aussagekraft eines immunologischen Testsystems zu verbessern. Hierzu wurden Patienten, bei denen Heparin/PF4-Antikörper nachweisbar waren, nach klinischen Kriterien in drei verschiedene Gruppen unterteilt und bezüglich der Immunglobulinklassen verglichen. In Gruppe I wurden Patienten zusammengefasst, bei denen sich der klinische Verdacht einer HIT Typ II labordiagnostisch durch Heparin/PF4-Antikörpernachweis bestätigte, und die als besonderes Kriterium thromboembolische Komplikationen entwickelten. Patienten mit einer isolierten Heparin-induzierten Thrombozytopenie und positivem Antikörpernachweis aber ohne thromboembolische Komplikationen wurden als Gruppe II unterschieden. Durch die getrennte Beobachtung dieser beiden Patientengruppen sollte der prädiktive Wert der Immunglobulinklassen für die Entwicklung von Thrombosen unter HIT Typ II untersucht werden. Verglichen wurden diese beiden Gruppen mit einer dritten Gruppe von selektierten Patienten aus einer prospektiven Studie. Die eingeschlossenen gefäßchirurgischen Patienten aus dieser Studie mussten die Kriterien "positiver Heparin/PF4-Antikörpernachweis während Heparintherapie" und "keine klinischen Zeichen einer Heparin-induzierten Thrombozytopenie Typ II" erfüllen. In dieser Arbeit wurde weiter untersucht, welche der Immunglobulinklasse IgG, IgM und IgA am besten zwischen Patienten mit positiven Heparin/PF4-Antikörpern mit und ohne typischer "HIT-Klinik" unterscheiden kann. Die Bestimmung der Immunglobulinklassen erfolgte zum Zeitpunkt des akuten thrombozytopenischen Geschehens, bzw. bei den asymptomatischen Patienten in einem Zeitfenster von 5 bis 20 Tagen nach Therapiebeginn mit einer ELISA-Methode nach Amiral et al. (1991). Parallel zu den immunologischen Untersuchungen wurde ein etablierter, funktioneller Test, der Heparin-induzierte Plättchenaktivierungstest (HIPA) von Greinacher et al. (1991) bei allen Patienten angewandt. Es kam zu folgenden Ergebnissen im Vergleich der Gruppen: Die Patienten mit einer HIT Typ II mit thromboembolischen Komplikationen ließen sich durch keine der untersuchten Immunglobulinklasse oder den Heparin-induzierten Plättchenaktivierungstest (HIPA-Test) signifikant von den Patienten mit HIT ohne thromboembolische Ereignisse unterscheiden. Die asymptomatischen Patienten mit positivem Heparin/PF4-Antikörpernachweis waren signifikant (p < 0,05) von den Patienten mit einer klinisch wahrscheinlichen und laborchemisch nachgewiesenen HIT Typ II zu unterscheiden durch die Immunglobulinklasse IgG und den Heparin-induzierten Plättchenaktivierungstest (HIPA-Test), nicht aber durch die Immunglobulinklassen IgM und IgA. Dementsprechend zeigte IgG in der Diskriminanzanalyse zwischen Patienten mit klinisch eindeutigem HIT Typ II und asymptomatischen Patienten mit positivem Heparin/PF4- Antikörpernachweis mit 20 % eine um 9 % niedrigere Fehlklassifikationsrate als die Mischung aus IgG, IgM und IgA. Der durch die Diskriminanzanalyse optimierte Cut-Off konnte zwar für die Mischung aus IgG, IgM und IgA eine Spezifitätssteigerung von 0 auf 66,6 % erzielen, dies verursachte jedoch einen Verlust an Sensitivität von 91 % auf 76 %. Der Verlust an Sensitivität ist bei der Immunglobulinklasse IgG mit 2 % deutlich günstiger, während die Spezifität zusätzlich durch die Cut-Off Optimierung von 62,5 auf 70,8 % gesteigert werden konnte. Damit ist der Heparin/PF4-Antikörper-EIA mit der isolierten Bestimmung der Immunglobulinklasse IgG bei vergleichbarer Sensitivität spezifischer als der funktionelle HIPA-Test. Aus diesen Ergebnissen lässt sich bestätigen, dass die Immunglobulinklasse IgG eine zentrale Rolle in der Pathogenese spielt, während die Klassen IgM und IgA keinen Einfluß auf die Klinik der HIT Typ II zu haben scheinen. Da nicht alle Patienten mit Heparin/PF4-Antikörpern der Klasse IgG eine HIT Typ II entwickeln, müssen weitere Faktoren am Zustandekommen der klinischen Symptomatik beteiligt sein. Weiter lässt sich schlussfolgern, dass der Heparin/PF4-Antikörper-EIA (HPIA), sofern man nur die relevante Immunglobulinklasse IgG misst, ein brauchbares Instrument zur Diagnostik der HIT Typ II darstellt, und daher von weniger spezialisierten Labors wegen seiner besseren Praktikabilität einem funktionellen Test wie dem HIPA-Test vorgezogen werden sollte. Zwischen Immunglobulinklassen und dem Risiko, ein thromboembolisches Ereignis während einer HIT Typ II zu entwickeln, konnte kein Zusammenhang festgestellt werden. Es ist zu vermuten, dass der überwiegende Teil der Patienten mit initial isolierter Thrombozytopenie bei fortlaufender Therapiedauer auch Thrombosen entwickelt hätte und sich die beiden Patientengruppen I und II nur hinsichtlich der Dauer der Heparintherapie unterscheiden.
Pflanzliche Biomasse bietet sich hervorragend als billiges und in großen Mengen verfügbares Ausgangssubstrat für biotechnologische Fermentationsprozesse an. Für die Herstellung von Bioethanol ist die Hefe Saccharomyces cerevisiae der wichtigste Produktionsorganismus. Allerdings kann S. cerevisiae die in Biomasse in großer Menge enthaltenen Pentosen Xylose und Arabinose nicht verwerten. Für einen ökonomisch effizienten Fermentationsprozess ist es daher essentiell, das Substratspektrum der Hefe entsprechend zu erweitern. Im Rahmen dieser Arbeit ist es gelungen, den bereits in Hefe etablierten bakteriellen Arabinose-Stoffwechselweg signifikant zu verbessern. Genetische und physiologische Analysen ergaben, dass eines der heterolog produzierten Enzyme, die L-Arabinose-Isomerase aus Bacillus subtilis, einen limitierenden Schritt innerhalb des Stoffwechselweges darstellte. In einem genetischen Screening konnte ein aktiveres Isoenzym aus Bacillus licheniformis gefunden werden. Zusätzlich wurde der Codon-Gebrauch aller heterologen bakteriellen Gene dem Codon-Gebrauch der hoch-exprimierten glykolytischen Gene von S. cerevisiae angepasst. Mit diesem rationalen Ansatz konnte die Ethanolproduktivität aus Arabinose um mehr als 250% erhöht werden, der Ethanolertrag wurde um über 60% gesteigert. Dies stellte die erste erfolgreiche Verbesserung eines heterologen Stoffwechselwegs in S. cerevisiae über Codon-optimierte Gene dar. In einem breit angelegten Screening wurde zum ersten Mal eine prokaryontische Xylose-Isomerase gefunden, die in S. cerevisiae eine hohe Aktivität aufweist. Durch das Einbringen des xylA-Gens aus Clostridium phytofermentans in verschiedene Hefe-Stämme wurden diese in die Lage versetzt, Xylose als alleinige Kohlenstoffquelle zu nutzen. Zusätzlich konnte damit die Vergärung von Arabinose und Xylose in einem einzigen S. cerevisiae-Stamm kombiniert werden. Vorherige Versuche, einen Pentose-vergärenden Stamm zu konstruieren, der einen bakteriellen Arabinose-Stoffwechselweg mit dem eukaryontischen Xylose-Reduktase/Xylitol-Dehydrogenase-Weg kombinierte, scheiterten an der unspezifischen Umsetzung der Arabinose durch die Xylose-Reduktase zu dem nicht weiter verstoffwechselbaren Arabitol. Für einen industriellen Einsatz der rekombinanten Hefen war es unerlässlich, die Eigenschaften für die Pentose-Umsetzung in Industrie-relevante Hefe-Stämme zu übertragen. Durch die Etablierung von genetischen Methoden und Werkzeugen ist es in dieser Arbeit gelungen, Industrie-Stämme zu konstruieren, die in der Lage sind, Arabinose oder Xylose zu metabolisieren. Dabei wurden die heterologen Gene stabil in die Chromosomen der Stämme integriert. Diese wurden mit Hilfe von „Evolutionary Engineering“ so optimiert, dass sie die Pentose-Zucker als alleinige Kohlenstoffquellen zum Wachstum nutzen konnten. Fermentationsanalysen zeigten eine effiziente Umsetzung der Pentosen zu Ethanol in diesen Stämmen. Damit ist ein neuer Startpunkt für die Konstruktion von industriellen Pentose-fermentierenden Hefe-Stämmen markiert, der zukünftig effizientere Bioethanol-Produktion ermöglichen wird.
Optimierung Apolipoprotein-modifizierter Albumin-Nanopartikel zur Überwindung der Blut-Hirn-Schranke
(2007)
Das Gehirn höherer Säugetiere ist durch die Blut-Hirn-Schranke vor dem Eindringen toxischer und schädlicher Substanzen geschützt. Allerdings bildet diese Barriere auch ein Hindernis für die gezielte medikamentöse Therapie von Erkrankungen des zentralen Nervensystems wie zum Beispiel Alzheimer, Gehirntumore oder Parkinson. Leider sind nur wenige potentielle Arzneistoffe für die Therapie dieser Krankheiten in der Lage die Blut-Hirn-Schranke zu überwinden. Somit stellt die Blut-Hirn-Schranke einen limitierenden Faktor für die Arzneimitteltherapie dar. Diese Doktorarbeit beschäftigt sich mit der Herstellung, Charakterisierung, in vitro und in vivo Testung Liganden-modifizierter Nanopartikel auf Proteinbasis zur Überwindung der Blut-Hirn-Schranke. Als Ligand wurde das Apolipoprotein E, ein Bestandteil von physiologisch vorkommenden HDL, VLDL und LDL-Partikel, verwendet, welches sich in vorangegangenen Untersuchungen als potentieller Ligand zum Transport von Nanopartikeln ins Gehirn erwiesen hat. Diese so mit Apolipoprotein modifizierten Nanopartikel wurden mit dem Modellarzneistoff Loperamid, einem nicht gehirngängigen Opioid, beladen. Diese Zubereitung wurde Mäusen injiziert und der analgetische Effekt mittels des Tail-Flick-Tests bestimmt. Um auch eine therapeutische Anwendung zu erzielen, wurden Apolipoprotein modifizierte Partikel beladen mit dem Zytostatikum Doxorubicin entwickelt und die chemotherapeutische Effizienz an Gehirntumor tragenden Ratten getestet.
Das System der Hochschulzulassung war bis 2004 nicht im Stande sicherzustellen, dass die Eignungsprofile von Studienbewerbern in optimaler Weise mit den Anforderungen der jeweiligen Studiengänge abgeglichen wurden. Diesen Einwänden entgegenkommend wurde 2004 das Hochschulrahmengesetz novelliert. Die aus diesem Anlass vereinbarten Zielvereinbarungen zwischen dem Hessischen Ministerium für Wissenschaft und Kunst und der J.W. Goethe-Universität beschreiben Maßnahmen, die durch eine bessere Auswahl, Beratung und Betreuung der Studierenden in einem Studiengang eine Verbesserung der Studiensituation und des Studienerfolgs anstreben. Das Ziel der vorliegenden Arbeit ist, optimale Lösungen für die Beratung von Studienplatzbewerbern und für die Studierendenauswahl für den Diplomstudiengang Psychologie der J.W. Goethe-Universität zu entwickeln. Eingangs wird ein vergleichender Überblick über unterschiedliche Operationalisierungen des Studienerfolgs sowie über diverse Methoden der Studierendenauswahl und ihre Kombination zu einem Zulassungsverfahren gegeben. In einer breit angelegten Anforderungsanalyse (mittels einer Expertenbefragung, einer differenzierten Analyse der Abiturzeugnisse, einer Studie zur inkrementellen Validität psychologischer Tests sowie einer Befragung anhand eines speziell hierfür konzipierten Fragebogens) wurden studiengangspezifische Prädiktoren des Studienerfolgs extrahiert: Neben kognitiven Merkmalen waren es diverse Aspekte der studienbezogenen Leistungsorientierung, Lerntechniken und Interesse an Inhalten des Psychologiestudiums. Auf Grundlage dieser Ergebnisse wurden mehrere Skalen konzipiert und ein webbasierter Selbst-Test (Online-Self-Assessment) erstellt. Im Verfahren können unterschiedliche Aufgaben bearbeitet werden, die sich in Form eines Realistic Study Preview an den konkreten Anforderungen des Studiengangs Psychologie der J.W. Goethe-Universität orientieren. Nach der Aufgabenbearbeitung erhalten Teilnehmer ein Ergebnisprofil und damit eine Rückmeldung bezüglich des anvisierten Studiums. Das Tool wurde an einer studentischen Stichprobe erprobt. Erste Validierungs- und Evaluationsergebnisse werden ausführlich berichtet. Sie legen nahe, die Skalen zur Erfassung der kognitiven Merkmale und der studienbezogenen Leistungsorientierung beizubehalten resp. zu erweitern und auf die Erhebung der Lerntechniken und des Interesses an Inhalten des Psychologiestudiums in der aktuellen Form zu verzichten. Vorschläge zur Optimierung des Beratungstools werden unterbreitet. Abschließend werden, vor dem Hintergrund der durchgeführten Studien, Empfehlungen für die Gestaltung der Zulassungsprozedur für den Diplomstudiengang Psychologie der J.W. Goethe-Universität gegeben.
Für verschiedene gentherapeutische Ansätze zur Behandlung der HIV-Infektion oder anderer erworbener oder angeborener Krankheiten wie z. B. der angeborenen Immunschwäche SCID ist ein hocheffizienter Gentransfer in CD4-positive T- Lymphozyten erforderlich. In der vorliegenden Arbeit wurden daher geeignete retrovirale Pseudotypvektoren weiterentwickelt. Unter Einsatz von Markergenen wurden Methoden der Transduktion primärer humaner Lymphozyten optimiert. Schließlich wurden verschiedene potentielle therapeutische anti-HIV-Gene durch retroviralen Gentransfer in humane T-Zelllinien übertragen und hinsichtlich der Hemmung der in-vitro Replikation verschiedener HIV-Stämme verglichen. Zunächst wurden stabile Verpackungszelllinien zur Herstellung von [MLV(HIV-1)]- und [MLV(GaLV)]-Pseudotypvektoren entwickelt, die ein für die Analyse der Transduktionseffizienz geeignetes Markergen übertragen. [MLV(HIV-1)]-Vektoren konnten mit Titern bis zu 2 x 10 hoch 5 i.E. / ml hergestellt werden. Die Optimierung der Kultivierung primärer humaner T-Lymphozyten vor dem ex- vivo Gentransfer ergab, dass eine 24-stündige PHA/IL-2 Stimulation mit anschließender 48-stündiger Kultivierung in IL-2 Medium optimal für die Transduktion primärer CD4-positiver T-Lymphozyten unter weitgehender Erhaltung des Expressionsmusters der Chemokinrezeptoren CXCR4 und CCR5 ist. Bei längerer Stimulation mit PHA und IL-2 verändert sich sowohl das CD4/CD8-Verhältnis als auch die CCR5-Expression gegenüber nativem Blut signifikant. Die Analyse der Expression des übertragenen Markergens und anderen Oberflächenmarkern der Zellen nach der Transduktion zeigte eine strikte Abhängigkeit der Transduktion der [MLV(HIV-1)]-Vektoren vom HIV-Rezeptor CD4, während herkömmliche [MLV(GaLV)]-Vektoren sowohl CD4-positive als auch CD4-negative Zellen transduzierten. Die Effizienz von [MLV(HIV-1CXCR4)]- Vektoren für CD4-positive Zellen war signifikant höher als die der [MLV(GaLV)]-Vektoren, während die Transduktionseffizienz der [MLV(HIV-1CCR5)]-Vektoren aufgrund der geringen Anzahl CCR5-positiver CD4-T-Zellen am niedrigsten war. Zwei Tage nach der Transduktion wurde eine reduzierte Korezeptorexpression in den Zellen nachgewiesen. Gründe hierfür könnten die Internalisierung der Korezeptoren nach der Transduktion oder eine durch die Kultivierung der Zellen bedingte Änderung der Expression sein. Nach weiterer Optimierung des retroviralen Gentransferprotokolls, u.a. durch Verwendung autologen Plasmas, konnten schließlich bei einmaliger Transduktion mit einer m.o.i. von 5 mit den [MLV(HIV-1CXCR4)]-Vektoren Transduktionsraten von bis zu 80 % erreicht werden. Zum Vergleich der Wirkung potentieller anti-HIV-Gene, die mit den neuen Vektoren in der Gentherapie des Immunschwächesyndroms AIDS eingesetzt werden könnten, wurden fünf verschiedene HIV-Inhibitoren (zwei intrazellulär exprimierte Antikörperfragmente (scFv) gegen HIV-1 Integrase und Reverse Transkriptase, zwei Ribozyme, die die HIV-1 RNA in der 5´-LTR oder im Pol- Leserahmen spezifisch spalten, sowie Interleukin-16) in den gleichen Transfervektor kloniert und durch retroviralen Gentransfer in die T-Zelllinie SupT1 übertragen. In Infektionsversuchen mit zwei unterschiedlichen HIV-1 Stämmen vermittelte jedoch keiner der potentiellen Inhibitoren eine signifikante Resistenz gegenüber HIV-1. Erst nach Sortierung der Kulturen auf starke Expression der übertragenen Gene konnte in den sortierten Zellen eine geringe Hemmwirkung des 5´-LTR-spezifischen Ribozyms auf die in-vitro Replikation des Stammes HIV-1IIIB, nicht jedoch auf die des Stammes HIV-1NL4-3 gezeigt werden. Die Signifikanz dieser Beobachtung muß über den Vergleich der Hemmwirkung weiterer Inhibitorgene geklärt werden.
Der durchflusszytometrische Nachweis antigenspezifischer T-Lymphozyten über die
Zytokinproduktion nach Kurzeitstimulation ermöglicht Aussagen über die zelluläre
Immunität, was in bestimmten Patientenkollektiven wie z. B. stammzelltransplantierten
Patienten von großem Wert sein kann. Infektionen mit Herpesviren wie z.B. dem
humanen Zytomegalievirus (CMV) oder den Herpes-Simplex-Viren (HSV) können in
diesem Kollektiv zu schweren, zum Teil auch letal verlaufenden Erkrankungen führen.
Zwar wurde diese Methode inzwischen durch die Entwicklung kommerzieller Testkits
zum Nachweis dieser Lymphozyten direkt aus Vollblut vereinfacht. Dennoch ist die
Durchführung dieses Tests nur wenig standardisiert und sehr aufwendig. In dieser
Arbeit wurde die Methode der Bestimmung antigenspezifischer T-Lymphozyten aus
Vollblut daher im Bezug auf die Durchführbarkeit optimiert sowie die Anwendbarkeit
dieser Methode bei Patienten mit bestehender Lymphopenie evaluiert.
Im Einzelnen wurde zunächst die Messung antigenspezifischer CD4+ T-Lymphozyten
anhand des Superantigens Staphylokokkenenterotoxin-B (SEB) sowie der Herpesviren
CMV und HSV-1 eingeführt. Hierzu wurde die Spezifität der Lymphozytenreaktionen
im Hinblick auf den Immunstatus von Probanden getestet und die Reproduzierbarkeit
der Messergebnisse ermittelt. Zur Vereinfachung der Stimulation wurde der
Thermoblock eingeführt, der die Inkubation der Proben automatisch nach einer
vorgegebenen Zeitspanne beendet. Vergleichende Ansätze nach der herkömmlichen
Methode mit einer Inkubation im Brutschrank ergaben keine Differenzen zwischen den
Inkubationsmethoden hinsichtlich der Resultate. Weiterhin wurde versucht, die Proben
zu konservieren, um so das Zeitfenster zwischen Blutentnahme und Verarbeitung der
Blutprobe zu vergrößern. Hierfür wurden die Proben mit dem Reagenz CytoChex®
behandelt, einem Zellstabilisator, der der Konservierung von Leukozyten dient. Trotz
mehrfacher Abwandlung des Protokolls gelang es nicht, die Blutproben für die
antigenspezifische Stimulation zu konservieren.
Ein zentraler Teil dieser Arbeit befasst sich mit der Fragestellung nach der
Anwendbarkeit dieses Testes zum Nachweis CMV-spezifischer T-Lymphozyten im
Rahmen einer Lymphopenie. Dies wurde bei einem Kollektiv stammzelltransplantierter
Patienten untersucht. Es zeigte sich, dass in diesem Kollektiv der Test durchführbar ist,
wenn mindestens 1.000 CD8+ T-Lymphozyten bzw. 3.000 CD4+ T-Lymphozyten durchflusszytometrisch nachgewiesen werden konnten. Anhand dieses Kollektivs wurde
zuletzt die Effizienz dieser Methode durch Weglassen der Kontrollantigenmessungen in
bestimmten Fällen und Einführung eines Auswertungstemplates zur indirekten
Ermittlung CD4+ T-Lymphozyten aus der CD8+ T-Lymphozytenmessung gesteigert.
Zusammenfassend bringen die in dieser Arbeit vorgestellten Modifikationen der
Standardmethode eine deutliche Vereinfachung mit sich. Weiterhin wird es möglich,
auch im Rahmen einer Lymphopenie antigenspezifische T-Lymphozyten nachzuweisen.
Dies ermöglicht zumindest weitere Untersuchungen im Hinblick auf die Fragestellung
nach einer ausreichenden Immunantwort gegen CMV bei immunsupprimierten
Patienten. So können in Zukunft auch bei Patienten mit hohem Risiko für eine CMVReaktivierung
und Erkrankung Aussagen über die Immunsituation gemacht werden um
möglicherweise eine Verbesserung der diagnostischen und damit auch therapeutischen
Situation dieser Patienten zu erzielen.
Trotz der Verfügbarkeit von siRNA, dem aktuellen Goldstandard zur Generierung von RNAInterferenz-vermitteltem Gen-silencing, stellen unerwünschte Immunantworten des Organismus auf doppelsträngige RNA exogenen Ursprungs noch immer ein fundamentales Problem dar, besonders mit Hinblick auf die Entwicklung Oligonukleotid-basierter Wirkstoffe.
Durch das begrenzte Repertoire an Modifikationen, welches durch die Abhängigkeit von zelleigenen Faktoren unter anderem zur Steigerung der intrazellulären Stabilität und zur Reduktion unerwünschter Effekte zur Verfügung steht, konnte bis dato nur einer überschaubaren Anzahl entsprechender Oligonukleotide eine offizielle Zulassung für die therapeutische Anwendung in der Medizin erteilt werden.
Hier bergen künstliche Ribonukleasen, welche die Umesterungsreaktion unabhängig von der zellinternen Maschinerie ebenfalls effizient und sequenzspezifisch bewerkstelligen können, großes Potential als eine Alternative. Während Metall-basierte Systeme in der Regel auf unphysiologisch hohe Konzentrationen zweiwertiger Übergangsmetallionen, wie beispielsweise Lanthanoide oder auch Kupfer, angewiesen sind, könnten metallfreie Katalysatoren dahingehend eine wesentlich flexiblere Option darstellen. Die Optimierung Guanidin-basierter RNA-Spalter für den Einsatz in der Bioanalytik und Medizin stellt seit geraumer Zeit eines der obersten Ziele unseres Arbeitskreises dar. Unter diesen bewährte sich vor allem das Tris(2-aminobenzimidazol), welches in Form von Konjugaten mit Antisense-Oligonukleotiden kurze Modellsubstrate sequenzspezifisch spaltet.
Neben der äußerst mühseligen, vielstufigen Synthese eines konjugierbaren Tris(2-aminobenzimidazol)s waren die untersuchten Systeme mit Halbwertszeiten von teilweise über 20 Stunden jedoch viel zu langsam, um auch potentiell beobachtbare Veränderung des Phänotyps in vivo induzieren zu können. Ein weiterer begrenzender Faktor stellte die Konjugationstrategie des Spalters über Aktivester-Chemie und Aminolinker dar, welche eine Kupplungsausbeute von 0 % bis im besten Fall ca. 30 % lieferte. Um eine Methode zu erhalten, welche routinemäßig zur sequenzspezifischen Spaltung einer Vielzahl verschiedener RNA-Substrate genutzt werden kann, war folglich eine praktikablere Synthesestrategie zur Darstellung der Spalterkonjugate einerseits und zudem eine Erhöhung der Katalysatoraktivität andererseits notwendig, um auch kurzlebige Ziel-RNAs wirkungsvoll ausschalten zu können. In diesem Zusammenhang wurde eine neue Syntheseroute erarbeitet, welche den für die Konjugation funktionalisierten Spalter über wenige Stufen in Mengen von über 10 g lieferte. Daran anschließend konnte die Synthese eines Phosphoramidits realisiert werden, welches in einer manuellen Kupplungsprozedur die Darstellung von 5‘-Konjugaten des Tris(2-aminobenzimidazol)s in exzellenten Ausbeuten und, im Vergleich zur vorherigen Methode, wesentlich kürzeren Kupplungszeiten ermöglichte. Die vollständige Kompatibilität des Phosphoramidits mit der automatisierten Festphasensynthese konnte im Rahmen dieser Arbeit jedoch nicht erreicht werden. Während die manuelle Prozedur Konjugationsausbeuten von über 90 % lieferte, wurden an einem handelsüblichen Oligonukleotid-Synthesizer auch nach Modifikation der Kupplungsprotokolle und bei erhöhtem Amiditverbrauch lediglich 65 %erzielt. Durch Inkorporation von LNA-Nukleotiden in zwei gegen die PIM1-mRNA gerichtete 15mer DNA-Konjugate ließ sich eine Reduktion der Halbwertszeit von Cy5-markierten 22mer Modellsubstrate auf unter 4 h erreichen, wobei dieses Resultat auch anhand eines 412mer Modellsubstrats und in Gegenwart hoher Phosphatkonzentrationen reproduziert werden konnte. Darüber hinaus wurde die besondere Rolle des closing base pairs, sowohl bezüglich der Selektivität als auch der Kinetik der Spaltung, offensichtlich. Während stärker hybridisierende GC-Basenpaare generell eine hohe Präzision gewährleisteten, trat im Falle von AT-Basenpaaren fraying auf, d. h. es konnte auch innerhalb des vermeintlichen Duplex Spaltung beobachtet werden. Genauere Studien zur Positionierung von LNA-Nukleotiden ergaben bei unmittelbarer Lokalisation am 5‘-Terminus von AT-closing base pairs zwar einen selektivitätssteigernden Effekt, überraschenderweise konnte in diesem Fall jedoch auch eine Inhibierung der Spaltungskinetik festgestellt werden. Durch Verschiebung in die vorletzte Position konnte die Aktivität des Konjugats ohne Präzisionsverlust jedoch wiederhergestellt werden. Erste Experimente zur intrazellulären Stabilität der Spalterkonjugate ergaben quantitative, stufenweise Zersetzung, sowohl des DNA- als auch der Mixmer-Konjugate nach wenigen Stunden, was die Notwendigkeit weiterer stabilitätssteigernder Modifikationen zur Vorbereitung auf in vivo-Experimente impliziert. Auf der Suche nach neuen Spaltern stellte sich vor allem das 2-Aminoimidazol als einer der aussichtsreichsten Kandidaten für genauere Untersuchungen heraus. Das korrespondierende Tris(2-aminoimidazol) konnte über eine Marckwald-Synthese in wenigen Stufen dargestellt werden. Erste Spaltexperimente ergaben vor allem in niedrigen Konzentrationen (10 μM) eine im Vergleich zum Benzimidazol-Analogon vielfach höhere Aktivität. Obwohl die Synthese eines funktionalisierten Bisimidazol-benzimidazols gelang, steht dessen Konjugation mit Oligonukleotiden und deren Aktivitätsbestimmung noch aus.
Im Rahmen dieser Arbeit konnte die Regiospezifität und Spaltungsausbeute von 5’-modifizierten Trisbenzimidazolkonjugaten wie 53 unter Verwendung von Helfer-Sequenzen verbessert werden (S.74 ff). Mit dieser Technik gelang es, Turnover zu erzielen und so eine echte katalytische Aktivität der DNA-Konjugate nachzuweisen. Die verwendeten Helfer-DNA-Sequenzen sind günstig zu erwerben oder mit einem DNA-Synthesizer leicht selbst herzustellen und können so der jeweiligen Aufgabe perfekt angepasst werden.
Weiterhin wurden verschiedene Versuche unternommen, ein 5’-modifiziertes Konjugat maßzuschneidern, so dass es durch interne bulge-Bildung mit seinem Substrat ebenfalls Turnover erreichen könnte und so katalytische Aktivität zeigte (S.59 ff). Diese Projekte wurden in Anlehnung an Arbeiten von Häner [91] durchgeführt, der damit Turnover erzielte, da das Konjugat nach Spaltung des bulges wieder in den katalytischen Zyklus eingegliedert werden konnte. Leider waren diese Versuche nicht von Erfolg gekrönt, obwohl man sich bei der Konzipierung der Substrat-Konjugat-Hybriden an die Sequenzen von Häner et.al. hielt. Statt dessen beobachtete man im Falle von Konjugat 51 bei der Hybridisierung die Ausbildung einer Helix; ein bulge konnte nicht erhalten werden (S. 61). Dieser Unterschied könnte auf die große, planare Spaltereinheit mit Europium(III) von Häner et. al. zurück zu führen sein, die im Falle der von uns untersuchten Konjugat-Substrat-Hybride fehlte, denn die 2-Aminobenzimidazol-Einheiten von Trisbenzimidazol 15 waren im Vergleich als klein anzusehen.
Diese Vermutung führte schließlich zu zwei unterschiedlichen Ansätzen. Einer davon war es, eine größere intercalationsfähige Teilstruktur in das Konjugat einzuführen. Man versuchte deshalb ein Konjugat zu synthetisieren, welches zwischen der katalytischen Einheit und dem sequenzerkennenden Teil die Pyrenaminosäure 56 von Dr. M. Suhartono trug (S. 69 ff).
Dieses sollte den großen, Häner’schen Rest imitieren und so einen bulge erzeugen. Leider gelang die Synthese dieses Konjugates nicht. Wie sich heraus stellte, war das kommerziell erworbene DNA-Material nicht geeignet für die angewendete Synthese. Eine Basen-Schutzgruppe bzw. das Anhydrid derselben, welches bei der Festphasensynthese als Capping-Reagenz verwendet wurde, führte zu einer irreversiblen Reaktion mit der 5'-NH2-Funktion an der DNA und machten das Material daher für eine Kupplung unbrauchbar.
Eine andere Herangehensweise war es, die Faltung des Konjugat-Substrat-Hybrides voraus zu berechnen und so ein Hybrid zu erhalten, welches einen bulge ausbildete (S. 65 ff). Konjugat 55 und Substrat 54 wurden nach dieser Strukturvorhersage synthetisiert bzw. erworben und entsprachen genau den Erwartungen, ein interner bulge wurde ausgebildet. Dennoch konnte man auch mit diesem System keinen Turnover erreichen.
Ein weiteres großes Teilgebiet dieser Arbeit war die Untersuchung kleiner Moleküle als unspezifische RNA-Spalter. Im Rahmen dieser Arbeit wurden speziell Guanidiniumanaloga auf ihre RNA-Spaltungsfähigkeit untersucht. In der Vergangenheit hatte man als Gütekriterium dieser Verbindungen das Augenmerk auf ihre pKa-Werte gerichtet. Sofern sich diese annähernd im physiologischen Bereich befanden, konnten häufig gute bis sehr gute RNA-Spaltungsausbeuten erzielt werden.
Erstmals kam das Konzept der Energiedifferenz zwischen den tautomeren Formen eines guanidiniumtragenden Moleküls als Werkzeug zur Vorhersage der Güte eines RNA-Spalters zum Einsatz (S.113 ff). Sofern die beiden Strukturen (Amino- und Iminotautomer) sehr geringe Energieunterschiede aufwiesen, sollten sie sich besser als „Protonen-Shuttle“ eignen und so die Phosphosäuretransesterifikation katalytisch besser unterstützen. Zusammen mit dem pKa-Wert der Verbindungen wurde untersucht, ob dieses Konzept als Vorhersagemethode tragfähig ist.
Unter den mit diesen Methoden gefundenen sowie kommerziell erhältlichen Molekülen konnte 2-Aminoperimidin 67 als sehr guter Spalter identifiziert werden. Verglichen mit Trisbenzimidazol 15 erreichte es ebenso gute Spaltungsraten wie letzteres, wobei 67 nur über eine einzige Guanidiniumeinheit verfügt. Dieser so identifizierte neue Kandidat für den Einbau in DNA-Konjugate enttäuschte auch nach Untersuchungen seines N-Methyl-Aminoderivates 80 nicht: Das Derivat zeigte eine ausreichend hohe Spaltungsaktivität, um es in Zukunft als Baustein für antisense-Konjugate in Frage kommen zu lassen.
Es gab allerdings auch Schwierigkeiten bei der Untersuchung der kleinen Moleküle. Problematisch gestaltete sich ihre Löslichkeit in hohen Konzentrationen. Man ging deshalb dazu über, Co-Solventien wie Methanol oder DMSO zu verwenden, um auch während des Experimentes eine ausreichende Löslichkeit der Verbindungen zu gewährleisten. Ein Volumenanteil von 20% Co-Solvens stellte sich als ideal heraus, das Experiment wurde dadurch nicht negativ beeinflusst.
Außerdem kam es zu Präzipitation einiger Substanzen (u.a. 2-Aminoperimidin 67) beim Auftragen auf das Sequenzierergel, welche die Auswertbarkeit dieser Experimente einschränkte. Die Verwendung eines neuen Harnstoffladepuffers beim Auftragen der Proben auf das Gel und das Senken der Substanzkonzentration (von mM auf μM) im Experiment verbesserten diese Situation deutlich. Häufig beobachtete Präzipitationseffekte waren danach größtenteils verschwunden, was die Auswertung der Spaltungsexperimente mit kleinen Molekülen erleichterte (S. 129 ff). Einige Verbindungen konnten mit der Kombination von ΔHf-Wertbestimmung und pKa-Wert-Bestimmung als schlechte RNA-Spalter korrekt vorhergesagt werden (z.B. 2-Aminopyridin 69, 2- Aminopyrimidin 68).
Nicht ganz klar ist das mittelmäßige Abschneiden von Imidazoimidazol 71 als RNA-Spalter (S.136 ff). Durch seine Symmetrie liegt sein ΔHf-Wert bei 0 und auch sein pKa-Wert liegt mit 7.4 perfekt im physiologischen Bereich. Dennoch konnte es nur Spaltungsausbeuten von unter 10% bei Konzentrationen im höheren mM-Bereich erreichen. Es ist aber auch die einzige untersuchte Verbindung, die signifikant RNA schneidet, ohne diese gleichzeitig zu aggregieren oder zu denaturieren.
Untersuchungen des Aggregationsverhaltens der kleinen Moleküle mittels FCS-Messungen (S. 139 ff) zeigten, dass fast alle bei hohen Konzentrationen – etwa im mM- oder hohem μMBereich – Aggregate bilden, und das auch bei Verwendung von Co-Solventien, wie es im Rahmen dieser Arbeit etabliert wurde. Man kann also bei den kleinen Katalysatoren nicht davon ausgehen, dass isolierte Moleküle für die beobachteten Effekte verantwortlich sind. Vielmehr agieren diese Moleküle bei solchen Konzentrationen als große oder kleine Aggregate, die durch die Vielzahl ihrer katalytischen Einheiten an der Oberfläche ihr Potential vervielfachen. Erst bei niedrigen Konzentrationen lösen sich die Aggregate auf, man kann hier wieder von einem Ein-Molekül-ein-Substrat-Mechanismus ausgehen (s. Schema 3 S. 110).
Dies wird allerdings nicht als Ausschlusskriterium gesehen, diese Moleküle auch weiterhin als potentielle Kandidaten für antisense-Konjugatbausteine zu betrachten. In Konjugaten verhalten sie sich wie Einzelmoleküle, bei denen man streng mechanistische Betrachtungen anstellen kann und darf.
Fokus meiner Doktorarbeit ist die Anwendung und Entwicklung NMR-spektroskopischer Methoden zur Charakterisierung zeitabhängiger Strukturänderungen von Biomolekülen – von lokalen dynamischen Veränderungen bis zur vollständigen Rückfaltung von Proteinen – und fasst die Ergebnisse meiner drei wichtigsten PhD-Projekte zusammen.
In meinem ersten Projekt habe ich die Leistung eines Temperatursprung-Probenkopfs – mit dem Proben mit hoher Salzkonzentration schnell erwärmt werden können – mithilfe einer Hochfrequenzspule technisch optimiert. Die optimierten Radiofrequenz-Bestrahlungsparameter, Lösungsmittel-bedingungen und der reduzierte Arbeitszyklus führten zu einem Temperatursprung von 20 °C in 400 ms. Ich habe eine Cystein-freie Mutante von Barstar hergestellt, die nach Zugabe von Harnstoff bei 0 °C kalt denaturiert werden kann, während sie ihren gefalteten Zustand bei 30 °C hält. Dadurch wurde auch ermöglicht, dass der Rückfaltungsprozess hunderte Male ohne Abbau oder Aggregation wiederholt werden kann. Die Kombination von reversibler Rückfaltung und rascher Temperaturänderung des kalt denaturierten Barstars ermöglichte die Entwicklung eines neuen kinetischen Experiments, bei dem der Rückfaltungsprozess von Barstar mit einem zweidimensionalen Echtzeit-NMR in hoher Zeitauflösung untersucht wird. Die vollständige Rückgratresonanzzuweisung wurde sowohl für den gefalteten als auch für den kalt denaturierten Zustand von Barstar durchgeführt und ergab, dass in der denaturierten Form beide Prolin-Reste einen gemischten Konformationszustand aufweisen. Dabei befindet sich die Tyr47-Pro48-Amidbindung im ungefalteten Zustand hauptsächlich in trans-, während im gefalteten Zustand in der seltenen cis-Konformation. Das neue hochauflösende kinetische Experiment zeigte, dass die Rückfaltung von Barstar durch die trans-cis-Isomerisierung der Tyr47-Pro48-Amidbindung verlangsamt wird, was sowohl die Sekundärstruktur als auch die Bildung der Tertiärstruktur beeinflusst. Basierend auf diesen Ergebnissen konnte ich einen plausiblen Faltungsmechanismus für den langsamen Faltungsweg von kalt denaturiertem Barstar skizzieren. Durch Änderung der Zeitparameter des Heizungszyklus wurde erreicht, dass die Tyr47-Pro48-Amidbindung im ungefalteten Zustand in der cis-Konformation bleibt und daher der schnelle Faltungsweg dominant wird. Das Starten des Magnetisierungstransfers vor der Temperaturänderung ermöglichte die Aufzeichnung eines Spektrums, das den entfalteten Zustand mit dem gefalteten Zustand korreliert. Dieses Spektrum ermöglichte quantitative Analysen des schnellen Faltungsweges und lieferte sogar indirekte Hinweise auf einen Zwischenzustand. Diese Methode aus Kombination von schnellem Temperatursprung und Kaltdenaturierung zeigt ein hohes Potenzial, Proteinfaltung auf atomarer Ebene experimentell zu untersuchen und ein tieferes Verständnis verschiedener Faltungswege zu erlangen.
In meinem zweiten Projekt – das Teil einer interdisziplinären Forschung war – konzentrierte ich mich auf die NMR-spektroskopische Charakterisierung von Nukleinsäuren, die mit einer photolabilen Schutzgruppe modifiziert wurden. Zuerst wurde mithilfe homonuklearer Korrelationsexperimente eine vollständige Protonresonanzzuweisung erreicht. Danach wurde die relative Konfiguration der photolabilen Schutzgruppen bestimmt basierend auf einer dreidimensionalen Modellstruktur und spezifischer NOE-Korrelationen. Des Weiteren wurde ein Strukturmodell unter Verwendung von NOE-Einschränkungen berechnet. Dieses Strukturmodell zeigte eine eingeschränkte Rotation um die CN-Bindung zwischen dem Käfig und der Nukleobase. Das Modell zeigte auch, dass der Käfig in der Hauptrille positioniert ist und nicht in das Lösungsmittel herausklappt. Im Vergleich zu einem zuvor charakterisierten NPE-Käfig führte die erhöhte Größe zu einer weiteren Senkung des Schmelzpunkts, zeigte jedoch einen geringeren Schmelzpunktunterschied zwischen der S- und der R-Konfiguration des Käfigs, wobei die S-Konfiguration zu einer größeren Reduktion des Schmelzpunktes führt. Dieser Trend wurde weiter untersucht und durch ein Screening unterstützt. Durch selektive Wasserinversions-Rückgewinnungsexperimente konnte ich auch zeigen, dass der Käfig die lokale Stabilität nur bis zu einer Entfernung von zwei benachbarten Basenpaaren von der Modifikationsstelle verringert. Die NOE-Daten dienten auch als guter Bezugspunkt, um die Qualität molekulardynamischer Simulationen zu testen, mit denen zusätzliche Käfigdesigns untersucht wurden. Die Kombination aus Synthese, NMR-Spektroskopie und MD-Simulationen ermöglichte bis jetzt die detaillierteste Untersuchung des Effekts vom Einbau eines einzelnen Käfigs zur Destabilisierung der DNA-Sekundärstruktur. Dabei wurden Einschränkungen des möglichen Designs aufgedeckt, aber auch die Entwicklung einer neuen, effizienteren Struktur ermöglicht.
Mein drittes Projekt konzentrierte sich auf die Charakterisierung eines RNA-Modellsystems. NMR-spektroskopische Daten von kleinen RNA-Modellsystemen – wie NOE, skalare Kopplungen, kreuzkorrelierte Relaxationsraten und RDC – sind eine unschätzbare Referenz für MD-Simulationen, obwohl die Menge der verfügbaren Literaturdaten – bis jetzt – sehr begrenzt ist. ...
A promising strategy to reduce the dependency from fossil fuels is to use the yeast Saccharomyces cerevisiae to bioconvert renewable non-food feedstocks or waste streams, like lignocellulosic biomass, into bioethanol and other valuable molecule blocks. Lignocellulosic feedstocks contain glucose and significant fractions of the pentoses xylose and arabinose in varying proportions depending on the biomass type. S. cerevisiae is an efficient glucose consumer, but it cannot metabolize xylose and arabinose naturally. Therefore, extensive research using recombinant DNA techniques has been conducted to introduce and improve the biochemical pathways necessary to utilize these non-physiological substrates. However, any functional pathway capable of metabolizing D xylose and L arabinose in S. cerevisiae requires the transport of these sugars across the plasma membrane. The endogenous sugar transport system of S. cerevisiae can conduct a limited uptake of D-xylose and L-arabinose; this uptake enables only basal growth when the enzymatic pathways are provided. For this reason, the uptake of D xylose and L-arabinose has been recognized as a limiting step for the efficient utilization of these non-physiological substrates.
Gal2, a member of the major facilitator superfamily, is one of the most studied hexose transporters in S. cerevisiae. Although its expression is repressed in the presence of glucose, it also transports this sugar with high affinity when constitutively expressed. Recent efforts to engineer yeast strains for the utilization of plant biomass have unraveled the ability of Gal2 to transport non-physiological substrates like xylose and arabinose, among others. Improving Gal2 kinetic and substrate specificity, particularly for pentoses, has become a crucial target in strain engineering. The main goal of this study is to improve the utilization of xylose and arabinose by increasing the cell permeability of these non physiological substrates through the engineering of the galactose permease Gal2.
GAL2 gene expression depends on galactose, which acts as an inducer; nevertheless, even in the presence of galactose, glucose act as a strict repressor; consequently, GAL2 gene is usually placed under the control of a constitutive promoter. However, the presence of glucose additionally triggers the Gal2 degradation, which is mediated by the covalent attachment of the small 76 amino acid protein ubiquitin (Ub) to the targeted transporter; in a multi-step process called ubiquitination.
Ubiquitination of hexose permeases involves the activation of the Ub molecule by the E1 Ub-activating enzyme using ATP; then, the activated Ub is transferred to a specific Ub-conjugating enzyme E2, which donates the Ub indirectly through a specific HECT E3 enzyme (Rsp5) to a lysine residue of the substrate, with the aid of an adaptor protein which recognizes the target (Rsp5-adaptor). Ubiquitinated permeases are sent by membrane invagination to early endosomes, where they encounter ESCRTs (endosomal sorting complex required for transport). The targeted permeases are sorted in intralumenal vesicles (ILV) inside of the endosome, which after several cycles, turns into a multivesicular body (MVB) that subsequently fuses with the vacuole to expose the protein content of the ILVs to lumenal hydrolases for degradation.
Gal2 contains 30 lysine residues that may accept the ubiquitin molecule, which targets its degradation. It is known that mono-ubiquitination by Rsp5 on multiple lysine residues is necessary to internalize Gal2 (Horak & Wolf, 2001). However, the authors did not identify the specific lysine residues involved in the ubiquitination processes. This study screened several Gal2 variants where lysine residues were mutated or removed from the protein sequence to discover which lysine residues are likely involved in ubiquitination and consequent turnover of the transporter. The results of the screening showed that mutation of the N terminal lysine residues 27, 37, and 44 to arginine (Gal23KR) produced a functional transporter that, when fused with GFP (Gal23KR_GFP), showed an exclusive localization at the plasma membrane in cells growing in galactose or glucose as a sole carbon source (Tamayo Rojas et al., 2021b).
This study furthermore evaluated upstream signals caused by phosphorylation which triggers ubiquitination and consequent turnover of the targeted protein; using similar screening approaches to assess the stabilization of Gal2 by lysine residue modifications, it was possible to identify that N terminal serine residues 32, 35, 39, 48, 53, and 55 are likely involved in the internalization of Gal2, since a Gal2 construct where all these serines were mutated to alanine residues and tagged with GFP (Gal26SA_GFP) exhibited practically complete localization at the plasma membrane in cells growing in galactose or glucose as a sole carbon source (Tamayo Rojas et al., 2021b)...
In view of a growing world population and the finite nature of fossil resources, the development of eco-friendly production processes is essential for the transition towards a sustainable industry. Methanol, which can be produced both petrochemically and from renewable resources, offers itself as bridging technology and attractive alternative raw material for biotechnological processes. This work describes developments for the progress of the well-studied methylotrophic α proteobacterium Methylorubrum extorquens AM1 towards an efficient methylotrophic cell factory. Although many homologous and heterologous production routes have already been described and realized for M. extorquens in a laboratory scale, no industrial process has yet been realized. Three major reasons can be identified for this: (1) A limited choice of tools for genetic modifications, (2) a lack of understanding of carbon fluxes and side reactions occurring in modified strains, such as product reimports, and (3) the lack of tailored production strains for profitable target products and optimized bioprocessing protocols. The aim of the present work was to achieve developments for the mentioned areas. As a model application, the high-level production of chiral dicarboxylic acids from the substrate methanol was chosen. Enantiomerically pure chiral compounds are of great interest, e.g., as building blocks for chiral drugs. The ethylmalonyl CoA metabolic pathway (EMCP) which is part of the primary metabolism of M. extorquens, harbors unique chiral CoA-ester intermediates. Their acid derivatives can be released by cleavage of the CoA-moiety using heterologous enzymes. The dicarboxylic acids 2 methylsuccinic acid and mesaconic acid were produced in a previous study by introducing the heterologous thioesterase YciA into M. extorquens. In the said study, a combined product titer of 0.65 g/L was obtained in shake flask experiments. These results serve as the basis for the developments in the present work.
First, the previously described reuptake of products was thoroughly investigated and dctA2, a gene encoding for an acid transporter, was identified as target for reducing the product reuptake. In addition, reuptake of mesaconic acid was prevented by converting it to (S)-citramalic acid, a product not metabolizable by M. extorquens, by the introduction of a heterologous mesaconase. Together with 2-methylsuccinic acid, for which a high enantiomeric excess of (S)-2-methylsuccinic acid was determined, a second chiral molecule was thus added to the product spectrum. For the release of dicarboxylic acid products, YciA, a broad-range thioesterase that accepts a variety of CoA-esters with different chain lengths as substrates, was chosen. The enzyme should theoretically be able to hydrolyze all CoA-esters of interest present in the EMCP. However, in culture supernatants of M. extorquens strains that were overexpressing the corresponding yciA gene, only mesaconic acid and 2 methylsuccinic acid could be detected. To expand the substrate spectrum of YciA thioesterase with respect to other EMCP intermediates, semi-rational enzyme engineering was attempted. Screening of the corresponding strains carrying the respective YciA variants did not result in strains capable of producing new dicarboxylic acid products. However, the experiments revealed an amino acid position that strongly affected the production of mesaconic acid and 2-methylsuccinic acid in vivo. By substituting the according amino acid in YciA, the maximum titers of mesaconic acid and 2-methylsuccinic acid could be increased substantially. Application of an improved thioesterase variant in a second E. coli-based process confirmed the enhanced activity of the enzyme. The desired extension of the product spectrum by another chiral molecule (2-hydroxy-3-methylsuccinic acid, presumably the (2S,3R)-form) was finally achieved by using an alternative thioesterase. Tailored fermentation strategies were developed for the high-level production of the above-mentioned products.
As second part of the work, two novel genetic tools for M. extorquens were developed and characterized. The pBBR1-derived plasmid pMis1_1B was shown to be stably maintained in M. extorquens cells. In addition, its suitability for co-transformations with other plasmids was demonstrated. The second tool, the cumate-inducible promoter Ps6, is tailored for expression of pathways with toxic products, as the transcription of genes controlled by Ps6 is strongly repressed in the absence of an inducer.
Overall, the present work demonstrates the enormous potential of using M. extorquens as a methylotrophic cell factory. In the applications shown, the biotechnological production of high-priced chiral molecules is combined with the use of an attractive alternative substrate. In addition, new achievements and approaches are presented to facilitate the development of future M. extorquens production strains.
Die vorliegende Dissertation stellt eine Methode zur Löslichkeitsbestimmung vor, die für die Anwendung im Rahmen von BCS-Biowaiver Monografien entwickelt wurde. Der Methode und dem dafür konzipierten Studienprotokoll liegt das Prinzip der „Minimallöslichkeit“ zugrunde. Damit lässt sich einfach, kosteneffizient und wissenschaftlich verlässlich feststellen, ob ein Arzneistoff „hochlöslich“ gemäß den BCS-Biowaiver Richtlinien der Gesundheitsbehörden FDA, EMA und WHO ist und sich dementsprechend generische Produkte des Arzneistoffs grundsätzlich für das BCS-Biowaiver Zulassungsverfahren eignen.
Dieses Verfahren für die Zulassung von Generika erlaubt die Beurteilung der Bioäquivalenz eines festen generischen Arzneimittels zur peroralen Anwendung auf Basis von in vitro-Freisetzungsuntersuchungen anstatt von in vivo-Studien wie z.B. pharmakokinetischen Studien am Menschen und erleichtert dadurch eine Marktzulassung sowohl durch Zeit- als auch Kosteneinsparung. Die Anwendung des Verfahrens ist von Vorteil, um die Verfügbarkeit von qualitativ hochwertigen, generischen (und damit kostengünstigen) Arzneimitteln zu erhöhen. Dies ist besonders wünschenswert für die Verfügbarkeit von gemäß der Weltgesundheitsorganisation essenziellen Arzneistoffen und unter denen gerade von solchen, die zur Bekämpfung von Krankheiten mit nur wenigen und/oder teuren therapeutischen Alternativen benötigt werden.
Entstanden ist die Löslichkeitsbestimmungsmethode im Rahmen von zwei Projekten, die beide zu diesem Ziel einer guten globalen Gesundheitsversorgung beitragen: die Erstellung der Biowaiver Monografien von Proguanilhydrochlorid (ein Malaria-Prophylaktikum) und Cefalexinmonohydrat (ein Antibiotikum aus der Gruppe der Cephalosporine) setzt die Publikationsreihe „Biowaiver Monograph Series“ der FIP Focus Group „Bioclassification/Biowaiver“ fort. Jede Monografie gibt eine umfassende wissenschaftliche Empfehlung zur Eignung eines Wirkstoffs der WHO „Model List of Essential Medicines“ und seiner generischen Produkte für das BCS-Biowaiver Verfahren hinsichtlich aller regulatorisch geforderten Aspekte ab. Proguanilhydrochlorid (BCS Klasse III – „hochlöslich“ und nicht „hoch permeabel“) und Cefalexinmonohydrat (BCS Klasse I – „hochlöslich“ und „hoch permeabel“) sind beide für dieses Zulassungsverfahren geeignet.
Im Zuge des anderen Projektes wurde die Löslichkeit und anschließend die BCS Klasse von Wirkstoffen bestimmt, die der 16. und 17. Version der WHO „Model List of Essential Medicines“ neu hinzugefügt wurden. Neun von 16 untersuchten Wirkstoffen, die in feste, perorale Arzneimittel formuliert werden können, sind im Hinblick auf ihre BCS Klasse für das eine Zulassung per BCS-Biowaiver geeignet. Eine umfangreichere Empfehlung könnte im Rahmen einer Biowaiver Monografie gegeben werden.
Die experimentelle Bestimmung der Löslichkeit über einen pH-Wert-Bereich von 1-6,8 war essenzieller Bestandteil beider Projekte, da Literaturdaten zur Löslichkeit der Wirkstoffe nicht oder nur unvollständig vorlagen. Die entwickelte Methode basiert auf einer im Kleinmaßstab angesetzten „Shake-Flask“-Methode zur Bestimmung der thermodynamischen Löslichkeit, wird jedoch in einem Zeitrahmen von 24 Stunden durchgeführt. Sie nutzt die höchste Dosis der Wirkstoffe als Substanzmenge, um zu bestimmen, ob dieser „hochlöslich“ gemäß den BCS-Biowaiver Richtlinien ist oder nicht. Die Methode bzw. das dazugehörige Studienprotokoll beinhalten Empfehlungen zu den einzelnen Schritten der Durchführung, der Auswahl der Medien und Herausforderungen wie Präzipitation (Fallbeispiel: Proguanilhydrochlorid) und Zersetzungsreaktionen (Fallbeispiel: Cefalexinmonohydrat). Löslichkeitsdaten, die mit dieser Methode erhoben werden, können für eine Zulassung per BCS-Biowaiver bei den Gesundheitsbehörden eingereicht werden, aber auch für ein Vorab-Screening genutzt werden, dass „hochlösliche“ Arzneistoffe aus einer Vielzahl von Substanzen herauszufiltern soll, um nähere Untersuchungen im Rahmen einer Biowaiver Monografie anzuschließen.
In the framework of the LHC Injectors Upgrade Project (LIU), the CERN Proton Synchrotron Booster (PSB) went through major upgrades resulting in new effects to study, challenges to overcome and new parameter regimes to explore. To assess the achievable beam brightness limit of the machine, a series of experimental and computational studies in the transverse planes were performed. In particular, the new injection scheme induces optics perturbations that are strongly enhanced near the half-integer resonance. In this thesis, methods for dynamically measuring and correcting these perturbations and their impact on the beam performance will be presented. Additionally, the quality of the transverse beam distributions and strategies for improvement will be addressed. Finally, the space charge effects when dynamically crossing the half-integer resonance will be characterized. The results of these studies and their broader significance beyond the PSB will be discussed.
Classical light microscopy is one of the main tools for science to study small things. Microscopes and their technology and optics have been developed and improved over centuries, however their resolution is ultimately restricted physically by the diffraction of light based on its wave nature described by Maxwell’s equations. Hence, the nanoworld – often characterized by sub-100-nm structural sizes – is not accessible with classical far-field optics (apart from special x-ray laser concepts) since its lateral resolution scales with the wavelength.
It was not until the 20th century that various technologies emerged to circumvent the diffraction limit, including so-called near-field microscopy. Although conceptually based on Maxwell’s long known equations, it took a long time for the scientific community to recognize its powerful opportunities and the first embodiments of near-field microscopes were developed. One representative of them is the scattering-type Scanning Near-field Optical Microscope (s-SNOM). It is a Scanning Probe Microscope (SPM) that enables imaging and spectroscopy at visible light frequencies down to even radio waves with a sub-100-nm resolution regardless of the wavelength used. This work also reflects this wide spectral range as it contains applications from near-infrared light down to deep THz/GHz radiation.
This thesis is subdivided into two parts. First, new experimental capabilities for the s-SNOM are demonstrated and evaluated in a more technical manner. Second, among other things, these capabilities are used to study various transport phenomena in solids, as already indicated in the title.
On the technical side, preliminary studies on the suitability of the qPlus sensor – a novel scanning probe technology – for near-field microscopy are presented.
The scanning head incorporating the qPlus sensor–named TRIBUS – is originally intended and built for ultra-high vacuum, low temperature, and high resolution applications. These are desirable environments and properties for sensitive nearfield measurements as well. However, since its design was not planned for near-field measurements, several special technical and optical aspects have to be taken into account, among others the scanning tip design and a spring suspended measurement head.
In addition, in this thesis field-effect transistors are used as THz detectors in an s-SNOM for the first time. Although THz s-SNOM is already an emerging technology, it still suffers from the requirements of sophisticated and specialized infrastructure on both the detector and laser side. Field-effect transistors offer an alternative that is flexible, cost-efficient, room-temperature operating, and easy to handle. Here, their suitability for s-SNOM measurements, which in general require very sensitive and fast detectors, is evaluated.
In the scientific part of this thesis, electromagnetic surface waves on silver nanowires and the conductivity/charge carrier density in silicon are investigated. Both are completely different concepts of transport phenomena, but this already shows the general versatility of the s-SNOM as it can enter both fields. Silver nanowires are analysed by means of near-infrared radiation. Their plasmonic behaviour in this spectral region is studied complementing other simulations and studies in literature performed on them using for example far-field optics.
Furthermore, the surface wave imaging ability of the s-SNOM in the near-infrared regime is thoroughly investigated in this thesis. Mapping surface waves in the mid-infrared regime is widespread in the community, however for much smaller wavelengths there are several important aspects to be considered additionally, such as the smaller focal spot size.
After that, doped and photo-excited silicon substrates are investigated. As the characteristic frequencies of charge carriers in semiconductors – described by the plasma frequency and the Drude model – are within the THz range, the THz s-SNOM is very well suited to probe their behaviour and to reveal contrasts, which has already been shown qualitatively by numerous literature reports. Here, the photo-excitation enables to set and tune the charge carrier density continuously.
Furthermore, the analysis of all silicon samples focuses on a quantitative extraction of the charge carrier densities and doping levels ...
Biologischen Systemen liegen Mechanismen zugrunde, die bis heute nicht vollständig aufgeklärt sind. Für die Untersuchung eignen sich externe Trigger, die eine Regulation von außen auf das System erlauben und Prozesse gezielt steuerbar machen. Eine Möglichkeit ist das System unter optische Kontrolle zu bringen, d.h. durch Licht eine externe Steuerung zu implementieren, was von einem internen Chromophor aufgenommen wird. In der vorliegenden Dissertation werden drei individuelle Projekte vorgestellt, die alle dieses Prinzip auf unterschiedliche Weise anwenden.
RNAs haben eine Vielzahl an verschiedenen Funktionen in der Zelle, die von der Proteinsynthese bis zur Genregulation variieren. Im ersten Projekt wurde der Photoschalter Spiropyran im Kontext von RNA eingesetzt. Mit dem Ziel das Derivat PyBIPS kovalent an ein Oligonukleotid zu binden und damit die Hybridisierung eines Duplexes zu steuern, wurden Strukturmotive gesucht, an die der Photoschalter postsynthetisch gebunden werden kann. Dabei soll die sterisch anspruchsvolle Spiropyran-Form die Watson-Crick-Basenpaarung stören und die planare, konjugierte Merocyanin-Form in den Duplex, zur zusätzlichen Stabilisierung, interkalieren. In Vorarbeiten von Clara Brieke wurde festgestellt, dass erstens nur PyBIPS, nach kovalenter Verknüpfung, noch vollständig photochemisch aktiv ist und zweitens eine Herstellung über Festphasensynthese nur in schlechter Ausbeute realisierbar ist. Ausgehend davon wurde PyBIPS an die drei nicht-nukleosidischen Linker, Aminoglykol, D-Threoninol und Serinol, postsynthetisch über eine Amidbindung angebracht, die zuvor über Oligonukleotidfestphasensynthese in 2´-OMe-RNA eingebaut wurden.
In der photochemischen Charakterisierung konnte gezeigt werden, dass PyBIPS, gebunden an alle drei Motive, noch photochemisch aktiv ist und im Vergleich zu ungebundenem PyBIPS stabiler ist gegenüber Photolyse. In Untersuchungen im Doppelstrang im Wedge Motiv, d.h. im Gegenstrang befindet sich kein Nukleotid gegenüber dem Photoschalter, wurde ein ähnliches Verhalten festgestellt. Zusätzlich zur charakteristischen Merocyanin-Bande bei 550 nm ist ein zweites, rotverschobenes Absorptionsmaximum entstanden, das die gleichen Eigenschaften besitzt. In Schaltzyklen wurde festgestellt, dass eine Isomerisierung bis 660 nm möglich ist, was eine Anwendung im therapeutischen Fenster zwischen ca. 600 und 1000 nm von Blut ermöglichen würde. Das Auftreten der zweiten Bande hängt stark vom Linker und dem Baustein im gegenüberliegenden Strang ab. Es wird vermutet, dass sich das, sonst nicht-bevorzugte, TTT-Isomer der Merocyanin-Form, durch Stabilisierung durch die Umgebung im Oligonukleotid ausbildet.
Zur Untersuchung, inwiefern die Isomerisierung des Photoschalters die Duplexstruktur beeinflusst, wurden Schmelzpunktstudien und Fluoreszenzmessungen zur KD-Bestimmung durchgeführt, ohne dass eine Veränderung zu erkennen war. In einer größeren NMR-Studie, in Kooperation mit Tom Landgraf (Arbeitsgruppe Prof. Dr. Harald Schwalbe) wurde der Fokus darauf-gelegt mehr Informationen über die strukturelle Integrität zu erhalten. Es findet eine Störung der benachbarten Basenpaarungen durch den Photoschalter statt, jedoch kann die Kraft der Isomerisierung des Photoschalters nicht übertragen warden. Der Einfluss war zunächst geringer als erwartet, was in anderen Anwendungen überprüft warden muss.
Im zweiten Projekt steht das Membranprotein OmpG aus E. Coli K12 im Fokus. Proteine besitzen viele verschiedene funktionelle Gruppen, die für selektive Biokonjugation genutzt werden können in einer Reihe von Anwendungen. OmpG gehört zur Gruppe der Porine, die in der äußeren Membran von Gram-negativen Bakterien sitzen und die seltene ß-Fassstruktur ausbilden. Die Pore besitzt einen großen Innendurchmesser ohne Selektivität. Das Molekül wurde bereits intensiv auf seine Struktur, insbesondere Loop 6, der pH-abhängig die Pore verschließt, untersucht. In Vorarbeiten von Grosse et al. wurde der Loop entfernt, sodass ein ruhiger Kanal entstanden ist, der ein optimales Modellsystem darstellt. Außerdem wurden in der Pore zwei Cysteine, die auf gegenüberliegenden Seiten auf halber Höhe des Kanals sitzen, eingeführt. An die Thiolgruppen wurden photolabile Schutzgruppen angebracht, die erst den Kanal blockieren und nach Abspaltung durch Licht wieder freigeben. Dazu wurde jeweils ein 7-Diethylaminocumarin (DEACM) postsynthetisch angebracht.
Der Linker am Cumarin-Alkohol stellt dabei einen Kompromiss dar, da er zum einen selektiv mit der Thiolgruppe des Cysteins reagieren soll, gleichzeitig aber noch photo-induziert wieder abspalten muss. Durch Belichtung findet eine Hydrolyse des Esters unter Abspaltung des Alkohols statt, der einen Carbonsäurerest am Thiol in der Pore zurück lässt. In spannungsabhängigen Einzelkanal-messungen, durchgeführt von Dr. Philipp Reiß (Universität Marburg), konnte gezeigt werden, dass die zwei DEACM Modifikationen eine Reduktion der Leitfähigkeit bewirkten und durch Licht abgespalten und aus dem Kanal entfernt werden konnten. Dabei war außerdem zu erkennen, dass die Leitfähigkeit aufgrund der Carboxylreste über das Niveau von unmodifiziertem OmpG steigt.
...
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
An essential part of the animal survival strategy comprises the ability to control body movement and coordinate long-term navigational strategies, in order to maintain locomotion towards a nutrition source and stay in its vicinity. In the nematode Caenorhabditis elegans (C. elegans) this function is carried out by neuronal circuits, that vary their activity in response to diverse environmental condition.
This comprises different classes of neurons, acting together in a sensory, signaling and modulatory system to control body posture and induce behavioral responses. For this reason, one particular goal in the field of neuroscience research is to elucidate the mechanisms of how neuronal circuits integrate multiple sensory cues to navigate the environment. Aim of this study was to analyze the function of a neuronal network comprising the interneurons AVK, as well as the identification of signaling molecules, controlling body posture during food related locomotory behavior. This should be achieved by establishing optogenetic approaches, which provide a non inversive and temporally precise control of neuronal activity and drives the activation or silencing of individual neurons, to alter the neuronal basis of behavior. Animals exposed to food perform a dwelling-like behavior, characterized by a slowing of locomotion with a reduced crawling distance and an irregular movement, accompanied by a high frequency of pauses, reversals and directional changes. Upon food-removal, they initiate a local-search behavior with the same behavioral characteristics, but with a more pronounced sinusoidal movement. After a prolonged period of unsuccessful food finding, animals exhibited long runs with reduced pauses, reversals and turnings, increasing their maximal covered distance, indicated as dispersal behavior. Acute photoinhibition of AVK neurons, mediated by cell-specific expression of halorhodopsin (NpHR) caused the animals to perform a dwelling-like locomotory state with increased bending angles, as seen during local-search behavior. Thus, food-induced behavioral effects are mimicked by the optogenetic manipulation of AVK interneurons.
In this study, signaling molecules were ascertained by cell specific mRNA profiling of AVK neurons, mediating these behavioral responses. It was able to demonstrate, that flp-1, coding for a FMRFamidelike neuropeptide, is one of the genes with the highest distribution in AVK. In the absence of food, AVK neurons continuously release the FMRFamide-like neuropeptide FLP-1 to inhibit a subset of target motoneurons, leading the animals to maintain a low body curvature to promote dispersing behavior.
Conversely, if AVK was inhibited by NpHR or the presence of food, less FLP-1 was secreted to the body fluid, indicated by reduced intracellular fluorescence levels of mCherry-tagged FLP-1 proteins in the scavenger cells. The search of a FLP-1 receptor was successful by in vitro investigation on G protein-coupled receptors (GPCRs) and neuropeptide ligands, revealing NPR-6 to be activated by FLP-1 neuropeptides, but with a low potency. Expression pattern of the NPR-6 receptor indicated receptor localization in in the VC ventral cord and SMB head motoneurons, as well as in a subset of other neurons required for chemosensation and feeding. AVK interneurons are highly coupled to SMB head motoneurons, forming electrical synapses composed of the gap junction protein subunits UNC-7 and UNC-9. Elimination of SMB or gap junction genes using cell ablation and RNA interference, respectively, phenocopied effects of AVK inhibition on bending angles. Furthermore, this study was able to demonstrate that these neurons get inhibited during FLP-1 transmission to the NPR-6 receptor, which was required to mediate AVK effects on crawling behavior. Consequently, photoinhibition of AVK caused disinhibition of VC and SMB neurons, in order to enhance sinusoidal movement and to induce a local-search related locomotory behavior.
Thereby, FLP-1 neuropeptide transmission is the preferred used signaling pathway over direct gap junction coupling. Additional neuropeptides and receptors were identified to be essential downstream to AVK neurons to mediate effects on body curvature and locomotory behavior as well. The high-potency FRPR-7 receptor was shown to mediate FLP-1 peptide effects on undulatory motion during swimming in a liquid environment, rather than crawling locomotion on a solid surface. This result suggests that the receptor NPR-6 is required for FLP-1 peptide effects on bending and crawling locomotion, whereas conversely the receptor FRPR-7 is addressed by FLP-1 peptides to exclusively regulate swimming behavior. The FRPR-7 receptor is expressed in the AIM and NSM motoneurons, which are suggested to be the primary neuronal candidates mediating swimming behavior. Furthermore, this study provides evidence, that FRPR-7 acts in the DVC interneuron to control spontaneous reversal behavior, most probably by inhibitory FLP-1 signaling from the AVK neurons. Among other neuropeptides, the FMRFamide-like peptide FLP-26 binds with higher affinity to NPR-6 receptors than FLP-1 peptides. FLP-26 peptides are expressed in the SMB motoneurons, where they are able to further potentiate FLP-1 inhibitory effects by simultaneous binding to NPR-6.
...
IT-driven trading innovations offer institutional investors alternative trading channels to broker delegated order handling. Motivated by the impact on intermediation relationships in securities trading and the adoption rate of such trading channels, the new option of self-directed order handling is analyzed. To capture the prerequisites for institutional investors to insource their order handling, an order-channel management (OCM) framework is introduced. It is based on a structural approach to account for the increasing complexity in comparison to traditional intermediary services. Drivers for the adoption of an OCM framework are investigated from the strategic perspective. Operational OCM is based on the business value of IT analysis of distinct trading innovations. It includes smart order router technology, low latency technology as an upgrade for existing IT-driven trading channels as well as negotiation dark pools, representing alternative trading venues. Evidence that all investigated IT-driven trading innovations generate additional business value is provided as one result. However, it is also shown that they exhibit entry barriers tightly related to investor size. Further, Task-Technology Fit is proven to be the major driver for the adoption decision. Consequently, IT-driven trading innovations should increase trading control, satisfy high anonymity and varying urgency demands.
Obwohl Böden unzweifelhaft ein signifikanter Pool von organischem Kohlenstoff sind, ist ihre Bedeutung als potenzielle langfristige Senke für atmosphärischen Kohlenstoff keineswegs klar. Trotz bedeutender wissenschaftlicher Forschritte aus den letzten Jahren zur Klärung der Kohlenstoffdynamik in Böden gibt es nach wie vor offene Fragen insbesondere hinsichtlich der spezifischen geochemischen Mechanismen, die für die Stabilisierung organischen Kohlenstoffs in Böden verantwortlich sind. Vor diesem Hintergrund besteht ein wesentliches Ziel der vorliegenden Dissertation darin, in unterschiedlichen Bodentypen die Konzentration von organischem Kohlenstoff und Stickstoff sowie die mineralogische Zusammensetzung zu untersuchen, um Hinweise auf einen möglichen Einfluss der Tonmineralogie, der spezifischen Oberfläche und der Oxidkonzentration auf die Stabilisierung organischen Materials zu ermitteln. Die Ergebnisse sollen einen Beitrag dazu liefern, die Mechanismen der Fixierung organischer Substanz in Böden besser zu verstehen und das vorhandene Wissen hierüber zu erweitern. Hierzu wurden fünf verschiedene Bodenprofile aus Hessen mit unterschiedlicher mineralogischer Zusammensetzung untersucht. Um die Auswirkungen verschiedener physikalischer und geochemischer Faktoren auf den Gehalt organischer Substanz in den untersuchten Böden festzustellen, wurden folgende Parameter untersucht: -Tonmineralogie, -organische Kohlenstoff- und Stickstoff-Konzentrationen, -%-Kationensättigung, -spezifische Oberfläche, -dithionit- und oxalatlösliche Gehalte an Fe, Al und Mn. Anhand dieser Parameter wurden weiterführende statistische Analysen unter Verwendung der Statistiksoftware SPSS für Windows durchgeführt, um mögliche statistische Zusammenhänge aufzudecken, die für die Stabilisierung von organischem Kohlenstoff in den betrachteten Böden verantwortlich sind. Die im Rahmen der vorliegenden Dissertation ermittelten Ergebnisse zeigen, dass der Tonanteil und die Tonmineralogie der untersuchten Böden nur einen begrenzten Einfluss auf die Stabilisierung organischer Substanz haben. Weiterhin wird gezeigt, dass die in der Literatur propagierte Beziehung zwischen spezifischer Oberfläche und der Konzentration organischen Kohlenstoffs nicht auf alle Böden anwendbar ist. Die Ergebnisse deuten darauf hin, dass die Präsenz von amorphen Eisen- und Aluminiumoxiden der wichtigste Einflussfaktor für die Fixierung von organischem Material in den untersuchten Böden ist. Die größeren Konzentrationen von organischem Kohlenstoff in den kleinsten Fraktionen (Feinschluff und Ton) der Profile sind vor allem darauf zurückzuführen, dass Oxide ebenfalls in diesen Fraktionen aufzufinden sind. Tonminerale haben demnach eine sekundäre Bedeutung, indem sie Komplexe mit den Oxiden bilden, die zur Stabilisierung von organischer Substanz führen können. Insgesamt deuten die Ergebnisse daraufhin, dass Böden keine geeignete Senke für die langfristige Speicherung von organischem Kohlenstoff sind. Obwohl Mechanismen wie die Adsorption von organischer Substanz an Oxide die Stabilisierung organischen Materials unterstützen, scheinen diese nicht stark genug zu sein, um eine permanente Speicherung von organischem Kohlenstoff zu bewirken.
In this work the preparation of organic donor-acceptor thin films was studied. A chamber for organic molecular beam deposition was designed and integrated into an existing deposition system for metallic thin films. Furthermore, the deposition system was extended by a load-lock with integrated bake-out function, a chamber for the deposition of metallic contacts via stencil mask technique and a sputtering chamber. For the sublimation of the organic compounds several effusion cells were designed. The evaporation characteristic and the temperature profile within the cells was studied. Additionally, a simulation program was developed, which calculates the evaporation characteristics of different cell types. The following processes were integrated: evaporation of particles, migration on the cell walls and collisions in the gas phase. It is also possible to consider a temperature gradient within the cell. All processes can be studied separately and their relative strength can be varied. To verify the simulation results several evaporation experiments with different cell types were employed. The thickness profile of the prepared thin films was measured position-dependently. The results are in good agreement with the simulation. Furthermore, the simulation program was extended to the field of electron beam induced deposition (EBID). The second part of this work deals with the preparation and characterization of organic thin films. The focus hereby lies on the charge transfer salt (BEDT-TTF)(TCNQ), which has three known structure variants. Thin films were prepared by different methods of co-evaporation and were studied with optical microscopy, X-ray diffraction and energy dispersive X-ray spectroscopy (EDX).The formation of the monoclinic phase of (BEDT-TTF)(TCNQ) could be shown. As a last part tunnel structures were prepared as first thin film devices and measured in a He4 cryostat.
This work deals with the use of dielectrics with high permeability, so-called high-k dielectrics in organic thin-film field-effect transistors (FETs). The central part was the preparation of the high-k dielectric and its implementation in transistors, in which organic semiconductors were used as active layer. A field-effect transistor can be used to measure the charge carrier mobility. Employing high-k dielectrics the carrier concentration in the active layer can be greatly increased. In this way, high charge carrier concentrations in organic layers can be achieved without chemical doping. As high-k dielectric strontium titanate (STO) was selected. It is also available as a niobium-doped and therefore conducting substrate material. Thus, one has an ideal substrate for the growth of the dielectric layer in conjunction with a substrate which acts as gate electrode. As the organic semiconductor the small molecules pentacene and copper phthalocyanine (CuPc) were sublimated, as electrical contacts gold was used. As a key part of this work an ultra high vacuum chamber system was constructed for in situ preparation of field effect transistors. For the deposition of the organic thin films a molecular beam deposition chamber was built, including a manipulator and effusion cells as evaporation sources. For the preparation of the dielectric a sputtering chamber was set-up. Another chamber was used in conjunction with an effusion cell for the deposition of the gold contacts. For the structured deposition of the different layers in the devices a shadow mask system was implemented. Movable masks could be positioned by means of a wobble stick onto the sample carriers. The system thus allowed for the use of masks in all chambers. The different thin films required in the transistor structure were first individually prepared and characterized. For the characterization primarily X-ray diffraction and optical microscopy were used. The growth of pentacene was analyzed on aplha-AlO substrates. With X-ray diffraction the (00l) reflections of the thin film phase were observed. In growth studies of CuPc aplha-AlO and STO substrates were used. With X-ray diffraction the aplha-phase was detected. With increasing substrate temperature an increase in crystallinity, but also an increase in surface roughness was observed. The sputtering of STO as a high-k dielectric was studied and optimized. Simultaneously, a high deposition rate, a smooth film surface and good crystallinity of the layer were required. As the most important parameters the substrate temperature, pressure and sputtering power were identified. Argon and oxygen were employed as sputtering gases, as substrate MgO was used. The films showed in comparison to crystalline STO a distortion to larger lattice constants. The degree of distortion decreased with increasing chamber pressure, on the other hand, deposition rate decreased with increasing chamber pressure as well. By combining the individual deposition processes FETs in bottom-gate geometry were prepared. The first step was always sputtering of the STO dielectric on niobium-doped STO substrates. Subsequently, the electrodes and the organic layer were deposited. For comparison transistors on silicon substrates with silicon dioxide (SiO2) as the dielectric were prepared. To study the transistor properties a measurement setup was build. A dielectric constant of about 190 for the STO in the transistors was achieved. The transistors with CuPc as active layer showed p-type conduction behavior. The transistors with STO as dielectric had a much stronger response than those with SiO2. They reached mobilities of 2E-4 cm2/Vs at very low applied voltages of 3V. It could thus be demonstrated that STO is suitable as a dielectric for organic FETs, and that through the use of high-k dielectrics high charge carrier densities can be achieved.
The various OPE mixtures were also tested on sSOI material which consists of a thin strained silicon layer on top of an insulator like silicon dioxide. The OPE A, B and F are able to reveal threading dislocations (TD) in the strained silicon film (chapter 5.11). The TD densities determined for the OPE A correspond very well with those obtained with the Secco diluted reference. The tested OPE mixtures are not able to delineate other crystal defects like stacking faults, pile ups or twins, which also appear in the strained silicon. Some Organic Peracid Etches were also tested on wafers with an epitaxial silicon layer and on silicon substrates. Epitaxially produced silicon layers are nearly defect-free. Etching times were chosen such that only a part of the epitaxial layer was removed. Nevertheless, after very long etching times (> 16 h) isolated pits were found, with defect densities ranging from 104/cm3 to 106/cm3 depending on the etching solution used. No etch pits were found in the remaining epitaxial layer when OPE F was used. Longer etching times appear to favour the formation of artefects. These artefacts could be caused by the formation of gas bubbles, particles or micro scratches at the crystal surface. The OPE C and D are able to reveal vacancy agglomerates (D-defects) in silicon substrates (see under 5.5, 5.6 and 5.11in chapter 5). Due to their low removal rates and the long etching times which favour the formation of artifacts, these solutions are less suited to the delineation of defects in silicon substrates. In the second part of this study the different etch formulations have been compared with each other in respect of their physical properties like removal rates, activation energies, standard potentials and selectivities (chapter 6). The selectivity was determined at etch pits caused by dislocations. The depth of the etch pits, determined by atomic force microscopy (AFM), should be dependent on the selectivity of the corresponding etching solution used. The higher the selectivity of the solution the deeper the etch pit should be. It was assumed that a low removal rate and a high activation energy for the etching process should correspond to a high selectivity. However, the experimental results have shown that it is not possible to predict the selectivity of an etching solution from experimental parameters like removal rate or activation energy. One must bear in mind that selectivity was only determined on one particular type of crystal defect, namely on dislocations. Values for selectivity in the etching solutions can differ for other defect types. Besides the etching solutions used in this study differ considerably from each other in respect of their chemical and physical roperties. They can be divided into three completely different etching systems. The original Secco solution and the diluted variations thereof are hydrofluoric acid-dichromate mixtures with the Cr6+ species as the oxidizing agent. The Jeita and MEMC solutions contain nitric acid, hydrofluoric acid and, as diluents, acetic acid and water. Here the oxidizing agents are various N(III) species which are formed autocatalytically during the etching process. The concentration of acetic acid also plays an important role as it lowers the degree of dissociation of HF and of HNO3. This has an influence on the pH and the standard potential of the etching solution. The Organic Peracid Etches are mixtures of hydrogen peroxide and a short-chain alkanoic acid like acetic acid. Such systems are strictly speaking not aqueous solutions, the reactive species is the peracid formed.Within each system, however, a certain relationship is perceived between the selectivity of the etching solution on the one hand, and the and the activation energy or the removal rate on the other. The decreased activation energy for the etching process of silicon at a dislocation can be calculated from experimental data by using the Arrhenius equation (chapter 6.3). It was found that the strain inside the crystal lattice caused by a dislocation loop leads to an increase of the potential energy of ~ 5 % and, hence, a decrease of the activation energy of ~ 5 % and an increase in the removal rate of ~ 100 %.
The purpose of this study was to reconstruct the depositional environment, the genesis and the composition of Miocene coals in the Kutai Basin, East Kalimantan, Indonesia and to improve our understanding of the factors controlling the organic and inorganic composition, variation of biomarkers, and the peat forming vegetation of the coals. To achieve the aim methods belonging to three different disciplines were applied: 1. Coal petrology (chapter 3) 2. Inorganic geochemistry: sulfur, pyrite and mineral matter distributions (chapter 4) 3. Organic geochemistry of saturated, aromatic hydrocarbon fractions and stable carbon isotopic composition (chapter 5 and 6) Coal petrology Coal developes from peat deposited in mires, mainly in swamps and raised bogs. It is therefore necessary to consider how peat was formed in the past. Coal contains a variety of plant tissues in different degrees of preservation. Tissues of distinct origin are microscopically identifiable and can frequently be related to certain parts of the plant, such as cuticles, woody structures, spores, algal, resin, etc. Together with the particles of less certain origin they are termed macerals which are the petrographic components of coal. During and after deposition of plant remains in sedimentary basins, the organic matter will undergo a sequence of physical, biochemical and chemical changes, which finally results in the formation of coals of increasing rank depending mainly on the temperature influence. The process of coalification begins with practically unaltered plant material and peat, and continues with increasing rank through brown coal, bituminous coal, and finally to anthracite as well as graphite. Coal petrography provides valuable of data of maceral and mineral percentages with reflectance values, which can be used to reconstruct the depositional environment and the coalification processes. In lower rank coals, the material is represented by a group of macerals called huminite, and in bituminous and anthracite coals by a group of macerals called vitrinite. Coal petrography analyses have been carried out on samples from some Miocene coal seams from Kutai Basin. The study has shown that huminite reflectance values of coal samples from ...
Organisation und Steuerung des Treiberameisenverhaltens südostasiatischer Ponerinen der Gattung Leptogenys Treiberameisen zeichnen sich durch eine einzigartige Kombination aus Wanderverhalten (häufige Umzüge) und koordinierter Massenjagd (kollektive Raubzüge) aus. Obwohl allgemein angenommen wird, daß die Kommunikation dieser Ameisen zu einem bedeutenden Teil durch Spurpheromone erfolgt, sind bisher in den drei Unterfamilien Ecitoninae, Dorylinae und Aenictinae nur wenige Drüsen bekannt, die derartige Pheromone produzieren. Welche Rolle einzelne Pheromonkomponenten bei der Koordination des komplexen Schwarmverhaltens spielen, wurde bislang noch nicht untersucht. In der Gattung Leptogenys gibt es ein weites Spektrum verschiedener Ökotypen, u.a. auch Arten, die echtes Treiberameisenverhalten zeigen. Bei sieben malaiischen Leptogenys-Arten wurde die Koordination des kollektiven Verhaltens auf Basis der Kommunikation zwischen den Einzelindividuen untersucht. Bei allen Arten wurden mehrere Spurpheromone entdeckt, die in den Gift- und in den Pygidialdrüsen lokalisiert waren. Ökologisch verschiedene Arten wiesen Unterschiede im Kommunikationssystem auf. Die Koordination des Treiberameisenverhaltens von L. distinguenda wurde besonders ausführlich untersucht. Diese Art besitzt ein Mehr-Komponenten-Signalsystem, bei dem die einzelnen Pheromone multiple Funktionen erfüllen. Die Pygidialdrüse enthält eine Pheromonkomponente, die ca. 20 min lang gute Spurfolge bewirkt. Sie dient der Orientierung einzelner Individuen und damit dem Koloniezusammenhalt. Aufgrund konzentrationsabhängiger Spurfolge und durch Modulation der Spurkonzentration kann eine langsame Rekrutierung auf neues Territorium mit diesem Pheromon koordiniert werden. Die Giftdrüse enthält zwei Pheromone. Eine sehr flüchtige Substanz (4-Methyl-3-Heptanon) bewirkt nur 1-2 min lang eine außerordentlich starke Attraktion sowie Erregung, Beschleunigung der Fortbewegung und Aggressivität. Mit dieser Komponente werden Beuterekrutierungen koordiniert. Die starke Wirkung kann das Verhalten zahlreicher Tiere und auf diese Weise sogar die Vorstoßrichtung ganzer Raubzüge beeinflussen. Aufgrund der extremen Flüchtigkeit des Pheromons ist dieser Einfluß jedoch nur momentan, so daß die Raubzugformation außerordentlich dynamisch ist. Eine zweite Komponente der Giftdrüse bewirkt bis zu 5 min lang gute Spurfolge ohne Erregung. Diese Substanz dient ebenfalls dem Koloniezusammenhalt. In den chemischen Spuren können Komponenten gemischt und der Informationsgehalt dadurch variiert werden. Zudem reagieren einzelne Tiere je nach Motivation nur auf bestimmte Komponenten, was situationsspezifisches Verhalten ermöglicht. Beute eintragende Arbeiterinnen folgen selektiv einer Komponente der Pygidialdrüse und ignorieren Komponenten der Giftdrüse. Auf diese Weise steuern sie gezielt das Nest an. In ähnlicher Weise fungieren beim Nestumzug hoch konzentrierte Spuren aus Pygidialdrüsensekret als Leitlinie zum neuen Nest. Umziehende Tiere meiden zudem sehr empfindlich das Sekret der Giftdrüse. Auf diese Weise werden Raubzugspuren klar unterschieden und nicht betreten, so daß beide für Treiberameisen charakteristischen Verhaltensweisen synchron ausgeführt werden können. Der Nestumzug wird mit einem distinkten, mechanischen Signal ausgelöst. Im Notfall kann ein Umzug oder Raubzug mit einer spezifischen Alarmsubstanz aus der Mandibeldrüse abrupt beendet werden. Dies ist z.B. von Bedeutung, wenn sich artgleiche Kolonien begegnen. Das Kommunikationssytem von L. distinguenda zeigt, wie komplexes Verhalten mit einem minimalen Satz an Signalen koordiniert werden kann. Nach den Ergebnissen der vorliegenden Arbeit reicht ein einziges Pheromon bei weitem nicht aus, um treiberameisentypisches Verhalten zu realisieren. Treiberameisen sind besonders reich an Myrmekophilen. Die Integration dieser Ameisengäste vor allem in das Kommunikationssystem ihrer Wirte wurde in der vorliegenden Arbeit ebenfalls untersucht. Dabei wurden unterschiedliche Strategien vorgefunden, mit denen Myrmekophile den häufigen Umzügen ihrer Wirtskolonie folgen. Ein Teil der Arten läßt sich von den Ameisen auf der Brut aufsitzend in das neue Nest tragen. Diese Arten reagieren i.d.R. nicht auf die Pheromonspuren der Ameisen. Ein anderer Teil ist in der Lage, den Pheromonspuren aktiv zu folgen. Diese Fähigkeit ist erstmalig bei einer Spinne (Gamasomorpha maschwitzi) nachgewiesen worden. Einen besonders bemerkenswerten Gast stellt die neu beschriebene Lungenschnecke Allopeas myrmecophilos dar. Sie sondert selektiv bei Kontakt mit L. distinguenda ein spezifisches Attraktionssekret ab, welches die Ameisen dazu veranlaßt, die Schnecke mit den Mandibeln aufzunehmen und ins Nest zu tragen. A. myrmecophilos ist der erste nachgewiesene Fall eines Myrmekophilen aus dem Stamm der Mollusken.
Within the present study the occurrence and fate of the organophosphorus flame retardants and plasticizers tris(2-chloroethyl) phosphate (TCEP), tris(2-chloro-1-methylethyl) phosphate (TCPP), tris(1,3-dichloro-2-propyl) phosphate (TDCP), tris(2-butoxyethyl) phosphate (TBEP), tri-iso-butyl phosphate (TiBP), and tri-n-butyl phosphate (TnBP) in precipitation, lake water, surface runoff and groundwater from urban and remote areas in Germany was investigated between June 2007 and October 2009. 255 samples of precipitation, 210 samples of lentic surface water and 72 samples of groundwater were analyzed for the six organophosphates (OPs) by solid phase extraction followed by gas chromatography-mass spectrometry. The research focused on aspects concerning (1) the atmospheric washout of OPs by precipitation, (2) the temporal variation of OP concentrations in precipitation and in lentic surface waters as well as (3) the pollution of groundwater by OPs. The results of the study emphasize the importance of precipitation as an all-season entry-pathway for OPs in the aquatic environment, particularly in densely populated urban environments with high traffic volume and abundant usage of flame-protected products. No seasonal trends were observed for all analytes in precipitation at the urban sampling site. TCPP dominated in all precipitation and storm water holding tank (SWHT) water samples with maximum levels exceeding 1 µg/L. An accumulation of OPs deposited in SWHTs was observed with concentrations often exceeding those observed in wet precipitation. Median concentrations of TCPP (880 ng/L), TDCP (13 ng/L), and TBEP (77 ng/L) at the urban SWHT were more than twice as high as those measured at the urban precipitation sampling site (403 ng/L, 5 ng/L, 21 ng/L) located close to the SWHT. OP levels in more remote lakes were often below or close to the limits of quantitation (LOQ). Nevertheless, TCPP was the substance with the highest median concentration in rural volcanic lakes (7–18 ng/L) indicating an atmospheric transport of the compound. At urban lakes the median OP concentrations were in the range of 23–61 ng/L (TCEP), 85–126 ng/L (TCPP), <LOQ–53 ng/L (TBEP), 8–10 ng/L (TiBP), and 17–32 ng/L (TnBP). In laboratory experiments, TBEP, TiBP, and TnBP were photochemically degraded in spiked lake water samples upon exposure to sunlight. In the SWHT a seasonal trend with decreasing concentrations in summer/autumn was evident for TiBP and TnBP but not for the chlorinated OPs. The decreasing concentrations can be explained by in-lake photodegradation. Results have also shown that the occurrence of OPs in groundwater is depending on the anthropogenic impact during groundwater recharge/natural replenishment. Infiltration of precipitation was found to be no important entry-pathway for OPs into aquifers at rural sites. Highest OP concentrations (>0.1 µg/L) were determined in groundwater polluted by percolating leachate from contaminated sites or groundwater recharged via bank filtration of OP-loaded recipients. Concentrations of TCEP, TCPP, TiBP and TnBP in groundwater decreased rapidly (89–97%) during bank filtration with increasing distance from the recipient due to adsorption processes and/or biotransformation. Although TCEP and TCPP are stable within the aquifer, they are not suitable as conservative organic tracers in groundwater.
Die gesellschaftlichen Umbrüche und einschneidenden Veränderungen in Europa seit 1800 ließen eine baukünstlerische Suche nach einem Code für die Darlegung neuer, von bürgerlichen Imaginationen und Ideen geprägten Lebens- und Architekturmodellen entstehen. Anhand der orientalisierenden Architekturen Italiens aus dem Zeitraum zwischen 1800 und 1940 wird dieser Prozess aufgezeigt. Man begann die außereuropäischen Baukünste als eine Möglichkeit zu rezipieren, mit der man sich optisch von den absolutistischen Formen des Barock absetzte, die für die aufkommende Bürgermacht keinen passenden Symbolwert beinhalten konnten. Die Idee eines schillernden Orients, der unzählige Möglichkeiten zwischen der vom Verstand geprägten Wissenschaftlichkeit und der mythisch verklärten orientalischen Sinnlichkeit eröffnete, bot scheinbar auch einen Ausweg aus den Verstrickungen des Diktats der fixierten Strukturen. Dementsprechend sind die orientalisierenden Bauten im emotionalen Spannungsfeld zwischen gesellschaftlichem Eskapismus und der Entwicklung innovativer Vorstellungen zu finden. Dieser in der Architektur dokumentierte Verlauf der Begegnungen mit außereuropäischen Kulturen auf der Suche nach einem neuen architektonischen Ausdruck wird nach einem historischen Abriss auch für die Literatur, die Malerei und das Theater skizziert, um die weitreichende Entfaltung des Mythos Orient kontextuell nachvollziehbar werden zu lassen. Der Hauptteil der Analyse widmet sich den verschiedenen Intentionen der orientalisierenden Architektur anhand von beispielhaft ausgewählten Bauten, die einem Konvolut von ca. 200 dokumentierten Bauten entstammen. Obgleich nur die jüdischen Gemeinden orientalisierende Bauten zu Repräsentationszwecken schufen, finden sich die gerade auch im Außenbereich optisch hervorhebenden Forschungsobjekte zumeist im Umfeld von architektonischen Darlegungen nicht gesellschaftskonformen Lebenskonzepten und utopischen Ideen für Stadtplanungen. Spätestens ab 1880 wurde eine Sehnsucht nach Stabilität offenbar, die exotische Privatresidenzen, Badeorte und Heilzentren als Fluchtmöglichkeiten in Träume und Phantasien vor den Restriktionen der Zeit erscheinen ließen. Mit den Inspirationen der Massenvergnügungen, die in der städtischen Öffentlichkeit ein wichtiges Podium fanden, entstanden Bauten, die die zuvor als elitär zu verstehenden, exotischen Anlagen nun als kommerzielle Freizeitvergnügungen wie urbane Festinszenierungen, Lichtspielhäuser und Theaterbauten für den temporären Ausstieg aus dem Maschinenzeitalter umdeuteten. Die italienische Kolonialpolitik hinterließ bis in die 1930er Jahre Spuren in den entsprechend Bezug nehmenden orientalisierenden Pavillons internationaler sowie nationaler Ausstellungen und in Gartenanlagen, in denen der Aspekt der kulturellen Wertigkeit von besonderer Betonung war. Der Aufbruch in die Suche nach Manifestationen neuer Lebensumstände ist ein wesentlicher Beitrag, den die orientalisierende Baukunst leistete. Dieser wurde nicht nur durch die Auseinandersetzungen über Dekor und Konstruktionen geführt, sondern mindestens ebenso durch philosophisch-lebensanschauliche Überlegungen, die durch die Begegnung mit anderen Kulturen entstanden und die innerhalb eines transkulturellen Prozesses die Formierung einer zeitgemäßen Architektur in Europa beförderten. Nachdem zunächst die Ornamentik und einzelne Versatzstücke in die europäische Baukunst eingeflossen sind, begann zum Ende des 19. Jahrhunderts eine Faszination für die inneren Strukturen der orientalischen Architektur das Abendland zutiefst zu verändern, die zu einem Synkretismus führte, der teilhatte an der Ausbildung der modernen Architektur. Obgleich viele Vertreter der neuen Baukunst Rückgriffe konsequent ablehnten, konnten sie sich dennoch nicht endgültig lösen von den historischen Anlehnungen. Von der orientalisch-dekorativen Hülle bis hin zum hohen Grad der Durchdringung der westlichen Konstruktion kann die Intention des Objektes als restriktiv oder sich der Moderne annähernd gelesen werden, so dass man von unbedingt von differenzierten Orientalismen sprechen muss. An den mannigfaltigen orientalisierenden Architekturen Italiens konnte veranschaulicht werden, inwieweit die Begegnung mit fremden Lebensstrukturen tief greifende Umgestaltungen in der europäischen Kultur hinterlassen hat. Durch das Kennenlernen anderer Welten wurden westliche Grundwerte relativiert und neue Denkhorizonte eröffnet. Auch wenn häufig genug verschobene Bilder der außereuropäischen Realitäten präsentiert wurden, regte es zumindest dazu an, Projekte zu entwickeln, die die soziale Ordnung des Landes widerspiegelten und Anschluss an die Moderne des 20. Jahrhunderts fanden.
Orotracheale Keimverschleppung während der Umintubation und bei verschiedenen Tracheotomietechniken
(2002)
Langzeitbeatmete Patienten sind häufig von nosokomialen Pneumonien betroffen. Für diese Patienten stehen zur Optimierung des Airwaymanagement verschiedene Techniken zur Verfügung. In der vorliegenden Studie wurden diese Techniken (nasale Umintubation, konventionelle Tracheotomie und perkutane Tracheotomie einschließlich GWDF, PDT und TLT) auf eine Keimverschleppung aus den oberen in die unteren Atemwege untersucht. Bei insgesamt 200 Patienten erfolgte ein mikrobiologisches Monitoring durch Gewinnung von Rachen- und Trachealabstrichen am Morgen des Eingriffs und am darauffolgenden Tag. Abweichend hiervon wurde in der Gruppe der nasotracheal umintubierten Patienten statt eines Rachenabstrich ein Nasenabstrich gewonnen. Die Proben wurden mikrobiologisch hinsichtlich eines Wachstums von Bakterien bzw. Pilzen untersucht. Zur Differenzierung wurden bei jedem Isolat die biochemischen Eigenschaften und das antibiotische Resistenzverhalten erhoben. Die Eingriffe wurden im Mittel am 3. Tag (Umintubation), 8. Tag (konventionelle Tracheotomie und GWDF), 9. Tag (TLT) und 10. Tag (PDT) des Aufenthalts auf der Intensivstation durchgefiihrt. Bei 155 von 200 Patienten (77,5 %) gelang ein positiver Erregernachweis im Rachen- bzw. Nasenabstrich, bei 143 von 200 Patienten (71,5%) ein positiver Erregernachweis im Trachealsekret. Die am häufigsten isolierten Erreger waren S. aureus, Acinetobacter sp., Pseudomonas sp., Stenotrophomonas maltophilia und Candida sp.. Bezogen auf alle Erregernachweise (n = 859) funden sich in 165 Fällen grampositive Erreger (19,2 %), in 403 Fällen granmegative Erreger (46,9 %) und in den restlichen 291 Fällen Pilze (33,8 %). In der Gruppe der nasotracheal umintubierten Patienten kam es bei 10 von 40 Patienten (25,0 %) zu einem positiven postinterventionellen Nachweis eines Erregers im Trachealsekret, der vor der Intervention nur im Nasenabstrich nachgewiesen wurde. In den restlichen Gruppen erfolgte dieser postinterventionelle Erregernachweis im Trachealsekret bei je 6 von 40 Patienten (15 %) in den Gruppen PDT und TLT, sowie bei je 7 von 40 Patienten (17,5 %) in den Gruppen konventionelle Tracheotomie und GWDF. Die von uns ermittelte Inzidenz von Keimbesiedlungen der oberen Atemwege (77,5 %) und der unteren Atemwege (71,5 %) entspricht der allgemeinen Inzidenz bei beatmeten Intensivpatienten. Der hohe Anteil von gramnegativen Erregern (46,9 %) ist Ausdruck eines Wechsel des Erregerspektrums in den gramnegativen Bereich bei schwerstkranken Patienten auf Intensivstationen. Die TLT scheint aufgrund einer im Vergleich zu den anderen Verfahren nicht erhöhten Inzidenz einer Keimverschleppung aus den oberen in die unteren Atemwege als infektionsepidemiologisch risikoarme Technik. Die nasotracheale Umintubation weist im Vergleich zu den anderen Verfahren eine höhere, aber statistisch nicht signifikante Inzidenz von Keimverschleppungen auf. Die Nase stellt aufgrund ihrer Keimbesiedlung ein wesentliches Erregerreservoir dar, das im Zusammenhang mit der nasotrachealen Umintubation hinsichtlich nosokomialer Pneumonien eine Rolle spielen könnte.