Refine
Year of publication
Document Type
- Doctoral Thesis (5699) (remove)
Language
- German (3618)
- English (2052)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5699)
Is part of the Bibliography
- no (5699) (remove)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Entzündung (9)
- Genexpression (9)
Institute
- Medizin (1510)
- Biowissenschaften (832)
- Biochemie und Chemie (727)
- Physik (593)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (305)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
Verfahren zur elektrochemischen Messung von Stickstoffmonoxid und S-Nitrosothiolen in Flüssigkeiten
(2001)
Stickstoffmonoxid (NO) ist in den letzten Jahren als Kreislaufregulator und biologischer Botenstoff in den Mittelpunkt des Interesses gerückt. Inzwischen gilt als sicher, dass NO an vielen Schlüsselstellen, nicht nur in der Kreislaufregulation, aber dort besonders, eine prominente Rolle spielt. Das Endothel als disseminiertes Organ betrachtet ist als Produktionsort des zu Beginn der Forschungen phänomenologisch ,,endothelium derived relaxing factor" genannten NO scheinbar von größerer Bedeutung, als zunächst angenommen. Anstelle einer einfachen Gefäßauskleidung ist das Endothel Regulator vieler wichtiger Prozesse. Diskutierte Wirkungen reichen vom septischen Kreislaufversagen bei überschießender NO-Produktion, bis zur Atherosklerose bei gestörter Endothelfunktion mit verminderter NO-Produktion. Es gibt hier ,,gute" und ,,böse" Wirkungen, so das hier von einer Janusköpfigkeit, also Doppelgesichtigkeit, gesprochen wird. NO wird hier jeweils eine Schlüsselrolle als Botenstoff und Effektor zugewiesen. Bisher gibt es aber keine praktikablen Verfahren, um die effektive NO-Produktion zeitnah und in vivo zu quantifizieren. In der vorliegenden Arbeit ist im Anschluß an vorbestehenden Überlegungen und Verfahren eine Methode entwickelt worden, mit deren Hilfe Rückschlüsse auf die jeweilige Produktion und den Plasmaspiegel von NO gezogen werden können. Stickstoffmonoxid hat eine Halbwertszeit von wenigen Sekunden im Plasma. Ein wichtiges Stoffwechselprodukt aus dem Abbau des freien NO sind S-Nitrosothiole. Freies NO geht eine Verbindung mit Thiolgruppen von Plasmaproteinen ein. Diese gebundene Form von NO ist relativ stabil und gilt als Plasmaspeicher von NO. Es kann aus dieser Verbindung wieder herausgelöst werden und liegt dann wieder als freies NO vor. In der vorliegenden Arbeit werden die Grundlagen geschaffen für ein Verfahren, mit dem der Plasmaspiegel von S-Nitrosothiolen bestimmt, und Rückschlüsse auf die NO Produktion gezogen werden können. Die Methode basiert auf dem Umstand, dass man mittels Metallionen, wie beispielsweise Kupferionen, S-Nitrosothiole zur Dekomposition bringen kann. Das freigesetzte NO wurde dann mittels einer amperometrischen NO-selektiven Sonde gemessen. Die zu erwartenden Konzentrationen sind sehr gering und einer verlässlichen Messung nur bedingt zugänglich, da die Abspaltung von NO aus hochmolekularen S-Nitrosothiolen, wie dem S-Nitrosoalbumim, nur sehr langsam abläuft. Günstiger ist die Zerfallskinetik von niedermolekularen S-Nitrosoverbindungen. Daher wird der Zwischenschritt der Transnitrosylierung, der Übertragung der Nitrosylgruppe von Albumin auf einen niedermolekularen Baustein mit einer Nitrosogruppe, eingeschaltet. Die Konzentrationen des zu messenden NO bleiben aber sehr gering, so dass die Minimierung der Störeinflüsse der Methodik einen großen Teil der Arbeit einnimmt. Es konnte in dieser Arbeit nachgewiesen werden, dass S-Nitrosoalbumin mittels des beschriebenen Verfahrens quantitativ bestimmbar ist. Eine Übertragung des Verfahrens auf Messungen im Blutplasma wird der Gegenstand weiterer Forschungen sein.
We investigate multivariate Laurent polynomials f \in \C[\mathbf{z}^{\pm 1}] = \C[z_1^{\pm 1},\ldots,z_n^{\pm 1}] with varieties \mathcal{V}(f) restricted to the algebraic torus (\C^*)^n = (\C \setminus \{0\})^n. For such Laurent polynomials f one defines the amoeba \mathcal{A}(f) of f as the image of the variety \mathcal{V}(f) under the \Log-map \Log : (\C^*)^n \to \R^n, (z_1,\ldots,z_n) \mapsto (\log|z_1|, \ldots, \log|z_n|). I.e., the amoeba \mathcal{A}(f) is the projection of the variety \mathcal{V}(f) on its (componentwise logarithmized) absolute values. Amoebas were first defined in 1994 by Gelfand, Kapranov and Zelevinksy. Amoeba theory has been strongly developed since the beginning of the new century. It is related to various mathematical subjects, e.g., complex analysis or real algebraic curves. In particular, amoeba theory can be understood as a natural connection between algebraic and tropical geometry.
In this thesis we investigate the geometry, topology and methods for the approximation of amoebas.
Let \C^A denote the space of all Laurent polynomials with a given, finite support set A \subset \Z^n and coefficients in \C^*. It is well known that, in general, the existence of specific complement components of the amoebas \mathcal{A}(f) for f \in \C^A depends on the choice of coefficients of f. One prominent key problem is to provide bounds on the coefficients in order to guarantee the existence of certain complement components. A second key problem is the question whether the set U_\alpha^A \subseteq \C^A of all polynomials whose amoeba has a complement component of order \alpha \in \conv(A) \cap \Z^n is always connected.
We prove such (upper and lower) bounds for multivariate Laurent polynomials supported on a circuit. If the support set A \subset \Z^n satisfies some additional barycentric condition, we can even give an exact description of the particular sets U_\alpha^A and, especially, prove that they are path-connected.
For the univariate case of polynomials supported on a circuit, i.e., trinomials f = z^{s+t} + p z^t + q (with p,q \in \C^*), we show that a couple of classical questions from the late 19th / early 20th century regarding the connection between the coefficients and the roots of trinomials can be traced back to questions in amoeba theory. This yields nice geometrical and topological counterparts for classical algebraic results. We show for example that a trinomial has a root of a certain, given modulus if and only if the coefficient p is located on a particular hypotrochoid curve. Furthermore, there exist two roots with the same modulus if and only if the coefficient p is located on a particular 1-fan. This local description of the configuration space \C^A yields in particular that all sets U_\alpha^A for \alpha \in \{0,1,\ldots,s+t\} \setminus \{t\} are connected but not simply connected.
We show that for a given lattice polytope P the set of all configuration spaces \C^A of amoebas with \conv(A) = P is a boolean lattice with respect to some order relation \sqsubseteq induced by the set theoretic order relation \subseteq. This boolean lattice turns out to have some nice structural properties and gives in particular an independent motivation for Passare's and Rullgard's conjecture about solidness of amoebas of maximally sparse polynomials. We prove this conjecture for special instances of support sets.
A further key problem in the theory of amoebas is the description of their boundaries. Obviously, every boundary point \mathbf{w} \in \partial \mathcal{A}(f) is the image of a critical point under the \Log-map (where \mathcal{V}(f) is supposed to be non-singular here). Mikhalkin showed that this is equivalent to the fact that there exists a point in the intersection of the variety \mathcal{V}(f) and the fiber \F_{\mathbf{w}} of \mathbf{w} (w.r.t. the \Log-map), which has a (projective) real image under the logarithmic Gauss map. We strengthen this result by showing that a point \mathbf{w} may only be contained in the boundary of \mathcal{A}(f), if every point in the intersection of \mathcal{V}(f) and \F_{\mathbf{w}} has a (projective) real image under the logarithmic Gauss map.
With respect to the approximation of amoebas one is in particular interested in deciding membership, i.e., whether a given point \mathbf{w} \in \R^n is contained in a given amoeba \mathcal{A}(f). We show that this problem can be traced back to a semidefinite optimization problem (SDP), basically via usage of the Real Nullstellensatz. This SDP can be implemented and solved with standard software (we use SOSTools and SeDuMi here). As main theoretic result we show that, from the complexity point of view, our approach is at least as good as Purbhoo's approximation process (which is state of the art).
In der Abteilung „Medizinische Biotechnologie“ des Paul-Ehrlich-Instituts konnte gezeigt werden, dass ein SIVsmmPBj-abgeleiteter Vektor Vorteile gegenüber HIV-1-abgeleiteten Vektoren aufweist, da auch in der G0-Phase des Zellzyklus arretierte Zelllinien und Fibroblasten sowie primäre humane Monozyten transduziert werden können. Im ersten Teil der hier vorliegenden Arbeit wurden die besonderen Transduktionsfähigkeiten diese SIVsmmPBj Vektors eingehend untersucht. Zunächst wurden die transduzierbaren Monozyten morphologisch und biochemisch genauer charakterisiert; insbesondere wurde gezeigt, dass sich diese Zellen tatsächlich in der G0-Phase des Zellzyklus befinden und auch nach der Transduktion die Fähigkeit aufweisen, sowohl in Makrophagen als auch in Dendritischen Zellen auszudifferenzieren. Bei dem Versuch andere primäre humane Blutzellen zu transduzieren wurde gezeigt, dass SIVsmmPBj Vektoren für die Transduktion unstimulierter CD4+ T-Zellen nicht geeignet sind. Zum besseren Verständnis der zugrunde liegenden Mechanismen die zur Transduktion arretierter Zellen und Monozyten durch SIVsmmPBj-abgeleitete Vektoren führen, wurde der Einfluss der akzessorischen viralen Proteine untersucht. Dazu wurde ein PBj-Knockout- Vektor, bei dem die Expression aller akzessorischen Gene (vif, vpx, vpr und nef) inhibiert war, generiert und zur Transduktion von arretierten Zellen und Monozyten eingesetzt. Keines der akzessorischen Proteine war für die Transduktion der in G0 arretierten Zellen notwendig. Für die Transduktion von Monozyten erwies sich das virale Protein Vpx jedoch als essentiell, da der Knockout-Vektor zur Transduktion von Monozyten nur nach Supplementierung mit diesem Protein in der Lage war. Die Supplementierung von HIV-1 Vektoren mit Vpx des SIVsmmPBj ermöglichte keine Transduktion von Monozyten, was darauf hindeutet, dass weitere Proteine von SIVsmmPBj oder aber auch die Fähigkeit der prinzipiellen Transduktion von Zellen der G0-Phase eine Rolle spielen. Im letzten Teil dieser Arbeit wurde ein auf SIVsmmPBj basierendes Dreiplasmid-Vektorsystem entwickelt. Für das Verpackungskonstrukt wurde das Verpackungssignal charakterisiert. Dabei konnte gezeigt werden, dass der Bereich zwischen dem Promotor und dem Spleißdonor gelegene Bereich für eine effiziente Partikelbildung nötig ist und die Deletion der Region zwischen Spleißdonor und gag-Start-ATG zur Inaktivierung des Verpackungssignals ausreicht. Die aus dem Dreiplasmid-System generierten Vektoren erreichten Titer von bis zu 5 x 105 i.E./ml und waren nach Supplementierung mit Vpx dazu in der Lage, primäre humane Monozyten zu transduzieren. Der hier entwickelte, auf SIVsmmPBj basierende Vektor eröffnet neue Möglichkeiten in der Gentherapie. So sind nun auch Monozyten als wichtige Zielzellen der Tumortherapie einem Gentransfer durch lentivirale Vektoren zugänglich.
The dissertation deals with the general problem of how the brain can establish correspondences between neural patterns stored in different cortical areas. Although an important capability in many cognitive areas like language understanding, abstract reasoning, or motor control, this thesis concentrates on invariant object recognition as application of correspondence finding. One part of the work presents a correspondence-based, neurally plausible system for face recognition. Other parts address the question of visual information routing over several stages by proposing optimal architectures for such routing ('switchyards') and deriving ontogenetic mechanisms for the growth of switchyards. Finally, the idea of multi-stage routing is united with the object recognition system introduced before, making suggestions of how the so far distinct feature-based and correspondence-based approaches to object recognition could be reconciled.
Both practitioners and academics agree about the importance of price and its direct influenceon consumers’ purchase decision as well as the company profit. In the reality, we rarely see a
single price for a given product. One visit in a store already shows that consumers face many various prices. This strategy of differential prices allows to increase profit but also improves consumers’ situation and increases welfare. A wide range of various price differentiation mechanisms exists on the market which makes price differentiation a very interesting phenomenon. Additionally, market developments constantly allow for new price differentiation applications. In this work, I research a fascinating topic of price differentiation, its various forms
and new application possibilities in changing market areas.
Light scalar mesons can be understood as dynamically generated resonances. They arise as 'companion poles' in the propagators of quark-antiquark seed states when accounting for hadronic loop contributions to the self-energies of the latter. Such a mechanism may explain the overpopulation in the scalar sector - there exist more resonances with total spin J=0 than can be described within a quark model.
Along this line, we study an effective Lagrangian approach where the isovector state a_{0}(1450) couples via both non-derivative and derivative interactions to pseudoscalar mesons. It is demonstrated that the propagator has two poles: a companion pole corresponding to a_{0}(980) and a pole of the seed state a_{0}(1450). The positions of these poles are in quantitative agreement with experimental data. Besides that, we investigate similar models for the isodoublet state K_{0}^{*}(1430) by performing a fit to pion-kaon phase shift data in the I=1/2, J=0 channel. We show that, in order to fit the data accurately, a companion pole for the K_{0}^{*}(800), that is, the light kappa resonance, is required. A large-N_{c} study confirms that both resonances below 1 GeV are predominantly four-quark states, while the heavy states are quarkonia.
Prädiktoren der Remission bei Patienten mit Morbus Basedow : eine Verlaufsbeobachtung über 30 Monate
(2008)
Eine Verringerung der Schilddrüsenantikörper, besonders des TSH- Rezeptor- Antikörpers, ist ein Marker für die Voraussagbarkeit einer Remission des Morbus Basedow. Auffallend ist, dass es nicht detektierbare TSH- Level in unbehandelten, sich in Remission befindlichen Patienten gibt. Die klinische Verwertbarkeit dieses Befundes ist jedoch noch nicht hinreichend untersucht. 88 Patienten mit Morbus Basedow wurden im Mittel über einen Zeitraum von dreizig Monaten beobachtet. Zu sieben verschieden Zeitpunkten wurden TSH, fT3, fT4 und die thyroidalen Antikörper gemessen. Drei dieser Zeitpunkte wurden genauer untersucht, eingeteilt in einen Anfangszeitpunkt, einen mittleren Zeitpunkt und einen Endzeitpunkt. Im zuletzt gemessenen Zeitpunkt waren 77 % der Patienten in Remission. In der Gruppe die wir nach thyreostatischer Therapie beobachteten, waren 86 % der Patienten in Remission, in der Gruppe mit L-Thyroxin behandelten Patienten wiesen 80 % der Patienten eine Remission auf. Von den Patienten, die wir unter laufender medikamentöser Therapie untersuchten, hatten 62 % eine Remission. Zu diesem Zeitpunkt bekamen die Patienten, die sich in der Gruppe nach medikamentöser Therapie befanden, im Schnitt für 12 – 18 Monate thyreostatische Medikamente. Patienten, die unter thyreostatischer Medaktion standen, erhielten im Schnitt für 12 – 24 Monate Thyrostatika. Patienten, die nun mit L-T4 behandelt werden, erhielten im Schnitt für 12 - 24 Monate vorab medikamentöse Therapie. Durchschnittliche TSH Werte bei Patienten ohne Therapie sind 1.211 mU/ml (±0.900), bei Patienten, die L-T4 erhielten, 2,255 mU/ml (±3,404) und in Patienten mit antithyroiden Medikamenten 1,695 mU/ml (±2,575). TSH- Level in der Gruppe der unbehandelten Patienten waren signifikant niedriger (p<0.05) als in den Patientengruppen, die Levothyroxin oder medikamentöse Therapie erhielten. TRAK waren signifikant niedriger in der Gruppe der Patienten nach thyreostatischer Therapie (durchschnittlich 1.64±1.55 U/l) als in der mit L-T4 behandelten Gruppe (durchschnittlich 3.578 ±6.428 U/l) oder in der antithyroidalen Gruppe (durchschnittlich 2.758 ±2.741U/l). TRAK war bei allen Patienten, die in Remission blieben, deutlich verringert. Die Patienten, die ein Rezidiv hatten, wiesen im Schnitt weiterhin einen deutlich erhöhten TRAK – Level auf. Anders als in anderen Studien observierten wir nur einen weiblichen Patienten mit undetektierbaren TSH- Level in klinischer und biochemischer Remission. Diese Patientin hatte durchgehend nicht detektierbare TRAK- Spiegel. Der sinkende TRAK während der Behandlung und auch im weiteren Verlauf scheint ein glaubwürdiger Vorhersagewert für eine Remission des Morbus Basedow zu sein. Bei unseren untersuchten Patienten in Remission stellten wir keine bedeutsame Zahl mit nicht nachweisbarem TSH- Level fest. TSH stellt keinen prädiktiven Wert für die Prognose dar. Die Höhe des TRAK – Wertes ist dagegen prognostisch verwertbar.
Measuring information processing in neural data: The application of transfer entropy in neuroscience
(2017)
It is a common notion in neuroscience research that the brain and neural systems in general "perform computations" to generate their complex, everyday behavior (Schnitzer, 2002). Understanding these computations is thus an important step in understanding neural systems as a whole (Carandini, 2012;Clark, 2013; Schnitzer, 2002; de-Wit, 2016). It has been proposed that one way to analyze these computations is by quantifying basic information processing operations necessary for computation, namely the transfer, storage, and modification of information (Langton, 1990; Mitchell, 2011; Mitchell, 1993;Wibral, 2015). A framework for the analysis of these operations has been emerging (Lizier2010thesis), using measures from information theory (Shannon, 1948) to analyze computation in arbitrary information processing systems (e.g., Lizier, 2012b). Of these measures transfer entropy (TE) (Schreiber2000), a measure of information transfer, is the most widely used in neuroscience today (e.g., Vicente, 2011; Wibral, 2011; Gourevitch, 2007; Vakorin, 2010; Besserve, 2010; Lizier, 2011; Richter, 2016; Huang, 2015; Rivolta, 2015; Roux, 2013). Yet, despite this popularity, open theoretical and practical problems in the application of TE remain (e.g., Vicente, 2011; Wibral, 2014a). The present work addresses some of the most prominent of these methodological problems in three studies.
The first study presents an efficient implementation for the estimation of TE from non-stationary data. The statistical properties of non-stationary data are not invariant over time such that TE can not be easily estimated from these observations. Instead, necessary observations can be collected over an ensemble of data, i.e., observations of physical or temporal replications of the same process (Gomez-Herrero, 2010). The latter approach is computationally more demanding than the estimation from observations over time. The present study demonstrates how to handles this increased computational demand by presenting a highly-parallel implementation of the estimator using graphics processing units.
The second study addresses the problem of estimating bivariate TE from multivariate data. Neuroscience research often investigates interactions between more than two (sub-)systems. It is common to analyze these interactions by iteratively estimating TE between pairs of variables, because a fully multivariate approach to TE-estimation is computationally intractable (Lizier, 2012a; Das, 2008; Welch, 1982). Yet, the estimation of bivariate TE from multivariate data may yield spurious, false-positive results (Lizier, 2012a;Kaminski, 2001; Blinowska, 2004). The present study proposes that such spurious links can be identified by characteristic coupling-motifs and the timings of their information transfer delays in networks of bivariate TE-estimates. The study presents a graph-algorithm that detects these coupling motifs and marks potentially spurious links. The algorithm thus partially corrects for spurious results due to multivariate effects and yields a more conservative approximation of the true network of multivariate information transfer.
The third study investigates the TE between pre-frontal and primary visual cortical areas of two ferrets under different levels of anesthesia. Additionally, the study investigates local information processing in source and target of the TE by estimating information storage (Lizier, 2012) and signal entropy. Results of this study indicate an alternative explanation for the commonly observed reduction in TE under anesthesia (Imas, 2005; Ku, 2011; Lee, 2013; Jordan, 2013; Untergehrer, 2014), which is often explained by changes in the underlying coupling between areas. Instead, the present study proposes that reduced TE may be due to a reduction in information generation measured by signal entropy in the source of TE. The study thus demonstrates how interpreting changes in TE as evidence for changes in causal coupling may lead to erroneous conclusions. The study further discusses current bast-practice in the estimation of TE, namely the use of state-of-the-art estimators over approximative methods and the use of optimization procedures for estimation parameters over the use of ad-hoc choices. It is demonstrated how not following this best-practice may lead to over- or under-estimation of TE or failure to detect TE altogether.
In summary, the present work proposes an implementation for the efficient estimation of TE from non-stationary data, it presents a correction for spurious effects in bivariate TE-estimation from multivariate data, and it presents current best-practice in the estimation and interpretation of TE. Taken together, the work presents solutions to some of the most pressing problems of the estimation of TE in neuroscience, improving the robust estimation of TE as a measure of information transfer in neural systems.
Ein erblich bedingter Funktionsverlust der DNA Mismatch Reparatur (MMR) Proteine hMSH2 und hMLH1 führt zu genetischer Instabilität und frühzeitiger Ausbildung von Krebserkrankungen, insbesonders des Kolons und des Endometriums. Diese Erkrankung wird nach ihrem Erstbeschreiber als Lynch Syndrom oder im Falle eines kolorektalen Karzinoms auch als erbliches nichtpolypöses kolorektales Karzinom (hereditary non polyposis colorectal cancer, HNPCC) bezeichnet. Neben der DNA Reparatur sind MMR Proteine auch an weiteren regulatorischen Prozessen wie genetischer Rekombination, Antikörperbildung sowie Zellzyklus Regulation und Apoptose beteiligt. Aus onkologischer Sicht ist besonders der letzte Punkt von Interesse, da man davon ausgeht, dass MMR Proteine bei exzessiven DNA-Schäden den Zellzyklus anhalten und entweder die DNA reparieren oder die Apoptose einleiten. Dies ist von klinischer Bedeutung, da viele Chemotherapeutika künstliche DNA-Läsionen hervorrufen, die in MMR defizienten Zellen weder zu einem Zellzyklus Stop noch zur Apoptose führen, so dass die Wirksamkeit bestimmter Substanzen vermindert ist. Aus diesem Grund wurde im Rahmen der vorgelegten Dissertation ein Screening zur Identifikation von Interaktionspartnern von hMLH1 durchgeführt. hMLH1 ist hauptsächlich im Zellkern lokalisiert, über Interaktionspartner im Zytoplasma ist bisher wenig bekannt. Im Rahmen dieser Arbeit wurde ein neues bakterielles Zweihybrid-System etabliert. In diesem System besitzen die Wirtszellen keinen Zellkern, so dass die detektierten Interaktionen unabhängig von der intrazellulären Lokalisation stattfinden. Die Klone einer cDNA-Datenbank wurden mit hMLH1 in Bakterienzellen koexprimiert und die Interaktionen durch positives Zellwachstum auf Minimalnährböden angezeigt. Die positiven Klone wurden anschließend sequenziert und die Sequenz mit Hilfe der BLAST-Funktion mit der PubMed Online-Datenbank abgeglichen. Insgesamt wurden 108 bisher unbekannte Interaktionspartner von hMLH1 detektiert. Von diesen konnten zahlreiche Proteine den bekannten Funktionen der MMR zugeordnet werden. Von besonderem Interesse sind einige Interaktionspartner aus den Bereichen Zellzyklus Regulation (ANXA6, LPP2, NDRG1, PTP4A2/RH, RAPGEFL1, SPTLC2 und ARAF1), Apoptose (CTSB, CAPN5, DDX47, DES und Atmungskettenproteine) und ribosomale Proteine (EIF2A, EEF2, RPS2, RPS5 und RPS16). Weitere Untersuchungen müssen zeigen, welche dieser Interaktionspartner sich möglicherweise als prognostische bzw. prädiktive Biomarker nutzen lassen. Weiterhin könnten sich durch fundierte Kenntnis der Interaktion von MMR und Zellzyklus Regulation bzw. Apoptose neue Ansatzpunkte bei der Entwicklung zukünftiger therapeutischer Substanzen ergeben.
Die vorliegende Arbeit basiert auf einer Kombination von IR-Messungen und Spektrenberechnungen mittels Dichtefunktionaltheorie und konnte tiefere Einblicke in die von vielfältigen Überlagerungen geprägten Spektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans geben. Absorptionsmessungen zu allen 20 natürlich vorkommenden a-Aminosäuren wurden an wässrigen Lösungen im Spektralbereich von 1800 bis 500 cm-1 durchgeführt und stellten eine wichtige Grundlage zur Identifikation von Signalen der Aminosäuren im Proteinspektrum dar. Durch die Berechnung der molaren Absorptionskoeffizienten aus den Aminosäurespektren konnten Beiträge einzelner Aminosäuren zum Proteinspektrum besser eingeordnet bzw. abgeschätzt werden. Eine detaillierte Untersuchung für die wichtige Aminosäure Histidin, auch mittels zitierten Rechnungen an Modellsubstanzen, diente zur tendenziellen Zuordnung einige dieser Banden in zeitabhängig gemessenen Proteinspektren. Um eine qualitativ hochwertige Aufnahme der elektrochemisch induzierten Redox- Differenzspektren zu gewährleisten, wurde eine Potentiostaten-Ansteuerung konzipiert und programmiert. Die damit automatisiert durchgeführten Messungen ergaben reproduzierbare Differenzspektren für die Ubichinone mit und ohne Isoprenseitenkette (UQ2, UQ0) als auch für das Protein, den Cytochrom bc1-Komplex, bis 880 cm-1. Dies bedeutete eine Erweiterung des Spektralbereichs im Vergleich zu vorigen Arbeiten und damit die Möglichkeit, signifikante Moden der Ubichinole zu detektieren. Zur Untersuchung der komplexen IR-Spektren der Ubichinole wurden ab initio - und Dichtefunktionaltheorie-Rechnungen durchgeführt. Für diese biologisch essentiellen Moleküle waren bislang keine Struktur- oder Normalmodenberechnungen bekannt und wurden in der vorliegenden Studie erstmals erarbeitet. Bei der Analyse der möglichen Geometrien des UQ0H2-Moleküls mittels ab initio - Studien resultierte eine energetisch günstigste Struktur, bei der beide Methoxygruppen aus der Ringebene in verschiedene Raumhälften (vor und hinter dem Ring) wiesen. Dies ergab sich sowohl für Chinole mit als auch ohne Isoprenseitenkette (gezeigt mittels ab initio oder DFT). Diese Anordnung hat zur Folge, dass es als unwahrscheinlich eingestuft werden kann, dass die Ubichinole in übereinander gestapelter Form vorliegen. Die für die Chinole charakteristischen Hydroxygruppen (COH) orientierten sich beim Ubichinol ohne Seitenkette zu den jeweils benachbarten Methoxygruppen hin. Beim UQ2H2 zeigte die C1-OH Gruppe in Richtung der Isoprenseitenkette. Die Strukturen der oxidierten Ubichinone wiesen den aus der Literatur bekannten Mesomerie-Resonanz-Effekt an den Bindungen C4=O, C2=C3 und C-O der Methoxygruppe an C2 auf. Dieser Effekt wurde an diesen Gruppen auch für das Ubichinon mit Isoprenseitenkette gezeigt, zu dem bislang kaum Literaturdaten aus Rechnungen vorlagen. Für biologisch relevante Zwischenstufen im Redox-/Protonierungsprozess der Chinone (Ubichinone ohne Seitenkette) wurden die Strukturen berechnet. Hier erwies sich eine erste Protonierung an der C1O-Gruppe als energetisch günstiger. Zu diesen Zwischenstufen, die teils radikaler oder anionischer Natur sind, wurden die Spektren im Einklang mit bisherigen DFT-Analysen, die meist zu einfacheren Molekülen vorlagen, erstmals berechnet. Da die Spektrenberechnungen von den Strukturen in vacuo ausgingen, waren zusätzliche Modellstudien an Chinonen hilfreich, bei denen ein Wassermolekül benachbart war. Damit konnten die Auswirkungen entsprechender H-Brücken (z.B. zwischen Protein und Chinon- Molekül) anhand der berechneten Spektren der Modelle eingehender beleuchtet werden und ergaben zudem wichtige Hinweise auf mögliche Anordnungen von Wasserstoffbrücken zum (methoxy-substituierten) Chinol. Die Messungen der Ubichinole in wässriger Lösung und gebunden im Protein ergaben charakteristische Banden zwischen 1120 und 1050 cm-1, die mit den Spektrenberechnungen zugeordnet wurden: Diese Banden beinhalteten die für die Bindung der Ubichinole im Protein aussagekräftigen Signale der beiden C-O Gruppen. Damit wurde ein Grundstein gelegt für Interpretationen der Spektren hinsichtlich der Bindungen der Ubichinole an die Proteinumgebung. Für das oxidierte Ubichinon mit Isoprenseitenkette erwiesen sich die Intensitäten der vier str. C=O / C=C Moden im Vergleich zu UQ0 als verändert. Damit lag ein Beitrag einer dieser Moden zu einer Bande im Proteinspektrum nahe. Hier zeigte sich, dass eine Normalmodenanalyse von hoher Qualität, wie die vorliegende mittels Dichtefunktionaltheorie, entscheidende Aussagen über Banden liefern kann, die bei Messungen an Ubichinon-Lösungen nicht unterscheidbar sind, jedoch beim Molekül im Protein sichtbar sein können. Zu den berechneten Spektren der Ubichinole und der oxidierten Formen wurden jeweils Bandenverschiebungen ermittelt, die mit Isotopenmarkierungen einher gingen und die im Einklang mit den gemessenen Verschiebungen im Falle der 13C1- bzw. 13C4-markierten Ubichinone standen. Die Differenzspektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans zeigten aufgrund des hohen Chinongehalts ausgeprägte Banden der Ubichinole inklusive der erwähnten charakteristischen Moden. Da es in deren Bereich in den Proteinspektren zu Überlagerungen mit Häm- und Aminosäurensignalen kommt, sind weiterführende, experimentelle Studien für ein noch detailliertes Verständnis erforderlich. Die in den Spektren vorhandenen, zahlreichen weiteren Beiträge der verschiedenen Gruppen im Protein wurden anhand von Literaturdaten diskutiert. Dies betraf insbesondere die Schwingungsmoden der Häme und die Amid-Banden, die Signale des Polypeptidrückgrates des Proteins. Für die Spektrendiskussion bzgl. den Aminosäuren im Protein wurden die Ergebnisse aus Kap. 4.1 hinzugezogen. Mit zeitabhängigen IR-Messsungen (alle 30 Sekunden) wurde versucht, Erkenntnisse über weitere Beiträge oder zeitliche Entwicklungen im Proteinspektrum zu gewinnen. Da die Chinone verzögert (zum Anlegen des entsprechenden Potentials) reagierten, waren in Abhängigkeit der Reaktionsrichtung auch Signale anderer Gruppen im Protein messbar. So konnten mehrere Moden der Häme im bc1-Komplex (tendenziell) nachvollzogen werden. Aus diesen Messreihen ergaben sich wichtige Hinweise auf Signale der Histidine am Eisen-Schwefel-Zentrum des Enzyms. Diese Aminosäuren stehen direkt mit den Ubichinolen in der Qo-Bindestelle in Wechselwirkung.
This dissertation introduces in chapter 1 a new comparative approach to model-based research and policy analysis by constructing an archive of business cycle models. It includes many well-known models used in academia and at policy institutions. A computational platform is created that allows straightforward comparisons of models’ implications for monetary and fiscal stabilization policies. Chapter 2 applies business cycle models to forecasting. Several New Keynesian models are estimated on historical U.S. data vintages and forecasts are computed for the five most recent recessions. The extent of forecast heterogeneity for models and professional forecasts is analysed. Chapter 3 extends the forecasting analysis to a long sample and to the evaluation of density forecasts. Weighted forecasts are computed using a variety of weighting schemes. The accuracy of forecasts is evaluated and compared to professional forecasts and forecasts from nonstructural time series methods. Chapter 4 adds a new feature to existing business cycle models. Specifically, a medium-scale New Keynesian model is constructed that allows for strategic complementarities in price-setting. The role of trade integration for monetary policy transmission is explored. A new dimension of the exchange rate channel is highlighted by which monetary policy directly impacts domestic inflation. Chapter 5 tests whether simple symmetric monetary policy rules used in most business cycle models are a sufficient description of reality. I use quantile regressions to estimate policy parameters and find asymmetric reactions to inflation, the output gap and past interest rates.
Water is scarce in semi-arid and arid regions. Using alternative water sources (i.e. non-conventional water sources), such as municipal reuse water and harvested rain, contributes to using existing water resources more efficiently and productively. The aim of this study is to evaluate the two alternative water sources reuse water and harvested rain for the irrigation of small-holder agriculture from a system perspective. This helps decision and policy makers to have proper information about which system and technology to adopt under local conditions. For this, the evaluation included ecologic, societal, economic, institutional and political as well as technical aspects. For the evaluation, the study area in central-northern Namibia was chosen in the frame of the research and development project CuveWaters. The main methods used include a mathematical material flow analysis, the computation and modelling of crop requirements, a multi-criteria decision analysis using the Analytical Hierarchy Process (AHP) method and a financial cost-benefit analysis. From a systemic perspective, the proposed novel systems were compared to the exciting conventional infrastructure. The results showed that both water reuse and rainwater harvesting systems for the irrigation of small-holder horticulture offer numerous technological, ecologic, economic, societal, institutional and political benefits. Rainwater harvesting based gardens have a positive benefit-cost ratio under favorable conditions. Government programs could fund the infrastructure investment costs, while the micro-entrepreneur can assume a micro-credit to finance operation and maintenance costs. Installing sanitation in informal settlements and reusing municipal water for irrigation reduces the overall water demand of households and agriculture by 39%, compared to improving sanitation facilities in informal settlements without reusing the water for agriculture. Given that water is the limiting factor for crop fertigation, the generated nutrient-rich reuse water is sufficient to annually irrigate about 10 m2 to 13 m2 per sanitation user. Compared to crop nutrient requirements, there are too many nutrients in the reuse water. Thus when using nutrient-rich reuse water, no use of fertilizers and a careful salt management is necessary. When comparing this novel system with improved sanitation, advanced wastewater treatment and nutrient-rich water reuse to the conventional and to two adapted systems, results showed that the novel CuveWaters system is the best option for the given context in a semi-arid developing country. Therefore, the results of this study suggest a further roll-out of the novel CuveWaters system. The methodology developed and the results of this study demonstrated that taking sanitation users into consideration plays a major role for the planning of an integrated water reuse infrastructure because they are the determinant factor for the amount of available nutrient-rich reuse water. In addition, it could be shown that water reuse and rainwater harvesting systems for the irrigation of small-scale gardens provide a wide range of benefits and can be key to using scarce water resources more efficiently and to contributing to the Sustainable Development Goals.
Die Arachidonsäurekaskade spielt bei Entzündungsprozessen und der Schmerzentstehung eine wichtige Rolle. Deren primäre Produkte, die Leukotriene und die Prostaglandine, sind entzündungsfördernde Mediatoren und nehmen Einfluss auf den Entzündungs-auflösendenprozess und sind bei einer Dysregulation für diverse Erkrankungen wie z.B. Asthma bronchiale und allergische Rhinitis mitverantwortlich. Die Kaskade gliedert sich mit ihren beiden Hauptenzymen, Cyclooxygenase und 5-Lipoxygenase (5-LO), in zwei Wege auf. Beide Enzyme sind außerdem in der Lage entzündungsauflösenden Mediatoren zu bilden. Die Mediatoren wie z.B. Lipoxin können im Zellstoffwechsel einerseits über die Lipoxygenase-Route, oder andererseits wie „aspirin-triggered“-Lipoxin von der durch geeignete Wirkstoffe acetylierten Cyclooxygenase-2 (COX-2) katalysiert werden. Diese Mediatoren werden benötigt, um (chronische) Entzündungen und beschädigtes Gewebe zurück zur Homöostase zu führen.
Die Pharmakotherapie chronisch entzündlicher Erkrankungen mit guter Wirksamkeit und verträglichem Profil bei Langzeiteinnahme stellt jedoch eine Herausforderung dar. Die Therapie verzögern oft, z. B bei Einnahme von nicht-steroidalen Antirheumatika (NSAR), die Entzündungsauflösung, da die Bildung von entzündungshemmenden und entzündungs-auflösenden Lipidmediatoren gehemmt werden. Die gezielte Modulation und Einflussnahme auf die Arachidonsäurekaskade an einem der beiden Enzyme, stellt daher einen guten Ansatz für eine verbesserte Therapiemöglichkeit von (chronischen) entzündlichen Krankheiten dar. Diese Arbeit beschäftigt sich mit der Synthese von Modulatoren und Inhibitoren der Arachidonsäurekaskade. Zum einen befasst sie sich mit der Entwicklung von irreversiblen COX-2-acetylierenden Substanzen als neues anti-entzündliches und entzündungsauflösendes Prinzip. Zum anderen mit der Untersuchung der Struktur-Wirkungsbeziehung (SAR) von 2-Aminothiazolen als direkte 5-LO-Inhibitoren ausgehend von SKI-II, welches zuvor als Leitstruktur zur Entwicklung von 5-LO-Inhibitoren entdeckt wurde.
Als Leitstrukturen für die irreversiblen COX-2-acetylierenden Substanzen wurden bekannte COX-2 selektive Substanzen ausgewählt sowie vereinzelte nicht-selektive NSAR. Es wurden an der COX-2 Kristallstruktur Docking-Studien durchgeführt, um die geeignetsten Positionen für die Einführung einer (labilen) Acetylgruppe zu identifizieren. Aufgrund dieser Studien wurden drei Positionen ausgewählt zur Derivatisierung. Es wurden daraufhin zahlreiche Derivate synthetisiert von Celecoxib, Valdecoxib, Rofecoxib, Etericoxib, als Vertreter der (COX-2) selektive Inhibitoren, sowie von Acetylsalicylsäure, Diclofenac und Nimesulid-Analoga als Vertreter der nicht-selektiven NSARs. Zusätzlich wurden Derivate synthetisiert mit Michael-Akzeptoren als kovalente bindende Komponente. Alle synthetisierten Substanzen wurden sukzessiv auf ihre COX inhibitorischen Eigenschaften hin untersucht und auf COX-2 Selektivitäten überprüft. Weiterhin wurden von allen Derivaten Auswaschungs-Studien durchgeführt als Vorversuche welche Derivate eine irreversible COX-2-Inhibition hervorrufen. In den Vorversuchen zeigte die Verbindung ST-1650 am deutlichsten eine COX-2-Selektivität sowie eine starke irreversible Inhibition der COX-2. Die Verbindung ST-1650 wurde weiterhin auf indirekte Hinweise zur Entstehung von heilungsfördernden Mediatoren untersucht anhand von: M1-Macrophagen Polarisation und einem Schmerzmodell, dem Zymosan-Überempfindlichkeit Pfotenmodell. Im Makrophagen-Modell konnte ST-1650 keine Phänotypverschiebung hinzu entzündungsauflösenden M2-Makrophagen bewirken, sowie in den Schmerzmodellen leider keine schnellere Schmerzauflösung als die Kontrollgruppe. Ob diese Effekte durch mangelnde oder zu geringer Entstehung von entzündungshemmenden Mediatoren zurückzuführen ist, ist noch unklar.
Für die SAR der 2-Aminothiazole als direkte 5-LO-Inhibitoren wurden über 60 Verbindungen synthetisiert und untersucht. Zu Beginn erfolgte eine Optimierung der Grundstruktur als 5-LO-Inhibitor. Es wurden die Einflüsse der Substituenten des Thiazolsrings und des Aminolinkers auf die 5-LO-Aktivität ermittelt, um die SAR initialer Arbeiten zu vertiefen. Nach der SAR-Untersuchung im intakten Zellsystem konnten durch Kombination bevorzugter Strukturelemente die zwei Verbindungen ST-1853 und ST-1906, als neue potente 5-LO-Inhibitoren entwickelt werden, die sich als nicht-toxisch herausstellten. Diese beiden 5-LO-Inhibitoren wirken um einen Faktor 10 potenter und sind weniger toxisch verglichen mit der Leitstruktur SKI-II. ST-1853 wurde innerhalb der Arachidonsäurekaskade auch auf Off-targets getestet, deren Aktivitäten sie erst bei 100-fach höherer Konzentration beeinflusst, sowie in humanem Vollblut, wo sie sich ihre 10-fach bessere Wirksamkeit im Vergleich zu SKI-II bestätigte. Darüber hinaus erwies sich ST-1853 bei den ersten Überprüfungen seiner Stabilität unter physiologischen Bedingungen wie bei der in vitro Metabolisierung durch Rattenlebermikrosomen als ausreichend stabil und daher zur weiteren Charakterisierung gut geeignet.
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
Die vorliegende Arbeit beschäftigt sich mit den Arbeitsgedächtnisleistungen zweier sprachlicher Sondergruppen und der Möglichkeit über die Leistung des Arbeitsgedächtnisses validere Prognosen des weiteren sprachlichen bzw. schriftsprachlichen Entwicklungsverlaufs zu erreichen, als dies über eine ausschließliche Erhebung der Sprachleistung möglich ist. Die Basis dieser Untersuchungen bilden zwei Längsschnittstudien. Die Daten der sprachlichen Sondergruppe der Late Talker (kognitive Aspekte) wurden in Heidelberg an der Universität und dem Frühinterventionszentrum (FRIZ) zwischen dem zweiten und dem neunten Lebensjahr der Kinder (N=93 mit n1=59 Late Talkers und n2=34 Kontrollkindern) in bestimmten Abständen erhoben. Neben den sprachlichen und kognitiven Leistungstests wurde zum letzten Messzeitpunkt zusätzlich die Arbeitsgedächtnisleistung erfasst. Dabei sollte untersucht werden, ob die Leistungen im Arbeitsgedächtnis valide unterscheiden können zwischen Kindern mit persistierenden Sprachentwicklungsproblemen und Kindern, die das Defizit im weiteren Entwicklungsverlauf aufholen (Late Bloomer). Die Ergebnisse zeigen, dass mithilfe der Leistungen in der Phonologischen Schleife eine sehr gute Trennung der Late Bloomer von den Kindern, die weiter eine Sprachproblematik aufweisen, vorgenommen werden kann. Ein Hinzuziehen der zentral-exekutiven Leistungen bringt hingegen keine Verbesserung in der Vorhersagegenauigkeit.
Der zweiten Untersuchung liegen zum einen die Daten der Normierung der Arbeitsgedächtnistestbatterie für Kinder von fünf bis zwölf Jahren (AGTB 5-12 {Hasselhorn et al., 2012}) zugrunde (N=1.669 davon 243 Kinder mit Migrationshintergrund), anhand derer überprüft wurde, ob Kinder mit Migrationshintergrund in irgendeiner Weise durch die Nutzung der Testbatterie benachteiligt werden, sei es 1. Durch die ungeprüfte Übernahme des Arbeitsgedächtnismodells (nach dem Vorbild von Baddeley (1986)), dass für Muttersprachler bereits bestätigt werden konnte, 2. Durch Benachteiligungen in bestimmten Untertests und 3. Durch die Testbatterie im Allgemeinen, die Art der Testung und die Wahl bestimmter Items. Zur Überprüfung, inwieweit Prädiktoren, die bei Muttersprachlern valide Prognosen der späteren schriftsprachlichen Leistungen erlauben, auch bei Kindern mit Migrationshintergrund genutzt werden können, wird ein weiterer längsschnittlicher Datensatz herangezogen. Von den 127 Kindern der Längsschnittstudie des Projekts ANNA „Gedächtnis und Schulfähigkeit“ (Individual Development and Adaptive Education of Children at Risk am Deutschen Institut für internationale pädagogische Forschung - DIPF) weisen 60 Kinder einen Migrationshintergrund auf. Auf Basis beider Datensätze konnte nachgewiesen werden, dass das Modell des Arbeitsgedächtnisses auch bei Kindern mit Migrationshintergrund Anwendung findet und die Benachteiligungen bei der Testung besonders gering ausfallen, je früher die Kinder untersucht werden. Es zeigt sich aber auch, dass die AGTB 5-12 an manchen Stellen überarbeitet werden sollte, um mögliche Benachteiligungen noch weiter zu verringern. Außerdem konnte gezeigt werden, dass sich auch bei Kindern mit Migrationshintergrund valide Prognosen späterer schriftsprachlicher Leistungen anhand ihrer Arbeitsgedächtnisleistungen treffen lassen und hier hauptsächlich auf Basis der phonologischen Gesamtleistungen (alle Untertests).
Photo-initiated processes, like photo-excitation and -deexcitation, internal conversion, excitation energy transfer and electron transfer, are of importance in many areas of physics, chemistry and biology. For the understanding of such processes, detailed knowledge of excitation energies, potential energy surfaces and excited state properties of the involved molecules is an essential prerequisite. To obtain these informations, quantum chemical calculations are required. Several quantum chemical methods exist which allow for the calculation of excited states. Most of these methods are computationally costly what makes them only applicable to small molecules. However, many biological systems where photo-processes are of interest like light-harvesting complexes in photosynthesis or the reception of light in the human eye by rhodopsin are quite large. For large systems, however, only few theoretical methods remain applicable. The currently most widely used method is time-dependent density functional theory (TD-DFT), which can treat systems of up to 200–300 atoms with the excitation energies of some excited states exhibiting errors of less than 0.5 eV. Yet, TD-DFT has several drawbacks. The most severe failure of TD-DFT is the false description of charge transfer states which is particularly problematic in case of larger systems where it yields a multitude of artificially low-lying charge transfer states. But also Rydberg states and states with large double excitation character are not described correctly. Still, if these deficiencies are kept in mind during the interpretation of results, TD-DFT is a useful tool for the calculation of excited states. In my thesis, TD-DFT is applied in investigations of excitation energy and electron transfer processes in light-harvesting complexes. Since light-harvesting complexes, which consist of thousands of atoms, are by far too large to be calculated, model complexes for the processes of interest are constructed from available crystal structures. The model complexes are used to calculate potential energy curves along meaningful reaction coordinates. Artificial charge transfer states are corrected with the help of the so-called ∆DFT method. The resulting potential energy curves are then interpreted by comparison with experimental results. For the light-harvesting complex LH2 from purple bacteria the experimentally observed formation of carotenoid radical cations is studied. It is shown that the carotenoid radical cation is formed most likely via the optically forbidden S1 state of the carotenoid. In light-harvesting complex LHC-II of green plants the fast component of the so-called non-photochemical quenching (NPQ) is investigated. Two of several different hypotheses on the mechanism of NPQ, which have been proposed recently, are studied in detail. The first one suggests that NPQ proceeds via simple replacement of violaxanthin by zeaxanthin in the binding pocket in LHC-II. However, the calculated potential energy curves exhibit no difference between violaxanthin and zeaxanthin in the binding pocket. In combination with experimental results it is thus shown that simple replacement alone does not mediate NPQ in LHC-II. The second hypothesis proposes conformational changes of LHC-II that lead to quenching at the central lutein and chlorophyll molecules during NPQ. My TD-DFT calculations demonstrate that if this mechanism is operative, only the lutein 1 which is one of two central luteins present in LHC-II can take part in the quenching process. This is corroborated by recent experiments. Though several conclusions can be drawn from the investigations using TD-DFT, the interpretability of the results is limited due to the deficiencies of the method and of the models. To overcome the methodological deficiencies, more accurate methods have to be employed. Therefore, the so-called algebraic diagrammatic construction scheme (ADC) is implemented. ADC is a widely overlooked ab initio method for the calculation of excited states, which is based on propagator theory. Its theoretical derivation proceeds via perturbation expansion of the polarization propagator, which describes electronic excitations. This yields separate schemes for every order of perturbation theory. The second order scheme ADC(2), which is employed here, is the equivalent to the Møller-Plesset ground state method MP(2), but for excited states. It represents the computationally cheapest excited state method which can correctly describe doubly excited states, as well as Rydberg and charge transfer states. The quality of ADC(2) results is demonstrated in calculations on linear polyenes which serve as model systems for the larger carotenoid molecules. The calculations show that ADC(2) describes the three lowest excited states of polyenes sufficiently well, particularly the optically forbidden S1 state which is known to possess large double excitation character. Yet, the applicability of the method is limited compared to TD-DFT due to the much larger computational requirements. To facilitate the calculation of larger systems with ADC(2) a new variant of the method is developed and implemented. The variant employs the short-range behavior of electron correlation to reduce the computational effort. As a first step, the working equations of ADC(2) are transformed into a basis of local orbitals. In this basis negligible contributions of the equations which are due to electron correlation can be identified based on the distances of local orbitals. A so-called “bumping” scheme is implemented which removes the negligible parts during a calculation. This way, the computation times as well as the disk space requirements can be reduced. With the “bumping” scheme several new parameters are introduced that regulate the amount of “bumping” and thereby the speed and the accuracy of computations. To determine useful values for the parameters an evaluation is performed using the linear polyene octatetraene as test molecule. From the evaluation an optimal set of parameter values is obtained, so that the computation times become minimal, while the errors in the excitation energies due to the “bumping” do not exceed 0.15 eV. With further calculations on various molecules of different sizes it is tested if these parameter values are universal, i.e. if they can be used for all molecules. The test calculations show that the errors in the excitation energies are below 0.15 eV for all test systems. Additionally, no trend is visible for the errors that their magnitude might depend on the system. In contrast, the amount of disregarded contributions in the calculations increases drastically with growing system size. Thus, the local variant of ADC(2) can be used in future to reliably calculate excited states of systems which are not accessible with conventional ADC(2).
Despite major improvements of the therapy, many B-cell Non-Hodgkin’s lymphoma (B-NHL) entities still have a poor prognosis. New therapeutic options are urgently needed. Therefore this study sets out to investigate oncogenic signalling pathways in the two B-NHL entities mantle cell lymphoma (MCL) and diffuse large B-cell lymphoma (DLBCL) in order to define new potential therapeutic targets.
MCL cells overexpress the anti-apoptotic protein BCL-2, thereby they evade apoptosis. With venetoclax, the first-in-class BCL-2 specific inhibitor was approved and achieved good response rates in MCL. However, some cases display intrinsic or acquired resistance to venetoclax. In order to improve the therapy, this study aimed to identify genes which confer sensitivity or resistance towards venetoclax upon their respective knockout. To this end, a genome-wide CRISPR/Cas9-based loss-of-function screen was conducted in the MCL cell line Maver-1. The E3 ubiquitin
ligase MARCH5 was identified as one of the top hits conferring sensitivity
towards venetoclax upon its knockout. This finding was validated in a competitive growth assay including two more MCL cell lines, Jeko-1 and Mino. MARCH5 knockout also sensitised Jeko-1 cells towards venetoclax even though this cell line was insensitive towards venetoclax in its wild-type form. Using BH3 profiling, an increased dependency on BCL-2 of MARCH5-depleted cells confirmed this finding. The sensitisation was found to be based on induction of apoptosis upon MARCH5 knockout and to an even higher extent upon additional treatment of MARCH5-depleted cells with venetoclax. As already described for epithelial cancer entities, the BCL-2 family members MCL-1 and NOXA were upregulated in MCL cell lines upon MARCH5 knockout. This led to the hypothesis that MARCH5 is a potential
regulator of intrinsic apoptosis with NOXA as a key component. A competitive growth assay with MARCH5 and NOXA co-depleted cells revealed a partial reversion of the BCL-2 sensitisation compared to MARCH5 knockout alone. Furthermore, mass spectrometry-based methods were used to gain more insight into other cellular pathways and networks which might be regulated in a MARCH5-dependent manner. In an interactome analysis, proteins which regulate mitochondrial morphology, such as Drp-1 were identified as MARCH5 interactors. Besides this expected finding, interaction between MARCH5 and several members of the BCL-2 family as well as a potential connection between MARCH5 and vesicular trafficking was discovered. As expected, an ubiquitinome analysis of MARCH5-depleted cells revealed decreased levels of MCL-1 and NOXA ubiquitination. Additionally, a potential role of MARCH5 in the ubiquitination of several members of the cell cycle regulatory
pathway was discovered. Based on the broad spectrum of cellular pathways which seem to be regulated in a MARCH5-dependent manner, it was hypothesised that MARCH5 primarily regulates BCL-2 family members which in turn regulate intrinsic apoptosis on the one hand and additionally are involved in the regulation of various other pathways on the other hand.
In summary, this study provides insight into a MARCH5-dependent MCL1-1/NOXA axis in MCL cells and potential implications into related cellular processes.
In addition to the anti-apoptotic pathways described above, B-cell receptor (BCR) signalling is known to provide a pro-survival signal to both normal and malignant B-cells. Targeting the BCR signalling pathway therefore is a promising therapeutic target for B-cell malignancies. In order to gain more insight into the differential modes of BCR signalling of ABC- and GCB-DLBCL cells, genes/proteins which displayed differential essentiality in ABC- and GCB-DLBCL cells were aimed to be defined. Consequently, data sets from a CRISPR/Cas9-based loss-of-function screen
were re-analysed. SASH3 was identified as a gene which was essential for GCB- but not for ABC-DLBCL cells. Since this protein is known to be involved in T-cell receptor (TCR)-signalling, SASH3 was assumed to play a potential role in BCR signalling as well and was therefore investigated in more detail. A competitive growth assay confirmed that SASH3 knockout was toxic exclusively for GCB-DLBCL cell lines. An interactome analysis in ABC- and GCB-DLBCL cells revealed interaction between SASH3 and many components of the proximal BCR signalling pathway as well as several downstream signalling pathways such as the PI3K or the NF-ΚB pathway.
An integration of the interactome with data from the CRISPR/Cas9-based loss-offunction screen revealed differential essentiality of the SASH3-interacting proteins in ABC- and GCB-DLBCL cells. It was hypothesised that SASH3 might regulate PI3K signalling on which GCB- but not ABC-DLBCL cells are known to dependent. Discontinuation of the regulation of PI3K signalling could therefore be exclusively toxic to GCB-DLBCL cells.
Taken together, this study describes a subtype-specific dependency of GCB-DLBCL cells on SASH3. Furthermore, the SASH3 interactome has been investigated in B-cells for the first time, thereby highlighting a potential role in proximal BCR signalling and involvement in specific BCR-related downstream signalling pathways.
1. Fab co-complexes of proton pumping NADH:ubiquinone oxidoreductase (complex I) Fab fragments suitable for co-crystallization with complex I were generated using an immobilized papainbased protocol. The binding of the antibody fragments to complex I was verified using Surface Plasmon Resonance and size exclusion chromatography. The binding constants of the antibodies and their respective Fab fragments were found to be in the nanomolar range. This work presents the first report on successful crystallization of complex I (proton pumping NADH:ubiquinone oxidoreductase) from Yarrowia lipolytica with proteolytic Fab fragments. The quality of the crystals was significantly improved when compared to the initial experiments and the best crystals diffracted X-rays to a resolution of ~7 Å. The activity of complex I remained uninfluenced by antibody fragment binding. The initial diffraction data suggest that the complex I/Fab co-complex crystals represent a space group different to the one observed for the native protein. Ongoing experiments are aimed at further enhancements of the diffraction quality of the crystals. Providing a different space group the CI/Fab co-complexes may become a very useful approach for structure determination of the enzyme. Moreover, the bound Fab offers an additional possibility to generate phase information. The antibody-mediated crystallization represents a valuable tool in structural characterization of the NADH:oxidoreductase subcomplexes or even single subunits. 2. UDP-glucose pyrophosphorylase UDP-glucose pyrophosphorylase from Yarrowia lipolytica displays affinity towards Ni2+ NTA and was first detected in a contaminated sample of complex I. Following, separation from complex I, Ugp1p was purified using anion exchange chromatography. Sequence similarity studies revealed high identity to other known pyrophosphorylases. As indicated by laser-based mass spectrometry method (LILBID) Ugp1p from Y. lipolytica builds octamers similarly to the enzyme from Saccharomyces cerevisiae. The initial crystals grew as thin needles favorably in sitting drop setups. The size of the crystals was increased by employment of a micro batch technique. The improved crystals diffracted X-rays to a resolution of 3.2 Å at the synchrotron beamline. Structural characterization is under way using a molecular replacement approach based on the published structure of baker’s yeast UGPase.
As one of the most widespread infectious diseases in the world, it is currently estimated that approximately 296 million people globally are chronically infected with Hepatitis B virus (HBV), the consequences of HBV infection cause more than 620,000 deaths each year. Although safe and effective HBV vaccines have reduced the incidence of new HBV infections in most countries, there are still around 1.5 million new infections each year. HBV remains a major health problem because there is no large-scale effective vaccination strategy in many countries with a high burden of disease, many people with chronic HBV infection are not receiving effective and timely treatment, and a complete cure for chronic infection is still far from being achieved.
Since its discovery, HBV has been identified as an enveloped DNA virus with a diameter of 42 nm. For efficient egress from host cells, HBV is thought to acquire the viral envelope by budding into multivesicular bodies (MVBs) and escape from infected cells via the exosome release pathway. It is clear that HBV hijacks the host vesicle system to complete self-assembly and propagation by interacting with factors that mediate exosome formation. Consequently, the overlap with exosome biogenesis, using MVBs as the release platform, raises the possibility for the release of exosomal HBV particles. Currently, virus containing exosomal vesicles have been described for several viruses. In light of this, this study explored whether intact HBV-virions wrapped in exosomes are released by HBV-producing cells.
First, this study established a robust method for efficient separation of exosomes from HBV virions by a combination of differential ultracentrifugation and iodixanol density gradient centrifugation. Fractionation of the density gradient revealed that two populations of infectious viral particles can be separated from the culture fluids of HBV-producing cells. The population present in the low-density peak co-migrates with the exosome markers. Whereas the population that appeared in the high-density fractions was the classical HBV virions, which are rcDNA-containing nucleocapsids encapsulated by the HBV envelope.
Subsequently, the characterization of this low-density population was performed, namely the highly purified exosome fraction was systematically investigated. Relying on the detergent sensitivity of the exosome membrane and the outer envelope of the HBV virus, disruption of the exosome structure by treatment with limited detergent revealed the presence of HBsAg in the exosomes. At the same time, mild and limited NP-40 treatment of highly purified exosomes and a further combination of density gradient centrifugation resulted in the stepwise release of intact HBV virions and naked capsids from the exosomes generated by HBV-producing cells. This implies the presence of intact HBV particles encapsulated by the host membrane.
The presence of exosome-encapsulated HBV particles was consequently also verified by suppressing the morphogenesis of MVBs or exosomes. Impairment of MVB- or exosome-generation with small molecule inhibitors has significantly inhibited the release of host membrane-encapsulated HBV particles as well. Likewise, silencing of exosome-related proteins caused a diminution of exosome output, which compromised the budding efficiency of wrapped HBV.
Moreover, electron microscopy images of ultra-thin sections combined with immunogold staining visualized the hidden virus in the exosomal structure. Additionally, the presence of LHBs on the surface of exosomes derived from HBV-expressing cells was also observed.
As expected, these exosomal membrane-wrapped HBV particles can spread productive infection in differentiated HepaRG cells. In HBV-susceptible cells, as LHBs on the membrane surface, this type of exosomal HBV appeared to be uptaken in an NTCP receptor-dependent manner.
Taken together these data indicate that a fraction of intact HBV virions can be released as exosomes. This reveals a so far not described release pathway for HBV. Exosomes hijacked by HBV act as a transporter impacting the dissemination of the virus.
Conclusion Scale Integration Based on the results of spike-field coherence, the underlying process of shortterm memory seems to involve networks of different sizes within and, most probably, beyond prefrontal cortex. Spikes, which were generated by single neurons, cooperate with local field potentials, which were the slower fluctuations of the environment. Although differences among behavioral conditions appear to be based on rather few instances of phase-locked spikes, the task-related effects on spike-field coherence are highly reliable and cannot be explained by chance, as the comparison of results from experimental and simulated data shows. The differential locking of prefrontal neuron populations with two different frequency bands in their input signals suggests that neuronal activity underlying short-term memory in prefrontal cortex transiently engages cortical circuits on different spatial scales, probably in order to coordinate distributed processes. NeuroXidence method and Synchronizedfiring Based on the results of the calibration datasets, for bi- and multi-variate cases, the extension of NeuroXidence remains its sensitivity and reliability of detecting coordinate firing events for different processes. Based on this extension of NeuroXidence, we demonstrated that in monkey’s prefrontal cortex during short-term memory task, encoding and maintenance of the information rely on the formation of neuronal assemblies characterized by precise and reliable synchronization of spiking activity on a millisecond time scale, which is consistent with the results from spike-spike coherence. The task and performance dependent modulation of synchrony reflects the dynamic formation of group of neurons has large effect on short-term-memory.