Refine
Year of publication
- 2013 (152) (remove)
Document Type
- Doctoral Thesis (152) (remove)
Has Fulltext
- yes (152)
Is part of the Bibliography
- no (152) (remove)
Keywords
- UrQMD (2)
- A-Discriminant (1)
- ALICE (1)
- ALICE experiment (1)
- Acculturation (1)
- Adolescence (1)
- Agent (1)
- Akkulturation (1)
- Aktivierungsmethode (1)
- Akustik (1)
- Amoeba (1)
- Anisotropie (1)
- Armenien (1)
- Augmented Reality (1)
- Aussiedler (1)
- Autorensystem (1)
- Betrug <Motiv> (1)
- Bewältigung (1)
- Bilderwelten (1)
- Bildverarbeitung (1)
- Boltzmann equation (1)
- Boolean Lattice (1)
- Boundary (1)
- Brain Rhythms (1)
- Buchgeschichte (1)
- Buchhandel (1)
- Buchpreis (1)
- C. elegans (1)
- CBM experiment (1)
- Circuit (1)
- Coamoeba (1)
- Coding Scheme (1)
- Cognitive (1)
- Conflict (1)
- Conjoint Analysis (1)
- Copper decoration (1)
- Correlations (1)
- Cultural identity (1)
- Data Analytics (1)
- Dentin adhesives (1)
- Depth-Map (1)
- Der Pfaffe Amis (1)
- Double-sided silicon microstrip detectors characterization readout quality assurance (1)
- Efferentes System (1)
- Engineering (1)
- Erasure-Correcting Codes (1)
- Etching (1)
- EuB6 (1)
- Explicit Feedback (1)
- Failure Erasure Code (1)
- Finanzmärkte (1)
- Finite-Differenzen (1)
- Finnish (1)
- Fluktuationsspektroskopie (1)
- Folter (1)
- Funktionale Renormierungsgruppe (1)
- GPGPU (1)
- GPU (1)
- GPU Computing (1)
- GRSN (1)
- Gabor lens (1)
- Gammaspektroskopie (1)
- Gender (1)
- Genus One (1)
- German Literature (1)
- Germany (1)
- Globalization (1)
- Goethe, Johann Wolfgang von (1)
- Gregorius (1)
- Großbritannien (1)
- HBT (1)
- Hartmann von Aue (1)
- Heavy-ions (1)
- Heuristics (1)
- Historie (1)
- Hydrodynamic (1)
- Hypotrochoid (1)
- ISO (1)
- Implicit Feedback (1)
- Information structure (1)
- Intonation (1)
- Islam (1)
- Kaukasus (1)
- Keldysh-Formalismus (1)
- Kinder und Jugendliche mit Migrationshintergrund (1)
- Kinderwunsch (1)
- Kinetic Theory (1)
- Kulturelle Identität (1)
- Kunst in Wirtschaftsunternehmen (1)
- Kunst-Engagement (1)
- Kunstförderung (1)
- Langsame Extraktion (1)
- Language ideology (1)
- Laute (1)
- Linpack (1)
- Mach cones (1)
- Magnetoencephalography (1)
- Magnetrezeption (1)
- Manuskriptkultur (1)
- Mediale olivo-cochleäre Efferenz (1)
- Migration (1)
- Mindanao (1)
- Multilingualism (1)
- Nicht-Ereignis (1)
- Nicht-linearer Transport (1)
- Norm Life Cycle (1)
- Normen (1)
- Nukleares Tabu (1)
- Online Algorithmen (1)
- Optisches Potenzial (1)
- Oscillations (1)
- Paging (1)
- Parallel Computing (1)
- Philippines (1)
- Phrasing (1)
- Pleistozän (1)
- Pollen (1)
- Preisbindung (1)
- Prosody (1)
- Pólya urn (1)
- Rating Scale (1)
- Rating Scale Design (1)
- Rating System (1)
- Reinhart Fuchs (1)
- Religiöses Coping (1)
- Return diaspora (1)
- Romania (1)
- SKS (1)
- Sammelhandschrift (1)
- Schottky (1)
- Semidefinite Programming (1)
- Shock Waves (1)
- Siebenbürger Sachsen (1)
- Simulation (1)
- Soziale Interaktion (1)
- Spinwellen (1)
- Subfertilität (1)
- Sum of Squares (1)
- Synaptic plasticity (1)
- Synchrotron (1)
- Tabu (1)
- Tracking (1)
- Transnationalism (1)
- Transylvanian Saxons (1)
- Trinomial (1)
- Tropical Geometry (1)
- Tumortherapie (1)
- Täuschung <Motiv> (1)
- Ungewollte Kinderlosigkeit (1)
- User Profile (1)
- Vectorization (1)
- Vegetation (1)
- Verdeckung (1)
- Verkehr (1)
- WWW (1)
- Web (1)
- Web Analytics (1)
- Web Based Training (1)
- West Africa- Burkina Faso -Benin- soil properties-Geomorphology-phytodiversity-relationship soil- woody plant diversity (1)
- Working Memory (1)
- Yttrium-Eisengranat (1)
- aesthetics (1)
- astrophysikalischer p-Prozess (1)
- autocorrelograms (1)
- bid-ask spread (1)
- circadian rhythm (1)
- contraction method (1)
- critique (1)
- cultural adaptation (1)
- detector (1)
- diagnostics (1)
- event reconstruction (1)
- firing patterns (1)
- heavy ions (1)
- ionizing radiation (1)
- kulturelle Adaptation (1)
- liver, pancreas (1)
- market making (1)
- mikroskopisch (1)
- multimodal (1)
- nnp (1)
- non-neutral plasma (1)
- nonneutral plasma (1)
- nukleare Wirkungsquerschnitte (1)
- octonions (1)
- optische Potentiale (1)
- organotypic slice culture (1)
- p-Kerne (1)
- point process (1)
- probability metric (1)
- recursive distributional equation (1)
- resonant (1)
- spike train (1)
- spin group (1)
- stochastic filtering (1)
- storage ring (1)
- the sublime (1)
- valuation (1)
- weak convergence (1)
Institute
- Biowissenschaften (29)
- Biochemie und Chemie (24)
- Physik (21)
- Medizin (9)
- Pharmazie (8)
- Geowissenschaften (7)
- Informatik (6)
- Informatik und Mathematik (6)
- Psychologie (6)
- Geschichtswissenschaften (4)
Nikotinische Acetylcholin Rezeptoren (nAChR) sind ligandengesteuerte Ionenkanäle der pentameren Cys-Loop Familie, welche nach Bindung des Neurotransmitters Acetylcholin exzitatorische Signale in Muskeln und Neuronen vermitteln. Während die Funktion der Rezeptoren an der synaptischen Membran relativ gut untersucht wurde, gibt es bis heute kaum Erkenntnisse über die intrazellulären Prozesse und Proteine, die der selektiven Assemblierung von homologen Untereinheiten zu funktionalen Rezeptorpentameren zugrundeliegen.
Das C. elegans Genom kodiert für mehr als 29 nAChR Untereinheiten-Gene und besitzt damit die größte Anzahl bekannter Homologe innerhalb der untersuchten Arten. An der neuromuskulären Synapse (NMJ) des Nematoden sind zwei Typen von nAChR bekannt: der heteromere Levamisolrezeptor (L-AChR) und der homomere Nikotinrezeptor (N-AChR). Innerhalb dieser Arbeit wurde der funktionale Zusammenhang zwischen den nikotinischen Rezeptoren der NMJ von C. elegans und einem neuen rezeptorassoziierten ER-Proteinkomplex der Proteine NRA-2 und NRA-4 untersucht. Ihre vertebraten Homologe Nicalin und Nomo wurden zuerst im ER vom Zebrafisch im Zusammenhang mit dem TGF-β Signalweg beschrieben. Mutation der Proteine hat einen Agonist-spezifischen Einfluss auf die Aktivität von L-AChR und N-AChR. Die subzellulären Lokalisationsstudien demonstrierten, dass die beiden Proteine im ER von Muskelzellen wirken und dort mit Rezeptoruntereinheiten co-lokalisieren. Weiterhin ließ sich nachweisen, dass die relative Menge einzelner L-AChR-Untereinheiten an der synaptischen Oberfläche reduziert bzw. erhöht ist. Da die Rezeptoraktivität in Zusammenhang mit der Untereinheiten Komposition steht, wurde die Rolle von zusätzlichen Untereinheiten wie ACR-8 untersucht. Dies zeigte, dass die zusätzliche Mutation der Untereinheit acr-8 in nra-2 Mutanten den Einfluss der nra-2 Einzelmutation auf die Aktivität des L-AChR revertiert. Basierend auf diesen Ergebnissen lässt sich die Hypothese formulieren, dass der NRA-2/NRA-4 Komplex im ER von C. elegans als Kontrollinstanz fungiert welche dafür sorgt, dass nur die jeweils „korrekten“ Untereinheiten in funktionale Rezeptoren eingebaut bzw. andere vom Einbau in das Pentamer abgehalten werden. Durch Fehlen des aktiven Komplexes in Mutanten können nicht vorgesehene -Untereinheiten (z. B. ACR-8) in funktionale Pentamere mit veränderter Funktionalität eingebaut werden.
Trotz zunehmender Verbesserungen in der Diagnostik und Therapie von Krebserkrankungen leiden onkologische Patienten häufig unter gravierenden tumorund therapiebedingten Symptomen und Nebenwirkungen wie Fatigue, Reduktion der Leistungsfähigkeit und Lebensqualität (Courneya, 2003a; Crevenna et al., 2002; Ferriset al., 2009). Zahlreiche Untersuchungen und Übersichtsarbeiten zeigen, dass körperliche Aktivität in den verschiedenen Phasen der Krebstherapie möglich ist und zu einer Reduktion der Nebenwirkungen sowie zu einer Verbesserung der Lebensqualität und Leistungsfähigkeit führen kann (Cramp & Byron-Daniel, 2012; Jones & Peppercorn, 2010; Mishra et al., 2012b; Schmitz et al., 2010). In aktuellen Leitlinien wird körperliche Aktivität deshalb als wichtige supportive Therapiemaßnahme während der Akuttherapie und im Rahmen der Nachsorge sowie Rehabilitation empfohlen. Analog der zunehmenden Individualisierung medizinischer Diagnostik- und Therapiestrategien in der Onkologie (z. B. vergleichbare oder sequentielle Therapieregime, targeted therapies, Patientenwunsch), gibt es inzwischen auch im Bereich der Sportmedizin Forderungen nach individuell angepassten, effektiven körperlichen Trainingsprogrammen (Jensen et al., 2011). Bei der Erarbeitung dieser Bewegungsangebote sollten Informationen zur Einschätzung der körperlichen Leistungsfähigkeit sowie zu den individuellen persönlichen und medizinischen Voraussetzungen der Betroffenen berücksichtigt werden. Entsprechend muss bei der Planung der körperlichen Aktivität auch die aktuelle Behandlungsphase im Rahmen der onkologischen Therapien einbezogen werden. Neben der zeitlichen Einteilung der Therapiephasen in Akut- oder Rehabilitationsphase gibt es die Möglichkeit, den Therapieprozess in Abhängigkeit der Heilungsaussicht einzuordnen. Dabei wird die Prognose einer Tumorerkrankung in Abhängigkeit des Tumorstadiums, des Lymphknotenbefalls und der möglichen Metastasierung in einen heilbaren (kurativen) und nicht heilbaren (palliativen) Therapieansatz eingestuft. Während ein Großteil der Studien die Wirkung bewegungstherapeutischer Interventionen bei Patienten mit kurativem Therapieansatz untersucht, gibt es bisher nur sehr wenig Untersuchungen bei unheilbar kranken Tumorpatienten (Albrecht & Taylor, 2012). Infolgedessen sind Aussagen zu prognosebezogenen Informationen über die individuelle Leistungsfähigkeit und zu unterschiedlichen physischen und psychischen Reaktionenaufgrund körperlicher Aktivität bei dieser Patientengruppe bisher nur bedingt möglich und erlauben folglich keine zielgruppenspezifischen Empfehlungen.
Angesichts dieses Forschungsdefizits ist das Kernziel der vorliegenden Arbeit, mögliche Unterschiede von Lebensqualität, Fatigue und aerober Kapazität (VO2peak) in Abhängigkeit der Heilungsaussicht (kurativ/palliativ) initial zu identifizieren und gleichzeitig die jeweiligen Veränderungen im Rahmen der Intervention über den Gesamtuntersuchungszeitraum zu überprüfen.
Initial konnten 300 onkologische Patienten (histologisch gesichertes Malignom) mit unterschiedlichen Krebsentitäten, in verschiedenen Behandlungsphasen, mit bekannter klinischer Heilungsprognose (kurativ/palliativ) und unter Berücksichtigung definierter Ein- und Ausschlusskriterien in die Untersuchung eingeschlossen werden. Mit dem Ziel einer individuellen Sportberatung und Trainingsplangestaltung absolvierten die Studienteilnehmer eine sportmedizinische Gesundheits- und Leistungsdiagnostik zur Ermittlung der Ausdauerleistungsfähigkeit und Bestimmung des Trainingsbereichs. Die Messungen erfolgten auf dem Fahrradergometer (0W; 25W Inkrement; 3 Minuten) und umfassten Herzfrequenz, Blutdruck, maximale Sauerstoffaufnahmefähigkeit (VO2peak), Laktatkonzentration und subjektives Belastungsempfinden (Borg Skala). Baseline- und identische Wiederholungs-untersuchungen nach 4-6 und nach 16-20 Wochen dienten gleichzeitig der Erfassung der subjektiven Parameter Lebensqualität und Fatigue (EORTC QLQ-C30) (Aaronson et al., 1993). Der Trainingsplan wurde unter Einbeziehung persönlicher Präferenzen, individueller Leistungsfähigkeit und Empfehlungen zur Gesundheitsprävention der WHO (als Orientierung für den Trainingsumfang von 150 min/Wo.) erstellt und dem Patienten in einem ca. 20minütigen Beratungsgespräch erläutert. Art, Umfang und Häufigkeit des mindestens mit moderater Intensität absolvierten Ausdauertrainings wurde durch die Patienten in einem Trainingstagebuch dokumentiert. Die Gruppenzuteilung erfolgte in Abhängigkeit der Heilungsprognose (kurativ/palliativ) unter Verwendung des TNM-Systems. Patienten mit der Prognose „heilbar“ wurden der kurativen Stichprobe zugeteilt, während Patienten mit histologisch gesichertem Nachweis von Metastasen (M1) als palliativ eingestuft wurden.
Referenzwerte waren für die VO2peak: alters- und geschlechtsentsprechende Normdaten (Median) des American College of Sports Medicine und für die Daten des EORTCQLQ-C30: das Manual „EORTC QLQ-C30 Reference Values“ einer EORTCArbeitsgruppe (Scott, 2008). Die Dateneingabe und die Aufbereitung der Rohdaten erfolgte mit Hilfe von Microsoft Excel. Für die statistische Auswertung wurden alle statistischen Analysen anschließend mithilfe der Statistikprogramme SPSS 19.0 (SPSS Inc., Chicago, IL, USA) und „BIAS für Windows“, Version 10, 2012, Universität Frankfurt) durchgeführt. Das Signifikanzniveau wurde a priori auf p<0,05 festgelegt.
Insgesamt 158 Patienten (99 kurativ, 59 palliativ; 54,9±11,1 Jahre, 108 ♀, 50 ♂) nahmen an allen drei Untersuchungen teil. Der parameterfreie Mann-Whitney-Test zeigte sowohl für Lebensqualität als auch Fatigue-Symptomatik keine signifikanten Unterschiede bei der Eingangsuntersuchung zwischen kurativen und palliativen Teilnehmern. Für die VO2peak ergab der parametrische T-Test ebenfalls keine Unterschiede bei den Initialwerten. Nach Abschluss der Intervention zeigten sich in beiden Patientengruppen sowohl bei der Lebensqualität als auch der Fatigue-Symptomatik signifikante Verbesserungen über den gesamten Untersuchungszeitraum. Anschließende post-hoc-Tests ergaben keine signifikanten Gruppenunterschiede bezüglich der Entwicklung während der verschiedenen Untersuchungszeiträume und der Differenz von Initial- und Abschlusswert. Die Varianzanalyse mit Messwiederholung (Anova) zeigte sowohl für Kurativ- als auch Palliativpatienten signifikante Veränderungen der VO2peak über die Zeit. Einen Haupteffekt im Bezug auf die Gruppe oder eine Interaktion von Zeit und Gruppe gab es dabei nicht. Folglich entwickelten sich beide Gruppen über den Untersuchungszeitraum vergleichbar.
Die vorliegenden Ergebnisse zeigen, dass die Heilungsprognose, kurativ oder palliativ, keinen unterschiedlichen Einfluss auf die Trainierbarkeit der Betroffenen zu haben scheint. Körperliches Training führte bei beiden Patientengruppen dieser Studie zu signifikanten Verbesserungen der Zielparameter. Ein Vergleich der vorliegenden Daten mit bisherigen Untersuchungsergebnissen ist aufgrund der aktuell geringen Anzahl an Studien mit Palliativpatienten und einer bisher nicht einheitlichen Palliativ-Definition schwierig.
Die sporttherapeutische Beratung, welche neben der Vermittlung von Trainingsumfang und –intensität insbesondere Trainingsziele und deren Wirksamkeit aufzeigen soll, kann Patienten und ihrem Umfeld helfen, den Stellenwert von körperlichem Training zuverstehen und bestenfalls die Compliance erhalten. Darüber hinaus kann die allgemeine Leitlinien-Empfehlung von 150 Minuten moderates Ausdauertraining pro Woche als grober Richtwert bestätigt werden. Unterschiedlich hohe Trainingsumfänge in Abhängigkeit initialer Leistungsfähigkeit weisen indessen darauf hin, dass individuelle Trainingsempfehlungen zu bevorzugen sind. Als Konsequenz aus diesen Ergebnissen ist zu empfehlen, dass sich zukünftig körperliche Aktivität als unverzichtbarer Bestandteil des supportiven Therapieangebotes für Krebspatienten mit fortgeschrittener Erkrankung, speziell bei palliativ eingestuften Patienten, etabliert.
Weitere Untersuchungen zu diesem Thema sollten insbesondere darauf abzielen, Dosis-Wirkungs-Zusammenhänge zu ermitteln und diese in symptom- und entitätsspezifische Empfehlungen zu integrieren.
Die Transkription ist ein entscheidender Schritt in der Transition der genetischen Information, welche durch die DNA codiert und im Genom hinterlegt ist, zu dreidimensionalen Funktionseinheiten in der Zelle, den Proteinen. Während der Transkription wird die Information von der Ebene der DNA in RNA umgewandelt, welche in der Zelle zusätzlich zu dessen Rolle als Informationsmediator in Form der mRNA eine Vielzahl von Funktionen ausübt. Die Transkription benötigt in Hinblick auf ihre essentielle Rolle in der Errichtung des Proteoms und der notwendigen Adaption von Genexpressionsprogrammen an externe zelluläre Stimuli, den Zellzyklus etc. eine präzise und gleichzeitig flexible Regulation. Besonders für die Transkription von mRNA dient die eukaryotische RNA-Polymerase II (RNAP II) in diesem Prozess als eine zentrale Einheit, die einer Vielzahl regulativer Mechanismen wie post-translationaler Modifikationen und der Assemblierung dynamischer Proteinkomplexe unterliegt. Während Komponenten dieser Regulation wie die Zusammensetzung und Dynamik des Prä-Initiationskomplex bereits seit Jahrzehnten beschrieben sind, ist eine besondere Form der RNAP II-abhängigen Regulation erst in den letzten Jahren Gegenstand genauerer Untersuchungen geworden. So erfährt die RNAP II bei einer Vielzahl von Genen unmittelbar nach der Initiation einen Arrest, der das Enzym nicht weiter über die DNA prozessieren lässt und somit die produktive Elongation des Gens blockiert. Die Aufhebung dieser Blockade wird durch den positiven Transkriptions-elongationsfaktor b (P-TEFb) dominiert, der durch distinkte post-translationale Modifikationen der C-terminalen Domäne der RNAP II und assoziierter Faktoren die produktive Elongation ermöglicht. P-TEFb selbst unterliegt dabei einer strengen Regulation durch eine inaktivierende Assoziation mit Speicherkomplexen. P-TEFb wurde abseits dieser Komplexe in einer Vielzahl von Elongations-assoziierten Proteinkomplexen identifiziert, der Mechanismus der Transition aus dem inaktiven Speicherkomplex zur aktiven Form an der RNAP II war jedoch unbekannt.
Ein zentrales Element aller aktiven Komplexe ist die Anwesenheit von Proteinen der AF4/FMR2-Familie, darunter das AF4 Protein. Bemerkenswerterweise war die genaue Rolle dieses Proteins in den Komplexen bisher unbekannt oder wurde lediglich auf die strukturelle Integrität der Komplexe beschränkt. AF4 und speziell dessen N-Terminus ist über diese Rolle hinaus als Bestandteil des Fusionsproteins AF4-MLL eng mit der onkogenen Zelltransformation im Falle einer durch die t(4;11)(q21;q23) chromosomalen Translokation bedingter, akuter lymphoblastischer Leukämie assoziiert.
In dieser Arbeit konnte gezeigt werden, dass das AF4 Protein und im Speziellen sein N-Terminus in der Lage ist, die zelluläre Transkription durch die Aktivierung und Rekrutierung von P-TEFb zu aktivieren. In Anwesenheit von AF4 wird die Kinase-Untereinheit CDK9 des P-TEFb post-translational an Lysinresten modifiziert und damit aktiviert sowie die C-terminale Domäne der RNAP II im Kontext stärker phosphoryliert. Gleichzeitig wurde das P-TEFb inaktivierende Protein HEXIM1 stärker exprimiert. AF4 und AF4-MLL waren weiterhin in der Lage ein Elongations-kontrolliertes Reportergen zu aktivieren. Gleichzeitig führte die Überexpression des AF4 zu einer Erhöhung der zellulären RNA Menge. Zur genaueren Untersuchung der AF4-abhängigen Mechanismen wurden zwei Zelllinien erstellt, die zum Einen eine induzierbare und reproduzierbare Überexpression und Reinigung des AF4 erlaubten (TCZP-AF4ST) und zum Anderen durch lentiviralen knock-down eine an AF4-Mangelsituation nachstellten (AF4kd V100). Es konnte so gezeigt werden, dass AF4 über P-TEFb hinaus eine regulative Funktion gegenüber Transkription-assoziierten Faktoren wie CDK7, MENIN und NF?B besitzt und dass diese Faktoren vorrangig, analog zu P-TEFb, mit dem N-Terminus des AF4 interagieren. Die Überexpression von AF4 führte über die Bindung an die 7SK snRNA und deren Degradation zur Rekrutierung des P-TEFb aus den Speicherkomplexen in distinkte AF4-assoziierte Komplexe und zu einer Umverteilung des Faktors auf distinkte Loci im Zellkern, wobei der AF4 N-Terminus für sich alleine jedoch nicht in der Lage war, diese Funktion auszuüben. Im Falle eines Mangels an AF4 kam es zur Wachstumsretardierung der Zellen sowie zu einem völligen Aktivitätsverlust in Reportergenversuchen.
Die Tatsache, dass AF4 ein zentrales Element in der Elongationskontrolle darstellt führte zu der weitergehenden Vermutung, dass virale immediate early (IE) Proteine zur Kontrolle viraler Genexpression auf der Ebene der Elongation ebenfalls auf dieses Wirtsprotein zugreifen können. Es konnte vor diesem Hintergrund gezeigt werden, dass AF4 tatsächlich mit den IE-Proteinen IE1 (HCMV) und Zta (EBV) aus der Familie der Herpesviren interagiert und durch die Stabilisierung des AF4 Proteins eine kooperative, transaktivierende Funktion auf ein ALOX5 Reportergen ausgeübt wurde. Es wurde gezeigt, dass die viralen IE-Proteine dabei Komponenten der AF4 Komplexe sind und in der Zelle zur epigenetischen Regulation des ALOX5 Gens führen. Weiterhin konnte in diesen Experimenten dargestellt werden, dass AF4 über seine Rolle in der Elongationskontrolle hinaus auch distinkte Effekte in der Aktivierung von Promotoren und damit in der Initiation der Transkription zeigt. Damit konnte in dieser Arbeit zum ersten Mal die essentielle Rolle des AF4 Proteins in der Elongationskontrolle und der Initiation der Transkription als auch in der Infektion durch Herpesviren gezeigt werden.
Long-distance seed dispersal is a crucial process allowing the dispersal of fleshy-fruited tree species among forest fragments. In particular, large frugivorous bird species have a high potential to provide inter-patch and long-distance seed transport, both important for maintaining fundamental genetic and demographic processes of plant populations in isolated forest fragments. In the face of increasing worldwide forest fragmentation, the investigation of long-distance seed dispersal and the factors influencing seed dispersal processes has recently become a central issue in ecology. In my thesis, I studied the movement behaviour and the seed dispersal patterns of the trumpeter hornbill (Bycanistes bucinator), a large obligate frugivorous bird, in KwaZulu-Natal, South Africa. I investigated (i) the potential of trumpeter hornbills to provide long-distance seed dispersal within different landscape structures, (ii) seasonal variations in ranging behaviour of this species, and (iii) the potential of this species to enhance the functional connectivity of a fragmented landscape. I used highresolution GPS-data loggers to record temporally and spatially fine-scaled movement data of trumpeter hornbills within both continuous forests and fragmented agricultural landscapes during the breeding- and the non-breeding season. First, combining these data with data on seed-retention times, I calculated seed dispersal kernels, able to distinguish between seed dispersal kernels from the continuous forests and those from the fragmented agricultural landscapes. The seed dispersal distributions showed a generally high ability of trumpeter hornbills to generate seed transport over a distance of more than 100 m and for potential dispersal distances of up to 14.5 km. Seed dispersal distributions were considerably different between the two landscape types, with a bimodal distribution showing larger dispersal distances for fragmented agricultural landscapes and a unimodal one for continuous forests. My results showed that the landscape structure strongly influenced the movement behaviour of trumpeter hornbills, and this variation in behaviour is likely reflected in the shape of the seed dispersal distributions. Second, for each individual bird I calculated daily ranges and investigated differences in daily ranging behaviour and in the process of range expansion comparatively between the breeding- and the non-breeding season. I considered differences in habitat use and possible consequences resulting for seed dispersal function during different seasons. I found that within the breeding season multi-day ranges were built from strongly overlapping and nearly stationary daily ranges which were almost completely restricted to continuous forest. In the non-breeding season, however, birds assembled multi-day ranges by shifting their range site to a generally different area, frequently utilizing the fragmented agricultural landscape. Thereby, several small daily ranges and few large daily ranges composed larger multi-day ranges within the non-breeding season. Seasonal differences in ranging behaviour and range assembly processes resulted in important consequences for seed dispersal function, with short distances and less spatial variation during the breeding season and more inter-patch dispersal across the fragmented landscape during the non-breeding season. Last, I used a projection of simulated seed dispersal events on a high-resolution habitat map to assess the extent to which trumpeter hornbills potentially facilitate functional connectivity between plant populations of isolated forest fragments. About 7% of dispersal events resulted in potential between-patch dispersal and trumpeter hornbills connected a network of about 100 forest patches with an overall extent of about 50 km. Trumpeter hornbills increased the potential of functional connectivity of the landscape more than twofold and seed dispersal pathways revealed certain forest patches as important stepping-stones for seed dispersal among forest fragments. Overall, my study highlights the overriding role that large frugivorous bird species, like trumpeter hornbills, play in seed dispersal in fragmented landscapes. In addition, it shows the importance of fine-scaled movement data combined with high-resolution habitat data and consideration of different landscape structures and seasonality for a comprehensive understanding of seed dispersal function.
In der vorliegenden Arbeit wurden mikroskopische Studien zur Äquilibrierung von partonischer und hadronischer Materie im Rahmen einer Nichtgleichgewichts-Transporttheorie durchgeführt, die sowohl hadronische als partonische Freiheitsgrade enthält und den Übergang zwischen beiden Phasen dynamisch beschreibt. Des Weiteren wurden die thermischen Eigenschaften des Gleichgewichtszustandes der stark wechselwirkenden Materie untersucht, insbesondere Fluktuationen in der Teilchenzahl wie auch höhere Momente von Observablen und deren Verhältnisse. Besonderes Interesse galt dabei den Transportkoeffizienten wie Scher- und Volumenviskosität sowie der elektrischen Leitfähigkeit.
Die Methode der Nichtgleichgewichts-Green'schen Funktionen - initiiert von Schwinger sowie Kadanoff und Baym - wurde vorgestellt um hochenergetische Kern-Kern Kollisionen zu beschreiben. Weiterhin wurde der Schwinger-Keldysh Formalismus benutzt um im Sinne einer Zweiteilchen-irrediziblen Näherung (2PI) die Dynamik von 'resummierten' Propagatoren und Kopplungen in konsistenter Weise zu beschreiben. Des Weiterhin wurden generalisierte Transportgleichungen auf der Basis der Kadanoff-Baym Gleichungen (in Phasenraumdarstellung) abgeleitet und ein Testteilchenverfahren zur Lösung dieser Gleichungen vorgestellt. Damit wurde der formale Rahmen der Parton-Hadron-String Dynamik (PHSD) abgesteckt.
Das PHSD Transportmodell wurde sodann für die Lösung der expliziten Fragestellungen in dieser Arbeit verwendet. Die 'Eingangsgrößen' des Modells wurden in Kapitel 3 aufgeführt. Weiterhin wurde aufgezeigt, dass das Transportmodell alle Phasen einer relativistischen Schwerionenkollision konsistent beschreibt, d.h. angefangen von den primären harten Stoßprozessen und der Bildung von 'Strings' zur Formierung einer partonischen Phase, den Wechselwirkungen in dieser Phase sowie die
dynamische Beschreibung der Hadronisierung. Weiterhin enthält das Modell zudem die hadronischen Endzustandswechselwirkungen bis zum Ausfrieren der hadronischen Freiheitsgrade bei geringer Dichte. ...
ß1-integrins are essential for angiogenesis but the mechanisms regulating integrin function in endothelial cells (EC) and their contribution to angiogenesis remain elusive. BRAG2 is a guanine nucleotide exchange factor for the small Arf-GTPases Arf5 and Arf6. The role of BRAG2 in EC and angiogenesis and the underlying molecular mechanisms remains unclear. siRNA-mediated BRAG2-silencing reduced EC angiogenic sprouting and migration. BRAG2-siRNA-transfection differentially affected a5ß1- and aVß3-integrin function: specifically, BRAG2-silencing increased focal/fibrillar adhesions and EC adhesion on ß1-integrin-ligands (fibronectin and collagen), while reducing the adhesion on the aVß3-integrin-ligand, vitronectin. Consistent with these results, BRAG2-silencing enhanced surface expression of a5ß1-integrin, while reducing surface expression of aVß3-integrin. Mechanistically, BRAG2 mediated recycling of aVß3-integrins and endocytosis of ß1-integrins and specifically of the active/matrix bound a5ß1-integrin present in fibrillar/focal adhesions (FA), suggesting that BRAG2 contributes to the disassembly of FA via ß1-integrin-endocytosis. Arf5 and Arf6 are promoting downstream of BRAG2 angiogenic sprouting, ß1-integrin-endocytosis and the regulation of FA. In vivo silencing of the BRAG2-orthologues in zebrafish embryos using morpholinos perturbed vascular development. Furthermore, in vivo intravitral injection of plasmids containing BRAG2-shRNA reduced pathological ischemia-induced retinal and choroidal neovascularization. These data reveals that BRAG2 is essential for developmental and pathological angiogenesis by promoting EC sprouting through regulation of adhesion by mediating ß1-integrin internalization and associates for the first time the process of ß1-integrin endocytosis with angiogenesis.
The biogenesis and function of photosynthetically active chloroplasts relies on the import of thousands of nuclear encoded proteins via the coordinated actions of two multiprotein translocon machineries in the outer and inner envelope membrane. Trafficking of preproteins across the soluble compartment of InterMembrane Space (IMS) is currently envisioned to be facilitated by an IMS complex composed of outer envelope proteins Toc64 and Toc12, a soluble IMS component, Tic22 and an IMS-localized Hsp70. Among them, currently Tic22 is the only component that stands undisputed in terms of its existence. Having two closely related homologs in A. thaliana, their biochemical and functional characterization was still lacking. A critical analysis of Tic22 knockout mutants displayed growth phenotype reminiscent of ppi1, the mutant of Toc33. However, both the genes have similar expression patterns with no clear preference for photosynthetic or nonphotosynthetic tissues, which explained the absence of a detectable phenotype in single mutants. In addition, transgenic complementation study with either of the homolog affirmed the identical localization of both proteins in the IMS which characterizes the two homologs as functionally redundant. Based on the pale-yellow phenotype exhibited by the double mutant plants, an attempt to analyze the import capacity of a stromal substrate in the double mutant revealed threefold reduction when compared to wild-type acknowledging the essential role of Tic22 in the import mechanism. Initially, Tic22 was identified together with another protein, Tic20, which has been heavily discussed as a protein conducting channel in the inner membrane. Despite being characterized, in A. thaliana, two out of four homologs of Tic20 are differentially localized with one being additionally localized in mitochondria and the other, exclusively residing in the thylakoids.
According to in silico analysis, for all the Tic20 proteins, a four-helix transmembrane topology was predicted. Accordingly, its topology was mapped by employing the recently established selfassembling GFP-based in vivo experiments. Astonishingly, the expression of one of the inner envelope localized Tic20 homolog enforces inner membrane proliferation affecting the shape and organization of the membrane. Therefore this study focuses on analyzing the effects of high envelope protein concentrations on membrane structures, which together with the existing results, an imbalance in the lipid to protein ratio and a possible role of signaling pathway regulating membrane biogenesis is discussed.
Retroviral vectors are powerful tools in clinical gene therapy as they integrate permanently into the target cell genome and thus guarantee long-term expression of transgenes. Therefore, they belong to the most frequently used application platforms in clinical gene therapy involving a broad range of different target cells and tissues. However, stable genomic integration of retroviral vectors can be oncogenic, as reported in several animal models and in clinical trials. In particular, γ-retroviral vectors, which derive from naturally mutagenic γ-retroviruses, integrate semirandomly into the host genome with regard to the target sequence, but have a preference for regions of active transcription and regulatory elements of transcriptionally active genes. The integration can result in overexpression of adjacent genes or disruption of ‘target’ gene expression. Moreover, γ-retroviral integration can cause modified transcripts and proteins through alternative or aberrant splicing or through premature termination of transcription.
Initially, the event of insertional mutagenesis and subsequent induction of leukemia by the genotoxicity of a γ-retroviral vector was described in a mouse model after genetic modification of hematopoietic stem cells (HSCs). Vector-related activation and overexpression of the oncogene ecotropic viral integration site-1 (Evi1) fostered clonal outgrowth and leukemogenesis. Additional genotoxic events of γ-retroviral vectors were observed in clinical HSC gene therapy trials for X-linked severe combined immune deficiency (SCID-X1), chronic granulomatous disease (X-CGD), and Wiskott-Aldrich Syndrome (WAS). But, genotoxicity induced by γ-retroviral vectors has never been described in clinical gene therapy trials involving adoptive transfer of genetically modified mature T lymphocytes. This fact is surprising, since T cells are long-lived and have a high capacity of self-renewal.
In a previous study, the susceptibility towards oncogenic transformation of mature T cells and HSCs after genetic modification was compared. It could be demonstrated that T-cell receptor (TCR)-polyclonal mature T cells are far less prone to transformation after γ-retroviral transfer of (proto-)oncogenes in vivo than HSCs. Additional experiments revealed that TCR-oligoclonal (OT-I and P14) mature T cells are transformable in the same setting and give rise to mature T-cell lymphomas (MTCLs).
In the present thesis, the susceptibility of mature T cells towards insertional mutagenesis was investigated. Within the first part of the thesis, retroviral integration sites (RISs) from 33 murine MTCLs were retrieved and subsequently analyzed in terms of integration pattern, detection of common integration sites (CIS) and gene ontology (GO). As these bioinformatic results demonstrated that insertional mutagenesis most likely contributed to mature T-cell lymphomagenesis, the susceptibility of mature T cells was directly assessed in a mouse model. Therefore, murine TCR-oligoclonal OT-I T cells were transduced with an enhanced green fluorescent protein (EGFP) encoding γ-retroviral vector and gene-modified T cells were transplanted into RAG1-/- mice. After 16 months, including one round of serial transplantation, a case of MTCL emerged. Tumor cells were characterized by CD3, CD8, TCR and ICOS expression. Integration site analysis via ligation-mediated polymerase chain reaction (LM-PCR) revealed a proviral insertion in the Janus kinase 1 (Jak1) gene. Subsequent overexpression of Jak1 could be demonstrated on transcriptional and protein level. Furthermore, T-cell lymphoma cells were characterized by an activated Jak/STAT-pathway as signal transducer and activator of transcription 3 (STAT3) was highly phosphorylated. The overexpression of Jak1 was causally implicated in tumor growth promotion as specific pharmacological inhibition of Jak1 using Ruxolitinib significantly prolonged survival of mice transplanted with these Jak1-activated tumor cells. A concluding systematic metaanalysis of available gene expression data on human mature T-cell lymphomas/leukemias confirmed the relevance of Jak/STAT overexpression in sporadic human T-cell tumorigenesis.
This was the first reported case of an insertional mutagenesis event in mature T cells in vivo. Thus, the results obtained in this thesis underline the importance of long-term monitoring of genetically modified T cells in vivo and the evaluation of vector toxicology and safety in T-cell based gene therapies. In particular, the transduction of T cells with a recombinant TCR or CAR (chimeric antigen receptor) bears a risk enhancement, as normal T-cell homeostasis is perturbed besides the general risk of insertional mutagenesis.
Ribosome biogenesis is best understood in the yeast Saccharomyces cerevisiae. In human or mammalian ribosome biogenesis, it has been shown that basic principles are conserved to yeast, but additional features have been reported. Our understanding about the interplay between proteins and RNA in human ribosome biogenesis is far from complete.
The present study focused on the analysis of the human ribosome biogenesis co-factors PWP2, EMG1 and Exportin 5 (XPO5) to understand the degree of conservation of ribosome biogenesis. The proteins were characterized in respect to their localization and interaction partners. For the early 90S co-factor, PWP2, it was possible to pull down and identify the human UTP-B complex with MALDI mass spectrometry. Besides the orthologues of the members of this complex known in yeast (TBL3, WDR3, WDR36, UTP6, UTP18), the human UTP-B complex is not only conserved from yeast to humans, but contains also additional components, like the DEAD-box RNA helicase DDX21, which lacks a yeast orthologue. DDX21 was localized to the nucleus, assembled to the native UTP-B complex and co-precipitated also with other UTP-B complex members, presumably extending the functions of this complex in ribosome biogenesis.
This phenomenon was also observed for the 90S co-factor EMG1, an RNA methyltransferase, whose mutant form causes the Bowen-Conradi syndrome, if aspartic acid is mutated to glycine at position 86. This study revealed that the mutant, EMG1-D86G, clearly lost its nucleolar localization and co-precipitated to histones for unknown reasons.
A participation of the nuclear export receptor XPO5 in human ribosome biogenesis was shown in this study. Pulldown analysis, sucrose density gradients and UV crosslinking and analysis of cDNAs of XPO5 revealed the involvement of XPO5 in pre-60S subunit maturation. Moreover, besides the known pre-miRNAs and tRNAs as substrates for nuclear export, XPO5 crosslinked to snoRNAs. XPO5 was further demonstrated to interact with the miRNA Let-7a, which has an important regulatory function for MYC, a transcription factor required for ribosome biogenesis.
All results support a role of these proteins in human ribosome biogenesis and therefore it seems that the biogenesis of ribosomes in human cells requires additional components, like DDX21 and XPO5.
In this thesis, Hanbury-Brown-Twiss (HBT) interferometry is used together with the Ultrarelativistic Quantum Molecular Dynamics (UrQMD) to analyse the time and space structure of heavy-ion collisions.
The first chapter after the introduction gives an overview of the different types of models used in the field of heavy-ion collisions and a introduction of the UrQMD model in more detail. The next chapter explains the basics of Hanbury-Brown-Twiss correlations, including azimuthally sensitive HBT (asHBT).
Results section:
4. Charged Multiplicities from UrQMD
5. Formation time via HBT from pp collisions at LHC
6. HBT analysis of Pb+Pb collisions at LHC energies
7. HBT scaling with particle multiplicity
8. Compressibility from event-by-event HBT
9. Tilt in non-central collisions
10. Shape analysis of strongly-interacting systems
11. Measuring a twisted emission geometry
This thesis covers the standard integrated HBT analyses, extracting the Pratt-Bertsch radii, at LHC energies. The analyses at these energies showed a too soft expansion in UrQMD probably related to the absence of a partonic phase in UrQMD. The most promising results in this thesis at these energies are the restriction of the formation time to a value smaller than 0.8 fm/c and furthermore, the results from the asHBT analyses. In simulations of non-central heavy-ion collisions at energies of Elab= 6, 8 and 30 AGeV the validity of the formulae to calculate the tilt angle via asHBT has been checked numerically, even for the case of non-Gaussian, flowing sources. On this basis has been developed and test in the course of this thesis that allows to measure a scale dependent tilt angle experimentally. The signal should be strongest at FAIR energies.
Das Heidelberger Ionenstrahl Therapiezentrum (HIT) ist die erste klinische Anlage in Europa, an der die Strahlentherapie zur Tumorbekämpfung mit schwereren Ionen als Protonen möglich ist. Seit November 2009 wurden mehr als 1500 Patienten bei HIT behandelt.
Dabei kommt das beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt entwickelte Rasterscan-Verfahren zum Einsatz. In der Bestrahlungsplanung wird der Tumor in Schichten gleicher Ionen-Energie und jede Schicht in einzelne Rasterpunkte eingeteilt. Für jeden Rasterpunkt wird eine individuelle Teilchenzahl appliziert, die am Ende zu der gewünschten Dosisverteilung führt. Dabei kann sich die benötigte Teilchenbelegung der einzelnen Rasterpunkte auch innerhalb einer Schicht um mehr als zwei Größenordnungen unterscheiden.
Ein auf wenige Millimeter Durchmesser fokussierter Teilchenstrahl kann in allen Raumrichtungen variiert werden, so dass selbst für unregelmäßig geformte Tumoren eine hochgenaue Dosiskonformität erreicht wird. Messkammern, die in der Ionen-Flugbahn kurz vor dem Patienten installiert sind, überwachen kontinuierlich Position, Form und Intensität des Strahls und ermöglichen so die Rasterpunkt-abhängige Dosisabgabe.
Zur Bereitstellung des Teilchenstrahls ist eine komplexe Beschleunigeranlage nötig, die eine große Bibliothek an möglichen Strahlparametern erzeugen kann. Das Herzstück der Anlage ist ein Synchrotron, in dem die Ionen auf die gewünschte Energie beschleunigt und anschließend über mehrere Sekunden extrahiert werden. Diese langsame Extraktion ist nötig, um dem Bestrahlungssystem genug Zeit für die korrekte, punktgenaue Dosisabgabe zu geben. Die zeitliche Struktur der beim Patienten ankommenden Strahlintensität wird Spill genannt.
Der verwendete Extraktionsmechanismus ist die transversale RF-Knockout Extraktion, die auf dem Prinzip der langsamen Resonanzextraktion beruht. Die im Synchrotron umlaufenden Teilchen werden dabei transversal angeregt, bis nach und nach ihre Schwingungsamplitude so groß ist, dass sie in den Extraktionskanal gelangen. Das für diese Anregung verantwortliche Gerät ist der RF-KO-Exciter. Er ist so eingestellt, dass ein möglichst konstanter Teilchenstrom das Synchrotron verlässt.
Bereits beim Befüllen des Synchrotrons variiert jedoch die injizierte Teilchenzahl und deren Verteilung im Phasenraum, so dass die voreingestellte Amplitudenfunktion des RF-KO-Exciters keinen idealen Spill liefern kann. Es kommt unweigerlich zu Schwankungen der Intensität am Strahlziel. Die erreichbare Leistungsfähigkeit der Therapieanlage hängt jedoch in hohem Maße von der Spillqualität ab. Je besser diese ist, umso schneller kann die individuelle Bestrahlung erfolgen und um so mehr Patienten können in gleicher Zeit behandelt werden.
Die vorliegende Arbeit beschäftigt sich mit der Verbesserung der Spillqualität am Bestrahlungsplatz. Dazu wird ein Regelkreis zwischen den Strahl-detektierenden Messkammern und dem die Extraktion steuernden RF-KO-Exciter geschlossen. Ionisationskammern, die auch zur Dosisbestimmung verwendet werden, messen die aktuelle Intensität. Das Therapiekontrollsystem, das den gesamten Bestrahlungsprozess steuert, gibt den Sollwert vor und leitet alle Informationen zur Reglereinrichtung. Dort wird in Abhängigkeit der Abweichung aus gewünschter und tatsächlich vorhandener Intensität sowie dem Regelalgorithmus ein Korrektursignal errechnet und dem RF-KO-Exciter zugeführt. Eine der Herausforderungen bestand dabei im Auffinden der geeigneten Regelparameter, die entsprechend der Strahlparameter Energie und Intensität gewählt werden müssen.
In einem ersten Schritt kann so der extrahierte Teilchenstrahl auf dem jeweils geforderten, konstanten Niveau gehalten werden. Diese Stufe wird seit April 2013 vollständig im Routinebetrieb der Therapieanlage verwendet. Der zweite Schritt besteht in der Anpassung der Extraktionsrate an den individuellen Bestrahlungsplan. So können die Rasterpunkte, die eine hohe Dosis benötigen, mit einer höheren Intensität bestrahlt werden, was die Bestrahlungszeit deutlich reduziert. Die Vollendung dieser Stufe ist bis Ende 2013 vorgesehen.
Im Rahmen dieser Arbeit wurden zwei Testsysteme sowie die Implementierung in den Routinebetrieb des Therapiebeschleunigers einer solchen Intensitäts- oder Spillregelung realisiert. Dies beinhaltet den Aufbau der Systeme, die Bereitstellung von Soll- und Istwert sowie die Auslegung und Einstellung des Regelkreises. Der erste Testaufbau für ein Strahlziel des Beschleunigers diente generellen Studien zur Machbarkeit einer solchen Regelung. Die dabei gesammelten Erfahrungen über nötige Erweiterungen führten zur zweiten Generation einer Testumgebung auf Basis eines Echtzeit-Ethernet-Systems. Dieses ermöglichte bereits die Regelung an allen Strahlzielen der HIT-Anlage sowie die Verwendung von unterschiedlichen Regelalgorithmen.
Mit den Systemen wurden Messungen zur Charakterisierung der Spillregelung im Parameterraum des Beschleunigers durchgeführt, um so ihre Möglichkeiten und Grenzen zu untersuchen. Erkenntnisse aus dieser Testphase flossen direkt in die Implementierung des für den Patientenbetrieb eingesetzten Systems ein, für das ein hohes Maß an Betriebs-Stabilität erforderlich ist. Es wurde in das Beschleuniger-Kontrollsystem unter Berücksichtigung des Sicherheitskonzeptes der Anlage integriert.
Die reine Bestrahlungszeit wird durch die Realisierung der ersten Stufe um bis zu 25% reduziert, nach Vollendung der zweiten Stufe wird sie um weitere bis zu 50% verringert. Strahlzeiten für Nachjustierungen der Spillqualität werden ebenfalls zum Teil eingespart. Insgesamt konnte durch die Spillregelung die Effizienz der Anlage deutlich gesteigert werden.
Structural determinants for substrate specificity of the promiscuous multidrug efflux pump AcrB
(2013)
Opportunistic Gram-negative pathogens such as Escherichia coli, Klebsiella pneumoniae, Acinetobacter Baumanii and Pseudomonas aeruginosa are becoming more and more multiresistant against many commonly available antibiotics [39, 40]. An important resistance mechanism of Gram-negative bacteria is the efflux of noxious compounds by tripartite systems [39, 41-44]. The best studied and most clinically relevant tripartite system is the AcrA-AcrB-TolC system of Escherichia coli, where substrate recognition and energy transduction takes place in the inner membrane protein AcrB. AcrB has a remarkably huge substrate spectrum and can recognize structurally diverse molecules, such as hexan in contrast to erythromycin, as its substrates [45]. Therefore, overproduction of the tripartite system can render a Gram-negative pathogen resistant against multiple antibiotics at once. The mechanisms of how AcrB is able to recognize such an enormous spectrum of molecules as substrates, without compromising its specificity (e.g. by neglecting essential compounds like lipids or gluclose as its susbtates), remained puzzling. Structural insight into substrate specificity was so far limited to two co-crystal structures of AcrB, where minocycline and doxorubicin, respectively, were identified bound to an internal binding pocket of AcrB. This binding pocket is particularly deeply buried into internal parts of the T monomer of AcrB and was, therefore, denoted deep binding pocket (DBP). Analysis of several AcrB co-crystal structures with substrate molecules bound to the DBP [4, 23, 25] indicated that the substrate promiscuity involved multisite binding modes within the DBP. Multisite binding modes, where different substrate molecules can bind to slightly different positions and orientations to the same binding pocket, is a common feature of multidrug recognizing proteins such as QacR or BmrR [27-29]. Nevertheless, AcrB's substrate spectrum is much broader than substrate spectra of most other multidrug recognizing proteins. Therefore, it is likely that additional mechanisms are involved in mediating the observed high substrate promiscuity of AcrB. In our recently published high-resolution AcrB/doxorubicin co-crystal structure (pdb entry: 4DX7 [23]) we were able to identify two additional substrate binding pockets in the L monomer of AcrB: i) the access pocket (AP), with an opening towards the periplasm, and ii) a putative binding site in a groove between transmembrane helices 8 and 9 (TM8/TM9 groove), accessible from the lipid layer of the inner membrane. Both binding pockets are likely to be access sites for substrates towards AcrB. Furthermore, each of the binding pockets are possibly specialized to recognize a specific subset of the entire substrate spectrum of AcrB, i.e. highly hydrophobic substrates (e.g. n-dodecyl-ß-d-maltoside or sodium dodecylsulfate) might access AcrB towards the TM8/TM9 groove and water soluble substrates (e.g. berberine) might access AcrB towards the AP. Since substrates will accumulate in the membrane or the periplasm according to their hydrophilic or hydrophobic nature, substrates will be "pre-selected" by the medium, rather than by the protein itself, and guided to their appropriate access site. This process is proposed to be called "medium- mediated pre-selection". The AcrB/doxorubicin co-crystal structure (pdb entry: 4DX7 [23]) furthermore revealed that the AP and DBP are in next neighborhood to each other and are separated by a switch loop. This switch loop adopts distinct conformations in the L, T and O monomers. Specific switch loop conformations are strongly involved in coordinating the selective occupation of both binding pockets, the AP and the DBP. The conformation of the switch loop in the L monomer (L-switch loop) opens the AP and closes the DBP, whereas the conformation of the switch loop in the T monomer (T-switch Loop) opens the DBP and closes the AP. An analysis of all asymmetric AcrB structures indicated that the L-switch loop is able to adopt multiple distinct conformations, whereas the conformation of T-switch loop remained largely congruent in all crystal structures. Moreover, each distinct switch loop conformation, observed in co-crystal structures of AcrB with occupied AP [4, 23], was perfectly adapted to the bound substrate molecule. Therefore, the putatively flexible switch loop is likely to act as an adaptive module and mediates a high binding pocket plasticity without altering the global protein structure. This binding mode is called adaptor-mediated binding mechanism, where an flexible adaptive module (like the switch loop) is able to adapt the surface shape of an binding pocket to different substrate molecules. Furthermore, structural and biochemical analyses of an AcrB G616N variant, revealed the involvement of specific switch loop conformations in the substrate specificity of AcrB. A substitution of G616, located on the switch loop, to N616 was able to alter the conformation of the switch loop exclusively in the L monomers of AcrB, whereas the switch loop conformations in T and O monomers remained congruent to the conformations observed in crystal structures of wildtype AcrB. Moreover, cells producing the AcrB G616N and MexB, both bearing the G616N amino acid substitution, exhibited a reduced resistance against certain substrates, whereas the resistance against most other substrates remained on the level of wildtype AcrB. Correlations of the phenotypes with minimal projection areas, a novel 2-spatiodimensional parameter which approximates the size of a substrate molecule, revealed that AcrB variants with a G616N substitution have a reduced efflux activity for exclusively large substrate molecules. The rejection of large substrates is most likely connected with altered L-switch loop conformations....
Autophagie ist ein evolutionär stark konservierter Degradationsmechanismus für geschädigte Proteine bis hin zu ganzen Organellen eukaryotischer Zellen. Dabei umhüllt eine Doppelmembran, bisher unbekannten Ursprungs, das zu degradierende Material und bildet das Autophagosom. Dies fusioniert später mit Lysosomen, wodurch dessen Inhalt proteolytisch zersetzt und die Bestandteile der Zelle wieder zur Verfügung gestellt werden kann.
In dieser Abeit wurde der Fokus auf den mitochondrialen Abbau über Autophagie (Mitophagie) und dessen Funktion als ein mitochondrialer Qualitätsmechanismus gesetzt. Als Zellmodell wurden primäre humane Endothelzellen der Nabelschnurvene (HUVEC) verwendet. Diese zeichenen sich durch einen Übergang von einer mitotischen, jungen in eine lange postmitotische, seneszente Phase während der Kultiverungszeit aus. Dabei durchlaufen sie einer zelluläre und mitochondriale Morphologieänderung. , wodurch sich die Möglichkeit bot , die Autophagie unter verschiedenen Parametern zu betrachten.
So wird generell eine Abnahme des autophagosomalen / lysosomalen Weges mit dem Alter beschrieben und die Abhängigkeit der Mitophagie von der mitochondrialen Länge.
Mitophagie ist unter normalen Kultivierungsbedingungen ein mikroskopisch selten zu beobachtender Vorgang. Daher wurde ein mitochondriales Schädigungsystem etabliert, welches die photosensibiliesierende Wirkung des Farbstoffs MitoTracker Red Cmx Ros (MTR) nutzt, um Mitochondrien gezielt oxidativ zu schädigen und die Mitophagie zu aktivieren.
Mitotische HUVEC zeigten 2 h – 8 h nach oxidativer Schädigung eine mitochondriale Fragmentierung größtenteils begleitet von einem Verlust des Membranpotentials. Über einen Zeitraum von 72h-120h kam es zur Regeneration des mitochondrialen Netzwerks durch Neusynthese mitochondrialer Biomoleküle. Entgegen der rescue Hypothese konnten oxidativ geschädigte Mitochondrien nicht durch eine Fusion mit funktional intakten Mitochondrien gerettet werden und wurden über den autophagosomalen / lysosomalen Weg abgebaut, gekennzeichnet durch die Ubiquitin-Ligase Parkin vermittelte Markierung und finaler Kolokalisation mit den autophagosomalen und lysosomalen Markerproteinen LC3B und LAMP-2A. Auf mRNA- und Proteinebene zeigte sich in diesem Zeitraum eine erhöhte Expression autophagie-relevanter Gene (ATGs) ATG5, ATG12 und LC3B.
Der Vergleich von mitotischen mit postmitotischen HUVEC nach oxidativer Schädigung wies zwei grundlegende Unterschiede auf.
Zum einem behielten, in Gegensatz zu jungen Zellen, die Mitochondrien alter HUVEC ihre Morphologie und ihr Membranpotential bei. Diese erhöhte Widerstandfähigkeit gegenüber oxidativem Stress konnte auf die erhöhte Expression der mitochondrial lokalisierten Serin / Threonin Kinase PINK1 zurückgeführt werden, ein Schlüsselgen in Parkinson.
Die PINK1-Transkription stand invers zu der Expression der mitochondrialen Teilungsfaktoren Fis1- und Drp1, welche in postmitotischen HUVEC stark vermindert war.
Andererseits wiesen alte Zellen eine verminderte Degradationsfähigkeit geschädigter Mitochondrien auf. Dieser Umstand war durch eine verminderte lysosomale Azidität bedingt. Eine externe ATP-Zugabe förderte die Azidität der Lysosomen alter Zellen und die Fusion mit Autophagosomen, wodurch Mitochondrien und ihre geringere ATP-Produktion im Alter als ein Faktor der Autophagie ermittelt weden konnte.
Die Autophagierate steht in Verbindung mit der Lebensspanne von Zellen bis hin zu ganzen Organismen. Durch die Überexpression autophagie-relevanter GFP-Fusions-Proteine ATG5, ATG12 und LC3B, welche nach oxidativer Schädigung in ihrer Expression verstärkt wurden, förderten die Mitophagie und wurden stabil in junge HUVEC exprimiert. Diese Überexpressionen bewirkten eine verbesserte mitochondriale Qualität, veranschaulicht durch ein erhöhtes Membranpotential und die ATP-Bereitstellung, einer besseren mtDNA Integrität und sie verlängerten die Lebensspanne signifikant, wobei die Produktion von reaktiven Sauerstoffspezien (ROS), entgegen der von Harman aufgestellten Alterungstheorie, keine Verminderung zeigte. Dennoch wiesen sie einen erhöhten Gehalt oxidativ modifizierter Proteine auf, welche letztendlich auf die erhöhten Autophagosomenanzahl zurückgeführt werden konnte, in denen höchstwahrscheinlich das oxidativ geschädigte Material gelagert wird.
In dieser Arbeit kann gezeigt werden, dass Mitochondrien nach oxidativer Schädigung eine Teilung vollziehen und geschädigte Mitochondrien selektiv über Autophagie abgebaut werden. Dabei fungiert Mitophagie als ein mitochondrialer Qualitätmechanismus und steht unmittelbar mit der Lebensspanne in Verbindung.
In der vorliegenden Arbeit konnte gezeigt werden, dass bestimmte neuronale microRNAs im Rückenmark und in den Spinalganglien konstitutiv exprimiert und nach peripherer Entzündung mit Formalin oder Zymosan differenziell reguliert werden. Bei der SNI-induzierten Neuropathie konnte indessen keine signifikante Regulation der untersuchten microRNAs nachgewiesen werden. Aufgrund der Lokalisation in den Neuronen der Schmerz-verarbeitenden Laminae I und II des Dorsalhorns des Rückenmarks und angesichts der Regulation in entzündlich stimulierten Neuronen und Mikroglia wurde der Fokus der Arbeit auf die Untersuchung von microRNA-124a gelegt. Anhand von Expressionsanalysen konnte gezeigt werden, dass eine periphere entzündliche Stimulation mit Formalin oder Zymosan microRNA-124a im Rückenmark inhibiert, die Expression pro-inflammatorischer und pro-nozizeptiver Gene hiernach ermöglicht und ein vermehrtes Schmerzverhalten bewirkt. Die funktionelle Relevanz von microRNA-124a wurde in vivo mittels intravenöser Applikation von microRNA-124a-Modulatoren bei einem Modell für entzündliche Schmerzen, dem Formalin-Modell untersucht. Dabei führte die Hemmung von microRNA-124a zu einem verstärkten Schmerzverhalten, welches mit einer Hochregulation verschiedener Entzündungsmarker einherging. Die Überexpression von microRNA-124a dagegen antagonisierte die Hochregulation entzündlicher Mediatoren und führte zu einer Schmerzhemmung. Darüber hinaus konnte in der vorliegenden Arbeit der antinozizeptive Effekt von microRNA-124a mit der Regulation der Epigenetik-regulierenden Targets MeCP2, HDAC5 und MYST2 assoziiert werden und u.a. über die Hemmung des neuromodulierenden, pro-inflammatorischen Peptids BDNF verifiziert werden. Die spezielle Darreichung von microRNA-124a könnte demzufolge einen vielversprechenden Ansatz zur Therapie chronisch-entzündlicher Schmerzen liefern. Zukünftig werden weitere Studien notwendig sein um die eindeutige Funktion, die individuelle Wirkung sowie die therapeutische Relevanz von microRNA-124a zu analysieren. Darüber hinaus müssten Dosis-Wirkungs-Beziehungen und Nebenwirkungsprofile für microRNA-124a erstellt werden, um potenzielle Risiken, Chancen und Vorteile der microRNA-Modulation hinsichtlich einer humanen Schmerztherapie bewerten zu können.
Metallorganische Netzwerke (engl. metal-organic frameworks, MOFs) sind eine neuartige Klasse mikro/mesoporöser Materialien, für die eine Vielzahl von möglichen Anwendungen demonstriert werden konnte. Das Ziel dieser Arbeit besteht in der Synthese von MOF Mikro/Nanopartikeln sowie der Herstellung von sogenannten Oberflächen-deponierten MOFs (engl. surface-attached metal-organic frameworks, SURMOFs). MOF Partikel mit kontrollierbarer Morphologie und Größe wurden unter milden Bedingungen synthetisiert. Um MOFs als Sensoren, intelligente Membrane, oder in nanotechnologischen Bauelementen verwenden zu können, ist die Integration auf der jeweiligen Oberfläche wichtig. Daher beschäftigt sich der Großteil dieser Arbeit mit der kontrollierten Abscheidung von SURMOFs auf verschiedenartigen Trägermaterialien. Etliche interessante Eigenschaften (z.B. die Fluoreszenz in Abhängigkeit von der Gegenwart von Gastmolekülen und die dynamische Gasadsorptionskapazität) der SURMOFs wurden untersucht.
This research was conducted in the Rwenzori Region of the Western Branch, East African Rift System (EARS). The EARS is a tectonic structure extending over a length of more than 3000 km from the Afar Triple Junction, in Ethiopia, to Lake Malawi in the south. The Western Rift System is a roughly NE to ENE trending sector of the EARS, which runs along the western boundary of Uganda and the neighboring Democratic Republic of Congo (D.R.C). It stretches 2100 km from Nimule, NW on Uganda-Sudan border, extending to Lake Malawi in the SE of Africa. The unusual uplift of the Rwenzori Mountains within an extensional regime and the mechanisms associated with the high frequency of seismic activity in the region was hardly understood and therefore, had remained a subject of contention that needed to be critically addressed in detail. To my knowledge, this was probably the first study to be performed and documented in great depth within the domains of seismic noise variation, seismic anisotropy and b value analyses beneath the Rwenzori Region. After about six years of operation (2006-2012), the seismology group of the RIFTLINK Research Project (www.riftlink.org) acquired a vast amount of high-quality, digital data that were collected using a seismic network of well calibrated seismic equipment. The project was divided into two phases. Phase I, that operated between February 2006 - September 2007, consisted of thirty-two temporary seismic stations, which were selectively spread out in the Rwenzori Region on the Ugandan side, to detect and record extremely weak as well as strong naturally occurring earthquakes. The seismic equipment used included EDL and REFTEK digitizers, which were coupled with Güralp and MARK sensors respectively (REFTEKS: only short-period MARK sensors, EDLs: short-period MARK plus few broadband Güralp Sensors). Exactly 22375 earthquakes were recorded. The data were processed using the SEISAN software package. About 14413 earthquakes were carefully localized using the velocity model of Bram (1975) that implements a Vp=Vs ratio fixed at 1.74. Phase II, that extended between 2009-2012 consisted of thirty-two seismic stations, which were spread out around the Rwenzori Mountains, both on the Ugandan side and the neighboring D.R.C. Only Taurus digitizers that were coupled with Trillium sensors were used in the D.R.C. On the Ugandan side however, both EDL and Taurus digitizers, which were coupled with Trillium and Güralp sensors were used. ...
Calcium-deficiency rickets (CDR) is a metabolic bone disease in children that is characterized by impaired mineralization and severe bone deformities. As CDR is often an endemic phenomenon that is almost exclusively restricted to tropical areas, environmental conditions are currently considered to be a possible predisposing factor for the CDR. Apart from a lack of macronutrients and micronutrients, an oversupply of potentially toxic elements (PTEs) in the soil-plant pathway of the CDR areas is thought to be involved in the aetiology of CDR. This study is the first to comprehensively analyze the impact of the environment on Ca deficiency and the resulting CDR.
To analyze the impact of the environment on CDR in developing countries, a rural region near Kaduna City, northern Nigeria, was chosen as a study area. From this area, cases of CDR have been reported since the early 2000s with a prevalence rate of 5%. Within this study area, 11 study sites, including areas with a high CDR prevalence (HR), a low CDR prevalence (LR) and no CDR prevalence (NR), were visited. In these HR, LR and NR study sites, the bedrock was investigated and the types of parent materials were identified. Local farmers were interviewed to determine the type and intensity of the land use. The soil types were determined along toposequences. The soil textures as well as the clay mineral fractions were determined. The pH values were measured, and the contents of organic carbon (OC) were determined. The potential cation-exchange capacity (CECpot) and the base saturation (BS) were analyzed. Furthermore, the total and plant-available macronutrient, micronutrient and PTE concentrations were measured in the soils. The drinking water was analyzed for pH values and the concentrations of Ca, Se and F were measured. The maize was analyzed for the Ca, Mg, K and P, Se and phytic acid (PA) contents.
The field and laboratory analyses on the bedrock showed that the HR, LR and NR study sites near Kaduna City, northern Nigeria, were underlain by Older Granites. A direct link between the distribution of the bedrock, the parent materials and the prevalence of CDR was not found. Interviews with the local farmers showed that the land use in the Kaduna study area is dominated by the cultivation of cash crops and food crops. Field analyzes on the soil types in the Kaduna study area showed that the distribution of the soil types is highly dependent on the topography and the distribution of the parent materials. In near vicinity to the inselbergs, Lixisols had developed on grus slope deposits. In the lower pediment and plain positions, Acrisols had developed on grus slope deposits and pisolite slope deposits. In the upper plains, Plinthosols had developed on pisolite slope deposits and in the river valleys, Fluvisols had developed on river deposits. Such soil types and soil type distributions are typical for granite-underlain areas in the northern guinea savanna of West Africa. Similarly, the physical soil conditions were representative for the soils of the northern guinea savanna: sandy topsoils, clayey subsoils and relatively high contents of kaolinite clay minerals in the clay fractions. With regard to the geochemical composition, no significant difference was found between the soils of the Kaduna study area and the soils of other granite-underlain areas in West Africa. Only the concentrations of P were considerably low in the soils of the Kaduna study area. However, P deficiency is a typical phenomenon in West African savanna soils and is not restricted to CDR areas. The micronutrient concentrations in the soils were low, but not critically low. Laboratory analyses on the amounts of PTEs showed that compared to worldwide background levels and international critical limits the PTE concentrations were very low in the soils of the Kaduna study area. In the drinking water, neither a significant lack of macronutrients and micronutrients, nor a noticeable oversupply of PTEs was found. The maize in the HR, LR and NR study sites contained normal contents of Mg, K and P, low contents of Ca and Se as well as slightly elevated concentrations of PA compared to West African food composition tables. Comparisons between the mineral contents of traditional and modern maize cultivars showed that the traditional maize cultivars contained significantly higher contents of Ca and noticeably lower concentrations of PA than the modern maize cultivars.
A direct link between the environmental conditions and the CDR in the Kaduna study area was considered unlikely, as neither a statistically significant lack of macronutrients and micronutrients, nor a statistically significant oversupply of PTEs was found in the environment of this area. Instead, the results indicated that the nutrition rather than the environmental conditions that impacts the prevalence of CDR.
Das Ziel dieser Arbeit ist es, eine authentische Verdeckung eingebetteter virtueller 3D-Objekte in augmentierten Bilderwelten bei einer geringen Anzahl an Fotos innerhalb der Bilderwelt zu erreichen. Für die Verdeckung von realen und virtuellen Anteilen einer Augmented Reality-Szene sind Tiefeninformationen notwendig. Diese stammen üblicherweise aus einer 3D-Rekonstruktion, für deren Erstellung sehr viele Eingangsbilder notwendig sind. Im Gegensatz dazu wurde in dieser Arbeit ein System entwickelt, das eine vollständige 3D-Rekonstruktion umgeht. Dieses beruht auf einem direkten bildbasierten Rendering-Ansatz, welcher auch mit unvollständigen Tiefeninformationen eine hohe Bildqualität in Bezug auf eine authentische Verdeckung erreicht. Daraus erschließen sich neue Anwendungsgebiete, wie z.B. die automatisierte Visualisierung von 3D-Planungsdaten und 3D-Produktpräsentationen in Bildern bzw. Bilderwelten, da in diesen Bereichen oftmals nicht genügend große Bildmengen vorhanden sind. Gerade für diese Anwendungsgebiete sind authentische Verdeckungen für die Nutzerakzeptanz der Augmentierung wichtig. Unter authentischer Verdeckung wird die entsprechend der menschlichen Wahrnehmung visuell korrekte Überlagerung zwischen virtuellen Objekten und einzelnen Bildanteilen eines oder mehrerer Fotos verstanden. Das Ergebnis wird in Form einer Bilderwelt (eine bildbasierte 3D-Welt, die die Fotos entsprechend der Bildinhalte räumlich anordnet) präsentiert, die mit virtuellen Objekten erweitert wurde. Folglich ordnet sich diese Arbeit in das Fachgebiet der Augmented Reality ein. Im Rahmen dieser Arbeit wurde ein Verfahren für die bildbasierte Darstellung mit authentischen Verdeckungen auf der Basis von unvollständigen Tiefeninformationen sowie unterschiedliche Verfahren für die notwendige Berechnung der Tiefeninformationen entwickelt und gegenübergestellt. Das Sliced-Image-Rendering-Verfahren rendert mithilfe unvollständiger Tiefeninformationen ein Bild ohne 3D-Geometrie als dreidimensionale Darstellung und realisiert auf diese Weise eine authentische Verdeckung. Das Berechnen der dafür notwendigen Tiefeninformationen eines 2D-Bildes stellt eine gesonderte Herausforderung dar, da die Bilderwelt nur wenige und unvollständige 3D-Informationen der abgebildeten Szene bereitstellt. Folglich kann eine qualitativ hochwertige 3D-Rekonstruktion nicht durchgeführt werden. Die Fragestellung ist daher, wie einzelne Tiefeninformationen berechnet und diese anschließend größeren Bildbereichen zugeordnet werden können. Für diese Tiefenzuordnung wurden im Rahmen der vorliegenden Arbeit drei verschiedene Verfahren konzipiert, die sich in Bezug auf genutzte Daten und deren Verarbeitung unterscheiden. Das Segment-Depth-Matching-Verfahren ordnet Segmenten eines Bildes mithilfe der 3D-Szeneninformationen der Bilderwelt eine Tiefe zu. Hierfür werden Segmentbilder vorausgesetzt. Als Ergebnis liegt für jedes Foto eine Depth-Map vor. Um eine Tiefenzuordnung auch ohne eine vorangehende Segmentierung zu ermöglichen, wurde das Key-Point-Depth-Matching-Verfahren entwickelt. Bei diesem Verfahren werden die 3D-Szeneninformationen der Bilderwelt auf die Bildebene als kreisförmige Sprites projiziert. Die Distanz zur Kamera wird dabei als Tiefenwert für das Sprite verwendet. Alle projizierten Sprites einer Kamera ergeben die Depth-Map. Beide Verfahren liefern Flächen mit Tiefeninformationen, aber keine pixelgenauen Depth-Maps. Um pixelgenaue Depth-Maps zu erzeugen, wurde das Geometry-Depth-Matching-Verfahren entwickelt. Bei diesem Verfahren wird eine Szenengeometrie des abgebildeten Szenenausschnittes erzeugt und dadurch eine pixelgenaue Depth-Map erstellt. Hierfür wird ein semiautomatischer Skizzierungsschritt vorausgesetzt. Die erzeugte Szenengeometrie stellt keine vollständige 3D-Rekonstruktion der Bilderweltenszene dar, da nur ein Szenenausschnitt aus Sicht einer Kamera rekonstruiert wird. Anhand einer technischen Umsetzung erfolgte eine Validierung der konzeptionellen Verfahren. Die daraus resultierenden Ergebnisse wurden anhand verschiedener Bilderweltenszenen mit unterschiedlichen Eigenschaften (Außen- und Innenraumszenen, detailreich und -arm, unterschiedliche Bildmengen) evaluiert. Die Evaluierung des Sliced-Image-Renderings zeigt, dass mithilfe unvollständiger Tiefeninformationen der entwickelten Depth-Matching-Verfahren und unter Einhaltung der gestellten Anforderungen (wenig Eingabefotos, kleine Szenen, keine 3D-Rekonstruktion) eine authentische Verdeckung eingebetteter virtueller 3D-Objekte in Bilderwelten realisiert werden kann. Mithilfe des entwickelten Systems können bildbasierte Anwendungen auch mit kleinen Fotomengen Augmentierungen mit hoher Bildqualität in Bezug auf eine authentische Verdeckung realisieren.
In der modernen Hochschullehre haben sich eLearning-Elemente als ein Teil des Lehrrepertoires etabliert. Der Einsatz interaktiver webbasierter Selbstlernmodule (Web Based Trainings (WBT)) ist dabei eine Option. Hochschulen und Unternehmen versprechen sich dadurch neue Möglichkeiten des Lehrens und Lernens, um z. B. einen Ausgleich heterogener Vorerfahrungen sowie eine stärkere aktive Beteiligung der Lernenden zu bewirken. Damit die Erstellung und Strukturierung dieser Inhalte mit möglichst geringem Aufwand erfolgen kann, bieten Autorensysteme Unterstützung.
Zu den Grundfunktionen von Autorensystemen gehören unter anderem, das Einbinden gebräuchlicher Medienformate, die einfache Erstellung von Fragen sowie verschiedene Auswertungs- und Feedbackmöglichkeiten. Obwohl Autorensysteme schon vor vielen Jahren ihre erste praktische Anwendung fanden, gibt es nach wie vor Schwachstellen, die sich auf den gesamten Erstellungsprozess wie auch auf einzelne Funktionen beziehen. Im Detail wird bemängelt, dass die Werkzeuge zu komplex und unflexibel sind. Darüber hinaus fehlt häufig eine zufriedenstellende Verknüpfung der vielen Werkzeuge entlang der Prozesskette zu einer Gesamtlösung.
Des Weiteren wird die Konzentration auf die Produktionsphase kritisiert, wodurch andere wichtige Prozesse in den Hintergrund treten bzw. außer Acht gelassen werden.
Im Rahmen der Zusammenarbeit mit einem Automobilhersteller, für den die erste Version des Autorensystems LernBar weiterentwickelt wurde, spielte der Begriff „Lean Production“ inhaltlich in der Umsetzung der WBTs eine wesentliche Rolle. Die Lean Production, die über viele Jahre für die Automobilindustrie entwickelt, verbessert und angepasst wurde, liefert Optimierungsansätze für den Produktionsbereich. Ein wirtschaftlicher Nutzen des Lean-Ansatzes wird auch in anderen Bereichen gesehen wie z. B. in der Softwareentwicklung („Lean Software Development“) oder im Management („Lean Management“). Dabei bietet die Wertschöpfungsorientierung Lösungen für die widersprüchlichen Ziele mehr Leistungen zu geringeren Kosten, schneller und in höherer Qualität zugleich zu liefern. Aus der Grundidee der Lean Production entwickelte sich vorliegendes Dissertationsthema in Bezug darauf, inwiefern sich diese Prinzipien auf den WBT-Produktionsprozess übertragen lassen und die LernBar (das hierfür weiterentwickelnde Autorensystem) dabei Unterstützung bieten kann.
Zunächst wurde analysiert, welche Werkzeuge und Hilfestellungen benötigt werden, um unter dem Aspekt der Lean Production WBTs im universitären Umfeld erstellen zu können. In diesem Zusammenhang wurden Merkmale einer „Lean Media Production“ definiert sowie konzeptionell und technisch umgesetzt. Zur Verbesserung der Prozesse flossen Ergebnisse aus empirischer und praktischer Forschung ein. Im Vergleich zu anderen Entwicklungen bei denen häufig das Hauptziel eine umfangreiche Funktionalität ist, werden u.a. folgende übertragbare Ziele bei der Umsetzung verfolgt: Verschwendung vermeiden, eine starke Einbeziehung der Kunden, Werkzeuge die nahtlos ineinandergreifen, eine hohe Flexibilität und eine stetige Qualitätsverbesserung.
Zur Erreichung dieser Zielsetzungen wurden alle Prozesse kontinuierlich verbessert, sich auf das Wesentliche und die Wertschöpfung konzentriert sowie überflüssige Schritte eliminiert. Demnach ist unter dem Begriff „Lean Media Production“ ein skalierbarer, effizienter und effektiver Produktionsprozess zu verstehen, in dem alle Werkzeuge ineinandergreifen.
Die Realisierung der „Lean Media Production“ erfolgte anhand des Autorensystems LernBar, wobei die typischen Softwareentwicklungsphasen Entwurf, Implementierung und Evaluierung mehrfach durchlaufen wurden. Ausschlaggebend dabei war, dass der „Lean“-Aspekt berücksichtigt wurde und dies somit eine neue Vorgehensweise bei der Umsetzung eines Autorensystems darstellt. Im Verlauf der Entwicklungen ergaben sich, durch eine formative Evaluation, den Einsatz in Projekten und eine empirische Begleitforschung, neue Anforderungen an das System. Ein Vergleich der zwei Produktionssysteme, Automobil vs. WBT-Produktion, zeigt und bestätigt die Erwartung, dass nicht alle Prinzipien der Lean Production übertragbar sind.
Dennoch war diese Untersuchung notwendig, da sie Denkanstöße zur Entwicklung und Optimierung des Erstellungsprozesses eines WBTs gab. Auch die Ergebnisse der abschließenden Online-Befragung ergaben, dass die Ziele der Arbeit erreicht wurden, dass aber weiterer Optimierungsbedarf besteht. Die LernBar Release 3 bietet für alle Produktionsphasen Werkzeuge an, durch die eine effektive und effiziente Erstellung von WBTs von der Idee bis zur Distribution möglich ist.
Stand noch vor fünf Jahren zu Beginn dieser Arbeit das Endprodukt bei der LernBar Entwicklung im Vordergrund, verlagerte sich durch den Einfluss dieser Dissertation der Schwerpunkt auf den gesamten Produktionsprozess. Unter Berücksichtigung der in diesem Zusammenhang entwickelten Prinzipien einer „Lean Media Production“, nehmen bspw. die Wirtschaftlichkeit und die starke Kundenorientierung während des Produktionsprozesses einen wichtigen Stellenwert ein. Dieser Ansatz ist eine neue Vorgehensweise im Bereich der Entwicklung von Autorensystemen, der seine Anerkennung und Professionalität durch die Ergebnisse des selbstentwickelten Evaluationsbogens sowie dem stetig wachsenden Einsatz in Schulen, Hochschulen und Unternehmen belegen kann.
In weiteren Forschungsarbeiten ist zu untersuchen, welche Lean Production Prinzipien zu verwenden oder anzupassen sind, wenn z. B. in größeren Teams oder mobil produziert wird. Des Weiteren sollte überprüft werden, inwieweit die Lernenden mit dem Endprodukt zufrieden sind und in ihrem Lernprozess unterstützt werden. Durch diese Forschungsarbeit wurde ein Beitrag dazu geleistet, die Lehre und Ausbildung zu optimieren, indem die Autoren/Lehrende in der Erstellung ihrer digitalen Lerninhalte im gesamten Prozess von aufeinander abgestimmten Werkzeugen unterstützt werden.
Mantle convection is the process by which heat from the Earth’s core is transferred upwards to the surface and it is accepted to explain the dynamics of the Earth’s interior. On geological time-scales, mantle material flows like a viscous fluid as a consequence of the buoyancy forces arising from thermal expansion. Indeed, mantel convection provides a framework which links together the major disciplines, such as seismology, mineral physics, geochemistry tectonic and geology. The numerical model has been applied to understand the dynamic, structure and evaluation of the Earth, and other terrestrial planets and the investigations continue to explore, different aspects of the mantle convection.
In fact, to model this phenomenon, two complementary approaches are possible. On the one hand, one can solve self-consistently the equations of thermal convection, including parameters and employing physical relationships derived from mineral physics. Our understanding of mantle convection depends ultimately upon the success of such fully self-consistent dynamic models in explaining observable features of the flow. Although, these models presently unable to predict the actual convection pattern of the Earth, they are extremely useful to investigate general characteristics of given physical systems. On the other hand, to permit comparison with specific observables associated with the flow, one can consider a more restricted problem. Instead of focusing on the time evolution of mantle flow, if we know a priori the temperature - and hence presumably the density - anomalies that drive the convection, we can try to build a snapshot of the present-day flow pattern, consistent with those anomalies, that can successfully predict the observables. As matter of fact, the aim of this study is to investigate both approaches in comparison with the main geophysical constraints on mantle structure. These constraints include the geoid anomalies, the dynamic surface and core-mantle boundary topography and tectonic plate motions.
The most appropriate mathematical basis functions for describing a bounded and continuous function on a spherical surface are spherical harmonics. We may therefore expand the geodynamic observables in terms of spherical harmonics. We have investigated two methods of the global spherical harmonic analysis by specific attention to the dynamic geoid computation of the geodynamic models. The first method is the quadrature method in which the loss of the orthogonality of the Legendre functions in transition from continues to discrete case is the major drawback to the method. Particularly, we showed that in the absence of the tesseral harmonics, quadrature formulation leads to obtain inaccurate results. The second method is the least-squares which can be considered as the best linear unbiased estimator that provides the exact results. We showed that even with a low resolution grid data it is possible to reconstruct the data and achieve an accurate result by using this method, which is extremely remarkable in three-dimensional global convection studies. However, special care has to be taken since there is some source of errors that might influence the efficiency of this method.
In general, to better understanding of the properties of the mantle, it is useful to assess observable characteristics of plumes in the mantle, including geoid, topography and heat flow anomalies. However, only few studies exist on geoid and topography for axi-symmetric convection and their models were restricted to isoviscous (or stratified) mantle and low Rayleigh numbers. We studied fully coupled depth and temperature dependent Arrhenius type of viscosity in axi-symmetric spherical shell geometry in order to investigate the shape of geoid anomalies and dynamic topography above a plume. Indeed, the topography and geoid anomalies produced from plumes are sensitive to rheology of the mantle and rheology of the plume; both have effects on shape and amplitude of the geoid anomalies. As results we are able to define different classes of plumes by their geoid signals.
Mainly depth-dependent viscosity models show a geoid with negative sign above the plume which can turn to the positive sign by decrease the viscosity contrast. This can be considered as a transition between the strongly depth dependent and the constant viscosity case. Our results basically support the idea by Morgan [1965] and McKenzie [1977]. They have shown the magnitude and even the sign of the total gravity anomaly depend on the spatial variation in effective viscosity. In addition, Hager [1984] has concluded that the total gravity field is depend on the radial distribution of effective viscosity, and a small change in viscosity contrast leads to varying sign of the response function.
In the case of temperature-dependent viscosity, the formation of an immobile lithosphere is a natural result, and the flow as well as the total geoid becomes strongly time dependent. When we increase the activation energy, all geoids associated with the first arriving plumes look like bell shaped whereas for typical plumes, after reaching a statistical steady state, bell-shaped geoids with decreasing amplitude as well as linear flank shaped geoids are observed. It is surprising that in spite of large differences in lateral and depth varying viscosities, the shapes of the geoid anomalies remained rather similar. We also identified different behaviors in the combined model with temperature-and pressure-dependent viscosity. In fact, in spite of the strongly different rheology, the geoid anomalies in all cases were surprisingly similar. Furthermore, we proposed a scaling law for the geoid which makes our results directly applicable to other planets. Moreover, we can apply the results of our calculation to find relations between different rheology and sub-lid temperature, since we know that the mantle temperature can change significantly with variation in pressure-temperature dependent viscosity. It is also possible to define a range of stagnant lid thickness related to the amplitude of the geoid which can be reasonable for study of the lid thickness in Venus or Mars.
Nevertheless, in these series of models, we simplified a number of complexities within the Earth. One of the most important of such simplification is the Boussinesq approximation. This approximation is valid if the temperature scale height (i.e. the depth over which temperature increases by a factor of “ ” due to adiabatic compression) is much greater than the convection depth. However, a temperature scale height in the Earth’s mantle is at best only slightly greater than the mantle depth. Hence, the Boussinesq approximation could mask some very important stratification and compressibility effects that influence both the spatial and temporal structure of the convection. Therefore, in more advance models we considered compressibility in our mantle convection models, assuming that density vary both radially and laterally, being determined as a function of pressure and temperature through an appropriate equation of the state. Moreover, thermodynamic properties assumed to be a function of depth.
We examined the details of the structure of the spherical axi-symmetric Anelastic Liquid Approximation model (ALA) with special attention to the Arrhenius rheology, and compare it to the cases of compressible convection without depth dependent thermodynamical properties, and to cases of the extended Boussinesq approximation. At the same time, the effects of the interaction between temperature and pressure-dependent viscosity and thermodynamic parameters in the compressible mantle convection on the geoid and topography have been studied. We showed that assuming compressible convection with depth-dependent thermodynamic properties strongly influence the geoid undulations. Using compressible convection with constant thermodynamic properties is physically inconsistent and may lead to spurious results for the geoid and convection pattern. Indeed, by a systematic study of different approaches of compressibility in the spherical shell convection for different Arrhenius viscosity laws we proved that only in the unrealistic case of zero activation energy the different compressibility modes result in comparable convection and geoid patterns. In all other rheological cases, large differences have been obtained, that stressing the important role of consistent compressible thermodynamic properties for mantle convection.
In addition, we examine the impact of compressibility as well as different rheologies on the power law relation that connects the Nusselt number to the Rayleigh number. We have discovered that the power law index of the relationship is controlled by the rheology, independent of which approximation is used. Instead, the bound of this relation is controlled by a combination of different approximation and rheology.
Next, instead of focusing on the time evolution of mantle flow, we have carried out three-dimensional spherical shell models of mantle circulation to investigate the effects of joint radial and lateral viscosity variations on the Earth’s non-hydrostatic geoid, surface and core-mantle boundary topographies. These models include realistic lateral viscosity variations (LVV) in the lithosphere, upper mantle and lower mantle in combination with different stratified viscosity structures. We have demonstrated that the contradictory results concerning the effects of LVV can be clarified by the most straight-forward problem in geoid modeling; namely, rather poorly known stratified viscosity structure. We explored three classes of dynamic geoid models due to lateral viscosity variations. In the first class, the LVV strongly improved the fit to the observed geoid. Indeed, when the viscosity contrast between lower and upper mantles is not large enough to produce a good fit to geoid the LVVs are able to perform this action by adjusting amplitudes, so that it becomes comparable with observation. In the second class, inducing the LVV moderately improved the fit. Actually, when the geoid induced by a stratified viscosity structure already has a good correlation with observation, then the LVV causes its amplitude to further improve. In the last class, if the viscosity contrast between upper and lower mantle would be high enough, inducing LVV deteriorate the fit to the observed geoid.. Indeed, depending on the stratified viscosity, inducing the LVV may take place in one of these categories.
We also quantified the effects of LVV in the mantle and lithosphere individually. We found that the presence of LVV in the mantle (upper and lower) improves the fit to the observed geoid regardless of stratified viscosity. While LVV in the lithosphere is a crucial parameter, and dependent of the stratified viscosity, may increase or decrease the geoid fit. In fact, when the lower mantle considers being viscous enough, it would support the negative buoyancy of subducting slabs. Thus, it transmits some of the stress back to the top boundary and causes a weak coupling between slab and surface. Therefore, by including the low viscous plate boundaries in this model, the slabs and overriding plates decouples and the fit to the observed geoid degrades. In contrast, when the lower mantle viscosity is not sufficiently stiff, the presence of the low viscous plate boundaries assists to weaken the strong mechanical coupling between slab and surface. Hence, a better fit achieved.
In the absence of apparent mutations, alteration of gene expression patterns represents the key mechanism by which normal cells evolve to cancer cells.
Gene expression is tightly regulated by posttranscriptional processes. Within this context, RNA-binding proteins (RBPs) represent fundamental factors, since they control mechanisms, such as mRNA-stabilization, -translation and -degradation. Human antigen R (HuR) was among the first RBPs that have been directly associated to carcinogenesis. HuR modulates the stability and translation of mRNAs which encode proteins facilitating various ‘hallmarks of cancer’, namely proliferation, evasion of growth suppression, angiogenesis, cell death resistance, invasion and metastasis. Furthermore, it is well established that tumor-promoting inflammation contributes to tumorigenesis. In this process, monocytes are attracted to the site of the tumor and educated towards a tumor-promoting macrophage phenotype. While HuR has been extensively studied in various tumor cell types, little is known about HuR in hepatocellular carcinoma (HCC). Thus, the aim of my work was to characterize the contribution of HuR to the development of cancer characteristics in HCC. I was particularly interested to investigate if HuR facilitates tumor-promoting inflammation, since a role for HuR has not been described in this context. To this end, I depleted HuR in HepG2 cells (HuR k/d) and used a co-culture model of HepG2 tumor spheroids and infiltrating monocytes to study the impact of HuR on the tumor microenvironment. I could show that depletion of HuR resulted in the reduction of cell numbers. Additionally, the expression of proliferation marker KI-67 and proto-oncogene c-Myc was reduced, supporting a proliferative role of HuR. Furthermore, exposure to cytotoxic staurosporine elevated apoptosis in HuR k/d cells compared to control cells. Concomitantly, the expression of the anti-apoptotic mediator B-cell lymphoma protein-2 (Bcl-2) was markedly reduced in the HuR k/d cells, pointing to an involvement of HuR in cell survival processes.
Accordingly, a pro-survival function of HuR was also observed in tumor spheroids, since HuR k/d spheroids exhibited a larger necrotic core region at earlier time points and showed elevated numbers of dead cells compared to control (Ctr.) spheroids. Interestingly, HuR k/d spheroids isplayed reduced numbers of infiltrated macrophages, suggesting that HuR contributes to a tumor-promoting, inflammatory microenvironment by recruiting monocytes/macrophages to the tumor site. Aiming at identifying HuR-regulated factors responsible for the recruitment of monocytes, I found reduced levels of the chemokine interleukin 8 (IL-8) in supernatants of HuR k/d spheroids, supporting a critical involvement of HuR in the chemoattraction of monocytes. Analyzing supernatants of co-cultures of macrophages and HuR k/d or Ctr. spheroids revealed additional differences in chemokine secretion patterns. Interestingly, protein levels of many chemokines were elevated in co-cultures of HuR k/d spheroids compared to control co-cultures. Albeit enhanced chemokine secretion was observed, less monocytes are recruited into HuR k/d spheroids, further underlining the necessity of HuR in cancer related monocyte/macrophage attraction and infiltration. Differences between chemokine profiles of mono- and co-cultured spheroids could be attributable to changes in spheroid-derived chemokines as a result of the crosstalk with the immune cells. Provided the chemokines originate from monocytes/macrophages, the different secretion patterns suggest that HuR contributes to the modulation of the functional phenotype of infiltrated macrophages, since the tumorenvironment is critically involved in the shaping of macrophage phenotypes. Regions of low-oxygen (hypoxia) represent another critical feature of tumors. Therefore, I next analyzed the impact of HuR on the hypoxic response. Loss of HuR attenuated hypoxia-inducible factor (HIF) 2α expression after exposure to hypoxia, while HIF-1α protein levels remained unaltered. Considering previous results of our group, showing that HIF-2α depletion (HIF-2α k/d) resulted in the enhanced expression of HIF-1α protein, I aimed to determine the involvement of HuR in the compensatory upregulation of HIF-1α protein in HIF-2α k/d cells. I could demonstrate that not only total HuR protein levels, but specifically cytoplasmic HuR was elevated in HIF-2α depleted cells pointing to enhanced HuR activity. Silencing HuR in HIF-2α deficient cells attenuated enhanced HIF-1α protein expression, thus confirming a direct role of HuR in the compensatory upregulation of HIF-1α. This as also reflected on HIF-1α target gene expression. I further investigated the mechanism underlying the compensatory HIF-1α expression in HIF-2α deficient cells. Analyzing HIF-1α mRNA expression, I excluded enhanced HIF1-α transcription and stability to account for elevated HIF-1α expression in HIF-2α k/d cells. HIF-1α promoter activity assays confirmed the mRNA data. Furthermore, HIF-1α protein half-life was not elevated in HIF-2α k/d cells compared to control cells, indicating that HIF-1α protein stability is not altered in HIF-2α k/d cells. Analysis of the association of HIF-1α with the translational machinery using polysomal fractionation finally revealed an increased istribution of HIF-1α mRNA in the heavier polysomal fractions in HIF-2α k/d cells compared to control cells. Since augmented ribosome occupancy is an indicator for more efficient translation, I propose enhanced HIF-1α translation as underlying principle of the compensatory increase in HIF-1α protein levels in HIF-2α k/d cells. In summary, my results demonstrate that HuR is critical for the development of cancer characteristics in HCC. Future work analyzing the impact of HuR on tumor-promoting inflammation, specifically macrophage attraction and activation could provide new trategies to inhibit macrophage-driven tumor progression. Furthermore, I provide evidence that HuR contributes to the hypoxic response by regulating the expression of HIF-1α and HIF-2α. Targeting single HIF-isoforms for tumor therapy should be carefully considered, because of their compensatory regulation when one α-subunit is depleted. Thus, therapeutic strategies targeting factors such as HuR that control both α-subunits and at the same time prevent compensation might be more promising.
The spider genus Eusparassus Simon, 1903 (Araneae: Sparassidae: Eusparassinae; stone huntsman spider) is revised worldwide to include 30 valid species distributed exclusively in Africa and Eurasia. The type species E. dufouri Simon, 1932 is redescribed and a neotype is designated from Portugal. An extended diagnosis for the genus is presented. Eight new species are described: Eusparassus arabicus Moradmand, 2013 (male, female) from Arabian Peninsula, E. educatus Moradmand, 2013 (male, female) from Namibia, E. reverentia Moradmand, 2013 (male, female) from Burkina Faso and Nigeria, E. jaegeri Moradmand, 2013 (male, female) from South Africa and Botswana, E. jocquei Moradmand, 2013 (male, female) from Zimbabwe, E. borakalalo Moradmand, 2013 (female) from South Africa, E. schoemanae Moradmand, 2013 (male, female) from South Africa and Namibia and E. mesopotamicus Moradmand and Jäger, 2012 (male and female) from Iraq, Iran and Turkey. 22 species are re-described six of them are transferred from the genus Olios Walckenaer, 1837. Six species-groups are proposed: the dufouri-group [8 species: E. dufouri, E. levantinus Urones, 2006, E. barbarus (Lucas, 1846), E. atlanticus Simon, 1909, E. syrticus Simon, 1909, E. oraniensis (Lucas, 1846), E. letourneuxi (Simon, 1874), E. fritschi (Koch, 1873); Iberian Peninsula to parts of north-western Africa], walckenaeri-group [3 species: E. walckenaeri (Audouin, 1826), E. laevatus (Simon, 1897), E. arabicus; eastern Mediterranean to Arabia and parts of north-eastern Africa], doriae-group [7 species: E. doriae (Simon, 1874), E. kronebergi Denis, 1958, E. maynardi (Pocock, 1901), E. potanini (Simon, 1895), E. fuscimanus Denis, 1958, E. oculatus (Kroneberg, 1846) and E. mesopotamicus; Middle East to Central and South Asia], vestigator-group (3 species: E. vestigator (Simon, 1897), E. reverentia, E. pearsoni (Pocock, 1901); central to eastern Africa and an isolated area in NW India], jaegeri-group [4 species: E. jaegeri, E. jocquei, E. borakalalo, E. schoemanae; southern and south-eastern Africa], tuckeri-group [2 species: E. tuckeri (Lawrence, 1927), E. educatus; south-western Africa). Two species, E. pontii Caporiacco, 1935 and E. xerxes (Pocock, 1901) cannot be placed in any of the above groups. Two species are transferred from Eusparassus to Olios: O. flavovittatus (Caporiacco, 1935) and O. quesitio Moradmand, 2013. 14 species are recognized as misplaced in Eusparassus, thus nearly half of the described species prior to this revision were placed mistakenly in this genus. Neotypes are designated for E. walckenaeri from Egypt, E. barbarus, E. oraniensis and E. letourneuxi (all three from Algeria) to establish their identity. The male and female of Cercetius perezi Simon, 1902, which was known only from the immature holotype, are described for the first time. It is recognized that the monotypic and little used generic name Cercetius Simon, 1902 — a species, which had been known only from the immature holotype — as a synonym of the widely used name Eusparassus. The case proposal 3596 (conservation of name Eusparassus) is under consideration by ICZN.
The first comprehensive molecular phylogeny of the family Sparassidae with focus on the genus Eusparassus is investigated using four molecular markers (mitochondrial COI and 16S; nuclear H3 and 28S). The monophyly of Eusparassus and the dufouri, walckenaeri and doriae species-groups are recovered with the latter two groups more closely related. The monophyly of the tuckeri-group is not supported and the position of E. jaegeri as the only available member of the jaegeri-group is not resolved within the Eusparassus clade. DNA samples of the vestigator-group were not accessible for this study. The origination of the genus Eusparassus around 70 million years ago (MA) is estimated according to molecular clock analyses. Using this recent result in combination with some biogeographic and geological data, the Namib Desert is proposed as the place of ancestral origin for Eusparassus and putative Eusparassinae genera.
Further analyses are done on the phylogenetic relationships of Sparassidae and its subfamilies. The Eusparassinae are not confirmed as monophyletic, with the two original genera Eusparassus and Pseudomicrommata in separate clades and only the latter clusters with most other assumed Eusparassinae, here termed the "African clade". Monophyly of the subfamilies Sparianthinae, Heteropodinae sensu stricto, Palystinae and Deleninae is recovered. The Sparianthinae are supported as the most basal clade, diverging considerably early (143 MA) from all other Sparassidae. The Sparassinae and genus Olios are found to be polyphyletic. The Sparassidae are confirmed as monophyletic and as most basal group within the RTA-clade. The divergence time of Sparassidae from the RTA-clade is estimated with 186 MA in the Jurassic. No affiliation of Sparassidae to other members of the "Laterigradae" (Philodromidae, Selenopidae and Thomisidae) is observed, thus the crab-like posture of this group was proposed a result of convergent evolution. Only the families Philodromidae and Selenopidae are found members of a supported clade. Including a considerable amount of RTA-clade representatives, the higher-level clade Dionycha is not but monophyly of the RTA-clade itself is supported.
A stochastic model for the joint evaluation of burstiness and regularity in oscillatory spike trains
(2013)
The thesis provides a stochastic model to quantify and classify neuronal firing patterns of oscillatory spike trains. A spike train is a finite sequence of time points at which a neuron has an electric discharge (spike) which is recorded over a finite time interval. In this work, these spike times are analyzed regarding special firing patterns like the presence or absence of oscillatory activity and clusters (so called bursts). These bursts do not have a clear and unique definition in the literature. They are often fired in response to behaviorally relevant stimuli, e.g., an unexpected reward or a novel stimulus, but may also appear spontaneously. Oscillatory activity has been found to be related to complex information processing such as feature binding or figure ground segregation in the visual cortex. Thus, in the context of neurophysiology, it is important to quantify and classify these firing patterns and their change under certain experimental conditions like pharmacological treatment or genetical manipulation. In neuroscientific practice, the classification is often done by visual inspection criteria without giving reproducible results. Furthermore, descriptive methods are used for the quantification of spike trains without relating the extracted measures to properties of the underlying processes.
For that reason, a doubly stochastic point process model is proposed and termed 'Gaussian Locking to a free Oscillator' - GLO. The model has been developed on the basis of empirical observations in dopaminergic neurons and in cooperation with neurophysiologists. The GLO model uses as a first stage an unobservable oscillatory background rhythm which is represented by a stationary random walk whose increments are normally distributed. Two different model types are used to describe single spike firing or clusters of spikes. For both model types, the distribution of the random number of spikes per beat has different probability distributions (Bernoulli in the single spike case or Poisson in the cluster case). In the second stage, the random spike times are placed around their birth beat according to a normal distribution. These spike times represent the observed point process which has five easily interpretable parameters to describe the regularity and the burstiness of the firing patterns.
It turns out that the point process is stationary, simple and ergodic. It can be characterized as a cluster process and for the bursty firing mode as a Cox process. Furthermore, the distribution of the waiting times between spikes can be derived for some parameter combination. The conditional intensity function of the point process is derived which is also called autocorrelation function (ACF) in the neuroscience literature. This function arises by conditioning on a spike at time zero and measures the intensity of spikes x time units later. The autocorrelation histogram (ACH) is an estimate for the ACF. The parameters of the GLO are estimated by fitting the ACF to the ACH with a nonlinear least squares algorithm. This is a common procedure in neuroscientific practice and has the advantage that the GLO ACF can be computed for all parameter combinations and that its properties are closely related to the burstiness and regularity of the process. The precision of estimation is investigated for different scenarios using Monte-Carlo simulations and bootstrap methods.
The GLO provides the neuroscientist with objective and reproducible classification rules for the firing patterns on the basis of the model ACF. These rules are inspired by visual inspection criteria often used in neuroscientific practice and thus support and complement usual analysis of empirical spike trains. When applied to a sample data set, the model is able to detect significant changes in the regularity and burst behavior of the cells and provides confidence intervals for the parameter estimates.
Das Thema dieser Arbeit war die Untersuchung der natürlichen Variationen von den zwei primordialen Uranisotopen (238U und 235U) mit einem Schwerpunkt auf Proben, die (1) die kontinentale Kruste und ihre Verwitterungsprodukte (d.h. Granite, Shales und Flusswasser) repräsentieren, (2) Produkte der hydrothermalen Alteration vom mittelozeanischen Rücken widerspiegeln (d.h. alterierte Basalte, Karbonatgänge und hydrothermales Wasser) und (3) aus abgegrenzten euxinischen Becken (d.h. Proben aus der Wassersäule und den dazugehörigen Sedimenten) stammen. Das allgemeine Ziel war das Verständnis, unter welchen Bedingungen und Mechanismen eine Fraktionierung der zwei häufigsten Uranisotope (238U und 235U) in der Natur erfolgt, zu verbessern.
Die untersuchten Haupt- und Nebenflüsse unterscheiden sich sowohl in Ihrer Urankonzentration (c(U)) als auch in Ihrer Uranisotopenzusammensetzung (δ238U), wobei die Nebenflüsse eine geringere Urankonzentration (0.87 nmol/kg bis 3.08 nmol/kg) und eine schwerere Uranisotopenzusammensetzung aufweisen (-0.29 ‰ bis +0.01 ‰ im δ238U) im Vergleich zu den Hauptflüssen (c(U) = 5.19 nmol/kg bis 11.69 nmol/kg und d238U = -0.31 ‰ bis +0.13 ‰) aufweisen. Die untersuchten Gesteinsproben fallen alle in einen recht schmalen Bereich von δ238U, zwischen -0.45 ‰ und -0.21 ‰, mit einem Durchschnittswert von -0.30 ‰ ± 0.04 ‰ (doppelte Standardabweichung). Deren Uranisotopenvariationen sind unabhängig von der Urankonzentration (11.8 µg/g bis 1.3 µg/g), dem Alter (3.80 Ga bis 328 Ma), der Probenlokalität und Grad der Differenzierung. Basierend auf den Ergebnissen der Hauptflüsse, die die Uranhauptquelle für den Ozean darstellen, schlagen wir für zukünftige Berechnungen in der Massenbilanz des Urans einen neuen Wert als beste Abschätzung für die Quelle des Urans im Ozean vor, δ238U = -0.23 ‰.
Die Produkte der hydrothermalen Alteration, alterierte Basalte und Kalziumkarbonatgänge, zeigten etwas stärkere Isotopenvariationen (δ238U zwischen -0.63 ‰ und +0.27 ‰) als erwartet und die hydrothermalen Fluide wiesen eine etwas leichtere Uranisotopenzusammensetzung als Meerwasser ((-0.43 ± 0.25) ‰ vs. (-0.37 ± 0.03) ‰) auf. Diese Ergebnisse sind in Übereinstimmung mit einem Modell, dass annimmt, dass die beobachtete Isotopenfraktionierung hauptsächlich ein Ergebnis von Redoxprozessen ist, z.B. die partielle Reduktion von löslichem UVI aus dem Meerwasser während der hydrothermalen Alteration, was zu einer Anreicherung der schweren Uranisotope in der reduzierten Uranspezies (UIV) führt und 2) das bevorzugte Entfernen von UIV aus den hydrothermalen Fluid und der Einbau in die alterierte ozeanische Kruste. Durch diesen Prozess wird das hydrothermale Fluid an schweren Uranisotopen verarmt und somit würden auch die alterierten Basalte und Karbonate ein niedriges δ238U aufweisen, wenn sie mit dem isotopisch leichten hydrothermalen Fluid in Kontakt gekommen sind.
Die Untersuchung von Wasser- und Sedimentproben aus der Ostsee und dem anoxischen Kyllaren Fjord (Norwegen) auf deren Uran- und Mo-Isotopenzusammensetzung zeigte, dass die Uranisotopenzusammensetzung der Sedimente abhängt von (1) dem Ausmaß des Uranaustrags aus der Wassersäule (in einer ähnlichen Art und Weise wie bei den Molybdänisotopen) und (2) der Sedimentationsrate, d.h. der Fraktion von authigenem- relativ zum dedritischen Uran in den Sedimenten. Aufgrund der hohen Sedimentationsrate zeigen die Sedimente aus dem Kyllaren Fjord nur eine moderate authigene Urananreicherung und eine leichtere Uranisotopenzusammensetzung als Sedimente aus dem Schwarzen Meer. In den anoxischen Becken der Ostsee erfolgt dagegen eine starke Mo- und schwache U-Isotopenfraktionierung zwischen Wasser und Sediment. Durch die regelmäßigen auftretenden Spülereignisse mit sauerstoffreichem Wasser wurden vermutlich die ursprünglichen anoxischen Mo- und U-Isotopensignaturen der Sedimente verändert. Demzufolge müssen die Sedimente durchgehend anoxischen Bedingungen ausgesetzt sein, um eine Mo- und U-Isotopensignatur von den Redoxbedingungen während der Ablagerungen zu speichern.
Der Vergleich zwischen Molybdän- und Uranisotopen in der Ostsee und dem anoxischen Kyllaren Fjord zeigte, dass sich Uran- und Molybdänisotope in stark euxinischen Wassersäulen (c(H2S) > 11 µmol/L) entgegengesetzt verhalten. Dementsprechend ergänzen sich die beiden Isotopensysteme und können genutzt werden, um die Ablagerungsbedingungen in abgeschlossenen Becken und die Redoxentwicklung des Paläoozeans zu untersuchen.
Driven by rapid technological advancements, the amount of data that is created, captured, communicated, and stored worldwide has grown exponentially over the past decades. Along with this development it has become critical for many disciplines of science and business to being able to gather and analyze large amounts of data. The sheer volume of the data often exceeds the capabilities of classical storage systems, with the result that current large-scale storage systems are highly distributed and are comprised of a high number of individual storage components. As with any other electronic device, the reliability of storage hardware is governed by certain probability distributions, which in turn are influenced by the physical processes utilized to store the information. The traditional way to deal with the inherent unreliability of combined storage systems is to replicate the data several times. Another popular approach to achieve failure tolerance is to calculate the block-wise parity in one or more dimensions. With better understanding of the different failure modes of storage components, it has become evident that sophisticated high-level error detection and correction techniques are indispensable for the ever-growing distributed systems. The utilization of powerful cyclic error-correcting codes, however, comes with a high computational penalty, since the required operations over finite fields do not map very well onto current commodity processors. This thesis introduces a versatile coding scheme with fully adjustable fault-tolerance that is tailored specifically to modern processor architectures. To reduce stress on the memory subsystem the conventional table-based algorithm for multiplication over finite fields has been replaced with a polynomial version. This arithmetically intense algorithm is better suited to the wide SIMD units of the currently available general purpose processors, but also displays significant benefits when used with modern many-core accelerator devices (for instance the popular general purpose graphics processing units). A CPU implementation using SSE and a GPU version using CUDA are presented. The performance of the multiplication depends on the distribution of the polynomial coefficients in the finite field elements. This property has been used to create suitable matrices that generate a linear systematic erasure-correcting code which shows a significantly increased multiplication performance for the relevant matrix elements. Several approaches to obtain the optimized generator matrices are elaborated and their implications are discussed. A Monte-Carlo-based construction method allows it to influence the specific shape of the generator matrices and thus to adapt them to special storage and archiving workloads. Extensive benchmarks on CPU and GPU demonstrate the superior performance and the future application scenarios of this novel erasure-resilient coding scheme.
Diese Dissertation stellt die systematische Einbeziehung von Eichkorrekturen in die Theorie der thermischen Leptogenese vor, welche eine Erklärung für die Frage nach dem Ursprung der Materie in unserem Universum bereitstellt.
Geht man vom weithin anerkannten Urknallmodell aus, so müsste hierbei zu gleichen Teilen Materie sowie Antimaterie entstanden sein. Aufgrund von Annihilationsprozessen sollte demnach die gesamte Materie zerstrahlt sein und ein leeres Universum zurückbleiben. Da dies aber nicht der Fall ist, stellt sich die Frage, wie das Ungleichgewicht zwischen Materie und Antimaterie entstehen konnte. Der Wert der Asymmetrie lässt sich mit Hilfe von Experimenten sehr genau bestimmen. Für eine systematische theoretische Beschreibung dieser Problematik stellte A. Sacharow drei Bedingungen auf: 1. die Verletzung der Baryonenzahl, 2. die Verletzung der Invarianz von Ladungskonjugation C sowie der Zusammensetzung von Ladungskonjugation und Parität CP sowie 3. eine Abweichung vom thermischen Gleichgewicht.
Da das Urknallmodell und das Standardmodell der Teilchenphysik nicht in der Lage sind, diese Asymmetrie zu beschreiben, beschäftigt sich die vorliegende Dissertation mit der Theorie der thermischen Leptogenese, welche statt von einer ursprünglichen Baryonenasymmetrie von einer Leptonenasymmetrie ausgeht. Zu einem späteren Zeitpunkt wird diese dann mittels Sphaleron-Prozesse, welche die Baryonenzahl verletzen, in eine Baryonenasymmetrie übertragen. Hierzu werden neue Teilchen zum Standardmodell hinzugefügt: schwere Majorana-Neutrinos. Diese zerfallen im thermischen Nichtgleichgewicht CP-verletzend in die bekannten Standardmodell-Leptonen und Higgs-Teilchen.
In dieser Arbeit wird eine hierarchische Anordnung der drei schweren Neutrinomassen betrachtet. Dies hat zur Folge, dass zwei der drei Majorana-Neutrinos ausintegriert werden können und eine effektive Theorie aufgestellt werden kann. Dieses Modell wird auch vanilla leptogenesis genannt und im Folgenden verwendet.
Die Dissertation ist wie folgt gegliedert. Die einleitenden Betrachtungen sind Gegenstand der Kapitel 1 und 2. Dort werden weiterhin andere Modelle zur Lösung des Problems der Baryonenasymmetrie kurz vorgestellt. Die thermische Leptogenese wird eingeführt und der See-saw-Mechanismus sowie die CP-Asymmetrie genauer beschrieben. Am Ende des Kapitels wird der klassische Ansatz für Leptogenese über Boltzmann Gleichungen präsentiert.
In Kapitel 3 werden die Grundlagen für Quantenfeldtheorien im Nichtgleichgewicht eingeführt. Die wichtigsten Definitionen im Falle des thermischen Gleichgewichts werden gegeben, anschließend findet sich die Verallgemeinerung auf Nichtgleichgewichtszustände. Die Bewegungsgleichungen, die sogenannten Kadanoff-Baym-Gleichungen, werden im Folgenden sowohl für skalare Teilchen als auch für Fermionen gelöst.
Kapitel 4 stellt die Notwendigkeit der Einbeziehung von Eichkorrekturen im Kontext der thermischen Leptogenese vor. Durch die Definition einer Leptonenzahlmatrix lässt sich die Asymmetrie durch die Kadanoff-Baym Gleichung für Leptonen umschreiben. Da der Vergleich von Boltzmann und Kadanoff-Baym Gleichungen im letzten Teil dieses Kapitels Unterschiede im Zeitverhalten zeigt, werden im Kadanoff-Baym Ansatz thermische Standardmodell-Breiten des Higgsfeldes und der Leptonen per Hand eingeführt. Mit dieser naiven Erweiterung erhält man ein gleiches Verhalten für die Leptonenzahlmatrix, lokal in der Zeit wie die Lösung der Boltzmann Gleichung. Eine systematische Einführung von Standardmodellkorrekturen für thermische Leptogenese ist daher unumgänglich, weshalb im Rahmen der vorliegenden Dissertation von Grund auf Eichkorrekturen der Diagramme, die zur Asymmetrie führen, berücksichtigt werden.
Die vier für diese Arbeit wichtigen Skalenbereich bedingen zwei Resummationsschemata, Hard Thermal Loop (HTL) und Collinear Thermal Loop (CTL), welche in Kapitel 5 vorgestellt werden. Dies führt schließlich auf zwei Differenzialgleichungen für die Berechnung der thermischen Produktionsrate des Majorana-Neutrinos, welche in Kapitel 6 numerisch weiter ausgewertet werden.
In Kapitel 7 erfolgt zunächst eine naive Berechnung aller eichkorrigierter 3-Schleifen-Diagramme, die zu den beiden die Asymmetrie verursachenden Diagrammen gehören. Da eine einfache Berechnung der 3-Schleifen-Diagramme nicht ausreicht, wird an dieser Stelle ein neues, zylindrisches Diagramm eingeführt, welches alle wichtigen Beiträge, insbesondere die HTL- und CTL-resummierten, enthält. Am Ende des Kapitels findet sich der erste geschlossene Ausdruck für die eichkorrigierte Leptonenzahlmatrix in führender Ordnung in allen Kopplungen.
Abschließend gibt es eine kurze Zusammenfassung und einen Ausblick in Kapitel 8. In dieser Dissertation findet sich zum ersten Mal ein systematischer Zugang zur Berücksichtigung aller Eichwechselwirkungen in der Theorie der thermischen Leptogenese. Ein geschlossener Ausdruck für die eichkorrigierte Leptonenasymmetrie konnte vorgestellt werden.
In our daily life, we carry out lots of tasks like typing, playing tennis, and playing the piano, without even noticing there is sequence learning involved. No matter how simple or complex they are, these tasks require the sequential planning and execution of a series of movements. As an ability of primary importance in one’s life, and an ability that everyone manages to learn, action-sequence learning has been studied by researchers from different fields: psychologists, neurophysiologists as well as roboticists. In the concept of sequence learning, perceptual learning and motor learning, implicit and explicit learning have been studied and discussed independently.
We are interested in infancy research, because infants, with underdeveloped brain functions and with limited motor ability, have little experience with the world and not yet built internal models as presumption of how to interpret the world. A series of infant experiments in the 1980s provided evidence that infants can rapidly develop anticipatory eye movements for visual events. Even when infants have no control of those spatial-temporal patterns, they can respond actually prior to the onset of the visual event, referred as "Anticipation".
In this work, we applied a gaze-contingent paradigm using real-time eye tracking to put 6- and 8-month-old infants in direct control of their visual surroundings. This paradigm allows the infant to change an image on a screen by looking at a peripheral red disc, which functions as a switch. We found that infants quickly learn to perform eye movements to trigger the appearance of new stimuli and that they anticipate the consequences of their actions in an early stage of the experiment.
Attention-shift from learning one stimulus to the next novel stimulus is important in sequence learning. In the test phase of infant visual habituation with two objects, we propose a new theory of explaining the familiarity-to-novelty shift. In our opinion an infant’s interest in a stimulus is related to its learning progress, the improvement of performance. As a consequence, infants prefer the stimulus which their current learning progress is maximal for, naturally giving rise to a familiarity-to-novelty shift in certain situations. Our network model predicts that the familiarity-to-novelty-shift only emerges for complex stimuli that produce bell-shaped learning curves after brief familiarization, but does not emerge for simple stimuli that produce exponentially decreasing learning curves or for long familiarization time, which is consistent with experimental results. This research suggests the infant's interest in a stimulus may be related to its current learning progress. This can give rise to a dynamic familiarity-to-novelty shift depending on both the infant's learning efficiency and the task complexity.
We know that for both infants and adults, the performance on certain motor-sequence tasks can be improved through practice. However, adults usually have to perform complex tasks in complicated environments; for example, learning multiple tasks is unavoidable in our daily life. In existing research, learning multiple tasks showed puzzling and seemingly contradictory results. On the one hand, a wide variety of proactive and retroactive interference effects have been observed when multiple tasks have to be learned. On the other hand, some studies have reported facilitation and transfer of learning between different tasks.
In order to find out the interaction between multiple-task learning, and to find an optimal training schedule, we use a recurrent neural network to model a series of experiments on movement sequence learning. The network model learns to carry out the correct movement sequences through training and reproduces differences between training schedules such as blocked training vs. random training in psychophysics experiments. The network model also shows striking similarity to human performance, and makes prediction for tasks similarity and different training schedules.
In conclusion, the thesis presents learning sequences of actions in infants and recurrent neural networks. We carried out a gaze-contingent experiment to study infants’ rapid anticipation of their own action outcomes, and we also constructed two recurrent neural network models, with one model explaining infant attention shift in visual habituation, and the other model directing to task similarity and training schedule in motor sequence control in adults.
Im Rahmen einer prospektiven Kohortenstudie wurde in der vorliegenden Arbeit die Epidemiologie und Ätiologie von Fieber während chemotherapiebedingter Neutropenie bei Patienten mit hämatologischen Neoplasien untersucht. Das diagnostische und therapeutische Vorgehen wurde beschrieben und die Übereinstimmung mit den Vorgaben einer hausinternen Leitlinie wurde evaluiert und der Verbrauch an antimikrobiellen Substanzen dokumentiert. Febrile Episoden konnten in 74% der Neutropenieepisoden dokumentiert werden; in 51% der Neutropenieepisoden kam es zu persistierendem Fieber ≥ 3 Tage. Eine dem Fieber zugrunde liegende Infektion wurde in 55% der Chemotherapiezyklen (Neutropeniedauer Median 16 Tage) mittels klinischer, apparativer und mikrobiologischer Diagnostik gefunden. Die häufigsten infektiösen Komplikationen waren Enteritiden mit Nachweis von C. difficile (11%), Enteritiden ohne Nachweis von C. difficile (29%), Pneumonien mit pilztypischen Infiltraten (12%) und Pneumonien mit unspezifischen Infiltraten (11%), sowie mikrobiologisch bestätigte Septikämien (18%). Im Vergleich zu Angaben in der Literatur wurde FUO in der vorliegenden Untersuchung häufiger diagnostiziert (11,8 Tage pro 1000 Patiententage vs. 8,2 Tage pro 1000 Patiententage). Die Gesamtmortalität des Kollektivs lag bei 7%. Die häufigste Todesursache war der septische Schock (8 von 5 Patienten; 63%), welcher sich auf dem Boden einer gramnegativen Septikämie mit multiresistenten Keimen entwickelt hatte (3 von 5 Septikämien; 60%). Die Mortalitätsrate war ähnlich hoch wie im Literaturvergleich bei Studien mit akuten myeloischen Leukämien. Prognoserelevante Faktoren, welche im Rahmen der vorliegenden Studie evaluiert wurden, sind durch schwer therapierbare Grunderkrankungen hervorgerufene prolongierte Neutropeniezeiten, sowie infektiöse Komplikationen, vor allem bei Nachweis multiresistenter Erreger.
Die Compliance bezüglich des diagnostischen und therapeutischen Vorgehens bei persistierendem Fieber betrug in der vorliegenden Arbeit zwischen 47% und 82%. Die Compliance mit den in der Leitlinie vorgeschlagenen antimikrobiellen prophylaktischen und initialen empirischen Therapien lag zwischen 83% und 85%. Der Gesamtverbrauch an antibiotischen und antimykotischen Substanzen war in der vorliegenden Studie höher als im Literaturvergleich (1647 DDD vs. 1140 DDD und 650 DDD vs. 430 DDD). Dabei fällt insbesondere der hohe Verbrauch an Reservemedikamenten gegen grampositive Bakterien auf. Allerdings fehlen aktuelle Vergleichsdaten vergleichbarer Patientenkollektive.
Bezüglich der Optimierung der diagnostischen Maßnahmen ist vor allem die Erhöhung der Sensitivität der Bronchoalveolären Lavage bei Pilzinfektionen, rechtzeitig und regelmäßig durchgeführte Surveillanceabstriche bei febriler Neutropenie, sowie die Diskussion der diagnostischen Ergebnisse und des weiteren therapeutischen Vorgehens mit infektiologischen Experten zu fordern. Patienten mit persistierendem Fieber - vor allem bei positivem Blutkulturnachweis - sollten, aufgrund des positiven prädiktiven Wertes erregerpositiver Blutkulturen für die Notwendigkeit einer intensivmedizinischen Betreuung und einer erhöhten Mortalität, Anlass sein, diagnostische und therapeutische Maßnahmen zu verbessern. Ziel ist es, durch verstärkten Einsatz diagnostischer Maßnahmen und Diskussion mikrobiologischer Befunde im Einzelfall, Reservesubstanzen seltener einzusetzen, gegebenenfalls Breitspektrum-Antibiotika oder ihre Kombinationen zu deeskalieren und somit die Kolonisation mit resistenten Erregern positiv zu beeinflussen, sowie das Ansprechen auf antimikrobielle Therapien zu optimieren.
Die Teilnahme an multizentrischen Surveillancestudien zur Inzidenzerfassung wichtiger, eindeutig definierter neutropener nosokomialer Infektionen wie radiologisch detektierter Pneumonien, mikrobiologisch bestätigter Septikämien und C. difficilepositiver Enteritiden, sowie zur Generierung von Antiinfektivaverbrauchszahlen, könnte helfen, die Beratung und Entscheidungsfindung am Krankenbett zu unterstützen. Auch könnten in diesem Rahmen Zahlen generiert werden, welche bisher zum Vergleich fehlten.
Die vorliegende Arbeit versteht sich im Rahmen der Erfassung von Ätiologie, Diagnostik und antimikrobieller Therapien bei febriler Neutropenie als Teil eines solchen Surveillanceprogrammes und hat somit eine Grundlagen für zukünftige Datenerhebungen geliefert.
Die Dissertation stellt das Machtgeflecht in der Islamischen Stadt Marawi City (Mindanao, Philippinen) dar, in die die dortigen Gender-Debatten involviert sind. In einer Umgebung, die als Konsequenz des Mindanao Konfliktes als “no war, no peace”-Umgebung definiert werden kann, gibt es drei Hauptdarsteller: die nationale Regierung des mehrheitlich christlichen Staates der Philippinen (GRP), die Autonome Regierung im Muslimischen Mindanao (ARMM), zu der auch Marawi City zählt, und die islamische Rebellengruppe Moro Islamic Liberation Front (MILF), die einen islamischen (unter-)Staat fordert. Die GRP unterstützt Re-Islamisierungs- und Re-Traditionalisierungsbewegungen in der ARMM, um die Opposition zur MILF zu stärken. Die Konsequenz ist jedoch keine Kollaboration zwischen der GRP und der ARMM. Stattdessen nutzen Politiker ihre Privilegien aus, um ihren eigenen Absichten zu folgen. Sei dies, um politische Gegner auszuspielen oder das traditionelle Sultanatssystem zu fördern. Für Gender-Debatten gibt es in diesem Kontext der ungelösten nationalen Frage kaum Spielraum außerhalb einer Islamischen Narrative; dies bedeutet jedoch nicht, dass Gender nicht debattiert wird, sondern, dass die Debatten inner-Islamisch sind, hauptsächlich zwischen Repräsentanten des traditionell synkretistischen Islam und Vertretern Islamischer Revitalisierungsbewegungen. Speziell erstere erscheinen sehr einflussreich bezüglich Gender Strategien in der Region. Dies ist nur teilweise auf die Unterstützung der nationalen Regierung zurückzuführen, sondern ist vor allem eine Frage von Identität. Diese wiederum wird nicht vorranging über Religion, sondern nach ethnischen Maßstäben und im Speziellen im Rahmen von Clanstrukturen definiert.
We investigate multivariate Laurent polynomials f \in \C[\mathbf{z}^{\pm 1}] = \C[z_1^{\pm 1},\ldots,z_n^{\pm 1}] with varieties \mathcal{V}(f) restricted to the algebraic torus (\C^*)^n = (\C \setminus \{0\})^n. For such Laurent polynomials f one defines the amoeba \mathcal{A}(f) of f as the image of the variety \mathcal{V}(f) under the \Log-map \Log : (\C^*)^n \to \R^n, (z_1,\ldots,z_n) \mapsto (\log|z_1|, \ldots, \log|z_n|). I.e., the amoeba \mathcal{A}(f) is the projection of the variety \mathcal{V}(f) on its (componentwise logarithmized) absolute values. Amoebas were first defined in 1994 by Gelfand, Kapranov and Zelevinksy. Amoeba theory has been strongly developed since the beginning of the new century. It is related to various mathematical subjects, e.g., complex analysis or real algebraic curves. In particular, amoeba theory can be understood as a natural connection between algebraic and tropical geometry.
In this thesis we investigate the geometry, topology and methods for the approximation of amoebas.
Let \C^A denote the space of all Laurent polynomials with a given, finite support set A \subset \Z^n and coefficients in \C^*. It is well known that, in general, the existence of specific complement components of the amoebas \mathcal{A}(f) for f \in \C^A depends on the choice of coefficients of f. One prominent key problem is to provide bounds on the coefficients in order to guarantee the existence of certain complement components. A second key problem is the question whether the set U_\alpha^A \subseteq \C^A of all polynomials whose amoeba has a complement component of order \alpha \in \conv(A) \cap \Z^n is always connected.
We prove such (upper and lower) bounds for multivariate Laurent polynomials supported on a circuit. If the support set A \subset \Z^n satisfies some additional barycentric condition, we can even give an exact description of the particular sets U_\alpha^A and, especially, prove that they are path-connected.
For the univariate case of polynomials supported on a circuit, i.e., trinomials f = z^{s+t} + p z^t + q (with p,q \in \C^*), we show that a couple of classical questions from the late 19th / early 20th century regarding the connection between the coefficients and the roots of trinomials can be traced back to questions in amoeba theory. This yields nice geometrical and topological counterparts for classical algebraic results. We show for example that a trinomial has a root of a certain, given modulus if and only if the coefficient p is located on a particular hypotrochoid curve. Furthermore, there exist two roots with the same modulus if and only if the coefficient p is located on a particular 1-fan. This local description of the configuration space \C^A yields in particular that all sets U_\alpha^A for \alpha \in \{0,1,\ldots,s+t\} \setminus \{t\} are connected but not simply connected.
We show that for a given lattice polytope P the set of all configuration spaces \C^A of amoebas with \conv(A) = P is a boolean lattice with respect to some order relation \sqsubseteq induced by the set theoretic order relation \subseteq. This boolean lattice turns out to have some nice structural properties and gives in particular an independent motivation for Passare's and Rullgard's conjecture about solidness of amoebas of maximally sparse polynomials. We prove this conjecture for special instances of support sets.
A further key problem in the theory of amoebas is the description of their boundaries. Obviously, every boundary point \mathbf{w} \in \partial \mathcal{A}(f) is the image of a critical point under the \Log-map (where \mathcal{V}(f) is supposed to be non-singular here). Mikhalkin showed that this is equivalent to the fact that there exists a point in the intersection of the variety \mathcal{V}(f) and the fiber \F_{\mathbf{w}} of \mathbf{w} (w.r.t. the \Log-map), which has a (projective) real image under the logarithmic Gauss map. We strengthen this result by showing that a point \mathbf{w} may only be contained in the boundary of \mathcal{A}(f), if every point in the intersection of \mathcal{V}(f) and \F_{\mathbf{w}} has a (projective) real image under the logarithmic Gauss map.
With respect to the approximation of amoebas one is in particular interested in deciding membership, i.e., whether a given point \mathbf{w} \in \R^n is contained in a given amoeba \mathcal{A}(f). We show that this problem can be traced back to a semidefinite optimization problem (SDP), basically via usage of the Real Nullstellensatz. This SDP can be implemented and solved with standard software (we use SOSTools and SeDuMi here). As main theoretic result we show that, from the complexity point of view, our approach is at least as good as Purbhoo's approximation process (which is state of the art).
Paging is one of the most prominent problems in the field of online algorithms. We have to serve a sequence of page requests using a cache that can hold up to k pages. If the currently requested page is in cache we have a cache hit, otherwise we say that a cache miss occurs, and the requested page needs to be loaded into the cache. The goal is to minimize the number of cache misses by providing a good page-replacement strategy. This problem is part of memory-management when data is stored in a two-level memory hierarchy, more precisely a small and fast memory (cache) and a slow but large memory (disk). The most important application area is the virtual memory management of operating systems. Accessed pages are either already in the RAM or need to be loaded from the hard disk into the RAM using expensive I/O. The time needed to access the RAM is insignificant compared to an I/O operation which takes several milliseconds.
The traditional evaluation framework for online algorithms is competitive analysis where the online algorithm is compared to the optimal offline solution. A shortcoming of competitive analysis consists of its too pessimistic worst-case guarantees. For example LRU has a theoretical competitive ratio of k but in practice this ratio rarely exceeds the value 4.
Reducing the gap between theory and practice has been a hot research issue during the last years. More recent evaluation models have been used to prove that LRU is an optimal online algorithm or part of a class of optimal algorithms respectively, which was motivated by the assumption that LRU is one of the best algorithms in practice. Most of the newer models make LRU-friendly assumptions regarding the input, thus not leaving much room for new algorithms.
Only few works in the field of online paging have introduced new algorithms which can compete with LRU as regards the small number of cache misses.
In the first part of this thesis we study strongly competitive randomized paging algorithms, i.e. algorithms with optimal competitive guarantees. Although the tight bound for the competitive ratio has been known for decades, current algorithms matching this bound are complex and have high running times and memory requirements. We propose the algorithm OnlineMin which processes a page request in O(log k/log log k) time in the worst case. The best previously known solution requires O(k^2) time.
Usually the memory requirement of a paging algorithm is measured by the maximum number of pages that the algorithm keeps track of. Any algorithm stores information about the k pages in the cache. In addition it can also store information about pages not in cache, denoted bookmarks. We answer the open question of Bein et al. '07 whether strongly competitive randomized paging algorithms using only o(k) bookmarks exist or not. To do so we modify the Partition algorithm of McGeoch and Sleator '85 which has an unbounded bookmark complexity, and obtain Partition2 which uses O(k/log k) bookmarks.
In the second part we extract ideas from theoretical analysis of randomized paging algorithms in order to design deterministic algorithms that perform well in practice. We refine competitive analysis by introducing the attack rate
parameter r, which ranges between 1 and k. We show that r is a tight bound on the competitive ratio of deterministic algorithms.
We give empirical evidence that r is usually much smaller than k and thus r-competitive algorithms have a reasonable performance on real-world traces. By introducing the r-competitive priority-based algorithm class OnOPT we obtain a collection of promising algorithms to beat the LRU-standard. We single out the new algorithm RDM and show that it outperforms LRU and some of its variants on a wide range of real-world traces.
Since RDM is more complex than LRU one may think at first sight that the gain in terms of lowering the number of cache misses is ruined by high runtime for processing pages. We engineer a fast implementation of RDM, and compare it
to LRU and the very fast FIFO algorithm in an overall evaluation scheme, where we measure the runtime of the algorithms and add penalties for each cache miss.
Experimental results show that for realistic penalties RDM still outperforms these two algorithms even if we grant the competitors an idealistic runtime of 0.
Die Proteomforschung wurde die letzten beiden Dekaden maßgeblich durch die Massenspektrometrie geprägt und vorangetrieben. Ohne die Ionisationstechniken MALDI und ESI wäre die Analyse von Peptiden und Proteinen nicht in dem Maße möglich. Durch das Zusammenspiel zwischen Probenvorbereitung und effektiven Trennmethoden mit hochauflösenden Massenspektrometern und Auswertungssoftware können heute problemlos komplexe Proteinmischungen oder ganze Proteome untersucht werden.
Um Proteine in Peptide zu schneiden, wird in den allermeisten Fällen die Protease Trypsin verwendet, deren Eigenschaften in vielerlei Hinsicht die bestmögliche Lösung für die nachfolgende Analyse mit Massenspektrometern bieten. Allerdings stößt die Anwendbarkeit dieses Enzyms bei der Analyse von einigen Proteinen oder Proteinklassen wie Membranproteinen an ihre Grenzen, da nur sehr wenige potentielle Schnittstellen vorhanden sind. In solchen Fällen wurden eine Reihe von weniger spezifischen Enzymen wie Chymotrypsin, Proteinase K oder Elastase in den vergangenen Jahren genutzt, die Proteine auch in für Trypsin weniger gut zugänglichen Bereichen wie Transmembranhelices, in massenspektrometrisch analysierbare Peptide spalten können.
Allerdings stellen die wenig spezifischen Enzyme und die von ihnen generierten Peptide die Massenspektrometrie vor neue Herausforderungen. Für eine Identifizierung benötigen die Peptide eine sehr hohe Massengenauigkeit, daneben sind insbesondere bei der Verwendung von MALDI-Massenspektrometern neutrale und sehr saure Peptide schwerer ionisierbar und analysierbar als basische.
Genügte es bis vor einigen Jahren, nur die Identität einzelner Proteine in komplexen Proben zu bestimmen, hat sich die Fragestellung mittlerweile einem Wandel unterzogen. Heute ist man daran interessiert, wie viel eines bestimmten Proteins vorliegt, besonders im Vergleich mit anderen, unterschiedlich behandelten Proben ist die Regulation von Proteinen von Interesse. Zum Quantifizieren stehen viele unterschiedliche Methoden zur Verfügung. Eine solche stellen die isobaren Derivatisierungsreagenzien TMT und iTRAQ dar, mit denen unterschiedliche Proben nach Peptidfragmentierung quantifiziert werden können.
Fast alle Arbeiten zur Quantifizierung in der Vergangenheit benutzten Trypsin als Protease.
Im Zuge dieser Arbeit sollten die Vorteile, die durch die Verwendung von Elastase bei der Identifizierung von Membranproteinen bereits gezeigt werden konnten, auf die Quantifizierung mit TMT erweitert werden.Wurde in der Vergangenheit noch in manchen Publikationen davon abgeraten, Elastase zu verwenden,weil die Nutzbarkeit der dabei gebildeten komplexen Peptidmischungen in Frage gestellt wurde, konnte in dieser Arbeit gezeigt werden, dass Elastase wie auch Trypsin sich eignen, als Enzym für Quantifizierungsexperimente verwendet zu werden. Dies wurde an Modellproteinen evaluiert und dann auf komplexe Membranproben von Hefezellen erweitert.
Bei Vorexperimenten zur Derivatisierung mit TMT wurde desweiteren festgestellt, dass Peptidklassen, die zuvor nur mit ESI als Ionisationsmethode identifiziert werden konnten, durch die Derivatisierung nun auch mit MALDI zugänglich waren. Die dadurch analysierten kleinen, hydrophoben und sehr sauren Peptide lieferten bei der Kombination mit der underivatisierten Probe einen deutlichen Zugewinn in der Sequenzabdeckung der identifizierten Proteine.
Ein weiterer Teil der Arbeit beschäftigt sich mit der nachträglichen Korrektur von gemessenen Peptidmassen über selbst geschriebene Softwarelösungen für verschiedene Massenspektrometer. Es wurde das Ziel verfolgt, eine möglichst hohe Massengenauigkeit und damit hohe Anzahl an Identifizierungen von Proteinen nach Verdau mit wenig spezifischen Proteasen zu erreichen. Weitere Computerprogramme wurden mit dem Ziel geschrieben, den Arbeitsablauf zu erleichtern und zu verbessern.
Für die früher schon beschriebene Kombination zweier Massenspektrometer mit hoher Massengenauigkeit und Auflösung auf der einen Seite und effizienter Peptidfragmentierung auf der anderen Seite konnte durch Veränderung der Instrumentierung und Software nun eine Automatisierbarkeit geschaffen werden, die es ermöglicht, die Methode standardmäßig bei Routineanalysen zu verwenden.
So ergeben sich viele neue Möglichkeiten neben den oft gewählten Standardprotokollen mit der Analyse tryptischer Verdauansätze mittels LC-ESI-MS/MS, die häufig nur der Einfachheit halber und ohne Anpassung an die eigene Zielsetzung gewählt werden.
Die Arbeit zeigt aber auch auf, dass die Verwendung weniger spezifischer Enzyme sowohl eine Optimierung des Arbeitsablaufs als auch eine Datenauswertung benötigt, die die Besonderheiten der Proteasen berücksichtigt. Wenn dies gewährleistet wird, kann vor allem mit dem Zugewinn durch die Derivatisierung mit TMT eine wertvolle Alternative zu Trypsin genutzt werden.
In this thesis, the asymptotic behaviour of Pólya urn models is analyzed, using an approach based on the contraction method. For this, a combinatorial discrete time embedding of the evolution of the composition of the urn into random rooted trees is used. The recursive structure of the trees is used to study the asymptotic behavior using ideas from the contraction method.
The approach is applied to a couple of concrete Pólya urns that lead to limit laws with normal distributions, with non-normal limit distributions, or with asymptotic periodic distributional behavior.
Finally, an approach more in the spirit of earlier applications of the contraction method is discussed for one of the examples. A general transfer theorem of the contraction method is extended to cover this example, leading to conditions on the coefficients of the recursion that are not only weaker but also in general easier to check.
Heterodyne array receivers are employed in radio astronomy to reduce the observing time needed for mapping extended sources. One of the main factors limiting the amount of pixels in terahertz receivers is the difficulty of generating a sufficient amount of local oscillator power. Another challenge is efficient diplexing and coupling of local oscillator and signal power to the detectors. These problems are attacked in this dissertation by proposing the application of two vacuum electronic terahertz amplifier types for the amplification of the LO-signal and by introducing a new method for finding the defects in a quasioptical diplexer.
A traveling wave tube (TWT) design based on a square helix slow wave structure (SWS) at 825 GHz is introduced. It exhibits a simulated small-signal gain of 18.3 dB and a 3-dB bandwidth of 69 GHz. In order to generate LO-power at even higher frequencies, the operation of an 850-GHz square helix TWT as a frequency doubler has been studied. A simulated conversion efficiency of 7% to 1700 GHz, comparable with the state-of-art solid-state doublers, has been achieved for an input power of 25 mW.
The other amplifier type discussed in this work is a 1-THz cascade backward wave amplifier based on a double corrugated waveguide SWS. Specifically, three input/output coupler types between a rectangular waveguide and the SWS are presented. The structures have been realized with microfabrication, and the results of loss measurements at 1 THz will be shown.
Diplexing of the LO- and signal beams is often performed with a Martin-Puplett interferometer. Misalignment and deformation of the quasioptical components causes the polarization state of the output signal to be incorrect, which leads to coupling losses. A ray-tracing program has been developed for studying the influence of such defects. The measurement results of the diplexer of a multi-pixel terahertz receiver operated at the APEX telescope have been analyzed with the program, and the results are presented. The program allows the quasioptical configuration of the diplexer to be corrected in order to obtain higher receiver sensitivity.
Modern computational molecular quantum chemical studies, such as the present one, typically employ a wide range of theoretical techniques. The latter are often rather complicated and one should not generally expect that an experimental scientist in the area of physical chemistry, a potential reader of this work, should be familiar with all these techniques. To simplify the reading of the Thesis and to make it self-sufficient, it is supplied with an overview of the employed theoretical methodologies (Chapter 1). The overview explains basic quantum-chemical terminology referred to throughout the Thesis, introduces theoretical foundations of the methods and outlines their properties and limitations. In Part 1.1 of Chapter 1, methods for the solution of the molecular Schrödinger equation are introduced, while in the subsequent Parts 1.2 and 1.3 methods for the solution of the electronic Schrödinger equation are presented to find the ground and excited states, respectively. Part 1.4 is dedicated to basis-set effects which are omnipresent in electronic-structure calculations. It contains a number of unusual insights and concepts proposed by the author and, thus, may be insightful also to experts in quantum chemistry.
In Chapter 2, the phenomenon of acetone-water proton exchange catalyzed by tubular as well as amorphous aggregates of calix[4]hydroquinone (CHQ) macromolecules, which has been observed previously in NMR experiments (Ref. D1D), is investigated by means of correlated quantum-chemical methods. The first part of the study (Section 2.3-2.7) considers concerted proton transfer, assisted by several initially neutral OH-groups in the hydrogen-bonded networks of CHQ aggregates. The second part of the study (Section 2.8-2.13) is dedicated to a second mechanism of proton exchange: step-wise proton transfer via formation of ionic intermediates resulting from CHQ pre-dissociation. CHQ application-specific as well as general conclusions, relevant to the main topic of the Thesis (i.e. influence of specific microsolvation on the considered proton transfer processes), are presented in Section 2.14.
The phenomenon of dual fluorescence observed in clusters of methyl 4-N,N-dimethylaminobenzoate ester (DMABME) and two water molecules in the gas phase, is studied in Chapter 3. Experimentally, the dual fluorescence was detected in experiments combining optical and ground-state ion-depletion infrared spectroscopies in ultracold molecular beams (Ref. D2D). In Section 3.3, calculated ground-state infrared spectra are presented that allow to identify the structures of those isomers, which are present in the gas-phase, as well as the structure of the isomer responsible for dual fluorescence. To further understand the reaction mechanism of dual fluorescence, excited-state potential energy surfaces of the identified isomers were computed along the relevant twisted intermolecular charge-transfer formation coordinate and the mechanism of energy dissipation in these complexes was investigated (Section 3.4-3.5) (Ref. D3D). A brief summary of the main results of this chapter and conclusions are given in Section 3.6. Finally, in Section 3.7 a complementary benchmark study of the quality of ground-state potential energy surfaces of prototypical hydrogen-bonded systems (ammonia-water and formic acid-water dimers) obtained at the level of BSSE-corrected MP2 combined with moderate basis sets, has been conducted. The quality of potential energy surfaces was tested with respect to basis-set size, level of electron correlation and anharmonicity effects and the applied methodology to identify the IR spectrum of hydrated DMABME complexes (Section 3.3) has been found to be sufficient to uniquely assign the IR spectra.
Das Gehirn ist die wohl komplexeste Struktur auf Erden, die der Mensch erforscht. Es besteht aus einem riesigen Netzwerk von Nervenzellen, welches in der Lage ist eingehende sensorische Informationen zu verarbeiten um daraus eine sinnvolle Repräsentation der Umgebung zu erstellen. Außerdem koordiniert es die Aktionen des Organismus um mit der Umgebung zu interagieren. Das Gehirn hat die bemerkenswerte Fähigkeit sowohl Informationen zu speichern als auch sich ständig an ändernde Bedingungen anzupassen, und zwar über die gesamte Lebensdauer. Dies ist essentiell für Mensch oder Tier um sich zu entwickeln und zu lernen. Die Grundlage für diesen lebenslangen Lernprozess ist die Plastizität des Gehirns, welche das riesige Netzwerk von Neuronen ständig anpasst und neu verbindet. Die Veränderungen an den synaptischen Verbindungen und der intrinsischen Erregbarkeit jedes Neurons finden durch selbstorganisierte Mechanismen statt und optimieren das Verhalten des Organismus als Ganzes. Das Phänomen der neuronalen Plastizität beschäftigt die Neurowissenschaften und anderen Disziplinen bereits über mehrere Jahrzehnte. Dabei beschreibt die intrinsische Plastizität die ständige Anpassung der Erregbarkeit eines Neurons um einen ausbalancierten, homöostatischen Arbeitsbereich zu gewährleisten. Aber besonders die synaptische Plastizität, welche die Änderungen in der Stärke bestehender Verbindungen bezeichnet, wurde unter vielen verschiedenen Bedingungen erforscht und erwies sich mit jeder neuen Studie als immer komplexer. Sie wird durch ein komplexes Zusammenspiel von biophysikalischen Mechanismen induziert und hängt von verschiedenen Faktoren wie der Frequenz der Aktionspotentiale, deren Timing und dem Membranpotential ab und zeigt außerdem eine metaplastische Abhängigkeit von vergangenen Ereignissen. Letztlich beeinflusst die synaptische Plastizität die Signalverarbeitung und Berechnung einzelner Neuronen und der neuronalen Netzwerke.
Der Schwerpunkt dieser Arbeit ist es das Verständnis der biologischen Mechanismen und deren Folgen, die zu den beobachteten Plastizitätsphänomene führen, durch eine stärker vereinheitlichte Theorie voranzutreiben.Dazu stelle ich zwei funktionale Ziele für neuronale Plastizität auf, leite Lernregeln aus diesen ab und analysiere deren Konsequenzen und Vorhersagen.
Kapitel 3 untersucht die Unterscheidbarkeit der Populationsaktivität in Netzwerken als funktionales Ziel für neuronale Plastizität. Die Hypothese ist dabei, dass gerade in rekurrenten aber auch in vorwärtsgekoppelten Netzwerken die Populationsaktivität als Repräsentation der Eingangssignale optimiert werden kann, wenn ähnliche Eingangssignale eine möglichst unterschiedliche Repräsentation haben und dadurch für die nachfolgende Verarbeitung besser unterscheidbar sind. Das funktionale Ziel ist daher diese Unterscheidbarkeit durch Veränderungen an den Verbindungsstärke und der Erregbarkeit der Neuronen mithilfe von lokalen selbst-organisierten Lernregeln zu maximieren. Aus diesem funktionale Ziel lassen sich eine Reihe von Standard-Lernenregeln für künstliche neuronale Netze gemeinsam abzuleiten.
Kapitel 4 wendet einen ähnlichen funktionalen Ansatz auf ein komplexeres, biophysikalisches Neuronenmodell an. Das Ziel ist eine spärliche, stark asymmetrische Verteilung der synaptischen Stärke, wie sie auch bereits mehrfach experimentell gefunden wurde, durch lokale, synaptische Lernregeln zu maximieren. Aus diesem funktionalen Ansatz können alle wichtigen Phänomene der synaptischen Plastizität erklärt werden. Simulationen der Lernregel in einem realistischen Neuronmodell mit voller Morphologie erklären die Daten von timing-, raten- und spannungsabhängigen Plastizitätsprotokollen. Die Lernregel hat auch eine intrinsische Abhängigkeit von der Position der Synapse, welche mit den experimentellen Ergebnissen übereinstimmt. Darüber hinaus kann die Lernregel ohne zusätzliche Annahmen metaplastische Phänomene erklären. Dabei sagt der Ansatz eine neue Form der Metaplastizität voraus, welche die timing-abhängige Plastizität beeinflusst. Die formulierte Lernregel führt zu zwei neuartigen Vereinheitlichungen für synaptische Plastizität: Erstens zeigt sie, dass die verschiedenen Phänomene der synaptischen Plastizität als Folge eines einzigen funktionalen Ziels verstanden werden können. Und zweitens überbrückt der Ansatz die Lücke zwischen der funktionalen und mechanistische Beschreibungsweise. Das vorgeschlagene funktionale Ziel führt zu einer Lernregel mit biophysikalischer Formulierung, welche mit etablierten Theorien der biologischen Mechanismen in Verbindung gebracht werden kann. Außerdem kann das Ziel einer spärlichen Verteilung der synaptischen Stärke als Beitrag zu einer energieeffizienten synaptischen Signalübertragung und optimierten Codierung interpretiert werden.
Development of prototype components for the Silicon Tracking System of the CBM experiment at FAIR
(2013)
The CBM experiment at future accelerator facility FAIR will investigate the properties of nuclear matter under extreme conditions. The experimental programm is different from the heavy-ion experiments at RHIC (BNL) and LHC (CERN) that create nuclear matter at high temperatures. In contrast, the study of the QCD phase diagram in the region of the highest net baryon densities and moderate temperatures that is weakly explored will be performed with high precision. For this, collisions of different heavy-ion beams at the energies of 10–45GeV/nucleon with nuclear target will be measured.
The physics programme of the CBM experiment includes measurement of both rare probes and bulk observables that originate from various phases of a nucleus-nucleus collision. In particular, decay of particles with charm quarks can be registered by reconstructing the decay vertex detached from the primary interaction point by several hundreds of micrometers (e.g., decay length c Tau = 123 µm for D0 meson). For this, precise tracking and full event reconstruction with up to 600 charged particle tracks per event within acceptance are required. Other rare probes require operation at interaction rate of up to 10MHz. The detector system that performs tracking has to provide high position resolution on the order of 10 µm, operate at high rates and have radiation tolerant design with low material budget.
The Silicon Tracking System (STS) is being designed for charged-particle tracking in a magnetic field. The system consists of eight tracking station located in the aperture of a dipole magnet with 1T field. For tracks with momentum above 1GeV, momentum resolution of such a system is expected to be about 1%. In order to fulfill this task, thorough optimization of the detector design is required. In particular, minimal material budget has to be achieved.
Production of a detector module requires research and development activities with respect to the module components and their integration. A detector module is a basic functional unit that includes a sensor, an analogue microcable and frontend electronics mounted on a support structure. The objective of the thesis is to perform quality assurance tests of the prototype module components in order to validate the concept of the detector module and to demonstrate its operation using radioactive sources and particle beams.
Double-sided silicon microstrip detectors have been chosen as sensor technology for the STS because of the combination of a good spatial resolution, two-dimensional coordinate measurement achieved within low material budget (0.3%X0), high readout speed and sufficient radiation tolerance. Several generations of double-sided silicon microstrip sensors have been manufactured in order to explore the radiation hard design features and the concept of a large-area sensor compatible with ladder-type structure of the detector module. In particular, sensors with double metal layer on both sides and active area of 62×62mm2 have been produced. Electrical characterization of the sensors has been performed in order to establish the overall operability as well as to extract the device parameters. Current-voltage, capacitance-voltage characteristics and interstrip parameters have been measured.
Readout of the sensors has been done using self-triggering front-end electronics. A front-end board has been developed based on the n-XYTER readout chip with data driven architecture and capable of operating at 32MHz readout rate. The front-end board included an external analog-to-digital converter (ADC). Calibration of the ADC has been performed using both 241Am X-ray source and external pulse generator. Threshold calibration and investigation of temperature dependence of chip parameters has been carried out.
Low-mass support structures have been developed using carbon fibre that has the rigidity to hold the detector modules and introduce minimal Coulomb scattering of the particle tracks. Analogue microcables have been produced with aluminium traces on a polyimide substrate, thus combining good electrical connection with low material budget. Microcable structure includes several layers optimized for low trace capacitance and thus low-noise performance.
A demonstrator tracking telescope has been constructed and operated in several beam tests including 2.5GeV proton beam at COSY synchrotron (Jülich). Three tracking stations have been complemented with several beam hodoscopes. Analysis of the beam data has yielded information on analogue and timing response, beam profile. Tracking and alignment information has been obtained. Beam stability has been evaluated using specially developed monitoring tools.
As a result of conducted studies, performance of the module components have been evaluated and requirements to the detector module have been formulated. Practical suggestions have been made with respect to the structure of the detector module, whereas precise definition of the final detector module design was outside of the scope of this thesis.
The economic success of the World Wide Web makes it a highly competitive environment for web businesses. For this reason, it is crucial for web business owners to learn what their customers want. This thesis provides a conceptual framework and an implementation of a system that helps to better understand the behavior and potential interests of web site visitors by accounting for both explicit and implicit feedback. This thesis is divided into two parts.
The first part is rooted in computer science and information systems and uses graph theory and an extended click-stream analysis to define a framework and a system tool that is useful for analyzing web user behavior by calculating the interests of the users.
The second part is rooted in behavioral economics, mathematics, and psychology and is investigating influencing factors on different types of web user choices. In detail, a model for the cognitive process of rating products on the Web is defined and an importance hierarchy of the influencing factors is discovered.
Both parts make use of techniques from a variety of research fields and, therefore, contribute to the area of Web Science.
Die Dissertation betrachtet zunächst die Anatomie der Lautentstehung und die Historie von Untersuchungen zu Sprechtraktakustik (u.a. Ibn Sina, Hook, Mical, Kratzenstein, Kempelen, Faber, Wheatstone, Helmholz, Riesz, Dunn, Chiba, Kajiyama, Kelly, Lochbaum, Saito, Itakura, Burg ) und geht insbesondere auf das Rohrmodell zu Beschreibung der Vokaltraktakustik ein.
Mittels Finiter-Differenzen wird die Aksutik der Sprechens dann dreidimensional beschrieben, und die zuätzlich auftretenden Effekte betrachtet. Fur die sich beim Sprechen schnell bewegende Mundhöhle wird ein Verfahren entwickelt und untersucht, mittels Sprachsignalen durch inverse Filterung und MRT-Aufnahmen die räumliche Konfiguration zu bestimmen. Für den Nasaltrakt wurden dreidimensional abbildende Verfahren aus der medizinischen Diagnostik verglichen (MRT und CT), und anhand eines Computer-Tomographischen Datensatzes die akustischen Vorgänge dreidimensional bestimmt.
Die Funktion der äußeren Haarsinneszellen geht weit über die normale Rezeptoreigenschaft der Kategorie Mechanorezeptor hinaus. Äußere Haarzellen mit ihrer reichhaltigen efferenten Innervierung sind nicht nur für die sensorische Aufnahme mechanischer Bewegung zuständig, sondern ermöglichen aufgrund ihrer motorischen Funktionen die mechanische Verstärkung der Wanderwelle in der Cochlea. Äußere Haarzellen sind eine maßgebliche Komponente des ´cochleären Verstärkers` und ihr Ausfall führt zur Schwerhörigkeit. Beiprodukte des cochleä-ren Verstärkers sind otoakustische Emissionen, deren Messung Aufschluss über aktive mechanische Prozesse im Innenohr gibt.
Die äußeren Haarsinneszellen bilden Synapsen mit dem olivo-cochleären efferenten System, welches im Zentrum der vorliegenden Untersuchung steht. Es vermittelt den Einfluss des Zentralnervensystems auf das Corti-Organ des Innenohrs. Über die akustische Reizung des olivo-cochleären Reflexbogens ist man in der Lage, das efferente System zu aktivieren und gleichzeitig die Antworteigenschaften der Cochlea zu verändern. Efferente Modulationen des cochleären Verstärkers können sich z. B. in einer Veränderung des Emissionspegels bemerk-bar machen. Die Fledermausspezies Carollia perspicillata ist aufgrund ihres Echoortungs-systems mit einem sehr sensitiven und hochauflösenden Hörvermögen ausgestattet und eignet sich hervorragend als Modelltier in der Hörforschung, insbesondere auch deshalb, da oto-akustische Emissionen sehr gut messbar sind.
Das efferente System von C. perspicillata wurde in dieser Untersuchung durch akustische Stimulation der kontralateralen Cochlea angeregt. Die Stimuli, die nicht nur in ihrem Pegel sondern auch in ihrer Bandbreite und in der Mittelfrequenz in Relation zu den ipsilateralen Stimulusfrequenzen variierten, beeinflussten dabei die Generierung der otoakustischen Emis-sionen (DPOAE, engl: distortion product otoacoustic emissions) im ipsilateralen Ohr: akustische Stimulation der kontralateralen Cochlea bewirkte zuverlässig eine Änderung der DPOAE- Amplitude im kontralateralen Ohr. Vor allem eine Suppression des cochleären Verstärkers in Form von DPOAE-Pegelverminderungen wurde beobachtet. Die supprimieren-den Effekte erreichten trotz leiser bis moderater kontralateraler Rauschpegel (bis maximal 54 dB SPL) Werte von bis zu 14, 17.1 und 13.9 dB SPL (bei f2 = 20, 40 und 60 kHz und effek-tivstem kontralateralen Rauschstimulus) und waren damit deutlich größer als in vorangegang-enen Studien an anderen Spezies. Die DPOAE-Pegelverminderungen waren positiv mit dem x Pegel der kontralateralen akustischen Stimulation, ebenso wie seiner Bandbreite und der Mittelfrequenzen in Relation zu den ipsilateralen Stimulusfrequenzen korreliert. Es gab keinen absoluten Frequenzbereich, in dem die efferenten Effekte am größten gewesen wären. Vielmehr traten maximale Effekte immer durch etwas oberhalb der ipsilateralen Stimulusfre-quenzen gelegene kontralaterale Rauschstimuli auf. Die Effekte waren auch abhängig von der Bandbreite des kontralateralen Rauschstimulus und maximal bei einer relativen Bandbreite von 1.5 Oktaven. Die Verschiebung des efferenten Effekts hin zu hohen Frequenzen und die Bandbreitenabhängigkeit sind vereinbar mit den anatomischen Eigenschaften der Projektio-nen der medialen olivo-cochleären Efferenzen in der Säugetiercochlea. Kontralaterale akusti-sche Reizung bewirkte auch eine Verschiebung der Wachstumsfunktionen der 2f1-f2 -DPOAE in einen unsensitiven Bereich und außerdem eine Verformung der Wachstumsfunktion. Bei-des könnte durch Beeinträchtigung des cochleären Verstärkers verursacht sein. Eine Beteili-gung des Mittelohrmuskels an den Effekten kann nahezu ausgeschlossen werden und die beobachteten Effekte sind höchstwahrscheinlich dem olivo-cochleären System zuzuschreiben.
Funktionell ist denkbar, dass bei C. perspicillata das mediale olivo-cochleäre System im Kontext einer Frequenzverschärfung bei der cochleären Verstärkung der Basilarmembranbe-wegung aktiv wird. Aus diesem Grund wurden ipsilateral sogenannte DPOAE-Suppressions- Abstimmkurven gemessen, welche die mechanische Abstimmschärfe im Innenohr beschrei-ben. Während und nach kontralateraler Reizung kam es zu Veränderungen der Abstimmkur-ven. Signifikante Effekte konnten allerdings nicht festgestellt werden, da die Veränderungen der Suppressions-Abstimmkurven variabel und schlecht kategorisierbar war.
Die vorliegenden Ergebnisse unterstützen weit verbreitete Hypothesen zur Funktion der medialen olivo-cochleären Effernzen in Bezug auf mechanische Suppression, Verbesserung des cochleären Signal-Rauschverhältnisses und einer generellen frequenzspezifischen Wirkung.
Are books different? : Die Auswirkungen des Falls der Buchpreisbindung in Großbritannien 1995 - 2006
(2013)
Sicherlich gibt es im Buchhandel wie in jeder anderen Branche Zeiten der Krise und des Umsatzrückgangs, aber grundsätzlich legen die Zahlen nicht nah, dass das Ende bevorsteht. Es stellt sich also die Frage, ob zutrifft, was Richter Buckley in seinem zum geflügelten Wort gewordenen Urteil feststellte: Sind Bücher wirklich anders, oder anders gefragt, braucht der Buchhandel den Schutz des Staates, um seine Funktion erfüllen zu können?
Um eine Antwort auf diese Fragen zu finden, soll in dieser Arbeit das Hauptaugenmerk auf die Entwicklung des britischen Buchhandels im Zeitraum von 1995 (dem Jahr der faktischen Abschaffung des Net Book Agreement bis 2006 gelegt werden. Nach dem beinahe hundertjährigen Bestehen der Buchpreisbindung waren diese Jahre richtungweisend für die Neuorientierung des britischen Buchhandels auf die Bedingungen eines freien Marktes, und es soll untersucht werden, welche Umwälzungen sich daraus für die Branche ergeben haben.
Transylvanian Saxons' migration from Romania to Germany: the formation of a 'return' diaspora?
(2013)
Processes and patterns of migration on a global scale have changed in profound ways during the last two decades (Smith and King, 2012). In the European context, this is exemplified by transformations to the traditional mobility patterns from East to West Europe (Koser and Lutz, 1998), with migrants more likely to be involved in temporary circular and transnational mobility (Favell, 2008). Since the end of the Second World War, historical and political events in Europe have facilitated the mobility of ethnic Germans from Eastern Europe to Germany. Subsequently, the fall of the Iron Curtain has permitted unrestrained East-West movements, which resulted in mass migrations towards the West and diaspora fragments in the East. However, after settlement in the West, ethnic Germans have also been absorbed within wider temporary and transnational movements (Koser, 2007). Within this context, this thesis examines the post-migratory lives of three generations of Transylvanian Saxons in Germany by exploring the cultural, social, economic and political dimensions of this community. This thesis aims to contribute to on-going academic debates about diasporas by explicitly responding to Hoerder s (2002) call for more studies on ethnic German diasporas. It shows that Transylvanian Saxons, who relocated to the ancestral homeland, do not disrupt identities and lives forged in diaspora, but rather, they negotiate complex identities and belongings in relation to both home and homeland . It reveals a double diaspora and the necessity to perceive identity and diaspora as dynamic processes and constantly evolving in relation to time, space and place. This double diasporic allegiance in the case of the Transylvanian Saxons suggests interrogating the formation of a return diaspora and its importance for processes of international migration.
Gridded maps of meteorological variables are needed for the evaluation of weather and climate models and for climate change monitoring. In order to produce them, values at locations where no observing stations are available need to be estimated from point-wise observations. For the interpolation of meteorological observations deterministic and stochastic methods are often combined. Deterministic methods can account for ancillary information such as elevation, continentality or satellite observations. Stochastic methods such as kriging reproduce observed values at the station locations and also account for spatial variability. In the first two studies of this thesis, a flexible interpolation method for the gridding of locally observed daily extreme temperatures is developed that also provides an optimal estimate of the interpolation ncertainty. In the third study, an observational dataset is created using this interpolation method and then applied to evaluate a climate simulation for Africa.
In the first study, the Regression-Kriging-Kriging (RKK) method is tested for the interpolation of daily minimum and maximum temperatures (Tmin and Tmax) in different regions in Europe. RKK accounts for elevation, continentality index and zonal mean temperature and is applicable in regions of differing station density and climate. The accuracy of RKK is compared to Inverse Distance Weighting, a common deterministic interpolation method, and to Ordinary Kriging, a common stochastic interpolation method. The first step in RKK is to use regression kriging, in which multiple linear regression accounts for topographical effects on the temperature field and kriging minimizes the regression error, to interpolate climatological means. In the second step daily deviations from the monthly climatology are interpolated using simple kriging. Owing to the large climatological differences across the investigation area the interpolation is performed in homogeneous subregions defined according to the Köppen-Geiger climate classification. Cross validation demonstrates the superiority of RKK over the simpler algorithms in terms of accuracy and preservation of spatial variability. The interpolation performance however strongly varies across Europe, being considerably higher over Central Europe (highest station density) than over Greenland (few stations along the coast line). This illustrates the strong impact of the station density on the accuracy of the interpolation result. Satellites provide comprehensive observations of climate variables such as land surface temperature (LST) and cloud cover (CC). However, LST is associated with high uncertainty (standard error ~ 1-2°C), preventing its direct application in meteorology and climatology. The second study investigates the usefulness of LST and CC as predictors for the gridding of daily Tmin and Tmax. The RKK algorithm is compared with similar interpolation methods that apply LST and CC in addition to the predictors used with the RKK algorithm. The investigation is conducted in two regions, Central Europe and the Iberian Peninsula, which differ strongly in average cloud cover (Central Europe is approximately 30% cloud free and the Iberian Peninsula approximately 60 % cloud free). RKKLST (in which monthly mean LST is used as an additional predictor) yields for Central Europe no clear improvement over RKK, yet it reduces the interpolation error over the Iberian Peninsula. This finding can be explained by the higher percentage of cloud free pixels over that region in summer which enables a more robust determination of monthly mean LST. Adding a regression step for daily anomalies (using the predictor CC) yields the RKRK method and improves the preservation of spatial variability over the Iberian Peninsula. Moreover, a successive reduction of the station number (from 140 to 10 stations) reveals an increasing superiority of RKKLST and RKRK over RKK in both regions.
The application of a gridded observational dataset for climate monitoring or climate model validation requires knowledge of the uncertainties associated with the dataset. The estimation of the interpolation uncertainty, here the inter quartile range is the used uncertainty measure, is therefore an important issue within the frame of this thesis. By means of cross validation it is shown that the largest uncertainties occur in regions of low station density (e.g. Greenland), in mountainous regions and along coastlines (in these regions model evaluation results should be interpreted carefully). The magnitude of the interpolation error mainly depends on the station density, while the complexity of terrain has substantially less influence. On average over all regions and investigation days the target precision of the uncertainty estimate is reached. However, on local scales and for single days it can be clearly over- or underestimated. The application of satellite-derived predictors (LST and CC) yields no noteworthy improvement of the uncertainty estimate.
In the last study two regional climate simulations for Africa using the ERA-Interim driven COSMO-CLM (CCLM) model at two different horizontal resolutions (0.22° and 0.44°) are validated. It is assessed whether observed patterns and statistical properties of daily Tmin and Tmax are correctly represented in the model. The ERA-Interim reanalysis and a specially created observational dataset are used as reference. The observational dataset is generated by applying the RKRK algorithm (developed within the second study). The investigations show an occasionally large bias in Tmin and Tmax. The hemispheric summers are generally too warm and the temporal variability in temperature is too high, particularly over extra tropical Africa. The diurnal temperature range is overestimated by about 2°C in the northern subtropics but underestimated by about 2°C over large parts of the African tropics. CCLM reproduces the observed frequency distribution of daily Tmin and Tmax in all African climate regions, and the extreme values in the lower percentiles (5, 10, 20%) for Tmin are well simulated. The higher percentiles (80, 90, 95%) for Tmax are however overestimated by 2-5°C. For both Tmin and Tmax the 0.22° simulation is on average 0.5°C warmer than the 0.44° simulation. Additionally, the higher percentiles are about 1°C warmer for both Tmin and Tmax in the higher resolution run, while the lower percentiles in both runs match very well. Although the temperature pattern is represented in more detail along the coastlines and in topographically complex regions, the higher resolution simulation yields no qualitative improvement.
To summarize, the choice of the appropriate algorithm mainly depends on the interpolation conditions. In cases where the station density is high across the target region and the predictor space is adequately covered by observing stations, the computationally less demanding RK algorithm should be preferred. In regions where the station density is low the more robust RKRK algorithm should be the first choice. Due to the strong physical relation of both CC and LST to Tmin and Tmax the missing information is at least partially compensated for. The estimation of the interpolation uncertainty could be improved by applying a normal score transformation to the data prior to a kriging step. This is because the kriging assumption that the increments of the variable of interest are second order stationary can be approximately met by a normal score transformation.
In den vergangenen Jahren haben ökologische Fragen in der Naturstoffforschung mehr und mehr an Bedeutung gewonnen. Naturstoffe bilden dabei einen wichtigen Aspekt in der Aufrechterhaltung symbiotischer Systeme.
Symbiosen stellen eine der treibenden Kräfte der Evolution dar. Diese artenübergreifende Interaktion zweier Organismen ermöglicht die Evolution in wechselseitiger Anpassung, wobei per Definition in die Kategorien Mutualismus, Kommensalismus und Parasitismus unterschieden wird. Teilweise führt die obligatorische Abhängigkeit eines Organismus zum partiellen Merkmals- und Stoffwechselwegverlust, der durch seinen Symbiose-Partner kompensiert wird. In den meisten Fällen stellt Symbiose ein komplexes Netzwerk aus mehr als zwei Lebewesen dar.
Diese Arbeit beschreibt die Anwendung der Klonierungsmethode ExRec ("overlap extension PCR-yeast homologous recombination") für die vereinfachte Bereitstellung von Naturstoffen. Es konnte ein 45 kb großes Gencluster erfolgreich kloniert und zwei neue Peptide Ambactin und Xenolindicin aus Xenorhabdus charakterisieren werden, wobei letztgenanntes von einem stillen Gencluster stammt. ExRec stellt eine sehr effiziente und wichtige Methode für die Klonierung großer Gencluster als auch für die Klonierung aus Metagenombibliotheken und RNA Pools dar...
The 35 neutron deficient nuclides known as the p nuclei are sysnthesized mainly in the so-called γ process. Taking place in explosive supernova events, the existing seed distribution from prior nucleosynthesis is altered by photodisintegration reactions of the types (γ,n), (γ,p) and (γ,α).
The bulk of reaction rates needed in network calculations of the γ process are predicted by the Hauser-Feshbach Model. When using this theory, the largest uncertainties stem from the interaction between charged particles and nuclei described by optical model potentials.
An improvement of these potentials can be achieved by comparison to measured cross section data. However, because of the low energies of interest for nuclear astrophysics and the resulting low cross sections, suitable data are scarce.
This thesis extends the corresponding database by measurement of the reactions 165Ho(α, n), 166Er(α, n), 169Tm(p,n) and 175Lu(p,n) using the activation technique. While not particularly important for the γ process, the selected (α,n) and (p,n) reactions exhibit nearly exclusive sensitivity to the α- or proton-nucleus potential, respectively. Therefore, the results presented here are well suited to test and improve the predictive power of currently available parameterizations of these potentials
Abdominale Aortenaneurysmen sind in Industrienationen eine häufige Erkrankung der Personengruppe über 65 Jahre. Diese Dilatationen der abdominalen Aorta zeichnen sich durch eine lokale Inflammation aus, die mit der Infiltration von Immunzellen, dem Verlust von glatten vaskulären Muskelzellen und der Degeneration der extrazellulären Matrix einhergeht. Ursprünglich als Symptom einer Atherosklerose angesehen, sind die Ursachen dieser progressiv verlaufenden Erkrankung nach wie vor nicht vollständig verstanden; obwohl steigendes Alter, männliches Geschlecht, genetische Prädisposition, Rauchen und ein zuvor erlittener Myocardinfarkt als Risikofaktoren identifiziert werden konnten. Der lange Zeit asymptomatische Krankheitsverlauf, die Gefahr einer Ruptur mit häufig letalen Folgen und der Mangel einer effizienten pharmakologischen Therapie machen eine weitere Untersuchung dieser Erkrankung unabdingbar.
Diltiazem ist ein Inhibitor spannungssensitiver L Typ-Calciumkanäle, der seit über 25 Jahren zur Behandlung von arterieller Hypertonie, verschiedener Arrhythmien und Angina pectoris verwendet wird. Im Rahmen der vorliegenden Arbeit sollte untersucht werden, ob Diltiazem auch einen antianeurysmatischen Effekt besitzt. Eine vierwöchige subcutane Infusion des blutdrucksteigernden Hormons Angiotensin II führte nach vier Wochen zur Bildung abdominaler Aortenaneurysmen, sowie zu atherosklerotischen Gefäßveränderungen der thorakalen Aorta Apolipoprotein E (ApoE)-defizienter Mäuse. Eine parallele Therapie mit Diltiazem über das Trinkwasser konnte diese Entwicklung unabhängig vom arteriellen Blutdruck und damit unabhängig von der antihypertensiven Wirkung verhindern. Im Aortenbogen Diltiazem-behandelter Tiere konnte im Rahmen dieses in vivo-Modells nach sechs Tagen eine deutlich geringere lokale Expression proinflammatorischer Cytokine, wie Tumornekrosefaktor-a, Interleukin-1ß (IL1B) und Interleukin-6 (IL6), Chemokine, wie CCL2, und degenerativer Proteasen, wie der Matrix-Metalloprotease 9 (MMP9), festgestellt werden. Dies war die Folge einer reduzierten Anzahl von Macrophagen in der Gefäßwand. Zirkulierende proinflammatorische Cytokine, wie CCL12, konnten im Serum teilweise ebenfalls vermindert nachgewiesen werden.
Obwohl die antihypertensive Wirkung von Diltiazem in glatten vaskulären Muskelzellen vermittelt wird, war es nicht möglich, die Angiotensin II-induzierte Produktion von promigratorischem CCL2 und proinflammatorischem IL6 in isolierten Aortenringen ApoE-defizienter Mäuse oder in glatten vaskulären Muskelzellen der Ratte zu reduzieren. Diltiazem war zudem nicht in der Lage, die CCL2-induzierte Migration proinflammatorischer Ly6C+-Monocyten in vivo zu unterbinden. In isolierten peritonealen Macrophagen ApoE-defizienter Mäuse dagegen, konnte die IL6 induzierte Expression von IL1B- und CCL12-mRNA durch eine Inkubation mit Diltiazem verhindert werden. In der RAW264.7-Zelllinie, die morphologische und funktionelle Merkmale von Monocyten und Macrophagen aufweist, konnte die Dilitiazem-sensitive IL6-induzierte Expression von IL1B-mRNA in vitro ebenfalls nachgewiesen werden. Eine Stimulation mit IL6 war in diesen Zellen jedoch nicht ausreichend, um die Sekretion von IL1B-Protein auszulösen.
Thorakales Aortengewebe wies im Vergleich mit RAW264.7-Zellen eine veränderte Ausstattung spannungssensitiver Calciumkanäle auf. In letzteren fanden sich keine muskelzellspezifischen L-Typ-Calciumkanäle (CACNA1C), aber eine relevante Expression neuronaler P/Q-Typ-Calciumkanäle (CACNA1A). Mittels fluorimetrischer Bestimmung mit Fura-2AM konnte jedoch festgestellt werden, dass die intrazelluläre Calciumkonzentration Diltiazem-behandelter RAW264.7-Zellen unverändert war und der antiinflammatorische Effekt somit calciumunabhängig vermittelt wurde.
Diltiazem war nicht in der Lage, eine Lipopolysaccharid (LPS)-bedingte Inflammation in RAW264.7-Zellen zu unterbinden. Weder die LPS-induzierte Sekretion von IL1B Protein, noch die nucleäre Translokation des Transkriptionsfaktors NF-?B oder die Aktivierung des NF-?B-Promotors konnten durch eine Inkubation der Zellen mit Diltiazem verhindert werden. Diltiazem reduzierte jedoch, die IL6-induzierte Aktivierung des AP 1-Promotors unabhängig von der MAPK1-Phosphorylierung oder der Phosphorylierung und nucleären Translokation des Transkriptionsfaktors STAT3 zu unterbinden. Eine Unterdrückung von c-Jun N-terminale Kinase JNK- oder p38 Proteinkinase-vermittelten Signalwegen ist damit wahrscheinlich.
Das Pirinixinsäurederivat LP105 ist ein neuer Inhibitor der Arachidonat-5-Lipoxygenase (LOX5), der im Rahmen dieser Arbeit erstmals in vivo auf seine antianeurysmatischen Eigenschaften hin untersucht wurde. LOX5 katalysiert die Reaktion von Arachidonsäure zu Leukotrien A4 und kontrolliert damit einen wichtigen Schritt in der Synthese proinflammatorischer Leukotriene. LP105 war im Tiermodell nicht in der Lage die Angiotensin II-induzierte Bildung abdominaler Aortenaneurysmen in ApoE-defizienten Mäusen komplett zu unterbinden, führte aber über die Reduktion der vaskulären Inflammation zu einer deutlich verringerten Krankheitslast. LP105 selbst beeinflusste die mRNA-Expression verschiedener Enzyme des Arachidonsäuremetabolismus nicht, verstärkte jedoch durch die Blockade von LOX5 die Metabolisierung von Arachidonsäure über Arachidonat-15-Lipoxygenase und Cytochrom P450-Enzyme.
Gegenstand dieser Arbeit ist die Untersuchung der Genexpression der axonalen wachstumsassoziierten Proteine NAP-22, GAP-43 und CAP-23 in den dopaminergen Neuronen der Substantia nigra pars compacta (SNc), einer im Mesencephalon gelegenen Zellregion, relativ zu der Genexpression eines Referenzgens. Als Versuchstiere dienten sechs Monate alte, männliche CB6F1 Wildtypmäuse sowie sechs Monate alte, männliche CAP-23 transgene (CAP-23tg) Tiere, die das wachstumsassoziierte Protein CAP-23 überexprimieren. Die dopaminergen Zellen der SNc wurden zunächst morphologisch charakterisiert und ihre Ausdehnung im Mittelhirn durch alternierende Immunfärbungen der Tyrosinhydroxylase, einem Schlüsselenzym der Dopaminsynthese, sowie Toluidinblaufärbungen ermittelt. Anschließend wurden die Neurone durch die Methode der Lasermikrodissektion (LMD) im Zellverband isoliert. Hierfür war die Optimierung der Toluidinblaufärbung erforderlich, mit dem Ziel, sowohl eine gute Färbung der Neurone als auch eine hohe RNA-Nativität zu erzielen. Die RNA wurde isoliert und nach Integritätsprüfung in cDNA umgeschrieben. Daraufhin erfolgte die Analyse der Genexpression der beschriebenen Gene durch die quantitative Echtzeit-Polymerase-Kettenreaktion (qRT-PCR). Dabei war feststellbar, dass das Transgen Cap-23 in den transgenen Tieren stärker exprimiert wird als das Endogen Nap-22. Es zeigte sich jedoch kein signifikanter Unterschied der Expression von endogenem Nap-22 und endogenem Gap-43 in den CAP-23tg Tieren im Vergleich zu der Expression in den Wildtypmäusen. Das bedeutet, dass die Überexpression von Cap-23 in den transgenen Tieren die Expression der mRNA der beiden endogenen wachstumsassoziierten Proteine NAP-22 und GAP-43 nicht beeinflusst. Auf Grundlage der in dieser Arbeit vorgelegten Ergebnisse soll in Folgeexperimenten untersucht werden, inwieweit die Überexpression von CAP-23 die Reorganisationsfähigkeit dopaminerger Neuronen der SNc nach einer Schädigung beeinflusst, wie sie zum Beispiel beim Menschen im Verlauf des Morbus Parkinson beobachtet wird.
Lipid mediators have been referred as bioactive lipids, whose change in lipid levels resulted in functional or pathophysiological consequences. They are in the focus of biological research, nevertheless this is a late recognition due to the many difficulties of working with bioactive lipids due to their properties: hydrophobic, unstable and they occur in only in small quantities. Liquid chromatography and mass spectrometry have facilitated the work with them. Especially in this field, cardiovascular diseases and inflammatory mediated diseases and cancer are pathophysiological events where LMs are deregulated. Additionally, if the modulation of one LM pathway is not sufficient to overcome a disease, the combination of targeting two or more pathways could be effective. Needless to say, lipid signaling cascades are complicated pathways and possible shunting into other pathways when inhibiting or genetically deleting enzymes should be taken into consideration.
The first part of this work has focused on enzymes that metabolize eicosanoids, like mPGES-1 and 5-LO. mPGES-1 is an important enzyme metabolizing PGH2 and one of the key players of the AA cascade. Its product, PGE2 plays an important role in different inflammatory processes. Inhibition of the mPGES-1 might be a promising step to circumvent COX dependent side effects of NSAIDs. The class of quinazoline compounds around the lead structure FR20 has been investigated on isolated human and murine enzyme, in HeLa cells and in different human whole blood (HWB) settings to establish the possible effects of these compounds on eicosanoid profiling. Novel compounds with inhibitory activities in the submicromolar range (IC50: 0.13 µM - 0.37 µM on isolated enzyme) were obtained which were also effective in cells and HWB. Furthermore, pharmacological profiling of toxicity and lipid screening with LC/MS-MS revealed that compounds also reduce PGE2 levels in intact cells and whole blood; they do not impair cell viability but lack the ability to inhibit the murine mPGES-1 enzyme. This problem could be overcome by means of chemical synthesis varying the scaffold (quinoline, quinazoline) or introducing biosteric replacement in the phenyl moieties.
5-LO is a relevant enzyme that plays an important role in eicosanoid signaling in particular in leukotriene biosynthesis. Leukotrienes are involved in asthma, allergic rhinitis, glomerulonephritis, rheumatoid arthritis, sepsis, cancer and atherosclerosis. Moreover, genetic variants in the genes of the 5-LO pathway have been associated with the risk of development of acute myocardial infarction and stroke. Eicosanoids are increased in infectious exacerbations of chronic obstructive pulmonary disease (COPD). They are also elevated in the airways of stable COPD patients compared to healthy subjects. Therefore, 5-LO has attired the scientific community as a possible therapeutic target to treat the several disease conditions listed before. In this study an extensive evaluation of imidazo[1,2-a]pyridines as a suitable lead structure for novel 5-LO targeting compounds was presented Within the three publications, 5-LO inhibitory activity of synthesized compounds was investigated in intact PMNL, a cell-free assay, in human whole blood and rodent cells to both elucidate structure-activity relationships and compounds were in vitro pharmacological evaluated. Chemical modifications for lead optimization via straight forward synthesis were used to combine small polar groups (hydroxy, and methoxy groups) which led to a suitable candidate with desired in vitro pharmacokinetic profile in terms of solubility and intrinsic clearance without showing any cytotoxicity. More than 70 imidazo[1,2-a]pyridine derivatives have been synthesized, resulting in more than 50 active compounds. Although it was not possible to introduce a solubility group without impairing the 5-LO inhibitory activity, combination of small polar groups lead to a more favorable solubility and in vitro metabolic stability. Overall, the development of 5-LO inhibitors with high efficacy and selectivity in vivo will provide a possible treatment for patients having one of the diseases where leukotriene biosynthesis plays an important role.
Other types of 5-LO inhibitors have been synthesized during this work, NO-NSAIDs can be postulated as novel 5-LO inhibitors that could circumvent the undesired side-effects of inhibiting COX isoforms (ulcer perforation, gastrointestinal bleeding and in some cases death). It is suggested that NO group is released in situ or after compounds are metabolized. NO-NSAIDs maintain the same anti-inflammatory properties by inhibiting 5-LO in clinical relevant concentrations. NO-NSAIDs are currently under clinical trial for the treatment of diseases where inflammation plays an important role. Synthesis of NO-NSAIDs is straightforward and can be applied for most NSAIDs recently published. Among them, the most promising candidate is NO-sulindac that was able to inhibit 5-LO product formation in intact PMNL, purified 5-LO and HWB in micromolar concentration. Additional experiments regarding their mechanism are currently being performed.
The present study could show that dual inhibitors are an interesting approach that is practicable. It has been used in the recent years to overcome side-effects and diseases concerning more pathophysiological conditions. MetS is an example of a conjunction of symptoms: hyperglycemia, hypertriglyceridemia, hypertension and obesity. Due to its complex nature, the current treatment strategies of MetS require multiple pharmacological compounds regulating lipid and glucose homeostasis as well as blood pressure and coagulation. This study describes the first synthesis of dual sEH/PPAR modulators as potential agents for treatment of MetS. Following a combinatorial approach, an acidic head group known as a pharmacophore important for PPARα/γ dual agonistic activity was combined with different hydrophobic urea derivatives in order to introduce an epoxide mimetic (sEH pharmacophore). The resulting compounds yielded high inhibition of sEH and different patterns of PPAR agonistic activity. This study demonstrates that the pharmacophores of PPAR agonists and sEH inhibitors can be easily combined, resulting in a simplified blueprint of a dual sEH/PPAR modulator. Further in vivo pharmacological evaluation studies are needed in order to evaluate, which pattern of PPAR activation shows the most promising profile for treatment of metabolic syndrome.
Another example of dual pharmacology has been presented in this work. Natural products derived compounds were able to target sEH and exhibit promising antiproliferative properties. The principle of addressing multiple targets by natural products can be transferred to synthetic multi-target ligands. In conclusion, several (E)-styryl-1H-benzo[d]imidazoles were synthesized and evaluated on recombinant sEH after an initial hit (IPS) that lead to potent sEH inhibitors exhibiting antiproliferative activities. Following the natural product-inspired design, the desired biological activity from a bacterial secondary metabolite has been enhanced and transferred to a synthetic compound series. The resulting compounds were accessible via an easy synthetic route and offered a possibility to investigate the structure-activity relationships. The natural product inspired drug design extends the valuable role of natural products as drugs and drug precursors to templates for fully synthetic bioactive molecules. Simplification of natural products by means of chemical synthesis could lead to an interesting field in the treatment of cancer.
Affinity chromatography has been used to unravel unknown- and off-target effects which either contribute to the biological effect of the inhibitor or that counteract or lead to undesired side-effects. During this PhD work, two main projects related to this technique have been established. In the first one, related to an imidazo[1,2-a]pyridine inhibitor (EP6), it has been shown that epoxide-sepharose is a reliable material in order to couple compounds bearing an alcohol. Coupling of an analogue of EP6 to the sepharose has been accomplished and affinity towards 5-LO was demonstrated. The challenging step is to discern from unspecific protein binders and analysis via SDS-PAGE separation and mass spectrometry. Further experiments using other cell types or improving SDS-PAGE analysis (e.g. 2D gel analysis) should be useful to unravel EP6 off-target effect. During the second project related to off-target effects of celecoxib and DMC, the main problem was the coupling of the functional group to the sepharose. Affinity towards COX-2 could not be demonstrated pointing out the inefficient coupling method. Higher pH values during coupling reaction should be tested in further experiments. Nevertheless, affinity chromatography is a useful technique to unravel cellular mechanisms.
Sphingolipid metabolism is also a recent area that attired the attention of cancer researchers, due to their important roles in cell proliferation and apoptosis. Ceramide metabolism inhibitors were synthesized and evaluated on different assay systems in order to assess their efficacy on several cancer lines. Remarkably, 2,2-dimethyl-1,3-dioxolan-4-yl)methanamine (32) was a useful scaffold to mimic the sphingoid base. This key intermediate was used to produce ceramide analogues that could enter the cell and target apoptosis machinery. EB143 (38) increased ceramide levels in an in vitro ceramide synthase assay in a dose-response manner meaning that ceramide synthase was not inhibited but the ceramide de novo synthesis was activated. This effect was due to the fact that EB143 is a cytotoxic compound with an interesting antiproliferative profile. Further chemical modifications should be carried out to modulate this effect.
COX and LO inhibitors are cancer-preventive not only by inhibiting specific antiapoptotic AA metabolites but also by facilitating accumulation of AA which promotes neutral SMase activity and increases the proapoptotic ceramide. Several 5-LO inhibitors have been evaluated on several cancer lines and sphingolipid levels were measured in order to obtain a relationship. A549, Capan-2 and MCF-7 cells line were incubated with synthetic 5-LO inhibitors and zileuton. Compounds were cytotoxic to all cancer cell lines except from A549. Needless to say, zileuton did not exhibit a cytotoxic profile. Synthetic 5-LO inhibitors were able to modify ceramide levels but were useless when coincubating with sphingolipid metabolism inhibitors (myoricin, amitryptiline etc.) and inconsistent results were obtained. On the contrary, zileuton selectively increased Cer-C16 levels and in less extend Cer-C24:1. When using a SPT inhibitor (myoricin) alone was able to reduce C24:1 and Cer-C16:0 levels below the control, a similar effect occurred when incubation the cells with zileuton and myriocin. Interestingly, treatment of zileuton together with either amitryptiline or desipramine led to a decrease in Cer-C24:1 and levels Cer-C16:0 but the inhibition was not complete indicating that probably the de novo pathway has an important role. Further investigations on mRNA level should be carried out in order to discern which CerS is activated.
The main objective of the present thesis was the synthesis of lipid signaling modulators and their evaluation in vitro as therapeutic strategy to overcome pathophysiological conditions (cancer, metabolic syndrome, etc). It has been accomplished on many relevant targets like 5-LO, mPGES-1, sEH and PPAR and these lipid signaling modulators could be used in the treatment of diseases conditions where lipid mediators play an important role.
Die im Mittelhirn lokalisierten dopaminergen (DA) Neurone sind in einer Vielzahl von Hirnfunktionen involviert und werden aufgrund von anatomischen, molekularen sowie funktionellen Unterschieden in mehrere Subpopulationen aufgeteilt. DA Neurone, die in der Substantia nigra (SN) pars compacta lokalisiert sind, spielen durch ihre Projektion in das dorsale Striatum eine Rolle in der Steuerung der Willkürmotorik. Die Area tegmentalis ventralis (VTA) enthält DA Neurone, die in den präfrontalen Cortex, die basolateralen Amygdala sowie den Nucleus accumbens projizieren und in höheren kognitiven Funktionen, wie dem Arbeitsgedächtnis, der Motivation sowie belohnungsassoziierten Lernvorgängen involviert sind.
In dieser Arbeit wurden die differentiellen Eigenschaften des transienten A-Typ Kaliumstroms sowie dessen Funktion für die intrinsische elektrische Aktivität und die Integration von synaptischen Eingängen in Subpopulationen von DA Neuronen untersucht. Dieser spannungsgesteuerte Strom ist an der Kontrolle der Schrittmacheraktivität beteiligt, beeinflusst die Form und Dauer von Aktionspotentialen und moduliert die Erregbarkeit des somatodendritischen Kompartiments. Der A-Typ Kaliumkanal besteht in DA Neuronen aus einem Tetramer von porenbildenden KV4.3 α-Untereinheiten. Die Koexpression von akzessorischen β-Untereinheiten moduliert maßgeblich die biophysikalischen Parameter des A-Stroms, wie z. B. die Kinetik der Inaktivierung sowie die Spannungsabhängigkeit der Aktivierung und Inaktivierung. Zu diesen β-Untereinheiten gehören die cytoplasmatischen Kaliumkanal-interagierenden Proteine (KChIPs) sowie die transmembranären Dipeptidylpeptidase-ähnlichen Proteine (DPPLs). Während in DA SN Neuronen vor allem KChIP3 exprimiert wird und einen schnell inaktivierenden A-Strom gewährleistet, sind DA VTA Neurone durch die zusätzliche Expression der KChIP4a Splice-Variante charakterisiert, welche durch Inhibition der schnellen Inaktivierung in einem langsam inaktivierenden A-Strom resultiert. Die Bedeutung der differentiellen KChIP4a-Expression für DA Mittelhirnneurone wurde mit Hilfe von KChIP4-Knock-Out (KO)-Mäusen untersucht. Alle Versuche wurden in vitro an akuten Hirnschnitten adulter Wildtyp (WT)- und KChIP4-KO-Tiere durchgeführt und die DA neurochemische Identität sowie die Lage der gemessenen Zellen im Anschluss immunhistochemisch bestätigt. Die biophysikalischen Eigenschaften des A-Stroms wurden mit der Patch-Clamp Technik in der nucleated outside-out Konfiguration untersucht, welche optimale Bedingungen für Voltage-Clamp Experimente gewährleistet. Der A-Strom in DA VTA Neuronen aus KChIP4-KO-Tieren wies dabei eine siebenfach schnellere Inaktivierungskinetik als in vergleichbaren Neuronen aus WT-Tieren auf, während die Inaktivierungskinetik in DA SN Neuronen aus KChIP4-KO-Tieren lediglich um den Faktor zwei schneller war. Außerdem wurde festgestellt, dass selektiv in DA VTA Neuronen das halbmaximale Aktivierungspotential ebenfalls von der KChIP4-Expression abhängig war. Somit konnte gezeigt werden, dass die Expression von KChIP4 für die charakteristischen A-Strom-Eigenschaften von DA VTA Neuronen verantwortlich ist.
Die funktionelle Rolle des KChIP4-vermittelten langsamen A-Stroms wurde mit Hilfe von Current-Clamp Messungen in Ganzzellableitungen untersucht. Dabei wurde deutlich, dass die Expression von KChIP4 die Spontanaktivität von DA SN und VTA Neuronen nicht beeinflusst. Das für DA VTA Neuronen charakteristische verzögerte Wiedereintreten der Spontanaktivität nach einer Inhibition zeigte allerdings eine Abhängigkeit von der KChIP4-Expression, da der sog. rebound delay in DA VTA Neuronen aus KChIP4-KO-Tieren signifikant kürzer war, als in Zellen aus WT-Tieren. Dies konnte sowohl durch Strominjektionen, die in ihrer Kinetik GABAergen synaptischen Eingängen ähnelten, als auch nach direkter Aktivierung von GABA-Rezeptoren durch iontophoretische GABA-Applikation bestätigt werden. KChIP4 könnte somit einen internen Verzögerungsmechanismus nach einer transienten Inhibition von DA Neuronen gewährleisten, die z.B. bei Präsentation von aversiven Stimuli sowie beim Ausbleiben von erwarteten Belohnungen auftritt. Somit könnte die physiologische Relevanz des KChIP4-gesteuerten A-Stroms in der Integration von inhibitorischen synaptischen Eingängen im Kontext von belohnungsgesteuerten Lernprozessen liegen.
The human brain is an unparalleled system: Through millions of years of evolution and during a lifespan of learning, our brains have developed remarkable abilities for dealing with incoming sensory data, extracting structure and useful information, and finally drawing the conclusions that result in the actions we take. Understanding the principles behind this machinery and building artificial systems that mimic at least some of these capabilities is a long standing goal in both the scientific and the engineering communities. While this goal still seems unreachable, we have seen tremendous progress when it comes to training data-driven algorithms on vast amounts of training data, e.g. to learn an optimal data model and its parameters in order to accomplish some task. Such algorithms are now omnipresent: they are part of recommender systems, they perform speech recognition and generally build the foundation for many semi-autonomous systems. They start to be integral part of many technical systems modern technical societies rely on for their everyday functioning. Many of these algorithms were originally inspired by biological systems or act as models for sensory data processing in mammalian brains. The response properties of a certain population of neurons in the first stages of the mammalian visual pathway, for example, can be modeled by algorithms such as Sparse Coding (SC), Independent Component Analysis (ICA) or Factor Analysis (FA). These well established learning algorithms typically assume linear interactions between the variables of the model. Most often these relationships are expressed in the form of a matrix-vector products between a matrix with learned dictionary-elements (basis vectors as column vectors) and the latent variables of these models. While on the one hand this linear interaction can sometimes be justified by the physical process for which the machine learning model is proposed, it is on the other hand often chosen just because of its mathematical and practical convenience. From an optimal coding point of view though, one would generally expect that the ideal model closely reflect the core interactions of the system it is modeling. In vision for example, one of the dominant processes giving rise to our sensory percepts are occlusions. Occluding objects are omnipresent in visual scenes and it would not be surprising if the mammalian visual system would be optimized to process occluding structures in the visual data stream. Yet, the established mathematical models of the first stages of the visual processing path (like, e.g., SC, ICA or FA) all assume linear interactions between the active image components. In this thesis we will discuss new models that aim to approximate the effects of occluding components by assuming nonlinear interactions between their activated dictionary elements. We will present learning algorithms that infer optimal parameters for these models given data. In the experiments, we will validate the algorithms on artificial ground truth data and demonstrate their ability to recover the correct model parameters. We will show that the predictions made by these nonlinear models correspond better to the experimental data measured in-vivo than the predictions made by the established linear models. Furthermore, we systematically explore and compare a large space of plausible combinations of hyperparameters and preprocessing schemes in order to eliminate any effects of artefacts on the observed results. Training nonlinear sparse coding models is computationally more demanding than training linear models. In order to perform the numerical experiments described in this thesis we developed a software framework that facilitates the implementation of massive parallel expectation maximization (EM) based learning algorithms. This infrastructure was used for all experiments described in here, as well as by collaborators in projects we will not discuss. Some of the experiments required more than 1017 floating point operations and were run on a computer cluster running on up to 5000 CPU Cores in parallel. Our parallel framework enabled these experiments to be performed.
Ziel der vorliegenden prospektiven, experimentellen, randomisierten kontrollierten In-vitroStudie war es, zwei Dentinadhäsive, die der sechsten (One-Up-Bond F, Tokuyama) und siebten (G-Bond, GC Tokio) Generation angehören, unter ISO-Bedingungen zu untersuchen und einer Kontrollgruppe (Clearfil SE, Kuraray), die der sechsten Generation zugeordnet wird, gegenüberzustellen. Neunzig unversehrte humane Molaren der zweiten Dentition wurden eingebettet. Das Dentin wurde mit Siliziumcarbidscheiben der Körnung 600 bearbeitet, um eine Schmierschicht zu erhalten. Anschließend wurden die Dentinproben randomisiert in drei Gruppen eingeteilt und die jeweiligen Dentinadhäsive wurden nach Herstellerangaben appliziert. Mittels einer Versuchsapparatur, die in Anlehnung an die ISO/TS 11405:2003 hergestellt wurde, wurde das Kompositmaterial Tetric EvoCeram in der Farbe A2 aufgetragen und lichtgehärtet. Eine Alterung der Proben fand bei 500 Thermocycling-Zyklen bei Temperaturen von 5°C und 55°C statt. Mit einer Universalprüfmaschine Zwicki (Vorschubgeschwindigkeit 0,5 mm/min) wurde die Scherhaftfestigkeit der Proben bestimmt. Anschließend wurden die abgescherten Dentinproben unter dem Rasterelektronenmikroskop bei einer Vergrößerung von 20-fach und 2000-fach bezüglich der auftretenden Frakturmodi untersucht.
Die Haftkraft-Mittelwerte von Clearfil SE betrugen 4,22 MPa, von G-Bond 3,83 MPa und von One-Up-Bond F 7,11 MPa. Bei der statistischen Analyse mittels Kruskal-Wallis-Test wurde die Signifikanz ermittelt. Eine Signifikanz zwischen den Dentinadhäsiven One-UpBond F und G-Bond lag vor. Einzig Clearfil SE war statistisch nicht signifikant gegenüber den anderen Produkten. Die Bruchanalyse ergab, dass G-Bond eine hohe Anzahl (46,7 %) an kohäsiven Frakturen aufwies, Clearfil SE mehr als die Hälfte (66,7 %) gemischte Frakturen und dass One-Up-Bond F kaum adhäsive (3,3 %) Frakturen zeigte, sondern hauptsächlich (80 %) gemischte Brüche. Signifikante Unterschiede waren zwischen dem Bruchverhalten von Clearfil SE und G-Bond sowie zwischen G-Bond und One-Up-Bond F zu beobachten.
Unter der Limitation der vorliegenden In-vitro-Studie erscheint die Anwendung von G-Bond aufgrund der erhaltenen statistisch signifikant niedrigeren Haftwerten als nicht empfehlenswert.
Silicon wafers such as Silicon on Insulator (SOI) and strained silicon on Insulator (sSOI) are the essential and basic materials of advanced microelectronic devices. However, they often show various kinds of crystal defects which impair the function of these devices. The most efficient method to date, for detecting such defects and for determining their density, is to delineate them by etching the wafers with a suitable etching solution and characterise them via light optical microscopy. Etch pits are formed at defect sites which are etched at a faster rate than at the perfect lattice. The standard etching solution used for SOI and sSOI is a dilute version of Secco. As Secco contains carcinogenic and environmentally hazardous chromium (VI), the use of which is or will be restricted by law in many countries, suitable chromium (VI)-free etching solutions like Organic Peracid Etches (OPE), modified Chemical Polishing Etches (CP) like CP4 mod and mixtures with organic oxidizing agents like chloranil (CA) have been developed for the successful delineation of various types of crystal defects.
However there are still nanometer-sized defects which are hard to detect or escape detection by this method. Copper decoration is a well known method to magnify these defects. It consists in applying a copper nitrate solution to the back of the SOI or sSOI wafer. On annealing, copper diffuses through the substrate and the BOX (buried oxide) to the SOI/sSOI film and on quenching to room temperature, copper precipitates as copper silicide, SiCu3, foremost at crystal defects where the lattice strain is greater than at perfect lattice sites. These silicides increase the volume in these parts of the crystal lattice and defect magnification occurs. A considerable disadvantage of this method is its tendency for artefact formation, when the copper concentration used is too high, with the copper precipitating at the film surface. The consequence is a higher density of etch pits whereby true defect etch pits cannot be differentiated from those caused by artefacts.
The aim of this thesis is to show that the processes of decorating and etching can be combined successfully to delineate all crystal defects in SOI and sSOI. An ideal result would have been to find a copper decoration procedure that decorates all existing crystal defects at a copper concentration that avoids artefact formation.
Protein quality control systems (PQC), i.e. UPS and aggresome-autophagy pathway, have been suggested to be a promising target in cancer therapy. Simultaneous pharmacological inhibition of both pathways have shown increase efficacy in various tumors, such as ovarian and colon carcinoma. Here, we investigate the effect of concomitant inhibition of 26S proteasome by FDA-approved inhibitor Bortezomib, and HDAC6, as key mediator of the aggresome-autophagy system, by the highly specific inhibitor ST80 in rhabdomyosarcoma (RMS) cell lines. We demonstrated that simultaneous inhibition of 26S proteasome and selective aggresome-autophagy pathway significantly increases apoptosis in all tested RMS cell lines. Interestingly, we observed that a subpopulation of RMS cells was able to survive the co-treatment and, upon drug removal, to recover similarly to untreated cells. In this study, we identified co-chaperone BAG3 as the key mediator of this recovery: BAG3 is transcriptionally up-regulated specifically in the ST80/Bortezomib surviving cells and mediates clearance of cytotoxic protein aggregates by selective autophagy. Impairment of the autophagic pathway during the recovery phase, both by conditional knock-down of ATG7 or by inhibition of lysosomal degradation by BafylomicinA1, triggers accumulation of insoluble protein aggregates, loss of cell recovery and cell death similarly to stable short harpin RNA (shRNA) BAG3 knock-down. Our results are the first demonstration that BAG3 mediated selective autophagy is engaged to cope with proteotoxicity induced by simultaneous inhibition of constitutive PQC systems in cancer cell lines during cell recovery. Moreover, our data give new insights in the regulation of constitutive and on demand PQC mechanisms pointing to BAG3 as a promising target in RMS therapy.
Am Ende seiner Tage sprach der König Salomon: "Die Sonne geht auf und unter [...]. Was gewesen ist, wird [wieder] sein, was getan worden ist, wird [wieder] getan, und es gibt nichts Neues unter der Sonne".1 Im August des Jahres 1881, beim Spaziergang durch die Wälder am See von Silvaplana, bei einem mächtigen, pyramidal aufgetürmten Block, "6000 Tausend Fuß jenseits von Mensch und Zeit" kam einem Professor der klassischen Philologie jener Gedanke wieder – der Gedanke der "Ewigen Wiederkunft des Gleichen", die er später als das Hauptprinzip der altgriechischen Zeitauffassung formulierte. Der Professor hieß Friedrich Nietzsche.2 Mehr als hundert dreißig Jahre sind nach seinem Spaziergang vergangen, und mehr als hundert dreißig Jahre dauert die Diskussion über die zyklische und lineare Zeit. Es wurde mehrmals behauptet und wieder verworfen, dass der Hauptunterschied zwischen dem "hebräischen" und "griechischen" Denken, zwischen den "Gläubigen" und den "Heiden" gerade in dieser Zeitauffassung besteht. Die mythische Zeit der Griechen sei räumlich und statisch, sie habe kein Ziel und keinen Zweck, sie wandle im ewigen Kreislauf gefühllos und träge, ohne Anfang und Ende, ohne Wohin und Woher, ohne Hoffnung. Die Zeit der Tora hingegen sei zielgerichtet. Die Erschaffung der Welt und die Sintflut, der Auszug aus Ägypten und die Wüstenwanderung – all dies seien einmalige Ereignisse, welche sich nie wiederholen würden. Sie alle hätten einen Zweck – die Erlösung der Menschheit. Jede von ihnen sei ein Fortschritt – ein Schritt auf dem Pfad der Geschichte, der Geschichte mit Anfang und Ende, mit Wohin und Woher, mit Hoffnung.3
Die vorliegende Arbeit beabsichtigt nicht, die intuitive Völkerpsychologie zu untersuchen. Vielmehr handelt es sich hier um die Vorstellungen einer begrenzten Gruppe der mittelalterlichen jüdischen Intellektuellen aus dem Spanien des 12. Jhs. Ihre Gedanken waren gleichzeitig von der griechischen Philosophie und dem jüdischen Messianismus geprägt. Eben diese eigenartige Kombination macht die Frage nach ihrer Zeitauffassung so spannend. Als Quelle bei einer solchen Fragestellung scheinen mir die beiden Bücher des Rabbi Abraham Ibn Daud von Interesse zu sein – sein Geschichtsbuch Sefer ha-Qabalah (SQ) und sein philosophisch-theologisches Traktat Al-ʿAqīdah ar-Rafīʿah (AR).
Abraham Ibn Daud, Geschichtsschreiber, Philosoph, Astronom, vermutlich auch Arzt, wurde geboren um 1110 in Cordoba, der Hauptstadt des umayyadischen Kalifates und dem kulturellen Zentrum Andalusiens des 12. Jhs. Er war ein Sohn der Tochter des berühmten Gelehrten Isaak Albaliyah.4 Die Erziehung genoss er im Hause dessen Sohnes, seines Onkels, und dem Schüler von Isaak Alfasi, – Baruch Albaliyah.5 Aus seinen Schriften kann man schließen, dass er ausreichende Kenntnisse sowohl in der Bibel, dem Talmud, der hebräischen Poesie als auch in den Naturwissenschaften und der griechischen Philosophie besaß. Darüber hinaus soll er auch mit der polemischen Literatur der Christen, der Moslems und der Karäer, eventuell auch mit dem Evangelium und dem Koran vertraut gewesen sein. Von seinen Werken sind uns sieben bekannt, zwei davon allerdings nur ihrem Namen nach.6 Das auf Arabisch verfasste theologisch-philosophische Traktat Al-ʿAqīdah ar-Rafīʿah (AR, "Der erhabene Glaube") ist nur in zwei hebräischen Übersetzungen aus dem 14. Jh. – Emunah Ramah (ER)7 von R. Salomon Ben Labi und Emunah Niśʾah (EN)8 von R. Samuel Moṭoṭ erhalten.9 Das traditionshistorische Buch Sefer ha-Qabalah (SQ, "Buch der Tradition")10 wurde auf Hebräisch verfasst und von drei weiteren ebenso auf Hebräisch geschriebenen Werken begleitet: Divrey Malkey Yisraʾel (DMY, "Geschichte der Könige Israels"),11 Midraš Zeḫaryah (MZ, "Auslegung der Prophetie Sacharjas")12 und Zeḫer Divrey Romi (ZDR, "Chronik der römischen Geschichte").13
Aim: The aim of this study was to measure cortico-cortical connectivity in multiple sclerosis (MS) patients by TMS-evoked potential (TEP) latencies in EEG evoked by transcranial magnetic stimulation (TMS) of the hand area of the primary motor cortex of one hemisphere. TEPs were recorded on the stimulated- and at the homologue site in the non-stimulated contralateral hemisphere. Both interhemispheric directions were tested. Interhemispheric latencies of the two main reproducible TEPs, the positive component at 60 ms and the negative component at 100 ms (P60 and N100, respectively), were expected to be significantly prolonged in MS-patients compared to healthy volunteers.
Material and methods: The study compared interhemispheric propagation of P60 and N100 in groups of 12 patients with early-stage relapsing-remitting MS (RRMS) and 16 age- and gender-matched healthy controls. The study was approved by the Ethics Committee of the Medical Faculty of the Goethe-University of Frankfurt/Main and conformed to the latest revision of the Declaration of Helsinki of 2008. TEPs were recorded by means of EEG and their latencies were statistically evaluated in 10 channels around the stimulation site and in 10 corresponding electrodes in the non-stimulated contralateral hemisphere. Interhemispheric conduction time was calculated by the difference of TEP latency in non-stimulated vs. stimulated hemisphere.
Results: An ANOVA on interhemispheric conduction time showed a significant prolongation for the N100 from left to right hemisphere in MS compared to controls, while no group differences were found for the P60 and the N100 from right to left hemisphere.
Conclusion: The results provide first evidence that the N100 may constitute an interesting marker to measure interhemispheric conduction delays in early-stage RRMS. The specificity of the present finding and its relation to fiber tract pathology should be examined in further correlative analyses with diffusion tensor imaging and other structural MRI data.
Die Adoleszenz, d.h. die Reifungsphase des Jugendlichen zum Erwachsenen, stellt einen zentralen Abschnitt in der menschlichen Entwicklung dar, der mit tief greifenden emotionalen und kognitiven Veränderungen verbunden ist. Neure Studien (Bunge et al., 2002; Durston et al., 2002; Casey et al., 2005; Crone et al., 2006; Bunge and Wright, 2007) machen deutlich, dass sich die funktionelle Architektur des Gehirns während der Adoleszenz grundlegend verändert und dass diese Veränderungen mit der Reifung höherer kognitiven Funktionen in der Adoleszenz assoziiert sein könnten. Messungen des Gehirn-Volumens mit Hilfe der Magnet-Resonanz-Tomographie (MRT) zum Beispiel zeigen eine nicht-lineare Reduktion der grauen und eine Zunahme der weißen Substanz während der Adoleszenz (Giedd et al., 1999; Sowell et al., 1999, 2003). Des weiteren treten in dieser Zeit Veränderungen in exzitatorischen und inhibitorischen Neurotransmitter-Systemen auf (Tseng and O’Donnell, 2005; Hashimoto et al., 2009). Zusammen deuten diese Ergebnisse darauf hin, dass während der Adoleszenz ein Umbau der kortikalen Netzwerke stattfindet, der wichtige Konsequenzen für die Reifung neuronaler Oszillationen haben könnte. Im Anschluss an eine Einführung im Kapitel 2, fasst Kapitel 3 der vorliegenden Dissertation die Vorbefunde bezüglich entwicklungsbedingter Veränderungen in der Amplitude, Frequenz und Synchronisation neuronaler Oszillationen zusammen und diskutiert den Zusammenhang zwischen der Entwicklung neuronaler Oszillationen und der Reifung höhere kognitiver Funktionen während der Adoleszenz. Ebenso werden die anatomischen und physiologischen Mechanismen, die diesen Veränderungen möglicherweise zu Grunde liegen könnten, theoretisch vorgestellt. Die in Kapitel 4-6 vorgestellten eigenen empirischen Arbeiten untersuchen neuronale Oszillationen mit Hilfe der Magnetoencephalographie (MEG), um die Frequenzbänder und die funktionellen Netzwerke zu charakterisieren, die mit höheren kognitiven Prozessen und deren Entwicklung in der Adoleszenz assoziiert sind. Hierzu wurden drei Experimente durchgeführt, bei denen MEG-Aktivität während der Bearbeitung einer Arbeitsgedächtnisaufgabe und im Ruhezustand aufgezeichnet wurde. Die Ergebnisse dieser Experimente zeigen, dass Alpha Oszillationen und Gamma-Band Aktivität sowohl task-abhängig als auch im Ruhezustand gemeinsam auftreten. Darüber hinaus ergänzen die vorliegenden Untersuchungen Vorarbeiten, indem sie eine Wechselwirkung zwischen beiden Frequenzbändern aufgezeigt wird, die als ein Mechanismus für das gezielte Weiterleiten von Informationen dienen könnte. Die in Kapitel 6 vorgestellten Entwicklungsdaten weisen weiterhin darauf, dass in der Adoleszenz späte Veränderungen im Alpha und Gamma-Band stattfinden und dass diese Veränderungen involviert sind in die Entwicklung der Arbeitsgedächtnis-Kapazität und die Entwicklung der Fähigkeit, Distraktoren zu inhibieren. Abschliessend werden in Kapitel 7, die in dieser Dissertation vorgestellten Arbeiten, aus einer übergeordneten Perspektive im Gesamtzusammenhang diskutiert.
In der vorliegenden Arbeit wird untersucht, wie das Gehirn Bewusstsein erzeugt. Diese Frage wird als eines der größten Rätsel der heutigen Wissenschaft angesehen: Wie kann es sein, dass aus der Aktivität der Nervenzellen unsere subjektive Welt entsteht? Es ist offensichtlich nicht einfach, diese Frage wissenschaftlich zu untersuchen. Eine der vorgeschlagenen Strategien für die Untersuchung von Bewusstsein behauptet, dass man zunächst die neuronalen Korrelate des Bewusstseins finden sollte (Koch, 2004). Einer Definition zufolge sind die neuronalen Korrelate des Bewusstseins die kleinste Menge neuronaler Prozesse, die hinreichend für eine bestimmte bewusste Erfahrung sind (zum Beispiel für die bewusste Erfahrung des Blaubeergeschmacks). Manche behaupteten, die Entdeckung der neuronalen Korrelate des Bewusstseins würde es erlauben, dem Rätsel des Bewusstseins näher zu kommen (Crick & Koch, 1990). Nur wie soll man die neuronalen Korrelate des Bewusstseins finden? Eine relativ einfache Strategie dafür wurde schon vor mehr als 20 Jahren beschrieben. Es sollten einfach experimentelle Bedingungen erschaffen werden, in welchen ein Reiz manchmal bewusst wahrgenommen wird und manchmal nicht (Baars, 1989). Solche Analysen, die Bedingungen mit und ohne bewusste Wahrnehmung vergleichen, werden als „Kontrastierungsanalyse“ bezeichnet (da zwei Bedingungen miteinander kontrastiert werden). Es existieren viele verschiedene experimentelle Paradigmen, bei welchen man den Reiz unter denselben Bedingungen präsentieren kann, so dass er bei manchen Versuchsdurchgängen bewusst wahrgenommen wird, bei anderen nicht (Kim & Blake, 2005). Mit solchen experimentellen Paradigmen kann man angeblich die neuronalen Korrelate des Bewusstseins finden, wenn man a) bei jedem Durchgang die Versuchsperson fragt, ob oder was die Versuchsperson bei dem Durchgang wahrgenommen hat und b) gleichzeitig die neuronalen Prozesse misst (zum Beispiel mit EEG, MEG oder fMRT). Anschließend kann man die erhobenen neuronalen Daten unter den Bedingungen mit und ohne bewusste Wahrnehmung vergleichen.
Mittlerweile gibt es viele Studien, in denen solche experimentelle Paradigmen – und damit die Kontrastierungsanalyse – angewendet wurden. Insofern könnte man glauben, die neuronalen Korrelate des Bewusstseins seien schon gefunden worden. Allerdings ist dies nicht der Fall. Es existiert in der Literatur weiterhin Uneinigkeit darüber, ob die Korrelate des Bewusstseins früh oder spät in der Zeit liegen, und ob die Korrelate in sensorischen Arealen oder eher im hierarchisch höheren fronto-parietalen Kortex zu finden sind.
Nach unserer Meinung sind die experimentellen Paradigmen, die üblicherweise zum Auffinden der neuronalen Korrelate des Bewusstseins verwendet werden, nicht spezifisch genug, um diese eindeutig zu lokalisieren. Eher glauben wir, dass die klassische Kontrastierungsanalyse auch andere Prozesse als Ergebnisse hervorbringt und uns deshalb prinzipiell nicht zu den neuronalen Korrelaten des Bewusstseins führen kann.
Im Kapitel 2 wird erklärt, wieso die typischen experimentellen Paradigmen nicht die neuronalen Korrelate des Bewusstseins ausfindig machen können. Wir behaupten, dass der Vergleich neuronaler Daten aus experimentellen Bedingungen mit und ohne bewusste Wahrnehmung auch die neuronalen Prozesse widerspiegeln könnte, die bewussten Wahrnehmungen entweder vorausgehen oder folgen. Es ist beispielsweise bekannt, dass neuronale Prozesse vor Auftreten des Reizes darüber bestimmen können, ob der Reiz bewusst wahrgenommen wird oder nicht (Busch, Dubois, & VanRullen, 2009; Mathewson, Gratton, Fabiani, Beck, & Ro, 2009). Wenn man experimentelle Bedingungen mit und ohne bewusster Wahrnehmung miteinander vergleicht, werden auch solche Prozesse als Ergebnis auftauchen, obwohl diese zeitlich klar vor dem Reiz stattfinden und deshalb keine neuronalen Korrelate des Bewusstseins sein können. Es ist natürlich einfach zu entscheiden, dass diese Prozesse, die schon vor dem Reiz stattfinden, der bewussten Wahrnehmung vorausgehen müssen, aber es ist unmöglich zu sagen, ob ein neuronaler Prozess 100 oder 200 Millisekunden nach der Präsentation des Reizes immer noch ein Vorläuferprozess ist schon ein neuronales Korrelat des Bewusstseins darstellt. Deshalb ist die typische Kontrastierungsanalyse nicht spezifisch genug und wir wissen nicht, ob neuronale Prozesse, die durch die Kontrastierungsanalyse aufgedeckt werden, direkt die neuronalen Korrelate des Bewusstseins oder eher Prozesse vor der bewussten Wahrnehmung widerspiegeln.
Nicht nur die Vorläuferprozesse der bewussten Warnehmung stellen ein Problem dar. Auch Konsequenzen der bewussten Verarbeitung werden durch die Kontrastierungsanalyse gefunden. Beispielsweise wurden im medialen Temporallappen Neurone gefunden, die nur dann feuern, wenn ein Patient eine Person auf einem Bild bewusst erkennt, aber nicht feuern, wenn der Patient die Person auf dem Bild nicht bewusst wahrnimmt (Quiroga, Mukamel, Isham, Malach, & Fried, 2008). So könnte man vorerst meinen, dass das Feuern dieser Neurone das neuronale Korrelat des Bewusstseins sein könnte. Nach einer Läsion, sprich neuronalen Schädigung des medialen Temporallappens kann man die Welt jedoch weiterhin bewusst wahrnehmen (man hat jedoch Probleme mit dem Gedächtnis und Wiedererkennen). Insofern kann das Feuern dieser Neurone nicht das neuronale Korrelat des Bewusstseins sein und ist eher ein Beispiel für die Konsequenz der bewussten Verarbeitung. Wir behaupten, dass es noch viele andere solcher Vorläuferprozesse und Konsequenzen gibt, die notwendigerweise als Ergebnis bei der Kontrastierungsanalyse auftauchen, und also ist die typische Kontrastierungsanalyse extrem unspezifisch bezüglich der neuronalen Korrelate des Bewusstseins. In anderen Worten: Die typische Kontrastierungsanalyse, bei welcher man experimentelle Bedingungen mit und ohne bewusste Wahrnehmung miteinander vergleicht, wird uns nicht helfen die neuronalen Korrelate des Bewusstseins zu finden.
Wir glauben, dass neue experimentelle Paradigmen entwickelt werden sollten, um die neuronalen Korrelate des Bewusstseins ausfindig zu machen. Wahrscheinlich gibt es kein einfaches Experiment, mit dem man die Vorläuferprozesse und Konsequenzen vollständig vermeiden kann, um damit direkt die neuronalen Korrelate des Bewusstseins zu bestimmen. Eher braucht man viele verschiedene Experimente, die Schritt für Schritt unser Wissen über die neuronalen Korrelate des Bewusstseins erweitern.
In der vorliegenden Arbeit (in Kapiteln 3, 4 und 5) wird ein neues experimentelles Paradigma angewandt. Dieses Paradigma wird nicht alle oben erwähnten Probleme lösen, wird aber hoffentlich erlauben, einige Vorläuferprozesse der bewussten Wahrnehmung von den neuronalen Korrelaten des Bewusstseins auseinanderzuhalten. Der Vorteil unseres experimentellen Paradigmas besteht darin, dass die bewusste Wahrnehmung durch zwei verschiedene Vorläuferprozesse beeinflusst wird. Die Versuchspersonen müssen auf schnell präsentierten und mittels Rauschens undeutlich gemachten Bildern eine Person detektieren. Die experimentellen Bedingungen sind derart gestaltet, dass die Versuchspersonen nicht bei jedem Durchgang die Person auf dem Bild wahrnehmen können. Damit können wir den Wahrnehmungsprozess manipulieren. Bei einer Manipulation variieren wir den Anteil des Rauschens auf dem Bild und damit die sensorische Evidenz. Je weniger Rauschen, desto besser können die Versuchspersonen die Bilder wahrnehmen und desto öfter sehen sie auch bewusst die Person auf dem Bild. Bei der anderen experimentellen Manipulation der Wahrnehmung werden einige Bilder den Versuchspersonen vorher klar und ohne Rauschen gezeigt. Damit erschafft man Wissen über bestimmte Bilder, die später mit Rauschen präsentiert werden. Man kann zeigen, dass solch bestehendes Wissen tatsächlich die Wahrnehmung beeinflusst. Wenn die Versuchspersonen bestehendes Wissen über ein Bild haben, ist es wahrscheinlicher, dass sie die Person auf dem Bild bewusst wahrnehmen. Damit haben wir zwei verschiedene Vorläuferprozesse – sensorische Evidenz und bestehendes Wissen, die beide die bewusste Wahrnehmung beeinflussen. Beide Vorläuferprozesse erhöhen den Anteil der Durchgänge, in welchen die Versuchspersonen die Person auf dem Bild bewusst wahrnehmen.
Mit diesem experimentellen Paradigma möchten wir einige Aussagen über die neuronalen Korrelate des Bewusstseins testen. Wenn über einen neuronalen Prozess behauptet wird, dass er einem neuronalen Korrelat des Bewusstseins entspricht, müsste dieser Prozess von den beiden manipulierten Vorläuferprozessen in ähnlicher Weise beeinflusst werden, da bewusste Wahrnehmung durch beide manipulierten Vorläuferprozessen in ähnlicher Weise erleichtert wird. Wenn aber der Prozess, über den behauptet wird, er sei ein neuronales Korrelat des Bewusstseins, nicht durch beide Manipulationen geändert wird, kann dieser Prozess kein neuronales Korrelat des Bewusstseins sein, da er nicht beeinflusst wird, obwohl die bewusste Wahrnehmung geändert wurde.
Mit diesem experimentellen Paradigma und dieser Logik haben wir zwei unterschiedliche neuronale Prozesse getestet, von denen behauptet wird, dass sie den neuronalen Korrelaten des Bewusstseins entsprechen könnten. In Kapitel 3 wurde untersucht, ob lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. In Kapitel 4 wurde mit diesem experimentellen Paradigma untersucht, ob die neuronale Synchronisierung dem neuronalen Korrelat des Bewusstseins entsprechen könnte.
Unsere Arbeit im Kapitel 3 baut auf der von Fisch und Kollegen (2009) auf. Fisch und Kollegen (2009) zogen aus ihrer experimentellen Arbeit den Schluss, dass lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. Sie hatten Elektroden auf dem visuellen Kortex von Epilepsiepatienten implantiert und von diesen Elektroden die Gammabandaktivität abgeleitet. Im ersten Schritt suchten sie nach Elektroden, die kategorienspezifische Antworten zeigen. Bei den kategorienspezifischen Elektroden ist die Gammabandaktivität abhängig vom präsentierten Stimulusmaterial. Zum Beispiel kann man bei einer Elektrode auf dem Fusiform Face Area starke Gammabandaktivität nur dann messen, wenn ein Gesicht auf dem Bild zu sehen ist. Die Autoren benutzten solche kategorienspezifischen Elektroden, um nach den neuronalen Korrelaten des Bewusstseins zu suchen. Sie zeigten den Patienten Bilder von Gesichtern, Häusern und Objekten, die direkt nach der kurzen Präsentation maskiert wurden, so dass die Patienten nur bei manchen Durchgängen erkannten, was auf dem Bild war, bei anderen Durchgängen nicht. Dies entspricht der typischen Kontrastierungsanalyse. Die Ergebnisse haben klar gezeigt, dass bei diesen kategorienspezifischen Elektroden die Gammabandaktivität erhöht wurde, als die Patienten bewusst wahrnahmen, was auf dem Bild zu sehen war. Aus diesen Ergebnissen zogen die Autoren den Schluss, dass lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht. Diese Aussage wollten wir mit unserem experimentellen Paradigma testen.
Um diese Behauptung zu untersuchen, erhoben wir sehr ähnliche Daten wie Fisch et al. (2009) und analysierten die Daten auf ähnliche Weise. Unsere experimentelle Frage war, ob die lokale kategorienspezifische Gammabandaktivität durch unsere beiden Manipulationen – sensorische Evidenz und bestehendes Wissen – in ähnlicher Weise erhöht wird. Dies sollte der Fall sein, wenn die lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht, da sensorische Evidenz und bestehendes Wissen beide den Anteil der Durchgänge, in welchen die Versuchsperson die Person auf dem Bild bewusst wahrnimmt, erhöhen. Dieses Ergebnis wurde nicht gefunden. Stattdessen fanden wir, dass die lokale kategorien-spezifische Gammabandaktivität nur durch sensorische Evidenz erhöht wurde, bestehendes Wissen aber keinen Effekt auf diese Aktivierung hatte. Da bestehendes Wissen auch den Anteil der Durchgänge mit bewusster Wahrnehmung erhöht, die kategorienspezifische Gammabandaktivität aber nicht durch bestehendes Wissen erhöht wurde, kann man schlussfolgern, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins reflektieren kann.
Als nächstes (Kapitel 4) haben wir die Hypothese getestet, dass Synchronizität dem neuronalen Korrelat des Bewusstseins entspricht. Um diese Idee zu testen, maßen wir mittels Magnetoenzephalographie die magnetischen Felder des Gehirns, schätzten aus diesen Daten mittels Beamforming die neuronalen Aktivitätsquellen und quantifizierten die Synchronizität zwischen diesen Quellen. Wenn die interareale Synchronizität dem neuronalen Korrelat des Bewusstseins entspräche, sollte die Synchronizität für Bedingungen mit mehr sensorischer Evidenz und mit bestehendem Wissen erhöht sein. Dies wurde nicht beobachtet. Wir fanden, dass Synchronizität (gemittelt über die Quellen) nur bei den Bildern erhöht war, für die bestehendes Wissen vorlag. Ein ähnlicher Effekt für sensorische Evidenz wurde nicht gefunden. Insofern können wir sagen, dass unsere Befunde dagegen sprechen, dass neuronale Synchronizität den Mechanismus für Bewusstsein darstellt. Allerdings können wir das in diesem Fall auch nicht völlig ausschließen, denn Synchronizität könnte die Informationsverarbeitung auf einem kleineren Maßstab koordinieren als wir es mit dem MEG messen können (Singer, in press).
Im Kapitel 5 untersuchten wir, wie schnell bestehendes Wissen bewusste Verarbeitung beeinflussen kann. Um dies herauszufinden machten wir uns die intraindividuellen Unterschiede der perzeptuellen Leistung zu Nutze. Wir fanden, dass bestehendes Wissen bewusste Verarbeitung schon innerhalb der ersten 100 Millisekunden nach der Präsentation des Reizes beeinflusst. Wir beobachteten auch, dass ein größerer perzeptueller Effekt des bestehenden Wissens in geringerer neuronaler Aktivität in Durchgängen mit bestehendem Wissen hervorruft. Diese Ergebnisse sind im Einklang mit Theorien, die besagen, dass unsere Wahrnehmung bestehendes Wissen nutzt, um vorherzusagen, wie die visuelle Welt sich ändert und um die neuronalen Antworten zu verringern (Friston, 2010).
In der vorliegenden Arbeit wurde diskutiert, warum die typische Kontrastierungsanalyse uns nicht zu den neuronalen Korrelaten des Bewusstseins führen kann. Wir schlugen vor, dass neue experimentelle Paradigmen nötig sind, um näher an die neuronalen Korrelate des Bewusstseins heranzukommen. Es wurde ein neues Paradigma benutzt, um zwischen Vorläuferprozessen und neuronalen Korrelate des Bewusstseins zu unterscheiden. Mit diesem Paradigma wurden zwei sehr unterschiedliche Hypothesen getestet und gefunden, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins widerspiegeln kann. Wir hoffen, dass unsere Experimente eine Entwicklung von vielen weiteren und besseren experimentellen Paradigmen stimuliert, die zwischen den Vorläuferprozessen, den Konsequenzen und den eigentlichen Korrelaten des Bewusstseins unterscheiden können. Wenn man über die Kontrastierungsanalyse hinausgeht, kann man die gegenwärtigen Theorien des Bewusstseins testen und damit Schritt für Schritt näher an die neuronalen Grundlagen des Bewusstseins kommen.
Die lakustrinen Sedimente im Vorotan-Becken (Armenien) wurden palynologisch untersucht. Aus den Ergebnissen konnte die Vegetationsgeschichte im Südlichen Kaukasus während des Frühpleistozäns teilweise rekonstruiert werden.
Bei den Sedimenten handelt es sich um diatomeenreiche Tone, Silte und Feinsande, in denen Pollen gut und pflanzliche Makroreste ausgezeichnet erhalten sind. Die Datierung ist durch die Kombination von Paläomagnetik und 39Ar/40Ar-Methode eindeutig: Die Sedimente decken den Beginn der „mid Pleistocene transition“ (1?110?–?960 ka) ab.
An zehn Aufschlüssen wurden insgesamt 506 Sedimentproben genommen und die darin enthaltenen Pollen untersucht. So konnten insgesamt 64 Taxa nachgewiesen werden. Sie wurden in Pollenprofilen zusammengefasst und ökologisch bewertet. Die erhobenen Daten wurden zudem einer Faktorenanalyse und einer Clusteranalyse unterzogen, deren Ergebnisse ebenfalls in die Pollenprofile eingingen.
Die Pollenprofile lassen deutlich regionale Vegetationszyklen während des Frühpleistozäns erkennen. Diese Zyklen werden ausführlich beschrieben und mit Ergebnissen anderer Autoren aus dem Mittelmeerraum verglichen. Auch ein Bezug zur rezenten Vegetation im Südlichen Kaukasus und den angrenzenden Gebieten wird hergestellt.
Die Paläovegetation im Südlichen Kaukasus ist demnach während des Frühpleistozäns geprägt von einem Vegetationsmosaik aus Grassteppe und offenen Wäldern. Je nach Klima lassen sich Einflüsse von angrenzenden Vegetationszonen erkennen: borealer Nadelwald der Höhenlagen des Kaukasus, thermophiler Laubwald der euxinischen und hyrkanischen Wälder sowie xerotherme Steppe des Nordiran.
Während der Interglaziale herrscht eine Waldsteppe aus thermophilem Laubwald (z.?B. Quercus, Carpinus, Ulmus, Zelkova, Tilia) vor, in der bei starken Erwärmungsphasen die Grassteppe deutlich dominiert und die Wälder wohl an Nordhänge und in Uferbereiche zurückgedrängt werden. In den Glazialphasen finden sich zunehmend Koniferen in der Vegetation (z.?B. Tsuga, Abies, Picea, Pinus) – bis hin zu einem nahezu geschlossenen Kiefernwald am Ende des ersten lang andauernden Glazials MIS 30.
Es zeigt sich, dass sich die einzelnen Klimazyklen in der Ausprägung der Vegetation signifikant unterscheiden. Hierbei spielt sowohl die Amplitude der Erwärmung als auch die Dauer der jeweiligen Phase eine Rolle.
Der Vergleich mit anderen Untersuchungen zeigt, dass die Vegetationszyklen im Südlichen Kaukasus teilweise deutlich anders verlaufen als im westlichen, zentralen und östlichen Mittelmeerraum. Entlang einer Ost-West-Achse ist hier ein „Vegetationsgradient“ zu erkennen.
Das hat Auswirkungen auf die Interpretation der Ausbreitung früher Menschen aus Afrika nach Eurasien. Es ist davon auszugehen, dass sich nicht jeder Vegetationszyklus des Frühpleistozäns gleichermaßen gut für ein Vordringen nach Eurasien eignete. Geeignete Bedingungen (offene Landschaft, Vegetationsmosaik, warmes Klima) herrschten im Südlichen Kaukasus vor allem während stark ausgeprägter Interglaziale. Dagegen brachten lang anhaltende Glazialphasen wohl eher lebensfeindlichere Bedingungen für Homo erectus.
Weil in den südlichen Regionen Europas teilweise eine stark abweichende Vegetation während der unterschiedlichen Klimaphasen vorherrschte, ist es naheliegend, dass der Südliche Kaukasus für die frühen Menschen eine Rolle als Refugium spielte.
Deutlich zeichnen sich in den Ergebnissen Veränderungen in der Vegetation beim Übergang von den obliquitätsdominierten 41-ka-Klimazyklen zu den exzentrizitätsbestimmten 100-ka-Zyklen ab („mid Pleistocene transition“). Diese Veränderungen haben sich sicherlich auch auf die Population der Menschen ausgewirkt und größere Wanderbewegungen und/oder Anpassungen hervorgerufen. Möglicherweise haben in dieser drastischen Veränderung sogar kulturelle Entwicklungen ihren Anfang – zum Beispiel die Nutzbarmachung des Feuers.
In this work the main emphasis is put on the investigation of relativistic shock waves and Mach cones in hot and dense matter using the microscopic transport model BAMPS, based on the relativistic Boltzmann equation. Using this kinetic approach we study the complete transition from ideal-fluid behavior to free streaming. This includes shock-wave formation in a simplified (1+1)-dimensional setup as well as the investigation of Mach-cone formation induced by supersonic projectiles and/or jets in (2+1)- and (3+1)-dimensional static and expanding systems. We further address the question whether jet-medium interactions inducing Mach cones can contribute to a double-peak structure observed in two-particle correlations in heavy-ion collision experiments. Furthermore, BAMPS is used as a benchmark to compare kinetic theory to several relativistic hydrodynamic theories in order to verify their accuracy and to find their limitations.
Der programmierte Zelltod (Apoptose) ist ein wichtiger Mechanismus zur Eliminierung von beschädigtem Gewebe und entarteten Zellen. Die Deregulierung der Apoptose führt zu zahlreichen Erkrankungen wie neuro-degenerativen Störungen und Krebs. Insbesondere in Tumoren wird der programmierte Zelltod mit Hilfe von hochregulierten, anti-apoptotischen Proteinen umgangen und es entstehen Resistenzen gegen Chemotherapien. Um innovative therapeutische Ansätze zu finden, wurden in diesem Projekt mit Hilfe eines Hefe-Survival-Screens neue, potentiell anti-apoptotische Proteine im Pankreaskarzinom identifiziert. Von den insgesamt 38 identifizierten Genprodukten wurden zwei für eine weiterführende Analyse ausgewählt.
Eins der näher untersuchten Proteine ist die Pyruvoyl-tetrahydrobiopterin-Synthase (PTS), ein wichtiges Enzym für die Biosynthese von Tetrahydrobiopterin (BH4). BH4 ist ein Kofaktor, der von mehreren Enzymen der Zelle für ihre Funktionen benötigt wird. In Zellkultur-Experimenten konnte gezeigt werden, dass eine Überexpression von PTS die Zellen vor Apoptose schützen kann, während eine Herunterregulation durch genetischen knockdown die Zellen gegenüber Apoptose-Stimuli sensibilisiert und ihr Wachstum beeinträchtigt. In Xenograft-Experimenten mit NOD/SCID-Mäusen konnte zudem gezeigt werden, dass Tumore mit einem PTS-Knockdown signifikant langsamer wachsen als die der Kontrollgruppe. Zusammengenommen deuten diese Ergebnisse auf eine Rolle von PTS bei der Apoptose-Regulation und beim Tumorwachstum hin, was das Protein zu einem attraktiven Target für die Krebstherapie macht.
Als zweites wurde ein Protein analysiert, das eine Untereinheit des respiratorischen Komplex I bildet: NDUFB5 (NADH-Dehydrogenase 1 beta Subcomplex, 5). Das besondere an diesem Protein sind die verschiedenen Isoformen, die durch alternatives Splicing zustandekommen. Eine Isoform, der die Exone 2 und 3 fehlen, wurde im Hefe-Survival-Screen identifiziert. Bei Überexpression in Zelllinien konnte sie im Gegensatz zum Volllänge-Protein die Apoptoserate reduzieren. Und auch Ergebnisse aus Versuchen mit Isoformen-spezifischem knockdown deuten an, dass hauptsächlich die verkürzte Isoform sNDUFB5 für die Regulation von Apoptose und Proliferation verantwortlich ist. Diese Beobachtungen konnten mit denselben Zellen im Xenograft-Tiermodell jedoch nicht bestätigt werden. Die Ursachen dafür blieben unklar. Zusätzlich wurden immunhistochemische Analysen von Pankreaskarzinomen und normalem Pankreasgewebe durchgeführt. Sie ergaben, dass die kurze Isoform sNDUFB5 im Tumor stark überexpremiert ist, während die Expression des Volllänge-Proteins in normalem und Tumorgewebe ähnlich hoch ausfällt. Dieser Befund macht NDUFB5 zu einem interessanten therapeutischen Target.
Die näher untersuchten Kandidaten-Gene zeigen beide Potential als neue Angriffspunkte für eine molekulare Krebstherapie. Andere in dem Hefe-Survival-Screen identifizierte Proteine wurden bereits als anti-apoptotisch und/oder in Krebszellen überexprimiert beschrieben. Diese Ergebnisse demonstrieren, dass ein funktionelles, Hefe-basiertes Screeningsystem geeignet ist, neue bisher unbekannte Proteine mit anti-apoptotischer Funktion zu identifizieren. Auch zeigen die Befunde, dass bereits bekannte Proteine weitere bisher unbekannte Funktionen wie z.B. die Inhibition von Apoptose aufweisen können. Basierend auf solchen mehrfachen Proteinfunktionen lassen sich weitere therapeutische Möglichkeiten ableiten.
Pharmakologische Charakterisierung zentraler cholinerger Dysfunktionen in transgenen Mausmodellen
(2013)
Die cholinerge Dysfunktion steht in Zusammenhang mit der Ätiologie der Alzheimer-Krankheit (AD). Das Absterben cholinerger Neurone führt zu einer verminderten cholinergen Neurotransmission im Gehirn. Die Abnahme der Acetylcholinesterase-(AChE)-Aktivität und eine leichte Zunahme der Butyrylcholinesterase-(BChE)-Aktivität zählen zu den charakteristischen Merkmalen der AD. Acetylcholinesterase-Inhibitoren (AChEI) sollen Acetylcholin (ACh)-Konzentrationen im Gehirn steigern, um cholinerge Defizite auszugleichen. Allerdings zeigen AChEI in der Klinik nur einen mäßigen Erfolg. Zur Optimierung der Therapie mit Esterasehemmern, wurden im Rahmen dieser Arbeit drei transgene Mausmodelle mit cholinergen Veränderungen untersucht.
Zunächst wurde die AChE-heterozygote (AChE +/-) Maus analysiert. Die Maus weist bei einer 60-prozentigen AChE-Restaktivität (60,6 U/mg in AChE +/- versus 100,0 U/mg in WT-Mäusen) nur sehr leicht erhöhte ACh-Konzentrationen im Gehirn (9,0±5,1 fmol/5 µl in AChE+/- versus 5,0±3,6 fmol/5 µl in der WT-Maus) auf, die mithilfe der in vivo Mikrodialyse bestimmt wurden. PET-Studien haben gezeigt, dass die zerebrale AChE-Restaktivität in AD-Patienten, die mit Donepezil behandelt wurden, immer noch 70 bis 90% beträgt. Vom AChE +/- Modell kann abgeleitet werden, dass eine bis zu 50-prozentige AChE-Hemmung durch AChEI nicht genügt, um ACh-Konzentrationen im Gehirn von Patienten deutlich zu erhöhen. Leider ist eine Dosiserhöhung der AChEI durch das Auftreten von unerwünschten Wirkungen (Diarrhö, Übelkeit, Erbrechen) begrenzt.
Hippocampale ACh-Konzentrationen in der AChE +/- Maus steigen nach intrazerebraler und intraperitonealer Gabe von selektiven AChEI signifikant stärker an als in WT Mäusen. AChEI können ACh-Konzentrationen also auch noch bei einer verminderten AChE-Aktivität steigern. Die Cholinacetyltransferase-Aktivität ist in AChE +/- Mäusen unverändert, während der hochaffine Cholintransport signifikant um 58% erhöht ist. Veränderungen der kognitiven Leistungsfähigkeit der AChE +/- Maus sind in Verhaltenstests nicht zu erkennen. Es folgte die Untersuchung der PRiMA (Prolin-reicher Membrananker) defizienten Maus und der AChE del5 6-Maus. PRiMA ist ein transmembranäres Protein, das zur Prozessierung der AChE und ihrer Verankerung in der Membran verantwortlich ist. PRiMA kommt hauptsächlich im Gehirn vor, daher kann die PRiMA-KO-Maus dort keine AChE-Verankerung ausbilden. Die AChEdel5 6-Maus kann weder im Gehirn noch in der Peripherie AChE-Verankerungen formen, da eine Domäne fehlt, die essentiell für die Wechselwirkung mit Anker-Proteinen ist. Beide Mausmodelle weisen geringe AChE-Restaktivitäten (< 10 %) und drastisch erhöhte ACh-Konzentrationen im Gehirn auf. Die ACh-Konzentrationen im Striatum der PRiMA-KO-Maus sind circa 350 fach erhöht (4±3 fmol/5 µl in WT-Mäusen versus 1450±700 fmol/5 µl in PRiMA-KO-Mäusen). Allerdings zeigt die PRiMA-KO-Maus keinen Phänotyp, während die AChE del5 6 Maus krank aussieht (Tremor, geringes Körpergewicht, stumpfes Fell). Beide Modelle bestätigen, dass ACh-Spiegel im Gehirn nur dann stark ansteigen, wenn die AChE immens gehemmt ist. Ferner kann aus der PRIMA-KO-Maus gefolgert werden, dass die Interaktion zwischen AChE und PRiMA ein geeignetes Target für die Therapie der cholinergen Dysfunktion darstellen könnte.
Nach intrazerebraler Applikation eines selektiven AChE-Inhibitors (BW284c51 1 µM), steigen die ACh-Spiegel im Gehirn beider transgener Mäuse signifikant an. Eine Veränderung der ACh-Konzentrationen nach BChEI Gabe ist weder bei der AChE +/-, der PRiMA-KO, noch bei der AChE del5 6 Maus zu sehen. Die BChE trägt bei einer AChE-Restaktivität (10 bis 40 %) nicht zum hydrolytischen Abbau von ACh bei. Daraus lässt sich ableiten, dass bei stark verminderten AChE-Aktivitäten, der Einsatz von BChEI vermutlich keinen weiteren Nutzen erbringt. Um die Adaptionsmechanismen der PRiMA-KO-Maus aufzuklären, wurde die M2-Rezeptor Funktion (negativer Feedback-Mechanismus) getestet. Da die striatalen ACh-Konzentrationen in der PRiMA-KO-Maus nach Behandlung (lokal und i.p.) mit M2-Agonisten und -Antagonisten kaum verändert sind, lässt dies einen nicht-funktionalen M2 vermuten.
Aus den Ergebnissen können wichtige Erkenntnisse über die Therapie der Alzheimer-Krankheit gewonnen werden. Die Bestimmung der ACh-Konzentrationen, in Gegenwart unterschiedlicher AChE-Aktivitäten der verschiedenen Mausmodelle, zeigt den Zusammenhang zwischen ACh und AChE im Säugerhirn und erklärt die limitierte klinische Wirksamkeit der AChE-Inhibitoren. Die Hemmung der Interaktion zwischen PRiMA und der AChE stellt eine denkbare Interventionsmöglichkeit dar, um ACh-Konzentrationen im Gehirn zu steigern, ohne dabei periphere Nebenwirkungen auszulösen. Ziel der weiteren Forschung sollte sein, PRiMA bzw. die Interaktion zwischen PRiMA und AChE als Target für die Therapie der Alzheimer-Krankheit weiter zu erforschen.
Hintergrund: Das Burkitt Lymphom und das Diffus großzellige B-Zell Lymphom können überlappende morphologische und immunhistochemische Eigenschaften aufweisen. Eine Differenzierung beider Entitäten ist klinisch relevant. Mit Hilfe von Genexpressionsanalysen an kryo-konservierten Proben hochmaligner B-Zell Lymphome, bestehend aus Burkitt Lymphomen und Diffus großzelligen B-Zell Lymphomen, gelang 2006 die molekulare Definition des Burkitt Lymphoms (mBL) mit einer burkittspezifischen Gensignatur (Genchip-Klassifikator). Demgegenüber wurden Proben, die nicht diese Signatur aufwiesen als non-mBL bezeichnet. Proben, die weder mBL noch non-mBL klassifiziert wurden, wurden als intermediär eingestuft.
Ziel: Entwicklung einer Methode zur Unterscheidung von mBL und non-mBL mittels quantitativer Echtzeit-Polymerase Kettenreaktion (qPCR) durch die Etablierung eines Assays-Sets einer kleinen Anzahl von Genen der mBL-Signatur an formalinfixiertem, in paraffineingebettetem (FFPE) Gewebe.
Methoden: An 116 Proben, bestehend aus mBL, non-mBL und intermediären Fällen (entsprechend der Genchip-Klassifikation) wurden qPCR Messungen für sechs Gene und ein Referenzgen durchgeführt. Die Expressionsmessungen wurden auf den vorhandenen Genchip-Klassifikator projiziert.
Ergebnisse: 90 von 116 Proben konnten mit dem qPCR-Klassifikator klassifiziert werden. Bei 22 Proben kam es zu Messausfällen. 4 Fälle wurden bioinformatisch ausgesondert.13 von 14 mBL, 59 von 61 non-mBL und 8 von15 intermediären Fällen wurden identisch zu dem Genchip-Klassifikator bewertet.
Diskussion: Der entwickelte qPCR-Klassifikator ist eine objektive, schnelle und kosteneffiziente diagnostische Herangehensweise zur Bestimmung des mBL. Nicht alle FFPE-Proben waren mit dem qPCR Klassifikator eindeutig auswertbar und für eine Klassifikation zu nutzen. Eine Einflussgröße hierbei stellt das Alter der Proben dar. Mit Hilfe dieser Untersuchung können retrospektive Analysen durchgeführt werden. Der Klassifikator kann zusätzlich zur Morphologie und Immunhistochemie mit eindeutiger Klassifikation von 93% (mBL) und 97% (non-mBL) angewendet werden.
Im Rahmen dieser Arbeit wurden astrophysikalisch relevante, kernphysikalische Raten, die zum Verständnis der beobachteten Häufigkeit des langlebigen Isotopes 60Fe wichtig sind, am GSI Helmholtzzentrum für Schwerionenforschung GmbH und am Forschungsreaktor TRIGA in Mainz gemessen.
Zunächst wurde der Coulombaufbruch von 59Fe und 60Fe am GSI Helmholtzzentrum für Schwerionenforschung GmbH untersucht. Zur Produktion der radioaktiven Strahlen wurde ein 64Ni-Primärstrahl auf ein Spallationstarget geleitet. Im Fragmentseparator wurden die Isotope nach deren magnetischen Steifigkeit separiert und nur die gewünschte Spezies im LAND/R3B-Aufbau untersucht. Die Bestimmung von Impuls und Ladung der eingehenden Ionen erlaubte eine individuelle Identifikation. Der Coulombaufbruchwirkungsquerschnitt wurde mit einer Bleiprobe bestimmt. Die verschiedenen Untergrundkomponenten ergaben sich aus einer begleitenden Leermessung, sowie einer Messung mit einer Kohlenstoffprobe. Der Wirkungsquerschnitt der Reaktion Pb(60Fe,n+59Fe)Pb bei (530±5) MeV/u wurde zu σ(60Fe,n+59Fe) COULEX = (298±11stat±31syst) mb (0.1) bestimmt und für die Reaktion Pb(59Fe,n+58Fe)Pb ergab sich σ(59Fe,n+58Fe) COULEX = (410±11stat±41syst) mb. (0.2)
Außerdem konnten für beide einkommenden Strahlsorten die Wahrscheinlichkeiten für die Produktion von zwei Neutronen bestimmt werden.
Anschließend wurde der Neutroneneinfangsquerschnitt von 60Fe bei kT = 25,3 meV am Forschungsreaktor TRIGA in Mainz bestimmt. Hierfür wurde eine 60Fe Probe zunächst anhand des Anstieges der Aktivität der 60Co-Tochterkerne charakterisiert und anschließend im Reaktor bestrahlt. Die frisch erzeugte Aktivität des 61Fe wurde mit einem HPGe-Detektor nachgewiesen. Mit Hilfe der Cadmiumdifferenzmethode konnte daraus erstmals der thermische Neutroneneinfangsquerschnitt von 60Fe zu σ60Fe(n,γ) th = 0,22±0,02stat±0,02syst b. (0.3) bestimmt werden. Für das Resonanzintegral ergab sich die obere Schranke von I 60Fe(n,γ) res = 0,61 b. (0.4)
Ziel meiner Dissertation ist die empirische Analyse von Auswirkungen der sozialen Interaktion zwischen Akteuren auf Finanzmärkten. Die folgenden Aufsätze sind Bestandteil dieser kumulativen Dissertation:
1. Frederik König (2012): Does Social Interaction destabilise Financial Markets?
2. Frederik König (2012) : Analyst Behaviour: the Geography of Social Interaction
3. Frederik König (2012) : Fluctuations of Social Influence: Evidence from the Behaviour of Mutual Fund Managers during the Economic Crisis 2008/09
In meinem ersten Aufsatz stelle ich ein Marktpreismodell vor, welches dem Einfluss durch soziale Interaktion Rechnung trägt. Mit Hilfe dieses Modells gehe ich der Fragestellung nach, ob soziale Interaktion zwischen Marktteilnehmern eine stabilisierende oder eine destabilisierende Wirkung auf Finanzmärkte hat. Mit meinem zweiten Aufsatz untersuche ich das Verhalten von Aktienanalysten, die als wesentlicher Impulsgeber für Finanzmärkte gelten. Konkret stelle ich heraus, ob Analysten stärker von anderen Analysten beeinflusst werden, wenn diese im gleichen Land bzw. in der gleichen Stadt arbeiten oder wenn sogar ein regelmäßiger Meinungsaustausch erfolgt. Beides setzte ich ins Verhältnis zum vorherrschenden Marktumfeld. In meinem dritten Aufsatz beschäftige ich mich mit der sozialen Interaktion zwischen Fondsmanagern. Diese verwalten in etwa ein Drittel des frei handelbaren Aktienvermögens und haben folglich einen nennenswerten Einfluss auf Finanzmärkte. Mit Hilfe einer neuartigen Schätzmethode bestimme ich die Größe des sozialen Einflusses und untersuche auch hier temporale Variationen im Verhältnis zum zu Grunde liegenden Marktumfeld. Des Weiteren zerlege ich die Gesamtgröße des sozialen Einflusses in zwei Komponenten, die zum einen den Einfluss im Rahmen der reinen Beobachtung und zum anderen den Einfluss durch Kommunikation reflektieren.
In dieser Arbeit wurde das Protein OR1 ausführlich charakterisiert und die Grundlage für weitere Studien an diesem Protein gelegt. Die Zielsetzung dieser Arbeit bestand primär in der biophysikalischen Analyse eines eukaryotischen Proteorhodopsins, da bislang keine Daten zu diesen vorlagen. Dieser Ansatz ist vergleichbar mit der Studie am BR ähnlichen Rhodopsin aus dem Pilz Leptosphaeria maculans (Waschuk et al. 2005). Auch wenn man aus den Eigenschaften von OR1 keine Signatur für eukaryotische PRs herausfiltern kann, so weist OR1 eine Reihe von Charakteristika auf, die es wert sind weiterbearbeitet zu werden. Zu den hervorzuhebenden Ergebnissen dieser Arbeit zählen:
(1) OR1 zeigte in der methylotrophen Hefe Pichia pastoris ein hohes Expressionsniveau weit über der gewohnten Ausbeute bei Membranproteinen.
(2) OR1 offenbarte sich als Proteorhodopsin mit BR ähnlichen Eigenschaften wie dem niedrigen pKs-Wert des Protonenakzeptors und damit guten Protonenpumpeigenschaften über einen großen pH-Bereich. Auch bindet OR1 keinen zweiten Chromophor, was die nahen Verwandten GR und XR hingegen tun.
(3) OR1 demonstriert, dass die Konfiguration des komplexen Gegenions von Proteorhodopsinen stark variiert und sich anscheinend flexibel den physiologischen Erfordernissen des jeweiligen Organismus anpasst. In diesem Zusammenhang spielt auch das konservierte Histidin eine Rolle, da es den primären Protonenakzeptor beeinflusst. Bei OR1 stellte sich heraus, dass das Histidin den pKs Wert der D100 Position nicht signifikant beeinflusst.
(4) OR1 wurde mit 13C und 15N Atomen erfolgreich markiert und das entwickelte Protokoll für die Rekonstitution bewährte sich. Die Proteoliposomen des Wildtyps gaben sehr gut aufgelöste Festkörper-NMR Spektren. In Zukunft sind somit ausführliche NMR Studien an OR1 möglich.
This work presents a biochemical, functional and structural characterization of Aquifex aeolicus F1FO ATP synthase obtained using both a native form (AAF1FO) and a heterologous form (EAF1FO) of this enzyme.
F1FO ATP synthases catalyze the synthesis of ATP from ADP and inorganic phosphate driven by ion motive forces across the membrane and therefore play a key cellular function. Because of their central role in supporting life, F1FO ATP synthases are ubiquitous and have been remarkably conserved throughout evolution. For their biological importance, F1FO ATP synthases have been extensively studied for many decades and many of them were characterized from both a functional and a structural standpoint. However, important properties of ATP synthases – specifically properties pertaining to their membrane embedded subunits – have yet to be determined and no structures are available to date for the intact enzyme complex. Therefore, F1FO ATP synthases are still a major focus of research worldwide. Our research group had previously reported an initial characterization of AAF1FO and had indicated that this enzyme presents unique features, i.e. a bent central stalk and a putatively heterodimeric peripheral stalk. Based on such a characterization, this enzyme revealed promising for structural and functional studies on ATP synthases and became the focus of this doctoral thesis. Two different lines of research were followed in this work.
First, the characterization of AAF1FO was extended by bioinformatic, biochemical and enzymatic analyses. The work on AAF1FO led to the identification of a new detergent that maintains a higher homogeneity and integrity of the complex, namely the detergent trans-4-(trans-4’-propylcyclohexyl)cyclohexyl-α-D-maltoside (α-PCC). The characterization of AAF1FO in this new detergent showed that AAF1FO is a proton-dependent, not a sodium ion-dependent ATP synthase and that its ATP hydrolysis mechanism needs to be triggered and activated by high temperatures, possibly inducing a conformational switch in subunit γ. Moreover, this approach suggested that AAF1FO may present unusual features in its membrane subunits, i.e. short N-terminal segments in subunits a and c with implications for the membrane insertion mechanism of these subunits.
Investigating on these unique features of A. aeolicus F1FO ATP synthase could not be done using A. aeolicus cells, because these require a harsh and dangerous environment for growth and they are inaccessible to genetic manipulations. Therefore, a second approach was pursued, in which an expression system was created to produce the enzyme in the heterologous host E. coli. This second approach was experimentally challenging, because A. aeolicus F1FO ATP synthase is a 500-kDa multimeric membrane enzyme with a complicated and still not entirely determined stoichiometry and because its encoding genes are scattered throughout A. aeolicus genome, rather than being organized in one single operon. However, an artificial operon suitable for expression was created in this work and led to the successful production of an active and fully assembled form of Aquifex aeolicus F1FO ATP synthase. Such artificial operon was created using a stepwise approach, in which we expressed and studied first individual subunits, then subcomplexes, and finally the entire F1FO ATP synthase complex. We confirmed experimentally that subunits b1 and b2 form a heterodimeric subcomplex in the E. coli membranes, which is a unique case among ATP synthases of non-photosynthetic organisms. Moreover, we determined that the b1b2 subcomplex is sufficient to recruit the soluble F1 subcomplex to the membranes, without requiring the presence of the other membrane subunits a and c. The latter subunits can be produced in our expression system only when the whole ATP synthase is expressed, but not in isolation nor in the context of smaller FO subcomplexes. These observations led us to propose a novel mechanism for the assembly of ATP synthases, in which first the F1 subcomplex attaches to the membrane via subunit b1b2, and then cring and subunits a assemble to complete the FO subcomplex. Furthermore, we could purify the heterologous ATP synthase (EAF1FO) to homogeneity by chromatography and electro-elution. Enzymatic assays showed that the purified form of EAF1FO is as active as AAF1FO. Peptide mass fingerprinting showed that EAF1FO is composed of the same subunits as AAF1FO and all soluble and membrane subunits could be identified. Finally, single-particle electron microscopy analysis revealed that the structure of EAF1FO is identical to that of AAF1FO. Therefore, the EAF1FO expression system serves as a reliable platform for investigating on properties of AAF1FO.
Specifically, in this work, EAF1FO was used to study the membrane insertion mechanism of rotary subunit c. Subunits c possess different lengths and levels of hydrophobicity across species and by analyzing their N-terminal variability, four phylogenetic groups of subunits c were distinguished (groups 1 to 4). As a member of group 2, the subunit c from A. aeolicus F1FO ATP synthase is characterized by an N-terminal segment that functions as a signal peptide with SRP recognition features, a unique case for bacterial F1FO ATP synthases. By accurately designing mutants of EAF1FO, we determined that such a signal peptide is strictly necessary for membrane insertion of subunit c and we concluded that A. aeolicus subunit c inserts into E. coli membranes using a different pathway than E. coli subunit c. Such a property may be common to other ATP synthases from extremophilic organisms, which all cluster in the same phylogenetic group.
In conclusion, the successful production of the fully assembled and active F1FO ATP synthase from A. aeolicus in E. coli reported in this work provides a novel genetic system to study A. aeolicus F1FO ATP synthase. To a broader extent, it will also serve in the future as a solid reference for designing strategies aimed at producing large multi-subunit complexes with complicated stoichiometry.
Evaluierung der zellfreien Produktion sekundär aktiver Transporter für die Proteinkristallisation
(2013)
Hintergrund und Fragestellung: Patientensicherheit ist in den letzten Jahren zum intensiv diskutierten Thema geworden. Zudem rückt als potenzielle Basis der Patientensicherheit die Patientensicherheitskultur von Einrichtungen des Gesundheitswesens in den Fokus, bislang wurde dahingehend vor allem der stationäre Bereich untersucht. Ziel dieser Arbeit ist es, einen Einblick in den aktuellen Stand der Patientensicherheitskultur in Hausarztpraxen zu geben, und diesbezügliche Einflussfaktoren und Zusammenhänge aufzuzeigen. Dabei wurden insbesondere zwei Fragestellungen untersucht: 1. Lässt sich ein Zusammenhang aufzeigen zwischen einzelnen Praxis- und Teammerkmalen einerseits und den Ergebnissen in den Bereichen Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement andererseits? 2. Lassen sich durch einzelne Praxis- und Teammerkmale bzw. Sicherheitsklimafaktoren die Ausprägungen einer Praxis in bestimmten Patientensicherheitsindikatoren und dem Fehlermanagement einer Praxis vorhersagen?
Material und Methoden: In 60 allgemeinärztlich tätigen Praxen aus Hessen wurde die Patientensicherheitskultur anhand von drei Methoden gemessen. Dies waren 1. der auf Selbstauskunft beruhende „Fragebogen zum Sicherheitsklima“, 2. durch Praxisbegehungen und Interviews erfasste Patientensicherheitsindikatoren, sowie 3. detailliert analysierte Fehlerberichte. Die statistische Auswertung umfasste u.a. Korrelationsanalysen (Mann-Whitney-U, Wilcoxon-W, Spearman-Rangkorrelation) sowie multivariate schrittweise Regressionsanalysen.
Ergebnisse: Die Beurteilung des Sicherheitsklimas fiel über alle Praxen hinweg homogen positiv aus (acht von neun Sicherheitsklimafaktoren mit Mittelwerten von mind. vier von fünf Punkten). Bei den 12 Patientensicherheitsindikatoren ergaben sich differenziertere Werte (niedrigster Mittelwert: Indikator „Marcumartherapie“ mit 0,43 von 1, höchster Mittelwert: Indikator „Allergiehinweis“ mit 0,75 von 1). Es gingen 24 Berichte kritischer Ereignisse ein, die zu 79% als „Kein Fehlermanagement“ oder „Unbefriedigendes Fehlermanagement“ beurteilt wurden. Die Korrelations- und Regressionsanalysen zeigten Zusammenhänge auf, z.B. erzielten größere Praxisteams niedrigere Werte beim Patientensicherheitsklima und höhere Werte bei den Patientensicherheitsindikatoren im Vergleich zum Durchschnitt.
Diskussion: Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement sind in einer Hausarztpraxis mit den verwendeten Instrumenten messbar. Jedes der drei Instrumente misst einen anderen, wichtigen Bereich der Sicherheitskultur, wodurch jeweils unterschiedliche Einstellungen und Prozesse beleuchtet und anschließend auch beurteilt und verbessert werden können. In den Analysen zur Beantwortung der beiden Fragestellungen konnten Zusammenhänge und Vorhersagevariablen herausgearbeitet werden, allerdings waren diese Zusammenhänge zum Teil entgegengesetzt. Daraus ergibt sich die Hypothese, dass Praxis- und Teammerkmale als Voraussetzungen zu unterschiedlichen Ausprägungen von Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement führen können. Insgesamt könnte die Qualität der hausärztlichen Arbeit und die Sicherheit der Versorgung durch eine regelmäßige Reflektion der Praxisabläufe anhand der drei Messmethoden gesteigert werden.
Es ist wohl unumstritten, dass das Leben, wie wir es kennen, ohne die sauerstoffproduzierenden Organismen unserer Erde nicht möglich wäre. Zu ihnen gehören nicht nur die Landpflanzen, deren mannigfaltige Nutzung wichtiger Bestandteil unseres Alltags ist. Auch mikroskopisch kleine Algenarten leisten einen entscheidenden Beitrag zu den Stoffwechselkreisläufen dieser Welt. Unter ihnen befinden sich die Kieselalgen (Diatomeen), die mit einer Varietät von bis zu 10000 Spezies etwa 40 % der marinen Primärproduktion verantworten. Der Ursprung der heutigen zur oxygenen Photosynthese befähigten Eukaryoten geht auf Endosymbioseereignisse zurück, von denen aus sich diese Organismen ausgesprochen vielfältig entwickelt haben. Diese Vielfalt wird dabei nicht nur anhand ihrer äußeren Morphologie, sondern auch auf subzellulärer Ebene, deutlich. So zum Beispiel durch die unterschiedlichen Strukturen der Thyakoidmembranen, die sich in Kieselalgen wie Cyclotella meneghiniana in dreilagigen Bändern arrangieren. In Pflanzen wie Nicotiana tabacum (Tabak) hingegen bilden sie große, stapelartige Bereich aus, die zur räumlichen Separation der in den Thylakoiden eingebetteten Photosystemen beitragen. Auch die an die Photosysteme (PS) gebundenen Lichtsammelproteine (Lhcs) haben sich in Tabak und Cyclotella unterschiedlich entwickelt. Gemäß ihrem Namen zeichnen sie sich zwar allesamt durch die Sammlung und Weiterleitung der Lichtenergie an die Photosysteme aus, grenzen sich aber in Hinblick auf Proteingröße und Pigmentierung voneinander ab.
Die Lhcs der höheren Pflanzen werden entsprechend ihrer Zuordnung zu den Photosystemen in den aus zwei Heterodimeren bestehenden LHCI des PSI und die Lhcb-Antennenproteine des PSII unterschieden. Zu letzteren gehören der trimere Hauptantennenkomplex LHCII und die monomeren, minoren Antennenproteine. Die Lhcs binden die zur Lichtsammlung benötigten Pigmente, vor allem Chlorophyll a und Chlorophyll b, aber auch primäre Carotinoide wie Violaxanthin, Lutein und Neoxanthin, in unterschiedlichen Stöchiometrien. Es ist bereits bekannt, dass die Pigmentierung entscheidend zur Stabilität der Lichtsammelproteine beiträgt, wenngleich zum Teil auch eine gewisse Flexibilität in Bezug auf die Art der gebundenen Pigmente an den entsprechenden Bindestellen der Proteine besteht.
Im Rahmen dieser Arbeit liegt der Fokus auf der Fragestellung inwieweit die in der Regel nicht in Pflanzen vorkommenden Ketocarotinoide die Struktur und Funktion des LHCII aus einer Ketocarotinoide produzierenden N. tabacum - Transformante (bkt-Linie) beeinflussen und welche Auswirkungen sie auf dessen Photosyntheseapparat im Allgemeinen haben. Die bkt-Linie bildet dabei zum Teil auf Kosten ihrer primären Carotinoide sowohl das als antioxidativ und als anti-kanzerogen beschriebene Astaxanthin, als auch dessen Vorstufe Canthaxanthin und einige Derivate dieser Pigmente, die, nach vergleichenden HPLC-Analysen von Blättern und Thylakoidfraktionen, zu einem großen Teil mit der Thylakoidmembran assoziiert sind. Durch spektroskopische Untersuchungen konnte gezeigt werden, dass diese Ketocarotinoide in Hinblick auf die Energieweiterleitung zum Chlorophyll a nicht funktionell an den LHCII binden, ihre Produktion aber die Trimerisierung dieses Lichtsammelkomplexes in N. tabacum nachhaltig beeinträchtigt. Auch die Assemblierung der PSII-LHCII-Superkomplexe wird dadurch maßgeblich gestört. Elektronenmikroskopische Aufnahmen von Chloroplasten der bkt-Linie verdeutlichten zudem die Beeinträchtigung der Granathylakoid-Stapelung: Sie fällt ungeordneter aus als im Wildtyp, was durch den Mangel an intakten LHCII-Trimeren begründet sein kann.
In funktioneller Hinsicht stören die Ketocarotinoide die Energieweiterleitung innerhalb des PSII und bewirken die Reduktion der photoprotektorischen, nicht-photochemischen Fluoreszenzlöschung des Wirtsorganismus nachhaltig. Zeitgleich reduzieren sie durch einen abschirmenden Effekt auf Grund ihrer Assoziation mit der Thylakoidmembran und/oder durch einen eventuellen S1-S1-Energietransfer von Chl a auf die Ketocarotinoide aber auch die Menge der Lichtenergie, die über die Lhcs an die Photosysteme weitergeleitet wird. Dadurch kommt ihnen neben dem nachhaltig störenden Einfluss auf die Intaktheit des Photosyntheseapparats zugleich auch eine schützende Wirkung vor einem Übermaß an Lichtenergie zu.
Aus Cyclotella meneghiniana sind zwei Hauptantennenkomplexe bekannt: FCPa und FCPb. Im Gegensatz zu den Lhcs der Chl a/b-haltigen Organismen binden die Lichtsammelproteine der Diatomeen das Xanthophyll Fucoxanthin anstelle des Luteins, und Chlorophyll c anstelle des Chlorophyll b. Im Gegensatz zu der bereits sehr detailliert aufgeklärten Struktur des trimeren LHCII in höheren Pflanzen, existieren für den Aufbau des FCPb in C. meneghiniana bisher nur fundierte Modellvorschläge. Diese postulieren eine homotrimere Grundstruktur für den FCPb, die zu höheren Oligomeren assembliert.
In der vorliegenden Arbeit konnte anhand elektronenmikroskopischer Aufnahmen und der anschließenden Einzelpartikelanalyse nun erstmalig die Struktur des etwa 6-7 nm großen, trimeren FCPb gezeigt und die Richtigkeit der bisher postulierten Modellvorschläge in Hinblick auf die Struktur des Trimers bewiesen werden. Nach den hier dargelegten Erkenntnissen gleicht die Anordnung der Untereinheiten des FCPb-Trimers der des LHCII. Zudem ergibt sich aus dem Zusammenhang der hier erhobenen Daten und den in der Fachliteratur veröffentlichten Ergebnissen zum Thema FCPb ein klares Bild über die Anordnung der höheren Oligomere in Form von Nonameren. Auch diese Erkenntnisse unterstützen das ursprünglich von C. Büchel vorgeschlagene Modell für die oligomere Struktur des FCPb in C. meneghiniana.
In the past century, scientists have realized that venoms are a source of a number of natural substances presenting a wide range of pharmacological properties and often displaying a high specificity for their targets. Thus, the field of toxinology came into being, which is defined as the study of toxic substances of biological origin. Toxins are found in a wide variety of animals, including fish, cone snails, scorpions, snakes, and even some mammals. To be classified as venom, these must contain substances, i.e. toxins, which disturb physiological processes and must be deliberately delivered to the target animal. Snakes have evolved one of the most sophisticated mechanisms for venom delivery. Envenomation by snakebite can induce and inhibit aggregation/agglutination of platelets as well as inhibit/activate hemostasis, but also disrupt other physiological functions via neurotoxins and angioneurin growth factors. Snake venoms contain a substantial amount of C-type lectin-related proteins (CLRPs) which are known to function, notably, as integrin inhibitors. CLRPs are heterodimers composed of homologous α and β subunits which can assemble either covalently or noncovalently to oligomers, resulting in αβ, (αβ)2 and (αβ)4 structures. Some of the main targets of CLRPs are membrane receptors, coagulation factors, and proteins essential to hemostasis. The platelet collagen receptors GPVI and α2β1 integrin as well as the von Willebrand factor receptor GPIb play important roles in platelet activation and aggregation and are considered main targets of antithrombotic drugs. In this thesis, the integrin α2β1 is particularly considered as it is the sole collagen-binding integrin on platelets. Reduced expression of this platelet receptor results in dysfunction of platelet responses. Equivalently, overexpression of α2β1 integrin results in an increased risk of thrombosis. As a result, selective inhibitors of the collagen-α2β1 interaction could give rise to effective antithrombotic drugs. Integrins are large receptors which mediate cell-cell contacts and the binding of cells to the extracellular matrix (ECM). Therefore, they play a role in physiological processes, e.g. hemostasis and immunity, as well as in pathological processes, e.g. tumor angiogenesis and atherosclerosis. 18 α and 8 β integrin subunits, with nine α subunits containing an additional A domain, associate non-covalently to form 24 heterodimers with distinct binding specificities. Integrin collagen receptors are a subclass of four receptors which all utilize the β1 subunit. The α2β1 integrin is a collagen-binding receptor expressed not only on platelets, but also on endothelial and epithelial cells. Consequently, this integrin is also essential for cell adhesion and migration playing a role in angiogenesis as well as tumor metastasis. To date, there are five known antagonists of α2β1 integrin: EMS16, rhodocetin, vixapatin, and most recently rhinocetin and flavocetin-A. The first four have been shown to be specific for the integrin α2A domain, the major collagen-binding domain. All these antagonists are CLRPs and present new leads for drug design. In the past few years, many insights into the structure and function of rhodocetin were obtained. Monoclonal antibodies proved to be advantageous in disclosing this information, making them not only useful as therapeutic agents, but also as tools for protein characterization. The venom of the Vipera palaestinae snake was recently shown to contain an α2β1 integrin inhibitor, which prevented the integrin from binding collagen. This inhibitor, called vixapatin, was the initial focus of this dissertation. Vixapatin’s interaction with the α2β1 integrin needed further characterization on a molecular and cellular level to assess its medical potential and monoclonal antibodies were to be used as a tool. Originally, vixapatin had been isolated by reversed-phase high-performance liquid chromatography. To avoid the stringency of this method, for this study, it was replaced with gentler chromatographic methods. First, the α2β1 integrin inhibitor was isolated from the crude snake venom with affinity chromatography using the α2A domain as bait, establishing a method to quickly screen venoms for α2β1-binding proteins which affect the collagenintegrin interaction. The applicability of this method to other snake venoms was shown by isolating an α2A domain-specific toxin from the venom of Trimeresurus flavoviridis. To allow further characterization of both these toxins, gel filtration and ion exchange chromatography were employed to purify the protein without the α2A domain. These classical protein purification methods resulted in similar separation patterns of both the V. palaestinae and T. flavoviridis venom proteins. Purified proteins exhibiting the potential of inhibiting integrinbinding to collagen were analyzed by two-dimensional gel electrophoresis. Both VP-i and flavocetin-A, the integrin inhibitors from V. palaestinae and T. flavoviridis, respectively, were shown to have more complex structures than was evident from the purification. Each consisted of four low-molecular-weight proteins which assembled into two bands (for VP-i) or one single band (for flavocetin-A) under non-reducing conditions. Mass spectrometry analyses revealed VP-i to belong to the family of CLRPs, just like vixapatin does. However, these two proteins differed in their primary sequences and only showed homology to one another. The toxin purified from T. flavoviridis revealed this toxin to be flavocetin-A, a heterodimeric CLRP which had so far only been shown to have GPIb-binding activity. At the time of flavocetin-A’s purification, flavocetin-B was co-purified; flavocetin-B consists of the same two α and β subunits, plus an additional γ subunit. As no sequence information is known to date for the γ subunit, it may be one of the additional proteins purified here, along with an additional δ subunit. Therefore, the toxin isolated here may actually consist of four different subunits forming a tetramer of two different heterodimers, generating an (αβ)2(γδ)2 structure. This proposed (αβ)2(γδ)2 flavocetin-A structure has binding sites for both α2β1 integrin and GPIb, with no sterical overlap, as shown by affinity chromatography using the α2A domain and the extracellular domain of the GPIb receptor. The potential of VP-i and flavocetin-A to inhibit integrin-binding to type I collagen was shown during purification: Both toxins efficiently bind to the integrin α2A domain; also, VP-i and vixapatin bind to the A domain with the same affinity. Surface plasmon resonance showed the interaction of flavocetin-A with the α2β1 integrin to be extremely strong and association to be very fast. Furthermore, both toxins were shown to inhibit binding of the wildtype integrin to collagen: VP-i and flavocetin-A acted antagonistically on cell adhesion and cell migration. Initially, the interaction between VP-i and α2β1 integrin was to be further characterized with the help of monoclonal antibodies. However, this proved problematic, the procedure requiring various optimizations. Although, after expert consultation, some monoclonal antibodies could be obtained, the cells were extremely sensitive and gave unsatisfactory results when tested as detection tools in Western blot and immunoassays. Concluding, two novel α2β1 integrin inhibitors were discovered: VP-i and flavocetin-A, which were purified using the same procedure and which have similar functions. Both are Ctype lectin-related proteins which effectively inhibit cell adhesion and migration. This underlines that nature has instrumentalized CLRPs to specifically inhibit α2β1 integrin. Further characterization of VP-i and flavocetin-A will be able to provide leads for future drug development.
Die phylogenetisch hochkonservierte Jak/Stat‐Signaltransduktionskaskade repräsentiert eines der zentralen Säulen zellulärer Signalübertragung eukaryotischer Organismen. Ubiquitär im Organismus exprimiert und über eine Vielzahl von Zytokinen, Hormonen und Wachstumsfaktoren aktiviert, sind Stat‐Transkriptionsfaktoren maßgeblich an dem Erhalt der Physiologie und Homöostase von Organen und Geweben beteiligt. So sind die Mitglieder Stat5A und Stat5B (als homologe Proteine im Verbund als Stat5 bezeichnet) entscheidende Regulatoren des Immunsystems und der Hämatopoese, der Funktion und Entwicklung des Prostata‐ und Brustdrüsengewebes (Mammogenese) oder bestimmter Funktionen der Leber. Wie auch Stat3, konnten Stat5 Proteine in aberrant aktiver Form in verschiedensten Typen und Stadien humaner Tumore nachgewiesen werden, wo sie über die Expression ihrer Zielgene sowie über weitere nicht‐kanonische Funktionen im Zytoplasma und im Zellkern einer fortschreitend malignen Entartung entscheidend beitragen. Als Folge der Unterstützung essentieller Tumorgenese‐
Mechanismen, wie gesteigertes Zellwachstum, Apoptosehemmung, Migration und Metastasierung, Sauerstoff‐unabhängiger Energiestoffwechsel, Angiogenese oder Umgehung der Immunabwehr, entwickeln Tumore häufig eine Abhängigkeit gegenüber der gesteigerten Aktivität dieser Vertreter der Stat‐Proteinfamilie und reagieren mit einem Wachstumsstopp und Apoptoseinduktion auf ihre Inhibierung. Perspektivisch stellt die gezielte Interferenz mit aberranten, Tumortyp‐spezifischen Stat5‐Aktivitäten einen relevanten Ansatz in der personalisierten Therapie Stat5‐abhängiger Tumore, vorrangig leukämischen Ursprungs, dar. ...
Essays in behavioral economics - evidence on self-selection into jobs, social networks and leniency
(2013)
Die Dissertation mit dem Titel „Essays in Behavioral Economics – Evidence on Self-Selection into Jobs, Social Networks and Leniency“ besteht aus einer Sammlung von vier wissenschaftlichen Abhandlungen. Alle Arbeiten verbindet die Analyse von theoretischen Konzepten und Erkenntnissen der Verhaltensökonomie unter Verwendung der experimentellen Methode. Die erste wissenschaftliche Abhandlung trägt den Titel „Sorting of Motivated Agents - Empirical Evidence on Self-Selection into the German Police“ und untersucht Selbstselektion bestimmter Individuen in den Polizeiberuf. Die experimentelle Studie untersucht die Frage, ob Polizeibewerber sich hinsichtlich ihrer Präferenzen in Bezug auf ihr Normdurchsetzungsverhalten in den Polizeiberuf selektieren. Die zweite Abhandlung greift diese Erkenntnisse auf und untersucht Polizeianwärter in ihrer Berufsausbildung ebenfalls hinsichtlich ihrer Normdurchsetzungsbereitschaft. Die Arbeit trägt den Titel „Selection and formation of motivated agents -- empirical evidence from the German Police”. In der dritten wissenschaftlichen Abhandlung werden geschlechterspezifische Unterschiede bei der Wahl von Partnern und dem Aufbau des sozialen Netzwerkes untersucht. Diese trägt den Titel „Selectivity and opportunism: two dimensions of gender differences in trust games and network formation“ und wurde zusammen mit Guido Friebel, Marie Lalanne, Paul Seabright und Peter Schwardmann verfasst. Die vierte Abhandlung geht einer aktuellen Fragestellung der Industrieökonomie nach und trägt den Titel „Antitrust, auditing and leniency programs: evidence from the laboratory“, verfasst mit Mehdi Feizi and Ali Mazyaki. In ihrer Gesamtheit liefert meine Dissertation Antworten auf personalpolitische, soziale und industrieökonomische Fragestellungen.
To reconstruct ocean circulation changes during specific periods of Earth history, benthic and planktic foraminifera were used as proxies in the different parts of this thesis. Both studied time periods, the Late Cretaceous and the early Pleistocene, are characterized by long-term climate cooling and major changes in ocean circulation. The first part of this thesis concentrated in the Late Cretaceous. During the Late Cretaceous long-term cooling phase, benthic foraminiferal δ18O values show a positive shift lasting about 1.5 Myr (71.5–70 Ma). This shift can be observed on a global scale and has become known as the Campanian-Maastrichtian Boundary Event (CMBE). It is proposed that this δ18O excursion is influenced either by changing intermediate- to deep-water circulation or by temporal build-up of Antarctic ice sheets. Benthic foraminiferal assemblage counts from a southern high-latitudinal site near Antarctica (ODP Site 690) are analyzed to test if the influence of the CMBE on the benthic species composition. One of the two discussed hypotheses for the causation of the δ18O transition is a change in intermediate- to deep-water circulation from low-latitude to high-latitude water masses. This change would result in cooler temperatures, higher oxygen concentration, and possibly lower organic-matter flux at the seafloor, causing a major benthic foraminiferal assemblage change. Another possible explanation of the δ18O transition of the CMBE is significant ice formation on Antarctica. However no major benthic foraminiferal assemblage change would be expected in this case. The benthic foraminiferal assemblage of Site 690 shows a separation of the studied succession into two parts with significantly different species composition. The older part (73.0–70.5 Ma) is dominated by species, which are typical for lower bottom water oxygen concentration and more common in low-latitude assemblages. Species dominating the younger part (70.0–68.0 Ma) are indicators for well-oxygenated bottom waters and more common in high-latitude assemblages. This change in the benthic foraminiferal assemblages is interpreted to represent a shift of low-latitude toward high-latitude dominated intermediateto deep-water sources. A change in oceanic circulation was therefore at least a major component of the CMBE. The Pacific Ocean contributed significantly to the climatic development during the Late Cretaceous cooling period. The contribution of ocean circulation changes in the Pacific Ocean to the Late Cretaceous climatic development in general and the CMBE and Mid-Maastrichtian Event (MME) in particular, however, is poorly understood. Previously measured high resolution planktic and benthic stable isotope data and a neodymium (Nd) isotope record from the Pacific ODP Site 1210 (Shatsky Rise, tropical Pacific Ocean) for the Campanian to Maastrichtian (69.5 to 72.5 Ma) are used to reconstruct changes in surface- and bottom water temperatures as well as changes in the source region of deep- to intermediate waters [see Appendix 4; Jung et al. 2013]. The results of the benthic foraminiferal δ18O and Nd isotope records in combination with Nd isotope records from other studies indicate changes in the intensity of intermediate- to deep ocean circulation in the tropical Pacific across the Campanian-Maastrichtian interval [see Appendix 4; Jung et al. 2013]. During the early Maastrichtian (72.5 to 69.5 Ma), a three-million-year-long period of cooler conditions and a simultaneous change towards less radiogenic Nd isotope signatures is interpreted to represent a period of increased admixture and northward flow of deep waters from the Southern Ocean (Southern Component Water, SCW). This change was probably caused by an intensified formation of deep waters in the Southern Ocean. This was reduced again during the MME (69.5 to 68.5 Ma). This early Maastrichtian cold interval is similar to the CMBEδ13C fall and succeeding δ13C rise towards the MME and is therefore also interpreted to represent tectonically forced, long-term changes in the global carbon cycle and thus a tectonic forcing of the early Maastrichtian climate cooling. Overall, the Campanian-Maastrichtian Nd and stable isotope records of Shatsky Rise indicate changes in ocean circulation that are paralleled by global warming and cooling periods. The fluctuating strength of SCW contribution in the tropical Pacific points towards an increased respectively weakened ocean circulation, which is probably related to the strength of deep-water formation in the Southern Ocean [see Appendix 4; Jung et al. 2013]. For this study, the analysis of benthic foraminiferal assemblages of Site 1210 is carried out for the same time interval (69.5 to 72.5 Ma) as Nd and stable isotopes to evaluate the influence of intermediate- to deep ocean circulation changes on the benthic foraminiferal community. The possible reaction of benthic foraminiferal assemblages is compared to the results of stable isotope and neodymium isotopes. The observed changes in species abundances only partly reflect the circulation changes reconstructed with Nd and stable oxygen istopes. For example, Stensioina spp., Aragonia spp. and Lenticulina spp., cold-water preferring species, start to be increasingly abundant at the beginning of enhanced influence of SCW. However, their abundance pattern does not follow the varying strength of the cold SCW influence at Shatsky Rise. Other species prefer lesser oxygen concentrations and warmer bottom water, e.g. Paralabamina spp. and Globorotalites spp. Paralabamina spp. has its highest relativ abundance at the beginning of the studied succession, where the influence of SCW is small. However, this taxa occurs throughout the record, even though the influence of SCW increases. Globorotalites spp. is even most abundance after the CMBE, where bottom waters are till cold and influenced by SCW. This leads to the conclusion that the varying strength of SCW in the tropical Pacific at Shatsky Rise through the studied interval is not facilitating a significant faunal turnover as has been observed at the South Atlantic Site 690 (Chapter 3). These results of the benthic foraminiferal assemblage analysis suggest a rather minor influence of the SCW on the major environmental factors that are generally influencing benthic foraminiferal communities (e.g., oxygen concentration, organic matter flux to the sea floor, bottom-water temperature). The second major part of this thesis focused on the late Pliocene-earliest Pleistocene. The late Pliocene is characterized by a long-term global cooling trend resulting in a major increase of Arctic ice sheets from around 3 Ma onwards, culminating in the Plio-Pleistocene intensification of the Northern Hemisphere glaciation. At around 2.7 Ma, large amplitude glacial-interglacial excursions (~1‰ δ18O in benthic foraminiferal calcite) in benthic oxygen isotopes can be observed. Marine isotope stage (MIS) 100 at around 2.55 Ma is the first glacial, when widespread ice rafted debris has been found in sediments in the North Atlantic Ocean. To gain a deeper understanding of the climatic evolution of the latest Pliocene-early Pleistocene, it is necessary to improve the reconstructions of North Atlantic paleohydrography, as the North Atlantic provides a key region for global climate. The consequences of the intensification of Northern Hemisphere on the early Pleistocene North Atlantic thermocline stratification and intermediate waters are still poorly understood. However, surface hydrography, the history of the thermocline and development of North Atlantic intermediate waters are well-studied for the Last Glacial Maximum (LGM). These well-known mechanisms responsible for the LGM in comparison with the present-day interglacial North Atlantic are used as an analogue for te early Pleistocene glacialinterglacials cycles. In this study, suborbitally resolved stable oxygen and carbon isotope and Mg/Ca records are measured from a deep-dwelling planktic foraminifera (Globorotaliacrassaformis) from Integrated Ocean Drilling Program Site U1313 (North Atlantic, 41°N) covering marine oxygen isotope stages MIS 103 to 95 (early Pleistocene, 2.6 to 2.4 Ma). The results are interpreted to represent a change in intermediate-water masses on glacialinterglacial timescales. During glacials geochemical records in G. crassaformis (~500–1000 m) bear the imprint of Glacial North Atlantic Intermediate Water (GNAIW), while during interglacials this species reflects the signature of the influence of Mediterranean Outflow Water (MOW) in combination with the subtropical gyre. The comparison of this data with the published records from G. ruber from the same samples facilitates the reconstruction of glacial-interglacial stratification changes of the upper water column at Site U1313. The results show that larger gradients of temperature, salinity and δ13C prevailed during glacials, suggesting a stronger stratification of the upper water column. This can be seen to indicate glacial-interglacial changes in ntermediate water masses in the North Atlantic similar to those reconstructed for the latest Pleistocene. As an additional proxy, the clumped isotope paleothermometer is applied for the Late Cretaceous study as well as for the early Pleistocene. This proxy is commonly assumed to be independent of other factors than temperature. Clumped isotopes are measured for the Late Cretaceous Site 690 on the planktic foraminiferal species Archaeoglobigerina australis and compared to already existing stable oxygen isotopes of this species. This is assumed to enable the reconstruction of paleotemperature independent of ice volume and therefore contribute to the long-lasting discussion whether there was a temporal ice build-up on Antarctic during the Campanian-Maastrichtian cooling period. For the early Pleistocene, the planktic foraminiferal species G. crassaformis is used from Site U1313 from MIS 99 (interglacial) and MIS 98 (glacial). This provides the opportunity to separate ice volume, salinity and temperature effects on the measured δ18O record of G. crassaformis. The results of the clumped isotope measurements reveal comparatively large standard errors. For the Late Cretaceous the standard error of the clumped isotope measurements proved too large to allow any conclusions on the temperature component on the δ18O record of A. australis. For the early Pleistocene, the temperature difference is also too small to be reconstructed with the standard error of the clumped isotope measurements in this study. Measuring many replicates of one sample would minimize the standard error considerably. However, the amount necessary to measure replicates cannot be gained for either time period, as almost all foraminifera were picked from the respective samples. It is concluded that the respective questions may be solved with a different method of clumped isotope analysis requiring less sample material. This method is, for example, available at the ETH Zurich.
In this study, the structural and functional properties of the Na+/Betaine symporter BetP were investigated upon K+-induced activation. BetP regulates transport activity dependent on the amount of associated anionic lipids and the cytoplasmic K+-concentration. For this purpose, FTIR spectroscopy was implemented as a non-perturbing biophysical method which shed light on how the membrane lipids contribute to the molecular mechanisms of activation and regulatory response of BetP.
This doctoral thesis is concerned with the development of a method that allows to measure in vivo and non-invasively the mid-infrared absorption spectra of human epidermis, using photoacoustic spectroscopy. The main focus is the monitoring of the glucose level in epidermal interstitial fluid and its correlation with the blood glucose level; which is the most important parameter for the diagnosis and treatment of diabetes mellitus. Most publications in this field have only reported measurements in vitro for the absorption spectra of epidermis in the mid-infrared range. Using the approach presented in this work, it was possible to record in vivo and in situ the absorption spectra of skin of volunteers; and with these spectra, the changing glucose concentration could be monitored. The novelty of the photoacoustic method introduced here is that it operates in acoustic resonance in the ultrasound range. This considerably reduces the signal noise due to the external acoustic background. Although the photoacoustic method reported in this work was used to measure glucose in human epidermis, it can also be applied to other solid samples with relevant absorption bands in the mid-infrared. Furthermore, it can be used in other spectral regions if the laser source covers relevant absorption bands of the sample.
Im Mittelpunkt dieser Arbeit stand die Untersuchung der Reaktivität von Chlorsilanen gegenüber Elektronenpaardonoren. Als Basis hierfür diente die Alkylamin-katalysierte (NMe3, NMe2Et, NEt3) quantitative Disproportionierung von Si2Cl6 bzw. Si3Cl8 zum Neopentasilan 3 und SiCl4 (T ≤ RT, Schema 40). Obwohl diese Reaktion bereits seit über 60 Jahren bekannt ist, sind für ihren Mechanismus nur Vermutungen aufgestellt worden. In Kooperation mit der Gruppe um M. Holthausen ist es hier gelungen, das SiCl2-Amin-Addukt 57 als entscheidende Zwischenstufe zu identifizieren (1H29Si-HMBC-NMR-Experiment sowie DFT-Rechnungen). Si(SiCl3)4, die thermodynamische Senke des Systems, entsteht durch anschließende Insertion des Dichlorsilylens in Si−Cl-Bindungen – bevorzugt am höchst substituierten Si-Zentrum (es bilden sich keine linearen bzw. weniger verzweigten Oligosilane). Zudem lässt sich das koordinierte Amin vom SiCl2-Addukt wieder abspalten, was die Si(SiCl3)4-Synthese überhaupt erst ermöglicht. Dieses Verhalten unterscheidet sich grundlegend vom jenen literaturbekannter stabilisierter Chlorsilylene: hier bindet der Donor so stark an das Si-Atom, dass er den ambiphilen Charakter des Silylens zugunsten der Lewis-basischen Funktion einschränkt. Daher kann man mit diesen Addukten auch keine Oligosilane aufbauen, die mittlerweile auch das Interesse der chemischen Industrie erweckt haben...
Synthese, Reaktivität und strukturelle Vielfalt im Festkörper von Ferrocenylboranen und -boraten
(2013)
The TolC protein of E. coli is a versatile OMF which is involved in secretion of antibiotics, heavy metal ions, secondary metabolites and proteins. These individual tasks are accomplished by a dynamic formation of different secretion complexes which comprising a plasma membrane transporter, a Membrane Fusion Protein and TolC as the outer membrane channel-tunnel. The TolC-like protein HgdD of the cyanobacterium Anabaena sp. PCC 7120 was previously described as an indispensable OMF involved in formation of the heterocyst-specific glycolipid layer which is needed to sustain the microoxic environment that allows nitrogen fixation in heterocysts of filamentous cyanobacteria. Here I show that HgdD is involved in macrolide antibiotic resistance and ethidium efflux, which is used as a model substrate for cytotoxic compounds and secondary metabolites. It can be shown that ethidium uptake is a passive and porin-dependent process, while multidrug efflux is performed together with the RND efflux pump All3143 (and the MFP All3144). In contrast to HgdD, All3143 can complement the function of its homologue AcrB in E. coli and was suggested to be named anaAcrB. Multidrug efflux is assisted by SmsA and SchE, two secondary transporters of the MFS-type, which facilitate the transport of cytoplasmatic ethidium to the periplasmic space prior to the All3143- and HgdD-dependent efflux. Moreover, it can be demonstrated that SchE and HgdD are involved in secretion of the metal ion-chelating siderophore schizokinin, which functions in iron(III) acquisition. However, a physical interaction of SchE and HgdD is unlikely since SchE does not possess an OMF interacting domain. In addition, both RND efflux pumps All3143 and Alr1656 are needed for the homeostasis of the photosystems during diazotrophic growth. Although a direct involvement in heterocyst development or metabolism cannot be discounted at this stage, it is speculated that both RND transporters are involved in detoxification of reactive nitrogen species, similar to the function of MexF and MdtF of P. aeruginosa and E. coli respectively. In addition to its function in multidrug efflux, HgdD has been shown to be involved in protein secretion. By comparative analysis of the Anabaena sp. wild type and hgdD mutant secretome it was possible to identify eight putative HgdD protein substrates. The localization of four proteins was exemplary demonstrated by secretome isolation and cell fractionation of hemagglutinin-tagged mutant strains. The absence of detectable protein in the hgdD mutant strain suggests a highly efficient secretion system which is quality controlled by proteolysis of mislocalized proteins.
Characterization of mouse NOA1 : subcellular localizaion, G-Quadruplex binding and proteolysis
(2013)
Mitochondria contain their own protein synthesis machinery with mitoribosomes that are similar to prokaryotic ribosomes. The thirteen proteins encoded in the mitochondrial genome are members of the respiratory chain complexes that generate a proton gradient, which is the electromotoric force for ATP synthesis.
NOA1 (Nitric Oxide Associated Protein-1) is a nuclear encoded GTPase that positively influences mitochondrial respiration and ATP production. Although a role in mitoribosome assembly was assigned to NOA1 the underlying molecular mechanism is poorly understood. This work shows that the multi-domain protein NOA1 serves multiple purposes for the function of mitochondria. NOA1 is a dual localized protein that makes a detour through the nucleus before mitochondrial import. The nuclear shuttling is mediated by a nuclear localization signal and the now identified nuclear export signal. SELEX (Systemic Evolution of Ligands by Exponential Enrichment) analysis revealed a G-quadruplex binding motif that characterizes NOA1 as ribonucleoprotein (RNP). G-quadruplex binding was coupled to the GTPase activity and increased the GTP hydrolysis rate. The sequence of localization events and the identification of NOA1 being a RNP lead to the discussion of an alternative import pathway for RNPs into mitochondria. The short-lived NOA1 contains ClpX recognition motifs and is specifically degraded by the mitochondrial matrix protease ClpXP. NOA1 is the first reported substrate of ClpXP in higher eukaryotes and augments the contribution of the ClpXP protease for mitochondrial metabolism. To assess the direct action of NOA1 on the mitoribosome co-sedimentation assays were performed. They showed that the interaction of NOA1 and the mitoribosome is dependent on the GTPase function and the nascent peptide chain. In vitro, NOA1 facilitated the membrane insertion of newly translated and isotope labeled mitochondrial translation products into inverted mitochondrial inner membrane vesicles. In conclusion, NOA1 is a G-quadruplex-RNP that acts as mitochondrial membrane insertion factor for mtDNA-encoded proteins.
This thesis provides a comprehensive model of the molecular function of NOA1 and is the basis for future research. The identification of NOA1 as ClpXP substrate is a major contribution to the field of mitochondrial research.
Due to recent technical developments, it became evident that the mammalian transcriptome is much more complex than originally expected. Alternative splicing(AS) and the transcription of long non-coding RNAs (lncRNAs) are two phenomenas which have been greatly underestimated in their frequency. Nowadays it is accepted that almost every gene has at least one alternative isoform and the number of lncRNAs exceeds the one of protein-coding genes.
We built user-friendly web interfaces which can process Affymetrix GeneChip Exon 1.0 ST Arrays (exon arrays) and GeneChip Gene 1.0 ST Arrays (gene arrays)for the analysis of alternative splicing events. Results are presented with detailed annotation information and graphics to identify splice events and to facilitate biological validations. Based on two studies using exon arrays, we show how our tools were used to profile genome-wide splicing changes under silencing of Jmjd6 and under hypoxic conditions. Since gene arrays are not intended for AS analysis originally, we demonstrated their applicability by profiling alternative splicing events during embryonic heart development.
To measure lncRNAs expressions with exon arrays, we completely re-annotation all probes and built a lncRNA specific annotation. To demonstrate the applicability of exon arrays in combination with our annotation, we profiled the expression of tens of thousands of lncRNAs. Further, our custom annotation allows for a detailed inspection of lncRNAs and to distinguish between isoforms, as we validated by RTPCR.
To allow for a general usage to the research community, we integrated the annotation in an easy-to-use web interface, which provides various helpful features for the analysis of lncRNAs.
The prevalence of food allergies has increased in the westernized countries during the past decades. Clinical manifestations of food allergies involve the skin (e.g. atopic dermatitis), the respiratory tract (e.g. rhinitis, and asthma), the ocular area (e.g. conjunctivitis), the gastrointestinal tract (e.g. food-protein-induced enterocolitis syndrome, food-induced proctocolitis, and eosinophilic gastroenteropathies), and the cardiovascular system (e.g. anaphylaxis). A curative treatment of these diseases has not been established yet. Oral immunotherapy (OIT) has gained attention as a potential therapy for food allergies. Continuous feeding of allergenic diet applied in the model described here mirrors to a certain extent an OIT treatment. It might be therefore useful to investigate efficacy and safety of OIT pre-clinically.
Mouse models have been widely used to analyse novel treatment approaches. Unfortunately, most of them have focussed on IgE-mediated hyperreactivity. Only a limited number of mouse models presenting mixed IgE- and non-IgE-mediated gastrointestinal symptoms and inflammation upon allergen-challenge are available. To study the mechanisms underlying the induction of food-induced gastrointestinal inflammation and subsequent oral tolerance induction, a mouse model of food-induced gastrointestinal allergy was established. BALB/c mice were sensitised with Ovalbumin (OVA) plus ALUM and subsequently challenged by feeding a diet containing egg white (EW diet). During the first seven days on EW diet, OVA-sensitised mice (OVA/ALUM EW mice) developed gastrointestinal symptoms (e.g. weight loss, ruffed fur, soft stool and less mobility) and inflammation in the small intestines accompanied by a strong induction of OVA-specific IgE antibodies and mouse mast cell protease-1 (mMCP-1). Proliferation of CD4+ T cells from spleen of OVA/ALUM EW mice was reduced compared controls. The result indicated that feeding EW diet induced T cell tolerance systemically. In contrast, CD4+ T cells isolated from MLN of OVA/ALUM EW mice showed stronger proliferation upon OVA stimulation in vitro than mice OVA-sensitised but fed a conventional diet, indicating that tolerance was not induced by short-term EW diet. Histological analysis of the small intestinal tissue of OVA/ALUM EW mice revealed strong inflammation present in the duodenum, jejunum and ileum at this time point.
Interestingly, the observed symptoms in OVA/ALUM EW mice resolved spontaneously after 7 days on EW diet, if the feeding was continued. In the next steps the CD4+ T cell-mediated immune response after 28 days continuous EW diet was assessed and revealed that tolerance was induced systemically as well as locally. This was shown by reduced proliferation and cytokine secretion of CD4+ T cells from MLN of OVA/ALUM EW mice after long-term EW diet. However, the inflammation in the jejunum was aggravated instead of resolved at this time point of allergenic diet. Our results suggest that application of OIT in food-allergic patients with gastrointestinal inflammation may need to be reconsidered, since continuous administration of allergenic food may aggravate inflammation in the local tissue. Interestingly, only the jejunum was affected by a worsened condition, whereas duodenum and ileum resolved inflammation. In accordance to the observed jejunal inflammation mMCP-1 levels in the sera were not changed. Allergen-specific IgE levels did not reach baseline level after long-term EW diet, although they were reduced compared to levels in mice after 7 days on EW diet. This result suggests that residual OVA-specific IgE antibodies would promote the jejunal inflammation by sustained activation of mast cells. Furthermore, our results suggest that IL-4 produced by activated Th2 cells could be an effector molecule to induce intestinal inflammation.
The second part of this thesis was aimed at verifying the hypothesis that IgE-mediated mast cell activation is a major effector mechanism in induction of chronic inflammation induced by long-term EW diet. For that mice deficient for FcεRI, a high affinity IgE receptor, were used. These mice were sensitised with OVA and fed EW diet as described for WT mice. Although FcεRI-deficient mice showed an intact Th2 immunity with IgE production, weight loss in the receptor-deficient mice was moderately induced by EW diet compared to WT mice, suggesting that this clinical symptom during the acute phase of allergic response is associated with IgE-mediated mechanisms. Surprisingly, the deficient mice presented comparable intestinal inflammation on day seven of EW diet as WT mice did. However, if EW diet was continued, recovery of intestinal inflammation was observed in FcεRI-deficient mice in contrast to WT mice. These results suggest that the induction of intestinal inflammation is not IgE-dependent. Nevertheless, this does not rule out a potential role of mast cells in the inflammation, because of their IgE-independent activation pathways. It also suggests the involvement of T cell-mediated mechanisms during induction of jejunal inflammation. Interestingly, the aggravated inflammation seen after long-term EW diet in WT mice seems to be IgE-dependent, considering that it was not observed in FcεRI-deficient mice. The elevated number of mast cells in the intestine of WT mice further led to a hypothesis that their continuous activation might be responsible for the chronification of allergic inflammation observed after long-term EW diet. In the context of OIT it further implies that IgE might be a poor prognostic factor for recovery of intestinal inflammation during and after an OIT treatment. In the third part of this thesis regulatory mechanisms employed by the immune system were analysed. Initial results from CD4+ T cells isolated from MLN from OVA/ALUM EW mice showed elevated IL-10 levels in their supernatants after short-term EW diet. IL-10-deficient mice were used to analyse the effect of this immunosuppressive cytokine in the mouse model presented here. However, IL-10-deficient mice tend to develop a strong Th1-dominated immune response. Nevertheless, an accelerated weight loss and slight inflammation of the jejunum was observed after short-term EW diet. Analysis of OVA-specific proliferation and cytokine production CD4+ T cells from Spleen and MLN of IL-10-deficient mice on EW diet suggested that systemic as well as local tolerance was induced after short-term and long-term EW diet feeding, respectively. The result suggests that IL-10 is dispensable for induction of T cell tolerance in our mouse model.
However, the presence of functionally active Tregs was observed during this study in WT mice fed short-term EW diet, suggesting that Tregs might have an important role in regulating the systemic or local immune response. T cell deletion as an alternative immune regulatory mechanism was also observed. Additionally, the efficacy of continuous EW diet (mirroring to a certain extent an OIT treatment) in induction of permanent tolerance was assessed. In OVA-sensitised WT mice continuous allergenic diet was stopped after resolution of clinical symptoms and reintroduced after a defined period on conventional diet. Evaluating the weight development showed that reintroduction of EW diet induced weight loss again, but not as pronounced as seen after short-term EW diet. Also the CD4+ T cell-mediated response was elevated again upon allergen stimulation in vitro. The results suggested that permanent tolerance was not induced in the chosen feeding regime.
The mouse model established and analysed here was used to investigate inflammatory and regulatory mechanisms underlying food-induced gastrointestinal allergy. It presents clinical symptoms and intestinal inflammation (Burggraf et al., 2011). This model is easy to be reproduced in different laboratories, and is useful for testing novel therapy approaches (Schülke et al., 2011; Bohnen et al., 2013). It further provides an opportunity to investigate basic mechanisms underlying OIT. This therapy approach is currently extensively investigated and our mouse model would help to understand the therapeutic mechanism of OIT.
Die Idee photolabile Schutzgruppen zur temporären Inaktivierung von Biomolekülen zu verwenden, um deren Funktion dann in einem biologischen System präzise orts- und zeitaufgelöst wieder zu aktivieren und so biologische Prozesse genau steuern zu können, wurde erstmals Ende der 1970er Jahre von J. W. Engels und von J. F. Hoffman verfolgt. Seit diesen ersten Arbeiten im Bereich des „Cagings“ wurde in den vergangenen Jahrzehnten eine Vielzahl von Arbeiten auf diesem Gebiet veröffentlicht und mit nahezu alle wichtigen Klassen von Biomolekülen wurden Caging-Experimente durchgeführt. Das Caging von Nukleinsäuren ist noch ein recht neues Feld. Es gab aber aufgrund der Beteiligung von Nukleinsäuren an vielen zentralen zellulären Prozessen im letzten Jahrzehnt ein enorm gesteigertes Interesse an lichtinduzierbaren Nukleinsäuren, vornehmlich zur lichtgesteuertem Genregulation. Der Arbeitskreis von Prof. Heckel befasst sich unter anderem mit dem Caging von Nukleinsäuren, wobei die zentrale Strategie im Anbringen der photolabilen Schutzgruppen an den Nukleobasen besteht. Dies hat den Hintergrund, dass auf diese Art und Weise die Wechselwirkung mit anderen Strängen durch Störung der Watson-Crick-Basenpaarung verhindert werden kann. Die Watson-Crick-Basenpaarung ist das zentrale Element für die Funktionalität nahezu aller Nukleinsäure-vermittelter Prozesse. In den vergangenen Jahren konnte mit dieser Strategie unter anderem erfolgreich die Aktivität von siRNAs und Aptameren mit Licht kontrolliert werden. Alle vier Projekte, welche in dieser Arbeit verfolgt wurden, befassten sich mit dem Caging von Nukleinsäuren. ...
We study the price-setting problem of market makers under perfect competition in continuous time. Thereby we follow the classic Glosten-Milgrom model that defines bid and ask prices as the expectation of a true value of the asset given the market makers partial information that includes the customers trading decisions. The true value is modeled as a Markov process that can be observed by the customers with some noise at Poisson times.
We analyze the price-setting problem by solving a non-standard filtering problem with an endogenous filtration that depends on the bid and ask price process quoted by the market maker. Under some conditions we show existence and uniqueness of the price processes. In a different setting we construct a counterexample to uniqueness. Further, we discuss the behavior of the spread by a convergence result and simulations.
Es gibt für die Orientierung von Vögel ein allgemeingültiges Konzept, das Karte-Kompass-Prinzip (Kramer 1953, 1957): Der Karten-Schritt besteht darin, den eigenen Standort zu ermitteln und mit dem Ziel in Beziehung zu setzten. Damit wird die geografische Richtung bestimmt, die im Kompass-Schritt in eine konkrete Richtung umgesetzt wird. Für Beides nutzen Vögel auch das Magnetfeld der Erde; in der Karte als einen Faktor den Verlauf der Intensität, im Magnetkompass die Achse der Feldlinien. Der Magnetrezeptor, der die Karte mit Informationen versorgt, ist im Schnabel lokalisiert, der des Kompasses im Auge. Ich habe mich in meiner Arbeit darauf konzentriert, die zwei potenziellen Magnetrezeptoren der Vögel feinstrukturell und immunhistologisch weiter zu charakterisieren.
Für den Magnetkompass wird auf Grund des Radikalpaar-Modells angenommen, dass Cryptochrome die Rezeptormoleküle sein könnten (Ritz et al. 2000). Bei Vögeln sind vier Cryptochrome bekannt, allerdings muss das Rezeptormolekül des Magnetkompasses auch in seiner Lokalisation bestimmte Kriterien erfüllen. Die für meine Arbeit bedeutsamen Kriterien sind: (1) die gleiche Ausrichtung der Proteine in einer Rezeptorzelle und (2), dass die einzelnen Rezeptorzellen alle Raumrichtungen abdecken. Ich habe in meiner Arbeit Cryptochrom 1a (Cry1a) und Cryptochrom 1b (Cry1b) auf ihr Vorkommen in der Retina von Rotkehlchen (Erithacus rubecula) und Hühnern (Gallus gallus) untersucht. Cry1b befindet sich bei Rotkehlchen während der Zugzeit in den Ganglienzellen, in denen es teilweise an Membranen gebunden vorliegt, die jedoch keine bevorzugte Richtung haben. Somit erscheint mir Cry1b als Rezeptormolekül für den Magnetkompass als eher ungeeignet. Cry1b könnte, wie viele Cryptochrome, an der Steuerung von circadianen Rhythmen beteiligt sein. Cry1a hingegen ist bei beiden untersuchten Vogelarten in den UV/V-Zapfen an die Diskmembranen gebunden, was eine Ausrichtung ermöglicht. Die UV/V-Zapfen sind über die gesamte Retina gleichmäßig verteilt, und durch die sphärische Form des Auges decken die einzelnen Rezeptoren jede Raumrichtung ab. Somit erfüllt Cry1a die Bedingungen des Radikalpaar-Modells, und ich schließe daraus, dass es sich hierbei um das Rezeptormolekül des Magnetkompasses handeln könnte. Cry1a ändert nach Lichtabsorption wie viele Cryptochrome seine Konformation. Der von mir verwendete Antikörper bindet nur die lichtaktivierte Form des Proteins. In Versuchen, in denen Hühner verschiedenen monochromatischen Lichtern ausgesetzt wurden, zeigt sich, dass sich Cry1a in UV bis Gelb in lichtaktiviertem Zustand befindet. Dies stimmt sowohl mit der spektralen Empfindlichkeit des Magnetkompasses der Vögel als auch mit der des Flavins, des lichtsensitiven Teils des Cryptochroms, überein. Versuche mit grünem Licht lassen vorsichtige Rückschlüsse auf das für den Magnetkompass relevante Radikalpaar zu: so ist das Flavin erst im zweiten Oxidationsschritt grünlicht-sensitiv, und Cry1a ist nur nachweisbar, also lichtaktiviert, wenn der erste Schritt bereits im Hellen abgelaufen ist. Versuche in denen die Tiere vorab im Dunkeln waren, führen nicht zur erneuten Lichtaktivierung unter grünem Licht. Dies macht nur eines der beiden im Flavinzyklus entstehenden Radikalpaare wahrscheinlich, nämlich das in der Reoxidation entstehende, da das Radikalpaar im ersten Schritt der Oxidation unter Grün nicht entsteht.
In Bezug auf den Magnetrezeptor im Schnabel konnte bereits bei Tauben eine detaillierte Struktur beschrieben werden, die als Magnetrezeptor geeignet ist, nämlich Magnetit- bzw. Maghemit-Teilchen in Dendriten der Nerven (Fleissner et al. 2003). Auch Hühner haben eisenhaltige Strukturen im Oberschnabel, die in ihrer Eisenoxid-Zusammensetzung denen der Tauben entsprechen (Falkenberg et al. 2010). Ich konnte in meiner Arbeit zeigen, dass die eisenhaltigen Strukturen im Oberschnabel der adulten Hühner an oder in Nervenfasern liegen. Elektronenoptisch bestehen diese eisenhaltigen Strukturen im Nervengewebe bei Hühnern, wie bei Tauben beschrieben, aus einem 3-5 µm großen Vesikel, der von eisenhaltigen ‘Schuppen’ besetzt ist, aus circa 1 µm langen Plättchen und Kugeln mit einem Durchmesser von etwa 1 µm. Sie sind in Feldern angeordnet, in denen diese Zellstrukturen gleich ausgerichtet sind. In der Anzahl und Lokalisation der Felder der eisenhaltigen Dendriten gibt es Unterschiede zwischen Hühnern und Tauben, allerdings ist unklar, inwie¬weit dies zu Unterschieden in der Verarbeitung im Gehirn führt. Die Entwicklung der eisenhaltigen Dendriten der Hühner beginnt erst nach dem Schlupf, am Tag des Schlupfes haben Küken noch keine eisenhaltigen Strukturen, abgesehen von roten Blutkörperchen. In den ersten 5 Tagen werden eisenhaltige Makrophagen im frontalen Bereich des Schnabels gebildet, die anschließend wieder reduziert werden. Bei 12 Tage alten Hühnern werden diese auch im lateralen Bereich des Oberschnabels angelegt und ebenfalls dort bis Tag 21 wieder reduziert. 21 Tage alte Hühner haben nur noch wenige eisenhaltige Makrophagen, allerdings ein erstes Feld von eisenhaltigen Dendriten. Die Röntgenabsorption zeigt einen Unterschied in der Eisenoxid-Zusammensetzung zwischen eisenhaltigen Makrophagen und eisenhaltigen Dendriten. Es könnte sein, dass die eisenhaltigen Makrophagen an der Synthese der eisenhaltigen Dendriten beteiligt sind, da sie Eisen aufnehmen, aber auch wieder abgeben können und in demselben Zeitraum reduziert werden, wie die eisenhaltigen Dendriten aufgebaut werden.
Sowohl Tauben als auch Rotkehlchen haben sich phylogenetisch bereits vor 95 Millionen Jahren von den Hühnern abgespalten. Es gibt sowohl in der Lokalisation von Cry1a als auch in der Struktur der einzelnen eisenhaltigen Dendriten keine Unterschiede, so dass es sich bei den beiden Magnetrezeptoren der Vögel vermutlich um sehr alte Mechanismen handelt, die sich in der Evolution kaum verändert haben. Vermutlich sind sie vogelspezifisch, da es in dieser Hinsicht keine erkennbare Gemeinsamkeit mit anderen Wirbeltieren gibt.
Smoking tobacco throughout pregnancy is one of the single most important avoidable causes of adverse pregnancy outcomes. If compared with other risk factors in the perinatal period, exposure to tobacco smoke is considered to be amongst the most harmful. It is associated with high rates of long and short term morbidity and mortality for mother and child. Despite this importance until now a scientometric analysis about the development and the state of scientific knowledge about smoking and pregnancy has not been published. In order to close this gap this work was conceived. In this dissertation quantitative and qualitative data on this topic was analyzed using a variety of objective scientometric methods like the number of scientific contributions, the number of citations and the modified Hirsch-index (H-index). A collective volume of 10,043 entries covering a time period from 1900 to December 5, 2012 was obtained from the Web of Science (WoS) data base. Publishing activities of authors, institutions and countries, their cooperation, reception within the international scientific community and its reactions were interpreted and illustrated.
In dieser Arbeit wurde eine Messmethode entwickelt, die es ermöglicht, mittels Infrarotspektroskopie quantitative Aussagen über bestimmte Inhaltsstoffe in Körperflüssigkeiten zu machen. Hierfür wurden sowohl selektierte Blutplasma- und Vollblutproben gemessen als auch selektierte Urinproben. Die richtige Selektion des Probensatzes ist von großer Wichtigkeit, um für jede Komponente eine große, unabhängige Varianz der Absorptionswerte zu erhalten. Hierfür wurden sowohl physiologische als auch pathologische Proben in den Datensatz integriert. Um Referenzwerte für diese ausgewählten Proben zu erhalten, wurden konventionelle klinische Methoden verwendet. Grundsätzlich ist die Genauigkeit dieser Methode durch die Genauigkeit der jeweiligen Referenzmethode, also den konventionellen klinischen Methoden, beschränkt. Mit der neu entwickelten Methode besteht nun die Möglichkeit, die wichtigsten Parameter im Blut und Urin schnell, einfach und reagenzienfrei quantitativ zu bestimmen. Zusätzlich zu den in dieser Arbeit angegebenen Inhaltsstoffen ist es möglich, für weitere Komponenten oberhalb eines bestimmten Schwellenwerts quantitative Angaben zu machen. Hierbei könnten z.B. für Albumin oder Glukose im Urin pathologische Proben identifiziert werden und somit Rückschlüsse auf bestimmte Krankheitsbilder ermöglicht werden. ...
Strukturgleichungsmodelle (SEM) werden in den letzten Jahren vermehrt zur Aufdeckung von nichtlinearen Effekten wie Interaktionseffekten oder quadratischen Effekten in der empirischen Forschung verwendet. Daher kommt der Bereitstellung von effizienten und robusten Schätzverfahren für die Analyse von nichtlinearen SEM, die simultan multiple nichtlineare Effekte schätzen können, eine wichtige Bedeutung in der methodologischen Forschung zu. Bisher wurde jedoch nur ungenügend die Problematik untersucht, dass zwar die üblicherweise verwendeten Schätzverfahren aus der Klasse der Produktindikator-(PI)-Ansätze (z.B. der Unconstrained-Ansatz; Kelava & Brandt, 2009; Marsh, Wen & Hau, 2004) und der Klasse der verteilungsanalytischen Verfahren (z.B. LMS oder QML; Klein & Moosbrugger, 2000; Klein & Muthén, 2007) auf der Annahme einer multivariaten Normalverteilung für einen Großteil der im Modell enthaltenen Variablen beruhen, diese jedoch in der Empirie fast nie gegeben ist. Andere Ansätze, wie die momentbasierten Verfahren des 2SMM- oder des MM-Ansatzes (Wall & Amemiya, 2000, 2003; Mooijaart & Bentler, 2010), die die Normalitätsannahme deutlich abschwächen können, finden in der Literatur hingegen nur geringe Berücksichtigung. Im ersten Teil dieser Arbeit werden diese momentbasierten Verfahren zur Schätzung von multiplen nichtlinearen Effekten erweitert und hinsichtlich ihrer Schätzeigenschaften bei nicht-normalverteilten Daten im Vergleich zu den PI- und den verteilungsanalytischen Ansätzen sowohl theoretisch als auch anhand einer umfangreichen Simulationsstudie untersucht (Brandt, Kelava & Klein, in press).
Zusammenfassend zeigt sich, dass LMS und QML bei normalverteilten Indikatoren die effizientesten Schätzungen liefern und in diesem Fall eingesetzt werden sollten. Bei nicht-normalverteilten Daten ist jedoch ein Parameterbias zu beobachten. Der erweiterte Unconstrained-Ansatz liefert zwar sowohl für normalverteilte als auch für nicht-normalverteilte Indikatoren erwartungstreue Parameterschätzungen, die Standardfehler werden jedoch stets unterschätzt (auch bei der Verwendung eines robusten Schätzers für die Standardfehler), was sich in einem erhöhten alpha-Fehler widerspiegelt. Der 2SMM-Ansatz liefert sehr gute Schätzergebnisse für normalverteilte und nicht-normalverteilte Indikatoren und kann insbesondere bei nicht-normalverteilten Indikatoren verwendet werden; bei normalverteilten Indikatoren ist das Verfahren etwas weniger effizient als LMS. Ein Nachteil des Verfahrens ist jedoch seine schwierige Erweiterung für andere als das hier untersuchte Querschnittsmodell (z.B. für Latente Wachstumskurvenmodelle). Der MM-Ansatz zeigt deutliche Schwächen in seinen Schätzungen, die sowohl bei einer simultanen Schätzung von mehr als einem nichtlinearen Effekt als auch bei nicht-normalverteilten Indikatoren auftreten, und stellt daher keine Alternative zu den anderen Schätzverfahren dar.
Um ein Verfahren bereitzustellen, das bei nicht-normalverteilten Daten zuverlässige und effiziente Schätzungen für nichtlineare Effekte liefern kann, wurde der NSEMM-Ansatz entwickelt (Kelava, Nagengast & Brandt, in press). Der NSEMM-Ansatz ist ein allgemeinerer Ansatz als der 2SMM-Ansatz und kann flexibler auch für andere Modelle genutzt werden, da er direkt in Mplus spezifizierbar ist. Der NSEMM-Ansatz verwendet zur Approximation der Verteilung der (latenten) Prädiktoren ein Mischverteilungsmodell, und stellt damit eine Erweiterung der SEMM (Structural Equation Mixture Models) dar. Im Gegensatz zu den SEMM, die nichtlineare Effekte semi-parametrisch modellieren, d.h. keine Funktion für die Nichtlinearität annehmen, verwendet der NSEMM-Ansatz eine parametrische Funktion für die nichtlinearen Effekte (z.B. einen quadratischen Effekt), wodurch eine Aussage über die Effektstärke des nichtlinearen Effekts möglich ist. Neben einer Darstellung des Konzepts der Mischverteilungsmodelle und des NSEMM-Ansatzes werden auch erste Ergebnisse zu den Schätzeigenschaften des NSEMM-Ansatzes im Vergleich zu LMS und dem erweiterten Unconstrained-Ansatz berichtet.
Im letzten Teil der Arbeit wird auf Interaktionseffekte in Längsschnittstudien eingegangen. Hierbei wird das Problem von heterogenen Entwicklungs- und Wachstumsprozessen aufgegriffen, das in der Empirie häufig auftritt, wenn die Streuung der Entwicklungsverläufe von den Ausgangsbedingungen abhängt. Wird diese Heterogenität nicht adäquat berücksichtigt, wie es der Fall bei latenten Wachstumskurvenmodellen (LGM) ist, sind Prognosen basierend auf den Ausgangsbedingungen einer Person nicht akkurat, da die Konfidenzintervalle für die Prognose auf einer fehlspezifizierten Varianz beruhen. Das heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006) erweitert das Standard-LGM um eine heterogene Varianzkomponente, die mit einem spezifischen Interaktionseffekt modelliert wird. Das HGM stellt eine Alternative zu den Growth Curve Mixture Modellen (GMM) dar, wenn keine Annahme über diskrete Klassen getroffen werden soll, sondern eine feinstufigere, kontinuierliche Modellierung der Heterogenität von Interesse ist. In dieser Arbeit wird für das HGM eine Implementierung in Mplus basierend auf dem LMS-Schätzer entwickelt, deren Anwendung und Interpretation an einem empirischen Datensatz aus der AIDS-Forschung demonstriert wird (Brandt, Klein & Gäde, under revision). Die Implementierung ermöglicht eine anwenderfreundliche Verwendung des Verfahrens und erlaubt die Berücksichtigung von Kovariaten zur Erklärung der Heterogenität in den Entwicklungsverläufen. Die Ergebnisse einer Simulationsstudie zeigen, dass das Verfahren auch bei moderater Verletzung der Verteilungsannahmen eine zuverlässige Parameterschätzung liefert.
Die Schwerpunkte dieser Arbeit sind elektrische, stationäre und zeitaufgelöste Transportmessungen an EuB6 sowie die Weiterentwicklung von Messmethoden und Analyseverfahren der Fluktuationsspektroskopie. Durch die Verwendung von
modernen Computern und Datenerfassungskarten konnten die Messmethoden effektiver eingesetzt werden.
Die ersten beiden Kapitel stellen die Grundlagen dar, die für diese Arbeit von Bedeutung sind. Der erste Teil dieser Arbeit wurde der Weiterentwicklung der bereits bekannten Messmethoden unter Verwendung einer schnellen Datenerfassungskarte gewidmet. Im Gegensatz zur Verwendung eines Signalanalysators bietet die Karte die Möglichkeit, auf die Rohdaten im Zeitraum zuzugreifen und sie anschließend mit einer selbst programmierten Software auszuwerten. Die technischen Methoden und der Aufbau der Software wurden in den Kapiteln 3 und 4 vorgestellt. Durch das Ersetzen des Signalanalysators kann bis zu 50% der Messzeit eingespart werden.
Durch die Code-Erweiterung kann bereits nach zwei hintereinander gemessenen Spektren vorläufig bei tiefen Frequenzen ausgewertet und somit frühzeitig entschieden werden, ob eine längere Messzeit aussichtsreich ist. Außerdem wird durch Verwendung der Code-Erweiterung eine sehr viel höhere Spektrendichte (Anzahl von Messpunkten) erreicht. Da im Gegensatz zum Signalanalysator alle gemessenen Spektren gespeichert werden, können in jeder Messung die Spektren auf ihre Korrelation (Korrelationskoeffizient und Zweites Spektrum) hin untersucht werden, ohne zusätzliche Messzeit zu benötigen.
Der zweite Teil dieser Arbeit befasst sich mit den elektrischen Transporteigenschaften von EuB6 und dem Verständnis der Kopplung zwischen Ladungs- und magnetischen Freiheitsgraden. Mittels Widerstands- und nichtlinearer Transportmessungen sowie Fluktuationsspektroskopie wurden Hypothesen von anderen Wissenschaftlern systematisch verifiziert, sowie neue, weiterführende Erkenntnisse gewonnen.
Direkte experimentelle Hinweise für die Phasenseparation sowie das Auftreten von Perkolation aus Transportmessungen fehlten bisher. In dieser Arbeit wurden daher systematisch die elektrischen Transportseigenschaften des Systems in Abhängigkeit von der Temperatur und vom Magnetfeld untersucht. Mittels Fluktuationsspektroskopie konnte erstmals ein direkter Hinweis auf perkolatives Verhalten in den Transporteigenschaften beobachtet werden. Ein starkes nichtlineares Transportsignal (dritter harmonischer Widerstand, DHW) im Bereich von TMI und TC ist eine Signatur einer räumlich inhomogenen Stromverteilung auf der Mikroskala und ein weiterer deutlicher Hinweis auf magnetisch induzierte elektronische Phasenseparation. Insbesondere tritt nichtlinearer Transport bei H = 0 im FM Bereich auf und kann im PM-Bereich bei T > TMI durch externe Magnetfelder induziert werden.
Wie andere Vögel auch, verfügen Hühner über zwei verschiedene Magnetfeldrezeptoren. In der vorliegenden Arbeit werden diese beiden Rezeptoren, vor allem unter dem Aspekt Verhaltensontogenie eingehender untersucht. Meine Ergebnisse werden durch histologische Untersuchungen gestützt. Ich untersuchte zwei Hühnerrassen, einen braunen und einen weißen Legehuhn Stamm. Mit der Standardmethode konnte ich die Befunde der Literatur bestätigen. Zur Untersuchung des Magnetkompasses im Auge, habe ich Hühner darauf trainiert einen roten Tischtennisball, auf den sie geprägt wurden, in einer bestimmten magnetischen Richtung zu suchen. Im unbelohnten“ Test ist das Magnetfeld um 90 Grad gedreht, so dass der magnetische Norden nun im geographischen Osten liegt. Die braunen Hühner benutzen den Magnetkompass zum Lösen der gestellten Aufgabe, die weißen Hühner wählen zufällig eine Richtung. Eine Veränderung der Trainingsmethode, ein Training im gedrehten Magnetfeld und eine „Bestrafung“, haben das Ergebnis verändert. Die weißen Hühner sind nun in der Lage, die magnetisch richtige Richtung zu finden, die braunen Hühner reagieren verängstigt und wählen nur zufällig eine Richtung. Beide Hühnerrassen können also - unter verschiedenen Voraussetzungen - einen magnetischen Kompass für die Orientierung benutzen.
In dieser Arbeit wurde die physiologische Funktion der Klasse I Methyltransferase Rrp8 bei der Ribosomen-Biogenese der Hefe Saccharomyces cerevisiae untersucht. Ziel war es, die Bedeutung des Proteins für die rRNA-Prozessierungsschritte besser zu verstehen und das Substratmolekül zu identifizieren, das durch die katalytische Aktivität von Rrp8p modifiziert wird.
In einer rrp8-ΔC Mutante, bei der die für die C-terminale Methyltransferase-Domäne codierende Sequenz deletiert vorlag, konnte eine leichte Mengenreduktion der 40S Untereinheit gefunden werden, was für eine Beteiligung von Rrp8p an der Biogenese der kleinen Untereinheit sprach. Unter Anwendung eines artifiziellen Tetrazyklin-Aptamer-Systems, das die Regulation der Expression eines spezifischen Gens erlaubt, wurde eine bereits vorher bekannte synthetische Interaktion mit der essentiellen 90SKomponente Nep1p bestätigt. Mit Hilfe dieses Expressionssystems konnte auch für eine reduzierte Expression von Nop14p, einem Interaktionspartner des Nep1-Proteins, eine synthetisch kranke Beziehung mit rrp8-ΔC festgestellt werden. Zusammen mit der Untersuchung des Sedimentationsverhaltens eines markierten Rrp8-Proteins und bekannten Daten aus der Literatur wiesen die genetischen Analysen darauf hin, dass Rrp8p neben dem Einfluss auf späte Reifungsschritte des 90S prä-Ribosoms auch für die frühen Reifungsschritte der 60S Untereinheit wichtig ist. Weitere Interaktionen mit Faktoren, die an der Translation beteiligt sind (TIF4631, DOM34) und die Messung der Translationsaktivität zeigten, dass der Ausfall von Rrp8p nicht nur die Biogenese verzögert, sondern gleichfalls die Funktionsfähigkeit des Ribosoms beeinflusst.
Die in dieser Arbeit durchgeführte phänotypische Analyse einer rrp8-ΔC tc-GAR1 Doppelmutante unterstützte die Vermutung, dass Rrp8p auch frühe Reifungsschritte der 60S Untereinheit beeinflusst. Mit einem in vitro Experiment konnte die Bindung von SAM an Rrp8p gezeigt werden und RP-HPLC Analysen der 25S rRNA verdeutlichten, dass Rrp8p neben dem Einfluss auf die Prozessierungsstelle A2 für die m1A645 Modifikation in Helix 25.1 verantwortlich ist. Die phänotypische Untersuchung einer von P. Kötter und S. Lamberth angefertigten rRNA Mutante (A645U) zeigte, dass die Sequenzveränderung innerhalb der Helix 25.1 der 25S rRNA, die zugleich zum Verlust der Modifikation führt, eine deutliche Auswirkung auf das Zellwachstum und auf das Polysomenprofil hat. Ähnliche Polysomenprofile wurden in den Mutanten rrp8-G209R und rrp8-G209A beobachtet, die ein punktmutiertes Rrp8-Protein exprimieren. Eine reduzierte SAM-Bindungsaktivität des mutierten Proteins führte ebenfalls zu einer reduzierten Menge an m1A645 modifizierter 25S rRNA. Eine im Unterschied zur rrp8-ΔC Mutante auftretende Reduktion der 60S Untereinheit in den Punktmutanten spricht für einen bisher noch unbekannten Einfluss von Rrp8p auf die Biogenese der 60S Untereinheit.
In Zusammenarbeit mit S. Sharma durchgeführte 2D-DIGE Experimente und quantitative Messungen von Transkriptmengen zeigten, dass im Vergleich zu einem Wildtyp-Stamm in einer rrp8-ΔC Mutante einige glykolytische Enzyme in geringerem Maße exprimiert werden, was in Zusammenhang mit einer in höheren Eukaryoten bekannten nukleolären Stressantwort gebracht werden kann. Dies verdeutlicht die komplexe Wechselwirkung zwischen der Ribosomenfunktion und dem Energiemetabolismus.
Spin waves in yttrium-iron garnet has been the subject of research for decades. Recently the report of Bose-Einstein condensation at room temperature has brought these experiments back into focus. Due to the small mass of quasiparticles compared to atoms for example, the condensation temperature can be much higher. With spin-wave quasiparticles, so-called magnons, even room temperature can be reached by externally injecting magnons. But also possible applications in information technologies are of interest. Using excitations as carriers for information instead of charges delivers a much more efficient way of processing data. Basic logical operations have already been realized. Finally the wavelength of spin waves which can be decreased to nanoscale, gives the opportunity to further miniaturize devices for receiving signals for example in smartphones.
For all of these purposes the magnon system is driven far out of equilibrium. In order to get a better fundamental understanding, we concentrate in the main part of this thesis on the nonequilibrium aspect of magnon experiments and investigate their thermalization process. In this context we develop formalisms which are of general interest and which can be adopted to many different kinds of systems.
A milestone in describing gases out of equilibrium was the Boltzmann equation discovered by Ludwig Boltzmann in 1872. In this thesis extensions to the Boltzmann equation with improved approximations are derived. For the application to yttrium-iron garnet we describe the thermalization process after magnons were excited by an external microwave field.
First we consider the Bose-Einstein condensation phenomena. A special property of thin films of yttrium-iron garnet is that the dispersion of magnons has its minimum at finite wave vectors which leads to an interesting behavior of the condensate. We investigate the spatial structure of the condensate using the Gross-Pitaevskii equation and find that the magnons can not condensate only at the energy minimum but that also higher Fourier modes have to be occupied macroscopically. In principle this can lead to a localization on a lattice in real space.
Next we use functional renormalization group methods to go beyond the perturbation theory expressions in the Boltzmann equation. It is a difficult task to find a suitable cutoff scheme which fits to the constraints of nonequilibrium, namely causality and the fluctuation-dissipation theorem when approaching equilibrium. Therefore the cutoff scheme we developed for bosons in the context of our considerations is of general interest for the functional renormalization group. In certain approximations we obtain a system of differential equations which have a similar transition rate structure to the Boltzmann equation. We consider a model of two kinds of free bosons of which one type of boson acts as a thermal bath to the other one. Taking a suitable initial state we can use our formalism to describe the dynamics of magnons such that an enhanced occupation of the ground state is achieved. Numerical results are in good agreement with experimental data.
Finally we extend our model to consider also the pumping process and the decrease of the magnon particle number till thermal equilibrium is reached again. Additional terms which explicitly break the U(1)-symmetry make it necessary to also extend the theory from which a kinetic equation can be deduced. These extensions are complicated and we therefore restrict ourselves to perturbation theory only. Because of the weak interactions in yttrium-iron garnet this provides already good results.
Fungal organisms, including the most common human pathogens Candida spp., are commensal organisms that are widely present as part of the human flora. Fungal infections are, most frequently, local infections that do not compromise the life of patients. However, mycotic diseases can be life-threatening if they become systemic infections. Systemic fungal infections have risen over the last three decades in parallel to the increased immune-compromised population as a consequence of diseases (e.g. HIV/AIDS) or therapeutic interventions that affect the immune system (e.g. chemotherapy for cancer treatment and immunosuppressors used for patients with organ transplants). This has resulted in the demand of new antifungal drugs that can eradicate the new infections caused by these opportunistic fungal pathogens. However, most of the current compounds have poor pharmaceutical properties such as narrow spectrum of activity, susceptibility to be extruded by efflux pumps or lack of specificity, which make them not suitable for human clinical applications. The treatment of fungal and parasitic infections has been traditionally difficult because the infective organisms are eukaryotic cells that share most of the pathways and enzymes with human cells. To avoid side effects and to develop a targeted therapy, the research has traditionally been centered on the very few enzymes and pathways existing in the infectious organism but absent in humans. Until now, antifungal therapeutic options are limited and are almost dominated by azole class of sterol biosynthesis inhibitors affecting the synthesis of ergosterol, a major constituent of the fungal cell membrane. Because human cells do not have a cell wall, the development of effective and safe antifungal agents has also been directed to enzymes required for the synthesis of the cell wall. Alternatively, it is theoretically possible to target enzymes that are present in fungal organisms and in humans, when: 1) sufficient selectivity can be achieved, and 2) inhibition of the fungal enzyme is lethal to the fungus but does not produce major side effects to humans. In this line, it would be ideal to evaluate the development of selective inhibitors of enzymes which are already known to be drug targets, like protein kinases.
In dieser Arbeit wird die Richtungsabhängigkeit seismischer Geschwindigkeiten im Erdmantel unterhalb Deutschlands und angrenzender Gebiete durch die Analyse der teleseismischen Kernphase SKS auf Doppelbrechung untersucht (Scherwellen-Splitting). Die Anisotropie wird durch die Splittingparameter Φ und δt beschrieben und erlaubt Rückschlüsse auf geodynamische Prozesse.
Untersucht werden Aufzeichnungen des Deutschen Seismologischen Regionalnetzes (GRSN) und assoziierter Stationen aus dem Zeitraum von 1993 bis 2009. Für drei Stationen des Gräfenberg-Arrays (GRF-Array) sind Wellenformen ab 1976 verfügbar, welche damit einen weltweit einmaligen Datensatz liefern.
Auf Grund des stetigen Ausbaus der seismologischen Netze und des langen Beobachtungszeitraumes können über 3.000 Seismogramme ausgewertet werden. Der Hauptteil dieser Arbeit besteht daher in der Entwicklung einer automatischen Methodik zur Analyse von SKS-Splitting: ADORE ("Automatische Bestimmung von DOppelbrechnungsparametern in REgionalseismischen Netzwerken"). Für regionale Netze wie das GRSN gewährleistet ADORE eine objektive Bestimmung der Splittingparameter. Zunächst wird das seismologische Netzwerk als seismisches Array aufgefasst, um durch eine Frequenz-Wellenzahl-Analyse den Einsatz der SKS-Phase ohne manuellen Eingriff zu bestimmen. Die Berechnung der Splittingparameter erfolgt durch eine Inversion nach der Methode der Minimierung des transversalen Energieanteils. Automatisch wird das optimale Fenster um den SKS-Einsatz positioniert, für jede Beben-Stations-Kombination werden dazu 3.600 Einzelinversionen durchgeführt.
Um diese Vielzahl von Auswertungen in akzeptabler Zeit zu berechnen, nutzt ADORE moderne Rechnerarchitekturen aus, verteilt die Berechnungen auf mehrere Computer im lokalen Netzwerk und erzielt damit eine Beschleunigung um einen Faktor 60.
Die Analyse des gesamten Datensatzes ergibt folgende Ergebnisse: An allen analysierten Stationen wurde ein Scherwellen-Splitting festgestellt, der Stationsuntergrund weist somit überall Anisotropie auf. Für 240 Erdbeben können insgesamt 494 Wertepaare mit höchster Qualität bestimmt werden.
Unter der Annahme einer homogenen ungeneigten anisotropen Schicht unterhalb der jeweiligen Station können die Einzelmessungen pro Station gemittelt werden. Damit sind Regionen mit ähnlichen Merkmalen gut zu identifizieren: Im Norden Deutschlands herrschen NW-SO-, in der Mitte W-O-Richtungen und im Süden SW-NO-Richtungen vor.
Die Verzögerungszeiten liegen im Bereich zwischen 1.0 (Station Taunus) und 2.2 Sekunden (Tannenbergsthal, TANN). Auf Grund des hohen Wertes sind die Ursachen für die hier beobachteten Zeiten dem Erdmantel und nicht der Kruste zuzuordnen. Die bevorzugte Ausrichtung von anisotropen Kristallen auf Grund von Fließprozessen von Mantelmaterial ist Quelle der beobachteten Anisotropie. Rezente Fließprozesse von Mantelmaterial sind vor allem an der Unterkante der Lithosphäre wahrscheinlich. Durch Gebirgsbildungsprozesse, vorhandene Gebirgswurzeln oder regionale Veränderungen in der Mächtigkeit der Lithosphäre entstehen Barrieren für viskoses Mantelmaterial.
Als tektonische Ursachen für die hier gemessenen Orientierungen ist im Norden die Tornquist-Teisseyre-Linie (TTZ), in der Mitte die Variszische Gebirgsbildung und im Süden Einflüsse des Alpenbogens anzusehen. Ausnahmen bilden die Stationen Clausthal-Zellerfeld (CLZ), Rügen und Black-Forest-Observatory (BFO). Während bei letzterer ein Einfluss der Spreizungszone des Oberrheingrabens zu vermuten ist, scheint die Intrusion des Brockengranits die Beobachtungen an CLZ zu prägen. Rügen liegt in einer Übergangszone zwischen Sorgenfrei-Tornquist-Zone und TTZ.
Durch die Vielzahl von vorhandenen Einzelmessungen lassen sich an manchen Stationen komplexe Modelle untersuchen. Dazu zählen neben Gradientmodellen auch die geneigte Schicht und Zwei-Schicht-Modelle. Für sechs Stationen kann ein Zwei-Schicht-Modell erstellt werden: BFO, Gräfenberg A1, Fürstenfeldbruck (FUR), Rüdersdorf (RUE), TANN und Unterbreitzbach (UBBA). Die Interpretation der Richtungen von oberer und unterer Schicht gelingt für einen Teil der genannten Stationen: An BFO liegt die Orientierung der unteren Schicht parallel zur Vorzugsrichtung der variszischen Gebirgsbildung, jene der obere Schicht antiparallel zur Spreizungsrichtung des Rheingrabens. Für die Station FUR ist eine Überlagerung mit der Streichrichtung des Alpenmassivs zu beobachten. An GRA1 wird die untere Schicht offenbar durch rezente oder eingefrorene Anisotropie des Böhmischen Massivs bzw. des Eger-Riftsystems beeinflusst. Eine vergleichbare Wirkung ist durch die TTZ an der Station RUE zu erkennen.
ADORE wurde weiterhin auf einen Datensatz des temporären RIFTLINK-Projektes angewandt.
Ultrarelativistic Quantum Molecular Dynamics is a physics model to describe the transport, collision, scattering, and decay of nuclear particles. The UrQMD framework has been in use for nearly 20 years since its first development. In this period computing aspects, the design of code, and the efficiency of computation have been minor points of interest. Nowadays an additional issue arises due to the fact that the run time of the framework does not diminish any more with new hardware generations.
The current development in computing hardware is mainly focused on parallelism. Especially in scientific applications a high order of parallelisation can be achieved due to the superposition principle. In this thesis it is shown how modern design criteria and algorithm redesign are applied to physics frameworks. The redesign with a special emphasise on many-core architectures allows for significant improvements of the execution speed.
The most time consuming part of UrQMD is a newly introduced relativistic hydrodynamic phase. The algorithm used to simulate the hydrodynamic evolution is the SHASTA. As the sequential form of SHASTA is successfully applied in various simulation frameworks for heavy ion collisions its possible parallelisation is analysed. Two different implementations of SHASTA are presented.
The first one is an improved sequential implementation. By applying a more concise design and evading unnecessary memory copies, the execution time could be reduced to the half of the FORTRAN version’s execution time. The usage of memory could be reduced by 80% compared to the memory needed in the original version.
The second implementation concentrates fully on the usage of many-core architectures and deviates significantly from the classical implementation. Contrary to the sequential implementation, it follows the recalculate instead of memory look-up paradigm. By this means the execution speed could be accelerated up to a factor of 460 on GPUs.
Additionally a stability analysis of the UrQMD model is presented. Applying metapro- gramming UrQMD is compiled and executed in a massively parallel setup. The resulting simulation data of all parallel UrQMD instances were hereafter gathered and analysed. Hence UrQMD could be proven of high stability to the uncertainty of experimental data.
As a further application of modern programming paradigms a prototypical implementa- tion of the worldline formalism is presented. This formalism allows for a direct calculation of Feynman integrals and constitutes therefore an interesting enhancement for the UrQMD model. Its massively parallel implementation on GPUs is examined.
This thesis presents various algorithms which have been developed for on-line event reconstruction in the CBM experiment at GSI, Darmstadt and the ALICE experiment at CERN, Geneve. Despite the fact that the experiments are different — CBM is a fixed target experiment with forward geometry, while ALICE has a typical collider geometry — they share common aspects when reconstruction is concerned.
The thesis describes:
— general modifications to the Kalman filter method, which allows one to accelerate, to improve, and to simplify existing fit algorithms;
— developed algorithms for track fit in CBM and ALICE experiment, including a new method for track extrapolation in non-homogeneous magnetic field.
— developed algorithms for primary and secondary vertex fit in the both experiments. In particular, a new method of reconstruction of decayed particles is presented.
— developed parallel algorithm for the on-line tracking in the CBM experiment.
— developed parallel algorithm for the on-line tracking in High Level Trigger of the ALICE experiment.
— the realisation of the track finders on modern hardware, such as SIMD CPU registers and GPU accelerators.
All the presented methods have been developed by or with the direct participation of the author.