Universitätspublikationen
Refine
Year of publication
- 2021 (245) (remove)
Document Type
- Doctoral Thesis (245) (remove)
Has Fulltext
- yes (245) (remove)
Is part of the Bibliography
- no (245)
Keywords
- Herrschaft (2)
- Neuroblastom (2)
- Praxistheorie (2)
- 19. Jahrhundert (1)
- 20. Jahrhundert (1)
- 21. Jahrhundert (1)
- 2D materials (1)
- AIFMD (1)
- ALICE upgrade (1)
- ARFI (1)
- ASA (1)
- ASA-Klassifikation (1)
- Abduktion (1)
- Acetogenic bacteria (1)
- Akute lymphoblastische Leukämie (1)
- Alignment (1)
- Allergische Rhinitis (1)
- Alternativbewegung (1)
- Alterung (1)
- Antibiotika (1)
- Antibiotikaresistenz (1)
- Anyone Corporation (1)
- Approximation Algorithms (1)
- Architecture (1)
- Architektur (1)
- Architekturtheorie (1)
- Arthrodese (1)
- Arthroskopischer Bankart-Repair (1)
- Astrophysics (1)
- Athletik (1)
- Autographisches Gedächtnis (1)
- Autoimmun (1)
- BMC (1)
- Bankart-Läsion (1)
- Bartonella henselae (1)
- Bauchaortenaneurysma (1)
- Bayesian Persuasion (1)
- Bildung (1)
- Bindungsanalyse (1)
- Biodiversity (1)
- Biomarker (1)
- Biopysikalische Chemie (1)
- Biotic interactions (1)
- Blue Hole (1)
- Bohmian mechanics (1)
- Bremsen (1)
- Bulgaria (1)
- CBM Experiment (1)
- CD45RA Depletion (1)
- CD8+ zytotoxische T-Zellen (1)
- CNP (1)
- CTC (1)
- CXCL13 (1)
- CXCR5 (1)
- Cancer (1)
- Carbapenemase (1)
- Carbon capture (1)
- Caribbean (1)
- Ceramide (1)
- Checkpoint Inhibitor (1)
- China (1)
- Climate change (1)
- Cognitive Interviews (1)
- Color superconductivity (1)
- Colorectal Cancer (1)
- Computer Vision (1)
- Control System (1)
- Croatia (1)
- Cross-cultural Comparability (1)
- Culicidae (1)
- DNA (1)
- DNP (1)
- Daclatasvir (1)
- Delegated Search (1)
- Deleuze, Gilles (1)
- Demokratie (1)
- Depression (1)
- Developmental Biology (1)
- Diabetes (1)
- EPICS (1)
- Eicosanoide (1)
- Einfühlungsvermögen (1)
- Elastographie (1)
- Emergenz (1)
- Empathie (1)
- Endodontie (1)
- Entzündung (1)
- Erste Hilfe (1)
- Erste-Hilfe-Kurs (1)
- Erythrozytenkonzentrat (1)
- Erzählung (1)
- Eskapismus (1)
- Estimation of height and sex determination (1)
- Ezrin (1)
- FEBID (1)
- Face Reader (1)
- Faltungsdynamik (1)
- Fatty acid synthases (1)
- Festkörperstruktur (1)
- Fibrose (1)
- Financialisation (1)
- Financialization (1)
- Flavoproteins (1)
- Freshwater Ecosystems (1)
- Functional traits (1)
- G-Quadruplex (1)
- Gefäßinflammation (1)
- Gefäßtonus (1)
- Gender reassigning surgery (1)
- Geochemie, Bivalve, Koralle, Foraminifere (1)
- Geschichte 1970-2000 (1)
- Gewalt (1)
- Globalisierung (1)
- Grabreliefs (1)
- Gravitational Waves (1)
- Gravity's Rainbow (1)
- Guanylatzyklasen (1)
- Güntz, Eduard (1)
- HCC (1)
- HCV (1)
- HIV (1)
- Hellenismus (1)
- Herzkatheteruntersuchung (1)
- Hippies (1)
- Hirnmetastasen (1)
- Histonmethylierung (1)
- Hochdurchsatz (1)
- Hochenergiephysik (1)
- Hydrogen storage (1)
- Hydrogen-dependent CO2 reductase (1)
- IFT (1)
- IRIS (1)
- Identität (1)
- Immunmodulation (1)
- Immunofluoreszenz (1)
- Immunoseneszenz (1)
- In-ASK Studie (1)
- Infinite Jest (1)
- Informiertheit (1)
- Innovation (1)
- Integrin (1)
- Intentionale Gemeinschaft (1)
- Internationale Beziehungen (1)
- Internationale Politik (1)
- Interrater Reliability (1)
- Interraterreliabilität (1)
- Intertextuality (1)
- Isopoda (1)
- KR2 (1)
- Kardiovaskuläres Risiko (1)
- Kinetik (1)
- Klassische Archäologie (1)
- Kniegelenkinfekt (1)
- Knieinfekt (1)
- Knochenersatzmaterial (1)
- Knochenmarksmikromilieu (1)
- Kolonkarzinom (1)
- Kommune (1)
- Komplementsystem (1)
- Konsum (1)
- Körpergrößenschätzung, Geschlechtsdiskrimination (1)
- Lebensform (1)
- Lehramtsstudium (1)
- Leksell (1)
- Lipidinteraktion (1)
- Lodore (1)
- Lokales IgE (1)
- MEK inhibition (1)
- MTL30 (1)
- Macht (1)
- Makrophagen (1)
- Malaysian English literature (1)
- Malaysian literature (1)
- Mary Shelley (1)
- Mary Wollstonecraft (1)
- Massenspektrometrie (1)
- Mastectomy (1)
- Measurement Invariance (1)
- Medizinstudierende (1)
- Medizinstudium (1)
- Metabolism (1)
- Metastasen (1)
- Metasurfaces (1)
- Methyltransferase (1)
- Micro Vertex Detector (1)
- Microbiology (1)
- Migration (1)
- Mikropartikel (1)
- Mikroplastik (1)
- Mikrovesikel (1)
- Mikrowellenablation (1)
- Mindestmengen (1)
- Mitral regurgitation (1)
- Mitral valve (1)
- Monocular Scene Flow (1)
- Morbus Basedow (1)
- Multimessenger (1)
- Mädchenerziehung (1)
- NDM (1)
- NMR (1)
- NOD (1)
- NPR2 (1)
- NS5A (1)
- Nachhaltigkeit (1)
- Neonatologie (1)
- Neurochirurgie (1)
- Neurotoxicity (1)
- Neutron Star (1)
- Nicht-allergische Rhinitis (1)
- Niere (1)
- Non-canonical terpenes (1)
- Notfallmedizin (1)
- Numerical Relativity (1)
- Observation Deck (1)
- Online Algorithms (1)
- Online-Umfrage (1)
- Organic micropollutants (1)
- Organoids (1)
- PRF (1)
- Paramecium (1)
- Parkinson (1)
- Patientenaufklärung (1)
- Phase diagram (1)
- Philippines (1)
- Photochemie (1)
- Pink1 (1)
- Plastik (1)
- Polarisierung (1)
- Politik (1)
- Politikwissenschaft (1)
- Polyketide synthases (1)
- Practice Theory (1)
- Prenyl pyrophosphates (1)
- Private Equity (1)
- Propriozeption (1)
- Protein engineering (1)
- Protest (1)
- Pulverdiffraktometrie (1)
- Pädokriminalität (1)
- Pädophilie (1)
- Pädosexualität (1)
- Qualitätsindikator (1)
- Quantum chromodynamics (1)
- Question Under Discussion (1)
- RMN (1)
- RNA biology (1)
- RNA interference (1)
- ROSA (1)
- Reanimation (1)
- Repair (1)
- Revisionsprothese (1)
- Rezidiv (1)
- Riccati equation (1)
- Risk assessment (1)
- Roboter (1)
- Rule (1)
- Russia (1)
- Röntgenstrukturanalyse (1)
- Rückzug (1)
- SF-12 WOMAC KSS (1)
- Scattering-type Scanning Near-field Optical Microscopy (1)
- Schilddrüse (1)
- Schistosomiaisis (1)
- Schmerz (1)
- Schulter (1)
- Serbia (1)
- Service Learning (1)
- Sexueller Missbrauch (1)
- Silafullerane (1)
- Silane (1)
- Silole (1)
- Sodium ion pump (1)
- Sonographie (1)
- South-Eastern Europe (1)
- Soziale Bewegung (1)
- Soziale Bewegungen (1)
- Special Autonomic Policy, Social Political Movements, Papua (1)
- Spectacle (1)
- Speculation (1)
- Sphingolipide (1)
- Stechmücken (1)
- Stereotaxie (1)
- Straftäterinnen (1)
- Synthetische Letalität (1)
- THz (1)
- Tabanidae (1)
- Teaching Quality (1)
- TeraFET (1)
- Terpenes (1)
- Tetrelbindung (1)
- Tradition (1)
- Traffic Scenes (1)
- Transfusion (1)
- Transgender (1)
- Tuberkulose (1)
- Typ 1 Diabetes (1)
- Tödlicher Arbeitsunfall (1)
- UKF-NB-2 (1)
- UKF-NB-2rVCR20 (1)
- USA (1)
- Ultraschall (1)
- Ulysses (1)
- Untersuchungsangst (1)
- VMO (1)
- VR-Simulation (1)
- Verbreitung (1)
- Verpackung (1)
- Versorgungszugang (1)
- Video (1)
- Vincristin (1)
- Vitamin D (1)
- Western Kenya (1)
- Widerstand (1)
- X-ray crystallography (1)
- Youtube (1)
- Zahnmedizinische Fakultäten (1)
- Zeichen (1)
- Zivilgesellschaft (1)
- Zivilgesellschaft, NROs, Flüchtlinge, Libanon, Syrien, Konfessionalismus (1)
- Zolpidem; Food-effect, PBBM, PBPK (1)
- academic writing (1)
- application (1)
- authoritarian systems (1)
- autocracy (1)
- brain waves (1)
- cGKI (1)
- cMYC (1)
- chronische Herzinsuffizienz (1)
- climate (1)
- closed orbit feedback system (1)
- cluster computing (1)
- counter-terrorism (1)
- critical size defect (1)
- cryo-EM (1)
- debugging (1)
- dental schools (1)
- detector (1)
- developmental states (1)
- discourse structure (1)
- distinctive linguistic features (1)
- endodontic curriculum (1)
- endodontic education (1)
- endodontische Ausbildung (1)
- endodontischer Lehrplan (1)
- endodontology (1)
- endothelial cell (1)
- epigenome (1)
- erstarrte Trauer (1)
- field-effect transistor (1)
- fundamental theorem of asset pricing (1)
- gender (1)
- geology (1)
- granulare Metalle (1)
- hTERT (1)
- heavy-ion physics (1)
- high performance computing (1)
- high-energy physics (1)
- high-throughput (1)
- hurricane (1)
- industrial policy (1)
- infra-slow oscillation (1)
- kolorektal (1)
- legitimacy (1)
- low-mass dilepton (1)
- macronucleus (1)
- mechanics (1)
- medical education (1)
- microRNA (1)
- mitochondrial dysfunction (1)
- mounting (1)
- no unbounded profit with bounded risk (1)
- npas4l (1)
- online survey (1)
- paleoanthropology (1)
- paleoecology (1)
- paleontology (1)
- palynology (1)
- pharmacokinetics (1)
- popular fiction (1)
- pronephric duct (1)
- propagating waves (1)
- proportional transaction costs (1)
- quantum hydrodynamics (1)
- quantum mechanics (1)
- quark-gluon plasma temperature (1)
- reptiles (1)
- rhodopsin (1)
- sea-surface-temperature (1)
- section-feature mapping (1)
- self-definierende Erinnerung (1)
- semimartingales (1)
- sexuality (1)
- shroom (1)
- sleep (1)
- small RNA (1)
- solid-state NMR (1)
- stochastic integration (1)
- student abuse (1)
- student mistreatment (1)
- terrorism (1)
- unangemessene Behandlung (1)
- uneindeutiger Verlust (1)
- vasculogenesis (1)
- zebrafish (1)
- Ästhetik (1)
- Ökotoxikologie (1)
Institute
- Medizin (73)
- Biowissenschaften (47)
- Biochemie, Chemie und Pharmazie (40)
- Physik (27)
- Informatik und Mathematik (13)
- Gesellschaftswissenschaften (9)
- Geowissenschaften / Geographie (6)
- Neuere Philologien (6)
- Sprach- und Kulturwissenschaften (5)
- Biochemie und Chemie (4)
Treatment response to neoadjuvant chemoradiotherapy (nCRT) varies considerably among individual patients in advanced rectal cancer indicating a clinical need for markers to predict treatment efficacy and to stratify patients for future personalized treatment. In recent years, there is a tremendous evidence on a pivotal impact of immune components on the development/pathogenesis of cancer and on mediating response to radiation and chemotherapy. Moreover, liquid biopsy biomarkers have become increasingly attractive to predict treatment response because they are easy to collect, reflect information on different aspects of tumor biology and can be accurately measured by standardized methods.
This study aimed to investigate the peripheral blood and tumor tissue immune cell contexture in patients with rectal adenocarcinoma treated with nCRT and chemotherapy (CT) within a prospective randomized phase II CAO-ARO-AIO-12 trial, conducted in the context of DKTK (Deutsches Konsortium für translationale Krebsforschung) and FCI (Frankfurt Cancer Institute), to address the questions whether peripheral blood and/or primary tumor immune contexture predict for treatment response, were modulated by nCRT/CT and correlated with each other. By this, immune cell components were assayed by flow cytometry from peripheral blood mononuclear cells (PBMCs) at baseline, day 43, and pre-surgery of 22 patients treated with nCRT/CT and subsequently correlated with pathologic treatment response. Immunophenotyping was performed applying different staining panels covering myeloid immune cells and human leukocyte antigen (HLA) molecules, T lymphocyte subpopulations and programmed cell death (PD)-1 protein expression and regulatory T cells (Tregs). In addition, tumor tissue samples from pre-therapeutic biopsies and surgical specimens were analyzed by immunohistochemistry and multiparametric immunofluorescence.
The present prospective study raised the following issues. First, peripheral lymphocytes seem to play a crucial role in the nCRT/CT mediated systemic anticancer immunological response. Second, among the various lymphocyte subsets, peripheral blood, but not tissue resident T lymphocytes seem to play a central role in predicting treatment response. By this, baseline blood phenotyping revealed a lymphocyte distribution with high numbers of (CD3+CD4+) T helper cells and low numbers of (CD3+CD8+) cytotoxic T cells expressing PD1, activation markers GranzymeB, perforin and HLA-DR to be associated with an improved response (ypT0ypN0) to nCRT/CT in the patient’s cohort investigated. Further, a decrease in B lymphocyte (CD3+CD19+) count correlated with intermediate and impaired response while an elevated monocyte (CD14+CD33+) levels predicted a complete and intermediate (ypT1-4ypN0) response to nCRT/CT. On a tissue level, patients with a complete response displayed a decrease in the amount of infiltrating neutrophils as the immunoscore of CD15+ cells was significantly higher in patients’ biopsies compared to post-nCRT/CT surgical specimen, while in both, patients with complete and intermediate response an increase of natural killer (CD56+) cell density and GranzymeB expression was observed. Finally, no significant correlation was observed between peripheral blood and tissue immune marker expression.
To validate and expand these findings, a continuation of the analysis in an extended patient cohort is necessary. In addition, a detailed insight on the role of peripheral blood T cells and monocytes and their activation status is desirable. Further, in a follow-up trial, soluble activation markers/cytokines should be assayed, further distinguishing activated from resting or exhausted lymphocytes.
Durch die sich verändernde Altersstruktur nehmen die Inzidenz und Prävalenz von Herzklappenerkrankungen wie der Mitralinsuffizienz weltweit zu, verbunden mit einem Verlust an Lebensqualität und Lebensjahren für den individuellen Patienten und hohen Kosten für das Gesundheitssystem. Die Standardtherapie, eine chirurgische Rekonstruktion oder ein Ersatz der Mitralklappe kommt aufgrund von Alter und Begleiterkrankungen (insbesondere der Herzinsuffizienz) bei bis zu 50% der Patienten nicht in Frage. Die MitraClip- Prozedur ist ein etabliertes Verfahren zur minimalinvasiven Therapie der hochgradigen Mitralklappeninsuffizienz bei Patienten mit hohem Operationsrisiko. In einigen, jedoch nicht allen Patientenkohorten konnte ein positiver Einfluss auf Rehospitalisierungen und Sterblichkeit gezeigt werden. Insbesondere Patienten mit Rechtsherzdysfunktion (RVD) scheinen weniger zu profitieren. Aufgrund des individuellen Risikos des Eingriffs und der erheblichen Kosten ist es notwendig, Patienten zu identifizieren die von dem Eingriff profitieren und solche bei denen ein ungünstiges Nutzen/ Risikoverhältnis besteht.
Im Rahmen des Frankfurter Mitralklappenregisters wurden 119 Patienten im interdisziplinären Konsens („Heart Team“) vom 07/2013 bis 02/2017 mit der MitraClip Prozedur behandelt und nach ihrem schriftlichen Einverständnis in die Analyse eingeschlossen. Der Langzeitverlauf wurde bis zum 31.12.2017 beobachtet.
Ziel der Studie war, zu erfassen, ob die Anwendung von bei Herzinsuffizienz etablierten Prognosemodellen bei diesen Patienten sinnvoll ist und ob sich das Seattle Heart Failure Model (SHFM) und der Meta-Analysis Global Group in Chronic Heart Failure (MAGGIC) Score in ihrer Genauigkeit bei diesen Patienten unterscheiden insbesondere im Kontext einer RVD.
Die Diagnose einer RVD erfolgte über den im Herzultraschall leicht zu erfassenden Parameter „Tricuspid Annular Plane Excursion“ (TAPSE), der die während der Systole zurückgelegte Strecke des Trikuspidalrings misst.
Die Genauigkeit in der Vorhersage der 1- Jahres Mortalität der beiden Scores wurde durch die Bestimmung der Area under the Receiver Operating Characteristic (AUROC) ermittelt.
Innerhalb eines Jahres nach MitraClip- Therapie verstarben 29 Patienten (28.2%) des Gesamtkollektivs. Bei Patienten mit funktioneller Mitralklappeninsuffizienz (FMR) betrug die 1- Jahres Mortalität 23,3%, bei Patienten mit degenerativer Mitralklappeninsuffizienz (DMR) 31,7%. In der Kaplan- Meier Analyse bestand eine signifikant erhöhte 1- Jahres Mortalität für Patienten mit RVD (34.8 vs 22.8%; p=0.009). Patienten mit FMR wiesen eine erhöhte Sterblichkeit auf, wenn gleichzeitig eine RVD bestand (38.1% vs 9.1% ohne RVD). Diese Assoziation bestand bei Patienten mit DMR nicht (32% mit RVD vs. 34.3%).
Die prognostische Genauigkeit beider Scores war im Gesamtkollektiv vergleichbar (SHFM: 0.704, MAGGIC: 0.692). Das gilt auch für separate Analysen nach funktioneller/ degenerativer Genese der Mitralklappeninsuffizienz (FMR: SHFM 0.696, MAGGIC 0.722; DMR: SHFM 0.727, MAGGIC 0.629). Bei Patienten ohne RVD zeigt das SHFM jedoch eine höhere diagnostische Genauigkeit als der MAGGIC Score (SHFM: 0.775; MAGGIC: 0.551, p <0.05). Bei Patienten mit Rechtsherzdysfunktion bestehen keine signifikanten Unterschiede (SHFM: 0.615; MAGGIC: 0.799, p>0.05), auch wenn ein Trend zugunsten des MAGGIC Scores bestand.
Eine bestehende RVD ist ein wichtiger prognostischer Marker für Patienten, die mit einem Mitraclip behandelt werden und sollte in der Entscheidungsfindung des „Heart Teams“ berücksichtigt werden. SHFM und MAGGIC Score besitzen eine adäquate prognostische Trennschärfe in unserer Patientenkohorte, Unterschiede bestehen bei Patienten mit/ ohne RVD. Aufgrund der Heterogenität der Erkrankung sowie der Begleiterkrankungen besteht für beide Scores nur eine moderate Trennschärfe, sie dürfen beim individuellen Patienten nicht einziges Entscheidungskriterium sein. Denkbar wäre, durch einen „machine learning“ Ansatz unter Einbeziehung klinischer, anatomischer, demographischer und laborchemischer Daten ein Score System zu entwerfen, mit dem eine höhere prognostische Genauigkeit erreicht werden könnte.
In dem vergangenen Jahrzehnt sah sich der Kindergarten vor neuen Herausforderungen gestellt, welche die Gesellschaft an ihn heranträgt: Das ist einerseits der gestiegene Anspruch an die Bildungsarbeit bereits im Kindergarten und andererseits der Anspruch an die bessere Vereinbarkeit von Familie und Beruf. Vor diesem Hintergrund werden in der vorliegenden Arbeit die Strukturen der pädagogischen Praxis im Kindergartenalltag analysiert und beschrieben.
Datengrundlage sind Videografien von Kindergartenalltagen in 61 Kindergartengruppen, davon 41 Aufnahmen in Deutschland und 20 in der Deutschschweiz. Zusätzlich wurden die strukturellen Rahmenbedingungen mit einem Fragebogen erhoben. Diese Daten entstanden im Rahmen der Studie „Professionalisierung im Elementarbereich“ (PRIMEL) (Kucharz et al., 2014), welche in der Linie „Ausweitung der Weiterbildungsinitiative Frühpädagogische Fachkräfte“ (AWiFF) vom BMBF gefördert wurde.
Zur Beantwortung der Fragestellung wurden in Anlehnung an Andrist und Chanson (2003) die Videografien inhaltsanalytisch (deskriptiv und induktiv ergänzt) hinsichtlich der gezeigten Strukturelemente kodiert, welche die Gestaltung eines Kindergartenalltags ausmachen: geführte Sequenz, freie Sequenz, angeleitete Sequenz und verbindende Sequenz. Mit Hilfe einer Clusteranalyse (Ward-Methode) wurden die unterschiedliche Verteilung der Sequenzen eines gezeigten Alltages gruppiert und somit einem Strukturierungsmuster (Cluster) zugeordnet. Die Clusteranalyse ergab, dass die Strukturen der pädagogischen Praxis drei Strukturierungsmuster bilden: „Kind-initiiert“, „Fachperson-initiiert“ und „Alltags-orientiert“. In allen Strukturierungsmuster kommen alle Strukturelemente vor. Kennzeichnend für das Strukturierungsmuster „Kind-initiiert“ ist das häufige Vorkommen der freien Sequenz und für das Strukturierungsmuster „Fachpersonen-initiiert“ die vielen geführten Sequenzen. Im Strukturierungsmuster „Alltags-orientiert“ machen verbindenden Sequenzen (Rituale, Routine, Essen und Übergänge), welche alltägliche Handlungen und Rituale umfassen, den größten Teil der Zeit aus.
Die Gestaltung des Mittagessens wurde in drei Videografien inhaltsanalytisch hinsichtlich der Arrangements analysiert. Hier ließen sich induktiv vier Kategorien – Instruktion/ Anweisung, Autonomie/Eigenständigkeit, Akzeptanz von Vorlieben und Abneigungen, Klima/Kultur/Rituale – herausarbeiten und drei Gestaltungstypen – „Familienähnlich“, „Mensaähnlich“ und „pädagogisches Familien-Restaurant“ – unterscheiden.
Die Ergebnisse zeigen auf, dass neben der Altersspanne der Kinder in der Gruppe, das Makrosystem (Länderebene) die Tagesgestaltung des Kindergartens stark beeinflusst. Die Sichtbarmachung der Strukturen auf der Mesoebene ermöglicht es, diese vergleichend zu diskutieren und Implikationen für die pädagogische Praxis abzuleiten.
Unter dem vielseitigen Symptomkomplex der autosomal-rezessiv vererbten Erkrankung Ataxia-teleangiectasia (A-T) nimmt die Lungenschädigung eine herausragende Rolle ein. Sie beeinflusst die Morbidität und Mortalität der Erkrankung durch rezidivierende Infekte, Bronchiektasien sowie akutes oder chronisches Lungenversagen nachhaltig. Als pathophysiologische Grundlage gilt oxidativer Stress mit einer erhöhten Sensitivität für reaktive Sauerstoffspezies (ROS) und DNA-schädigende Reagenzien. Das aus dem gleichnamigen Gen resultierende Protein ATM wird durch das Vorkommen von DNADoppelstrangbrüchen (DSB) und ROS auf verschiedene Arten aktiviert und reguliert anschließend diverse Prozesse wie der DNA-Reparatur und den zellulären Stressantwortmechanismen. Ziel dieser Arbeit war es die Sensitivität von ATM-defizienten Lungenzellen im Hinblick auf oxidativen Stress näher zu untersuchen. Hierfür wurden Atm-defiziente murine Lungenzellen spontan und nach Stimulation mit Bleomycin (BLM) auf ihre prozentuale Verteilung in der Lunge, auf den Level von ROS, ihre Viabilität und ROS-induzierte DNA-Schäden hin untersucht. Spontan zeigte sich ein signifikant erhöhtes Vorkommen von Alveolarepithelzellen vom Typ 2 (AT2-Zellen) in Atm-defizienten Mauslungen im Vergleich zu Wildtyp-Lungen, welches sich durch die Stimulation mit BLM noch verstärkte und auf erhöhte Regenerations- und Reparaturvorgänge in der Lunge hindeutet. Zudem ist der intrazelluläre Level an ROS in den Lungenzellen und AT2-Zellen signifikant erhöht. Mit steigenden Konzentrationen an BLM sank die Zellviabilität pulmonaler Atm-defizienter Zellen deutlich und die Resolution von DNA-Schäden ist im Vergleich zu Wildtyp-Zellen verzögert. Die Ergebnisse der Arbeit deuten auf eine Beteiligung von oxidativem Stress und DNA-Schäden als pathophysiologische Komponente bei der Entstehung der Lungenmanifestation bei A-T hin.
Die NOD.α4-/- Maus ist eine auf hämatopoetische Zellen beschränkt α4-inkompetente Maus auf dem NOD Hintergrund. Die Maus ist vollständig gegen Diabetes gefeit, entwickelt keine Insulitis und keine Sialitis. Analysen der α- und ß-Diversität des Mikrobioms zeigen eine vergleichbare Zusammensetzung in NOD.α4-/- und NOD Kontrollmaus, während erkrankte Mäuse ein auffällig eingeschränktes Mikrobiom und atypische Spezies aufweisen. Inselzellantigen-spezifische CD8+ T-Zellen und anti-Insulin-Autoantikörper sind quantitativ stark vermindert im Vergleich zu NOD Kontrollen, jedoch sicher nachweisbar. Das 5-Linien-Differenzialblutbild ist absolut und relativ unauffällig. Die NOD.α4-/- Maus entwickelt nach adoptivem Transfer von CD3+ Zellen diabetischer NOD-Spender mit kurzer Latenz und 100%iger Penetranz Diabetes, ein isolierter Transfer diabetogener CD4+ Zellen ist hierzu nicht hinreichend. α4-kompetente CD8+ Zellen sind also unerlässlich für den adoptiven Transfer von Diabetes in die NOD.α4-/- Maus. Rekonstitution prädiabetischer wildtypischer NOD Empfänger mit NOD.α4-/- Hämatopoese schützt diese zuverlässig vor dem Progress der Insulitis zum Diabetes. Diese Arbeit unterstreicht und sichert die bisherigen α4-Antikörper Studien in der NOD Maus und korrigiert die Annahme, α4-Blockade schütze nicht vor dem Voranschreiten der Sialitis. NOD.a4-/- Lymphozyten werden regelrecht gegen Autoantigene sensibilisiert, in Ermangelung effektiver Infiltration der Zielorgane bleibt jedoch die Expansion antigenspezifischer T-zellen und das Boosten von humoralen Autoimmunantworten aus. α4-inkompetente Leukozyten migrieren auch nach Beginn einer Insulitis oder damit einhergehender Hochregulierung verschiedenster endothelialer Oberflächenproteine nicht in die entzündeten Langerhans-Inseln. Die sichere Prävention der Erkrankung durch Rekonstitution mit α4-/- Hämatopoese identifiziert die α4-Blockade als mögliche Therapie des Typ 1 Diabetes während der Phase des Prädiabetes.
Es ist bekannt, dass die Aktivierung von S1P-Rezeptoren die Expression von profibrotischen Mediatoren, wie dem Bindegewebswachstumsfaktor CTGF, induzieren und deshalb auch eine Rolle bei der Entstehung der Nierenfibrose spielen kann. In diesem Kontext konnte unsere Arbeitsgruppe zeigen, dass die Aktivierung von S1P5 zur TGF-β2-induzierten CTGF-Expression in humanen glomerulären Mesangiumzellen beiträgt (Wünsche et al. 2015). Im Rahmen dieser Doktorarbeit wurde deshalb die Rolle von S1P5 in einem in vivo-Modell zur Nierenfibrose untersucht. Männliche S1P5-/--Mäuse und Wildtypmäuse mit C57BL/6J-Hintergrund wurden mit einer adeninreichen Diät für jeweils 7 und 14 Tage gefüttert, um eine tubulointerstitielle Fibrose hervorzurufen. Die Nieren von unbehandelten Mäusen des jeweiligen Genotyps dienten als Kontrolle. Die Ergebnisse zeigen, dass S1P5-/--Mäuse geringere Kreatininplasmaspiegel und weniger Schäden im Nierengewebe gegenüber Wildtypen zeigten. Darüber hinaus wurde festgestellt, dass die mRNA-Expression von mehreren Fibrosemarkern und proinflammatorischen Zytokinen in den S1P5-/--Mäusen schwächer war als in den Wildtypen. Die Auswertung von histochemischen Färbungen und Western Blots bestätigte diese Beobachtung. Zusammengefasst kann festgehalten werden, dass S1P5 eine wichtige Rolle bei der Entstehung von Adenin-induzierter Entzündung in der Niere und nachfolgender Pathogenese wie Gewebeschäden und Fibrose spielt.
Ceramide sind ein Bestandteil der Lipiddoppelschicht, in allen eukaryotischen Zellen vorhanden und zentrale Moleküle des Sphingolipidstoffwechsels. Die Synthese und der Abbau der Ceramide werden von vielen verschiedenen Enzymen reguliert. Neben ihrer Aufgabe als strukturelle Elemente der Zellmembranen wurde herausgefunden, dass Ceramide auch in verschiedenen Signalwegen involviert sind, die auch bei Nierenerkrankungen eine Rolle spielen. In Bezug auf die Kettenlänge der angehängten Fettsäure können so genannte kurz- und langkettige Ceramide Apoptose induzieren, wohingegen sehr langkettige Ceramide Zellproliferation fördern. In mehreren Studien wurden bereits Konzentrationsänderungen von kettenlängenspezifischen Ceramiden im Plasma und Serum von Patienten gemessen, die zu diesem Zeitpunkt an einer Nierenerkrankung litten. In dieser Arbeit wurde daher untersucht, ob solche Konzentrationsänderungen auch im Nierengewebe von Patienten und Mäusen mit einer Nierenfibrose, dem Kennzeichen nahezu aller chronischen Nierenerkrankungen, zu sehen sind. Zu diesem Zwecke wurden Biopsien der Nierenrinde und des Nierenmarks von fibrotischen Nieren aus Patienten, die an Hydronephrose und/oder Pyelonephritis litten, und von gesunden Gewebeproben untersucht. Letztere wurden durch Nephrektomien zur Behandlung von Nierenkarzinomen gewonnen und dienten als nichtfibrotische Kontrolle. Zum Vergleich mit fibrotischen Nieren aus Mäusen wurden männliche Mäuse der Linie C57BL/6J mit einer adeninreichen Diät für 14 Tage gefüttert. Die Konzentrationen der Sphingolipide wurden mittels Massenspektrometrie gemessen und die Level der fibrotischen Marker wurden mit Hilfe von RT-qPCR und histologischen Färbungen analysiert. Die Ergebnisse zeigen, dass die sehr langkettigen Ceramide Cer d18:1/24:0 und Cer d18:1/24:1 sowohl in fibrotischen Nierenrindenproben der Patienten als auch in fibrotischen Nieren der Mäuse im Vergleich zu den jeweiligen Kontrollproben signifikant geringer konzentriert waren. Diese Effekte korrelieren mit der Hochregulation der Fibrosemarker COL1α1, COL3α1 und αSMA in den fibrotischen Nieren. Es konnte gezeigt werden, dass nur bestimmte Ceramide in fibrotischem Nierengewebe in ihrer Konzentration verändert sind, was interessante Fragen hinsichtlich der Ursache dieser Veränderungen, ihrer funktionellen Aufgabe und zu möglichen Effekten einer Manipulation des Ceramidstoffwechsels mit dem Ziel der Behandlung der Nierenfibrose oder der Entdeckung neuer Biomarker aufwirft. Die hier präsentierten Ergebnisse zeigen zudem die Eignung von in vivo-Mausmodellen als translationalen Ansatz für das Verständnis der Beteiligung von Ceramiden in menschlichen Nierenerkrankungen.
Die in vitro-Untersuchungen zu der Rolle des S1P-Transporters Spns2 haben gezeigt, dass Spns2 die Expression von CTGF nach Stimulation von Mausmesangiumzellen mit TFG-β2 verstärkt. 24 Stunden nach Stimulation war im Zellkulturüberstand von Spns2-/--mMC im Gegensatz zu Spns2+/+-mMC keine Akkumulation des pro-fibrotischen Zytokins CTGF gegenüber der unstimulierten Kontrolle detektierbar. Nach 48 Stunden Stimulation mit TFG-β2 war die Menge an CTGF im Zelllysat als auch im Zellkulturüberstand von Spns2-/--mMC genauso hoch wie in der unstimulierten Kontrolle. Im Zelllysat und im Überstand der Spns2-/--mMC war die Expression von CTGF weiterhin deutlich höher im Vergleich zu den Proben der unstimulierten Zellen. Die basale und TFG-β2-induzierte Genexpression von S1P-synthetisierenden und S1P-degradierenden Enzymen, sowie die Konzentrationen an S1P und Sphingosin in den Zellen unterschieden sich zwischen Spns2-/--mMC und Spns2+/+-mMC nicht.
Eines der übergeordneten Ziele neurowissenschaftlicher Grundlagenforschung ist es, die Pathomechanismen neuropsychiatrischer Erkrankungsbilder besser zu verstehen. Als Erklärungsmodell für einige dieser Erkrankungen dient unter anderem ein gestörtes Verhältnis zwischen Exzitation und Inhibition im Gehirn. Synaptische Strukturproteine sind wichtige Modulatoren dieses Verhältnisses. Für eine unbeeinträchtigte inhibitorische synaptische Transmission spielt das postsynaptische Zelladhäsionsprotein Neuroligin 2 eine maßgebliche Rolle, um das Gleichgewicht zwischen Exzitation und Inhibition aufrechtzuerhalten. Neuroligin 2 ist an der inhibitorischen Synapse lokalisiert und beeinflusst die Entwicklung, Reifung und Funktion dieser Synapse. Die klinische Relevanz von Neuroligin 2 wurde bereits bei zahlreichen Erkrankungsbildern wie Schizophrenie, Depression oder Epilepsie im Rahmen von Studien nachgewiesen. Um das Verhältnis zwischen Exzitation und Inhibition in vivo sowie Mechanismen der synaptischen Übertragung und Plastizität zu untersuchen, hat sich die Ableitung von Feldpotentialen im Gyrus Dentatus des Hippocampus etabliert. Im Neuroligin 2 Knockout Mausmodell konnte bereits gezeigt werden, dass eine pränatale Deletion dieses Proteins eine stark erhöhte Erregbarkeit der Körnerzellen und eine verminderte GABAerge Netzwerkinhibition im Gyrus Dentatus in vivo zur Folge hat.
Unklar blieb bisher, ob diese durch den konventionellen Neuroligin 2 Knockout (pränatal) hervorgerufenen Netzwerkveränderungen alleine auf das Fehlen dieses Proteins zurückzuführen sind oder durch eine zusätzliche Beeinträchtigung der Hirnentwicklung hervorgerufen werden. Ziel dieser Dissertation ist es deshalb, die Rolle von Neuroligin 2 im Gyrus Dentatus durch einen induzierten Knockout in adulten Mäusen (postnatal) unabhängig von einem möglichen Entwicklungseffekt zu klären.
Dazu wurde im ersten methodischen Schritt dieser Dissertation durch orale Tamoxifen-Gabe eine zeitspezifische konditionale Eliminierung von Neuroligin 2 in genetisch modifizierten, adulten Mäusen erzielt. Im Anschluss an diese konditionale Eliminierung wurde die synaptische Transmission, Plastizität sowie neuronale Erregbarkeit von Körnerzellen im Gyrus Dentatus mittels elektrophysiologischer Experimente untersucht. Hierzu wurde zunächst der Tractus Perforans und die Körnerzellschicht durch stereotaktische Chirurgie in anästhesierten Mäusen lokalisiert. Anschließend wurde eine Stimulation des Tractus Perforans sowie eine Ableitung von Feldpotentialen im Gyrus Dentatus durchgeführt. Um die Erregbarkeit der Körnerzellen, die synaptische Transmission, Kurz- und Langzeitplastizität sowie Netzwerkinhibition im Gyrus Dentatus zu analysieren, wurden unterschiedliche Stimulationsprotokolle verwendet. Im Anschluss an die elektrophysiologischen Experimente wurden die Hippocampi beidseitig entnommen, konserviert und später einer Proteinquantifizierung von Neuroligin 2 mittels Western-Blotting unterzogen.
Die Ergebnisse zeigten ein signifikant verringertes Proteinlevel von Neuroligin 2 auf 41,07% im Hippocampus von konditionalen Neuroligin 2 Knockout Mäusen. Unter dieser Reduktion von Neuroligin 2 in adulten Mäusen war die in vivo Erregbarkeit der Körnerzellen des Gyrus Dentatus sowie GABAerge Netzwerkinhibition weitgehend unbeeinträchtigt und die signifikanten Beobachtungen des konventionellen Knockout Modells ließen sich nicht reproduzieren. Aufgrund der unvollständigen Proteinreduktion lässt sich jedoch nicht abschließend beurteilen, ob die Restmenge den elektrophysiologischen Effekt kompensiert oder ob die im konventionellen Neuroligin 2 Knockout Modell beobachteten Effekte auf eine ausschließliche Rolle von Neuroligin 2 in der Hirnentwicklungsperiode zurückzuführen sind. Kürzlich veröffentlichte Daten zeigten allerdings, dass die postnatale Deletion von Neuroligin 2 in anderen Hirnregionen zu einer verminderten Netzwerkinhibition führt.
Neben der hier verwendeten in vivo Methodik ist eine Ergänzung von Untersuchungen in nicht-anästhesierten Tieren sowie Messungen einzelner Zellen durch whole-cell patch-clamp Untersuchungen in vitro oder in vivo zu erwägen. Es sollte dabei auf eine konditionale Proteineliminierung geachtet werden, damit mögliche Kompensationsmechanismen weitgehend ausgeschlossen werden können. Eine weiterführende immunhistochemische Bildgebung der Hippocampuspräparate, wie sie im konventionellen Knockout durchgeführt wurde, könnte sich hierbei ebenso als aufschlussreich für die Funktion von Neuroligin 2 im Hippocampus des adulten Tieres erweisen.
Die Dissertation widmet sich einem Aspekt der hellenistischen Lebenswelt: dem Stellenwert des Athleten und des Intellektuellen innerhalb der für männliche Polisbürger geltenden Wertprädikationen. Hintergrund der Fragestellung bildet ein für die hellenistische Zeit postuliertes abnehmendes Ansehen der körperlichen gegenüber der geistigen (Aus)bildung – eine Annahme, die sich unter anderem auch auf ein Zurückgehen von Athletenbildern in der griechischen Sepulkralkunst stützt und in der Dissertation kritisch hinterfragt wird. Dazu liegt mit dieser Arbeit eine ausführliche, lokal und chronologisch eingegrenzte Studie zur Ikonographie hellenistischer Grabstelen männlicher Verstorbener aus einem Zeitraum vom 3. Jh. v. Chr. bis in das fortgeschrittene 1. Jh. v. Chr. vor. Die Materialbasis bilden die Stelen aus Delos, Smyrna, Ephesos, Samos, Kyzikos und Rhodos.
Zur Klärung, wie sich die Darstellung von Athleten und Intellektuellen in den betrachteten Regionen quantitativ niederschlägt, wurden das Bildthema sowie die Bildzeichen auf den Grabreliefs analysiert. Hierbei sind mit Bildzeichen vorhandene Attribute, aber auch weitere Hinweise, wie bestimmte Körperhaltungen, gemeint. Unterschieden wird bei den Bildzeichen außerdem zwischen primären und sekundären Bildzeichen, wobei primäre dingliche Zeichen – wie Schriftrolle oder Strigilis – eine meist sichere Zuschreibung zur athletischen bzw. intellektuellen Sphäre gewährleisten, wohingegen etwa die in der Arbeit zu den sekundären Zeichen gezählte Bekleidung oder Haltung ohne weiter verifizierende Bildinhalte zumeist deutungsoffener sind.
Über eine ausführliche quantitative Auszählung der einzelnen Bildzeichen in Verbindung mit den vorkommenden Darstellungsschemata gelangen Rückschlüsse auf die männlichen Repräsentationspraktiken in den betrachteten Regionen. So zeigte sich beispielsweise, dass die Stelen auf Delos im Allgemeinen zwar eher attributarm sind, die Wahl für sportthematische Bildzeichen jedoch vergleichsweise häufig getroffen wurde. Der Vergleich mit Grabmälern aus den übrigen untersuchten Poleis schärfte die Aussagekraft der ikonographischen Analysen, da Unterschiede sowie Gemeinsamkeiten der jeweiligen lokalen Bildsprache, ihrer Kompositionsvorlieben und Bildtraditionen herausgearbeitet werden konnten. Solche stadttypischen Ausprägungen zeigen deutlich, dass die hellenistische Kunst bzw. Kultur nicht als strenge Einheit zu begreifen ist.
Abschließend ist festzuhalten, dass die Athletenpräsentation konstant im männlichen Wertespektrum verankert und etabliert geblieben ist. Folglich ist die Annahme, sportliche Repräsentation habe im Hellenismus zugunsten einer geistigen abgenommen, in dieser Deutlichkeit nicht haltbar. Vielmehr gelten geänderte Bild- und Darstellungsformen, die im Vergleich zur vorhellenistischen Praxis bisweilen recht subtil erscheinen, aber vor allem eine kombinierte Vorführung verschiedener Qualitäten, darunter sowohl geistige wie sportliche inbegriffen, anstrebten.
Die Auswirkungen der syrischen Flüchtlingskrise auf den zivilgesellschaftlichen Sektor im Libanon
(2021)
Die vorliegende Dissertation analysiert die Auswirkungen der syrischen Flüchtlingskrise auf den zivilgesellschaftlichen Sektor im Libanon, in Anbetracht einer historisch engverwurzelten Beziehung zwischen dem Libanon und Syrien. Die Dissertation wird von dem Interesse geleitet, die Rolle der lokalen zivilgesellschaftlichen NROs zu erforschen, die sich mit syrischen Flüchtlingen im Libanon befassen, und versuchen, die Leere des schwachen bzw. minimalistischen libaneischen Staatensystems zu füllen.Es wird untersucht, welche Effekte der syrische Konflikt auf die zivilgesellschaftliche Landschaft im Libanon gehabt hat und wie sich der Zufluss von internationaler Gelder auf die Aktivitäten dieser lokalen NROs sowie auf ihrer Beziehungen zu den libanesischen Staatsbehörden auf nationaler und lokaler Ebene ausgewirkt hat.
Zielsetzung: Das Ziel dieser Arbeit war die Beurteilung der diagnostischen Leistungsfähigkeit der virtuellen Noncalcium (VNCa) Dual-Energy-Computertomographie (DECT) für den Nachweis lumbaler Bandscheibenvorfälle im Vergleich zu der konventionellen Graustufen-Computertomographie. Dabei galt die Magnetresonanztomographie (MRT) als Referenzstandard.
Material und Methodik: Für diese retrospektive Studie wurden 41 Patienten (243 Bandscheiben; Durchschnittsalter 68 Jahre; 24 Frauen [Durchschnittsal-ter, 68 Jahre] und 17 Männer [Durchschnittsalter, 68 Jahre]) zwischen März 2017 und Januar 2018 einer klinisch indizierten DECT, durchgeführt mit einem Dual-Source-Computertomographie (DSCT)-Scanner der dritten Generation (Somatom Force; Siemens Healthineers, Forchheim, Deutschland) sowie einer 3.0-Tesla MRT (Magnetom PrismaFit; Siemens Healthineers, Forchheim, Deutschland) im Abstand von maximal zwei Wochen unterzogen. Sechs Radiologen, verblindet hinsichtlich der klinischen und MRT-Informationen, untersuchten unabhängig voneinander die konventionellen Graustufen-DECT-Bildserien auf das Vorhandensein und den Grad eines Bandscheibenvorfalls sowie der Affektion der Spinalnervenwurzeln. Nach acht Wochen wurden die Bildserien von den gleichen sechs Untersuchern unter Verwendung von farbkodierten VNCa-Rekonstruktionen neu ausgewertet. Die MRT, die von zwei unabhängigen, erfahrenen und in Bezug auf klinische und DECT-Informationen verblindeten Radiologen ausgewertet wurde, diente dabei als Referenzstandard. Sensitivität und Spezifität waren die wichtigsten Kennzahlen der Diagnoseleistung.
Ergebnisse: Insgesamt wurden 112 Bandscheibenvorfälle der Lendenwirbelsäule in der MRT erfasst. VNCa zeigte insgesamt eine höhere Sensitivität (612 von 672 [91%] versus (vs.) 534 von 672 [80%]) und Spezifität (723 von 786 [92%] vs. 665 von 786 [85%]) zur Detektion eines lumbalen Bandscheibenvorfalls im Vergleich zur Standard-Computertomographie (CT) (alle Vergleiche, P < 0.001). Die Interrater-Reliabilität war „exzellent“ für VNCa und „gut“ für die Standard-CT (k = 0,82 vs. 0,67; P < 0.001). VNCa erreichte im Vergleich zum Standard-CT eine überlegene Diagnosesicherheit und Bildqualität bei niedrigerem Bildrauschen (alle Vergleiche, P < 0.001).
Schlussfolgerung: Farbkodierte Dual-Energy CT VNCa-Rekonstruktionen zeigen im Vergleich zur Standard-CT eine signifikant bessere diagnostische Genauigkeit und Sicherheit für die Detektion eines lumbalen Bandscheibenvorfalls.
The Compressed Baryonic Matter (CBM) Experiment will investigate heavy ion collisions and reactions at interaction rates of 100 kHz in a targeted energy range of up to 11 AGeV for systems such as gold-gold or lead-lead. It will be one of the major scientific experiments of the Facility for Antiproton and Ion Research in Europe (FAIR) currently under construction at the site of the GSI Helmholtzzentrum für Schwerionenforschung (GSI) in Darmstadt, Germany. CBM is going to be a fixed target experiment consisting of a superconducting magnet, multiple detectors of various types, and high-performance computing for online event reconstruction and selection. The detector closest to the interaction point of the experiment will be the Micro Vertex Detector (MVD). Consisting of four planar stations equipped with custom CMOS pixel sensors, it will allow to reconstruct the primary vertex with high precision and will help to reconstruct secondary vertices and identify particles originating from conversion in the detector material.
Due to the high interaction rates foreseen for CBM, understanding and minimizing systematic errors due to the detectors’ operating conditions will become all the more important to obtain significant measurement results, as statistical errors in the measurements of many observables are diminishing due to the enormous amount of data available.
Furthermore, the MVD will be the first detector based on CMOS pixel sensors used in a large physics experiment, that will be operated in vacuum. As a result, many aspects of the mechanical and electrical integration of the detector require careful testing and validation.
This thesis addresses both those challenges specifically for the Micro Vertex Detector with the development of a control system for the operation and validation of the MVD prototype “PRESTO” in vacuum. The prototype was selected as device under test as the final MVD is not yet built.
The developed control system helps a) to operate the prototype safely and keep it at the desired working point and b) to record important time-series data of the state of the detector prototype. Those two aspects allow the control system (which might later serve as a ‘blueprint’ for the final detector) to minimize the mentioned systematic errors as much as possible and to contribute to the understanding of remaining systematic errors using correlations with the time-series data. The controlled operation of the prototype in vacuum allowed to validate the integration concepts from a wide range of mechanical and electrical aspects in an endurance test for more than a year with 24/7 operation.
The prototype for this study itself was named “PRESTO” (standing for ‘PREcursor of the Second sTatiOn of the CBM-MVD’). It represents one quadrant of an MVD detector plane, equipped with a total of 15 MIMOSA-26 sensors on the front and back side of a carrier plate. Within this thesis, major parts of the prototype itself were designed. Custom ultra-thin flat flexible cables for data and power were designed and validated. Furthermore, the CNC-machined Aluminium heatsink to mount and cool the prototype design was refined to increase thermal performance. A custom vacuum feedthrough for a total of 21 flat ribbon cables was designed and fabricated. The read-out chain for MIMOSIS-26 was extended to cover a total of 8 sensors with a single and newer TRB-3 FPGA board and was set-up with the prototype. Vacuum equipment including chambers, hoses, pumps, valves and gauges were integrated to form a large vacuum testing system. A cooling circuit for the prototype was assembled comprising an external chiller, hoses, vacuum feedthroughs, as well as temperature, flow and pressure sensors.
The control system was developed to serve the needs of the prototype, while taking the requirements of the final MVD already into account. The main design goals of the control system are:
• compatibility with the other detectors and the overall CBM experiment,
• access to real-time measurements of all necessary parameters (‘process values’),
• reliable, fail-safe operation of the detector,
• recording of all time-series data (‘archiving’),
• cost efficiency and acceptance within the physics community,
• good usability for the users (‘operators’),
• long-term maintainability.
The recorded time-series data of the process variables (i.e. sensor readings) allow a post-measurement analysis of variations in the detector performance. The longterm archiving of all relevant system parameters is therefore of outstanding importance, which is why the software intended for this purpose – called “archiver” – was given special attention in this thesis.
For this reason in particular, it is necessary to implement a comprehensive control system that allows the detector to be operated safely under these conditions and cooled effectively. Before the start of this doctoral thesis, vigilant and extensively trained operators were always necessary for this. The control system that has been developed makes it possible that, after basic training, the detector can also be operated by a less specialised shift supervisor during measurement campaigns.
...
Bezüglich der Arzneimittelforschung galt für sehr lange Zeit das Paradigma "ein Gen, ein Medikament, eine Krankheit". In jüngerer Zeit ändert sich dieses Paradigma jedoch auf Grund von redundanten Funktionen und alternativen sich kompensierenden Signalmustern, die insbesondere bei Krebserkrankungen vorherrschend sind. Daher kann die logische Konsequenz nur sein, Multi-Target-Strategien gegenüber Single-Target-Ansätzen in Betracht zu ziehen. Auf Grund der Schwierigkeit, mit einer Kombination von zwei Einzelwirkstoffen, in diesem Fall BET- und HDAC-Inhibitoren eine konsistente Biodistribution und Pharmakokinetik zu erreichen, wurde nach Einzelmolekülen gesucht, die mehrere inhibitorische Aktivitäten aufweisen. Dies wurde hier zunächst durch die einfache Konjugation von zwei unterschiedlichen Pharmakophoren erreicht.
Insgesamt wurden vier verschiedene Liganden dieses Typs synthetisiert und einer von ihnen, Verbindung 14, zeigte sehr vielversprechende Ergebnisse. 14 vereint den BET Inhibitor JQ1- mit dem HDAC Inhibitor CI994 und hat eine hemmende Wirkung sowohl gegen BRD4- als auch HDAC-Proteine wie durch DSF- und nanoBRET-Assay gezeigt werden konnte. Außerdem zeigten in vitro Assays in PDAC-Zellen, dass 14 ein noch potenterer dualer BET/HDAC-Inhibitor ist als die Kombination aus JQ1 und CI994. Während die Effekte von 14 auf das BETi-Antwortgen MYC denen von JQ1 ziemlich ähnlich sind, sind insbesondere die HDAC-inhibitorischen Effekte nachhaltiger und verstärkt, wahrscheinlich aufgrund einer längeren Verweildauer von 14 auf HDAC als dies bei CI994 der Fall ist. Dies ist durch das hohe Niveau der acetylierten Lysine von Histon H3 im Western Blot erkennbar. Dieses veränderte Expressionsverhalten hatte einen großen Einfluss auf das Zellwachstum und überleben in allen getesteten PDAC-Zelllinien. Hier wurde die Überlegenheit von 14 gegenüber der gleichzeitigen Behandlung der Zellen mit JQ1 und CI994 sehr deutlich. Wurden PDAC-Zellen mit dem dualen Inhibitor 14 behandelt, hatte dies ein geringeres Wachstum und Überleben der Krebszellen zur Folge als mit beiden ursprünglichen Molekülen, unabhängig davon, ob diese einzeln oder simultan verabreicht wurden. Außerdem wurde 14 mit Gemcitabin, einem gut verträglichen Chemotherapeutikum, kombiniert, dass bei PDAC allein nur eine begrenzte Aktivität aufweist. Es stellte sich heraus, dass die Reihenfolge, in der die Medikamente verabreicht werden, einen großen Einfluss auf die Effektivität hatte. Der durch 14 induzierte Stopp des Zellzyklus verhindert den Einbau von Gemcitabin in die DNA, wenn 14 vor oder gleichzeitig mit Gemcitabin verabreicht wird. Wenn jedoch die Behandlung mit 14 nach der Verabreichung von Gemcitabin folgt, wird der durch Gemcitabin induzierte S-Phasen-Arrest und Replikationsstress aufrechterhalten. Im Vergleich zu den meisten früheren Studien, die sich mit dualen BET/HDAC-Inhibitoren beschäftigten, ist dies eine große Verbesserung, da es bisher keinen signifikanten Unterschied zwischen der Verwendung eines dualen BET/HDAC-Inhibitors und der Kombination von zwei Einzelinhibitoren gab.
Als Proof of Concept unterstützten die Daten weitere Bemühungen zur Entwicklung zusätzlicher dualer BET/HDAC-Inhibitoren. Daher wurden zwei weitere Generationen dualer BET/HDAC Inhibitoren entwickelt, die jedoch bisher nicht an die Eigenschaften von 14 anknüpfen konnten. Vor allem die 3. Generation bietet jedoch Raum für Optimierungen, so dass hier möglicherweise noch ein potenter dualer Inhibitor zu finden ist. Sollte es in Zukunft einen zugelassenen dualen BET/HDAC-Inhibitor geben, ist es jedoch nicht unwahrscheinlich, dass keine der hier verwendet BET inhibierenden Strukturen verwendet werden, aber Struktur des HDAC inhibierenden Teils immer noch vergleichbar ist. Der Grund dafür ist, dass die HDAC Inhibitoren größtenteils relativ einfach aufgebaut. So lange das wichtigste, die zinkbindende Gruppe vorhanden ist, scheint der Linker sowie die Capping-Gruppe zweitranging zu sein. Die größere Herausforderung wird vermutlich die Suche nach dem passenden BET Inhibitor sein und die Wahlmöglichkeiten sind schon jetzt vielfältig.
Generell lässt sich sagen, dass die Idee der dualen BET/HDAC-Inhibitoren äußerst vielversprechend und es wert ist, weiter verfolgt zu werden. Dies liegt vor allem an den guten Testergebnissen, die mit Verbindung 14 erzielt wurden. Mit Hilfe dieser Art von Inhibitoren könnte es in Zukunft möglich sein, die Überlebensrate von PDAC-Patienten zu erhöhen, wenn nicht als alleiniges Medikament, so vielleicht als Zusatz zur Chemotherapie. Darüber hinaus scheint der Einsatz von dualen BET/HDAC-Inhibitoren nicht nur auf die Behandlung von PDAC beschränkt zu sein und kann auch bei anderen Krebsarten angewendet werden. NMC zum Beispiel ist ein ebenso seltener wie tödlicher Subtyp des schlecht differenzierten Plattenepithelkarzinoms und zeichnet sich durch eine Fusion des NUT-Gens mit BRD4 aus, wodurch es potenziell anfällig für eine BET-Inhibition ist. Tatsächlich zeigte 14 auch hier einen größeren positiven Effekt auf die getesteten NMC-Zellen als JQ1 oder CI994 und veranlasste die Zellen unter anderem zur Differenzierung. ...
Standard biorelevant media reflect the average gastrointestinal (GI) physiology in healthy volunteers. The use of biorelevant media in in vitro experiments has become an important strategy to predict drug behaviour in vivo and is often combined with in silico tools in order to simulate drug plasma profiles over time. In addition to the healthy population, the effects of disease state or co-administration of other drugs on plasma profiles must be considered to assure drug efficacy and safety. Thus, there is a need for a more accurate representation of the human GI physiology when it is altered by disease or co-administered drugs in in vitro dissolution experiments.
This thesis focused on the development of biorelevant media and dissolution tests reflecting GI physiology in circumstances where the gastric pH is elevated. Diseases linked to an elevated gastric pH are hypochlorhydria and achlorhydria, but these days treatment with acid-reducing agents (ARAs) is the single greatest cause of elevation in gastric pH. pH-dependent drug-drug interactions (DDIs) with ARAs are frequent, as the ARAs are used in a number of diseases using a variety of drugs. As the drugs currently on the market are often poorly soluble and ionisable, their dissolution is highly dependent on the pH of the GI tract, especially the gastric pH.
The thesis research consisted of several steps. In the first step, physiological changes in the human GI tract during the therapy with ARAs were identified. Parameters of the standard biorelevant gastric medium FaSSGF were adjusted to the identified changes to reflect the impact of ARA co-administration on the gastric physiology. The media aim to assess the potential extent of the ARA impact on gastric physiology by introducing biorelevant media pairs, ARA pH 4 and pH 6 media, of which one reflects a lesser, and the other a stronger impact of ARAs.
In the second step these ARA media were implemented in in vitro dissolution set-ups.
The dissolution of poorly soluble ionisable drugs was assessed using one-stage, two-stage and transfer model set-ups, as well as using a more evolved in vitro system TIM-1. Comparison of results from dissolution set-ups using the standard, low pH, gastric biorelevant medium FaSSGF (pH 1.6 or 2), and the same set-ups using ARA pH 4 and pH 6 media, shows a decrease in dissolution rate and extent for weakly basic compounds PSWB 001 and dipyridamole, and an increase in rate and extent of dissolution for the weakly acidic compound raltegravir potassium, when the gastric pH is elevated. Due to different physicochemical properties, the extent of the impact of physiological changes during ARA therapy (when either ARA pH 4 or pH 6 medium is selected) on dissolution varied among the model drugs. Thus, the bracketing approach, which considers a range of the possible ARA co-administration impact on drug dissolution, was confirmed to be best practice in assessing the impact of ARAs.
In the third step, dissolution data from in vitro experiments with ARA media was implemented into in silico models. The predictions using various in silico model approaches in Simcyp™ Simulator (minimal and full PBPK model, dissolution input using DRM and DLM) successfully bracketed in vivo data on drug administration during ARA therapy and correctly predicted an overall decrease in plasma concentration for the two model weakly basic compounds and an increase in plasma concertation for the model weakly acidic compound.
In all assessed scenarios, the ARA methods proved to be an essential part of evaluating and predicting the impact of ARAs on drug pharmacokinetics, and appropriately predicted the extent of a possible impact of ARAs on the drug plasma profiles. Thus, the ARA biorelevant media and dissolution tests were demonstrated to be valuable tools reflecting administration of drugs when the gastric pH is elevated and able to predict the impact of ARA therapy on drug administration.
The ability to evaluate the impact of human (patho) physioloy on drug behaviour in the gastrointestinal tract is of great importance, as the GI conditions play a significant role in drug release and absorption. Thus, there is great interest on the part of the pharmaceutical industry and regulatory agencies to develop best practices in this field, especially for pH-dependent DDIs. The media and dissolution tests developed in this thesis are biorelevant methods appropriate for evaluation of the impact of elevated gastric pH on drug efficacy and safety. Such methods, used as a risk assessment tool, in connection with evaluation of the efficacy window and potential toxicity, may help to increase confidence about decisions as to whether a pH-effect will occur and whether it is relevant or not, prior to conducting clinical studies. They may also enable changes in inclusion/exclusion criteria during recruiting for large-scale efficacy trials. In fact, the biopharmaceutic approach to drug development is becoming standard practice on a number of fronts, including metabolic DDIs, renal and hepatic insufficiency, powering decision-making process and possibly even waiving certain types of clinical studies.
...
Octanoic acid (C8 FA) is a medium-chain fatty acid which, in nature, mainly occurs in palm kernel oil and coconuts. It is used in various products including cleaning agents, cosmetics, pesticides and herbicides as well as in foods for preservation or flavoring. Furthermore, it is investigated for medical treatments, for instance, of high cholesterol levels. The cultivation of palm oil plants has surged in the last years to satisfy an increasing market demand. However, concerns about extensive monocultures, which often come along with deforestation of rainforest, have driven the search for more environmentally friendly production methods. A biotechnological production with microbial organisms presents an attractive, more sustainable alternative.
Traditionally, the yeast Saccharomyces cerevisiae has been utilized by mankind in bread, wine, and beer making. Based on comprehensive knowledge about its metabolism and genetics, it can nowadays be metabolically engineered to produce a plethora of compounds of industrial interest. To produce octanoic acid, the cytosolic fatty acid synthase (FAS) of S. cerevisiae was utilized and engineered. Naturally, the yeast produces mostly long-chain fatty acids with chain lengths of C16 and C18, and only trace amounts of medium-chain fatty acids, i.e. C8-C14 fatty acids. To generate an S. cerevisiae strain that produces primarily octanoic acid, a mutated version of the FAS was generated (Gajewski et al., 2017) and the resulting S. cerevisiae FASR1834K strain was utilized in this work as a starting strain.
The goal of this thesis was to develop and implement strategies to improve the production level of this strain. The current mode of quantification of octanoic acid includes labor-intensive, low-throughput sample preparation and measurement – a main obstacle in generating and screening for improved strain variants. To this end, a main objective of this thesis was the development of a biosensor. The biosensor was based on the pPDR12 promotor, which is regulated by the transcription factor War1. Coupling pPDR12 to GFP as the reporter gene on a multicopy plasmid allowed in vivo detection via fluorescence intensity. The developed biosensor enabled rapid and facile quantification of the short- and medium-chain fatty acids C6, C7 and C8 fatty acids (Baumann et al., 2018). This is the first biosensor that can quantify externally supplied octanoic acid as well as octanoic acid present in the culture supernatant of producer strains with a high linear and dynamic range. Its reliability was validated by correlation of the biosensor signal to the octanoic acid concentrations extracted from culture supernatants as determined by gas chromatography. The biosensor’s ability to detect octanoic acid in a linear range of 0.01-0.75 mM (≈1-110 mg/L), which is within the production range of the starting strain, and a response of up to 10-fold increase in fluorescence after activation was demonstrated.
A high-throughput FACS (fluorescence-activated cell sorting) screening of an octanoic acid producer strain library was performed with the biosensor to detect improved strain variants (Baumann et al., 2020a). For this purpose, the biosensor was genomically integrated into an octanoic acid producer strain, resulting in drastically reduced single cell noise. The additional knockout of FAA2 successfully prevented medium-chain fatty acid degradation. A high-throughput screening protocol was designed to include iterative enrichment rounds which decreased false positives. The functionality of the biosensor on single cell level was validated by adding octanoic acid in the range of 0-80 mg/L and subsequent flow cytometric analysis. The biosensor-assisted FACS screening of a plasmid overexpression library of the yeast genome led to the detection of two genetic targets, FSH2 and KCS1, that in combined overexpression enhanced octanoic acid titers by 55 % compared to the parental strain. This was the first report of an effect of FSH2 and KCS1 on fatty acid titers. The presented method can also be utilized to screen other genetic libraries and is a means to facilitate future engineering efforts.
In growth tests, the previously reported toxicity of octanoic acid on S. cerevisiae was confirmed. Different strategies were harnessed to create more robust strains. An adaptive laboratory evolution (ALE) experiment was conducted and several rational targets including transporter- (PDR12, TPO1) and transcription factor-encoding genes (PDR1, PDR3, WAR1) as well as the mutated acetyl-CoA carboxylase encoding gene ACC1S1157A were overexpressed or knocked out in producer or non-producer strains, respectively. Despite contrary previous reports for other strain backgrounds, an enhanced robustness was not observable. Suspecting that the utilized laboratory strains have a natively low tolerance level, four industrial S. cerevisiae strains were evaluated in growth assays with octanoic acid and inherently more robust strains were detected, which are suitable future production hosts.
...
Deep learning with neural networks seems to have largely replaced traditional design of computer vision systems. Automated methods to learn a plethora of parameters are now used in favor of previously practiced selection of explicit mathematical operators for a specific task. The entailed promise is that practitioners no longer need to take care of every individual step, but rather focus on gathering big amounts of data for neural network training. As a consequence, both a shift in mindset towards a focus on big datasets, as well as a wave of conceivable applications based exclusively on deep learning can be observed.
This PhD dissertation aims to uncover some of the only implicitly mentioned or overlooked deep learning aspects, highlight unmentioned assumptions, and finally introduce methods to address respective immediate weaknesses. In the author’s humble opinion, these prevalent shortcomings can be tied to the fact that the involved steps in the machine learning workflow are frequently decoupled. Success is predominantly measured based on accuracy measures designed for evaluation with static benchmark test sets. Individual machine learning workflow components are assessed in isolation with respect to available data, choice of neural network architecture, and a particular learning algorithm, rather than viewing the machine learning system as a whole in context of a particular application. Correspondingly, in this dissertation, three key challenges have been identified: 1. Choice and flexibility of a neural network architecture. 2. Identification and rejection of unseen unknown data to avoid false predictions. 3. Continual learning without forgetting of already learned information. These latter challenges have already been crucial topics in older literature, alas, seem to require a renaissance in modern deep learning literature. Initially, it may appear that they pose independent research questions, however, the thesis posits that the aspects are intertwined and require a joint perspective in machine learning based systems. In summary, the essential question is thus how to pick a suitable neural network architecture for a specific task, how to recognize which data inputs belong to this context, which ones originate from potential other tasks, and ultimately how to continuously include such identified novel data in neural network training over time without overwriting existing knowledge.
Thus, the central emphasis of this dissertation is to build on top of existing deep learning strengths, yet also acknowledge mentioned weaknesses, in an effort to establish a deeper understanding of interdependencies and synergies towards the development of unified solution mechanisms. For this purpose, the main portion of the thesis is in cumulative form. The respective publications can be grouped according to the three challenges outlined above. Correspondingly, chapter 1 is focused on choice and extendability of neural network architectures, analyzed in context of popular image classification tasks. An algorithm to automatically determine neural network layer width is introduced and is first contrasted with static architectures found in the literature. The importance of neural architecture design is then further showcased on a real-world application of defect detection in concrete bridges. Chapter 2 is comprised of the complementary ensuing questions of how to identify unknown concepts and subsequently incorporate them into continual learning. A joint central mechanism to distinguish unseen concepts from what is known in classification tasks, while enabling consecutive training without forgetting or revisiting older classes, is proposed. Once more, the role of the chosen neural network architecture is quantitatively reassessed. Finally, chapter 3 culminates in an overarching view, where developed parts are connected. Here, an extensive survey further serves the purpose to embed the gained insights in the broader literature landscape and emphasizes the importance of a common frame of thought. The ultimately presented approach thus reflects the overall thesis’ contribution to advance neural network based machine learning towards a unified solution that ties together choice of neural architecture with the ability to learn continually and the capability to automatically separate known from unknown data.
Für jeden Betroffenen ist die Diagnose Krebs ein schwerwiegender Einschnitt in der Lebensqualität und -führung, da die Behandlung oftmals mit langen Chemotherapien einhergeht. Moderne Durchbrüche in der Krebsbehandlung stammen aus dem Forschungsbereich der zielgerichteten Molekulartherapie oder aus dem Gebiet der Immuntherapien, die zu beachtlichen Erfolgen bei der Behandlung von Krebspatienten führten. Trotzdem bleiben auf dem Gebiet der Onkologie weiterhin Fragen zu den grundlegenden biologischen Prozessen unbeantwortet.
Zu den Onkoproteinen, die das Tumorwachstum in Leukemiezellen stark beeinflussen, gehören die Proteine der Klasse der mixed lineage leukemia (MLL) Histonmethyltransferasen. Genetische Fusionen des mll Gens, sogenannte Rearragments, führen zu MLL-fusion Produkten, die erheblich zum Verlauf der aggressiven akuten myeloischen Leukämie (AML) beitragen. Ein weiteres Onkoprotein, das für den Krankheitsverlauf vieler Krebsarten relevant ist, ist die Transkriptionsfaktorfamilie MYC. Überexprimierung von MYC wurde in einem Drittel aller humanen Tumore beobachtet. Zahlreiche Studien belegen, dass hohe MYC Level die Expression von Genen regulieren, die essentiell für den Transformationsprozess und somit das Tumorwachstum sind. Da der Transkriptionsfaktor weder eine sabile tertiäre Proteinstruktur noch eine für Inhibitoren adressierbare Bindetasche aufweist, gilt MYC bis heute als undruggable.
Sowohl die Histonmethyltransferase MLL1, als auch der Transkriptionsfaktor MYC interagieren mit einem ca. 37 kDa Protein namens WD40-repeat containing Protein 5 (WDR5), das durch seine propellerförmige Struktur eine Oberfläche mit insgesamt zwei Bindestellen aufweist. Mehrere Studien zeigten, dass WDR5 die Stabilität und somit die Funktion epigenetischer Proteinkomplexe wie SET/ MLL und NSL gewährleistet. In diesem Kontext wurde WDR5 als relevantes Target für die MLL-rearragend akute lymphatische Leukämie (ALL) postuliert. Weitere Studien zeigten zusätzliche Rollen von WDR5, wie die Interaktion zwischen WDR5 und dem Onkoprotein MYC sowie dessen Rekrutierung zum Chromatin. Seit 2015 wurden erfolgreich mehrere niedermolekulare Wirkstoffe für die Inhibierung von WDR5 entwickelt. Dabei zielten die meisten der literaturbekannten Inhibitoren auf die Argininmotiv-erkennende WDR5-interacting (Win) Bindestelle, eine große, hydrophobe Bindetasche im Zentrum des WDR5-Propellers. Die Resultate der besser erforschten Win Inhibitoren zeigten, dass WDR5 ein erfolgsversprechendes Target zur Inhibierung von leukämischen (MLL-r-abhängigen) und neuroblastomatischen (MYC-abhängigen) Zellwachstum ist.
Da beide Bindestellen des WDR5 Proteins Interaktionen mit onkologisch bedeutsamen Faktoren eingehen, würde eine einseitige Inhibierung nur die Effekte der jeweiligen Bindestelle aufzeigen. Diese Limitierung könnte jedoch durch die Entwicklung von WDR5 PROTACs (Proteolysis targeting chimeras) aufgehoben werden, da alle Gerüstfunktionen des Proteins und Protein-Protein-Interaktionen durch die Degradierung von WDR5 entfernt werden würden. Dabei induzieren die heterobifunktionellen Moleküle den Abbau des Zielproteins über das zelleigene Ubiquitin-Proteasom-System, statt die Enzymfunktion zu inhibieren. Nach dem zelleigenen Abbau des Zielproteins wird der PROTAC freigesetzt und kann einen neuen Zyklus der Proteindegradation einleiten, was die erforderliche Menge an Wirkstoff verringert.
Diese Dissertation beschäftigte sich mit dem Design, der Synthese sowie der biophysikalischen und biologischen Evaluierung von WDR5 PROTACs. Ausgehend von literaturbekannten WDR5 Liganden wurden zwei verschiedene PROTAC Typen entworfen. Diese beiden Molekültypen besitzen einen unterschiedlichen geometrischen Austrittswinkel, wodurch die Chance auf eine erfolgreiche Komplexbildung zwischen WDR5, PROTAC und E3 Ligase erhöht wird. Als Leitstruktur fungierten die Verbindungen OICR-9429 sowie DDO-2117 und ausgehend von Ligand (6d) wurden heterobifunktionelle Moleküle mit verschiedenen Linkersystemen ([PEG]- und alkyl-basiert, sowie aromatisch verbrückt) und verschiedenen E3 Ligase Liganden (Cereblon, VHL und MDM2) synthetisiert. Die anschließenden biochemischen und biophysikalischen Evaluierungen der verschiedenen PROTACs durch Thermofluor (DSF) und ITC zeigten eine hohe in vitro Affinität einiger Moleküle. Die zelluläre Permeabilität der großen Moleküle wurde in einem hier etablierten BRET Assay untersucht. Zur Assay-Etablierung wurden drei Tracer (21a-c), basierend auf BODIPY Konjugaten, synthetisiert und getestet, bevor die PROTACs in intakten und lysierten Zellen vermessen wurden. Während die zellulären Affinitäten von Cereblon- und VHL-adressierenden PROTACs sich im niedrigen μM Bereich bewegten, wurden die nicht zellgängigen MDM2 PROTACs von weiteren Experimenten ausgeschlossen.
Die Degradierungeffizienz der WDR5 PROTACs (7a-e) und (8a-j) wurden in der Leukämie Zellinie MV4-11 untersucht, da diese die am meisten auftretende MLL fusion Mutation AF4 birgt. Dabei wurde der Proteinabbau von WDR5 über den HiBiT Assay sowie Western Blots nachgewiesen. ...
Das Dermatofibrosarcoma protuberans (DFSP) ist ein seltenes fibroblastisches Weichteilsarkom. Bisher ist wenig über die optimale Therapie des primären und insbesondere des rezidivierten DFSP im Kindes- und Jugendalter bekannt. Zudem gibt es sehr wenig klinische Daten über das fibrosarkomatöse DFSP (FS-DFSP) bei pädiatrischen Patienten, welches eine intermediär maligne Variante des DFSP darstellt. Die vorliegende Studie untersuchte das Dermatofibrosarcoma protuberans im Kindes- und Jugendalter im Hinblick auf die Therapie und Prognose der primären Erkrankung und bei Rezidiven. Es wurden Daten von 40 Patienten mit DFSP, welche im Zeitraum von 1996 bis 2016 in der Cooperativen Weichteilsarkomstudiengruppe (CWS) prospektiv registriert wurden, retrospektiv analysiert. Zusätzlich wurde die Therapie und der Verlauf von 3 Patienten mit der Diagnose eines FS-DFSP beschrieben.
Alle Patienten erhielten vorrangig eine chirurgische Tumorresektion. Eine sekundäre Resektion erfolgte bei 18 Patienten nach unvollständiger oder grenzwertig vollständiger primärer Resektion. Insgesamt konnte bei 85% (n = 34/40) eine mikroskopisch vollständige chirurgische Resektion (R0) in der besten Resektion erreicht werden. Alle Patienten konnten eine komplette Remission nach der primären Erkrankung erreichen und das 5-Jahres Gesamtüberleben war 100% (± 0; CI, 95%). Die R0-Resektion (IRS I) stellte einen signifikanten Faktor für die Prävention eines Rezidivs dar. Ein lokales Rezidiv trat nach einem Median von 1,1 Jahren bei insgesamt 15% (n = 6/40) der Patienten auf und wurde durch erneute chirurgische Resektion behandelt. Darunter konnten alle Patienten eine komplette Remission erreichen. Zwei von 3 Patienten mit einem FS-DFSP überlebten nach einer R0-Resektion in kompletter Remission.
Zusammenfassend konnte gezeigt werden, dass das DFSP eine gute Prognose bei pädiatrischen Patienten hat. Der wichtigste prognostische Faktor für die Prävention von Rezidiven ist eine mikroskopisch vollständige chirurgische Resektion. Im Falle eines Rezidivs oder dem Vorliegen eines FS-DFSP sollte ebenfalls eine vollständige chirurgische Resektion angestrebt werden.
Der Übergang von der Schule in die Ausbildung oder in das Studium ist ein entscheidender und wegweisender Schritt in der Bildungsbiografie von jungen Menschen. Der dabei vollzogene Übergangsprozess hat sich im Laufe der vergangenen Jahrzehnte deutlich verändert und zunehmend individualisiert. In diesem Zeitraum haben sich auch die Anforderungen und Verhältnisse auf dem Ausbildungs- und Arbeitsmarkt vor allem durch die Expansion des Dienstleistungsbereichs verändert. Ziel der vorliegenden Arbeit war es, die Entwicklung des Übergangsprozesses in Form der Dauer und der absolvierten Stationen vom Verlassen der Schule bis zum Beginn der beruflichen oder akademischen Erstausbildung vor dem Hintergrund der Zunahme an Arbeitskräften im Dienstleistungssektor bei westdeutschen Jugendlichen im Zeitraum zwischen 1971 und 2012 zu untersuchen. Dies wurde auch getrennt nach Schulabschlussgruppen überprüft. Im Rahmen der Ergebnisse zeigte sich, dass ein gestiegener Anteil an dienstleistungstätigen Arbeitskräften auf dem Arbeitsmarkt in der Zeit zwischen 1971 und 2012 keinen signifikanten Einfluss auf die Dauer und die absolvierten Stationen des Übergangs hatte. Dies galt unabhängig vom erreichten Schulabschluss. Die vorliegenden Erkenntnisse dienen als Anstoß dafür, den Übergangsprozess von der Schule in die Ausbildung genauer zu betrachten und hierbei gegebenenfalls weitere potenzielle Einflussfaktoren einzubeziehen.
Der Einfluss von Chemotherapie bei malignen pädiatrischen Erkrankungen auf kindliche Impftiter
(2021)
Hintergrund: Chemotherapie hat nicht nur einen Einfluss auf die Krebszellen, sondern auch auf das Immunsystem der Behandelten. In unserer Studie untersuchten wir den Impftiterverlust impfpräventablen Erkrankungen (Masern, Mumps, Röteln und Varizella zoster) bei Kindern und Jugendlichen, welche eine chemotherapeutische Behandlung wegen einer malignen Erkrankung erhielten.
Methoden: Eingeschlossen in die retrospektive Studie wurden Kinder, Jugendliche und junge Erwachsene im Alter bis zum 21. Lebensjahr, welche zwischen 2001 und 2010 an der Kinderklinik für Hämatologie und Onkologie der Universitätsklinik Frankfurt am Main therapiert wurden. Es erfolgte die Analyse von Antikörper-Titer für Masern, Mumps, Röteln und Varizella zoster zum Diagnosezeitpunkt und erneut bis zu 12 Monate nach Therapieende.
Ergebnis: Insgesamt konnten 195 Kinder und Jugendliche in die Studie eingeschlossen werden. 122 Probanden waren männlich, 73 weiblich. Die größte Patientengruppe war an ALL erkrankt (80 Patienten). Die übrigen Patienten verteilten sich auf 15 Patienten mit AML, 18 Patienten mit NHL, 22 Patienten mit Hodgkin Lymphom. 60 Patienten waren an soliden Tumoren erkrankt. Insgesamt haben 27%, 47%, 19% und 17% der Kinder und Jugendlichen ihren Impfschutz gegen Masern, Mumps, Röteln und Varizella zoster verloren. Hierbei zeigte sich eine Altersabhängigkeit. In der Auswertung zeigte sich bei jüngeren Kindern unter 7 Jahren häufiger ein Titerverlust als bei den älteren Kindern und Jugendlichen. Auch an ALL-erkrankte und behandelte Kinder und Jugendliche verloren häufiger ihren Impfschutz als die Patienten mit anderen untersuchten Krebserkrankungen (AML, NHL, M. Hodgkin, solide Tumore).
Fazit: Die Daten unserer retrospektiven Studie zeigen, dass eine signifikante Anzahl von Kindern und Jugendlichen durch eine chemotherapeutischen Behandlung ihre vorbestehenden Impftiter gegen impfpräventable Erkrankungen wie Masern, Mumps, Röteln und Varizella zoster verlieren. Dieser Verlust zeigt sich häufiger bei jüngeren Patienten und ALL-Patienten. Unsere Daten unterstreichen daher, wie wichtig es ist, Kinder und Jugendliche nach Beendigung der Chemotherapie erneut zu impfen, um einen neuen ausreichenden Impfschutz gegen Masern, Mumps, Röteln und Varizella zoster zu erhalten.
In der vorliegenden Studie sollte der Einfluss eines systematischen Krafttrainings auf die ergonomische Arbeitsweise und die ergonomische Risikobeurteilung von Zahnärzten und Zahnmedizinischen Fachangestellten anhand objektiver Daten untersucht werden. Dafür wurden 22 Probanden rekrutiert. An der Studie nahmen 13 ZÄ, 7 ZFAs und 2 Studenten der Zahnmedizin teil. Als Einschlusskriterium wurden Beschwerden im Rücken- und/oder Nacken- und/oder Schulterbereich innerhalb der letzten zwölf Monaten definiert. In den Einrichtungen des Instituts für Arbeitsmedizin, Sozialmedizin und Umweltmedizin des Universitätsklinikums Frankfurt am Main (Deutschland) fanden biomechanische Prä- und Postmessungen der ergonomischen Arbeitsweise statt. Die Messungen erfolgten mit dem inertialen Messsystem MVN BIOMECH Link der Firma XSens (Enschede, Niederlande). Die Probanden arbeiteten während der Messung an einer ihnen vertrauten Behandlungseinheit und behandelten am Phantomkopf in einer ihrer Fachrichtung entsprechenden Behandlungssimulation bestehend aus praxisnahen zahnmedizinischen Aufgaben. Zwischen der Prä- und Postmessung absolvierten die Probanden eine 10- bis 12-wöchige, systematische Krafttrainingsintervention mit zwei einstündigen Trainingseinheiten pro Woche. Für das Training wurden Übungen zur Kräftigung der stabilisierenden Haltemuskulatur ausgewählt, insbesondere im Rücken, Nacken, Schultern und Rumpf, entsprechend den vorherrschenden Regionen muskuloskelettaler Beschwerden unter ZÄ und ZFAs. Das Training wurde in Kleingruppen von den Untersuchern betreut.
Die erhobenen kinematischen Daten der biomechanischen Messungen wurden im Programm Matlab (MATrix LABoratory) auf Grundlage der gemessenen Gelenkwinkel und -positionen sowie des angepassten RULA Arbeitsbogens ausgewertet. Die statistische Auswertung erfolgte mit den Programmen BiAS Version 11.12 (Epsilon Verlag, Darmstadt, Deutschland, 2020) und IBM SPSS Statistics Version 26 (IBM, New York, USA, 2019). Die erhobenen RULA Parameter wurden mit dem Wilcoxon-Matched-Pairs Test statistisch ausgewertet. Die erhobenen Gelenkwinkel wurden mithilfe des Systematic Parametric Mapping statistisch überprüft. Das Signifikanzniveau lag bei 5%.
Die vorliegende Studie konnte anhand objektiver Daten die Ergebnisse vorheriger Autoren bestätigen, dass ZÄ und ZFAs oftmals mit vorgebeugtem Nacken und Oberkörper arbeiten, während diese z.T. zusätzlich noch rotiert und/oder seitlich gebeugt sind.
Besonders der Nacken weicht bei der Arbeit stark von einer neutralen Haltung ab. Mit den oberen Extremitäten arbeiten die Behandler oftmals asymmetrisch. Der rechte Oberarm ist stärker angehoben und abduziert als der linke und weicht stärker von einer neutralen Haltung ab. Mit den Unterarmen arbeiten ZÄ und ZFAs oftmals exzentrisch über die Körpermitte hinaus bzw. außerhalb ihrer Körpermitte. Die Handgelenke sind zumeist stark angewinkelt und zeigen eine deutliche Radialdeviation. Die ergonomische Arbeitsweise von zahnmedizinischem Personal konnte anhand dieser Studie als gesundheitlich hoch risikobehaftet eingestuft werden. Besonders die Nackenregion, die Unterarme sowie die beiden Handgelenke konnten anhand der objektiven Daten als Risikobereiche ausgemacht werden. Der Einfluss des systematischen Krafttrainings wurde im Prä-Post-Vergleich anhand der kinematischen Daten überprüft. Die gemessenen Gelenkwinkel und -positionen zeigten sich nach der Trainingsintervention größtenteils unverändert oder zeigten keine Verbesserung hin zu neutralen Gelenkwinkeln. Dies suggeriert, dass ein 10-12 wöchiges systematisches Krafttraining nicht oder nur begrenzt zu einer aufrechteren, entspannten und symmetrischeren Arbeitshaltung führt wie sie für die zahnmedizinischen Berufe gefordert wird. Der Einfluss des systematischen Krafttrainings wurde ebenfalls bezüglich der ergonomische Risikobeurteilung durch RULA im Prä-Post-Vergleich überprüft. Für die Gesamtbewertung der Arbeitsweise konnte statistisch keine signifikante (p≥ 0,05) Veränderung und deskriptiv keine Verbesserung nachgewiesen werden. Auch im Vergleich der ergonomischen Risikobeurteilung der einzelnen Körperregionen zeigte nur der Nacken eine statistisch signifikante Veränderung (p ≤ 0,05). Für ihn konnte bestätigt werden, dass ein systematisches Krafttraining zu einer wenn auch geringen verbesserten objektiven Bewertung der ergonomischen Arbeitsweise und weniger Arbeitszeit in gesundheitlich riskanten ergonomischen Arbeitsweisen führt.
Mit dieser Studie konnte anhand objektiver Daten das hohe gesundheitliche Risiko zahnmedizinischer Berufe und ihrer ergonomischen Arbeitsweise bestätigt werden. Ein systematisches 10- bis 12-wöchiges Krafttraining zeigte zumeist keinen Einfluss bzw. keine Verbesserung bezüglich der ergonomischen Arbeitsweise. Die Studienergebnisse stellen in Frage, in wie fern sich die Arbeitshaltung in zahnärztlichen Berufen durch verhaltenspräventive Maßnahmen wie körperliches Training beeinflussen lassen.
Für eine erfolgreiche Behandlung mit implantatprothetischen Therapiekonzepten ist eine stabile Implantat-Abutment-Verbindung entscheidend. Vor allem die Abutmentschraube als komplikationsanfälligste Komponente dieser Verbindung steht im Mittelpunkt zahlreicher wissenschaftlicher Untersuchungen. Implantate und Komponenten aus Zirkoniumdioxid sind schon seit einigen Jahren auf dem Markt erhältlich. Dennoch gibt es keine Studien, die sich mit der Vorspannkraft von Schrauben bei Implantaten und Abutments aus Zirkoniumdioxid beschäftigen. Ebenso wurden bisher noch keine Schrauben mit Feingewinde im Bereich der Implantologie untersucht. Die vorliegende Studie soll den beschriebenen Forschungsbedarf abdecken.
Um zu ermitteln, in wieweit die Schraubengeometrie Einfluss auf die Vorspannkraft bei Implantat-Abutment-Verbindungen aus Zirkoniumdioxid hat, wurden verschiedene Schrauben hergestellt. Mit einem Schraubenkopfwinkel von 90° wurden Schrauben mit Feingewinde (M1,4x0,2) und 2, 4 und 6 Gewindegängen produziert. Zur Variation des Schraubenkopfwinkels wurden Schrauben mit Feingewinde und 4 Gewindegängen sowie einem Schraubenkopfwinkel von 30° und 60° hergestellt. Es wurden Gewindehülsen als Implantat-Analog und Schraubenkopfauflagen aus Zirkoniumdioxid extern hergestellt und eingekauft (Firma Microceram, Meißen, Deutschland).
Um die Vorspannkraft der Verbindung messen zu können, wurden die Prüfkörper in eine zu diesem Zweck entwickelte Messeinheit integriert. Die Messeinheit besteht aus einem Gerüstzylinder, der als Rahmenkonstrukt dient. Im Inneren des Gerüstzylinders befindet sich die Gewindehülse als Implantat-Analog in einem Spannfutter, das in direkter Verbindung mit dem Messsensor steht. In einer Fassung über der Gewindehülse befindet sich die Schraubenkopfauflage als Abutment-Analog. Gewindehülse und Schraubenkopfauflage stehen dabei nicht in direktem Kontakt. Erst durch die Versuchsschrauben kommt diese Verbindung zustande. Die Zugkraft, die beim Anziehen der Schraubenverbindung entsteht, wird vom Sensor registriert. Er leitet daraus die Vorspannkraft der Verbindung ab.
Jede Prüfverbindung wurde mit vier aufeinander folgenden Anzugsdrehmomenten angezogen (15 Ncm, 20 Ncm, 25 Ncm und 30 Ncm). Nach jedem Anzugsvorgang erfolgte die Messung der Vorspannkraft. Die Messwerte sind somit in Abhängigkeit des Anzugsdrehmoments erhoben worden.
Die Ergebnisse zeigen, dass die Gewindegangzahl der Schrauben keinen Einfluss auf die erzielte Vorspannkraft der Verbindung hat. Die gemessenen Vorspannkräfte bei Schrauben mit 2, 4 und 6 Gewindegängen weisen einen nahezu linearen Einfluss des Anzugsdrehmoments auf die Vorspannkraft nach: Je höher das Anzugsdrehmoment, desto höher auch die ermittelte Vorspannkraft.
Der Schraubenkopfwinkel hingegen zeigte einen Einfluss auf die Vorspannkraft. Bei einem sehr steilen Schraubenkopfwinkel von 30° wurden die geringsten Werte für die Vorspannkraft ermittelt, bei einem Schraubenkopfwinkel von 90° die Höchsten.
Die Ergebnisse dieser Studie wurden mit Ergebnissen einer anderen Versuchsgruppe verglichen, die im selben Versuchsaufbau Schrauben mit gleicher Konfiguration, aber Regelgewinde (M1,6x0,35) statt Feingewinde und größerem Schraubendurchmesser untersuchten. Im Vergleich der Ergebnisse ergab sich kein Vorteil im Bezug auf die erzielte Vorspannkraft bei Schrauben mit Feingewinde.
Schrauben mit 2 Gewindegängen lieferten eine ähnliche Vorspannkraft wie Schrauben mit 4 oder 6 Gewindegängen. Dies legt die Möglichkeit nahe, kürzere Schrauben und somit kürzere Implantate zu entwickeln, um aufwendige Augmentationsmaßnahmen bei geringer Restknochenhöhe umgehen zu können. Vorher müssen jedoch weitere Untersuchungen folgen, um die Stabilität von Schrauben mit 2 Gewindegängen zu überprüfen.
Increased intraindividual variability of reaction time is a main cognitive feature of Attention Deficit Hyperactivity Disorder. It is associated with deficits in sustained attention. While traditionally, mean and variance were used to characterize reaction time distributions, the ex-gaussian distributional model allows a more sophisticated analysis of reaction time series. Reaction time distributions are separated in a normal and an exponential component.
The present study investigates the impact of incentives on reaction time variability in a sample of adult ADHD patients. ADHD is associated with increased Tau, the output parameter of the ex-gaussian model characterizing the exponential part of the distribution. Tau is linked to “lapses of attention”, which are more frequent in ADHD patients. It is known that tau can be modulated in ADHD Patients. It was therefore postulated that tau would be higher in ADHD Patients in a paradigm where quick answers were required but could be modulated by monetary incentives. In addition, the effect of “delay discounting”, which is more distinct in ADHD patients, on reaction time variability was investigated. Eventually, the association of variability measures with strength of ADHD symptoms was tested.
To this end, reaction time distributions of 62 adult ADHD patients and 45 healthy controls from two different reaction time paradigms were analyzed. The monetary incentive delay task, by comprehending a control – and a win condition, allows an investigation of the effect of incentives on reaction times. Subjects had to react as fast as possible by keypress to a stimulus, after a cue signaled a possible monetary reward. During the Delay-Discounting-Task, subjects had to choose between sooner, but smaller, and higher delayed monetary rewards, during which they could use as much time for consideration as desired.
Results show that an increased Tau in the control condition of the monetary- incentive-delay-task could be replicated, while a distinct influence of the win condition emerged. Subjects with ADHD showed an improvement of Tau in the win condition even below the level of healthy controls. However, they showed increased variability of the “regular” responses around the mean of the normal component of the distribution, represented by sigma. Moreover, it was indicated by trend a higher reaction time variability in ADHD patients during choices of delayed rewards. Tau was associated the current symptom strength as well as with the strength of ADHD-Symptoms during childhood, assessed by questionnaire.
While the present results could have implications for etiological models of the disease, they may also contribute to the development of novel diagnostic methods. In advanced studies, neural correlates of sophisticated measures of reaction time variability should be investigated. Furthermore, they should be associated with genetic risk factors with regard to possible endophenotypes. Possible implications for clinical handling of patients should be explored.
In haploidentical stem cell transplantation (SCT), achieving a balance between graft versus host disease (GvHD), graft versus leukemia effect (GvL) and bridging the vulnerable phase of aplasia against viral infections is still a challenge. Graft preparation strategies attempt to achieve this balance by removing and retaining harmful and helpful cells. At this point it is known that T cell subpopulations hold different properties concerning GvHD promotion and immunocompetence towards pathogens. CD45RA+ naïve T cells show the greatest, while CD45RO+ memory T cells show less alloreactive potential but provide immunocompetence. CD45RA depletion is a promising new approach to graft processing that potentially combines GvHD prevention, GvL promotion and transfer of immunological competence by removing potentially harmful CD45RA+ naïve T cells and retaining CD45RO+ memory cells. This work focused on manufacturing CD45RA-depleted grafts within a one- or two-step approach, as well as a feasibility assessment of the process and the establishment of a 10-color fluorescence activated cell sorting (FACS) measurement panel for clinical-scale graft generation. CD45RA depletions were conducted from granulocyte-colony stimulated factor (G-CSF) mobilized peripheral blood stem cells (PBSC) applying two different strategies, direct depletion of CD45RA+ cells (one-step approach), or depletion following preceding CD34 selection. A 10-color FACS measurement panel was established ensuring quality control and enabling preliminary data acquisition on CD45RA co-expression for cell loss estimations. Residual virus-specific T cells after depletion were measured using MHC multimers. It was observed that the depletion antibody occupied the cell binding sites, resulting in insufficient binding of the fluorescent dye for subsequent FACS measurement. Therefore, three FACS antibodies were tested and compared, and CD45RA-PE (clone:2H4) was found to be the best choice for reliable cell detection. To further characterize residual T cells, two homing markers, CD62L and CCR7, were compared, with particular attention paid to the expression of the surface markers after cooling. Both markers were complementary to each other, resulting in the decision to include an additional FACS measuring tube whenever samples are cooled or further T cell characterization is needed. With a median log depletion of -3.9 (one-step) and -3.8 (two-step) data showed equally efficient removal of CD45RA+CD3+ T cells for both approaches. Close to complete B cell removal was obtained without additional reagent use. However, also close to complete NK cell loss occurred due to high CD45RA co-expression. Stem cells recovered at a median of 52% (range: 49.7 - 67.2%) after one-step CD45RA depletion. CD45RO+ memory T cells recovery was statistically not differing between both approaches. Virus-specific T cells were detectable after depletion, suggesting that virus-specific immunocompetence is transferable. In conclusion, CD45RA depletions are equally feasible for both approaches when performed from fresh, non-cryopreserved starting products, show reliable reduction of CD45RA and B cells, but also result in co-depletion of NK cells. Stem cell recovery and NK cell losses must be considered carefully especially regarding overcoming HLA barriers, pathogen protection during aplasia, early engraftment an GvL. Therefore, a combination of CD45RA-depleted products with already established other processing methods to ensure sufficient stem and NK cells is desirable to allow high clinical flexibility.
In den letzten 20 Jahren haben sich zunehmend Schülerlabore an Universitäten und Forschungszentren etabliert, um naturwissenschaftliche Kompetenzen von Schülern/innen aufzubauen und zu fördern. Das wachsende Feld der Schülerlaborforschung zeigt allerdings auf, dass die Eingangsvoraussetzungen, mit denen die Schüler/innen an der naturwissenschaftlichen Lernumgebung teilnehmen, einen starken Einfluss auf die Annahme sowie die Entwicklung von interessens-, selbstkonzept- und motivationsbezogenen Persönlichkeitsmerkmalen haben können. Diese Erkenntnisse lenken den Blick auf die Entwicklungsumwelt der Familien, in der die Eltern von Geburt an auf die kindliche Persönlichkeitsentwicklung und Lernprozesse einwirken. Die Integration des vielversprechenden familiären Kontexts in eine naturwissenschaftliche Lernumgebung wird seit 2008 anhand des Eltern-Kind-Projekts KEMIE® an der Ruhr-Universität Bochum umgesetzt, indem Eltern-Kind-Paare gemeinsam an alltagsnahen naturwissenschaftlichen Phänomenen experimentieren. Seit 2016 wird KEMIE® zudem an der Goethe-Universität Frankfurt am Main im Goethe-Schülerlabor Chemie durchgeführt.
Am Beispiel des Frankfurter KEMIE®-Projekts will die vorliegende Arbeit das Potential von Eltern-Kind-Interaktionen für naturwissenschaftliche Lernprozesse untersuchen. Mithilfe der Grounded-Theory-Methodologie wurde das zentrale Forschungsdesiderat der Eltern-Kind-Interaktion über die Projektjahre 2016/17 und 2017/18 herausgestellt sowie mögliche Erhebungsmethoden pilotiert. Im Projektjahr 2018/19 konnte dieses schließlich in einer Mixed-Methods-Studie multiperspektivisch beforscht werden. Dafür wurden Interviews, Beobachtungen und Pre-Posttest-Daten von 46 teilnehmenden Eltern-Kind-Paaren sowie weitere Kontrollgruppendaten von 202 Frankfurter Familien erhoben.
Um zunächst die naturwissenschaftliche Lernumgebung zu beschreiben, wurden die vorherrschenden Einflussfaktoren identifiziert, die zugehörigen Phänomene beschrieben sowie die prozess- und personenbezogenen Verhaltensmuster herausgestellt. Über letztere können die Eltern-Kind-Interaktionen in das SELE-Modell elterlicher Unterstützungsmaßnahmen eingeordnet werden, wobei sich das Ermöglichen von Selbsttätigkeit als herausragendes Merkmal für die naturwissenschaftliche Lernumgebung manifestiert. Zudem zeigt sich, dass das Projekt positive Effekte auf naturwissenschaftsbezogene Werteorientierungen der Kinder sowie deren Interesse an den Naturwissenschaften hat.
Anhand der Entwicklung eines induktiven Beobachtungsschemas, konnten die Familien schließlich über die Verhaltensmerkmale der Eltern-Kind-Interaktion gruppiert und Zusammenhänge zu sowohl den Vorbedingungen als auch den Konsequenzen für die psychischen Dispositionen der Kinder aufgedeckt werden. Erste Erkenntnisse dieser explorativen Erhebung zeigen, dass das akademische Selbstkonzept und die naturwissenschaftsbezogenen Werteorientierungen der Eltern und Kinder die Verhaltensmuster in der naturwissenschaftlichen Umgebung determinieren. Auf der anderen Seite können die Kinder gerade hinsichtlich dieser beiden Faktoren am meisten profitieren. Dabei können diese positiven Effekte auf eine Regulation seitens der Eltern, das gemeinsame Ausführen von Tätigkeiten sowie den Einbezug in die Gestaltung der Lernumgebung zurückgeführt werden.
Das Lebenswerk von Prof. Dr. Eduard Güntz mit Schwerpunkt auf seiner Frankfurter Zeit (1951-1969)
(2021)
Der Arzt Eduard Güntz (1903-1973) begann nach dem Studium der Medizin in Marburg, Würzburg und München seine medizinische Laufbahn 1929 am Pathologisch-anatomischen Institut in Dresden unter dem Pathologen Georg Schmorl. Ab 1932 arbeitet er unter Prof. Georg Hohmann an der Orthopädischen Universitätsklinik in Frankfurt, wo er sich 1937 über das Thema „Schmerzen und Leistungsstörungen bei Erkrankungen der Wirbelsäule“ habilitierte. Es folgte seine Berufung an die Universität Kiel, wo er ab 1938 als Leiter der orthopädischen Abteilung der Poliklinik der Universität tätig war. 1939 infizierte er sich im Rahmen seiner beruflichen Tätigkeit mit Poliomyelitis. Davon erholte er sich nie vollständig, nahm aber bereits Ende 1940 seinen Dienst am Patienten wieder auf.
Während der NS-Zeit war Güntz Mitglied der NSDAP und der SA, was 1946 zur Entlassung aus seinem Dienstverhältnis in Kiel und schließlich sogar zum Entzug der Berufserlaubnis führte. Der Entnazifizierungsausschuss stellte letztendlich nach Sichtung vieler Gutachten und Bescheinigungen früherer Mitarbeiter und Patienten die Unbedenklichkeitsbescheinigung aus, sodass Güntz im November 1946 als Facharzt und Professor in Kiel wiedereingestellt wurde.
1951 erfolgte seine Berufung auf den Lehrstuhl für Orthopädie in Frankfurt am Main, den er bis 1969 innehatte. In sein Ordinariat und Tätigkeit als ärztlicher Direktor der Orthopädischen Universitätsklinik Frankfurt am Main (Friedrichsheim) fällt der größte Teil des Wiederaufbaus der durch eine Brandbombe zerstörten Einrichtung nach dem 2. Weltkrieg, mit Gründung eines modernen Rehabilitationszentrums, Orthopädischer Werkstatt und staatlich anerkannter Lehranstalt für Krankengymnastik und Massage. Güntz´ Arbeitsschwerpunkt lag in der konservativen Orthopädie. Er
verfasste 88 wissenschaftliche Arbeiten.
Das Güntz-Zeichen, die von ihm beschriebene abnorme Geradhaltung des Wirbelsäulenabschnitts über einer Bandscheibenschädigung als radiologisches Frühsymptom, wurde nach ihm benannt.
Eduard Güntz verstarb 1973 an den Folgen seiner PoliomyelitisErkrankung.
Coupling between epidermis and amphid morphogenesis during embryonic development of C. elegans
(2021)
Sensory organs are fundamental for survival of animal populations, since the detection of environmental stimuli is crucial for localization of nourishment, predators or mating partners. In nematodes, the amphid (AM) sensilla are the largest sensory organs for detection of chemical compounds.
This study investigates how the AM sensilla acquire their special elongated shape during lima-bean to 1.5-fold embryonic stages of C. elegans head development. The dissertation also examines events facilitating the morphogenesis of other head sensilla (IL/OL/CEP) and addresses aspects of general embryonic head morphogenesis. Using high resolution live-cell imaging techniques with different combinations of markers highlighting specific tissues, this study shows that epidermal head enclosure, migration of AM socket cells (pores) and translocation of AM dendrite tips are coupled processes, facilitating the elongation of AM dendrites. Importantly, during AM dendrite elongation the AM neural cell bodies are staying stationary. Manipulation through conducting UV-Laser ablation (epidermis close to pore/pore) and RPN-6.1 dsRNA interference resulted in compromised AM pore migration and impaired dendrite elongation. This leads to the conclusion that AM pores need to be physically attached (through C. elegans apical junctions, CeAJ) to the migrating epidermal sheet and to AM dendrite tips for successful AM morphogenesis. This study infers that RPN-6.1 plays an important role for correct AM pore morphogenesis and AM pore to AM dendrite tip attachment. Our results lead to the conclusion that head enclosure drives AM pore migration and AM dendrite elongation with AM neural cell bodies staying stationary. Thereby, CeAJ are interconnecting AM dendrite tips to AM pores and CeAJ link the sensillar ending to the migrating epidermis. Thus, migration of attached target tissue (pore), with neural cell bodies staying stationary (constituting an abutment), creates a pulling force facilitating AM dendrite elongation. This passive neurite elongation procedure is coined dendrite towing in this study.
Additionally, this study discovers that translocation of IL, OL and CEP head sensilla pores is influenced by apical constriction. This conclusion was made based on the findings that IL/OL/CEP pores migrate towards the prospective mouth anterior to the epidermal leading edge, separated from AM pores and irrespective of highly impaired AM sensilla morphogenesis after strong RPN-6.1 depletion. Also, concurrent with translocation of IL/OL/CEP pores, bottle-shaped cells occur and non-muscle-myosin and apical polarity factors are getting enriched at the anterior most part of the head, indicating de-novo manifestation of apical constriction. It is furthermore assumed that apical constriction in arcade cells might contribute to early pharynx development. All in all, this study reveals two force-generating events: Head enclosure-driven AM sensilla morphogenesis via dendrite towing and, otherwise, apical constriction-facilitated translocation of IL/OL/CEP sensilla pores. These events can get separated by graded depletion of the proteasome activator RPN-6.1.
Most cellular processes are regulated by RNA-binding proteins (RBPs). These RBPs usually use defined binding sites to recognize and directly interact with their target RNA molecule. Individual-nucleotide resolution UV crosslinking and immunoprecipitation (iCLIP) experiments are an important tool to de- scribe such interactions in cell cultures in-vivo. This experimental protocol yields millions of individual sequencing reads from which the binding spec- trum of the RBP under study can be deduced. In this PhD thesis I studied how RNA processing is driven from RBP binding by analyzing iCLIP-derived sequencing datasets.
First, I described a complete data analysis pipeline to detect RBP binding sites from iCLIP sequencing reads. This workflow covers all essential process- ing steps, from the first quality control to the final annotation of binding sites. I described the accurate integration of biological iCLIP replicates to boost the initial peak calling step while ensuring high specificity through replicate re- producibility analysis. Further I proposed a routine to level binding site width to streamline downstream analysis processes. This was exemplified in the re- analysis of the binding spectrum of the U2 small nuclear RNA auxiliary factor 2 (U2AF2, U2AF65). I recaptured the known dominance of U2AF65 to bind to intronic sequences of protein-coding genes, where it likely recognizes the polypyrimidine tract as part of the core spliceosome machinery.
In the second part of my thesis, I analyzed the binding spectrum of the serine and arginine rich splicing factor 6 (SRSF6) in the context of diabetes. In pancreatic beta-cells, the expression of SRSF6 is regulated by the transcription factor GLIS3, which encodes for a diabetes susceptibility gene. It is known that SRSF6 promotes beta-cell death through the splicing dysregulation of genes essential to beta-cell function and survival. However, the exact mechanism of how these RNAs are targeted by SRSF6 remains poorly understood. Here, I applied the defined iCLIP processing pipeline to describe the binding landscape of the splicing factor SRSF6 in the human pancreatic beta-cell line EndoC-H1. The initial binding sites definition revealed a predominant binding to coding sequences (CDS) of protein-coding genes. This was followed up by extensive motif analysis which revealed a so far, in human, unknown purine-rich binding motif. SRSF6 seemed to specifically recognize repetitions of the triplet GAA. I also showed that the number of contiguous triplets correlated with increasing binding site strength. I further integrated RNA-sequencing data from the same cell type, with SRSF6 in KD and in basal conditions, to analyze SRSF6- related splicing changes. I showed that the exact positioning of SRSF6 on alternatively spliced exons regulates the produced transcript isoforms. This mechanism seemed to control exons in several known susceptibility genes for diabetes.
In summary, in my PhD thesis, I presented a comprehensive workflow for the processing of iCLIP-derived sequencing data. I applied this pipeline on a dataset from pancreatic beta-cells to unveil the impact of SRSF6-mediated splicing changes. Thus, my analysis provides novel insights into the regulation of diabetes susceptibility genes.
In the last two decades, our understanding of human gene regulation has improved tremendously. There are plentiful computational methods which focus on integrative data analysis of humans, and model organisms, like mouse and drosophila. However, these tools are not directly employable by researchers working on non-model organisms to answer fundamental biological, and evolutionary questions. We aimed to develop new tools, and adapt existing software for the analysis of transcriptomic and epigenomic data of one such non-model organism, Paramecium tetraurelia, an unicellular eukaryote. Paramecium contains two diploid (2n) germline micronuclei (MIC) and a polyploid (800n) somatic macronuclei (MAC). The transcriptomic and epigenomic regulatory landscape of the MAC genome, which has 80% protein-coding genes and short intergenic regions, is poorly understood.
We developed a generic automated eukaryotic short interfering RNA (siRNA) analysis tool, called RAPID. Our tool captures diverse siRNA characteristics from small RNA sequencing data and provides easily navigable visualisations. We also introduced a normalisation technique to facilitate comparison of multiple siRNA-based gene knockdown studies. Further, we developed a pipeline to characterise novel genome-wide endogenous short interfering RNAs (endo-siRNAs). In contrary to many organisms, we found that the endo-siRNAs are not acting in cis, to silence their parent mRNA. We also predicted phasing of siRNAs, which are regulated by the RNA interference (RNAi) pathway.
Further, using RAPID, we investigated the aberrations of endo-siRNAs, and their respective transcriptomic alterations caused by an RNAi pathway triggered by feeding small RNAs against a target gene. We find that the small RNA transcriptome is altered, even if a gene unrelated to RNAi pathway is targeted. This is important in the context of investigations of genetically modified organisms (GMOs). We suggest that future studies need to distinguish transcriptomic changes caused by RNAi inducing techniques and actual regulatory changes.
Subsequently, we adapted existing epigenomics analysis tools to conduct the first comprehensive epigenomic characterisation of nucleosome positioning and histone modifications of the Paramecium MAC. We identified well positioned nucleosomes shifted downstream of the transcription start site. GC content seems to dictate, in cis, the positioning of nucleosomes, histone marks (H3K4me3, H3K9ac, and H3K27me3), and Pol II in the AT-rich Paramecium genome. We employed a chromatin state segmentation approach, on nucleosomes and histone marks, which revealed genes with active, repressive, and bivalent chromatin states. Further, we constructed a regulatory association network of all the aforementioned data, using the sparse partial correlation network technique. Our analysis revealed subsets of genes, whose expression is positively associated with H3K27me3, different to the otherwise reported negative association with gene expression in many other organisms.
Further, we developed a Random Forests classifier to predict gene expression using genic (gene length, intron frequency, etc.) and epigenetic features. Our model has a test performance (PR-AUC) of 0.83. Upon evaluating different feature sets, we found that genic features are as predictive, of gene expression, as the epigenetic features. We used Shapley local feature explanation values, to suggest that high H3K4me3, high intron frequency, low gene length, high sRNA, and high GC content are the most important elements for determining gene expression status.
In this thesis, we developed novel tools, and employed several bioinformatics and machine learning methods to characterise the regulatory landscape of the Paramecium’s (epi)genome.
Trotz vielfältiger Ansätze, das Trauma der empfindlichen Innenohrstrukturen während des Einsetzens der Elektrode eines Cochlea-Implantats (CI) zu reduzieren, wird das postoperative Auftreten von Schwindel immer noch als eine der häufigsten Komplikationen in der aktuellen Literatur beschrieben.
Ziel der vorliegenden prospektiven Studie war es, die Häufigkeit sowie die Ursache von postoperativem Schwindel im Zusammenhang mit einer CI-Operation zu ermitteln. Darüber hinaus wurden der zeitliche Verlauf des postoperativen Schwindels, sowie der Einfluss des Elektrodendesigns und des Einführungswinkels auf das Auftreten von Schwindel untersucht. Die Auswahl der Patienten und die Untersuchung erfolgte an der Klinik für Hals-Nasen-Ohrenheilkunde der Johann Wolfgang Goethe-Universität Frankfurt am Main.
29 Erwachsene wurden rekrutiert und erhielten ein unilaterales CI unter Verwendung eines von sechs verschiedenen Elektrodenträgern, die in folgende Kategorien eingeteilt wurden: "strukturerhaltend" (I), "potentiell strukturerhaltend" (II) und "nicht strukturerhaltend" (III).
Der subjektive Schwindel wurde anhand von Fragebögen, die im Anhang zu finden sind, zu fünf verschiedenen Zeitpunkten vor bis zu sechs Monaten nach der Operation beurteilt. Die Teilnehmer wurden in vier Gruppen eingeteilt, abhängig vom Zeitpunkt des Auftretens von Schwindel vor und nach der Operation. Präoperativ und sechs Monate postoperativ wurde eine umfassende Schwindeldiagnostik, bestehend aus Romberg-Test, Unterberger-Test, Test der subjektiven visuellen Vertikalen, optokinetischem Test, Video-Kopf-Impuls-Test (vHIT) und kalorischem Spültest durchgeführt. Zusätzlich wurde der Insertionswinkel (IA) bestimmt und die Patienten wurden in zwei Gruppen (<430°; ≥430°) eingeteilt.
Ergebnis der Studie war, dass 45,8% der Teilnehmer neuen Schwindel nach der Implantation erlebten. Basierend auf den Fragebogendaten wurde bei 72,7% ein vestibulärer Ursprung vermutet. Es zeigte sich keine signifikante Korrelation von auffälligen Ergebnissen der durchgeführten Tests mit dem Auftreten von subjektivem Schwindel.
In der Gruppe 1 (ohne präoperativen Schwindel und mit postoperativem Schwindel) zeigten 18% der Patienten auffällige Ergebnisse in der quantitativen Analyse des kalorischen Spültests, obwohl in dieser Gruppe Elektroden der Kategorie I oder II implantiert wurden, die zur Strukturerhaltung der Cochlea geeignet sind. Der durchschnittliche IA betrug 404° für die Gesamtgruppe und 409° für Gruppe 1. Es gab keine statistisch signifikante Korrelation zwischen IA und wahrgenommenem Schwindel.
Obwohl Schwindel nach CI-Operation eine häufige Komplikation zu sein scheint, konnte die hier verwendete Testbatterie die Symptome nicht objektivieren. Ebenso wurde keine Korrelation zwischen Elektrodendesign, Einführungswinkel oder vestibulären Testergebnissen und selbstberichtetem Schwindel gefunden. Weitere Studien sollten klären, ob dies an einer multifaktoriellen Ursache des Schwindels oder an der mangelnden Sensitivität der derzeit verwendeten Tests liegt. Der Nachweis einer verringerten Schwindelwahrscheinlichkeit bei Verwendung wenig traumatischer Elektrodenträger gelang nicht, ebenso wenig der Nachweis eines Einflusses der verwendeten Einstecktiefe.
Insgesamt reiht sich dieses Manuskript in eine überschaubare Anzahl von Arbeiten ein, die die Schwierigkeit für Kliniker beschreiben, eine nachweisbare Ursache für Schwindelsymptome nach Cochlea-Implantation sicher zu definieren.
The realization of a fast and robust closed orbit feedback (COFB) system for the on-ramp orbit correction at SIS18 synchrotron of FAIR project is reported in this thesis. SIS18 has some peculiar behaviors including on-ramp optics variation, very short lengths of the ramps (200 ms to 1 s) and a cycle-to-cycle variation of beam parameters. The realized fast COFB system being robust against above mentioned features of SIS18 is a first of its kind and the course to its realization led to some novel contributions in the field of closed orbit correction. A new method relying on the discrete Fourier transform (DFT)-based decomposition of the orbit response matrix (ORM) has been introduced, exploiting the symmetry in the arrangement of beam position monitors (BPMs) and the corrector magnets in the synchrotrons. A nearest-circulant approximation has also been introduced for synchrotrons having slight deviation from the symmetry, making the method applicable to a vast majority of synchrotrons. Moreover, the performance and the stability analysis of COFB systems in the presence of ORM mismatch between the synchrotron and the feedback controller is presented. The COFB systems are divided into slow and fast regimes and a new stability criterion consistent with measurements, is introduced. The practicality of the criterion is verified experimentally at COSY Jülich and is used for the analysis of various sources of ORM mismatch at SIS18. The commissioning of the SIS18 COFB system is also reported in detail which relies on Libera Hadron as the main hardware resource for the controller implementation. The on-ramp orbit correction is demonstrated for the horizontal plane of SIS18, for the disturbance rejection up to 600 Hz.
Sleep is one of the fundamental requirements of all animals from nematodes to humans. It appears in different formats with shared features such as reduced muscle activities and reduced responsiveness to the environment. Despite the long history of sleep research, why a brain must be taken offline for a large portion of each day remains unknown. Moreover, sleep research focused on mammals and birds reveals two stages, rapid-eye-movement (REM) and slow-wave (SW) sleep, alternating during sleep. Whether these two stages of sleep exist in other vertebrates, particularly reptiles, is debated, as is the evolution of sleep in general.
Recordings from the brain of a lizard, the Australian bearded dragon Pogona vitticeps, indicate the presence of two electrophysiological states and provides a better picture of their sleep. Local field potential (LFP) signals, head velocity, eye movements, and heart rate during sleep match the pattern of REM and SW sleep in mammals. The SW and REM sleep patterns that we observed in lizards oscillated continuously for 6 to 10 hours with a period of 80-100 seconds when the ambient temperature was ~27°C. Lizard SW dynamics closely resemble those observed in rodent hippocampal CA1, yet originated from a brain area, the dorsal ventricular ridge (DVR), that does not correspond anatomically or transcriptomically to the mammalian hippocampus. This finding pushes back the probable evolution of these dynamics to the emergence of amniotes, at least 300 million years ago.
Unlike mammals and birds, REM and SW sleep in lizards occupy an almost equal amount of time during sleep. The clock-like alternation between these two sleep states was found initially by measuring the power modulation of two frequency bands, delta and beta. I recorded the full-band LFP and found an infra-slow oscillation (ISO) in the frequency range between 5 and 20 milli-Hz during sleep. The magnitude of ISO increased during sleep and decreased during both wakefulness and arousal during sleep. The up- and down-states of ISO were synchronized with the sleep state alternating rhythm but with a significant time lag dependent on the locations of the recording electrodes. Multi-site LFP recordings indicated that this ISO is a putative propagation wave sweeping extremely slowly, 30-67 µm/sec, from the posterior-dorsal pole to the anterior-ventral pole of the DVR.
Previous studies in other animals showed that brainstem areas such as the locus coeruleus, laterodorsal tegmentum, and periaqueductal gray are involved in sleep states regulation. It is sadly impossible to carry out in vivo recordings in the lizard brainstem without severely affecting them and their quality of life. I thus carried out ex vivo recordings in both DVR and brainstem. Pharmacological stimulation of the brainstem could reversibly silence one distinct EEG pattern characteristic of SW sleep, the sharp-wave and ripple complex, in DVR. An ISO could be recorded simultaneously in both DVR and brainstem. From data collected in both intact and split ex vivo brains, I concluded that there are independent ISO generators in at least two areas, the brainstem and the telencephalon. Their signals may normally be synchronized by long-range connections. The DVR ISO leads the brainstem ISO by ~29 sec. Optogenetic stimulation of brainstem neurons was able to disrupt the ISO in DVR reversibly.
In conclusion, the lizard brain offers a relatively simple model system to study sleep. Despite a diversity of results in different lizard species, my results revealed a number of new findings. Relevant for sleep research in general: 1) REM and SW sleep exist in a reptile. Since they also exist in birds and mammals, they probably existed in their common amniote ancestor, if not earlier. 2) REM and SW occupy equal amounts of time during sleep (50% duty cycle), a unique feature among all described sleep electrophysiological patterns, suggesting the possible existence of a simple central pattern generator of sleep, possibly ancestral. 3) I discovered the existence, in the local field potential, of an infra slow oscillation with extremely slow propagation, locked to the SW-REM alternating rhythm. The causes and mechanisms of this ISO remain to be understood. To my knowledge, the correlation between sleep states and a slow rhythm has only been reported in human scalp EEG recordings so far.
Hirnmetastasen stellen eine schwerwiegende Komplikation der häufigsten Tumorerkrankungen wie der Lungenkarzinome, der Mammakarzinome und der Kolonkarzinome dar. Die mediane Überlebenszeit nach Metastasierung in das zentrale Nervensystem beträgt trotz leitliniengerechter Therapie meist nur wenige Monate. Neue zielgerichtete Therapien zeigten bereits erfolgreich eine Wirkung in Hirnmetastasen unterschiedlicher Entitäten. Auch aus diesem Grund sind zielgerichtete Therapien, die ihre Wirkung über das Tumormikromilieu erreichen wie beispielsweise Immuncheckpoint-Inhibitoren, immer interessanter für die klinische Anwendung. Damit rückt auch das Tumormikromilieu bzw. das zellarme, bindegewebige Tumorstroma immer weiter in den Vordergrund der aktuellen onkologischen Forschung.
Auch Hirnmetastasen können ein eigenes bindegewebiges Tumorstroma innerhalb des Tumormikromilieus bilden, das sich histologisch stark von der physiologischen zerebralen Mikroumgebung unterscheidet, welche sich typischerweise aus Gliazellen, Neuronen, neurovaskulären Einheiten und Mikroglia zusammensetzt. Ortständige, Stromagenerierende Fibroblasten, wie sie z.B. im Lungen- und Brustgewebe vorkommen, können daher nicht die Ursprungszellen des Tumorstromas in Hirnmetastasen sein. Es ist bislang nicht eindeutig geklärt, welche Zelltypen an der Formation des Tumorstromas beteiligt sind. Weiterhin ist bislang nicht dezidiert geklärt wie sich das Tumormikromilieu auf Zellebene in Hirnmetastasen zusammensetzt und ob bestimmte Zusammensetzungen einen Einfluss auf das Überleben von Patienten haben.
In dieser Arbeit wurde aus diesem Grund mit Hilfe von immunhistochemischen Färbungen das Tumormikromilieu in einer großen Kohorte von insgesamt 244 Hirnmetastasen-Patienten genauer charakterisiert. Fokus lag darin herauszufinden, welche Zellen an der Produktion des Tumorstromas beteiligt sind. Im Anschluss wurde mit Hilfe der klinischen Daten geprüft, ob bestimmte Zusammensetzungen oder Eigenschaften des Tumormikromilieus Einfluss auf das Überleben der Patienten haben. Weiterhin wurde mithilfe der durch Immunhistochemie erhobenen Daten untersucht, ob sich das Tumormikromilieu von Patienten, bei denen die Hirnmetastase zur Erstmanifestation der Tumorerkrankung geführt hatte, im Vergleich zu Patienten mit Hirnmetastasen unterscheidet, bei denen bereits die Tumorerkrankung bekannt war.
In den vorliegenden Daten ergab sich eine starke Assoziation zwischen der Expression von mesenchymalen Markern FAP, PDGFRb und Kollagen I, einem Hauptbestandteil von Stroma. Es zeigte sich wiederum keine eindeutige Assoziation zwischen Kollagen I und GFAP, dem Intermediärfilament der Gliazellen. Insgesamt konnte eine große Heterogenität in der Zusammensetzung des Tumormikromilieus zwischen den unterschiedlichen Entitäten festgestellt werden. So zeigten insbesondere die Hirnmetastasen von Nierenzellkarzinomen eine erhöhte Gefäßdichte. Zusätzlich zeigte sich in Nierenzellkarzinomen als auch Lungenkarzinomen eine erhöhte mediane Immunzellinfiltration von CD8-positiven Zellen im Vergleich zu anderen Entitäten. Das Tumormikromilieu hatte zumeist keinen Einfluss auf das Überleben der Hirnmetastasen-Patienten. Lediglich die Expression von vaskulärem PDGFRb hatte in NSCLC-Patienten einen negativen Einfluss auf das Überleben. Außerdem zeigten Kolonkarzinom-Patienten mit erhöhter FAP-Expression ein verbessertes Überleben nach Hirnmetastasen-OP. Patienten mit Hirnmetastase als Erstmanifestation der Tumorerkrankung zeigten zur Vergleichsgruppe mit Patienten, die eine Hirnmetastase unter bekannter Tumorerkrankung entwickelten, eine signifikant erhöhte PD-L1-Expression als auch Infiltration von zytotoxischen T-Zellen. Für weitere klinische oder biologische Parameter wie Geschlecht, Proliferationsrate oder Mutationsstatus fanden sich keine eindeutigen statistischen Unterschiede zwischen diesen beiden Patientengruppen.
Die vorliegenden Daten bekräftigten die Idee, dass das Tumorstroma von Hirnmetastasen durch mesenchymale Zellen produziert wird. So könnte eine zielgerichtete Therapie von Stroma-produzierenden Zellen ein interessanter Angriffspunkt zur Prävention einer soliden Hirnmetastasen sein. Patienten mit Hirnmetastase als Erstmanifestation der Tumorerkrankungen sollten in Zukunft vermehrt innerhalb klinischer Studien beachtet werden, da diese aufgrund des veränderten Tumormikromilieus mit erhöhter Infiltration von zytotoxischen T-Zellen als auch PD-L1-Expression von Immuntherapien stärker profitieren könnten.
Mit 71 Millionen chronisch erkrankten Patienten im Jahr 2015 stellt die chronische Hepatitis C-Virusinfektion eine wichtige Ursache für Zirrhose, Leberdekompensation und Leberkrebs dar.
Eine grundlegende Eigenschaft des Hepatitis C-Virus (HCV) ist die Biogenese modifizierter intrazellulärer Membranen. Das dabei aus dem endoplasmatischen Reticulum (ER) gebildete, sogenannte membranöse Netz (MW, membranous web) dient im Rahmen des HCV-Lebenszyklus als Gerüst für die Assemblierung eines Multi-Protein-Replikase-Komplexes. Das MW wird durch virale nicht-strukturelle Proteine wie NS5A induziert.
Das Multidomänen-Metalloprotein NS5A ist über seine verschiedenen Domänen sowohl bei der Replikation am MW als auch bei der viralen Assemblierung und Freisetzung in der Nähe von Lipidtropfen (LD, lipid droplet) maßgeblich beteiligt. Seine N-terminale amphipathische Helix (AH) spielt dabei über die vermittelte Assoziation von NS5A mit Membranen eine wichtige Rolle. Damit verbundene spezifische Lipidinteraktionen von NS5A unterliegen molekularen Umstrukturierungen, die benötigt werden, um NS5A für seine
verschiedenen Aufgaben im viralen Lebenszyklus anzupassen. Es liegen zwar Röntgen-strukturmodelle von Domäne 1-Dimeren und NMR-Strukturen zur AH vor, allerdings keine experimentellen Strukturen des NS5A-Proteins vollständiger Länge (NS5A fl) in seinem natürlichen Lipidmilieu. Trotz der essentiellen Bedeutung von NS5A für den HCV-Lebens-zyklus und langjähriger Forschung ist bisher nur wenig zur molekularen Funktionsweise von NS5A bekannt.
Dennoch konnten durch Screening hochpotente NS5A-Inhibitoren entdeckt und weiterentwickelt werden. NS5A-Inhibitoren tragen als direkt wirkende antivirale Arzneimittel(DAA, direct-acting antiviral) entscheidend zum Therapieerfolg bei der Behandlung der Hepatitis C bei. Trotz ihrer Bedeutung in der Therapie und intensiver Forschung ist der Wirk-mechanismus von NS5A-Inhibitoren bisher ungeklärt. Eine durch NS5A-Inhibitoren
induzierte intrazelluläre Umverteilung von NS5A und das ausschließliche Auftreten von Resistenz-assoziierten Mutationen (RAM) nahe der NS5A-Lipid-Interaktionsbereiche weisen jedoch auf einen Effekt der Inhibitoren auf die Lipid-NS5A-Interaktion hin.
Als grundlegende Hypothese dieser Arbeit wurde somit vermutet, dass abhängig vom NS5A umgebenden Lipidmilieu (MW oder LD) spezifische Lipid-Protein-Interaktionen Einfluss auf die Struktur und Funktion von NS5A nehmen und NS5A-Inhibitoren über eine Inhibition dieser Interaktionen wirken. Polyphosphoinositide (PPI) könnten dabei als Lipidinteraktionspartner eine besondere Rolle spielen, da sie bedeutend für die Membran-Kennzeichnung verschiedener Zellkompartimente sind und auch die Funktion von Membranproteinen regulieren können. Eine Interaktion von NS5A mit PtdIns(4,5)P2 wurde bereits publiziert.
Um basierend auf der postulierten Hypothese die mechanistischen Details im Wechselspiel von NS5A und intrazellulären Membranen sowie den dabei möglichen Effekt von
NS5A-Inhibitoren zu untersuchen, musste zunächst NS5A in ausreichender Menge, Reinheit und Qualität rekombinant hergestellt werden. Hierfür wurde ein entsprechendes Protokoll zur Proteinexpression durch Baculovirus-vermittelte Expression in Sf9-Insektenzellen und Strep-Tactin-Reinigung für das full length Protein und trunkierte Varianten etabliert.
In Kooperation mit einem Partner konnte unter Verwendung von giant unilamellar vesicles (GUVs) und konfokaler Mikroskopie gezeigt werden, dass unser full length Protein die Struktur von Membranen verändert (Membran-Remodellierung).
Die Stabilität des gereinigten Proteins und damit Effekte auf die Proteinfaltung wurden mittels Thermal shift assay (TSA) untersucht und dabei auch Effekte des NS5A-Inhibitors
Daclatasvir (DCV) und des Metall-Chelators EDTA überprüft. Die Bindung des Inhibitors hatte einen stabilisierenden Effekt auf die Proteinstruktur zur Folge.
Potentielle Interaktionsmuster mit Membranlipiden wurden mit Hilfe eines Protein lipid overlay assays (PLOA) detektiert. Zusätzlich zum in der Literatur bereits beschriebenen
Interaktionspartner PtdIns(4,5)P2 konnten weitere Lipid-Bindungspartner für NS5A identifiziert werden. Dabei legen die gewonnenen Daten nahe, dass die Interaktion über die Domäne 1 von NS5A vermittelt wird, wobei die Domänen 2 und 3 die Affinität zu den Lipidbindungspartnern erhöht, aber nicht das Phospholipid-Bindungsmuster verändert.
DCV hatte im PLOA keine qualitativen Auswirkungen auf das Lipid-Bindungsmuster. Die Lipidinteraktionen wurden mittels eines Liposomen-Rekonstitutionsmodells validiert.
In silico konnten basierend auf verfügbaren, experimentellen Strukturdaten und einem dynamischen Modell drei Cluster basischer Aminosäuren in NS5A-D1-AH als mögliche
PPI-Bindungsstellen identifiziert werden. Basierend auf dem Strukturmodell wurde eine Mutationsstrategie zur Charakterisierung der potentiellen PPI-Bindungsstellen entwickelt.
...
This work comprises the investigation of four different biosynthesis gene clusters from Xenorhabdus. Xenorhabdus is an entomopathogenic bacterium that lives in mutualistic symbiosis with its Steinernema nematode host and together they infect and kill insect larvae. Xenorhabdus is well known for the production of so-called specialised metabolites and many of these compounds are synthesised by non-ribosomal peptide synthetases (NRPSs) or NRPS-polyketide synthase (PKS)-hybrids. These enzymes are organised in a modular manner and produce structurally very diverse molecules, often with the help of modifying domains and tailoring enzymes. In general, the genes involved in the biosynthesis are organised in so-called biosynthetic gene clusters (BGCs) in the genome of the producing strain. Exchanging the native promoter with an inducible promoter, e.g. PBAD, allows the targeted activation of the BGC and in turn the analysis of the biosynthesis product via LC-MS analysis.
The first BGC investigated in this work is responsible for the biosynthesis of xenofuranones. Based on gene deletions, this work shows that the NRPS-like enzyme XfsA produces a carboxylated furanone intermediate which is subsequently decarboxylated by XfsB to yield xenofuranone B. The next step in xenofuranone biosynthesis is the O-methylation of xenofuranone B to yield xenofuranone A. A comparative proteomics approach allowed the identification of four methyltransferase candidates and subsequent gene deletions confirmed one of the candidates to be responsible for methylation of xenofuranone B. The proteome analysis was based on the comparison of X. szentirmaii WT and X. szentirmaii Δhfq because distinct levels of the methylated xenofuranone A were observed when the xfs BGC was activated in either WT or Δhfq strain. Hfq is a global transcriptional regulator whose deletion is associated with the down regulation of natural product biosynthesis in Xenorhabdus. The strong PBAD activation of the xfs BGC also allowed the detection of two novel xenofuranone derivatives which arise from incorporation of one 4-hydroxyphenylpyruvic acid as first or second building block, respectively.
PBAD based activation of the second BGC addressed in this work lead to the detection of a novel metabolite and compound purification allowed NMR-based structure elucidation. The molecule exhibits two pyrrolizidine moieties and was named pyrrolizwilline (pyrrolizidine + twin (German: “Zwilling”)). The BGC comprises seven genes and single gene deletions as well as heterologous expression in E. coli and NRPS engineering were conducted to investigate the biosynthesis. The first two genes xhpA and xhpB encode a bimodular NRPS and a monooxygenase which synthesise a pyrrolizixenamide-like structure, similar to PxaA and PxaB in pyrrolizixenamide biosynthesis. It is suggested that the acyl side chain incorporated by XhpA is removed by the α,β-hydrolase XhpG. The keto function is then reduced by two subsequent two electron reductions catalysed by XhpC and XhpD. One of these two reduced pyrrolizidine units most likely is extended with glyoxalate prior to non-enzymatic dimerisation with the second pyrrolizidine moiety. To finally yield pyrrolizwilline, L-valine is incorporated, probably by the free-standing condensation domain XhpF.
The third BGC investigated is responsible for the production of a tripeptide composed of β-D-homoserine, α-hydroxyglycine and L-valine and is referred to as glyoxpeptide. This work demonstrates that the previously observed glyoxpeptide derivative is derived from glycerol present in the culture medium. Furthermore, this work shows that the monooxygenase domain, which is found in an unusual position between motifs A8 and A9 within the adenylation domain, is responsible for the α-hydroxylation of glycine. It is suggested that the α-hydroxylation of glycine renders the tripeptide prone to hydrolysis via hemiacetal formation. Hence, the XgsC_MonoOx domain might be an interesting candidate for further NRPS engineering.
The fourth BGC addressed is responsible for the production of xildivalines and this work describes two additional derivatives which are detected only when the promoter is exchanged and activated in the X. hominickii WT strain but not in X. hominickii Δhfq. Deletion of the methyltransferase encoding gene xisE results in the production of non-methylated xildivalines. It remains to be determined when the N-methylation of L-valine takes place. It is discussed that the methyltransferase could act on the NRPS released product but also during the assembly. The peptide deformylase is not involved in the proposed biosynthesis as xildivaline production is detected in a ΔxisD strain. The PKS XisB features two adjacent, so-called tandem T domains. The inactivation of the first or the second T domain by point mutation causes decreased production titres of detected xildivalines in the respective mutant strain when compared to the wild type.
In der Akuten Lymphatischen Leukämie (ALL) im Erwachsenenalter beträgt die 5–Jahres-Überlebensrate trotz verbesserter Therapien unter 40%. Die Prognose wird durch das Auftreten von Rezidiven signifikant verschlechtert. ALL entsteht durch genetische Veränderungen lymphatischer Vorläuferzellen im Knochenmark, welche zu einem Differenzierungsblock und zu starker Zunahme der Vorläufer-zellen führen. Eine mögliche Erklärung für das bestehende hohe Rezidiv-Risiko wird in der unvollständigen Elimination von Leukämie-induzierenden Zellen (LIZ) durch die Primärtherapie gesehen. Die Identifizierung und Charakterisierung von LIZ in der ALL anhand spezifischer Oberflächenmarker war bisher nicht möglich, daher ist die molekulare und funktionelle Charakterisierung von LIZ für die Entwicklung moderner Therapieansätze unabdingbar. Metabolische Analysen primärer ALL-Langzeitkulturen (LZK) in Vorarbeiten zeigten eine deutliche Abweichung des Kohlenhydratstoffwechsels vom physiologischen metabolischen Profil einer Knochenmarkszelle hin zur Nutzung der Glykolyse mit zunehmendem leukämogenen Potential der etablierten LZK. Folglich ist in dieser Dissertation der Zusammenhang zwischen höherer Glukoseaffinität, schnellerer Glukoseaufnahme und dem Vorliegen eines höheren leukämogenen Potentials der Zellen und damit einer Definition der LIZ anhand ihres Energiestoffwechsels untersucht worden.
Hierfür wurden Tests im Mausmodell in vivo und in vitro mit drei ALL-LZK CR, PH und BV durchgeführt. Wir etablierten unter Verwendung des fluoreszenzmarkierten Glukoseanalogons 2–NBDG sowie eines gegen den GLUT–1 gerichteten Antikör-pers jeweils ein durchflusszytometrisches Verfahren zur quantitativen Messung der Glukoseaufnahme. Anhand dieser Parameter erfolgte die FACS-Anreicherung unterschiedlicher Zellpopulationen der LZK und die Xenotransplantation zur Evaluation potentieller Unterschiede des leukämogenen Potentials.
Durch durchflusszytometrische Messungen konnten in den drei LZK jeweils drei Subpopulationen von Zellen anhand ihrer Glukoseaffinität unterschieden werden (2–NBDG negativ, 2–NBDG positiv und 2–NBDG hochaffin). Auch zeigten sich Unterschiede in der Kinetik der Glukoseaufnahme der drei getesteten LZK, wobei CR Zellen mit Abstand am schnellsten 2–NBDG aufnahmen, gefolgt von PH. Die schnellere Glukoseaufnahme der LZK CR und PH wurde durch eine vermehrte Expression des GLUT-1 Rezeptors und einen höheren Anteil an GLUT–1 positiver Zellen hervorgerufen. Interessanterweise bestand auch eine Korrelation zwischen höherem leukämogenem Potential mit schnellerer Glukoseaufnahme und stärkerer GLUT–1 Expression. Hierbei zeigte sich, dass die HIF-1α Stabilisierung unter Normoxie in einer vermehrten GLUT–1 Expression und daraufhin vermehrter Glukoseaufnahme resultierte. Die prospektive Anreicherung von distinkten Zellsubpopulationen der LZK CR und PH aufgrund ihrer Glukoseaufnahme (gemessen durch 2–NBDG) und Transplantation der sortierten Zellpopulationen in NSG Empfängermäuse zeigte keine kohärente Beziehung zwischen der Glukoseaffinität der Zellen und der Entwicklung der Leukämie. Während es bei CR Zellen initial zu einer beschleunigten Expansion der 2–NBDG-positiv sortierten Leukämiezellen kommt, was sich aber nicht signifikant auf das Gesamtüberleben der Empfängermäuse auswirkt, zeigte die serielle Transplantation von 2–NBDG negativen Zellen ein schnelleres Ableben der Tiere. Bei der LZK PH expandierten 2–NBDG-negative Zellen schneller in primären Empfängermäusen als positive Zellen. Dabei konnten zelltoxische Effekte durch die Verwendung von 2–NBDG ausgeschlossen werden. Auch die Transplantation von GLUT-1 positiven bzw. negativen CR Zellen zeigte, dass GLUT-1 negative Zellen schneller in den Mäusen expandierten, eine aggressivere Leukämie verursachten und zu einem früheren Ableben der Mäuse führte.
Diese Ergebnisse zeigen keine unmittelbare Korrelation von Glukoseaufnahme oder GLUT-1 Expression und der Leukämogenität der untersuchten ALL Zellen. Daher können diese Eigenschaften nicht dazu verwendet werden LIZ in ALL prospektiv anzureichern. Im Rahmen dieser Dissertation zeigte sich aber auch, dass sich die LZK in ihrer jeweiligen Gesamtpopulation bezüglich ihres Glukoseaufnahmeverhaltens und ihrem Anteil GLUT-1-positiver Zellen unterschieden. Weiterführende Untersuchungen sind nötig, um den Grund der differentiellen Expression von GLUT-1 und der damit zusammenhängenden gesteigerten Glukoseaufnahme einzelner Zellen in der ALL zu ermitteln.
Die vorliegende Dissertation stellt die Strahldynamikdesigns zweier Hochfrequenzquadrupol-Linearbeschleuniger bzw. Radio Frequency Quadrupoles (RFQs) vor: das fur den RFQ des Protonen-Linearbeschleunigers (p-Linac) des FAIR2-Projekts an der GSI3 Darmstadt sowie einen ersten Designentwurf für einen kompakten RFQ, der u.a. zur Erzeugung von Radioisotopen für medizinische Zwecke genutzt werden könnte. Der Schwerpunkt liegt auf dem ersten Design.
This dissertation describes the development of the beam dynamics design of a novel superconducting linear accelerator. At a main operating frequency of 216.816 MHz, ions with a mass-to-charge ratio of up to 6 can be accelerated at high duty cycles up to CW operation. Intended for construction at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, the focus of the work is on the beam dynamic design of the accelerator section downstream of the high charge injector (HLI) at an injection energy of 1.39 MeV/u. An essential feature of this linear accelerator (Linac) is the use of the EQUUS (Equidistant Multigap Structure) beam dynamics concept for a variably adjustable output energy between 3.5 and 7.3 MeV/u (corresponding to about 12.4 % of the speed of light) with a required low energy spread of maximum 3 keV/u.
The GSI Helmholtz Centre for Heavy Ion Research is a large-scale research facility that uses its particle accelerators to perform basic research with ion beams. Research on super-heavy elements ("SHE") is a major focus. It is expected that their production and research will provide answers to a large number of scientific questions. The production and detection of elements with atomic numbers 107 to 112 (Bohrium, Hassium, Meitnerium, Darmstadtium, Röntgenium and Copernicium) was first achieved at GSI between 1981 and 1996.
Key to this remarkable progress in SHE research were continuous developments and technical innovations. On the one hand, in the field of experimental sensitivity and detection of the nuclear reaction products and, on the other hand, in the field of accelerator technology.
For the acceleration of the projectile beam, the UNILAC (Universal Linear Accelerator), which was put into operation in 1975, has been used at GSI so far. In the course of the reconstruction and expansion of the research infrastructure at GSI, a dedicated new particle accelerator, HELIAC (Helmholtz Linear Accelerator), is now under development to meet the special requirements of the beam parameters for the synthesis of new superheavy elements. Typically, the production rates of super-heavy elements with effective cross sections in the picobarn range are very low. Therefore, a high duty cycle (up to CW operation) is a key feature of HELIAC. Thus, the required beam time for the desired nuclear reactions can be significantly shortened.
Theoretical preliminary work by Minaev et al. and newly created knowledge about design, fabrication, and operation of superconducting drift tube cavities have laid the foundation for this work and thus the development of the HELIAC linear accelerator. It consists of a superconducting and a normal conducting part. Acceleration takes place in the superconducting part in four cryomodules, each about 5 m long. These contain three CH cavities, one buncher cavity, two solenoid magnets for transverse beam focusing, and two beam position monitors (BPMs).
The following 10 m long normal conducting part is primarily used for beam transport and ends with a buncher cavity. This is operated at a halved frequency of 108.408 MHz.
A key feature of this accelerator is the variability of the output energy from 3.5 to 7.3 MeV/u with a small energy uncertainty of ±3 keV/u maximum over the entire output energy range. For the development of HELIAC, the EQUUS beam dynamics concept used combined the advantages of conventional linac designs with the high acceleration gradients of superconducting CH-DTLs. By doubling the frequency (compared to the GSI high charge injector) to 216.816 MHz in the superconducting section and using CH cavities at an acceleration gradient of maximum 7.1 MV/m, an acceleration efficiency with superconducting drift tube structures that is unique in the world is made possible. At the same time, the compact lengths of the CH cavities ensure good handling for both production and operation. EQUUS leads to longitudinal beam stability in all energy ranges of the accelerator with the sliding motion of the synchronous phase within each CH cavity. The rms emittance growth is moderate in all levels. The modular design of the HELIAC with four cryomodules basically allows the Linac to be commissioned starting with the first cryomodule, the so-called Advanced Demonstrator. In the subsequent expansion stage with only the first two cryomodules of HELIAC, the lower limit of the energy range to be provided by HELIAC (3.5 MeV/u) can already be clearly exceeded, so that use in regular beam operation at GSI is already conceivable from here on.
By means of error tolerance studies, the stability of the HELIAC beam dynamics design against possible alignment errors of the magnetic focusing elements and accelerator cavities as well as errors of the electric field amplitudes and phases have been investigated, basically confirmed and critical parameters have been determined. An additional steering concept via dipole correction coils at the solenoid magnets allows transverse beam control as well as diagnostics by means of two BPMs per cryomodule.
With completion of this work in 2021, the CH1 and CH2 cavities have already been built and are in the final preparation and cold test phase. In parallel, the development of the CH cavities CH3-11 has also been started.
This dissertation explores the breadth and variation of authoritarian counter-terrorism strategies and their legitimacy-related origins to challenge prevailing assumptions in Terrorism Studies. Research and analysis are conducted in the form of a Structured Focused Comparison of domestic counter-terrorism strategies in two electoral autocracies. The first case is Russia’s domestic engagement against a mix of ethno-separatist and Islamist terrorism emanating from its North Caucasus republics between 1999 and 2018. The second case is China’s engagement vis-à-vis a similar type of terrorism in its Xinjiang Uyghur Autonomous Region between 1990 and 2018.
The comparison shows that, contrary to prevailing assumptions, the two strategies differ immensely from one another while containing significant if not predominant non-coercive elements. It further shows that the two strategies are closely related to the two states’ sources and resources of legitimacy, both in their original motivation to tackle the terrorist threat and in the design of counter-terrorism strategies. Drawing on David Beetham’s theory of The Legitimation of Power and on the Comparative Politics, Terrorism Studies and Civil War literatures, the dissertation explores the influence of five sources and (re)sources of legitimacy on the two counter-terrorism strategies: responsiveness, performance legitimacy, ideology, discursive power and co-optation. While governmental discursive power is discarded as a source of variation, findings are significant with respect to the influence of ideology and performance legitimacy. Reliance on ideology or related patterns for legitimation raise vulnerability to terrorism and constrain or facilitate the adoption of communicative and preventive measures that accommodate the grievances of potentially defective or even violently terrorist groups. Performance legitimacy is a key motivator in counter-terrorism and an influence on certain types of counter-terrorism policies. Responsiveness and co-optation are identified as potential sources of variation, based on idiosyncratic concurrence with policy choices.
HINTERGRUND: Asthma ist die häufigste chronische Krankheit bei Kindern und Jugendlichen, wobei bei einem Großteil bereits erste Exazerbationen im Vorschulalter auftreten. Diese sind meist mit stationären Aufenthalten verbunden, jedoch gibt es nur wenige detaillierte zeitliche und demografische Untersuchungen dieser besonders schweren Asthmakohorte. Ebenso gibt es kaum Untersuchungen über die Verteilung der Asthmaphänotypen in dieser Altersgruppe.
METHODEN: Es erfolgte eine retrospektive Analyse von 572 Krankenhausaufenthalten im Universitätsklinikum für Kinder- und Jugendmedizin Frankfurt mit der ICD Diagnose Asthma (J.45) zwischen dem 1. Januar 2008 und dem 31. Dezember 2017 bei Kindern im Alter 1-5 Jahren. Die Aufteilung erfolgte in drei Phänotypen. Allergisches Asthma (RAST und/oder Prick-Test positiv), eosinophiles Asthma (Eosinophilie >300/µl und RAST/Prick-Test negativ) und nicht-allergisches Asthma (Eosinophilie ≤300/µl und RAST/Prick-Test negativ). Akut schweres Asthma wurde definiert als akute Dyspnoe, Tachypnoe, Sauerstoffbedarf und/oder systemische Steroidtherapie. Analysiert wurden u.a. Alter, Geschlecht, Liegezeit, Therapie und Re-Hospitalisierungsrate.
ERGEBNISSE: Von 572 Krankenhausaufenthalten mit der Diagnose Asthma erfüllten 205 Patienten die Definition eines akut schweren Asthmas. Von diesen 205 Kindern wurden bereits n=55 (26,8%) vor der stationären Aufnahme mit einem inhalativen Steroid (ICS) behandelt. Die phänotypische Charakterisierung ergab folgende Verteilung: 49% wiesen Allergisches Asthma, 15% Asthma mit atopischer Dermatitis, 10% eosinophiles nicht-allergisches Asthma und 26% nicht-allergisches Asthma. Von diesen Patienten wurden 71.7% mit ICS und 15,1% mit Montelukast als Monotherapie entlassen. Die Rate der Notfallvorstellung (Notfallambulanz und Re-Hospitalisierung) innerhalb von 12 Monaten nach Entlassung war mit n=42 (20,5%) hoch. Die Zahl der Eosinophilen (> 300 µl) hatte keinen Einfluss auf die Re-Hospitalisierung. Es zeigte sich eine hohe Verschreibung von Antibiotika bei Asthma-Patienten (143 (69,8%) der 205 Patienten) während des stationären Aufenthalts, wobei nur 42 Patienten (20,5%) einen CRP-Wert über 2 mg/dl aufwiesen.
Schlussfolgerung: Obwohl die Asthmaprävalenz bei Schulkindern höher ist, leiden Vorschulkinder im Alter von 1-5 Jahren häufiger an schweren Asthma-Exazerbationen mit Hospitalisierung. Trotz protektiver Therapie mit ICS oder Montelukast ist die Re-Hospitalisierungsrate hoch. Die bisherigen Therapiekonzepte reichen in dieser Altersgruppe anscheinend nicht aus, um Patienten mit schwerem Asthma im Vorschulalter ausreichend zu kontrollieren. Neue Therapiekonzepte wie die Triple-Therapie mit Zugabe des Long-Acting Muscarin Rezeptors (Tiotropium) sollten dringend evaluiert werden.
For finite baryon chemical potential, conventional lattice descriptions of quantum chromodynamics (QCD) have a sign problem which prevents straightforward simulations based on importance sampling.
In this thesis we investigate heavy dense QCD by representing lattice QCD with Wilson fermions at finite temperature and density in terms of Polyakov loops.
We discuss the derivation of $3$-dimensional effective Polyakov loop theories from lattice QCD based on a combined strong coupling and hopping parameter expansion, which is valid for heavy quarks.
The finite density sign problem is milder in these theories and they are also amenable to analytic evaluations.
The analytic evaluation of Polyakov loop theories via series expansion techniques is illustrated by using them to evaluate the $\SU{3}$ spin model.
We compute the free energy density to $14$th order in the nearest neighbor coupling and find that predictions for the equation of state agree with simulations to $\mathcal{O}(1\%)$ in the phase were the (approximate) $Z(3)$ center symmetry is intact.
The critical end point is also determined but with less accuracy and our results agree with numerical results to $\mathcal{O}(10\%)$.
While the accuracy for the endpoint is limited for the current length of the series, analytic tools provide valuable insight and are more flexible.
Furthermore they can be generalized to Polyakov-loop-theories with $n$-point interactions.
We also take a detailed look at the hopping expansion for the derivation of the effective theory.
The exponentiation of the action is discussed by using a polymer expansion and we also explain how to obtain logarithmic resummations for all contributions, which will be achieved by employing the finite cluster method know from condensed matter physics.
The finite cluster method can also be used to evaluate the effective theory and comparisons of the evaluation of the effective action and a direction evaluation of the partition function are made.
We observe that terms in the evaluation of the effective theory correspond to partial contractions in the application of Wick's theorem for the evaluation of Grassmann-valued integrals.
Potential problems arising from this fact are explored.
Next to next to leading order results from the hopping expansion are used to analyze and compare the onset transition both for baryon and isospin chemical potential.
Lattice QCD with an isospin chemical potential does not have a sign problem and can serve as a valuable cross-check.
Since we are restricted by the relatively short length of our series, we content ourselves with observing some qualitative phenomenological properties arising in the effective theory which are relevant for the onset transition.
Finally, we generalize our results to arbitrary number of colors $N_c$.
We investigate the transition from a hadron gas to baryon condensation and find that for any finite lattice spacing the transition becomes stronger when $N_c$ is increased and to be first order in the limit of infinite $N_c$.
Beyond the onset, the pressure is shown to scale as $p \sim N_c$ through all available orders in the hopping expansion, which is characteristic for a phase termed quarkyonic matter in the literature.
Some care has to be taken when approaching the continuum, as we find that the continuum limit has to be taken before the large $N_c$ limit.
Although we currently are unable to take the limits in this order, our results are stable in the controlled range of lattice spacings when the limits are approached in this order.
In the first part of this thesis, we introduce the concept of prospective strict no-arbitrage for discrete-time financial market models with proportional transaction. The prospective strict no-arbitrage condition, which is a variant of strict no-arbitrage, is slightly weaker than the robust no-arbitrage condition. It still implies that the set of portfolios attainable from zero initial endowment is closed in probability. Consequently, prospective strict no-arbitrage implies the existence of consistent prices, which may lie on the boundary of the bid-ask spread. A weak version of prospective strict no-arbitrage turns out to be equivalent to the existence of a consistent price system.
In continuous-time financial market models with proportional transaction costs, efficient friction, i.e., nonvanishing transaction costs, is a standing assumption. Together with robust no free lunch with vanishing risk, it rules out strategies of infinite variation which usually appear in frictionless financial markets. In the second part of this thesis, we show how models with and without transaction costs can be unified. The bid and the ask price of a risky asset are given by cadlag processes which are locally bounded from below and may coincide at some points. In a first step, we show that if the bid-ask model satisfies no unbounded profit with bounded risk for simple long-only strategies, then there exists a semimartingale lying between the bid and the ask price process.
In a second step, under the additional assumption that the zeros of the bid-ask spread are either starting points of an excursion away from zero or inner points from the right, we show that for every bounded predictable strategy specifying the amount of risky assets, the semimartingale can be used to construct the corresponding self-financing risk-free position in a consistent way. Finally, the set of most general strategies is introduced, which also provides a new view on the frictionless case.
The DNA damage response (DDR) is a vast network of molecules that preserves genome integrity and allow the faithful transmission of genetic information in human cells. While the usual response to the detection of DNA lesions in cells involves the control of cell-cycle checkpoints, repair proteins or apoptosis, alterations of the repair processes can lead to cellular dysfunction, diseases, or cancer. Besides, cancer patients with DDR alterations often show poor survival and chemoresistance. Despite the progress made in recent years in identifying genes and proteins involved in DDR and their roles in cellular physiology and pathology, the question of the involvement of DDR in metabolism remains unclear. It remains to study the metabolites associated with specific repair pathways or alterations and to investigate whether differences exist depending on cellular origin. The identification of DDR-related metabolic pathways and of the pathways that cause metabolic reprogramming in DDR-deficient cells may produce new targets for the development of new therapies.
In this thesis, nuclear magnetic resonance spectroscopy (NMR) was used to assess the metabolic consequence of the loss of two central DNA repair proteins with importance in diseases context, ATM and RNase H2, in haematological cells. An increase in intracellular taurine was found in RNase H2- and ATM-deficient cells compared to wild-type cells for these genes and in cells after exposition to a source of DNA damage. The rise in taurine does not appear to result from an increase in its biosynthesis from cysteine, but more likely from other cellular processes such as degradation pathways.
Overall, evidence for metabolic reprogramming in haematological cells with faults in DNA repair resulting from ATM or RNase H2 deficiencies or upon exposition to a source of DNA damage is presented in this study.
The present research in high energy physics as well as in the nuclear physics requires the use of more powerful and complex particle accelerators to provide high luminosity, high intensity, and high brightness beams to experiments. With the increased technological complexity of accelerators, meeting the demand of experimenters necessitates a blend of accelerator physics with technology. The problem becomes severe when optimization of beam quality has to be provided in accelerator systems with thousands of free parameters including strengths of quadrupoles, sextupoles, RF voltages, etc. Machine learning methods and concepts of artificial intelligence are considered in various industry and scientific branches, and recently, these methods are used in high energy physics mainly for experiments data analysis.
In Accelerator Physics the machine learning approach has not found a wide application yet, and in general the use of these methods is carried out without a deep understanding on their effectiveness with respect to more traditional schemes or other alternative approaches. The purpose of this PhD research is to investigate the methods of machine learning applied to accelerator optimization, accelerator control and in particular on optics measurements and corrections. Optics correction, maximization of acceptance, and simultaneous control of various accelerator components such as focusing magnets is a typical accelerator scenario. The effectiven- ess of machine learning methods in a complex system such as the Large Hadron Collider, which beam dynamics exhibits nonlinear response to machine settings is the core of the study. This work presents successful application of several machine learning techniques such as clustering, decision trees, linear multivariate models and neural networks to beam optics measurements and corrections at the LHC, providing the guidelines for incorporation of machine learning techniques into accelerator operation and discussing future opportunities and potential work in this field.
Um Wissen in einer Form abzulegen, in der es automatisiert verarbeitet werden kann, werden unter anderem Ontologien verwendet. Ontologien erlauben über einen als Inferenz bezeichneten Prozess die Ableitung neuen Wissens. Bei inhaltlichen Überschneidungen werden Ontologien über Ontologie-Alignments miteinander verbunden, die Entitäten aus den verschiedenen Ontologien in Beziehung zueinander setzen. Üblicherweise werden diese Alignments als Mengen von Äquivalenzen formuliert, die beschreiben, welche Konzepte aus einer Ontologie Konzepten aus einer anderen Ontologie entsprechen. Ebenfalls verbreitet sind Ober- und Unterklassenbeziehungen in Alignments.
Diese Ontologie-Alignments werden zum Beispiel in der Biomedizin in Forschungsdatenbanken verwendet, da durch Alignments Informationen aus verschiedenen Bereichen zusammengeführt werden können. Der manuelle Aufwand, um große Ontologien und Alignments zu erstellen, ist sehr hoch. Dementsprechend wäre es wünschenswert, bei einer Veränderung von Ontologien nicht wieder von vorne beginnen und eine neue Ontologie erstellen zu müssen und möglichst viel aus der veränderten Ontologie und den die Ontologie betreffenden Alignments wiederverwenden zu können. Daher sollten möglichst automatisierte Verfahren verwendet werden. Diese Arbeit untersucht vier Ansätze, um die Anpassung von Alignments an Veränderungen in Ontologien zu automatisieren.
Der erste Ansatz bezieht Inferenzen in den Prozess zur Vorhersage von Alignment-Änderungen mit ein. Dazu werden die Inferenzen vor und nach der Änderung der Ontologien berechnet und auf Basis der Unterschiede mit einem regelbasierten Algorithmus bestimmt, wie sich das Alignment ändern soll. Der zweite Ansatz, wie auch die weiteren Ansätze, hat nicht zum Ziel das Alignment direkt anzupassen. Stattdessen soll vorhergesagt werden, welche Teile des Alignments angepasst werden müssen. Dazu werden die Ontologien und das Alignment als Wissensgraph-Embeddings repräsentiert. Diese Embeddings bilden Knoten aus den Ontologien in einen Raum mit 300-1000 Dimensionen so ab, dass in dem Raum auch die Beziehungen zwischen den Entitäten der Ontologien repräsentiert werden können. Diese Embeddings werden dann verwendet, um verschiedene Klassifikationsalgorithmen zu trainieren. Auf diese Weise wird vorhergesagt, welche Teile des Alignments sich verändern werden. Der dritte Ansatz verbindet Embeddings mit einem Veränderungsmodell. Das Veränderungsmodell kategorisiert die an den Ontologien vorgenommenen Veränderungen. Auf diese Kategorisierung und das Embedding werden dann Klassifikationsalgorithmen angewandt. Der vierte Ansatz verwendet eine speziell auf Wissensgraphen ausgerichtete Architektur für neuronale Netze, sogenannte Graph Convolutional Networks, um Veränderungen an Alignments vorher zu sagen.
Diese Ansätze werden auf ihre jeweiligen Vor- und Nachteile untersucht. Dazu werden die Verfahren an zwei Anwendungsfällen untersucht. Der Ansatz zur regelbasierten Einbeziehung von Inferenzen wird anhand eines Anwendungsbeispiels aus dem Bereich der Interweaving Systems betrachtet. In dem Beispiel wird eine allgemeine Methode für Interweaving Systems angewandt um das Selbstmanagement von Ampelsteuerungen zu ermöglichen. Die auf maschinellem Lernen aufbauenden Ansätze werden auf einem Auszug aus der biomedizinischen Forschungsdatenbank UMLS evaluiert.
Dabei konnte festgestellt werden, dass die betrachteten Ansätze grundsätzlich zur Anpassung von Alignments an Ontologie-Veränderungen eingesetzt werden können. Der Ansatz zur regelbasierten Einbeziehung von Inferenzen kann dabei vor allem auf sehr kleinen Datensätzen eingesetzt werden, bei denen alle Gesetzmäßigkeiten der Veränderungen grundsätzlich bekannt sind. Diese Anwendbarkeit ergibt sich aus dem Entwurf der Problemstellung für den ersten Ansatz. Die auf maschinellem Lernen aufbauenden Ansätze eignen sich besonders für große Datensätze und bieten den Vorteil, dass auch ohne ein vollständiges Verständnis des Veränderungsprozesses Vorhersagen getroffen werden können.
Unter den Ansätzen, die maschinelles Lernen einsetzen, zeigte die Einbeziehung von Veränderungsmodellen keine Vorteile gegenüber den anderen Ansätzen. Auf einem etwas
kleineren Datensatz waren die Ergebnisse des Embedding-basierten Ansatzes und der Relational Graph Convolutional Networks vergleichbar, während auf einem größeren Datensatz
die Graph Convolutional Networks etwas bessere Ergebnisse erreichen konnten.
Weitere Ergebnisse dieser Arbeit stellen eine Formalisierung der Problemstellung der Anpassung von Ontologie-Alignments an Veränderungen sowie eine formale Darstellung der Ansätze dar. Ein weiterer Beitrag der Arbeit ist die Vorstellung eines Anwendungsfalls aus dem Bereich der Interweaving Systems für Ontologie-Alignments. Außerdem wurde das Problem der Anpassung von Alignments an Veränderungen so formuliert, dass es mithilfe von
maschinellem Lernen betrachtet werden kann.
Das Projekt anan ist ein Werkzeug zur Fehlersuche in verteilten Hochleistungsrechnern. Die Neuheit des Beitrags besteht darin, dass die bekannten Methoden, die bereits erfolgreich zum Debuggen von Soft- und Hardware eingesetzt werden, auf Hochleistungs-Rechnen übertragen worden sind. Im Rahmen der vorliegenden Arbeit wurde ein Werkzeug namens anan implementiert, das bei der Fehlersuche hilft. Außerdem kann es als dynamischeres Monitoring eingesetzt werden. Beide Einsatzzwecke sind
getestet worden.
Das Werkzeug besteht aus zwei Teilen:
1. aus einem Teil namens anan, der interaktiv vom Nutzer bedient wird
2. und aus einem Teil namens anand, der automatisiert die verlangten Messwerte erhebt und nötigenfalls Befehle ausführt.
Der Teil anan führt Sensoren aus — kleine mustergesteuerte Algorithmen —, deren Ergebnisse per anan zusammengeführt werden. In erster Näherung lässt anan sich als Monitoring beschreiben, welches (1) schnell umkonfiguriert werden (2) komplexere Werte messen kann, die über Korrelationen einfacher Zeitreihen hinausgehen.
In the past decades, the use and production of chemicals has been on the rise globally due to increasing industrialization and intensive agriculture; resulting in the occurrence and ecotoxicological risks of chemicals of emerging concern (CECs) in the aquatic compartments. Risks include changes in community structure resulting in the dominance of one species and ecosystem imbalance. When dominant disease-causing organisms are in the environment, the disease transmission is increased. For example, host snails for the schistosomiasis, a human trematode disease, are known to be tolerant to pesticide
exposure compared to the predators. This would therefore result in an increased abundance of snails which consequently increase the disease transmission in the human population.
Kenya, being a low income country faces a lot of challenges with provision of clean water, diseases and sanitation facilities, and increasing population which results in intensive agriculture coupled with pesticide use. Although a lot of research has been carried out on the environmental occurrence and risk of CECs (Chapter 1), most of these studies have been done in developed countries with limited information from Africa. Additionally, research in Africa focused on urban areas with limited number of compounds analyzed and mostly in the water phase, and inadequate information on the effects of CECs on the aquatic organisms. In order to reduce this knowledge gap, this dissertation focused on identification and quantification of CECs present in water, sediment and snails from western Kenya, and the contribution of pesticides to the transmission of schistosomiasis.
Chapter 2 gives a summary of the results and discussion of the dissertation. In Chapter 3, a comprehensive chemical analysis was carried out on 48 water samples to identify compounds, spatial patterns and associated risks for fish, crustacean and algae using toxic unit (TU) approach. A total of 78 compounds were detected with pesticides and biocides being the compounds most frequently detected. Spatial pattern analysis revealed limited compound grouping based on land use. Acute risk for crustaceans and algae were driven by one to three individual compounds. These compounds responsible for toxicity were prioritized as candidate compounds for monitoring and regulation in Kenya.
In Chapter 4, an extension of Chapter 3 was done to cover the CECs present in snails and sediment from the 48 sites. A total of 30 compounds were found in snails and 78 in sediments with 68 additional compounds being found which were not previously detected in water. Higher contaminant concentrations were found in agricultural sites than in areas without anthropogenic activities. The highest acute toxicity (TU 0.99) was determined for crustaceans based on compounds in sediment samples. The risk was driven by diazinon and pirimiphos-methyl. Acute and chronic risks to algae were driven by diuron whereas fish were found to be at low to no acute risk.
In Chapter 5, the effect of pesticide contamination on schistosomiasis transmission was evaluated by applying complimentary laboratory and field studies. In the field studies, the ecological mechanisms through which pesticides and physical chemical parameters affect host snails, predators and competitors were investigated. Pesticide data was obtained from the results in chapter 3. The overall distribution of grazers and predators was not affected by pesticide pollution. However, within the grazers, pesticide pollution increased dominance of host snails. On the contrary, the host-snail competitors were highly sensitive to pesticide exposure. For the laboratory studies, macroinvertebrates including Schistosoma-host snails, competitors and predators were exposed to 6 concentrations levels of imidacloprid and diazinon. Snails showed higher insecticide tolerance compared to competitors and predators. Finally, Chapter 6 summarizes the conclusions of this dissertation, placing it in a broader
context. In this dissertation, a comprehensive chemical characterization and risk assessment of CECs has been carried out in freshwater systems; together with the effects of pesticides on schistosomiasis transmission in rural western Kenya. Results of this dissertation showed that rural areas are contaminated posing a risk to aquatic organisms which contribute to schistosomiasis transmission. This shows the need for regular monitoring and policy formulation to reduce pollutant emissions which contributes negatively to both ecological and human health effects.
An investigation of photoelectron angular distributions and circular dichroism of chiral molecules
(2021)
The present work demonstrates the capability of several type of molecular frame photoelectron angular distributions (MFPADs) and their linked chiroptical phenomenon the photoelectron circular dichroism (PECD) to map in great detail the molecular geometry of polyatomic chiral molecules as a function of photoelectron energy. To investigate the influence of the molecular potential on the MFPADs, two chiral molecules were selected, namely 2-(methyl)oxirane (C3H6O, MOx, m = 58,08 uma) and 2-(trifluoromethyl)oxirane (C3H3F3O, TFMOx, m = 112,03 uma). The two molecules differs in one substitutional group and share an oxirane group where the O(1s) electron was directly photoionized with the use of synchrotron radiation in the soft X-ray regime. The direct photoionization of the K-shell electron is well localized in the molecule and it induces the ejection of two or more electrons; the excited system separates into several charged (and eventually neutral) fragments which undergo Coulomb explosion due to their charges. The electrons and the fragments were detected using the COLd Target Recoil Ion Momentum Spectroscopy (COLTRIMS) and the momentum vectors calculated for each fragment belonging from a single ionization. The former method gives the possibility to post-orient molecules in space, giving access to the molecular frame, thus the MFPAD and its related PECD for multiple light propagation direction.
Stereochemistry (from the Greek στερεο- stereo- meaning solid) refers to chemistry in three dimensions. Since most molecules show a three-dimensional structure (3D), stereochemistry pervades all fields of chemistry and biology, and it is an essential point of view for the understanding of chemical structure, molecular dynamics and molecular reactions. The understanding of the chemistry of life is tightly bounded with major discoveries in stereochemistry, which triggered tremendous technical advancements, making it a flourishing field of research since its revolutionary introduction in late 18th century. In chemistry, chirality is a brunch of stereochemistry which focuses on objects with the peculiar geometrical property of not being superimposable to their mirror-images. The word chirality is derived from the Greek χειρ for “hand”, and the first use of this term in chemistry is usually attributed to Lord Kelvin who called during a lecture at the Oxford University Junior Scientific Club in 1893 “any geometrical figure, or group of points, “chiral”, and say that it has chirality if its image in a plane mirror, ideally realized, cannot be brought to coincide with itself.”. Although the latter is usually considered as the birth of the word chirality, the concept underlying it was already present in several fields of science (above all mathematics), already proving the already multidisciplinary relevance of chirality across many field of science and beyond. Nature shows great examples of chiral symmetry on all scales. Empirically, it is possible to observe it at macroscopic scale (e.g. distribution of rotations of galaxies), down to the microscopic scale (e.g. structure of some plankton species), but it is at the molecular level where the number gets remarkable: most of the pharmaceutical drugs, food fragrances, pheromones, enzymes, amino acids and DNA molecules, in fact, are chiral. Moreover, the concept of chirality goes far beyond the mere spatial symmetry of objects being crucially entangled with the fundamental properties of physical forces in nature. The symmetry breaking, namely the different physical behaviour of a two chiral systems upon the same stimuli, is considered to be one of the best explanation for the long standing questions of homochirality in biological life, and ultimately to the chemical origin of life on Earth as we know it. Our organism shows high enantio-selectivity towards specific compounds ranging from drugs, to fragrances. Over 800 odour molecules commonly used in food and fragrance industries have been identified as chiral and their enantiomeric forms are perceived to have very different smells, as the well-know example of D- and L- limonene. Similarly, responses to pharmaceuticals drugs can be enantiomer specific, and in fact about 60 % the drugs currently on the market are chiral compounds, and nearly 90 % of them are sold as racemates. The same degree of enantio-selectivity is observed in the communications systems of plants and insects. Plants produce lipophilic liquids with high vapour pressure called plant volatiles (PVs) which are synthesized via different enzymes called tarpene synthases that are usually chiral. Chiral molecules and chiral effects have a strong impact on all the fields of science with exciting developments ranging from stereo-selective synthesis based on heterogeneous enantioselective catalysis, to optoelctronics, to photochemical asymmetric synthesis, and chiral surface science, just to cite a few.
Chiral molecules come in two forms called enantiomers. Their almost identical chemical and physical properties continue to pose technical challenges concerning the resolution of racemic mixtures, the determination of the enantiomeric excess, and the direct determination of the absolute configuration of an enantiomer. ...
The problem of unconstrained or constrained optimization occurs in many branches of mathematics and various fields of application. It is, however, an NP-hard problem in general. In this thesis, we examine an approximation approach based on the class of SAGE exponentials, which are nonnegative exponential sums. We examine this SAGE-cone, its geometry, and generalizations. The thesis consists of three main parts:
1. In the first part, we focus purely on the cone of sums of globally nonnegative exponential sums with at most one negative term, the SAGE-cone. We ex- amine the duality theory, extreme rays of the cone, and provide two efficient optimization approaches over the SAGE-cone and its dual.
2. In the second part, we introduce and study the so-called S-cone, which pro- vides a uniform framework for SAGE exponentials and SONC polynomials. In particular, we focus on second-order representations of the S-cone and its dual using extremality results from the first part.
3. In the third and last part of this thesis, we turn towards examining the con- ditional SAGE-cone. We develop a notion of sublinear circuits leading to new duality results and a partial characterization of extremality. In the case of poly- hedral constraint sets, this examination is simplified and allows us to classify sublinear circuits and extremality for some cases completely. For constraint sets with certain conditions such as sets with symmetries, conic, or polyhedral sets, various optimization and representation results from the unconstrained setting can be applied to the constrained case.
Bacteria are true artists of survival, which rapidly adapt to environmental changes like pH shifts, temperature changes and different salinities. Upon osmotic shock, bacteria are able to counteract the loss of water by the uptake of potassium ions. In many bacteria, this is accomplished by the major K+ uptake system KtrAB. The system consists of the K+-translocating channel subunit KtrB, which forms a dimer in the membrane, and the cytoplasmic regulatory RCK subunit KtrA, which binds non-covalently to KtrB as an octameric ring. This unique architecture differs strongly from other RCK-gated K+ channels like MthK or GsuK, in which covalently tethered cytoplasmic RCK domains regulate a single tetrameric pore. As a consequence, an adapted gating mechanism is required: The activation of KtrAB depends on the binding of ATP and Mg2+ to KtrA, while ADP binding at the same site results in inactivation, mediated by conformational rearrangements. However, it is still poorly understood how the nucleotides are exchanged and how the resulting conformational changes in KtrA control gating in KtrB is still poorly understood.
Here,I present a 2.5-Å cryo-EM structure of ADP-bound, inactive KtrAB, which for the first time resolves the N termini of both KtrBs. They are located at the interface of KtrA and KtrB, forming a strong interaction network with both subunits. In combination with functional and EPR data we show that the N termini, surrounded by a lipidic environment, play a crucial role in the activation of the KtrAB system. We are proposing an allosteric network, in which an interaction of the N termini with the membrane facilitates MgATP-triggered conformational changes, leading to the active, conductive state.
Wir betrachten Algorithmen für strategische Kommunikation mit Commitment Power zwischen zwei rationalen Parteien mit eigenen Interessen. Wenn eine Partei Commitment Power hat, so legt sie sich auf eine Handlungsstrategie fest und veröffentlicht diese und kann nicht mehr davon abweichen.
Beide Parteien haben Grundinformation über den Zustand der Welt. Die erste Partei (S) hat die Möglichkeit, diesen direkt zu beobachten. Die zweite Partei (R) trifft jedoch eine Entscheidung durch die Wahl einer von n Aktionen mit für sie unbekanntem Typ. Dieser Typ bestimmt die möglicherweise verschiedenen, nicht-negativen Nutzwerte für S und R. Durch das Senden von Signalen versucht S, die Wahl von R zu beeinflussen. Wir betrachten zwei Grundszenarien: Bayesian Persuasion und Delegated Search.
In Bayesian Persuasion besitzt S Commitment Power. Hier legt sich S sich auf ein Signalschema φ fest und teilt dieses R mit. Es beschreibt, welches Signal S in welcher Situation sendet. Erst danach erfährt S den wahren Zustand der Welt. Nach Erhalt der durch φ bestimmten Signale wählt R eine der Aktionen. Das Wissen um φ erlaubt R die Annahmen über den Zustand der Welt in Abhängigkeit von den empfangenen Signalen zu aktualisieren. Dies muss S für das Design von φ berücksichtigen, denn R wird Empfehlungen nicht folgen, die S auf Kosten von R übervorteilen. Wir betrachten das Problem aus der Sicht von S und beschreiben Signalschemata, die S einen möglichst großen Nutzen garantieren.
Zuerst betrachten wir den Offline-Fall. Hier erfährt S den kompletten Zustand der Welt und schickt daraufhin ein Signal an R. Wir betrachten ein Szenario mit einer beschränkten Anzahl k ≤ n Signale. Mit nur k Signalen kann S höchstens k verschiedene Aktionen empfehlen. Für verschiedene symmetrische Instanzen beschreiben wir einen Polynomialzeitalgorithmus für die Berechnung eines optimalen Signalschemas mit k Signalen.
Weiterhin betrachten wir eine Teilmenge von Instanzen, in denen die Typen aus bekannten, unabhängigen Verteilungen gezogen werden. Wir beschreiben Polynomialzeitalgorithmen, die ein Signalschema mit k Signalen berechnen, das einen konstanten Approximationsfaktor im Verhältnis zum optimalen Signalschema mit k Signalen garantiert.
Im Online-Fall werden die Aktionstypen einzeln in Runden aufgedeckt. Nach Betrachtung der aktuellen Aktion sendet S ein Signal und R muss sofort durch Wahl oder Ablehnung der Aktion darauf reagieren. Der Prozess endet mit der Wahl einer Aktion. Andernfalls wird der nächste Aktionstyp aufgedeckt und vorherige Aktionen können nicht mehr gewählt werden. Als Richtwert für unsere Online-Signalschemata verwenden wir das beste Offline-Signalschema.
Zuerst betrachten wir ein Szenario mit unabhängigen Verteilungen. Wir zeigen, wie ein optimales Signalschema in Polynomialzeit bestimmt werden kann. Jedoch gibt es Beispiele, bei denen S – anders als im Offline-Fall – im Online-Fall keinen positiven Wert erzielen kann. Wir betrachten daraufhin eine Teilmenge der Instanzen, für die ein einfaches Signalschema einen konstanten Approximationsfaktor garantiert und zeigen dessen Optimalität.
Zusätzlich betrachten wir 16 verschiedene Szenarien mit unterschiedlichem Level an Information für S und R und unterschiedlichen Zielfunktionen für S und R unter der Annahme, dass die Aktionstypen a priori unbekannt sind, aber in uniform zufälliger Reihenfolge aufgedeckt werden. Für 14 Fälle beschreiben wir Signalschemata mit konstantem Approximationsfaktor. Solche Schemata existieren für die verbleibenden beiden Fälle nicht. Zusätzlich zeigen wir für die meistern Fälle, dass die beschriebenen Approximationsgarantien optimal sind.
Im zweiten Teil betrachten wir eine Online-Variante von Delegated Search. Hier besitzt nun R Commitment Power. Die Aktionstypen werden aus bekannten, unabhängigen Verteilungen gezogen. Bevor S die realisierten Typen beobachtet, legt R sich auf ein Akzeptanzschema φ fest. Für jeden Typen gibt φ an, mit welcher Wahrscheinlichkeit R diesen akzeptiert. Folglich versucht S, eine Aktion mit einem guten Typen für sich selbst zu finden, der von R akzeptiert wird. Da der Prozess online abläuft, muss S für jede Aktion einzeln entscheiden, diese vorzuschlagen oder zu verwerfen. Nur empfohlene Aktionen können von R ausgewählt werden.
Für den Offline-Fall sind für identisch verteilte Aktionstypen konstante Approximationsfaktoren im Vergleich zu einer Aktion mit optimalem Wert für R bekannt. Wir zeigen, dass R im Online-Fall im Allgemeinen nur eine Θ(1/n)-Approximation erzielen kann. Der Richtwert ist der erwartete Wert für eine eindimensionale Online-Suche von R.
Da für die Schranke eine exponentielle Diskrepanz in den Werten der Typen für S benötigt wird, betrachten wir parametrisierte Instanzen. Die Parameter beschränken die Werte für S bzw. das Verhältnis der Werte für R und S. Wir zeigen (beinahe) optimale logarithmische Approximationsfaktoren im Bezug auf diese Parameter, die von effizient berechenbaren Schemata garantiert werden.
Aufbau: Acoustic Radiation Force Impulse (ARFI)- Bildgebung ist eine auf der konventionellen Ultraschall- Bildgebung basierende Elastographie- Methode, die die quantitative Messung der Festigkeit und Elastizität von Gewebe ermöglicht. Das Ziel der vorliegenden Studie war es, ARFI- Bildgebung für die Differenzierung von Schilddrüsenknoten zu evaluieren und mit der bereits gut erprobten qualitativen Messmethode der Real-Time Elastographie (RTE) zu vergleichen.
Material und Methoden: ARFI- Bildgebung basiert auf der Aussendung von akustischen Impulsen in Gewebe, wodurch lokale Gewebeverschiebungen hervorgerufen werden. Die dabei entstehenden Transversalwellen wiederum werden über auf Korrelation basierende Methoden mittels Ultraschallwellen detektiert und in m/s angegeben. Einschlusskriterien der Studie waren: Knoten ≥ 5 mm sowie eine zytologische/histologische Aufarbeitung. Alle Patienten erhielten eine konventionelle Ultraschall- Untersuchung, eine Real-Time Elastographie sowie eine ARFI- Bildgebung.
Ergebnisse: Es standen 158 Knoten aus 138 Patienten zur Analyse zur Verfügung. 137 Knoten erbrachten bei der zytologischen/histologischen Aufarbeitung ein benignes Ergebnis, 21 Knoten hingegen wurden als maligne eingestuft. Die mittlere Geschwindigkeit der Messungen der ARFI- Bildgebung in gesundem Schilddrüsengewebe betrug 1,76 m/s, in benignen Knoten 1,90 m/s und in malignen Knoten 2,69 m/s. Es konnte kein signifikanter Unterschied der mittleren Geschwindigkeit zwischen gesundem Schilddrüsengewebe und benignen Knoten ermitteltet werden, wohingegen ein signifikanter Unterschied zwischen malignen Knoten und gesundem Schilddrüsengewebe (p= 0,0019) einerseits und benignen Schilddrüsenknoten (p=0,0039) andererseits bestand. Für die diagnostische Genauigkeit bei der Diagnose von malignen Schilddrüsenknoten konnte kein signifikanter Unterschied zwischen RTE und ARFI- Bildgebung festgestellt werden (0,74 vs. 0,69, p=0,54). Die Kombination von RTE und ARFI- Bildgebung erhöhte die Spezifität bei der Diagnose von malignen Schilddrüsenknoten von 72% (nur RTE) auf 92% (kombiniert).
Schlussfolgerungen: ARFI- Bildgebung kann als zusätzliche Methode bei der diagnostischen Aufarbeitung von Schilddrüsenknoten genutzt werden und liefert dabei einen hohen negativen prädiktiven Wert sowie vergleichbare Ergebnisse wie die RTE.
Computational oral absorption models, in particular PBBM models, provide a powerful tool for researchers and pharmaceutical scientists in drug discovery and formulation development, as they mimic and can describe the physiologically processes relevant to the oral absorption. PBBM models provide in vivo context to in vitro data experiments and allow for a dynamic understanding of in vivo drug disposition that is not typically provided by data from standard in vitro assays. Investigations using these models permit informed decision-making, especially regarding to formulation strategies in drug development. PBBM models, but can also be used to investigate and provide insight into mechanisms responsible for complex phenomena such as food effect in drug absorption. Although there are obviously still some gaps regarding the in silico construction of the gastrointestinal environment, ongoing research in the area of oral drug absorption (e.g. the UNGAP, AGE-POP and InPharma projects) will increase knowledge and enable improvement of these models.
PBBM can nowadays provide an alternative approach to the development of in vitro–in vivo correlations. The case studies presented in this thesis demonstrate how PBBM can address a mechanistic understanding of the negative food effect and be used to set clinically relevant dissolution specification for zolpidem immediate release tablets. In both cases, we demonstrated the importance of integrating drug properties with physiological variables to mechanistically understand and observe the impact of these parameters on oral drug absorption.
Various complex physiological processes are initiated upon food consumption, which can enhance or reduce a drug’s dissolution, solubility, and permeability and thus lead to changes in drug absorption. With improvements in modeling and simulation software and design of in vitro studies, PBBM modeling of food effects may eventually serve as a surrogate for clinical food effect studies for new doses and formulations or drugs. Furthermore, the application of these models may be even more critical in case of compounds where execution of clinical studies in healthy volunteers would be difficult (e.g., oncology drugs).
In the fourth chapter we have demonstrated the establishment of the link between biopredictive in vitro dissolution testing (QC or biorelevant method) PBBM coupled with PD modeling opens the opportunity to set truly clinically relevant specifications for drug release. This approach can be extended to other drugs regardless of its classification according to the BCS.
With the increased adoption of PBBM, we expect that best practices in development and verification of these models will be established that can eventually inform a regulatory guidance. Therefore, the application of Physiologically Based Biopharmaceutical Modelling is an area with great potential to streamline late-stage drug development and impact on regulatory approval procedures.
Die Fähigkeit der spezifischen und kontextabhängigen zellulären Adaption auf intrinsische und/oder extrinsische Signale ist das Fundament zellulärer Homöostase. Verschiedene Signale werden von Membranrezeptoren oder intrazellulären Rezeptoren erkannt und ermöglichen die molekulare Anpassung zellulärer Prozesse. Komplexe, ineinandergreifende Proteinnetzwerke sind dabei elementar in der Regulation der Zelle. Proteine und deren Funktionen werden dabei nach Bedarf reguliert und unterliegen einem ständigen proteolytischen Umsatz.
Die stimulusabhängige Gentranskription und/oder Proteintranslation nimmt hier eine zentrale Stellung ein, da die zugrundeliegende Maschinerie die Komposition und Funktion der Proteinnetzwerke entsprechend anpassen kann. Zusätzlich zur Regulation der Proteinabundanz werden Proteine posttranslational modifiziert, um deren Eigenschaften rasch zu ändern. Zu posttranslationalen Modifikationen zählen die Ubiquitinierung und/oder Phosphorylierung, welche die Proteinfunktionen hochdynamisch regulieren. Deregulierte Proteinnetzwerke werden oft mit Neurodegeneration und Autoimmun- oder Krebserkrankungen assoziiert. Auch Infektionen mit humanpathogenen Bakterien greifen stark in den Regulierungsprozess von Proteinnetzwerken und deren Funktionen ein. Die zelluläre Homöostase wird dadurch herausgefordert.
Bakterien der Gattung Salmonella sind zoonotische, gramnegative, fakultativ intrazelluläre Pathogene, welche weltweit millionenfach Salmonellen-erkrankungen hervorrufen. Von besonderer Bedeutung ist dabei Salmonella enterica serovar Typhimurium (hiernach Salmonella), welches im Menschen, meist durch mangelnde Hygienemaßnahmen, Gastroenteritis auslöst.
Immunität in Epithelzellen wird über das angeborene Immunsystem vermittelt und dient der Pathogenerkennung und -bekämpfung. Die Toll-like Rezeptoren (TLR) gehören zu den Mustererkennungsrezeptoren (pattern recognition receptors), welche spezifische mikrobielle Strukturen detektieren und eine kontextabhängige zelluläre Antwort generieren. Danger-Rezeptoren erkennen hingegen nicht direkt das Pathogen, sondern zelluläre Perturbationen, welche durch Zellschäden oder bakterielle Invasionen verursacht werden. Die intrinsische Fähigkeit der Wirtszelle, sich gegen Infektionen/Gefahren zu wehren wird dabei als zellautonome Immunität bezeichnet. Dabei nehmen induzierte proinflammatorische Signalwege und zelluläre Stressantworten eine wichtige Stellung ein. Die zelluläre Stressantwort aktiviert unter anderem die selektive Autophagie. Diese kann spezifisch aberrante Organelle, Proteine und invasive Pathogene abbauen. Ein weiterer Stresssignalweg ist die integrated stress response (ISR), welche eine selektive Proteintranslation erlaubt und damit die Auflösung des proteintoxischen Stresses ermöglicht.
Zur Penetration von Epithelzellen benötigt Salmonella ein komplexes System an Virulenzfaktoren, welches die bakterielle Internalisierung und Proliferation in der Wirtszelle ermöglicht. Salmonella nutzt dazu ein Typ-III-Sekretionssystem. Das System sekretiert bakterielle Virulenzfaktoren in die Zelle, sodass eine hochspezifische Modulierung des Wirtes erzwungen wird.
Die Virulenzfaktoren SopE und SopE2 spielen dabei eine Schlüsselrolle, da sie die Pathogenität von Salmonella maßgeblich vermitteln. Durch molekulare Mimikry von Wirts GTP (Guanosintriphosphat) -Austauschfaktoren aktivieren SopE und SopE2 die Rho GTPasen CDC42 und Rac1. GTP-geladenes CDC42 und Rac1 wiederum aktivieren das Aktinzytoskelett und stimulieren die Polymerisierung von Aktinfilamenten über den Arp2/3-Komplex an der Invasionsstelle. Das Pathogen wird dadurch in ein membranumhülltes Vesikel, die sogenannte Salmonella-containing Vakuole (SCV), aufgenommen. Die SCV stellt eine protektive, replikative, intrazelluläre Nische des Pathogens dar und wird permanent durch verschiedene Virulenzfaktoren moduliert.
Im Allgemeinen führt die Aktivierung von Mustererkennungsrezeptoren und Danger-Rezeptoren also zu einer zellulären Stressantwort und Entzündungsreaktion, wodurch es zur Bekämpfung der Infektion kommt. Inflammatorische Signalwege werden meist über den zentralen Transkriptionsfaktor NF-κB (nuclear factor 'kappa-light-chain-enhancer' of activated B-cells) vermittelt. NF-κB bewirkt die Induktion von proinflammatorischen Effektoren und Stressgenen. Zellautonome Immunität wird zusätzlich durch antibakterielle Autophagie ermöglicht, wobei Salmonella selektiv über das lysosomale System abgebaut werden. Das bakterielle Typ-III-Sekretionssystem verursacht an einigen wenigen SCVs Membranschäden, sodass Salmonella das Wirtszytosol penetrieren. Zytosolische Bakterien werden dabei spezifisch ubiquitiniert. Dies erlaubt die Erkennung durch die Autophagie-Maschinerie.
In der vorliegenden Arbeit wurde die zellautonome Immunität von Epithelzellen während einer akuten Salmonella Infektion durch quantitative Proteomik untersucht...
Paläoklimarekonstruktionen, die es sich zum Ziel gesetzt haben, Klima-Mensch Interaktionen auf lange Zeitreihen betrachtet zu erforschen, nehmen begünstigt durch die aktuell intensiv geführte Klimadebatte, einen immer größer werdenden Stellenwert in der öffentlichen und wissenschaftlichen Wahrnehmung ein. Denn trotz aller wissenschaftlicher Fortschritte, die in den vergangenen Jahrzehnten im Bereich der modernen Klimaforschung gemacht wurden, bleibt die zuverlässige Vorhersage und Modellierung von zukünftigen Klimaveränderungen noch immer eine der größten Herausforderungen unser heutigen Zeit. Betrachtet man die Karibik exemplarisch in diesem Rahmen, dann prognostizieren viele Modellrechnungen, infolge steigender Ozeantemperaturen, ein deutlich häufigeres Auftreten von tropischen Stürmen und Hurrikanen sowie eine Verschiebung hin zu höheren Sturmstärken. Dieser Trend stellt für die Karibik und viele daran angrenzende Staaten eine der größten Gefahren des modernen Klimawandels dar, den es wissenschaftlich über einen langen Zeitrahmen zu erforschen gilt.
Klimaprognosen stützen sich meist vollständig auf hoch-aufgelöste instrumentelle Datensätze. Diese sind aber alle durch einen wesentlichen Aspekt limitiert. Aufgrund ihrer eingeschränkten Verfügbarkeit (~150 Jahre) fehlt ihnen die erforderliche Tiefe, um die auf langen Zeitskalen operierenden Prozesse der globalen Klimadynamik adäquat abbilden zu können. Betrachtet man das Holozän in seiner Gesamtheit, so wurde die globale Klimadynamik über die vergangenen ~11,700 Jahre von periodisch auftretenden Prozessen und Abläufen gesteuert. Diese wirken grundsätzlich über Zeiträume von mehreren Jahrzehnten, teilweise Jahrhunderten und in einigen Fällen sogar Jahrtausenden. Viele dieser natürlichen Prozesse, können in der kurzen Instrumentellen Ära nicht gänzlich identifiziert und angemessen in Klimamodellen berücksichtig werden. Die alleinige Berücksichtigung der Instrumentellen Ära bietet daher nur eine eingeschränkte Perspektive, um die Ursachen und Abläufe von vergangenen sowie mögliche Folgen von zukünftigen Klimaveränderungen zu verstehen. Um diese Einschränkung zu überwinden, ist es somit erforderlich, dass die geowissenschaftliche Forschung mit Proxymethoden ein zusammenfassendes und mechanistisches Verständnis über alle Holozänen Klimaveränderungen erlangt.
Wenn man sich diese Limitierung, die ansteigenden Ozeantemperaturen und das in der Karibik in den vergangen 20 Jahren vermehrte Auftreten von starken tropischen Zyklonen ins Gedächtnis ruft, ist es nachvollziehbar, dass im Rahmen dieser Doktorarbeit ein zwei Jahrtausende langer und jährlich aufgelöster Klimadatensatz erarbeitet werden soll, der spät Holozäne Variationen von Ozeanoberflächenwasser-temperaturen (SST) und daraus resultierende lang-zeitliche Veränderungen in der Häufigkeit tropischer Zyklone widerspiegelt. In Zentralamerika wird das Ende der Maya Hochkultur (900-1100 n.Chr.) mit drastischen Umweltveränderungen (z.B. Dürren) assoziiert, die während der Mittelalterlichen Warmzeit (MWP; 900-1400 n.Chr.) durch eine globale Klimaveränderung hervorgerufen wurde. Die aus einem „Blue Hole“ abgeleiteten Informationen über Klimavariationen der Vergangenheit können als Referenz für die gegenwärtige Klimakriese verwendet werden.
Als „Blue Hole“ wird eine Karsthöhle bezeichnet, die sich subaerisch während vergangener Meeresspiegeltiefstände im karbonatischen Gerüst eines Riffsystems gebildet hat und in Folge eines Meeresspiegelanstiegs vollständig überflutet wurde. In einigen wenigen marinen „Blue Holes“ treten anoxische Bodenwasserbedingungen auf. Die in diesen anoxischen Karsthöhlen abgelagerten Abfolgen mariner Sedimente können als einzigartiges Klimaarchiv verwendet werden, da sie aufgrund des Fehlens von Bioturbation eine jährliche Schichtung (Warvierung) aufweisen.
In dieser kumulativen Dissertation über das „Great Blue Hole“ werden die Ergebnisse eines 3-jährigen Forschungsprojekts vorgestellt, dass das Ziel verfolgte einen wissenschaftlich herausragenden spät Holozänen Klimadatensatz für die süd-westliche Karibik zu erzeugen. Beim „Great Blue Hole“ handelt es sich um ein weltweit einzigartiges marines Sedimentarchiv für diverse spät Holozäne Klima-veränderungen, das im Zuge dieser Dissertation sowohl nach paläoklimatischen als auch nach sedimentologischen Fragestellungen untersucht wurde. Die vorliegende Doktorarbeit befasst sich im Einzelnen mit (1) der Ausarbeitung eines jährlich aufgelösten Archives für tropische Zyklone, (2) der Entwicklung eines jährlich aufgelösten SST Datensatzes und (3) einer kompositionellen Quantifizierung der sedimentären Abfolgen sowie einer faziell-stratigraphischen Charakterisierung von Schönwetter-Sedimenten und Sturmlagen. Zu jedem dieser drei Aspekte, wurde jeweils ein Fachartikel bei einer anerkannten wissenschaftlichen Fachzeitschrift mit „peer-review“ Verfahren veröffentlicht.
Der insgesamt 8.55 m lange Sedimentbohrkern („BH6“), der für diese Dissertation untersucht wurde, stammt vom Boden des 125 m tiefen und 320 m breiten „Great Blue Holes“, das sich in der flachen östlichen Lagune des 80 km vor der Küste von Belize (Zentralamerika) gelegenen „Lighthouse Reef“ Atolls befindet. Durch seine besondere Geomorphologie wirkt das, innerhalb des atlantischen „Hurrikan Gürtels“ positionierte, „Great Blue Hole“ wie eine gigantische Sedimentfalle. Die unter Schönwetter-Bedingungen kontinuierlich abgelagerten Abfolgen feinkörniger karbonatischer Sedimente, werden von groben Sturmlagen unterbrochen, die auf „over-wash“ Prozesse von tropischen Zyklonen zurückzuführen sind.
...