Refine
Year of publication
- 2020 (235) (remove)
Document Type
- Doctoral Thesis (235) (remove)
Has Fulltext
- yes (235) (remove)
Is part of the Bibliography
- no (235)
Keywords
- Knochenersatzmaterial (2)
- Sprache (2)
- 3-alkylphenols (1)
- 3D-Druck (1)
- 6-methylsalicylic acid synthase (1)
- 9-HODE (1)
- ADHS (1)
- ALL (1)
- AML (1)
- Absorption modeling (1)
Institute
Hintergrund. Die Achtung der individuellen Autonomie ist eines von vier medizinethischen Prinzipien, das im Kontext von Medizin und Forschung insbesondere in Bezug auf die informierte Einwilligung einer Person thematisiert wird. Menschen mit Demenz können aufgrund innerer oder äußerer Faktoren in ihrer Einwilligungsfähigkeit beeinträchtigt sein, was zu einer Einschränkung ihres Rechts auf Selbstbestimmung führen kann. Im diesbezüglichen Spannungsfeld zwischen Fürsorge und Autonomie soll Entscheidungsassistenz zur Ermöglichung selbstbestimmter Entscheidungen beitragen.
Zielrichtung der Arbeit. Ziel der vorliegenden Dissertation ist die Definition, Implementierung und Evaluation von Entscheidungsassistenzmaßnahmen für Menschen mit Demenz, um deren Autonomie in Entscheidungsprozessen zu unterstützen. Drei Teilprojekte umfassen die Ermittlung des internationalen Forschungsstands zu Entscheidungsassistenz bei Demenz, die Definition und Pilotierung von Unterstützungstools in der Praxis und die Analyse des individuellen Erlebens der vereinfachten Aufklärungsgespräche durch Menschen mit Demenz.
Methode. Im ersten Teilprojekt wurde eine am PRISMA-Standard orientierte systematische Literaturrecherche in Medline und PsycINFO durchgeführt. Die extrahierten relevanten Informationen wurden inhaltlich systematisiert. Aufbauend auf diesen Ergebnissen wurden im zweiten Teilprojekt konkrete Unterstützungstools definiert und in reale Aufklärungsgespräche (Lumbalpunktion) implementiert. Die Tools wurden in der Pilotierung in der Praxis sowie in einem iterativen Diskussionsprozess mit Experten weiterentwickelt. Im dritten Teilprojekt wurde das individuelle Erleben der Teilnehmer der vereinfachten Aufklärungsgespräche mittels problemzentrierter Interviews untersucht und die Daten einer qualitativen Inhaltsanalyse unterzogen.
Ergebnisse. Die Datenbankrecherche ergab initial 2348 Treffer. Nach Screenings der Titel, Abstracts und Volltexte konnten 11 Artikel eingeschlossen werden. Vier der eingeschlossenen Studien sind Interventionsstudien, die übrigen sieben qualitative Interviewstudien. Die identifizierten Unterstützungsmaßnahmen wurden zunächst den beiden Kategorien Interventionen und Strategien und anschließend unter Zuhilfenahme des Konzepts des Contextual Consents fünf komplexitätssteigernden Dimensionen einer Entscheidungssituation zugeordnet (individuelle, soziale, medizinische, informationelle und Folgendimension). Darauf aufbauend wurden im zweiten Teilprojekt acht Entscheidungsassistenzmaßnahmen abgeleitet: (1) Gesprächsstruktur, (2) Elaborierte klare Sprache, (3) Ambiente / Raumgestaltung, (4) Stichwortlisten, (5) Prioritätenkarten, (6) Visualisierung, (7) Vereinfachte schriftliche Einverständniserklärung sowie (8) Personenzentrierte Haltung des Entscheidungsassistenten (1-7: Tools, 8: Grundeinstellung). Die Tools zielen überwiegend auf eine Komplexitätsreduktion in der informationellen Dimension unter Berücksichtigung der fähigkeitsbezogenen und der bedürfnisbezogenen individuellen Dimension ab. Durch Anpassungen der Informationsdarbietung oder der kommunikativen Interaktion im Gespräch dienen sie mehrheitlich der Förderung des (Informations-) Verständnisses. Die Analyse der qualitativen Daten im dritten Teilprojekt zeigt, dass die Erfahrung der vereinfachten Aufklärungsgespräche durch drei übergreifende Themen gekennzeichnet ist. Die Kategorie Formalität versus Informationsgewinn illustriert die individuelle Bedeutung des Aufklärungsgesprächs für die Teilnehmer und deren Bewertung des Prozesses der informierten Einwilligung. Die Kategorie Wahrnehmung der Unterstützung skizziert die Bewertungen der angewandten Unterstützungstools durch die Teilnehmer. Die Kategorie Der Wahrheit ins Auge sehen müssen stellt dar, dass die erlebte Situation des vereinfachten Aufklärungsgesprächs wesentlich durch die Verdachtsdiagnose Demenz bestimmt ist, die im Rahmen aller Aufklärungsgespräche besprochen wurde.
Fazit. Bislang gibt es wenig empirische Forschung zu Entscheidungsassistenz für Menschen mit Demenz und Unterstützungsmaßnahmen werden überwiegend unsystematisch entwickelt und angewendet. Die Wirksamkeit einzelner Unterstützungsmaßnahmen kann aufgrund fehlender Interventionsstudien selten beurteilt werden. Unterstützungsmaßnahmen zielen überwiegend auf eine Komplexitätsreduktion in der Informationsdarbietung und im kommunikativen Interaktionsprozess ab, wobei sie kognitive Beeinträchtigungen und Interaktions-/ Entscheidungsbedürfnisse von Menschen mit Demenz berücksichtigen. Die definierten Tools können als erste konkret handhabbare Werkzeuge verstanden werden, die das strukturierte Leisten von Entscheidungsassistenz für Menschen mit Demenz erleichtern sollen. Sie sind übertragbar auf verschiedene Entscheidungssituationen. Eine Bewertung der Wirksamkeit der definierten Tools sollte in weiteren Entscheidungssituationen und mit größeren Stichproben weiteruntersucht werden. Die Ergebnisse der Evaluation liefern jedoch erste Hinweise darauf, dass einige Teilnehmer sich von einzelnen Tools unterstützt gefühlt haben und die anvisierte Komplexitätsreduktion in der informationellen Dimension in einigen Fällen erfolgreich war. Eine wesentliche Komplexitätssteigerung in der untersuchten Entscheidungssituation entstand durch die negative Emotionen auslösende Vermittlung einer potentiellen Demenzdiagnose (Folgendimension). Dieses Ergebnis impliziert, dass die definierte „verständnisfördernde Toolbox“ um Unterstützungsmaßnahmen zur emotionalen Entlastung von Menschen mit Demenz erweitert werden muss, da davon ausgegangen werden kann, dass vielfältige Entscheidungssituationen für Menschen mit Demenz emotional hoch belastend sind.
A novel role for mutant mRNA degradation in triggering transcriptional adaptation to mutations
(2020)
Robustness to mutations promotes organisms’ well-being and fitness. The increasing number of mutants in various model organisms, and humans, showing no obvious phenotype (Bouche and Bouchez, 2001; Chen et al., 2016b; Giaever et al., 2002; Kok et al., 2015) has renewed interest into how organisms adapt to gene loss. In the presence of deleterious mutations, genetic compensation by transcriptional upregulation of related gene(s) (also known as transcriptional adaptation) has been reported in numerous systems (El-Brolosy and Stainier, 2017; Rossi et al., 2015; Tondeleir et al., 2012); however, the molecular mechanisms underlying this response remained unclear. To investigate this phenomenon, I develop and study multiple models of transcriptional adaptation in zebrafish and mouse cell lines. I first show that transcriptional adaptation is not caused by loss of protein function, indicating that the trigger lies upstream, and find that the response involves enhanced transcription of the related gene(s). Furthermore, I observe a correlation between levels of mutant mRNA degradation and upregulation of related genes. To investigate the role of mutant mRNA degradation in triggering the response, I generate mutant alleles that do not transcribe the mutated gene and find that they fail to induce a transcriptional response and display stronger phenotypes. Transcriptome analysis of alleles displaying mutant mRNA degradation revealed upregulation of a significant proportion of genes displaying sequence similarity with the mutated gene’s mRNA, suggesting a model whereby mRNA degradation intermediates induce transcriptional adaptation via sequence similarity. Further mechanistic analyses suggested RNA-decay factors-dependent chromatin remodeling, and repression of antisense RNAs to be implicated in the response. These results identify a novel role for mutant mRNA degradation in buffering against mutations. Besides, they hold huge implications on understanding disease-causing mutations and shall help in designing mutations that lead to minimal transcriptional adaptation-induced compensation, facilitating studying gene function in model organisms.
This thesis investigates the acquisition pace and the typical developmental path in eL2 acquisition of selected phenomena of German morphosyntax and semantics and compared them to monolingual acquisition. In addition, the influence of ‘Age of Onset’ and of external factors on eL2 acquisition is examined.
To date, the most studies on eL2 acquisition focused on language production. Based on mostly longitudinal spontaneous speech data of only small number of children, they indicate that eL2 learners acquire sentence structure and subject-verb-agreement faster than monolingual children, whereas the acquisition of case marking causes them more difficulties. Moreover, similar developmental paths to those of monolingual children are claimed. Only several studies examined comprehension abilities in eL2 learners, however overwhelmingly in cross-sectional design. The findings from comprehension studies on telic and atelic verbs, and on wh-questions indicate that eL2 children acquire their target-like interpretation faster than monolingual children. The same acquisition stages towards target-like interpretation like in monolingual acquisition are assumed as well. Taking together, to date, no study exists, that examines comprehension and production abilities in a large group of eL2 learners of German in a longitudinal design.
This thesis extends the previous results by investigating pace of acquisition, impact of factors, and individual developmental paths in a longitudinal design with large groups of participants. Language data of 29 eL2 learners of German (age at T1: 3;7 years, LoE: 10 months) and 45 monolingual German-speaking children (age at T1: 3;7) are examined. The eL2 learners were tested in six test rounds (age at T6: 6;9 years). The monolingual children were tested in five test rounds (are at T5: 5;7). The standardized test LiSe-DaZ (Schulz & Tracy, 2011) was employed to examine children’s language skills.
eL2 learners show a significantly greater rate of change, thus faster acquisition pace, than monolingual children in the following scales: comprehension of telicity, comprehension of wh-questions, production of prepositions, and production of conjunctions. These phenomena are acquired early in monolingual children. No differences regarding acquisition pace between eL2 children and monolingual children are found for comprehension of negation, production of case marking, and production of focus particles. These phenomena are acquired late in monolingual development and involve semantic and pragmatic knowledge. The findings of faster acquisition pace of several phenomena are in line with several studies that reported that eL2 children develop faster than monolingual children.
Independent on whether a phenomenon is acquired early or late, no effects of external factors on eL2 children’s performance are found. These findings indicate that acquisition of core, rule-based phenomena is not sensitive to external factors if the first exposure to L2 takes place around the age of three.
Moreover, eL2 children show the same developmental stages and error types in comprehension of telicity, comprehension of negation, production of matrix and subordinate clauses. This is also independent on how fast they acquire a structure under consideration. Thus, these findings provide a further support for similar developmental paths of eL2 and monolingual children towards target-like comprehension and production.
Adaptormoleküle zur Rekrutierung von Transkriptionsfaktoren oder miRNAs an nicht native Bindestellen
(2020)
Die Kontrolle der Genexpression ist eines der großen Ziele der chemischen Biologie. Gemäß dem klassischen Dogma der Molekularbiologe verläuft der Fluss der genetischen Information über die Transkription von DNA zur messenger RNA (mRNA) und durch die Translation von mRNA zu Proteinen. Auch wenn der ursprünglichen Formulierung dieses Dogmas verschiedene Aspekte hinzugefügt wurden, bleibt die Kernaussage unverändert. Eine Störung der Genexpression ist in vielen Fällen die Ursache für schwerwiegende Erkrankungen. Klassische Therapeutika, die im Allgemeinen aus kleinen Molekülen bestehen, können pathogene Proteine spezifisch binden und inhibieren. Allerdings greifen diese Wirkstoffe am Ende der Produktionskette ein und nicht alle Proteine können adressiert werden. Im Gegensatz dazu könnte ein Eingriff auf der Ebene der Transkription oder Translation die Expression der pathogenen Proteine auf ein normales Maß senken oder ganz verhindern. Als entscheidende Regulatoren der Genexpression stellen Transkriptionsfaktoren (TFs) einen interessanten Angriffspunkt zur Kontrolle der Transkription dar. TFs können über den Kontakt zu weiteren Proteinen die RNA Polymerase II rekrutieren und so die Transkription starten. Für die Translation ist die Halbwertszeit der mRNA ein entscheidender Faktor. Die Lebensdauer wird durch eine Vielzahl an Proteinen und micro RNAs (miRNAs) reguliert. MiRNAs sind kurze Oligonukleotide, die in Argonautproteine eingebaut werden können. Die daraus resultierenden RNA-induced silencing complexes (RISCs) sind in der Lage, den Abbau der mRNA einzuleiten. Sowohl TFs als auch RISCs besitzen dabei Nukleinsäure-bindende Untereinheiten, die mit spezifische Sequenzen assoziieren. In gewisser Weise ist die molekulare Erkennung der Nukleinsäuren vergleichbar mit einer Postsendung, die aufgrund der Adresse korrekt zugestellt wird. Um in diesem Bild des täglichen Lebens zu bleiben: Bei einem Wechsel des Wohnorts ist es üblich, einen Nachsendeauftrag zu stellen. Dabei wird die alte Anschrift auf den Postsendungen mit einem neuen Adressetikett überklebt und die Zustellung erfolgt an den neuen Wohnort. Das zentrale Thema dieser Dissertation ist, dieses „Umetikettieren“ auch auf TFs und RISCs zu übertragen. Hierbei ist es notwendig, die Nukleinsäure-bindenden Untereinheiten der Komplexe, also die „alte Adresse“, vollständig zu blockieren und gleichzeitig eine hohe Affinität zu einer neuen Sequenz zu erzeugen. Hierzu könnten bifunktionale Adaptormoleküle verwendet werden.
Die Adaptoren für die Rekrutierung von TFs müssen in der Lage sein, sowohl die doppelsträngige DNA (dsDNA) als auch einen TF zu binden (Abbildung I). Dabei sollte eine Selbstbindung des Adaptors vermieden werden. In dieser Arbeit wurde der TF Sp1 als Ziel gewählt, da er an GC-reiche dsDNAs bindet. Dies ermöglicht die Wahl einer AT- oder GA reichen DNA-Sequenz als Ziel der Umleitung, wodurch eine Selbstbindung des Adaptors minimiert werden sollte. Zur Erkennung der DNA war geplant, Pyrrol-Imidazol-Polyamide (PIPs), triplexbildende Oligonukleotide (TFOs) oder pseudokomplementäre PNAs einzusetzen. Für Letztere war es möglich, eine neue Syntheseroute zu einem Fmoc geschützten Thiouracil-Monomer zu entwerfen. Dabei konnte eine selektive Alkylierung an der N1-Position des Thiouracils durchgeführt werden. Auf Basis der PIPs und der TFOs wurden jeweils verschiedene Adaptoren entworfen, deren Bindung zu ihren Zielen mit Band-Shift-Experimenten und im Fall der PIPs zusätzlich mit fluoreszenzbasierten Pulldown-Experimenten gezeigt wurde. Im Rahmen dieser Versuche zeigte sich, dass die PIP-basierten Systeme deutlich besser an die Zielsequenzen banden als die TFO-basierten Adaptoren. Das Konjugat K5a besaß hierbei die besten Eigenschaften. Weiterhin konnte mit diesem Adaptor in Pulldown-Experimenten gezeigt werden, dass Sp1 auf eine nicht kanonische AT-reiche Bindestelle umgeleitet wurde. Im Anschluss konnte das Sp1 in Western-Blots detektiert werden. Des Weiteren ließ sich zeigen, dass K5a in einem HeLa Lysat über mehrere Stunden stabil war und somit eine Anwendung in Zellkulturexperimenten möglich sein sollte.
Für die Rekrutierung der RISCs war lediglich eine Erkennung zweier einzelsträngiger RNA-Abschnitte notwendig. Hierzu wurden zwei LNAs oder LNA/DNA-Mixmere verwendet, die über einen Linker verknüpft waren (Abbildung I). Als Folge dieses Aufbaus mussten die beiden Adaptorhälften orthogonal sein, da eine Selbstbindung des Adaptors leichter als bei den TF-Adaptoren auftreten konnte. Diese Adaptoren wurden mit Band-Shift- und fluoreszenzbasierten Pulldown-Experimenten auf ihre Fähigkeit, eine Cy5-gelabelte miRNA auf eine Ziel-RNA umzuleiten, überprüft. Es konnte beobachtet werden, dass all-LNA Adaptoren sehr viele off-target-Effekt aufwiesen, welche die Umleitung von miRNAs verhinderte. Im Gegensatz dazu konnten mit DNA/LNA-Mixmeren eine vollständige Umleitung von miRNA-Modellen beobachtet werden. Es war ebenfalls möglich, spezifische RISCs aus HeLa-Lysaten mit unterschiedlichen Adaptoren in Pulldown-Experimenten zu isolieren und in nachfolgenden Western-Blots zu detektieren. Nachdem gezeigt war, dass eine Umleitung in vitro gelang, sollte die Funktion der Adaptoren in Zellkulturexperimenten geprüft werden. Allerdings konnten in diesen Versuchen keine eindeutigen Ergebnisse erhalten werden, sodass die biologische Relevanz der RISC-Umleitung bislang noch nicht bestätigt werden konnte.
Die Pathophysiologie der Bandscheibendegeneration (intervertebral disc degeneration, IVDD) und ihre molekularen Mechanismen sind noch in weiten Teilen unverstanden. Ihre Ursachen und Risikofaktoren sind vielfältig und schließen unter anderem Alter, Geschlecht, Umwelteinflüsse oder mechanische Belastungen mit ein.
Für das der Bandscheibe eng verwandte Knorpelgewebe wurde in aktuellen Studien der Einfluss des Sympathikus bzw. dessen Neurotransmitters Noradrenalin (NE) via adrenerger Rezeptoren (AR) auf die Zellproliferation, die Expression von Molekülen der extrazellulären Matrix und somit auch auf die Degeneration beschrieben. In Bandscheiben wurde bereits das Vorhandensein von sympathischen Nervenendigungen nachgewiesen, allerdings wurde die Expression der Adrenozeptoren hier noch nie untersucht. Das Ziel der vorliegenden Arbeit war also die Analyse der ARs im Gewebe der Bandscheibe und die Evaluation der Korrelation mit der Bandscheibendegeneration.
Das für die Analyse benötigte Gewebe stammt von Patienten, bei welchen eine Wirbelkörperverblockung (Spondylodese) durchgeführt wurde. Im Rahmen dieser Spondylodese wird das Bandscheibengewebe des betroffenen Segmentes entfernt. Der Degenerationsgrad der anonymisierten Proben wurde prä- und intraoperativ bestimmt und im entnommenen Gewebe sowie in isolierten Zellen die Expression aller bekannten ARs mittels reverse transcription polymerase chain reaction (RT-PCR) untersucht. Zum Nachweis der ARs auf Proteinebene wurden einzelne humane Proben auch immunhistochemisch analysiert. Des Weiteren wurde anhand von Wildtyp- und sogenannten SM/J-Mäusen, die eine spontane IVDD entwickeln, die Proteinexpression der ARs und der extrazellulären Matrix (ECM) von gesunden und geschädigten Bandscheiben an histologischen Schnitten verglichen. Schließlich wurde an isolierten und kultivierten humanen Zellen ein Stimulationsversuch mit Noradrenalin durchgeführt, um zu prüfen, ob es nach Aktivierung der ARs zu einer intrazellulären Signalweiterleitung kommt.
In Nativgewebe der humanen Bandscheibe konnte die messenger Ribonukleinsäure (mRNA) von α1a-, α1b-, α2a-, α2b-, α2c-, β1- und β2-ARs nachgewiesen werden. Nach siebentägiger Zellkultur im Monolayer präsentierte sich ein nur dezent abweichendes Genexpressionsmuster. Auf Proteinebene war das Signal des β2-AR nur im Bereich des Annulus fibrosus (AF) detektierbar jedoch nicht im Nucleus pulposus (NP). Selbiges war auch in murinen Schnitten festzustellen, wobei sich bei Wildtype (WT)-Mäusen hauptsächlich im inneren AF β2-positive Zellen fanden, während sich das Signal bei der SM/J-Maus weiter in Richtung des äußeren AF und des NP ausdehnte. α2a-AR und α2c-AR waren hingegen auf Proteinebene nicht nachweisbar. Bei der immunhistochemischen Untersuchung relevanter ECM-Moleküle zeigte sich für Kollagen II, Kollagen XII, cartilage oligomeric matrix protein (COMP) und Decorin (DCN) eine Verteilung, die mit der des β2-AR-Signals korreliert. Der Stimulationsversuch in humaner Zellkultur ergab eine Aktivierung der für die ARs relevanten Proteinkinase A (PKA)- und extracellular signal–regulated kinases (ERK1/2) -Signalwege.
In der vorliegenden Arbeit konnte zum ersten Mal die Existenz und Funktionalität von Adrenozeptoren im Bandscheibengewebe nachgewiesen werden. Unterschiede in der Expression der ARs, kombiniert mit Veränderungen der ECM-Zusammensetzung könnten ein Hinweis auf den Einfluss des Sympathikus bei IVDD sein. Die aktuelle demographische Entwicklung und die sich hieraus ergebende gesundheitsökonomische Belastung machen die Ergründung molekularer Mechanismen der IVDD und die daraus resultierende Entwicklung innovativer Behandlungsmethoden zu Kardinalfragen moderner orthopädischer Grundlagenforschung.
Two main types of methods are used in gene therapy: integrating vectors and nuclease-based genome engineering. Nucleases are site-specific and are efficient for knock-outs, but inefficient at inserting long DNA sequences. Integrating vectors perform this task with high efficiency, but their insertion occurs at random genomic positions. This can result in transformation of target cells, which leads to severe adverse events in a gene therapy context. Thus, it is of great interest to develop novel genome engineering tools that combine the advantages of both technologies. The main focus of this thesis is on generating such a targetable integrating vector.
The integrating vector used in this project is the Sleeping Beauty (SB) transposon, a DNA transposon characterized by high activity across a wide range of cells. The SB transposase was combined with an RNA-guided Cas9 nuclease domain. This nuclease component was meant to direct transposase integration to specific targets defined by RNAs. The SB transposase was fused to cleavage-inactivated Cas9 (dCas9) to tether it to the target sites. In addition, adapter proteins consisting of dCas9 and domains non-covalently interacting with SB transposase or the SB transposon were generated. All constituent domains of these fusion proteins were tested in enzymatic assays and almost all enzymatic activities could be verified.
Combining the fusion protein dCas9-SB100X with a gRNA binding a sequence from the AluY repetitive element resulted in a weak, but statistically significant enrichment around sites bound by the gRNA. This enrichment was ca. 2-fold and occurred within a 300 bp window downstream of target sites, or within the AluY element.
Targeting with adapter proteins and targeting of other targets (L1 elements or single-copy targets) did not result in statistically significant effects. Single-copy targets tested included the HPRT gene and three specifically selected GSH targets that were known to be receptive to SB insertions. The combination with a more sequence-specific transposase mutant also failed to increase specificity to a level allowing targeting of single-copy loci. Genome-wide analysis of insertions however demonstrated, that dCas9-SB100X has a different insertion profile than SB100X, regardless of the gRNA used.
As low efficiency of retargeting is likely a consequence of the high background activity of the SB100X transposase in the fusion constructs, a SB mutant with reduced DNA affinity, SB(C42), was generated. For this mutant, transposition activity was partly dependent on a dCas9 domain being supplied with a multi-copy target gRNA, specifically a 2-fold increase in the presence of a AluY-directed gRNA. Whether using this mutant results in improved targeting remains to be determined.
In a side project, an attempt was made to direct SB insertions to ribosomal DNA by fusing the transposase to a nucleolar protein. This fusion transposase partially localized to nucleoli and insertions catalyzed by this transposase were found to be enriched in nucleolus organizer regions (NORs) and nucleolus-associated domains (NADs).
The aim of a second side project was increasing the ratio between homology-directed repair (HDR) and non-homologous end-joining (NHEJ) at Cas9-mediated double-strand breaks (DSBs). To achieve this, Cas9 was fused to DNA-interacting domains and corresponding binding sequences were fused to the homology donors. While an increased HDR/NHEJ ration could be observed for the fusion proteins, it was not dependent on the presence on the binding sequences in the donor molecules.
In Deutschland erkranken pro Jahr bis zu 12.000 Menschen neu an Leukämie. Leukämie ist eine schwere onkologische Erkrankung, bei der reifes Knochenmarkgewebe in Folge von Mutationen unreifer und defekter Vorläuferzellen (leukämischen Blasten) verdrängt wird. Dies führt zu einer zunehmend eingeschränkten Blutbildung. Akute Leukämieformen können unbehandelt innerhalb von wenigen Wochen zum Tode führen und erfordern deshalb eine umgehende Diagnostik sowie einen raschen Therapiebeginn. Heilungschancen bestehen dann, wenn durch die Transplantation von gesunden hämatopoetischen Stammzellen (HSZT) das erkrankte Knochenmark ausreichend ersetzt wird. Leider sind Abstoßungsreaktionen des Spendermaterials (engl.: Graft-versus-Host-Disease, GvHD) keine Seltenheit.
Natürliche Killerzellen (NK-Zellen) stellen die kleinste Lymphozytenpopulation im menschlichen Blut dar und werden dem angeborenen Immunsystem zugerechnet. Sie wurden erstmals 1975 durch die Forscher Kiessling, Klein et al. entdeckt.17 Aufgrund ihrer Fähigkeit bestimmte Tumorzellen in vitro zu töten, wächst das Interesse an der Erforschung ihrer aktivierenden und inhibierenden Oberflächenrezeptoren. Die Killer-Zell-Immunoglobulin-ähnlichen Rezeptoren (KIRs) bilden dabei eine besonders diverse NKZell-Rezeptorfamilie. Lokalisiert auf Chromosom 19 liegen bis zu 17 hochpolymorphe KIRGene. Die genetische Ausstattung und Oberflächenexpression variiert von Individuum zu Individuum und bildet die Voraussetzung für die vorhandene Diversität KIR-exprimierender NK-Zellen. NK-Zellen besitzen die Fähigkeit, Gewebezellen in „körpereigen“ oder „fremd“ zu kategorisieren. Inhibitorische Killer-Immunoglobulin-ähnliche Rezeptoren (iKIR) nutzen dazu HLA-Klasse-I-Proteine (MHC-I) auf der Oberfläche gesunder Zellen. Diese schützen sie vor einem zytotoxischen NK-Zell-Angriff. NK-Zellen durchlaufen im Vorfeld einen komplexen Ausbildungssprozess48, an dessen Ende lizensierte Effektorzellen stehen. Diese können mittels gezielter Zytolyse krebstransformierte, zellulär-gestresste, sowie viralinfizierte Zellen im intakten Organismus erkennen und abtöten.
Die Spenderauswahl ist ein wichtiger Faktor für den Erfolg einer Stammzelltransplantation. Infundierte Spender NK-Zellen schützen das Transplantat, indem sie als wirksame Effektorzellen verbleibende Leukämiezellen aktiv eliminieren. Diese wünschenswerte Nebenwirkung wird als Graft-versus-Leukämie (GvL)-Effekt bezeichnet. Ruggeri et al. konnte zeigen, dass insbesondere Transplantationsstrategien, die auf KIR-Ligand-Fehlpaarungen (engl.: KIR-HLA-mismatch) basieren, zu weniger Rückfällen, weniger GvHD und einem besseren Gesamtüberleben bei Patienten mit akuter myeloischer Leukämie (AML) nach HSZT führt. Der KIR-HLA-mismatch wird mittlerweile aufgrund ausreichender Datenlage bei der Auswahl passender NK-Zell-Spender berücksichtigt und die Untersuchung auf die An- bzw. Abwesenheit bestimmter KIR-Gene (Haplotypisierung)
mittlerweile neben der HLA-Typisierung standardisiert in vielen Instituten durchgeführt. Daneben finden sich immer mehr Hinweise dafür, dass bereits einzelne allelische Polymorphismen innerhalb der KIR-Gene einzelner Spender großen Einfluss auf die Funktionalität ihrer NK-Zellen nehmen. Die allelische Subtypisierung von KIRs stellt aufgrund stetig steigender Zahlen neu entdeckter Allele eine Herausforderung dar. Im Januar 2019 sind für KIR2DL1 bereits 66 Allele beschrieben und für KIR3DL1 sogar 150 Allele in der Immuno Polymorphism Database (IPD) hinterlegt.
Die vorliegende Arbeit präsentiert ein praktikables Subtypisierungsverfahren, um allelische Unterschiede innerhalb der Genloci der NK-Zell-Rezeptoren KIR2DL1 und KIR3DL1 zu untersuchen. Für die Experimente wurden NK-Zellen von 20 gesunden Spendern funktionell untersucht und KIR-genetisch analysiert. Ziel war es innerhalb dieser Individuen besonders potente NK-Zellspender zu identifizieren und diese anhand bestimmter Polymorphismen und/ oder der Expression von KIR-Rezeptoren zu charakterisieren. Bei der Subtypisierung der KIR2DL1-Gene konnten 12 verschiedene, bereits bekannte KIR2DL1-Allele bestimmt werden. Die häufigsten Allele waren dabei 2DL1*001, *00201, *00302, *00401 und *00403. 5 der 20 Spender konnten der funktionell hochpotenten R245–Allelgruppe (AS Arginin an Pos. 245) zugeordnet werden. Spender 13 zeigte bei negativer KIR2DL1-SSP eine vermeintlich neue Nullallelvariante, Spender 20 eine neue heterozygote Variante, resultierend in der Kombination eines Arginin mit Alanin (R/A). Bei der allelischer Subtypisierung von KIR3DL1 wurden 25 verschiedene, bereits bekannte KIR3DL1-Allele bei den 20 Spendern bestimmt. Spender 2 zeigt zahlreiche, vorwiegend homozygote Abweichungen von der Referenzfrequenz, insbesondere im Exon 5, und wurde als neue Allelvariante gewertet. Die häufigsten KIR3DL1-Allele waren 3DL1*00101, *002 und *087. Mittels durchflusszytometrischer Messung konnte gezeigt werden, dass das bekannte Nullallel 3DL1*0040101 bei Spender 14 zu keiner Oberflächenexpression des Rezeptors führt215, während Spendern 11 und 16 als Träger des 3DL1*00402 Allels eine Oberflächenexpression von rund 10% präsentierten. Um die Spender NK-Zellen der gebildeten Gruppen funktionell zu testen, wurden die NK-Zellen experimentell mit vier unterschiedlichen transgenen L721.221-Zelllinien stimuliert. Die funktionelle Potenz der
gespendeten NK-Zellen wurde mittels eines CD107-Degranulationsassays gemessen. Nach aktuellem Stand sind nur für 53 der 150 KIR3DL1-Allele die allelischen Expressionsmuster untersucht worden. Dies bedeutet im Umkehrschluss, dass für rund 65% der bekannten KIR3DL1-Allele Daten zur Funktionalität fehlen, und damit der größte Anteil der ermittelten Allele von 6 Spendern der unknown-Expression (KIR3DL1u/u) Gruppe zugeordnet wurde. Die Spender 4 und 19 der high-Expressiongruppe (KIR3DL1h/h), sowie Spender 5 und 10 der KIR3DL1u/u-Gruppe mit den Allelen 3DL1*053, *087, *109 und Spender 2 als Träger zweier neuer KIR3DL1-Allele, zeigten in toto die besten funktionellen Ergebnisse in den Experimenten gegen die verwendete B-lymphoblastoide L721.221-Zellinien. Die Ergebnisse der vorliegenden Arbeit zeigen, dass bei der Spenderauswahl für NK-Zellbasierten Immuntherapie neben der Genotypisierung die allelische KIR-Subtypisierung als wertvolles Werkzeug entschiedener berücksichtigt werden sollte. Dafür ist es jedoch notwendig weiter an KIR-Subtypisierung und -Gruppierung Strategien zu arbeiten, um Natürlichen Killerzellen Wege in die klinische Standardpraxis zu bahnen.
High-energy physics experiments aim to deepen our understanding of the fundamental structure of matter and the governing forces. One of the most challenging aspects of the design of new experiments is data management and event selection. The search for increasingly rare and intricate physics events asks for high-statistics measurements and sophisticated event analysis. With progressively complex event signatures, traditional hardware-based trigger systems reach the limits of realizable latency and complexity. The Compressed Baryonic Matter experiment (CBM) employs a novel approach for data readout and event selection to address these challenges. Self-triggered, free-streaming detectors push all data to a central compute cluster, called First-level Event Selector (FLES), for software-based event analysis and selection. While this concept solves many issues present in classical architectures, it also sets new challenges for the design of the detector readout systems and online event selection.
This thesis presents an efficient solution to the data management challenges presented by self-triggered, free-streaming particle detectors. The FLES must receive asynchronously streamed data from a heterogeneous detector setup at rates of up to 1 TB/s. The real-time processing environment implies that all components have to deliver high performance and reliability to record as much valuable data as possible. The thesis introduces a time-based data model to partition the input streams into containers of fixed length in experiment time for efficient data management. These containers provide all necessary metadata to enable generic, detector-subsystem-agnostic data distribution across the entire cluster. An analysis shows that the introduced data overhead is well below 1 % for a wide range of system parameters.
Furthermore, a concept and the implementation of a detector data input interface for the CBM FLES, optimized for resource-efficient data transport, are presented. The central element of the architecture is an FPGA-based PCIe extension card for the FLES entry nodes. The hardware designs developed in the thesis enable interfacing with a diverse set of detector systems. A custom, high-throughput DMA design structures data in a way that enables low-overhead access and efficient software processing. The ability to share the host DMA buffers with other devices, such as an InfiniBand HCA, allows for true zero-copy data distribution between the cluster nodes. The discussed FLES input interface is fully implemented and has already proven its reliability in production operation in various physics experiments.
Analyse der Genauigkeit des neurochirurgischen Operationsroboters Robotic Surgery Assistant (ROSA)
(2020)
In der vorliegenden Arbeit sollte untersucht werden, ob der Roboter ROSA bei der Durchführung von intrakraniellen Biopsien oder Elektrodenimplantationen eine Alternative zur klassischen, rahmenbasierten Stereotaxie darstellt. Dazu sollte die mechanische und die Anwendungsgenauigkeit des Systems ermittelt werden. Zur Bestimmung der mechanischen Genauigkeit wurde eine experimentelle Phantomstudie durchgeführt. Hier wurden durch den Roboter wiederholt zehn Trajektorien an einem Stereotaxiephantom angefahren. Der Abstand der robotischen Nadel zum Zielpunkt im Phantom wurde anhand von Röntgenbildern bestimmt. Die Wiederholung des Versuchsaufbaus unter Variation der Planungsbildgebung erlaubte den Vergleich verschiedener Schichtdicken sowie zwischen low-dose und normal-dose Verfahren. Die Anwendungsgenauigkeit sollte durch die Analyse operativer Ergebnisse der ROSA erfasst werden. Dazu wurde anhand von postoperativen Bildern die Genauigkeit anhand des Abstands zwischen geplanter und tatsächlicher Lage von Stereoelektroenzephalographie-Elektroden ermittelt. Es wurden verschiedene Referenzierungstechniken, die der Orientierung des Roboters dienen und bei denen eine präoperative Planungsbildgebung (CT oder MRT) mit einem Abbild des OP-Gebietes (durch Oberflächenerkennung oder durch einen Stereotaxierahmen) referenziert wird, verglichen, nämlich CT-Laser; CT-Leksell-Rahmen und MRT-Laser. Die Ergebnisse wurden einer statistischen Analyse unterzogen. Dabei zeigte sich, dass der ROSA-Roboter eine sehr hohe mechanische Genauigkeit im Submillimeterbereich erreicht. Genauigkeitseinbußen bei einer größeren Schichtdicke der zur Planung verwendeten Computertomographie sind messbar, aber gering. Ein signifikanter Einfluss bei der Verwendung eines low-dose-Protokolls konnte nicht festgestellt werden. Dennoch zeigte sich, dass der entscheidende Teil der Ungenauigkeiten in der klinischen Anwendung entsteht und dabei insbesondere durch die Referenzierungstechnik bestimmt wird. Referenzierungen, die auf einer Computertomographie basierten, erwiesen sich als zufriedenstellend genau und als konkurrenzfähig zur konventionellen Methode. Der Unterschied zwischen dem rahmenbasierten und dem auf Oberflächenerkennung basierenden Verfahren war dabei so gering, dass letzteres sich angesichts seiner Vorteile in der Anwendung als besonders günstiges Verfahren hervortut. Im Gegensatz dazu stand das MRT-Laser-Verfahren, welches bei relativ hohen Abweichungen nur eingeschränkt anwendbar scheint und sich damit eher für Anwendungsbereiche mit geringeren Genauigkeitsanforderungen eignet, wie bspw. Biopsien. Weiterhin kann der Verlauf der Trajektorie an den höheren Sicherheitsabstand angepassten werden. Bei der Einordnung der ermittelten Genauigkeiten ist zu beachten, dass es viele weitere, von der Referenzierungs- und Bildgebungsmethode unabhängige Einflussfaktoren gibt. In dieser Arbeit war der Einfluss der erfassten externen Paramter zwar limitiert, bei anderen Autoren zeigte sich jedoch ein signifikanter Effekt. Dennoch deckt sich die Gesamtgenauigkeit mit den Ergebnissen anderer Arbeiten.
In Zusammenschau der Ergebnisse weist die vom ROSA-Assistenzsystem assistierte Stereotaxie eine verbesserte Prozessqualität auf, unter anderem durch die erhebliche Zeitersparnis, ggf. der Wegfall des Transports des narkotisierten Patienten, die Adaptionsmöglichkeiten der Prozessteilschritte an den Patienten, sowie eine hohe Nutzerfreundlichkeit. Entscheidend ist jedoch, dass es sich um ein sehr sicheres Verfahren handelt: Durch die hohe Genauigkeit wird das Operationsrisiko minimiert, gleichzeitig erlauben Laser-gestützte Registrierungsverfahren eine Reduktion der Strahlenexposition. Zur Konsolidierung der in dieser Arbeit gewonnenen Erkenntnisse sind weitere klinische Daten notwendig.
Ziel dieser klinischen Studie war es, die Ergebnisse der operativen Behandlung eines idiopathischen Makulaforamens durch Vitrektomie, ggf. in Kombination mit einer Phakoemulsifikation, ILM-Peeling und einer Tamponade entweder mit Luft oder mit 20%-igem SF6-Gas zu vergleichen. Primärer Endpunkt war die Verschlussrate nach einer Vitrektomie und die Reoperationsrate bei primär nicht geschlossenen Makulaforamina. Sekundärer Endpunkt war die Visusentwicklung in der ersten postoperativen Woche und nach 3 Monaten.
In der vorliegenden Arbeit wurden hierzu retrospektiv 117 Augen von 117 konsekutiven Patienten analysiert. Es wurden die Ergebnisse von 2 Patientengruppen verglichen. In der ersten Gruppe wurden 66 Augen (m=27, w=39, Altersmedian 70 Jahre), bei denen am Ende der Vitrektomie eine Tamponade mit Luft erfolgte, untersucht. In der zweiten Gruppe wurden die Ergebnisse von 51 Augen (m=20, w=31, Altersmedian 71 Jahre), bei denen 20%-SF6-Gas als Tamponade verwendet wurde, ausgewertet. Bei etwa 70 % der Augen beider Gruppen erfolgte eine simultane Phakoemulsifikation. Der Verschluss des Makulaforamens wurde bereits in den ersten postoperativen Tagen mit einem modifizierten Fourier Domain-OCT untersucht. Sobald der Verschluss des Makulaforamens im OCT gesichert werden konnte, wurde die postoperative „Gesicht nach unten“-Lagerung („Bauchlage“) beendet. Die mediane Lagerungszeit betrug 1 Tag (Spanne 1-6 Tage). Der Zeitraum der Nachbeobachtung betrug 3 Monate (Median).
Die Verschlussrate nach einer Vitrektomie aller Makulaforamina betrug 87,2% (102/117 Augen). Die primäre Verschlussrate der Luft-Gruppe und der SF6-Gas-Gruppe betrug 83,3% (55/66 Augen) bzw. 92,2% (47/51 Augen). Bei Augen mit einem persistierenden Foramen erfolgte eine frühe Reoperation. Die Verschlussrate nach 3 Monaten lag insgesamt bei 99,1% (116/117 Augen), in der Luft-Gruppe bei 98,5% (65/66 Augen) und in der SF6-Gas-Gruppe bei 100% (51/51 Augen). Es zeigte sich kein statistisch signifikanter Unterschied der Verschlussrate bzw. der anatomischen Ergebnisse zwischen den beiden Endotamponade-Gruppen.
Es konnte jedoch ein statistisch signifikanter Unterschied des Fernvisus bei der Entlassung zwischen beiden Endotamponadegruppen nachgewiesen werden. Der logMAR-Visus bei Entlassung lag in der Luft-Gruppe mit 1,3 (Median) deutlich unter dem Visus der SF6-Gas-Gruppe mit 1,9 (Median). Die Anwendung von Luft führte somit im Vergleich zu SF6 zu einem schnelleren postoperativen Visusanstieg. In beiden Gruppen zeigte sich nach 3 Monaten eine signifikante Visusbesserung. Es ließ sich kein signifikanter Unterschied des Fernvisus zwischen den beiden Gruppen mehr nachweisen.
Die Makulaforamenchirurgie mit pars plana Vitrektomie und Peeling der ILM erzielte sowohl mit einer Luft- als auch mit einer 20%-SF6-Gas-Tamponade guten anatomischen und funktionellen Ergebnissen. Mit einer kurz wirksamen Endotamponade erscheint eine postoperative Lagerung essenziell, dürfte aber in den meisten Fällen nur wenige Tage erforderlich sein, um den Verschluss eines durchgreifenden Makulaforamens zu erreichen. Die Reoperations-Rate nach einer Lufttamponade war bei sehr großen Foramina (> 600 µm) signifikant höher als bei Foramina mit einem Durchmesser kleiner 600 µm. Daher scheint die Anwendung von Gasen, die länger als Luft wirken, nur bei sehr großen Foramina erforderlich zu sein. Vorteil einer kurz wirkenden Lufttamponade ist die postoperativ um einige Tage schneller einsetzende visuelle Rehabilitation, so dass die Patienten früher in ihren Alltag zurückkehren können. Eine frühe postoperative Untersuchung der Makula unter Einsatz der optischen Kohärenztomographie ist Voraussetzung für eine individualisierte Steuerung der Lagerung und für eine möglichst frühe Erkennung und Reoperation von nicht geschlossenen Makulalöchern.
A large number of chemicals are constantly introduced to surface water from anthropogenic and natural sources. Although substantial efforts have been made to identify these chemicals (e.g potentially anthropogenic contaminants) in surface waters using liquid chromatography coupled to high resolution mass spectrometry (LC-HRMS), a large number of LC-HRMS chemical signals often with high peak intensity are left unidentified. In addition to synthetic chemicals and transformation products, these signals may also represent plant secondary metabolites (PSMs) released from vegetation through various pathways such as leaching, surface run-off and rain sewers or input of litter from vegetation. While this may be considered as a confounding factor in screening of water contaminants, it could also contribute to the cumulative toxic risk of water contamination. However, it is hardly known to what extent these metabolites contribute to the chemical mixture of surface waters. Thus, reducing the number of unknowns in water samples by identifying also PSMs in significant concentrations in surface waters will help to improve monitoring and assessment of water quality potentially impacted by complex mixtures of natural and synthetic compounds. Therefore, the main focus of the present study was to identify the occurrence of PSMs in river waters and explore the link between the presence of vegetation along rivers and detection of their corresponding PSMs in river
water.
In order to achieve the goals of the present thesis, two chemical screening approaches, namely, non-target and target screening using LC-HRMS were implemented. (1) Non-target analysis involving a novel approach has been applied to associate unknown peaks of high intensity in LC-HRMS to PSMs from surrounding vegetation by focusing on peaks overlapping between river water and aqueous plant extracts (Annex A1). (2) LC–HRMS target screening in river waters were performed for about 160 PSMs, which were selected from a large phytotoxin database (Annex A2 and A3) considering their expected abundance in the vegetation, their potential mobility, persistence and toxicity in the water cycle and commercial availability of standards.
In non-target screening (Annex A1), a high number of overlapping peaks has been found in between aqueous plant extracts and water from adjacent location, suggesting a significant impact of vegetation on chemical mixtures detectable in river waters. The chemical structures were assigned for 12 pairs of peaks while several pairs of peaks
whose MS/MS spectra matched but no structure suggestion were made by the implemented software tools for retrieving possible chemical structure. Nevertheless, the pairs of peaks with matching spectra represented the same chemical structure. The identified compound belonged to different compound classes such as coumarins, flavonoids besides others. For the identified PSMs individual concentration up to 5 µg/L were measured. The concentration and the number of detected PSMs per sample were correlated with the rain event and vegetation coverage.
Target screening unraveled the occurrence of 33 out of 160 target compounds in river waters (Annex A2 and A3). The identified compounds belonged to different classes such as alkaloids, coumarins, flavonoids, and other compounds. Individual compound concentrations were up to several thousand ng/L with the toxic alkaloids narciclasine and
lycorine recording highest maximum concentrations. The neurotoxic alkaloid coniine from poison hemlock was detected at concentrations up to 0.4 µg/L while simple coumarins
esculetin and fraxidin occurred at concentrations above 1 µg/L. The occurrence of some PSMs in river water were correlated to the specific vegetation growing along the rivers while the others were linked to a wide range of vegetation. As an example, narciclasine and lycorine was emitted by the dominant plant species from Amaryllidaceae family (e.g. Galanthus nivalis (snow drop), Leucojum vernum and Anemone nemorosa) while intermedine and echimidine were from Symphytum officinale. The ubiquitous occurrence of simple coumarins fraxidin, scopoletin and aesculetin could be linked to their presence in a wide range of vegetation.
Due to lack of aquatic toxicity data for the identified PSMs (in both target and non-target) and extremely scarce exposure data, no reliable risk assessment was possible.
Alternatively, risk estimation was performed using the threshold for toxicological concern (TTC) concept developed for drinking water contaminants. Many of the identified PSMs
exceeded the TTC value (0.1 µg/L) thus caution should be taken when using such surface waters for drinking water abstraction or recreational use.
This thesis provides an overview of the occurrence of PSMs in river water impacted by the massive presence of vegetation. Concentration for many of the identified PSMs are well within the range of those of synthetic environmental contaminants. Thus, this study adds to a series of recent results suggesting that possibly toxic PSMs occur in relevant concentrations in European surface waters and should be considered in monitoring and risk assessment of water resources. Aquatic toxicity data for PSMs are extensively lacking but are required to include these compounds in the assessment of risks to aquatic organisms and for eliminating risks to human health during drinking water production.
Im Rahmen dieser Arbeit wurde ein Reaktionsmikroskop (REMI) nach dem Messprinzip COLTRIMS (Cold Target Recoil Ion Momentum Spectrometry) neu konstruiert und aufgebaut. Die Leistungsfähigkeit des Experimentaufbaus konnte sowohl in diversen Testreihen als auch anschließend unter realen Messbedingungen an der Synchrotronstrahlungsanlage SOLEIL und am endgültigen Bestimmungsort SQS-Instrument (Small Quantum Systems) des Freie-Elektronen-Lasers European XFEL (X-ray free-electron laser) eindrucksvoll unter Beweis gestellt werden.
Mit der Experimentiertechnik COLTRIMS ist es möglich, alle geladenen Fragmente einer Wechselwirkung eines Projektilteilchens mit einem Targetteilchen mittels zweier orts- und zeitauflösender Detektoren nachzuweisen. In einem Vakuumrezipienten wird die als Molekularstrahl präparierte Targetsubstanz inmitten der Hauptkammer zentral mit einem Projektilstrahl (z.B. des XFEL) zum Überlapp gebracht, sodass dort eine Wechselwirkung stattfinden kann. Bei den entstehenden Fragmenten handelt es sich um positiv geladene Ionen sowie negative geladene Elektronen. Elektrische Felder, erzeugt durch eine Spektrometer-Einheit, sowie durch Helmholtz-Spulen erzeugte magnetische Felder ermöglichen es, die geladenen Fragmente in Richtung der Detektoren zu lenken. Die Orts- und Zeitmessung eines einzelnen Teilchens (z.B. eines Ions) findet in Koinzidenz mit den anderen Teilchen (z.B. weiteren Ionen bzw. Elektronen) statt. Mit dieser Messmethode können die Impulsvektoren und Ladungszustände aller geladenen Fragmente in Koinzidenz gemessen werden. Da hierbei die geometrische Anordnung der einzelnen Komponenten für die Leistungsfähigkeit des Experiments eine entscheidende Rolle spielt, mussten bei der Neukonstruktion des COLTRIMS-Apparates für den Einsatz an einem Freie-Elektronen-Laser (FEL) einige Rahmenbedingungen erfüllt werden. Besonders wurden die hohen Vakuumvoraussetzungen an den Experimentaufbau aufgrund der enormen Lichtintensität eines FEL beachtet. Das Zusammenspiel der vielen Einzelkomponenten konnte zunächst in mehreren Testreihen überprüft werden. Unter anderem durch Variation der Vakuumbauteile in Material und Beschaffenheit konnten die zuvor ermittelten Vorgaben schließlich erreicht werden. Das neu konstruierte Target-Präparationssystem zur Erzeugung molekularer Gasstrahlen erlaubt nun den Einsatz von bis zu vier unterschiedlich dimensionierten, differentiell gepumpten Stufen. Zudem wurden hochpräzise Piezo-Aktuatoren verbaut, welche die Bewegung von Blenden im Vakuum erlauben, wodurch eine variable Einstellung des lokalen Targetdrucks ermöglicht wird. Die Anpassung der elektrischen Felder des Spektrometers für ein jeweiliges Experiment wurde mittels Simulationen der Teilchentrajektorien, Teilchenflugzeiten sowie der Detektorauflösung durchgeführt.
Da die in dieser Arbeit besprochenen Messungen und Ergebnisse die Wechselwirkungsprozesse von Röntgenstrahlung bzw. Synchrotronstrahlung mit Materie thematisieren, wird die Erzeugung von Synchrotronstrahlung sowohl in Kreisbeschleunigern als auch in den modernen Freie-Elektronen-Lasern (FEL) erklärt und hergeleitet. Der im Röntgenbereich arbeitende Freie-Elektronen-Laser European XFEL, welcher u.A. als Strahlungsquelle für die hier gezeigten Experimente diente, ist eine von derzeit noch wenigen Anlagen ihrer Art weltweit. Seine Lichtintensität in diesem Wellenlängenbereich liegt bis zu acht Größenordnungen über den bisher verwendeten Anlagen für Synchrotronstrahlung.
Beim ersten Einsatz der neuen Apparatur an der Synchrotronstrahlungsanlage SOLEIL wurde der ultraschnelle Dissoziationsprozess von Chlormethan (CH3Cl) untersucht. Während des Zerfallsprozesses nach Anregung durch Röntgenstrahlung werden hochenergetische Auger-Elektronen emittiert, welche in Koinzidenz mit verschiedenen Molekülfragmenten nachgewiesen wurden. Durch den Zerfallsmechanismus der ultraschnellen Dissoziation wird die Auger-Elektronenemission nach resonanter Molekülanregung während der Dissoziation des Moleküls beschrieben. Die kinetische Energie des Auger-Elektrons ist dabei abhängig von seinem Emissionszeitpunkt. Somit können die gemessenen Auger-Elektronen ein „Standbild“ der zeitlichen Abfolge des Dissoziationsprozesses liefern.
Es wird eine detaillierte Beschreibung der Datenanalyse vorgenommen, welche aus Kalibrationsmessungen und einer Interpretation der Messdaten besteht. Die abschließende Betrachtung besteht in der Darstellung der Elektronenemissionswinkelverteilungen im molekülfesten Koordinatensystem. Die Winkelverteilung der Auger-Elektronen wird am Anfang der Dissoziation vom umgebenden Molekül- potential beeinflusst und zeigt deutliche Strukturen entlang der Bindungsachse. Entfernen sich die Bindungspartner voneinander und das Auger-Elektron wird währenddessen emittiert, so verschwinden diese Strukturen zunehmend und eine Vorzugsemissionsrichtung senkrecht zur Molekülachse wird sichtbar.
Die Analyse der Messdaten zur Untersuchung von Multiphotonen-Ionisation an Sauerstoff-Molekülen am Freie-Elektronen-Laser European XFEL ermöglichte unter anderem die Beobachtung „hohler Moleküle“, also Systemen mit Doppelinnerschalen- Vakanzen. Solche Zustände können vor allem durch die sequentielle Absorption zweier Photonen entstehen, wobei die hierbei nötige Photonendichte nur von FEL- Anlagen bereit gestellt werden kann. Hier konnte das Ziel erreicht werden, erstmalig die Emissionswinkelverteilungen der Photoelektronen von mehrfach ionisierten Sauerstoff-Molekülen (O+/O3+-Aufbruchskanal) als Folge der ablaufenden Mechanismen femtosekundengenau zu beobachten. Hierzu wurde ein vereinfachtes Schema der verschiedenen Zerfallsschritte erstellt und schließlich ermittelt, dass der Zerfall durch eine PAPA-Sequenz beschrieben werden kann. Bei dieser handelt es sich um die zweimalige Abfolge von Photoionisation und Auger-Zerfall. Somit werden vier positive Ladungen im Molekül erzeugt. Das zweite Photon des XFEL wird dabei während der Dissoziation der sich Coulomb-abstoßenden Fragmente absorbiert, weshalb es sich um einen zweistufigen Prozess aus Anrege- und Abfrage- Schritt (Pump-Probe) handelt. Schlussendlich gelang zudem der Nachweis von Doppelinnerschalen-Vakanzen im Sauerstoff-Molekül nach Selektion des O2+/O2+- Aufbruchkanals. Hierfür konnten die beiden Möglichkeiten einer zweiseitigen oder einseitigen Doppelinnerschalen-Vakanz getrennt betrachtet werden und ebenfalls erstmalig das Verhalten der Elektronenemission dieser beiden Zustände verglichen werden.
Es gibt zwei Leitmotive, die sich konsequent in der Rhetorik der Forschungsliteratur zu Anselm Kiefer beobachten lassen: zum einen die Auseinandersetzung des Künstlers mit dem Nationalsozialismus und in der Folge mit der nordisch-germanischen Mythologie und zum anderen die Beschäftigung mit dem Judentum und der jüdischen Mystik. Innerhalb des Gesamtoeuvres sind jedoch diejenigen Arbeiten, die sich augenscheinlich und sehr offensichtlich mit dem Nationalsozialismus beschäftigen nur eine sehr kleine Gruppe. In seiner 50 Jahre umfassenden künstlerischen Laufbahn hat er lediglich in den ersten Jahren eine offensive Auseinandersetzung mit der NS-Vergangenheit Deutschlands gesucht. Sie bildet gleichsam den Startpunkt seiner künstlerischen Karriere. Mittlerweile ist der Künstler Anselm Kiefer mit der Aufarbeitung des Nationalsozialismus und den Begrifflichkeiten Vergangenheitsbewältigung, Erinnerungsarbeit und Trauerarbeit kanonisiert. Doch je länger der Schaffensprozess von Kiefer andauert und je weiter man auf sein produktives Œuvre zurückblicken kann, umso deutlicher erkennt man nachweisbar zwei ganz andere bildimmanente Leitkategorien in diversen Facetten und Nuancen, die in ihrer Überordnung eine völlig neue Dimension einschlagen: die Dimension von Zeit und Raum respektive Zeitlichkeit und Räumlichkeit in Kiefers gesamtem Werkkomplex.
Insistent beschäftigt sich Kiefer mit allgemeingültigen Themen der Vergangenheit, Gegenwart und Zukunft oder diskutiert zeitlose und damit verbunden auch schwer zugängliche Inhalte. Zeitlos meint in diesem Fall, dass er sich nicht mehr mit den ihm vorher typischen Referenzen der Historie und Geschichte (wie eben dem Nationalsozialismus) beschäftigt, sondern vielmehr auch mit zeitlichen Dimensionen wie der kosmologischen, geologischen oder Lebens-Zeit. Zunehmens treten ab Mitte der achtziger Jahre Raumbezogene Kosmos- und Genesisthemen aus dem Alten Testament oder der Kabbala in den Mittelpunkt. Raum und Zeit als zwei Leitkategorien breiten sich wie eine Art Dach über Kiefers gesamtes Œuvre und über die üblichen ikonografischen Interpretationsmodelle aus. Sie werden von mir als alternative Lesart der Forschung empfohlen.
Jedes Bildwerk besitzt neben seiner räumlichen Gestalt und seinem kompositorischen Bildaufbau auch eine implizite Bildzeit. Beide Determinanten bedingen als Ordnungsraster nicht nur die jeweilige formale Bildgestalt, sondern auch den strukturellen Bildgehalt in Form eines zeitlich-räumlichen Ausdrucks. Raum und Zeit sind als normativ zu verstehen, im Sinne eines Standards, gleichsam als eine Regel, die grundsätzlich für die Annäherung und Interpretation der Kieferschen Arbeiten angewendet werden kann. Die Wahrnehmung von Raum und Zeit bei Kiefer kann gleichsam übergreifend in die folgenden drei Kategorien eingeteilt werden: 1.) die thematische Referenz auf die beiden Dimensionen, 2.) der tatsächlich motivische Bezug oder 3.) die faktische Umsetzung anhand der Dimension des Bildträgers oder der Entstehungszeit des Werkes. Raum und Zeit liegen zudem ganz grundsätzlich dem kosmologischen Weltentwurf zugrunde, da Alles in Zeit und Raum ist. Die beiden Dimensionen sind dem Kieferschen Sternenbild qua seiner Existenz daher schon anhaftig.
Kiefer hat in den Jahren 1995 bis 2010 eine beachtliche Anzahl an Sternenbildern geschaffen. Er fertigt die Bilder vor allem seriell an, so dass diese Fülle auf Basis diverser formaler Bildanlagen von mir in zwei Gruppen unterteilt wurde.
Die erste Gruppe folgt einer traditionellen Bildform, indem sie grundsätzlich den Bildträger kompositorisch in eine irdische und eine stellare räumliche Zone unterteilen. Der nächtliche Sternenhimmel breitet sich darin geschlossen über einer Landschaft oder einem Innenraum aus. Der Betrachter wird gleichsam von seinem irdischen Standpunkt aus auf den Blick gen Sternenhimmel gelenkt. Die Sternenbilder aus irdischer Perspektive versammeln philosophisches und literarisches Gedankengut der historischen Personen Immanuel Kant, Ingeborg Bachmann und Pierre Corneille. Die zweite Gruppe umfasst jene Arbeiten, die den irdischen Standpunkt verlassen und keine Horizontlinie mehr aufweisen. Bei diesen Arbeiten begreift Kiefer den Bildträger in seiner kompletten Dimensionalität als rein stellaren Bildraum. In den Werken wird als Konsequenz eine für Kiefers Sternenbilder neue bildräumliche Perspektive obligat.
Die Sternenbilder Kiefers fokussieren grundsätzlich kosmologische Fragestellungen, seien sie philosophisch, literaturwissenschaftlich, naturphilosophisch, naturwissenschaftlich oder religiös konnotiert. Damit folgen sie der Tradition vorangegangener Künstlergenerationen. In einem Einführungskapitel, welches für die Verortung Kiefers in die Tradition des Sternenbildes wichtig ist, wird aufgezeigt, dass das Bild der Sterne stets in enger Verbindung mit den eben genannten Disziplinen steht, durch diese maßgeblich beeinflusst wurde und weiterhin wird. Den Künstlern ist die Tatsache gemein, dass sie mit ihrer Darstellung des Sternenhimmels der Frage nach einer räumlichen und zeitlichen Ordnung der Welt, gleichsam als Kosmos verstanden, sowie ihrer Entstehungsursache und des „Bauplans“ nachgehen. Den Sternenbildern scheint gemein zu sein, dass sie realiter durch Beobachtungen, Erkenntnisse und Ergebnisse Wissensräume sichtbar machen, determinieren und das jeweilige Wissen transportieren.
Kiefers kosmologischer Diskurs verläuft in dem großen Bereich des Nicht-Wissens, mit dem Versuch einen ontologischen Sinn herzustellen. Die Arbeiten, die auf Kant referenzieren, auf Bachmann und auf Corneille zeugen von Kiefers kosmologischer Auseinandersetzung, seiner Frage nach Gott, seiner Verortung im Kosmos, seiner Beschäftigung mit dem Darstellbaren und Un-Darstellbaren und einer damit verbundenen Sinnsuche.
Proteine sind die Maschinen der Zellen. Um die Funktionalität von zahlreichen zellulären Prozessen zu gewährleisten, müssen Kommunikationssignale innerhalb von Proteinen weitergeleitet werden. Die Weiterleitung einer Störung an einem Ort im Protein zu einer entfernten Stelle, an welcher sie strukturelle und/oder dynamische Änderungen auslöst, wird Allosterie genannt. Zunächst wurde Allosterie hauptsächlich mit großräumigen Konformationsänderungen in Verbindung gebracht, aber später entwickelte sich ein dynamischerer Blickwinkel auf Allosterie in Abwesenheit dieser großräumigen Konformationsänderungen. Die Idee eines allosterischen Pfades bestehend aus konservierten und energetisch gekoppelten Aminosäuren, welche die Signalweiterleitung zwischen entfernten Stellen im Protein vermitteln, entstand. Diese allosterischen Pfade wurden durch zahlreiche theoretische Studien in Zusammenhang mit Pfaden effizienten anisotropen Energieflusses gebracht. Der Energiefluss entlang dieser Netzwerke verknüpft allosterische Signalübertragung mit Schwingungsenergietransfer (VET - vibrational energy transfer). Die Großzahl der Forschungsarbeiten über dynamische Allosterie basiert auf theoretischen Methoden, weil nur wenige geeignete experimentelle Verfahren existieren. Um diesen essentiellen biologischen Prozess der Informationsübertragung besser verstehen zu können, ist die Entwicklung neuer und leistungsstarker experimenteller Instrumente und Techniken daher dringend erforderlich. Die vorliegende Dissertation setzt sich dies zum Ziel.
VET in Proteinen ist aufgrund der Proteingeometrie inhärent anisotrop. Alle globulären Proteine besitzen Kanäle effizienten Energieflusses, von denen vermutet wird, dass sie wichtig für Proteinfunktionen, wie die schnelle Ableitung von überschüssiger Wärme, Ligandenbindung und allosterische Signalweiterleitung, sind. VET kann mit zeitaufgelöster Infrarot (IR) Spektroskopie untersucht werden, bei welcher ein Femtosekunden Anregepuls eines Lasers Schwingungsenergie in ein molekulares System an einer bestimmten Stelle injiziert und ein, nach einem veränderbarem Zeitintervall folgender, IR Abfragepuls die Ausbreitung dieser Schwingungsenergie detektiert. Ein protein-kompatibler und universell einsetzbarer Chromophor, der die Energie eines sichtbaren Photons in Schwingungsenergie konvertiert, wird als Heizelement benötigt um langreichweitige VET Pfade in Proteinen kartieren zu können. Der Azulen (Azu) Chromophor eignet sich dafür, weil er nach Photoanregung des ersten elektronischen Zustandes durch ultraschnelle interne Konversion fast die gesamte injizierte Energie innerhalb von einer Picosekunde in Schwingungsenergie umwandelt. Eingebettet in die nicht-kanonische Aminosäure (ncAA - non-canonical amino acid) ß-(1-Azulenyl)-L-Alanine (AzAla), kann der Azu Rest in Proteine eingebaut werden. Die Ankunft der injizierten Schwingungsenergie an einer bestimmten Stelle im Protein kann mithilfe eines IR Sensors detektiert werden. Die Kombination aus Azu als VET Heizelement und Azidohomoalanine (Aha) als VET Sensor mit transienter IR (TRIR) Spektroskopie wurde schon erfolgreich an kleinen Peptiden in der Dissertation von H. M. Müller-Werkmeister getestet, die der vorliegenden Dissertation in den Laboren der Bredenbeck Gruppe vorausging.
Die Schwingungsfrequenz chemischer Bindungen ist hochempfindlich auf selbst kleine Änderungen der Konformation und Dynamik in der unmittelbaren Umgebung und kann mit IR Spektroskopie gemessen werden, z. B. mit Fourier Transform IR (FTIR) Spektroskopie. IR Spektroskopie bietet eine außergewöhnlich gute Zeitauflösung, die es ermöglicht, dynamische Prozesse in Molekülen auf einer Zeitskala von wenigen Picosekunden zu beobachten, wie z. B. die ultraschnelle Weiterleitung von Schwingungsenergie. Mit zweidimensionaler (2D)-IR Spektroskopie können die Relaxation von schwingungsangeregten Zuständen und strukturelle Fluktuationen um die schwingende Bindung untersucht werden. Allerdings geht die herausragende Zeitauflösung mit limitierter spektraler Auflösung einher. In größeren Molekülen mit zahlreichen Bindungen überlagern sich die Schwingungsbanden und die Ortsauflösung geht verloren. Um diese Limitierung zu überwinden, können IR Marker benutzt werden, chemische Gruppen, die in einer spektral durchsichtigen Region des Protein/Wasser Spektrums (1800 bis 2500 cm-1) absorbieren. Als ncAA können sie kotranslational in Proteine an einer gewünschten Stelle eingebaut werden und so ortsspezifische Informationen aus dem Proteininneren liefern. Aufgrund ihrer geringen Größe, eines relativ großen Extinktionskoeffizientens (350-400 M-1cm-1) und einer hohen Empfindlichkeit auf Änderungen in der lokalen Umgebung sind organische Azide (N3) wie zum Beispiel Aha besonders geeignete IR Marker. Aha kann als Methionin Analogon ins Protein eingebaut werden.
...
The weather of the atmospheric boundary layer significantly affects our life on Earth. Thus, a realistic modelling of the atmospheric boundary layer is crucial. Hereby, the processes of the atmospheric boundary layer depend on an accurate representation of the land-atmosphere coupling in the model. In this context the land surface temperature (LST) plays an important role. In this thesis, it is examined if the assimilation of LST can lead to improved estimates of the boundary layer and its processes.
To properly assimilate the LST retrievals, a suitable model equivalent in the weather prediction model is necessary. In the weather forecast model of the German Weather Service used here, the LST is modelled without a vegetation temperature. To compensate for this deficit, two different vegetation parameterizations were investigated and the better one, a conductivity scheme, was implemented. In order to make optimal use of the influence of the assimilation of the LST observation on the model system, it is useful to pass on the information of the observation to land and atmosphere already in the assimilation step. For that reason, a fully coupled land-atmosphere prediction model was used. Therefore, the existing control vector of the assimilation system, a local ensemble transform Kalman filter, was extended by the soil temperature and moisture. In two-day case studies in March and August 2017, different configurations of the augmented assimilation system were evaluated based on observing system simulation experiments (OSSE).
LST was assimilated hourly over two days in the weakly and strongly coupled assimilation system. In addition, every six hours a free 24-hour forecast was simulated. The experiments were validated with the simulated truth (a high-resolution model run) and compared against an experiment without assimilation. It was shown that the prediction of the boundary layer temperature, especially during the day, and the prediction of the soil temperature, during the whole day and night, could be improved.
The best impact of LST assimilation was achieved with the fully coupled system. The humidity variables of the model benefited only partially from the LST assimilation. For this reason, covariances in the model ensemble were investigated in more detail. To check their compatibility with the high-resolution model run the ensemble consistency score was introduced. It was found that the covariances between the LST and the temperatures of the high-resolution model run were better represented in the ensemble than those between the LST and the humidity variables.
Hintergrund: Den derzeitigen Therapiestandard in der Behandlung des lokal begrenzten Prostatakarzinoms stellen die radikale Prostatektomie und perkutane Radiotherapie dar. Aufgrund der besonderen Strahlenbiologie des PCa (α-/β-Wert 1,5 Gy) ist von einer höheren Sensitivität gegenüber einer Hypofraktionierung auszugehen. Die aktuellen Literaturdaten zeigen eine Nichtunterlegenheit der moderaten Hypofraktionierung gegenüber dem konventionellen Regime, jedoch sind Langzeitergebnisse hinsichtlich der Spättoxizität noch spärlich. In dieser Arbeit werden onkologische Ergebnisse sowie GI-/ und GU-Toxizität nach moderat hypofraktionierter, intensitätsmodulierter (IMRT/VMAT) und bildgeführter (IGRT) Radiotherapie mit simultan integriertem Boost (SIB) in einem universitären Tumorzentrum untersucht.
Patienten und Methoden: In den Jahren 2010 bis 2016 wurden an der Uniklinik Frankfurt 170 Patienten mit histologisch gesichertem lokal begrenzten bis fortgeschrittenen PCa (T1-4, N0-1, M0) mittels moderat hypofraktionierter EBRT in IG-IMRT- bzw. IG-VMAT- und SIB-Technik behandelt. Alle Patienten wurden nach D’Amico-Klassifikation stratifiziert und risikoadaptiert therapiert. Die GI- und GU-Toxizität wurde gemäß CTC v4.0 wöchentlich unter der Therapie und während der Nachbeobachtungszeit erfasst. Ein biochemisches Rezidiv wurde definiert als PSA-Nadir + 2 ng/ml. Die Nachbeobachtung erfolgte 6-8 Wochen, 2-3 Monate und 6 Monate nach Radiotherapie sowie anschließend mindestens einmal jährlich. Die Datenauswertung erfolgte retrospektiv. Für die statistischen Analysen wurden die Software-Programme Excel und SPSS verwendet. Die Kaplan-Meier-Überlebensanalysen wurden mittels Log-Rank-Test verglichen und bei signifikanten Unterschieden in eine Cox-Regression-Analyse aufgenommen. Ein möglicher Zusammenhang zwischen dosimetrischen/klinischen Parametern und GI-/GU-Toxizität wurde mittels Chi-Quadrat-Test nach Pearson geprüft. Für alle durchgeführten Analysen galt ein p-Wert von <0,05 als statistisch signifikant. Ergebnisse: Patienten der low-risk- (n = 15) sowie intermediate- und high-risk-Gruppe mit Z.n. TURP (n= 14) erhielten eine GRD von 73,6 Gy für das PTV1 bzw. 58,24 Gy (PTV2) mit einer Einzeldosis von 2,3 Gy (SIB) bzw. 1,82 Gy in 32 Fraktionen. Patienten der intermediate- (n = 70) und high-risk- (n = 71) Gruppe erhielten eine GRD von 75,9 Gy (PTV1) bzw. 60,06 Gy (PTV2) mit einer Einzeldosis von 2,3 Gy (SIB) bzw. 1,82 Gy in 33 Fraktionen. Eine zusätzliche Bestrahlung des LAG (PTV3) mit einer GRD von 46,0 Gy und 1,84 Gy Einzeldosis in 25 Fraktionen erhielten alle Patienten mit radiologischer cN1-Situation bzw. im Falle eines LK-Befallsrisikos von >20% nach Roach-Formel (n = 86). Eine (neo-) adjuvante AHT erhielten insg. 98 Patienten. Die mediane Nachbeobachtungszeit betrug 36 Monate (Range: 5-84 Monate). Die 24-, 36-, und 60-Monate-ÜLR lagen in der IR-Gruppe bei 98,4%, 96,1% bzw. 89,7% (OS), 98,6% bzw. 94,9% (BC), 97% bzw. 84,5% (DFS) und 98,6% (FFM), in der HR-Gruppe bei 93,1% bzw. 88,8% (OS), 89%, 84,7% bzw. 75,3% (BC), 82,5%, 74,2% bzw. 65,9% (DFS) und 98%, 95,7% bzw. 84,8% (FFM). Weder für die AHT noch die RT des LAG konnte eine Verbesserung des OS, DFS, FFM sowie der BC gezeigt werden. Eine Akuttoxizität Grad 2 trat bei 6,5% (GI) bzw. 16,5% (GU) und Grad 3 bei 0,6% (GI) bzw. 0% (GU) auf. Eine Spättoxizität Grad 2 trat bei 2,9% (GI) bzw. 12,4% (GU) und Grad 3 bei 0,6% (GI) bzw. 1,2% (GU) auf.
Schlussfolgerung: Mit Implementierung der moderat hypofraktionierten EBRT nach o.g. Schema (73,6 Gy (79,9 Gy nach EQD2 (αβ 1,5)) bzw. 75,9 Gy (82,4 Gy nach EQD2 (αβ 1,5)) konnten im Rahmen dieser retrospektiven Kohortenstudie sehr gute Ergebnisse für intermediate- und high risk-Patienten des lokal begrenzten bis fortgeschrittenen PCa hinsichtlich der onkologischen Endpunkte sowie der GI-/GU-Toxizität, vergleichbar mit den besten Ergebnissen aktueller Publikationen, erzielt werden. Diese Ergebnisse bekräftigen die zunehmende Anwendung dieser Bestrahlungstechnik. Die Kohorte sollte zur Validierung der Ergebnisse weiter expandiert und mit einer längeren Nachbeobachtungszeit erneut ausgewertet werden.
Die vorliegende Arbeit beschäftigt sich mit der außerhäuslichen Alltagsmobilität älterer Menschen, die eine zentrale Schlüsselfunktion in der Erhaltung von Lebensqualität und Gesundheit besonders im höheren Lebensalter einnimmt. Außerhäusliche Alltagsmobilität vollzieht sich stets in einem räumlichen Umweltausschnitt und kann aus ökogerontologischer Perspektive als Ergebnis eines gelungenen Person-Umwelt-Austauschs verstanden werden. Inwiefern psychologische Ressourcen im Sinne mobilitätsspezifischer Einstellungen zum Verständnis von zielgerichteter und habitualisierter Alltagsmobilität älterer Menschen beitragen können, ist Gegenstand der vorliegenden Arbeit. Altersspezifische, mobilitätsrelevante Einstellungen im außerhäuslichen Kontext werden sowohl in der sozialwissenschaftlichen Mobilitäts- und Alternsforschung als auch in der Praxis, etwa im Rahmen einer altersgerechten Stadtgestaltung, bislang noch zu wenig berücksichtigt. Die vorliegende Arbeit reagiert auf dieses Forschungsdesiderat, indem sie mobilitätsspezifische Einstellungen im höheren Lebensalter konzeptuell beschreibt, in den Kontext ökogerontologischer Theorien einbettet und ihre Bedeutung für den Erhalt eines aktiven und gelingenden Alterns untersucht. Im Rahmen der Dissertation wurde zunächst auf der Basis klassischer und neuer ökogerontologischer Modelle das Konstrukt der mobilitätsbezogenen Handlungsflexibilität und Routinen (MBFR) konzeptuell entwickelt. MBFR umfasst einerseits die individuelle Überzeugung, das eigene Mobilitätsverhalten an Herausforderungen außer Haus anpassen zu können (FLEX) und andererseits die Präferenz für mobilitätsbezogene Alltagsroutinen (ROU). Daraufhin wurde ein standardisiertes Messinstrument zur Erfassung des MBFR-Konzepts entwickelt, optimiert und hinsichtlich seiner psychometrischen Qualität untersucht. Die Formulierung der Testitems erfolgte in Anlehnung an bereits existierende Fragebögen zu verwandten Konstrukten. In der vorwiegend online durchgeführten Pilotstudie (Penger & Oswald, 2017) wurden die Items mittels explorativer Faktorenanalysen hinsichtlich ihrer dimensionalen Struktur untersucht. Die Stichprobe umfasste 265 Personen im Alter von 65 Jahren oder älter. Die Analysen des MBFR-Instruments ergaben nach Ausschluss von Items mit niedrigen und nicht eindeutigen Ladungen drei substanzielle Faktoren. Die Items der ersten Dimension bildeten die Überzeugung ab, flexibel mit personenbezogenen, altersassoziierten Herausforderungen (z. B. Schwierigkeiten im Gehen oder auf eine Gehhilfe angewiesen sein) umgehen zu können, um außerhäuslich mobil zu sein. Die Items der zweiten Dimension erfassten die Überzeugung, flexibel mit herausfordernden außerhäuslichen Umweltbedingungen (z. B. eine verlegte Haltestelle oder ein schlechter Zustand der Gehwege) umgehen zu können. Items, die auf den dritten Faktor luden, bildeten die Neigung zu Routinen im Mobilitätsalltag ab, z. B. bekannte Wege beizubehalten oder bei der Ausübung von außerhäuslichen Aktivitäten vertraute Orte aufzusuchen. Während die ersten beiden Faktoren mobilitätsbezogene Handlungsflexibilität (FLEX) messen, werden im dritten Faktor habitualisierte Verhaltensweisen (ROU) erfasst. Alle drei Faktoren wiesen eine akzeptable Reliabilität auf. Auf Basis von Rückmeldungen der Studienteilnehmer:innen wurde das MBFR-Instrument anschließend sprachlich angepasst und gekürzt. Der modifizierte Fragebogen wurde daraufhin in der empirischen Studie „MOBIL bleiben in Stuttgart“ (MBIS) eingesetzt. Dabei sollte die Frage beantwortet werden, ob das finale MBFR-Instrument die zugrundeliegenden Konstrukte valide und reliabel erfasst und die Testwerte somit ausreichende Gültigkeit hinsichtlich faktorieller, Konstrukt- und Kriteriumsvalidität bei älteren Menschen im urbanen Raum aufweisen (Penger & Conrad, eingereicht). Es wurden insgesamt 211 privatwohnende Stuttgarter:innen ab 65 Jahren in persönlichen Interviews und mithilfe eines 7-tägigen Wegetagebuchs zu verschiedenen Aspekten ihrer Mobilität im Wohnumfeld befragt. Statistische Analysen auf latenter Ebene erfolgten mittels Strukturgleichungsmodellen. Bivariate Zusammenhänge und Subgruppenanalysen wurden mittels Korrelations- und Regressionsanalysen berechnet. Die dreifaktorielle Struktur des MBFR-Fragebogens konnte im konfirmatorischen Modell empirisch bestätigt werden. Zudem fiel die interne Konsistenz aller drei Faktoren gut aus. Zusammenhänge zu konstruktverwandten Merkmalen – wie allgemeine und mobilitätsspezifische Einstellungen – deuten darauf hin, dass das MBFR-Instrument ausreichend konvergente Validität aufweist. Analysen auf latenter Ebene ergaben, dass Befragte durchschnittlich mehr außerhäusliche Wege zurückzulegten, wenn sie in stärkerem Maße überzeugt waren, flexibel auf mobilitätsbezogene Herausforderungen reagieren zu können (FLEX). Weiterhin ließen sich positive Zusammenhänge zwischen FLEX und der erlebten Selbstständigkeit sowie dem subjektiven Wohlbefinden aufzeigen. Die Befunde belegen somit hinreichende Übereinstimmungsvalidität der Testwerte. Differenzierte Analysen machten darüber hinaus deutlich, dass FLEX vor allem bei Befragten mit Mobilitätseinschränkungen bedeutsam zur Vorhersage des außerhäuslichen Mobilitätsverhaltens beitrug. ...
Machine Learning (ML) is so pervasive in our todays life that we don't even realise that, more often than expected, we are using systems based on it. It is also evolving faster than ever before. When deploying ML systems that make decisions on their own, we need to think about their ignorance of our uncertain world. The uncertainty might arise due to scarcity of the data, the bias of the data or even a mismatch between the real world and the ML-model. Given all these uncertainties, we need to think about how to build systems that are not totally ignorant thereof. Bayesian ML can to some extent deal with these problems. The specification of the model using probabilities provides a convenient way to quantify uncertainties, which can then be included in the decision making process.
In this thesis, we introduce the Bayesian ansatz to modeling and apply Bayesian ML models in finance and economics. Especially, we will dig deeper into Gaussian processes (GP) and Gaussian process latent variable model (GPLVM). Applied to the returns of several assets, GPLVM provides the covariance structure and also a latent space embedding thereof. Several financial applications can be build upon the output of the GPLVM. To demonstrate this, we build an automated asset allocation system, a predictor for missing asset prices and identify other structure in financial data.
It turns out that the GPLVM exhibits a rotational symmetry in the latent space, which makes it harder to fit. Our second publication reports, how to deal with that symmetry. We propose another parameterization of the model using Householder transformations, by which the symmetry is broken. Bayesian models are changed by reparameterization, if the prior is not changed accordingly. We provide the correct prior distribution of the new parameters, such that the model, i.e. the data density, is not changed under the reparameterization. After applying the reparametrization on Bayesian PCA, we show that the symmetry of nonlinear models can also be broken in the same way.
In our last project, we propose a new method for matching quantile observations, which uses order statistics. The use of order statistics as the likelihood, instead of a Gaussian likelihood, has several advantages. We compare these two models and highlight their advantages and disadvantages. To demonstrate our method, we fit quantiled salary data of several European countries. Given several candidate models for the fit, our method also provides a metric to choose the best option.
We hope that this thesis illustrates some benefits of Bayesian modeling (especially Gaussian processes) in finance and economics and its usage when uncertainties are to be quantified.
This thesis discusses important questions of the beam dynamics in the proton-lead operation in the Large Hadron Collider (LHC) at CERN in Geneva. In two time blocks of several weeks in the years 2013 and 2016, proton-lead collisions have so far been successfully generated in the LHC and used by the experiments at the LHC. One reason for doubts regarding the successful operation in proton-lead configuration was the fact that the beams have to be accelerated with different revolution frequencies. There is long-range repulsion between the beams, since both beams share the beam chamber around the interaction points. Because of the different revolution frequencies, the positions of the interaction between the beams shift each revolution. This can lead to resonant excitation and to an increase in the transverse beam emittance, as was observed in the Relativistic Heavy-Ion Collider (RHIC). In this thesis, simulations for the LHC, RHIC and the High-Luminosity Large Hadron Collider (HL-LHC) are performed with a new model. The results for RHIC show relative growth rates of the emittances of the gold beam in gold-deuteron operation in RHIC from 0.1 %/s to 1.5 %/s. Growth rates of this magnitude were observed experimentally in RHIC. Simulations for the LHC show no significant increase of the emittance of the lead beam for different intensities of the counter-rotating beam. The simulation results confirm the measured stability of the beams in the LHC and the issue of strongly increasing emittances in RHIC is reproduced. Also, no significant increase of the emittance is predicted for the Future Circular Collider (FCC) and the HL-LHC.
Using a frequency-map analysis, this work verifies whether the interaction of the lead beam with the much smaller proton beam in the proton-lead operation of the LHC leads to diffusion within the lead beam. Experiences at HERA at DESY in Hamburg and at SppS at CERN have shown that the lifetime of the larger beam can rapidly decrease under certain circumstances. The results of the simulation show no chaotic dynamics near the beam centre of the lead beam. This result is supported by experimental observation.
A program code has been developed which calculates the beam evolution in the LHC by means of coupled differential equations. This study shows that the growth rates of the lead beam due to intra-beam scattering is overestimated and that particle bunches of the lead beam lose more intensity than assumed in the model. The analysis also shows that bunches colliding in a detector suffer additional losses that increase with decreasing crossing angle at the interaction point.
In this work, 2016 data from beam-loss monitors in combination with the luminosity and the loss rate of the beam intensity are used to determine the cross section of proton-lead collisions at the center-of-mass energy of 8.16 TeV. Beam-loss monitors that mainly detect beam losses that are not caused by the collision process itself are used to determine the total cross section via regression. An analysis of the data recorded in 2016 at the center-of-mass energy of 8.16 TeV resulted in a total cross section of σ=(2.32±0.01(stat.)±0.20(sys.)) b. This corresponds approximately to a hadronic cross section of σ(had)=(2.24±0.01(stat.)±0.21(sys.)) b. This value deviates only by 5.7 % from the theoretical value σ(had)=(2.12±0.01) b.
The simulation code for determining the beam evolution is also used to estimate the integrated luminosity of a future one-month run with proton-lead collisions. The result of the study shows that in the future the luminosity in the ATLAS and CMS experiments will increase from 15/nb per day in 2016 to 30/nb per day, which is a significant increase in terms of the performance. This operation, however, requires the use of the TCL collimators to protect the dispersion suppressors at ATLAS and CMS from collision fragments.
This work also gives an outlook on the expected luminosity production in proton-nucleus operation using ion species lighter than lead ions. For example, a change from proton-lead to proton-argon collisions would increase the integrated luminosity from monthly 0.8/nb to 9.4/nb in ATLAS and CMS. This is an increase of one order of magnitude and approximately a doubling of the integrated nucleon-nucleon luminosity. There may be a test operation with proton-oxygen collisions in 2023, which will last only a few days and will be operated with a low luminosity. The LHCf experiment (LHCb experiment) would achieve the desired integrated luminosity of 1.5/nb (2/nb) within 70h (35h) beam time.