Universitätspublikationen
Refine
Year of publication
- 2019 (89) (remove)
Document Type
- Doctoral Thesis (89) (remove)
Language
- German (89) (remove)
Has Fulltext
- yes (89)
Is part of the Bibliography
- no (89)
Keywords
- Contact-sheets (2)
- Direct Cinema (2)
- Dokumentarfilme (2)
- Filmgespräche (2)
- Gisela Tuchtenhagen (2)
- Hepatitis C (2)
- Klaus Wildenhahn (2)
- Richard Leacock (2)
- Schülerlabor (2)
- Uncontrolled Cinema (2)
Institute
Das Wissen über die Wolkenmikrophysik und die Wechselwirkung zwischen Niederschlag und Aerosol ist ein wichtiger Baustein zur Optimierung von Klima- und Wettermodellen. Ein Großteil des Niederschlags in den mittleren Breiten fällt aus Mischphasenwolken, die aus unterkühlten Tröpfchen und Eispartikeln bestehen. Die Eispartikel bilden sich an speziellen Aerosolpartikeln, die als Eiskeime (INP) wirken können. Die Wahrscheinlichkeit eines Aerosols als Eiskeim zu wirken, nimmt mit abnehmender Temperatur und steigender Wassersättigung zu. Mineralstaubpartikel sind die häufigsten Eiskeime, die ab Temperaturen ≤−15°C aktiv sind, biologische Partikel wirken schon bei wärmeren Bedingungen. Große Wissenslücken bestehen noch bei der globalen Konzentration von Eiskeimen, inklusive deren geographischer und jahreszeitlicher Variabilität.
Im Zentrum der Experimente, die für diese Arbeit durchgeführt wurden, steht der Eiskeimzähler FRIDGE (Frankfurt Ice Deposition Freezing Experiment). Je nach Aufbau und Anwendung des Instruments werden zwei verschiedene Ansätze zur Aktivierung von Eiskeimen verfolgt. Die ursprüngliche und namensgebende Methode in Form einer Vakuum-Diffusionskammer wurde zur Untersuchung von Eisnukleation via Depositionsgefrieren (an INP_D) entwickelt (Klein et al., 2010). Danielczok (2015) nutzte einige Bestandteile des Analysegeräts, um auch Immersionsgefrieren (an INP_I) in Form von Tröpfchengefrieren à la Vali (1971) zu studieren. In der vorliegenden Arbeit wurde diese Anwendungsmöglichkeit von FRIDGE weiterentwickelt. Ein zentraler Schritt war dabei die präzise Charakterisierung des Gefrierverhaltens von Tröpfchen aus Reinstwasser ohne zusätzliches Aerosol. Die Einbeziehung dieses sogenannten Hintergrundgefrierens, das für jedes Instrument und Messverfahren spezifisch ist, ermöglichte es, die Minimaltemperatur, für die zuverlässige Ergebnisse produziert werden können, von −22°C auf −29°C herabzusetzen. Der dadurch hinzugewonnene Temperaturbereich ist für Eisnukleation in Mischphasenwolken äußerst relevant.
Beide Anwendungsmethoden wurden im Rahmen des Fifth International Workshop on Ice Nucleation – Phase 2 (FIN-02) sowie bei einer weiteren Kampagne zur Messung von Eisnukleation an Cellulosepartikeln mit über zwanzig anderen Eiskeimzählern verglichen. Mit FRIDGE als Diffusionskammer wurde für die Mehrheit der untersuchten Aerosoltypen eine zufriedenstellende Übereinstimmung mit den anderen Instrumenten beobachtet. Die Experimente mit gefrierenden Tröpfchen in FRIDGE erzielten ausnahmslos Ergebnisse, die inmitten der Werte der anderen Instrumente lagen. Die erfolgreiche Validierung – besonders der neuen Anwendungsmethode – war das erste Ziel dieser Arbeit und die notwendige Voraussetzung für die anschließenden Feldmessungen.
Atmosphärische Eiskeimkonzentrationen wurden in mehrwöchigen Feldmesskampagnen an drei sehr unterschiedlichen Orten und atmosphärischen Bedingungen untersucht: an der Hochalpinen Forschungsstation Jungfraujoch (JFJ), am Storm Peak Laboratory (SPL) in den Rocky Mountains und am Cyprus Atmospheric Observatory (CAO) in Zypern. Am JFJ wurde eine INP-Konzentration beobachtet, die um den Faktor 20 niedriger als an den anderen beiden Stationen war. Der Grund dafür war, dass sich das Jungfraujoch die meiste Zeit der Messungen in der freien Troposphäre befand. Dementsprechend waren die Bedingungen an der Station von aerosolpartikelarmer Luft mit wenigen Eiskeimen geprägt. An zwei Standorten wurde Mineralstaub als ein Parameter, der die lokale INP-Konzentration positiv beeinflusst, identifiziert. Sowohl am JFJ als auch am CAO erhöhte ferntransportierter Saharastaub die INP-Konzentration.
Die Kombination der zwei Analysemethoden, die Aerosolproben aus derselben Luft entweder in trockenem Ausgangszustand oder in Tröpfchen suspendiert untersuchen, offenbarte eine interessante Eigenschaft der INP. Es herrschte eine offensichtliche Parallelität von INP_D- und INP_I- Konzentrationen. Bei fast allen Messungen waren INP_I etwa 10-mal häufiger als INP_D. Die Aussage trifft gleichermaßen auf sehr niedrige Konzentrationen am JFJ wie auch auf hohe Konzentrationen am SPL und CAO zu. Die einzige Ausnahme bilden Cellulosepartikel. Daraus lässt sich schließen, dass INP_D und INP_I dieselben Partikel sind, die je nach Aktivierungskonditionen Eisnukleation unterschiedlich effektiv hervorrufen.
Dass Emotionen den Subjekten eine wichtige Orientierungshilfe in jeglichen Situationen des Alltags bieten, gilt innerhalb der soziologischen Emotionsforschung mittlerweile als Allgemeingut. Was allerdings, wenn uns unsere Gefühle im Stich lassen, da sie nicht klar eingeordnet oder expliziert werden können? Was also, wenn widersprüchliche Emotionen Zweifel nähren, uns an Entscheidungen hadern lassen oder gar Entscheidungen verunmöglichen? Die hieraus resultierenden Unsicherheiten und sich daran anschließenden Handlungsprobleme sind Gegenstand des Buches. Neben Strategien des Umgangs mit emotionalen Ambivalenzerfahrungen stehen auch die individuellen Lösungswege im Mittelpunk der Analyse.
Die Fähigkeit, negative und belastende Ereignisse in Worte zu fassen und sich mit den damit verbundenen Emotionen und Gedanken auseinanderzusetzen, ist eine wichtige Entwicklungsaufgabe des Kindesalters, die entscheidend von den Eltern geprägt wird (Nelson & Fivush, 2004). Mit Hilfe von Emotionsworten, mentalen Verben (kognitiv, perzeptiv und volitional) und globalen Evaluationen, zusammengefasst unter dem Begriff internal state language (ISL), kann das innere Befinden während eines Ereignisses ausgedrückt werden. Neben der Verwendung von ISL wird auch die Entwicklung der Emotionsregulation im Kindesalter insbesondere durch die Eltern geprägt (Morris, Silk, Steinberg, Myers & Robinson, 2007). Während sowohl die Verwendung von ISL als auch die die mütterliche Unterstützung bei der Emotionsregulation im Kindesalter bislang vielfach untersucht wurde, fehlen mitunter Studien im Jugendalter. Dabei ist diese Entwicklungsphase von besonderer Bedeutung, da hier u.a. kognitive sowie Emotionsregulationsfähigkeiten ausreifen, ebenso wie die Geschlechtsidentität (z.B. Hill & Lynch, 1983; Powers & Casey, 2015).
Die vorliegende kumulative Dissertation beschäftigte sich daher zum einen mit der Frage, ob das Alter und Geschlecht der Jugendlichen einen Einfluss darauf haben, wie sie und ihre Mütter von emotionalen Erlebnissen erzählen. Zum anderen wurde untersucht, wie Mütter ihre jugendlichen Kinder bei der Verarbeitung dieser Erlebnisse unterstützen. Zur Beantwortung dieser Frage wurden 60 Mutter-Kind Paare im Jugendalter von 12, 15 und 18 Jahren (gleichverteilt über Geschlecht und Alter) gebeten, sowohl allein als auch gemeinsam von drei emotionalen Ereignissen (Traurigkeit, Ärger, Glück) zu erzählen.
Das erste Manuskript untersuchte die Verwendung von ISL in allein erzählten Emotionserzählungen der Jugendlichen und konnte zeigen, dass ältere Jugendliche weniger Emotionsworte und mehr mentale Verben verwenden als jüngere. Während die selbstempfundene Emotionsintensität über alle Altersgruppen hinweg gleich blieb, wirkten Trauer- und Ärgererzählungen von älteren Jugendlichen auf unabhängige Beurteiler emotionaler als von jüngeren. Die Verwendung von ISL korrelierte nicht mit der selbstempfundenen Emotionsintensität, die Verwendung von kognitiven Verben allerdings mit der von Beurteilern eingeschätzten Emotionalität. Die Ergebnisse deuten darauf hin, dass im Verlauf des Jugendalters zunehmend kognitive Verben die Aufgabe übernehmen, Emotionalität zu vermitteln.
Das zweite Manuskript untersuchte die Verwendung von ISL in allein erzählten Emotionserzählungen der Jugendlichen sowie in gemeinsamen Mutter-Kind Erzählungen. Entgegen der Erwartung verwendeten Mütter Emotionsworte und globale Evaluationen gleich häufig mit Töchtern und Söhnen, jedoch mehr mentale Verben mit Jungen als mit Mädchen. Zudem benannten sie Traurigkeit gleich häufig über beide Geschlechter, Ärger aber häufiger mit Töchtern als mit Söhnen. Ebenfalls entgegen der Erwartung verwendeten weibliche und männliche Jugendliche Emotionsworte und mentale Verben gleich häufig. Lediglich globale Evaluationen wurden von Mädchen häufiger verwendet als von Jungen, jedoch nur in den allein erzählten Emotionserzählungen. Traurigkeit und Ärger wurden von beiden Geschlechtern gleich häufig benannt. Die Ergebnisse deuten an, dass sich die Geschlechtsunterschiede des Kindesalters im Jugendalter aufzulösen scheinen.
Das dritte Manuskript untersuchte, wie Mütter ihre jugendlichen Kinder bei der narrativen Emotionsregulation unterstützen. Anhand der Trauererzählung einer 12- und eines 18-Jährigen konnte exemplarisch gezeigt werden, dass Mütter die narrative Emotionsregulation durch die Identifizierung und Rechtfertigung von Emotionen, als auch durch die Neubewertung der Ereignisse unterstützen. Die Ergebnisse verdeutlichen, dass Mütter auch im Jugendalter einen wichtigen Beitrag zur Emotionsregulation ihrer Kinder leisten.
Insgesamt tragen die Ergebnisse wesentlich zum Verständnis dessen bei, wie Jugendliche emotionale Erlebnisse sprachlich verarbeiten und wie Mütter sie bei der Verarbeitung dieser Erlebnisse unterstützen.
Nukleäre Rezeptoren sind ligandenaktivierte Transkriptionsfaktoren, die das pharmazeutische Interesse als Zielstrukturen für antientzündliche Wirkstoffe und andere Indikationen erwecken. Entzündungen werden durch Noxen physikalischer, chemischer oder mikrobiologischer Art hervorgerufen. Dabei reagiert das geschädigte Gewebe mit zahlreichen Vorgängen, die vaskuläre und zelluläre Reaktionen mit Immunantworten verknüpfen und nach der Wiederherstellung des ursprünglichen Zustands streben. Bei andauernder Wirkung können Entzündungen jedoch in einen schädlichen Prozess umschlagen, sodass in solchen Fällen eine therapeutische Intervention Notwendigkeit erlangt. Ziel dieser Arbeit war es deshalb, neue Liganden nukleärer Rezeptoren als Kandidaten für antientzündliche Wirkstoffe zu identifizieren.
Leber X Rezeptoren (LXRs) sind Zielstrukturen für entzündliche und neurodegenerative Erkrankungen mit antiphlogistischem Potenzial. Zur Identifikation neuer LXR-Liganden wurde eine Datenbank mit zugelassenen Wirkstoffen mithilfe einer selbstorganisierenden Karte (SOM) auf Interaktion mit LXR gescreent. Die Retinoid X Rezeptor (RXR)-Agonisten Alitretinoin (37) und Bexaroten (38) konnten in der anschließenden in vitro Charakterisierung als potente duale LXRalpha/LXRbeta-Partialagonisten mit moderater Aktivierungseffizienz bestätigt werden. Während 37 und 38 synthetische LXR-Vollagonisten partiell antagonisierten, führten sie mit dem endogenen Partialagonisten 22(R)-Hydroxycholesterol (4) zur additiven Aktivierung von LXR. Die Charakterisierung von Alitretinoin (37) und Bexaroten (38) als duale LXR/RXR-Agonisten liefert nicht nur eine weitere Erklärung für in klinischen Studien beobachtete Nebenwirkungen, sondern könnte auch den Startpunkt zur Entwicklung neuer antientzündlicher LXR- und dualer LXR/RXR-Liganden bieten.
Der Peroxisomen Proliferator-aktivierte Rezeptor (PPAR) gamma ist ein nukleärer Rezeptor, der neben der Steigerung der Insulinsensitivität auch antientzündliche Effekte aufweist. Auf Grundlage seiner Y-förmigen und fettsäuremimetischen Struktur konnte das Urikosurikum Lesinurad (47) als PPARgamma-Partialagonist in vitro charakterisiert werden. Im Gegensatz zu PPARgamma-Vollagonisten wie Pioglitazon (31) oder Rosiglitazon (32) induzierte 47 nicht die Differenzierung muriner 3T3-L1 Zellen in reife Adipozyten, aber erhöhte in der humanen Leberzellkarzinomzelllinie HepG2 die Expression von Genen, welche die Insulinsensitivität und den Fettsäureabbau steigern könnten. Folglich erwies sich Lesinurad (47), das bei der Pharmakotherapie von Gicht Anwendung findet, als selektiver PPARgamma-Modulator (sPPARgammaM) ohne adipogene Nebenwirkungen. Insbesondere Patienten mit Komorbiditäten wie Diabetes mellitus Typ 2 oder anderen Erkrankungen des metabolischen Syndroms könnten von einer Behandlung mit 47 profitieren. Inwiefern PPARgamma an der Auflösung von Entzündungen bei Gicht beteiligt ist, bleibt in zukünftigen Studien zu klären.
Synthetische RXR-Agonisten haben ein vielversprechendes Potenzial zur Behandlung entzündlicher neurodegenerativer Erkrankungen, das jedoch von nachteiligen Eigenschaften dieser Rexinoide beeinträchtigt wird. Durch ein pharmakophorbasiertes Screening einer fokussierten Substanzbibliothek aus Fettsäuremimetika konnte ein fortschrittliches RXR-Ligandgerüst identifiziert werden. Eine geeignete Synthesestrategie wurde etabliert und die Leitstrukturen durch systematisches Studium der Struktur-Wirkungsbeziehung (SAR) optimiert. In vitro Experimente wie Reportergenassays und die Quantifizierung der Zielgenexpression bestätigten die RXR-partialagonistische Aktivität der dabei entwickelten nanomolaren Verbindung 89. Mit seiner hohen Selektivität, gesteigerten wässrigen Löslichkeit sowie reduzierter Lipophilie und Toxizität könnte 89 die Probleme bisheriger synthetischer RXR-Agonisten überwinden. Seine Präferenz von RXRgamma hinsichtlich der Aktivierungseffizienz könnte richtungsweisend für die Entwicklung subtypselektiver Liganden sein.
Die nichtalkoholische Steatohepatitis (NASH) ist eine Leberentzündung, die aus einer Steatose hervorgehen kann und deren multifaktorielle Natur eine hohe therapeutische Effizienz erfordert. Diese könnte durch duale Modulation der nukleären Rezeptoren Farnesoid X Rezeptor (FXR) und PPARdelta mit antientzündlichen Eigenschaften und unterschiedlichem Wirkprinzip erreicht werden. Zur Validierung dieses Ansatzes mit synergistischem Potenzial sollten duale PPARdelta/FXR-Agonisten ausgehend von einer in früheren Studien des Arbeitskreises identifizierten Leitstruktur mit moderater Potenz entwickelt werden. Dazu wurde ein fünfstufiges Verfahren zur Synthese von Derivaten der Leitstruktur erarbeitet und die Derivate hinsichtlich ihrer Aktivität auf den Zielstrukturen in vitro evaluiert. In systematischen SAR-Studien wurden dabei Strukturmotive charakterisiert, welche die Wirksamkeit und Maximalaktivierung auf PPARdelta und FXR steigerten. Darüber hinaus konnten Modifikationen identifiziert werden, welche eine Selektivität über PPARalpha und PPARgamma gewährten. Die Kombination dieser vorteilhaften Gruppen und Substituenten könnte neue Wirkstoffkandidaten zur Behandlung von NASH hervorbringen.
Insgesamt wurden in dieser Arbeit zahlreiche Wirkstoffe und Wirkstoffkandidaten erfolgreich als Liganden nukleärer Rezeptoren mit antientzündlichem Potenzial identifiziert. Alitretinoin (37) und Bexaroten (38) können als Leitstruktur zur Entwicklung neuer selektiver LXR- oder dualer LXR/RXR-Agonisten dienen. Die PPARgamma-partialagonistische Aktivität von Lesinurad (47) könnte einen Fortschritt in der Therapie von Gicht mit metabolischen Begleiterkrankungen bewirken. Zudem könnten im Zuge dieser Arbeit synthetisierte Serien von RXR- und dualen PPARdelta/FXR-Partialagonisten neue Therapieoptionen bei neurodegenerativen Erkrankungen oder NASH ermöglichen.
In der vorliegenden Arbeit konnte die Entwicklung und Evaluierung einer neuen Apparatur zur Untersuchung der Freisetzungseigenschaften von kolloidalen Arzneiträgern erfolgreich umgesetzt werden. Verschiedene Prototypen und Versionen des Dispersion Releasers konnten entwickelt und mit Hilfe der Werkstatt des Fachbereiches 14 umgesetzt werden. Dabei ermöglicht die letzte Optimierung (Version 3) den Einsatz beider relevanter Dialysemembranen. Sowohl regenerierte Cellulose als auch Celluloseacetat konnten zur Freisetzungsuntersuchung eingesetzt werden. Vorteilhaft ist diese Optionalität vor allem, da auf diese Weise Partikelsysteme und Wirkstoffe mit unterschiedlichen physiko-chemischen Eigenschaften in der gleichen Apparatur auf das Freigabeverhalten untersucht werden können. Darüber hinaus hat der Dispersion Releaser das Potential, sich im Bereich der Freisetzungsuntersuchungen kolloidaler Arzneiträger über den Arbeitskreis von Dr. Wacker hinaus zu einem bevorzugten Testsystem zu entwickeln. In diesem speziellen Gebiet der Freisetzungsuntersuchung von kolloidalen Arzneiträgern wie Nanopartikeln oder Liposomen existiert bisher keine Apparatur, die als sogenannter Gold-Standard angesehen werden kann. Untersuchungen mittels der Durchflusszelle, dem A4D oder Sample & Separate Methoden im Labormaßstab unterliegen kaum standardisierbaren Bedingungen und diversen Limitierungen. Der Dispersion Releaser ist einfach zu handhaben und mit wenig Aufwand in die Freisetzungsapparatur 2 nach Ph. Eur. einzubauen. Zu den zahlreichen Vorteilen gehören außerdem die Kontrolle der Rührgeschwindigkeit sowie der Temperatur und der mögliche Probenzug in beiden Kompartimenten der Dialysezelle. Würden mehr Freisetzungsuntersuchungen von kolloidalen Arzneiträgern mit der gleichen, im besten Falle standardisierten, Apparatur durchgeführt, so würde dies die Vergleichbarkeit der Resultate erheblich verbessern.
Die präparierten Modellarzneiformen der beiden Arzneistoffe mTHPC und Flurbiprofen konnten die Funktionalität des Dispersion Releasers mittels der erhobenen Freisetzungsprofile belegen. Es konnten sowohl schnell als auch langsamer freisetzende kolloidale Formulierungen produziert und identifiziert werden. Als Standard-Freisetzungsmedium diente ein 10 mM Phosphatpuffer versetzt mit Natrium- und Kaliumchlorid bei pH 7,4. Dieser im Hinblick auf pH-Wert, Osmolalität und Pufferkapazität dem Blut angepasste Puffer lieferte reproduzierbare Freisetzungsprofile für alle untersuchten Partikelsysteme. Der Zusatz von Plasmaproteinen erfolge durch Zufügen von FBS zu diesem Standardpuffersystem oder durch Verwendung des im Ph. Eur. gelisteten Phosphatpuffers pH 7,2 mit Rinderalbumin. Der Effekt der im Plasma natürlicherweise enthaltenen Komponenten, insbesondere der Plasmaproteine, auf das Freisetzungsprofil zeigt in dieser Arbeit, dass -wie erwartet- die Freisetzungseigenschaften in komplexen, bzw. physiologischen Medien deutlich von denen in einfachen Puffersystemen abweichen können. Die Anwesenheit von Plasmaproteinen führte zu einer veränderten Freisetzungsrate, sowohl im Falle von Flurbiprofen als auch im Falle von mTHPC. Für mTHPC konnte außerdem der Zusatz von lösungsvermittelndem Methyl-ß-cyclodextrin zum Freisetzungsmedium etabliert werden. Gegenüber üblicherweise eingesetzten Tensiden verändert dieses cyclische Zuckermolekül die Oberflächenspannung des Mediums und damit die Benetzbarkeit der Partikel nicht.
Die mittels Dispersion Releaser und Dialysesack erhobenen Freisetzungsdaten des Wirkstoffes Flurbiprofen wurden in Zusammenarbeit mit Frau Dr. Li Kirsamer einer mathematischen Auswertung unterzogen. Auf diese Weise konnte zunächst das Freisetzungsprofil beider Kompartimente der Dialyse dargestellt werden, wodurch weitere Erkenntnisse der Qualität des kolloidalen Trägers und seiner Eignung für den jeweiligen Arzneistoff abgeleitet werden können. Die Auswertung an Hand dieses Modells berücksichtigt zwar die Fraktion des freigesetzten Wirkstoffes in beiden Kompartimenten, ermittelt jedoch keine theoretische Freisetzungsrate welche ohne Membrankinetik messbar wäre. Dies wäre in der Auswertung von Freisetzungsdaten ebenfalls von Interesse, konnte jedoch im Rahmen dieser Arbeit nicht näher untersucht werden. Berechnungen wie diese können in weiterführenden Arbeiten möglicherweise dazu dienen, in vitro Freisetzungsdaten mit Plasmaprofilen zu korrelieren. Mit dem Erwerb der Rechte an dem Dispersion Releaser durch die Firma Pharma Test Apparatebau AG im Jahr 2016 wurde der Weg für eine mögliche breite und auch kommerzielle Nutzung der neuartigen Apparatur eingeleitet. Diese Transaktion und die andauernde Kooperation zwischen Pharmatest und dem Arbeitskreis von Herrn Prof. Dr. Wacker soll die erfolgreiche Beantwortung der Fragestellungen innerhalb der vorliegenden Arbeit mit dem Titel „Entwicklung einer Apparatur zur in vitro Testung der Wirkstofffreisetzung aus kolloidalen Arzneistoffträgern“ hervorheben.
Auf den Einsatz von Tieren im Rahmen der (Umwelt-)Risikobewertung von Stoffen kann nach wie vor nicht verzichtet werden. Dabei führen die Überprüfungen einer zunehmenden Anzahl neu entwickelter Stoffe, aber auch die gestiegenen Anforderungen der Gesetzgebungen zu einem hohen Verbrauch von Versuchstieren. Diese Untersuchungen sind wichtig, da viele der in Gebrauch befindlichen und in allen Bereichen genutzten Chemikalien potentiell endokrin wirksam sind, auf unterschiedlichen Wegen in die Umwelt gelangen und sich potentiell negativ auf die Gesundheit von Mensch und Tier auswirken können.
Bei den bisher verwendeten Methoden werden vor allem juvenile oder adulte Tiere, aber auch Tiere zur Untersuchung des kompletten Lebenszyklus über eine oder mehrere Generationen für die Beurteilung von Substanzen eingesetzt. Dabei ist bekannt, dass die Entstehung reproduktiver Störungen in der Embryonalphase der jeweiligen Individuen auftritt. Um den Tierverbrauch zu reduzieren, werden teilweise In-vitro-Testsysteme angewendet. Es zeigt sich aber, dass diese Tests lediglich einen bestimmten Zelltyp in einem bestimmten Entwicklungsstadium abbilden können, was die Aussagekraft über die tatsächliche Wirkung auf ein komplexes Gewebe und dessen Entwicklung, erst Recht für den kompletten Organismus, stark einschränkt. Die Aussagekraft dieser Methoden ist daher in bestimmten eingeschränkten Grenzen zu sehen. In der vorliegenden Arbeit wird eine alternative Ersatzmethode vorgestellt mit dem Ziel einer stärkeren Aussagekraft bei toxikologisch und ökotoxikologisch relevanten Endpunkten. Im Fokus stehen hierbei die Effekte von androgenen und estrogenen Substanzen auf die Geschlechtsentwicklung von Hühnerembryonen (Gallus gallus domesticus) auf Ebene der Expression der mRNA, vereint mit Effekten auf Ebene der Organhistologie und – morphologie, verglichen mit den Normalzuständen unbehandelter Individuen. Die neu entwickelte Methode zur Beurteilung solcher Substanzen kann im Rahmen der human- und umwelttoxikologischen Risikobewertung von Stoffen eingesetzt werden und ist ein geeignetes Werkzeug, um die notwendigen Untersuchungen mit der gefordert hohen Beurteilungsqualität durchzuführen. Gleichzeitig kann mit dieser Tierversuchsersatzmethode bei hoher Aussagekraft auch der Verbrauch an weiter und höher entwickelten Versuchstieren verringert werden, was auch einem gesellschaftlich-ethischen Bedürfnis gerecht wird.
Die Superfamilie der nukleären Rezeptoren umfasst 48 ligandenabhänige Transkriptionsfaktoren, die durch Veränderungen in der Genexpression unterschiedlichste (patho-)physiologische Vorgänge wie Metabolismus, Entzündungen und Zelldifferenzierung beeinflussen.
Für die Vertreter der Retinoid X Rezeptoren (RXRs) und Peroxisomen Proliferator-aktivierten Rezeptoren (PPARs) wurden in den letzten Jahren vielversprechende Effekte auf neurodegenerative Erkrankungen berichtet. Beide Rezeptorklassen beeinflussen u.a. Bildung, Transport und Abbau des neurotoxischen Amyloid-β, das als eine der Ursachen für die Entstehung einer Alzheimer Demenz (AD) vermutet wird. Außerdem gibt es Hinweise darauf, dass durch gezielte Modulation der RXRs (besonders RXRγ) eine Remyelinisierung auto-immun demyelinisierter Neurone und damit eine regenerative Therapie für die Multiple Sklerose (MS) möglich sein könnte. Die aktuell zur Verfügung stehenden Liganden der RXRs besitzen unzureichende Subtypenselektivität und meist unvorteilhafte physikochemische Eigenschaften, die der weiteren Erforschung im Wege stehen. Um diese Hindernisse zu überwinden, sollten im Rahmen dieser Arbeit neuartige RXR-Agonisten synthetisiert und umfassend charakterisiert werden.
Ein kürzlich publizierter RXR-Agonist besitzt eine ungewöhnlich lineare Biphenylgrundstruktur und offenbart ein attraktives Aktivitätsprofil: Während alle drei RXR-Subtypen mit einem ähnlichen EC50-Wert (RXRα/β/γ = 12/12/14 µM) adressiert werden, führt die Bindung an RXRα nur zu einer minimalen Aktivierung (max. 5-fache Aktivierung im Vergleich zur Grundaktivität), während RXRβ und γ deutlich stärker aktiviert werden (60-70-fache Aktivierung). Da für diesen Chemotyp bislang noch keine systematischen Studien vorlagen, wurden seine Struktur-Wirkungs-Beziehungen (SAR) erforscht. Durch Synthese und in vitro Charakterisierung von 24 Derivaten konnten sowohl selektivitäts- als auch potenzfördernde Strukturmerkmale identifiziert werden, die sich auch kombinieren ließen. Es wurden ein RXRβ-selektives Derivat, mehrere RXRα/β-präferierende Analoga und ein potentes Derivat mit annähernd 100-fach gesteigerter Potenz ((EC50(RXRα/β/γ) = 0,08/0,15/0,22 µM) erhalten. Im Zuge der Charakterisierung wurden außerdem strukturelle Variationen identifiziert, die eine Umgehung des LXR/RXR-Heterodimers ermöglichen könnten. Zusätzlich gelang die Kristallisation der Ligandbindedomäne (LBD) von RXRα im Komplex mit dem potentesten Vertreter der Serie und offenbarte Potential für weitere Optimierungen, u.a. der Möglichkeit eine kovalente Bindung mit Cys432 zu etablieren und damit eine weitere Potenzsteigerung zu erreichen.
Neben der mangelnden Subtypenpräferenz behindern auch die ungünstigen physikochemischen Eigenschaften von RXR-Liganden die weitere Entwicklung von RXR-basierten Therapieoptionen. Deshalb sollte eine neue Leitstruktur mit überlegenen physikochemischen Eigenschaften identifiziert und durch systematische SAR-Untersuchungen weiterentwickelt werden. Für den experimentellen Wirkstoff Wy14,643, einem dualen Agonisten an PPARα und γ, wurden im Laufe der letzten vier Jahrzehnte wiederholt Effekte patentiert, die sich mit dem bislang bekannten Aktivitätsprofil nicht erklären ließen. Er zeigte u.a. in einem Tiermodell der MS einen immunmodulierenden Effekt und reduzierte in vitro die Bildung von Amyloid-β.Im Rahmen dieser Arbeit konnte Wy14,643 als potenter RXR-Agonist (EC50 (PPARα/γ/δ) = 36/54/- µM¸ EC50(RXRα/β/γ) = 9,1/13/31 µM) mit überlegenen physikochemischen Eigenschaften (z.B. Löslichkeit in Wasser = 48,6 mg/L) identifiziert und dadurch dessen Wirkungen erklärt werden.
Wy14,643 wurde als Startpunkt einer systematischen Untersuchung der Ligand-Rezeptor-Interaktionen sowohl an den PPARs und den RXRs ausgewählt. Dabei wurden ein potenter selektiver PPAR-Agonist und ein potenter und ausgeglichener panRXR/panPPAR-Agonist erhalten. Der panRXR/panPPAR-Agonist konnte im Komplex mit der LBD von PPARγ kristallisiert werden, wo der Ligand gleich doppelt gebunden vorliegt. Eines der Moleküle bindet in einer alternativen Bindungstasche. Diese Erkenntnis könnte die Grundlage für die Entwicklung einer neuen Klasse von PPARγ-Modulatoren legen.
Durch Kombination des erlangten SAR-Wissens wurde ein selektiver RXR-Agonist (EC50 (PPARα/γ/δ) = -/-/- µM¸ EC50(RXRα/β/γ) = 0,09/0,14/0,36 µM) mit annähernd 100-fach gesteigerter Potenz synthetisiert, der die günstigen physikochemischen Eigenschaften der Leitstruktur erhalten konnte (Löslichkeit in Wasser = 14,3 mg/L). Mit diesem Profil ist es gelungen einen RXR-Agonisten zu kreieren, der dem bisherigen Goldstandard Bexaroten bei vergleichbarer Potenz in physikochemischen Eigenschaften überlegen ist.
Die Kristallstruktur des RXR-selektiven Derivats im Komplex mit der LBD von RXRα zeigte einen orthosterischen Bindemodus und legte weitere Optimierungen nahe: So gibt es sowohl ungenutzten Raum, der zukünftig durch strukturbasierte Substitutionen adressiert werden könnte, als auch die Möglichkeit eine kovalente Bindung zum Rezeptor (Cys432) zu initiieren. Durch diese Arbeit konnten nicht nur eine Reihe von potenten RXR-Liganden identifiziert werden, durch die Entwicklung eines Sets aus PPAR-selektiven, dual PPAR/RXR-aktiven und RXR-selektiven Derivaten gleichen Chemotyps, entstand auch ein nützliches pharmakologisches Werkzeug zur weiteren Entschlüsselung des Zusammenspiels dieser Rezeptoren.
Die systematische Entwicklung einer Leitstruktur, wie sie in den vorangegangenen Projekten praktiziert wurde, kann je nach deren Komplexität eine kostenintensive und synthetisch anspruchsvolle Aufgabe darstellen. Im Rahmen dieser Arbeit wurde eine computergestützte Optimierung einer Leitstruktur als Teil einer selektiven Optimierung von Nebenaktivitäten (SOSA) etabliert, um den präparativen Aufwand der Strukturoptimierung zu reduzieren. Als Modellsubstanz wurde das Fettsäuremimetikum Cinalukast ausgewählt, das einen potenten Cysteinylleukotrienrezeptor 1 (CysLT1R)-Antagonisten darstellt, für den eine schwache Aktivität an PPARα entdeckt wurde. Ein automatisierter Arbeitsablauf testete eine virtuelle Bibliothek von annähernd 8000 Cinalukastanaloga auf ihre PPARα-Aktivität und die Derivate mit der besten vorhergesagten PPARα-Aktivität wurden durch maschinelles Lernen nach ihrem CysLT1R-Antagonismus klassifiziert. Die Synthese und Charakterisierung eines virtuell bevorzugten Derivats zeigte selektiven PPARα-Agonismus und konnte so den computergestützten Arbeitsablauf als wertvolles Instrument zur Optimierung von Fettsäuremimetika bestätigten.
Die vorliegende Arbeit hat bedeutende Fortschritte bei der Entwicklung von zwei neuen Chemotypen als RXR-Liganden erreicht. Die Klasse der Biphenyl-Analoga kann als Ausgangspunkt für eine weitere Entwicklung von subtypenselektiven RXR-Agonisten dienen und könnte gleichzeitig die gezielte Umgehung einzelner Heterodimere ermöglichen. Das Set aus drei Derivaten von Wy14,643 mit identischem Chemotyp, aber drastisch unterschiedlichen Aktivitätsprofilen an den PPARs und RXRs ermöglicht eine intensive pharmakologische Untersuchung der beiden Rezeptorfamilien und deren Zusammenspiel. Außerdem entstand aus dieser Klasse einer der zurzeit fortschrittlichsten RXR-Agonisten. Zukünftig kann außerdem der im Zuge der Arbeit etablierte computergestützte Arbeitsablauf die Optimierung von Fettsäuremimetika deutlich beschleunigen.
Entwicklung und Inbetriebnahme zweier supraleitender 217 MHz CH-Strukturen für das HELIAC-Projekt
(2019)
Im Rahmen der hier vorgestellten Arbeit wurden zwei baugleiche CH-Strukturen für das im Bau befindliche HELIAC-Projekt (HELmholtz LInear ACcelerator) entwickelt und während der Produktion bis hin zu den finalen Kalttests bei 4.2 K begleitet. Zusammen mit der CH-Struktur des Demonstrator-Projektes ermöglichen sie die vollständige Inbetriebnahme und den ersten Strahltest des ersten Kryomoduls des HELIAC's, welcher aus vier Kryomodulen mit insgesamt 12 CH-Strukturen besteht. Im Vergleich zu bisherigen CH-Strukturen wurde das Design der Kavitäten im Rahmen dieser Dissertation grundlegend überarbeitet und optimiert. Durch die Entfernung der Girder und die konisch geformten Endkappen konnte die Stabilität der neuen CH-Strukturen deutlich erhöht werden, sodass die Drucksensitivität im Vergleich zur ersten CH-Kavität des Demonstrator-Projektes um ca. 80% reduziert werden konnte. Durch die nach außen gezogenen Lamellen der dynamischen Tuner konnte die mechanische Spannung sowie die benötigte Anzahl an Lamellen und damit das Risiko für das Auftreten von Multipacting reduziert werden. Das verringerte Risiko für Multipacting durch die entsprechenden Optimierungen der Kavitäten konnte durch die dauerhafte Überwindung aller Multipacting-Barrieren in den späteren Messungen verifiziert werden. Die Optimierung beider Kavitäten erfolgte dabei mit Hilfe der Simulationsprogramme CST Studio Suite und Ansys Workbench.
Beide Kavitäten wurden von der Firma Research Instruments (RI) gefertigt und während der gesamten Konstruktion durch diverse Zwischenmessungen überwacht. Nach jedem einzelnen Produktionsschritt wurden alle Einflüsse auf die Resonanzfrequenz so präzise ermittelt, dass die Zielfrequenz bei 4.2 K auf mehr als 1‰ genau erreicht werden konnte. Sowohl während der Zwischenmessungen als auch während den finalen Messungen bei 4.2 K wurden automatisierte Aufzeichnungsroutinen verwendet, welche eine sekundengenaue Auslese der Messdaten und damit eine hohe Messgenauigkeit ermöglichten. Im Hinblick auf die Komplexität der CH-Strukturen sind die geringen Abweichungen von der Zielfrequenz der direkte Beweis dafür, wie erfolgreich und präzise die Auswertungen und daraus folgenden Abschätzungen der einzelnen Zwischenmessungen waren. Insgesamt konnten bis auf die mechanischen Eigenmoden alle Ergebnisse der Simulationen durch entsprechende Messungen in guter Näherung verifiziert werden. In jeder Kavität wurden zwei dynamische Tuner verbaut, welche statische und dynamische Frequenzabweichungen im späteren Betrieb ausgleichen können. Die dynamischen Tuner wurden hinsichtlich ihrer mechanischen Stabilität und der erzeugbaren Frequenzänderung sowie ihrer mechanischen Eigenfrequenzen ausführlich mit Hilfe der Simulationsprogramme CST Studio Suite und Ansys Workbench untersucht und optimiert. Um die Ergebnisse der Simulationen zu überprüfen wurden ein eigens dafür entworfener und in der Werkstatt des Instituts für Angewandte Physik gefertigter Messaufbau verwendet, welcher es ermöglichte alle entscheidenden Eigenschaften der dynamischen Tuner präzise zu vermessen. Insgesamt stellen die ausführlichen Messungen mit Hilfe des entworfenen Aufbaus die bisher umfassendsten Messungen dynamischer Balgtuner innerhalb supraleitender CH-Strukturen dar und zeigen, mit welchen Abweichungen zwischen Simulationen und Messungen bei zukünftigen Kavitäten zu rechnen ist. Auch die Feldverteilung entlang der Strahlachse wurde während der Produktion der Kavitäten mit Hilfe der Störkörpermessmethode überprüft. Die dadurch ermittelten Werte stimmten mit einer maximalen Diskrepanz von 9% sehr gut mit den Simulationen überein.
Um eine möglichst gute Oberflächenqualität zu garantieren wurden an der Innenfläche beider Strukturen mindestens 200µm mit einer Mischung aus Fluss-, Salpeter und Phosphorsäure in mehreren Schritten abgetragen. Durch das Aufteilen der Behandlung in einzelne Schritte konnte der Einfluss der Oberflächenbehandlung auf die Resonanzfrequenz besser abgeschätzt und vorausgesehen werden. Dies führte, zusammen mit den Messungen zur Bestimmung der Drucksensitivität und der thermischen Kontraktion der Kavität beim Abkühlen, zu der hohen Übereinstimmung der gemessenen finalen Resonanzfrequenz mit der Zielfrequenz.
Die abschließenden Kalttests der beiden Kavitäten, ohne Heliummantel, wurden am Institut für Angewandte Physik der Johann Wolfgang Goethe Universität in einem vertikalen Bad-Kryostaten durchgeführt. Die erste CH-Struktur konnte erfolgreich bis zu einem maximalen Feldgradienten von 9.2 MV/m getestet werden, was einer effektiven Spannung von 3.37 MV entspricht. Die unbelastete Güte fiel dabei von anfangs 1.08 ∙ 109 auf 2.6 ∙ 108 ab. Die Vorgaben des HELIAC-Projektes liegen bei einem Beschleunigungsgradienten von 5.5 MV/m mit einer unbelasteten Güte von mindestens 3 ∙ 108. Diese Werte wurden von der ersten Kavität deutlich übertroffen, sodass sie für den Betrieb innerhalb des ersten Kryomoduls uneingeschränkt verwendet werden kann.
Bei der zweiten Kavität trat beim Abkühlen auf 4.2 K ein Vakuumleck auf, welches unter Raumtemperatur nicht detektierbar war. Aufgrund der schlechten Vakuumbedingungen innerhalb der Kavität konnten somit keine Messungen hinsichtlich der Leistungsfähigkeit durchgeführt werden, solange das Kaltleck vorhanden war. Ein erneuter Kalttest der Kavität nach Beseitigung des Lecks konnte zeitlich nicht mehr im Rahmen dieser Arbeit durchgeführt werden und ist aus diesem Grund Gegenstand nachfolgender Untersuchungen.
Insgesamt stellen die Entwicklungen, Untersuchungen und Messungen im Rahmen der hier vorgestellten Dissertation einen entscheidenden Schritt zur Inbetriebnahme des ersten Kryomoduls des HELIAC's sowie der Entwicklung weiterer CH-Kavitäten dar. Das überarbeitete Design der CH-Strukturen hat sich als erfolgreich erwiesen, weswegen es als Ausgangspunkt für die Entwicklung aller nachfolgenden CH-Strukturen des HELIAC, bis hin zur Fertigstellung des kompletten Beschleunigers, verwendet wird.
Als Plasmafenster wird ein Aufbau bezeichnet, welcher zwei Bereiche unterschiedlicher Drücke voneinander trennt, Teilchenstrahlen jedoch nahezu verlustfrei passieren lässt.
Diese Anwendung einer kaskadierten Bogenentladung wurde von A. Hershcovitch vorgeschlagen.
Im Rahmen dieser Arbeit wurde ein solches Plasmafenster mit Kanaldurchmessern von 3.3 mm und 5.0 mm aufgebaut sowie die erreichbaren Druckunterschiede untersucht.
Auf der Bestimmung des Einflusses der Plasmaparametern und deren Abhängigkeit von äußeren Parametern auf die erreichbare Trennung der Druckbereiche liegt der Schwerpunkt dieser Arbeit.
Ein ausgeklügeltes optisches System ermöglicht die simultane Aufnahme mehrerer Spektren entlang der Entladungsachse, welche die gleichzeitige Bestimmung der Elektronendichte und -temperatur ermöglichen.
Für die Analyse der Plamaparameter aus über 6700 Spektren wird eine selbst entwickelte Software genutzt.
Die gemessenen Elektronendichte reicht von 8e14 cm^-3 bis zu 4.2e16 cm^-3.
Sie skaliert sowohl mit der Entladungsstromstärke als auch dem Teilchenfluss.
Für die Elektronentemperatur stellen sich Werte zwischen 1 eV und 1.3 eV ein, sie variiert nur leicht mit der Stromstärke und dem Teilchenfluss.
Wie später gezeigt wird, stimmen die hier präsentierten Daten gut mit Ergebnissen aus Simulationen und Experimenten anderer Arbeitsgruppen überein.
Als Betriebsgas wurde eine 98%Ar-2%H2 Mixtur genutzt, da die Stark-Verbreiterung der H-beta-Linie sowie die physikalischen Eigenschaften von Argon gut beschrieben sind und somit eine akkurate Elektronendichte- und -temperaturbestimmung ermöglichen.
Während die Drücke auf der Niederdruckseite einigen mbar entsprechen, werden auf der Hochdruckseite Drücke bis zu 750 mbar bei Teilchenflüsse zwischen 4.5e20 s^-1 und 18e20 s^-1 sowie Stromstärken von 45 A bis 60 A erreicht.
Die erzielten Druckverhältnisse entsprechen Werten zwischen 40 und 150, was eine Steigerung um einen Faktor von bis zu 12 gegenüber dem Druckverhältnis einer einfachen differentiellen Pumpstufe entspricht.
Zusätzlich zur Trennung der Druckbereiche kann am vorgestellten Experiment die Starkverbreiterung von Emissionslinien untersucht werden.
Vorteilhaft gegenüber anderen Aufbauten ist hier die Möglichkeit, zeitgleich Spektren unterschiedlicher Elektronendichten aufzunehmen.
Die entwickelte Software ist in der Lage, akkurate Halbwertsbreiten zu bestimmen und daher für eine solche Anwendung gut geeignet.
Alleinstellungsmerkmale dieses Aufbaus sind unter anderem die angesprochene Möglichkeit der simultanen Bestimmung von Plasmaparamertern und Linienverbreiterungen sowie der Verzicht auf Keramikisolatoren zwischen den Kühlplatten des Aufbaus.
Optische Analysen ergaben keine signifikante Schädigung der Bestandteile des Aufbaus nach einer Betriebsdauer von über 10 h; einzig die Kathodenspitzen müssen alle 5 h ausgetauscht werden.
Im Rahmen der hier vorgestellten Arbeit wurden eine Master- sowie Bachelorarbeit betreut und erfolgreich zum Abschluss gebracht.
Wie im Rahmen dieser Arbeit gezeigt, ist das entwickelte Plasmapfenster in der Lage, zwei Bereiche unterschiedlicher Drücke zu trennen und diese Trennung sicher aufrecht zu erhalten.
Die zugrundeliegenden Plasmaparameter sind erforscht und ihr Einfluss auf die Trennungseigentschaft des Plasmafensters beschrieben.
Als nächsten Schritt bietet sich die Erschließung technischer Einsatzmöglichkeiten des Plasmafensters an, so könnte dieses als Plasmastripper oder zum Schutz einer Beschleunigerstruktur vor durch Kollisionsexperimente entstandene radioaktive Isotope oder Sekundärteilchen.
Der Fokus der vorliegenden Arbeit liegt in der erfolgreichen Entwicklung von vier neuen Methoden zur Darstellung von Sulfonen und von einer neuen Methode zur Synthese von N-Aminosulfonamiden. Dabei sollen die Strukturmotive von Sulfonen und Sulfonamiden aus stabilen Startmaterialien in einer einfachen Durchführung, vorzugsweise in einer Eintopf-Synthese oder Multikomponenten-Reaktion, aufgebaut und der Reaktionsmechanismus weitestgehend experimentell aufgeklärt werden. In diesem Rahmen konnte die Lücke einer Nickel-katalysierten Darstellung von Diarylsulfonen sowohl unter thermischen als auch unter photochemischen Bedingungen gefüllt werden. Zusätzlich konnten im Bereich der SO2-Fixierung Sulfonylradikale mittels Diaryliodoniumsalzen und sichtbaren Licht erzeugt werden, die mit dem entsprechenden Quencher zum Sulfonamid oder Sulfon weiter reagieren konnten.
Zielsetzung: Ziel dieser Arbeit war es, den Einfluss des neuen, rauschoptimierten virtuell monoenergetischen Rekonstruktionsalgorithmus (VMI+) von abdominellen Dual-Energy CT (DECT) Aufnahmen bei Patienten mit gastrointestinalem Stromatumor (GIST) hinsichtlich der objektiven und subjektiven Bildqualität zu evaluieren sowie die Vorteile dessen im Vergleich zu den bislang verwendeten Algorithmen aufzuzeigen.
Material und Methoden: 45 DECT Datensätze von 21 Patienten mit GIST (12 Männer und 9 Frauen, durchschnittliches Alter: 63.4 ± 9.2 Jahre) wurden sowohl mit einem linear gemischten Algorithmus (M_0.6), mit dem traditionellen virtuell monoenergetischen Algorithmus (VMI) als auch mit dem rauschoptimierten VMI+ Algorithmus in 10 keV Intervallen von 40 bis 100 keV rekonstruiert. Zur objektiven Berechnung des Signal-zu-Rausch Verhältnisses („signal-to-noise ratio“=SNR) sowie des Kontrast-zu-Rausch Verhältnisses („contrast-to-noiseratio“=CNR) wurde die Signalabschwächung der GIST-Läsionen und abdomineller Metastasen in den drei Rekonstruktionsvarianten in Hounsfield Units (HU) gemessen. Die Beurteilung der subjektiven allgemeinen Bildqualität, der Abgrenzbarkeit der Läsionen, der Bildschärfe sowie des Bildrauschens im jeweiligen Rekonstruktionsalgorithmus wurde von drei Radiologen unter Verwendung von Likert-Skalen durchgeführt.
Ergebnisse: Die objektive Bildqualität wies die höchsten Werte in den 40 keV VMI+ Serien auf (SNR: 11.0 ± 4.7; CNR: 9.0 ± 4.1) und war somit signifikant besser als die M_0.6 Serie (SNR: 7.5 ± 2.8; CNR: 5.5 ± 2.7) und alle VMI Serien (bei allen P < 0.001). Bezüglich der subjektiven Bildqualität und der Bildschärfe wurden die 60 keV VMI+ Rekonstruktionen bevorzugt (Median: 5; P ≤ 0.008). Die subjektive Einschätzung bezüglich der Abgrenzbarkeit der GIST Läsionen erzielte die besten Werte in den 40 keV und 50 keV VMI+ Rekonstruktionen (beide Mediane: 4). Das Bildrauschen wurde in den 90 keV und 100 keV VMI und VMI+ Rekonstruktionen als am geringsten beurteilt (alle Mediane: 5).
Schlussfolgerung: Niedrigenergetische VMI+ Rekonstruktionen erhöhen signifikant das Signal-zu-Rausch Verhältnis sowie das Kontrast-zu-Rausch Verhältnis verglichen mit den traditionellen VMI Rekonstruktionen und der linear gemischten M_0.6 Bildserie und verbessern sowohl die objektive als auch die subjektive Bildqualität abdomineller DECT Aufnahmen bei Patienten mit GIST signifikant.
Ziel dieser Arbeit ist die Untersuchung des Langzeitüberleben von Patienten, die sich einer MitraClip-Implantation unterzogen haben, zu untersuchen. Da-bei wurden die beiden Ätiologien der MI gesondert betrachtet. Die Ergebnisse zeigen, dass es zwischen Patienten mit degenerativer und funktioneller Insuf-fizienz keine nennenswerten Unterschiede in Bezug auf den Langzeitverlauf gibt.
Es konnten jedoch Parameter herausgestellt werden, mit deren Hilfe man eine prognostische Aussage über das Langzeitüberleben treffen könnte. Diese Arbeit erbrachte Hinweise darauf, dass die TAPSE durchaus Einfluss auf das Langzeitüberleben bei Patienten haben kann. Aktuelle Studien bele-gen einen solchen Zusammenhang ebenfalls.
Es bleibt abzuwarten, ob sich dieses Verfahren weiterhin etablieren kann und welchen Stellenwert die katheterbasierte Cliptherapie der Mitral-klappe im Vergleich zu chirurgischen und anderweitig interventionellen Klap-pentherapieverfahren einnehmen wird.
Die Prognose eines malignen Glioms ist trotz verschiedener Therapiemöglichkeiten noch immer sehr schlecht. Zwar hat sich für die Primärsituation seit 2005 eine Standardtherapie etabliert, doch im Rezidivfall fehlt es weiterhin an einer einheitlichen Behandlung. Das Ziel dieser retrospektiven Datenerfassung war es, den prognostischen Stellenwert klinisch- pathologischer Parameter zu vergleichen und eine Konsensempfehlung zu erarbeiten. Zusätzlich wurde ein Teil dieser Daten im Rahmen einer multizentrischen retrospektiven Analyse des DKTKs zur Validierung des im Zuge dessen entwickelten prognostischen RRRSs erhoben und verwendet.
Grundlage dafür bildeten die in der internen Datenbank „Orbis“ und in archivierten Patientenakten gespeicherten Daten von Patienten, die zwischen 07/2009 und 02/2017 in der Klinik für Strahlentherapie am Universitätsklinikum Frankfurt am Main therapiert wurden. Hierbei handelte es sich um Patienten mit einem histologisch gesicherten Glioblastomen WHO Grad IV zum Zeitpunkt der ReRT. Die mediane Gesamtdosis betrug 28 Gy (20-60 Gy), die mediane Einzeldosis 3,5 Gy/Tag (1,8-4 Gy).
Es wurden 102 Patienten eingeschlossen, wobei zwei Patienten als primäre Diagnose ein niedriggradiges Gliom WHO Grad I/II, sechs ein Astrozytom WHO Grad III und 96 ein Glioblastomen WHO Grad IV aufwiesen. Das durchschnittliche Alter betrug 55 Jahre und die mittlere Zeit zwischen initialer und erneuter RT 21,07 Monate. Im Rezidivfall unterzogen sich 40 Patienten einer chirurgischen Intervention, bei welcher es sich in 32 der Fälle um eine totale und acht Mal um eine subtotale Resektion handelte. Des Weiteren erhielten 52 der Patienten eine Chemotherapie mit Temozolomid, 20 eine mit CCNU, 17 mit Avastin und fünf bzw. acht ein anderes oder kein Chemotherapeutikum.
Das mOS nach initialer Diagnosestellung eines malignen Glioms ergab 42,64 Monaten, das progressionsfreie Überleben 14,77 Monate. Das mOS nach der ReRT lag bei 11,8 Monaten und der mediane Zeitraum bis zu einem erneuten Progress betrug 4,25 Monate.
Bezüglich der Primärdiagnose konnten die initiale Histologie (p = 0,002), das Alter (p = 0,016) und der MGMT-Promotor-Status (p = 0,001) als statistisch signifikante Einflussfaktoren identifiziert werden. Demnach wiesen jüngere Patienten mit einer niedriggradigeren Histologie sowie einer Hypermethylierung des MGMT-Promotors eine bessere Prognose auf. Der KPS (p < 0,001), die Zeit zwischen erster und zweiter Bestrahlung (p = 0,003), der MGMT-Promotor-Status (p = 0,025) und das Tumorwachstum (p = 0,024) waren determinante Faktoren hinsichtlich des Outcomes nach der ReRT. Außerdem zeigte sich, dass eine Gesamtstrahlendosis von mehr als 28,90 Gy auf statistisch signifikante Art und Weise (p = 0,042) mit einem längeren OS nach erneuter RT assoziiert war, sowie eine Parietal- bzw. Temporallappenlokalisation (p = 0,009) mit einem längeren progressionsfreien Überleben. Was die Therapiemodalitäten angeht, zeigte sich keine der anderen überlegen.
Die erneute Validierung dieser Daten mit dem RRRS ergab ebenfalls ein statistisch signifikantes Ergebnis bezogen auf die durchschnittliche Überlebenszeit zwischen den einzelnen prognostischen Gruppen ab dem Zeitpunkt der ReRT.
Die Ergebnisse dieser Arbeit legen dar, dass noch immer keine optimale Therapie für Patienten mit rezidivierendem Glioblastomen existiert und weiterhin Forschungsbedarf in der Modifizierung bestehender Behandlungsoptionen sowie in der Entwicklung neuer Therapiemöglichkeiten besteht. Des Weiteren unterstreichen sie die Wichtigkeit und den Wert spezifischer Einflussfaktoren zur Prognoseabschätzung und die Notwendigkeit des Einschlusses bedeutender neuer molekularer Marker anhand der WHO- Klassifikation von 2016 für zukünftige Studien.
Die Extrauteringravidität (EUG) ist eine relativ häufige und bei zu spätem Erkennen schwerwiegende bis tödliche Anomalie der Schwangerschaft. Rund 2 % aller Schwangerschaften befinden sich extrauterin, z. B. im Eileiter, im Eierstock oder in der Bauchhöhle. Das Symptomspektrum kann vielfältig sein und reicht u. a. von Symptomfreiheit bis hin zu Schockzuständen durch innere Blutungen. Die maternale Sterblichkeit lag zu Beginn des letzten Jahrhunderts noch sehr hoch, da die Diagnose nicht oder zu spät gestellt wurde bzw. keine adäquate Therapie verfügbar war. Durch sensible Schwangerschaftstest, welche die β-Untereinheit des hCGs nachweisen, und den transvaginalen Ultraschall können heute pathologische Schwangerschaftsverläufe früh detektiert und ebenso früh interveniert werden. Je nach Fortschritt und Lokalisation der EUG stehen verschiedene Therapiemöglichkeiten zu Verfügung. Ambulant kann eine einmalige Methotrexatinjektion erfolgen. Auch chirurgische Methoden sind eine Therapieoption.
In dieser Arbeit wurden die 8.040 Publikationen, die zwischen 1900 und 2012 zum Thema EUG erschienen sind und ins Web of Science aufgenommen wurden, szientometrisch analysiert, um quantitative und qualitative Aussagen bezüglich der Publikationen und dem Forschungsverhalten treffen zu können. Quantitativ wurden u. a. die Publikationsleistung einzelner Länder, Autoren und Fachzeitschriften sowie verschiedene Kooperationen evaluiert. Die qualitative Beurteilung betrachtete neben Zitationszahlen, Zitationsraten und modifizierten H-Indizes auch Impact-Faktoren (IF). Eine derartige Untersuchung existiert zum jetzigen Zeitpunkt nicht.
Im betrachteten Zeitraum sind die Publikations- und Zitationszahlen stetig gestiegen. Dies lässt auf ein gestiegenes wissenschaftliches Interesse für EUGen schließen. Außerdem ist über die Jahre auch die Anzahl der Autoren pro Publikation gestiegen, was auf eine vermehrte Zusammenarbeit zwischen Autoren, Institutionen und Ländern hindeutet. Als meistpublizierend kristallisierten sich die USA heraus. Auch bezüglich des modifizierten H-Index`, der erhaltenen Zitierungen und der meisten Institutionen, die das Thema EUG beforschen, sind die USA führend. Im Gegensatz dazu ist Israel mit einem weitaus geringeren BIP unter den 5 meistpublizierenden Ländern zu finden. Israels Publikationszahl pro BIP zeigt, dass die Forschung einen hohen Stellen¬wert hat, aus der qualitativ hochwertige Ergebnisse resultieren, was durch die hohe Zitationsrate und den modifizierten H-Index untermauert wird. Unter den Zeitschriften sind Fertility and Sterility, American Journal of Obstetrics & Gynecology und Obstetrics & Gynecology quantitativ die Spitzenreiter. Werden jedoch qualitative Parameter wie der IF betrachtet, siedeln sich die genannten Periodika im hinteren Drittel ein. Im Gegensatz zu Journalen mit hohen IF, wie das New England Journal of Medicine (IF = 51,658) und The Lancet (IF = 39,060) haben die meistpublizierenden Journale ein eingeschränktes Themengebiet, was erheblichen Einfluss auf den IF hat. Unter den 15 meistpublizierenden Fachjournalen werden 14 in englischer Sprache veröffentlicht. Nur die Fachzeitschrift Geburtshilfe und Frauenheilkunde publiziert deutschsprachige Fachbeiträge. Parallel dazu sind mehr als 92 % der Veröffentlichungen in Englisch publiziert worden. Ursächlich hierfür sind unter anderem die Vorauswahl, die vom WoS getroffen wird und die Anerkennung der englischen Sprache als Sprache der Wissenschaft. Mit Abstand die meisten Publikationen wurden im Themengebiet Obstetrics & Gynecology veröffentlicht. Da die EUG ein gynäkologisches Krankheitsbild ist, ist dies wenig verwunderlich. Weltweit führende Institution hinsichtlich der Publikationen ist die University of London. Mit 168 Publikationen reihen sich die weltbekannten amerikanischen Universitäten aus Pennsylvania, Yale und die Harvard University hinter der britischen Einrichtung ein. Hinsichtlich der Zahl der Zitierungen liegt die Londoner Universität hinter dem Center for Disease Control, das in den USA angesiedelt ist. Unter den Autoren genießt der Amerikaner Kurt T. Barnhart (81 Publikationen) großes Ansehen. Diese Veröffentlichungen wurden über 1.000 Mal zitiert. Sein modifizierter H-Index von 19 wird von Hervé Fernandez (mod. H-Index 24) noch übertroffen. Mit 79 Publikationen reiht er sich hinter Barnhart ein. Durch die Genderanalyse wird ersichtlich, dass weitaus weniger Frauen als Autoren in Erscheinung treten, wobei nur ca. 22 % der Autorennamen ihrem Geschlecht zugeordnet werden konnten.
Diese szientometrische Analyse zum Thema EUG liefert einen Überblick über die quantitative und qualitative Entwicklung der internationalen Forschung zeigt die wissenschaftliche Anerkennung auf, interpretiert Ergebnisse und hinterfragt sie kritisch.
Filmgespräche und Contact-sheets als Mittel der Analyse von Dokumentarfilmen des Uncontrolled Cinema
(2019)
In dieser Arbeit betrachte ich den Herstellungsprozess von Dokumentarfilmen aus der subjektiven Sicht der Filmemacher. Anhand von ausgewählten Filmen hinterfrage ich die Umstände ihrer Entstehung. Es ist eine Filmgespräch zentrierte Arbeit. Bevor ich den Filmemacher oder die Filmemacherin besuche schaue ich mir einige seiner Filme an und spreche dann gezielt über ein, zwei oder drei verschiedene Filmprojekte mit ihm. Ich nehme den Filmemacher mit der Kamera auf und bin dabei gleichzeitig auch Gesprächspartner. Zu Beginn meiner Arbeit wurde mir einmal geraten, doch mit Büchern zu arbeiten und auf Interviews zurückzugreifen, die schon verschriftlicht worden sind. Doch jedes Buch verfolgt seine eigene Agenda, seine eigene Zielsetzung, und der Herstellungsprozess wird meistens nur fragmentarisch behandelt. Das Filmemachen ist eine gesellschaftliche ästhetische Praxis, die sehr komplex ist und sehr vielen Einflüssen unterliegt, wie zum Beispiel 1.) ständig wechselnde Orte, an denen ein Filmteam über einen längeren Zeitraum zusammenarbeitet; 2.) Protagonisten, mit denen man über einen längeren oder kürzeren Zeitraum etwas zu tun hat und wodurch sich auch noch nach den Dreharbeiten Freundschaften entwickeln können; 3.) das Arbeiten mit einer Kamera- und Tontechnik, die sich immer wieder verändert, wodurch man sich auf neue Technik einlassen muss und lernen muss, damit umzugehen; 4.) finanzielle Probleme, weil das Filmemachen als freier Filmemacher teuer ist und Fördermittel beantragt werden müssen; 5.) die Frage, ob mit dem gefilmten Bildmaterial am Ende eine Geschichte erzählt werden kann und ob die Protagonisten sich damit wohl fühlen.
Filmgespräche und Contact-sheets als Mittel der Analyse von Dokumentarfilmen des Uncontrolled Cinema
(2019)
In dieser Arbeit betrachte ich den Herstellungsprozess von Dokumentarfilmen aus der subjektiven Sicht der Filmemacher. Anhand von ausgewählten Filmen hinterfrage ich die Umstände ihrer Entstehung. Es ist eine Filmgespräch zentrierte Arbeit. Bevor ich den Filmemacher oder die Filmemacherin besuche schaue ich mir einige seiner Filme an und spreche dann gezielt über ein, zwei oder drei verschiedene Filmprojekte mit ihm. Ich nehme den Filmemacher mit der Kamera auf und bin dabei gleichzeitig auch Gesprächspartner. Zu Beginn meiner Arbeit wurde mir einmal geraten, doch mit Büchern zu arbeiten und auf Interviews zurückzugreifen, die schon verschriftlicht worden sind. Doch jedes Buch verfolgt seine eigene Agenda, seine eigene Zielsetzung, und der Herstellungsprozess wird meistens nur fragmentarisch behandelt. Das Filmemachen ist eine gesellschaftliche ästhetische Praxis, die sehr komplex ist und sehr vielen Einflüssen unterliegt, wie zum Beispiel 1.) ständig wechselnde Orte, an denen ein Filmteam über einen längeren Zeitraum zusammenarbeitet; 2.) Protagonisten, mit denen man über einen längeren oder kürzeren Zeitraum etwas zu tun hat und wodurch sich auch noch nach den Dreharbeiten Freundschaften entwickeln können; 3.) das Arbeiten mit einer Kamera- und Tontechnik, die sich immer wieder verändert, wodurch man sich auf neue Technik einlassen muss und lernen muss, damit umzugehen; 4.) finanzielle Probleme, weil das Filmemachen als freier Filmemacher teuer ist und Fördermittel beantragt werden müssen; 5.) die Frage, ob mit dem gefilmten Bildmaterial am Ende eine Geschichte erzählt werden kann und ob die Protagonisten sich damit wohl fühlen.
Die meisten Informationen, die uns über Frauen im Römischen Reich zur Verfügung stehen, wurden von Männern in literarischen Texten und Rechtsquellen aufgeschrieben. Ein Thema, mit dem das Leben von Frauen des Römischen Reichs näher beleuchtet werden kann, sind Rechtstexte, die sich mit Themen beschäftigen, in denen Frauen eine zentrale Rolle spielen.
Weite Teile der Bevölkerung des Römischen Reichs konnten im zweiten und dritten nach- christlichen Jahrhundert zwischen lokalen und römischen Rechtsangeboten wählen, um be- stimmte Probleme des Alltags zu lösen. Innerhalb des römischen Reichs entstanden zu dieser Zeit Rechtstexte unterschiedlicher Kulturen und verschiedene Rechtssysteme entwickelten unterschiedliche Lösungen für sich inhaltlich überschneidende Themenbereiche und Probleme.
In Rom verschriftlichten römische Juristen ihre Gedanken zu theoretischen Fallbeispielen und gewannen in großen Teilen des römischen Reichs Ansehen. Teile davon liegen uns heute als die im fünften und sechsten Jahrhundert zusammengetragenen Digesten vor. In der römischen Provinz Palaestina lebten jüdische Gelehrte, Rabbinen, die über Jahrhunderte mündlich weitergegebenes Wissen und entwickelte Rechtsbestimmungen aufschrieben, die als die Schriften der Mischna und Tosefta überliefert wurden.
In der Dissertation werden anhand der Lebensabschnitte einer Frau wie sie in der Mischna gezeichnet werden – die Kindheit und Jugend in der Familie des Vaters, das Leben als Ehefrau und das Leben als Witwe – untersucht, welche Handlungsspielräume sich für Frauen in den Texten ergeben und welche Erwartungen an Frauen gestellt werden. Die untersuchten Abschnitte der Mischna und Tosefta werden mit Texten aus den Digesten verglichen.
Obwohl die jüdischen und römischen Rechtstexte auf Traditionen beruhen, die unabhängig voneinander entstanden, beschäftigen sie sich mit den gleichen Themen, nämlich mit dem Erwachsenwerden von jungen Frauen, Fragen des Erbrechts, der Heirat und dem Ende von Ehen durch den Tod des Ehemannes oder eine Scheidung. Weiterhin wird deutlich, dass die Autoren der jüdischen Rechtstexte als Bewohner des Römischen Reichs sich mithilfe von Bestimmungen für das Verhalten verschiedener Mitglieder ihrer Gesellschaft zugleich als Teil der griechisch–römischen Welt sahen und sich von dieser durch eigene Traditionen abgrenzten. Aus der Sicht der Rabbinen konnte das Verhalten von Frauen ihre Gruppenzugehörigkeit nach außen sichtbar machen.
Die Kenntnis der Struktur von Biomolekülen und der biologischen Abläufe, in welche diese involviert sind, ist grundlegend für die Entwicklung von medizinischen Behandlungen. Im Rahmen dieser Arbeit wurden Systeme zur Untersuchung von Biomolekülen, insbesondere Proteinen, hergestellt. Im Mittelpunkt stand die Entwicklung von Materialien, welche neue Möglichkeiten zur Präparation von Proteinen zur Untersuchung derer Struktur mittels Kryo-Transmissionselektronenmikroskopie (Kryo-TEM) eröffnen. In zwei weiteren Projekten wurden biomimetische Systeme aufgebaut, welche die Oberfläche eines Biomoleküls oder biologischen Ensembles nachahmen und hierdurch deren Untersuchung ermöglichen. Hier wurden Systeme zur einfachen Nachbildung biologischer Membranen oder Proteinoberflächen betrachtet.
Eine wichtige Methode zur Untersuchung der dreidimensionalen Struktur von Biomolekülen ist die Kryo-TEM. Zur Mikroskopie werden die Biomoleküle in wenige Mikrometer großen Löchern eines amorphen Kohlenstofflochfilms mittels einer wenige Nanometer dicken Schicht aus amorphem Eis fixiert. Hierfür wird ein dünner Film einer wässrigen Probe auf den Kohlenstofflochfilm aufgebracht und gefroren. Insbesondere für Membranproteine ist die Herstellung derartiger Proben schwierig, da die Proteinpartikel zur Aggregation und Adsorption an dem Kohlenstofflochfilm neigen, wodurch keine Partikel in den Löchern des Kohlenstofffilmes auftreten, welche mikroskopiert werden können.
In dieser Arbeit wurden Materialien zur Verbesserung der Präparation von Proteinen für die Kryo-TEM entwickelt. Es wurden hierfür verschiedene biorepulsive Materialien, auch solche, welche eine spezifische Anbindung der Biomoleküle erlauben, untersucht. Da in der TEM die Probe durchstrahlt wird, eignen sich Nanometer dünne Membranen dieser Materialien als Trägermaterial für die Biomoleküle, da sie nur zu einem geringen Hintergrund führen. Zum einen wurden Nanomembranen durch die chemische Quervernetzung von Nanometer dicken Hydrogelfilmen mit verschiedenen quervernetzenden Molekülen hergestellt. Zum anderen wurden Trägerfilme, wie amorphe Kohlenstofffilme oder Kohlenstoffnanomembranen (engl. carbon nanomembranes, CNM) biorepulsiv funktionalisiert. Darüber hinaus wurde eine Nitrilotriessigsäure(NTA)-funktionalisierte Hydrogel-beschichtete Nanomembran entwickelt, welche markierte Proteine selektiv über einen His-Tag bindet.
Neben der Entwicklung von Materialien zur Untersuchung von Proteinen mittels Kryo-TEM wurden Beschichtungen hergestellt, welche die Oberfläche eines Biomoleküls oder eines Ensembles von Biomolekülen nachahmen. Diese Modelloberflächen sollten ebenfalls die Untersuchung von Eigenschaften der biologischen Systeme ermöglichen. Biologische Membranen bestehen aus einem Ensemble von Biomolekülen. Eine Vielzahl verschiedener Biomolekülen tritt in einer komplexen Anordnung in diesen dünnen Membranen auf. Es wurde versucht, strukturierte Membranen mit lokalen Variationen der physikalischen und chemischen Eigenschaften, jedoch weitaus weniger komplexen Aufbau, herzustellen. Die hergestellten Membranen mit biologisch relevanten Strukturen im Mikrometer- bis Zentimeterbereich, können nach weiterer Forschung als einfache Modellsysteme zur Nachahmung ihrer komplexen biologischen Vorbilder dienen.
In einem weiteren Projekt wurde eine Modelloberfläche für die Bindungstasche des Proteins FimH, welches eine wichtige Rolle in der bakteriellen Adhäsion spielt, entwickelt. In dem Kooperationsprojekt mit der Arbeitsgruppe Lindhorst wurde ein Modellsystem entwickelt, welches dazu dient, herauszufinden, inwiefern eine Funktionalisierung einer Aminosäurevon FimH über eine vorgeschlagenen Ligationsstrategie möglich ist. Das Modellsystem besteht aus einer biorepulsiven Hydrogel-Matrix, aus welcher die Seitenkette der Aminosäure Tyrosin in die Lösung exponiert ist. Die Substrat-katalysierte Reaktion der Aminosäuren-Seitenkette mit dem Photoschalter wurde mithilfe eines Bakterienadhäsionstests untersucht. Es konnte gezeigt werden, dass sich die vorgeschlagene Ligationsstrategie unter Berücksichtigung von Nebenreaktionen zur Modifizierung des Proteins eignet.
Es konnten vier neuartige Systeme, welche die Probenpräparation zur Untersuchung von Proteinen mittels Kryo-TEM vereinfachen, entwickelt werden. Die Ergebnisse sind von wissenschaftlicher Relevanz, da sie die Strukturbestimmung vieler Proteine deutlich vereinfachen und hierdurch beschleunigen können. Außerdem wurden biomimetische Beschichtungen entwickelt, welche entweder Proteinoberflächen oder Biomembranen nachahmen. Die entwickelten Modellsysteme erweitern das Spektrum an Möglichkeiten, Biomoleküle oder biologische Ensembles zu untersuchen.
Generierung CMV-spezifischer T-Zellen aus mononukleären Zellen von CMV-seronegativen Spendern
(2019)
Die positive Entwicklung der adoptiven Zelltherapie zu einer effektiven und sicheren Therapieform ist enorm wichtig für die Behandlung von Patienten mit einer opportunistischen Infektion, wie bspw. mit CMV oder EBV, nach einer Stammzelltransplantation.
Bei (CMV-)seropositiven Spendern besteht die Möglichkeit der Selektion von VST und somit eine Therapieoption für den CMV-Infizierten Empfänger. Aufgrund der nicht vorhandenen VST bei einem negativen Spender, besteht die Option einer Infusion von selektierten VSTs bei einem CMV-infizierten Empfänger nicht. Dies ist ein besonderes Problem bei seropositiven Patienten, die die Stammzellen eines seronegativen Spenders erhalten haben und bei denen die Gefahr einer Reaktivierung des Virus besonders hoch ist.
Um einen möglichen Lösungsansatz hierfür zu finden, wurde in dieser Arbeit versucht Zellen zu generieren, die eine adoptive Zelltherapie bei dem oben genannten Spender/Empfänger-Konstellation ermöglichen.
Der Forschungsansatz dahinter war, aus naiven T-Zellen des seronegativen Spenders, durch Priming mit einem CMV-spezifischen Antigens, in diesem Fall CMV-pp65, VST zu generieren. Um diese herstellen zu können wurden mehrere Versuchsabläufe getestet. Zunächst inkubierte man unmanipulierte PBMCs mit CMV-pp65-geprimten Monozyten in verschiedenen Koinkubation-Ratios. Dies führte nicht zum gewünschten Erfolg.
In dieser Arbeit erfolgte die Selektion der Monozyten via Adhärenzmethode und mittels Microbeads. Da die Monozytenreinheit nachweislich Microbeads-Methode signifikant höher war, als die Reinheit mittels der Adhärenzmethode verließ man diese und arbeitete nur noch mit Microbeads, um ein besseres Verhältnis der Koinkubation zu erzielen.
Um einen möglichen Erfolg zu erzielen wurden in einem nächsten Schritt die selektierten Monozyten zu dendritischen Zellen (DC) weiterentwickelt und wiederum mit unmanipulierten PBMCs inkubiert.
Leider konnten auch mit dieser Herangehensweise keine VST in der Zellkultur nachgewiesen werden. Weiterführend orientierte man sich in dieser Arbeit an einem Protokoll von Wölfl et al46. Hierbei wurden statt unmanipulierten PBMCs, nur CD45RA+ naive T-Zellen aus den PBMCs verwendet, die mit CMV-pp65-geprimten DCs geprimt wurden.
Orientierend an dem Protokoll von Wölfl et al. entwickelten wir einen Versuchsaufbau bestehend aus DC-Generierung, CD45RA+-Zellselektion und Koinkubation der Zellen. Dieses 13-tägige Protokoll wurde bei 5 seronegativen Spendern durchgeführt und zeigte in der FACS Analyse CMV-spezifische T-Zellen.
Der prozentuelle Anteil der VST betrug zwischen 0,33-5,70%.
Somit konnte gezeigt werden, dass es möglich ist VST aus seronegativem Spenderzellen zu generieren und ermöglicht somit Patienten mit seronegativen Stammzellspendern, die an einer CMV-Reaktivierung/Infektion leiden, die Option der adoptiven Zelltherapie, trotz Nichtvorhandenseins von VST im Spenderblut.
Das Strukturgleichungsmodell (SEM) wird in den Sozial- und Verhaltenswissenschaften oft verwendet, um die Beziehung zwischen latenten Variablen zu modellieren. In der Analyse dieser Modelle spielt die Bewertung der Modellgüte eine wesentliche Rolle, wobei geprüft werden soll, ob das untersuchte Modell (Zielmodell) zu den erhobenen Daten passt. Dafür werden verschiedene inferenzstatistische und deskriptive Gütemaße verwendet. In nichtlinearen SEM, in denen nichtlineare Effekte, wie beispielsweise Interaktionseffekte, modelliert werden, gibt es bisher allerdings keine Verfahren, um die Modellgüte ausreichend prüfen zu können. Insbesondere der χexp2-Test ist für verschiedene nichtlineare SEM nicht geeignet (vgl. Klein & Schermelleh-Engel, 2010; Mooijaart & Satorra, 2009).
In dieser Arbeit werden zwei unterschiedliche nichtlineare SEM betrachtet. Das erste dieser Modelle wird für die Analyse von Interaktions- und quadratischen Effekten verwendet (quadratisches SEM, QSEM). Das zweite Modell ist das Heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006). In diesem Modell wird das latente Wachstumskurvenmodell (LGM), mit dem individuelle Wachstumsverläufe modelliert werden können, um eine heterogene Varianzkomponente des Slope-Faktors erweitert. Diese Heterogenität des Slope-Faktors ist abhängig von den Ausgangswerten und Kovariaten.
Ziel dieser Arbeit war es, die Bewertung der Modellgüte für das QSEM und das HGM zu verbessern. Für das QSEM und das HGM wurde jeweils ein globaler Modelltest entwickelt („Quasi-Likelihood-Ratio-Test“; QLRT). Darüber hinaus wurden Differenztests für diese Art der Modelle diskutiert. Außerdem wurde für beide Modelle je ein Gütemaß bereitgestellt, um fehlende Nichtlinearität, wie fehlende nichtlineare Terme bzw. fehlende Heterogenität der Slope-Varianzen, aufdecken zu können (der Homoscedastic Fit Index, HFI, für das QSEM und der hhet-Test für das HGM).
Die Entwicklung der neuen Gütemaße ist im Wesentlichen von der verwendeten Schätzmethode abhängig. Für beide Modelle, das QSEM und das HGM, wurde in dieser Arbeit die Quasi-Maximum-Likelihood-Methode (Quasi-ML-Methode; Wedderburn, 1974) ausgewählt, mit der für beide betrachteten Modelle geeignete Schätzungen erzielt werden können (Klein & Muthén, 2006, 2007). Die Quasi-ML-Methode ist vergleichbar mit der Maximum-Likelihood-Methode, berücksichtigt allerdings Fehlspezifikationen der LogLikelihood-Funktion, wie beispielsweise kleinere Abweichungen von der angenommenen Verteilung. Für das QSEM wurde im Rahmen der Entwicklung der Modelltests eine zur Schätzung von QSEM entwickelte Quasi-ML-Methode (QML-Methode; Klein & Muthén, 2007) vereinfacht zu der „simplified QML“-Methode (sQML-Methode; Büchner & Klein, 2019). Für die sQML-Methode ist es erheblich einfacher als für die QML-Methode einen globalen Modelltest zu entwickeln. In einer Simulationsstudie konnte gezeigt werden, dass die sQML-Methode ähnlich gute Schätzeigenschaften wie die QML-Methode aufweist.
Die Idee der neuen globalen Modelltests für das QSEM und das HGM besteht darin, statt des für das lineare SEM verwendeten χexp2-Tests, der ein Likelihood-Quotienten-Test („Likelihood Ratio Test“, LRT) ist, einen Quasi-LRT (QLRT) zu verwenden, der auf der Quasi-ML-Methode basiert (Büchner & Klein, 2019; Büchner, Klein & Irmer, 2019). Wie für den χexp2-Test soll das Zielmodell mit einem unbeschränkten Vergleichsmodell verglichen werden. Ist der Unterschied zwischen den Modellen groß, wird darauf geschlossen, dass das Zielmodell nicht gut zu den Daten passt. Die Schwierigkeit bei der Entwicklung solcher QLRT liegt dabei in der Definition eines Vergleichsmodells. Die hier verwendete Idee für solche Vergleichsmodelle besteht darin, wie im χexp2-Test, die Beschränkungen durch das Zielmodell im Vergleichsmodell aufzuheben. Eine weitere Herausforderung ist die Bestimmung der asymptotischen Verteilung der QLRT-Statistiken, die nicht, wie viele LRT-Statistiken, asymptotisch χexp2-verteilt sind. Deshalb wurde die korrekte asymptotische Verteilung dieser Teststatistiken bestimmt, die das Ermitteln von p-Werten ermöglicht.
Globale Modelltests sind zwar geeignet, wichtige Aussagen zur Passung des Modells zu machen, ermöglichen aber keine direkte Aussage über den Vergleich zweier konkurrierender Modelle. Ein solcher Modellvergleich ist aber wichtig, um ein möglichst sparsames Modell zu erhalten. Zum Vergleich ineinander geschachtelter Modelle werden häufig Differenztests verwendet. Diese werden auch in der Arbeit mit dem QSEM und dem HGM empfohlen. Allerdings ist zu beachten, dass die Teststatistiken für mit der Quasi-MLMethode geschätzten Modelle nicht χexp2-verteilt sind. Im Rahmen dieser Arbeit wurde eine korrekte asymptotische Verteilung angegeben. Im Speziellen wurde der Differenztest für den Vergleich zwischen einem HGM und einem LGM vorgestellt, mit dem getestet wird, ob die im HGM modellierten heterogenen Slope-Varianzen notwendig sind.
Ein weiteres Ziel bestand darin, fehlende Nichtlinearität, die nicht in einem Modell berücksichtigt ist, aufzudecken. Dafür wurde ein Test für Regressionsmodelle, der hhet-Test (Klein, Gerhard, Büchner, Diestel & Schermelleh-Engel, 2016), angepasst. Für das SEM wurde dieser Test zu einem Fit-Index, dem HFI (Gerhard, Büchner, Klein & SchermellehEngel, 2017), weiterentwickelt und darin die Verteilung der Residuen der abhängigen Variable bewertet. Der HFI deckt dabei Veränderungen in der Verteilung auf, die durch fehlende nichtlineare Terme verursacht sind. Für das LGM wird der hhet-Test verwendet, um fehlende heterogene Entwicklungsverläufe aufzudecken. Es wird die Verteilung der mit dem LGM standardisierten beobachteten Variablen geprüft.
Für alle vorgeschlagenen Gütemaße wurden Simulationsstudien durchgeführt, um ihre Eignung für die Bewertung des QSEMs bzw. des HGMs zu prüfen. Die α-Fehler-Raten waren meistens nahe an dem erstrebten 5%-Niveau. Für den QLRT für das QSEM bei kleinen Stichproben und für den HFI bei komplexeren Modellen waren sie allerdings erhöht. Darüber hinaus zeigten die Tests insgesamt eine gute Teststärke für das Aufdecken von Fehlspezifikationen. Wie in allen statistischen Tests muss dafür die Stichprobengröße ausreichend groß sein. Die praktische Anwendbarkeit der beiden QLRTs, des hhet-Tests und des Differenztests für das HGM wurde anhand von empirischen Beispielen aufgezeigt.