Refine
Year of publication
Document Type
- Doctoral Thesis (3618) (remove)
Language
- German (3618) (remove)
Has Fulltext
- yes (3618) (remove)
Is part of the Bibliography
- no (3618)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (9)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1384)
- Biochemie und Chemie (446)
- Biowissenschaften (408)
- Pharmazie (237)
- Physik (216)
- Biochemie, Chemie und Pharmazie (97)
- Gesellschaftswissenschaften (95)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
Multilevel-Untersuchung des nitrinergen Systems bei affektiven Störungen und schizophrenen Psychosen
(2023)
Das nitrinerge System und damit auch NOx als Neurotransmitter werden mit der Entstehung verschiedener psychischer Erkrankungen in Verbindung gebracht. Die genaue Rolle des Botenstoffs ist jedoch nicht ausreichend geklärt und auch die Frage, ob dieser als diagnostischer oder prädiktiver Biomarker nützlich sein könnte, ist unbeantwortet. In der vorliegenden Arbeit wurde folglich untersucht, ob es Unterschiede zwischen den Diagnosegruppen MDD, BIP, SCZ und der Kontrollgruppe bezüglich peripherer NOx- Konzentrationen gibt. Darüber hinaus wurden Unterschiede innerhalb der Diagnosegruppen im Krankheitsverlauf im Sinne von Phasenunterschieden mittels zweier Messzeitpunkte untersucht und analysiert, ob es Korrelationen mit genetischen Variationen in NOS-Genabschnitten gibt. Insgesamt wurden 185 Probanden in die Studie mitaufgenommen: 52 gesunde CTRL, 43 Patienten mit MDD, 41 Patienten mit BIP und 49 Patienten mit SCZ. Biochemische, genetische und klinische Daten wurden bei Aufnahme und Entlassung in der psychiatrischen Abteilung des Universitätsklinikums Frankfurt erhoben. Klinische Daten, die den Symptomverlauf 90 und die Erkrankungsschwere beurteilten, nutzten dazu standardisierte teilstrukturierte klinische Interviews. Biochemische Daten wurden mittels im Serum gemessener NOx- Spiegel quantifiziert. Bezüglich der Untersuchung der Risikogenvarianten wurden Probanden anhand des NOS1 ex1f-VNTR-Polymorphismus sowie SNPs in den Genen NOS1, NOS3 und NOS1AP genotypisiert. Bei Aufnahme wiesen SCZ-Patienten im Vergleich zu CTRL-, MDD- und BIP-Gruppen signifikant höhere NOx- Konzentrationen auf. Während NOx- Spiegel im Behandlungsverlauf bei MDD- und BIP-Patienten signifikant zunahmen, konnte dies bei SCZ-Patienten nicht beobachtet werden. Weiterhin konnte gezeigt werden, dass Patienten, deren depressive Beschwerden nicht relevant zurückgingen, bei Entlassung signifikant höhere NOx- Konzentrationen aufwiesen, was durch die Beobachtung einer signifikant positiven Korrelation zwischen NOx- Serumspiegeln und depressiven Symptomen bei Entlassung unterstützt wurde. Bei der genetischen Untersuchung der Daten fiel auf, dass homozygote Träger des kurzen VNTR-Allels signifikant erhöhte NOx- Konzentrationen besaßen. Diese Ergebnisse blieben bei jenen Trägern auch nach Entlassung signifikant. Insgesamt gibt es Hinweise darauf, dass erhöhte periphere NOx- Metabolitkonzentrationen mit einer Zunahme der Psychopathologie bzw. der Erkrankungsschwere einhergehen könnten, was möglicherweise auf den NOS1 ex1f-VNRT-Polymorphismus zurückzuführen ist. Außerdem zeigten zwei SNPs, welche beide im NOS1AP-Gen lokalisiert sind, bei BIP Patienten signifikant gesteigerte NOx- Werte. Die vorliegenden Ergebnisse deuten darauf hin, dass NO-Signalübertragung und NOS-Genotypen in der Pathogenese psychischer Erkrankungen eine Rolle spielen könnten. Ob diese Veränderungen allerdings kausal mit Krankheitsprozessen zu tun haben oder ob es eher Epiphänomene der Erkrankungen sind, kann mit dieser Studie nicht geklärt werden. Die Genvarianten könnten wiederum bei der Regulierung von peripheren NOx- Konzentrationen von Bedeutung sein. Die Arbeit liefert zudem Hinweise, die Verwendung von NOx als möglichen peripheren Biomarker weiter zu verfeinern und zu untersuchen. Zukünftige Studien, die die Wirksamkeit von NOx- modulierenden Pharmaka untersuchen, könnten davon profitieren, Diagnosegruppen nach Subgruppen einzuteilen, die sowohl NOS Risikogenvarianten als auch periphere NOx- Spiegel im Sinne eines Biomarker beachten.
Die Ergebnisse der Studie und die Diversität der Datenbanken ist groß.
Für 12 Datenbanken wurde ein Punktesystem mit elf Items entworfen, um die Qualität der einzelnen Datenbanken zu objektivieren. Keine Datenbank konnte alle Bewertungskriterien erfüllen. Der insgesamt schlechte Punktedurchschnitt ist ein Indikator für die Mängel der aktuell verfügbaren Datenbanken. Außerdem konnten wir einen Qualitätsunterschied zwischen kostenpflichtigen und kostenfreien Datenbanken beweisen und mussten im Zuge dieser Ergebnisse die Frage stellen, ob kostenfreie Datenbanken überhaupt nützlich sind. Zwischen den kostenpflichtigen Datenbanken fallen die Qualitätsunterschiede weniger gravierend aus, wenngleich Stärken und Schwächen sich deutlich unterscheiden. Die häufigsten Wechselwirkungen wurden in allen Datenbanken mit großem Abstand zwischen rein psychiatrischen Interaktionspaaren erfasst. Dieses zeigt, wie wechselwirkungsreich Psychopharmaka sind und dass psychiatrische Patienten besonders vulnerabel sind. Die Nutzung digitaler Hilfsmittel scheint bei Betrachtung der hohen Anzahl ausgegebener Warnmeldungen unabdingbar zu sein, dennoch existiert große Uneinheitlichkeit bei der Bewertung der einzelnen Interaktionen. Die Vorstellung, dass zwei Kliniker bei Nutzung zweier unterschiedlicher Datenbanken zu völlig unterschiedlichen Empfehlungen kommen, fällt nicht schwer. Gleichzeitig könnte die Kooperation von Heilberuflern, die unterschiedliche Datenbanken verwenden, die Chance auf zusätzlichen Informationsgewinn und Austausch erhöhen, was im Umkehrschluss in einer erhöhten Arzneimitteltherapiesicherheit resultiert. In Studien konnte der positive Effekt interdisziplinärer Zusammenarbeit bereits bewiesen werden.
Zusammenfassend konnten umfangreiche Differenzen zwischen allen untersuchten Datenbanken aufgezeigt werden. Um den Anforderungen des klinischen Alltags zu genügen, müssen digitale Unterstützungssysteme weiterentwickelt werden.
Die „ideale Datenbank“ gibt es bisher nicht – das lässt sich durch unser Punktesystem beweisen. Um im klinischen Alltag Patientensicherheit zu gewährleisten ist die Nutzung einer einzelnen Datenbank bisher nicht ausreichend.
Die Gewährung der Patientensicherheit sollte unser oberstes Ziel sein und um dieses zu erreichen, bedarf es vieler Komponenten. Neben der Nutzung und vor allem Weiterentwicklung digitaler Unterstützungssysteme sollte auch der zwischenmenschliche Austausch weiter gefördert werden. Interdisziplinäre Zusammenarbeit im Sinne pharmazeutischer Dienstleistungen zur Medikationsanalyse könnten ein zusätzliches Instrument zur Vermeidung arzneimittelbezogener Probleme werden.
Zukünftig werden unsere Patienten am meisten von optimaler Nutzung weiterentwickelter Technologien, sowie wachsendem zwischenmenschlichem Austausch profitieren.
Das Hepatoblastom ist ein embryonaler Lebertumor, dessen Zellen unterschiedliche unreife Stadien aufweisen. Aufgrund dieser Unreife ist die Identifizierung von Krebsstammzellen erschwert, die in diesem Tumor vermutet und für Rückfälle verantwortlich gemacht werden. In Vorarbeiten konnte eine Krebsstammzellpopulation mit der Kombination der hämatopoetischen Stammzellmarker CD90 und CD34 sowie dem „oval cell“ OV-6-Antikörper in den etablierten Hepatoblastomzelllinien HuH6 und HepG2 detektiert werden. Diese CD34+OV-6+CD90+ Zellen wiesen eine erhöhte Expression von Pluripotenzfaktoren auf und zeichneten sich durch ein erhöhtes Migrationsverhalten aus.
In der hier vorgelegten Arbeit wurden zunächst Tumor-Sphäroid-Assays durchgeführt um diese Population als Krebsstammzellen zu bestätigen, da nur Krebsstammzellen unter den gegebenen Umständen wachsen können. Diese waren im Anschluss wieder in der Lage, in „normalem Medium“ zu differenzieren. Des Weiteren wurden die Zelllinien mit dem Standardtherapeutikum Cisplatin behandelt. Da Krebsstammzellen als chemoresistent gelten, konnte in der überlebenden Zellpopulation auch eine Anreicherung der CD34+OV-6+CD90+ Zellen beobachtet werden. Zusätzlich ließ sich eine weitere CD34+OV-6+CD90+ Population identifizieren, deren Expression aller drei Marker schwächer war und die bei steigenden Cisplatin-Konzentrationen den Großteil der CD34+OV-6+CD90+ Population ausmachte.
Neben den erhöhten Transkriptmengen der Pluripotenzmarker Oct4 und Nanog zeichneten sich die CD34+OV-6+CD90+ Krebsstammzellen durch eine verstärkte Expression der aktivierungsinduzierten Zytidin-Desaminase AID aus. AID wirkt induzierend auf die Transkription beider Pluripotenzmarker. Daher könnte es auch bei Krebsstammzellen eine Rolle bei der Induktion von Pluripotenz und bei ihrer langfristigen Erhaltung spielen. Dies unterstützend legten die verminderten Transkriptmengen der Pluripotenzgene nach einem AID siRNA Knock-Down eine Abhängigkeit des Stammzellcharakters von diesem Faktor nahe. Um einen Effekt von Therapeutika, die inhibitorisch auf AID wirken, auf Krebsstammzellen zu untersuchen, wurden die Zellen mit den DNMT-Inhibitoren Decitabine und Zebularine sowie dem HSP90-Inhibitor Tanespimycin behandelt. Tatsächlich konnte vor allem in den HuH6-Zellen ein verminderter Anteil der Krebsstammzellpopulation durch die drei Substanzen beobachtet werden. Wurden die Zellen im Anschluss mit dem Standardzytostatikum Cisplatin behandelt, führte allerdings eine Vorbehandlung mit Zebularine oder Decitabine zu einer starken Anreicherung von Krebsstammzellen. Dies war vor allem auf Zellen mit dem schwach positiven CD34+OV-6+CD90+ Expressionsprofil zurückzuführen, die chemo-induziert zu sein scheinen. Zwar erscheint die Mehrheit der Tumorzellen eliminiert zu werden, jedoch lassen diese Ergebnisse die Entstehung von chemo-induzierten Krebsstammzellen vermuten, die langfristig für einen Rückfall verantwortlich sein könnten. Daher ist von einer Ergänzung der Therapie mit diesen Substanzen abzusehen. Eine Vorbehandlung mit Tanespimycin hingegen konnte im Vergleich zur alleinigen Cisplatin-Behandlung wirksam den Anteil der Krebsstammzellen reduzieren. Interessanterweise war dies nicht auf einen verstärkten Zelltod der Krebsstammzellen, sondern vielmehr auf eine durch Tanespimycin bewirkte Differenzierung derselben zurückzuführen. Diese spiegelte sich auch in einer verminderten Expression von Pluripotenzmarkern auf mRNA-Ebene im Vergleich zur alleinigen Cisplatin-Behandlung wider.
Somit präsentierte sich Tanespimycin als potenter Inhibitor von Krebsstammzellen. Auch wenn weitere vorklinische und klinische Tests und Untersuchungen erfolgen müssen, stellt Tanespimycin bzw. die Substanzklasse der HSP90-Inhibitoren einen interessanten und vielversprechenden Kandidaten für eine Ergänzung der Standardtherapie vor allem bei behandlungsresistenten und rekurrenten High-Risk-Hepatoblastomen dar.
Im Fokus der vorliegenden Arbeit stand die Fragestellung, inwieweit ORF10 von B. recurrentis, dem Erreger des Läuserückfallfiebers, mit verschiedenen Komplementkomponenten interagieren kann.
Mit funktionellen Komplementtests konnte gezeigt werden, dass ORF10 den klassischen, den alternativen sowie den Lektin-Weg inhibiert, wobei sich die stärkste Inhibition gegenüber dem alternativen Weg manifestierte. Darüber hinaus ließ sich in einem Zell-basierten Hämolyse-Assay eine Inhibition des terminalen Komplementweges durch ORF10 nachweisen.
Die durchgeführten Bindungsanalysen mit verschiedenen Komplementkomponenten führten zu dem Ergebnis, dass ORF10 mit C1q, C1s, C3, C3b, C4b und C5 interagiert und diese Protein-Protein-Interaktion mit den Komplementkomponenten C1q, C3, C3b und C4b durch einen dosisabhängigen Verlauf charakterisiert ist. Eine Bindung von C1r, C2, C4, FB, FH sowie FI konnte jedoch nicht nachgewiesen werden.
Auf Basis der modellierten Struktur von ORF10 wurden mithilfe der In-vitro-Mutagenese drei verschiedene Varianten generiert, die jedoch nicht affinitätschromatographisch aus E. coli-Zelllysaten isoliert werden konnten und deshalb nicht für weiterführende funktionelle Analysen zur Verfügung standen.
Die Ergebnisse der Serumbakterizidie-Tests mit einem „gain of function“-Borrelienstamm, welcher ORF10 heterolog produzieren sollte, ergaben, dass keine erhöhte Resistenz gegenüber Humanserum nachgewiesen werden konnte. Inwieweit ORF10 bei der intrinsischen Serumresistenz von B. recurrentis beteiligt ist, lässt sich abschließend nicht vollumfänglich erklären.
Weltweit gibt es laut WHO ca. 58 Millionen Menschen mit einer chronischen Hepatitis-C-Virus (HCV) Infektion und jährlich stecken sich ca. 1,5 Millionen Menschen neu mit diesem Virus an (Stand 2019). Da die Folge einer chronischen Hepatitis-C-Virus Infektion eine potenziell tödlich verlaufende Leberzirrhose oder die Entwicklung eines Hepatozellulären Karzinoms sein können, ist eine frühe Diagnose und eine adäquate Therapie eine wichtige Aufgabe in der Medizin.
Die bisherige Therapie erfolgte mittels pegyliertem Interferon und Ribavirin und seit einigen Jahren auch interferonfrei mittels Direkter Antiviraler Agenzien (DAA). Vor allem beim älteren Therapieregime konnten viele Nebenwirkungen und häufiger auch ein Therapieversagen auftreten, sodass ein leicht zu gewinnender Biomarker nützlich wäre, der die Patienten mit Therapieversagen frühzeitig und im besten Fall sogar vor Therapiebeginn detektieren kann.
In der vorliegenden Arbeit wurden die Spiegel von extrazellulär im Blut zirkulierender, leberspezifischer microRNA miR-122 auf Eigenschaften als solche potenzielle Biomarker untersucht. Dazu wurden die Patientenseren von insgesamt 60 Patienten mit chronischer Hepatitis-C-Virus Infektion analysiert, die mittels pegyliertem Interferon und Ribavirin behandelt wurden. Vor, während und nach der Therapie wurden verschiedene Laborparameter sowie die miR 122 in den Patientenseren bestimmt. 20 dieser Patienten zeigten ein dauerhaftes Ansprechen auf die Therapie (sustained virological response = SVR), 20 zeigten nach einem initialen Therapieansprechen ein Rückfall der Erkrankung (Relapse) und 20 Patienten sprachen gar nicht auf die Therapie an (Non-Responder = NR).
Zunächst wurden die sogenannten Baseline-Charakteristika der Patienten vor Therapiebeginn untersucht. Dabei konnten wir jedoch keinen Unterschied zwischen den Patientengruppen hinsichtlich der Alanin-Aminotransferase (ALT) und Aspartat-Aminotransferase (AST), zwei Laborparameter zur Bestimmung einer Leberschädigung, sowie der HCV-RNA, ein Parameter zur Bestimmung der Viruslast bei Patienten mit einer HCV-Infektion, feststellen.
Auch die miR-122-Spiegel zeigten vor Therapiebeginn keinen signifikanten Unterschied zwischen den drei Patientengruppen. Daraus wurde geschlossen, dass man die miR-122 vor Therapiebeginn nicht als prognostischen Marker für einen Therapieerfolg verwenden kann.
Beim Vergleich der miR-122-Spiegel mit den Laborparametern konnte eine signifikante Korrelation zwischen der miR-122 und der ALT, AST und der Gamma-Glutamyl-Transferase (GGT) festgestellt werden. Die miR-122 scheint somit ähnlich wie die anderen Laborparameter eine Leberzellschädigung widerzuspiegeln.
Nach dem Therapiebeginn konnte bereits ab Woche 4 ein signifikanter Unterschied zwischen den SVR und Non-Respondern sowie zwischen den Relapsepatienten und den Non-Respondern festgestellt werden. Jedoch war der Unterschied zwischen den SVR und den Relapse-Patienten nicht signifikant, sodass man weiterhin keine Unterscheidung dieser beiden Patientengruppen machen konnte.
Auch die ALT- und HCV-RNA-Spiegel zeigten einen ähnlichen Verlauf. In den Gruppen der SVR und Relapse-Patienten zeigte sich im Laufe der Therapie ein Rückgang der Parameter wohingegen die Gruppe der Non-Responder keine signifikante Dynamik aufwies.
Zum Schluss wurden die miR-122-Spiegel 12 bzw. 24 Wochen nach Therapieende bestimmt, dem sogenannten Zeitpunkt des Follow-Up bei dem der Therapieerfolg laut Leitlinie mit Hilfe der HCV-RNA-Messung bestimmt wird. Dabei konnte ein signifikanter Unterschied zwischen den miR-122-Spiegeln bei den SVR-Patienten und den anderen beiden Patientengruppen festgestellt werden.
In Zusammenschau dieser Ergebnisse kann man sagen, dass die miR-122 gut geeignet ist um ähnlich wie die HCV-RNA den Therapieverlauf widerzuspiegeln. Als prognostischer Parameter bzw. Biomarker für ein Therapieansprechen ist sie jedoch nicht geeignet, da keine Unterscheidung zwischen den einzelnen Patientengruppen vor Therapiebeginn möglich ist und während der Therapie lediglich die Non-Responder und nicht die Relapse-Patienten detektiert werden können.
Im Rahmen dieser publikationsbasierten Dissertation wurden drei wissenschaftliche Arbeiten veröffentlicht. Als Erstautorenschaft wurde 2022 die Arbeit “Effectiveness of High-intensity Focused Ultrasound (HIFU) Therapy of Solid and Complex Benign Thyroid Nodules - A Long-term Follow up Two-center Study.” im Journal “Experimental and Clinical Endocrinology & Diabetes” veröffentlicht. Im Folgenden wird der Inhalt dieser Arbeit dargelegt. Ein kurzer Überblick über die Ergebnisse der anderen beiden mitpublizierten Arbeiten findet sich im Kapitel „Weitere Ergebnisse der Arbeitsgruppe“.
Durch die hohe Prävalenz benigner Schilddrüsenknoten sind deren Behandlungsalternativen von großem wissenschaftlichem Interesse. Dabei bildet die nebenwirkungsarme, minimalinvasive Thermoablation mittels high-intensity focused ultrasound (HIFU) eine attraktive Alternative zu herkömmlichen Verfahren wie der Schilddrüsenchirurgie oder der Radioiodtherapie. Bei der HIFU-Echotherapie werden die Schilddrüsenknoten auf 80 - 90 Grad Celsius erhitzt, sodass eine irreversible Koagulationsnekrose entsteht. Um den Therapieprozess und die Indikationsstellung von HIFU bei benignen Schilddrüsenknoten zu optimieren, ist es notwendig, genaue Studien durchzuführen.
Ziel der vorliegenden bizentrischen Langzeitstudie war, die Effektivität von HIFU-Echotherapien bei benignen Schilddrüsenknoten zu evaluieren und erstmalig den Einfluss der Knotenmorphologie auf den Therapieerfolg zu untersuchen. Vor der Therapie und in regelmäßigen Intervallen nach der Therapie wurden die Größe und die Morphologie der Schilddrüsenknoten mittels Ultraschall dokumentiert. In der retrospektiven Studie wurden Daten von 58 Patienten ausgewertet. Dabei wurde die Gesamtpopulation in eine Gruppe mit soliden und in eine Gruppe mit komplexen Knoten eingeteilt. Die durchschnittliche prozentuale Volumenreduktion in jeder Gruppe wurde mit dem Wilcoxon-Signed-Rank Test statistisch analysiert.
Die Gesamtpopulation zeigte eine Volumenreduktion der zuvor abladierten Knoten von 38.86 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p < 0.0001, n = 25), 42.7 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p < 0.0001, n = 18), 62.21 % nach 9 Monaten (Spannweite: 12.88 % - 93.2 %, p = 0.0078, n = 8) und 61.42 % nach 12 Monaten (Spannweite: 39.39 % - 93.2 %, p > 0.05, n = 4). Die soliden Knoten hatten eine Volumenreduktion von 49.98 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p = 0.0001, n = 15), 46.40 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p = 0.001, n = 11), 65.77 % nach 9 Monaten (Spannweite: 39.39 % - 93.2 %, p = 0.0156, n = 7) und 63.88 % nach 12 Monaten (Spannweite: 39.39 % - 93.2%, p > 0.05, n = 2). Komplexe Knoten hatten eine Volumenreduktion von 35.2 % nach 3 Monaten (Spannweite: 5.85 % - 68.63 %, p = 0.002, n = 10), 36.89 % nach 6 Monaten (Spannweite: 12.23 % - 68.63 %, p = 0.0156, n = 7) und 63.64 % nach 12 Monaten (Spannweite: 52,38 % - 73.91 %, p > 0.05, n = 2).
In der vorliegenden bizentrischen Langzeitstudie wurde deutlich, dass HIFU-Echotherapie eine effektive Behandlungsoption benigner Schilddrüsenknoten ist. Erstmalig gezeigt wurde der Trend, dass solide Knoten besser auf HIFU-Echotherapie ansprechen als komplexe Knoten.
Anhand der gewonnenen Ergebnisse und der neuen Erkenntnisse zum Einfluss der Knotenmorphologie auf die HIFU-Echotherapie benigner Schilddrüsenknoten kann HIFU als Therapieoption besser bewertet werden. Eine differenziertere Indikationsstellung in Bezug auf solide und komplexe Knoten wird ermöglicht und die HIFU-Echotherapie kann gegen andere thermoablative Verfahren abgewogen werden.
Die vorliegende Dissertation bietet eine eingehende Analyse der Entstehung und Evolution der rechtlichen Rahmenbedingungen der Arbeitnehmerüberlassung in der Volksrepublik China. Ursprünglich in den 1980er Jahren als Instrument zur Reduzierung der Arbeitslosigkeit eingeführt, hat sich die Funktion der Arbeitnehmerüberlassung im Laufe der Zeit gewandelt. Diese Entwicklung wird in der Arbeit sorgfältig nachgezeichnet.
Die Studie skizziert die legislative Entwicklung von der anfänglichen Konzeption bis zur formellen Legalisierung im Jahr 2007 und untersucht die geltenden gesetzlichen Bestimmungen zur Arbeitnehmerüberlassung. Dabei werden die spezifischen Aspekte der chinesischen Gesetzgebung herausgestellt, bei der die Arbeitnehmerüberlassung vornehmlich als komplementäre Beschäftigungsform angesehen wird. Die Arbeit beleuchtet die Rechte und Pflichten aller Akteure. Obwohl nicht umfassend rechtsvergleichend angelegt, wird doch immer wieder ein Blick auf die Rechtslage in Deutschland geworfen, sodass die unterschiedlichen regulatorischen Ansätze deutlich hervortreten. Zugleich werden die besonderen Herausforderungen behandelt, denen diese Beschäftigungsform im chinesischen Kontext begegnet.
"Mir ist so digk vor gesait" : Studien zur erzählerischen Gestaltung des "Meleranz" von dem Pleier
(2024)
In der germanistischen Mediävistik richtet sich das Forschungsinteresse vornehmlich auf die höfische Literatur und dabei insbesondere auf die frühen und späten Artusromane. Vor allem die Werke von Hartmann von Aue und Wolfram von Eschenbach sind zentrale Forschungsobjekte, während Texte wie Pleiers ‚Meleranz‘ bisher nur begrenzt Beachtung fanden.
Die Forschungslücke, die die vorliegende Arbeit adressiert, liegt in der detaillierten Analyse der spezifischen Erzähltechniken des pleierschen Textes, die sich sowohl durch die Verwendung traditioneller arthurischer Motive als auch durch innovative narrative Ansätze auszeichnen. Ausgehend von dem Befund eines stark zurückgenommenen Erzählers wird untersucht, welche narrativen Strategien und Verfahren der Pleier im ‚Meleranz‘ anwendet, um trotz dieser Abkehr von der implizierten poetischen Regelhaftigkeit einer dominanten Erzählerfigur das Erzählen vom Ritter ‚Meleranz‘ gelingen und zugleich an einigen Stellen ausgesprochen konventionell wirken zu lassen.
Um aufzudecken, wie der Text ohne die Stimme eines deutlich hervortretenden Erzählers vermittelt wird, nutze ich im Verlauf der Arbeit eine Typologie der Stoffvermittlung durch (arthurische) Erzähler. In den Einzelstudien zum ‚Meleranz‘ werden seine Motive, Erzählmuster und Figurenkonstellationen in einem close reading erarbeitet und mit der Typologie abgeglichen, um bestimmen zu können, welche Vermittlungsformen im pleierschen Text genutzt werden. Mit Hilfe dieses Vergleichs kann das Erzählverfahren im ‚Meleranz‘ extrapoliert und gleichzeitig offengelegt werden. Mittels dieses Vorgehens wird verdeutlicht werden, dass es sich beim ‚Meleranz‘ um einen Text handelt, der arthurische Konventionen lediglich anders inszeniert, um die vermittelnde Funktion der Stimme des Erzählers zu substituieren oder ihr Fehler auszugleichen.
Therapierefraktärer Schmerz ist ein weit verbreitetes, äußerst belastendes Leitsymptom rheumatischer Erkrankungen. Viele Betroffene weichen daher bei Versagen der Standardmedikation selbstständig auf Cannabis oder die strukturell verwandte Substanz Palmitoylethanolamid (PEA) als Add-On- oder Alternativtherapie aus, obwohl dies in Deutschland bisher nur eingeschränkt zulässig ist. Die deutsche Gesetzgebung ist diesbezüglich nicht eindeutig, weshalb Ärzt:innen in ihrer Entscheidung, Cannabis zu verschreiben, auf Leitlinien, Fallberichte und Expert:innenmeinungen zurückgreifen müssen. Dies führt zu schwierigen Einzelfallentscheidungen, da sich die derzeitige Datenlage zu Cannabis-based Medicine (CBM) bzw. PEA und Rheuma als mangelhaft darstellt und die Leitlinien dementsprechend keine klaren Empfehlungen enthalten. Ziel der vorliegenden Arbeit ist es, die vorhandene Evidenz zusammenzufassen, zu ordnen und anhand der Hill-Kriterien den möglichen kausalen Zusammenhang zwischen der Einnahme von CBM bzw. PEA und der analgetischen Wirkung bei Rheumaschmerzen zu prüfen.
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.
Das Heidelberger Ionenstrahl-Therapiezentrum (HIT) stellt Protonen-, Helium- und Kohlenstoff-Ionenstrahlen unterschiedlicher Energie und Intensität für die Krebsbehandlung und Sauerstoff-Ionenstrahlen für Experimente zur Verfügung. Der hierfür verwendete Beschleuniger ist darüber hinaus in der Lage auch Ionenstrahlintensitäten unterhalb der für Therapien verwendeten bereitzustellen. Allerdings ist das derzeit installierte Strahldiagnosesystems nicht in der Lage, das Strahlprofil bei solchen geringen Intensitäten (< 10^5 Ionen/s) zu messen. Dabei existieren mögliche medizinische Anwendung für diese niederintensiven Ionen-strahlen, wie beispielsweise eine neuartige und potentiell klinisch vorteilhafte Bildgebung: die Ionenradiographie. Eine essentielle Voraussetzung für diese und andere Anwendungen ist ein System zur Überwachung von Ionenstrahlen niedriger Intensität. Ein solches System wurde im Rahmen dieser Arbeit konzipiert, realisiert, getestet und optimiert.
Das Funktionsprinzip basiert auf szintillierenden Fasern, insbesondere solchen mit erhöhter Strahlungshärte für die Möglichkeit einer dauerhaften Platzierung im Therapiestrahl. Ein diese Fasern durchlaufendes Ion regt den darin enthaltenen Szintillator durch Stoßprozesse kurzzeitig an. Die dabei deponierte Energie wird anschließend in Form von Photonen wieder emittiert. Silizium-Photomultiplier sind an den Enden der Fasern montiert und wandeln die Photonensignale in verstärkte elektrische Impulse um. Diese Impulse werden von einer neuartigen und dedizierten Ausleseelektronik aufgezeichnet und verarbeitet. Ein Prototypaufbau, bestehend aus den genannten Teilen, wurde im Strahl getestet und kann das transversale Strahlprofil erfolgreich im Intensitätsbereich von 10^7 Ionen/s bis hinunter zu 10^2 Ionen/s aufzeichnen. Darüber hinaus konnte, durch die erfolgreiche Ankunftszeitmessung von einzelnen Ionen bis zu Intensitäten von 5*10^4 Ionen/s, ein Machbarkeitsnachweis für die Messung der Spur von einzelnen Teilchen erbracht werden.
Die Verwendung von Photoschaltern zur gezielten Kontrolle von Systemen birgt ein hohes Potential hinsichtlich biologischer Fragestellungen, bis hin zu optoelektronischen Anwendungen. Infolge einer Photoanregung kommt es zu Geometrieänderungen, die einen erheblichen Einfluss auf ihr photophysikalisches Verhalten haben. Die Änderungen der photochemischen, wie photophysikalischen Eigenschaften, beruht entweder auf der Isomerisierung von Doppelbindungen oder auf perizyklischen Reaktionen. Durch sorgfältige Modifikationen, wie beispielsweise die Änderung der Konjugation durch unterschiedlich große π-Elektronensysteme, der Molekülgeometrie oder der Veränderung des Dipolmoments, lassen sich intrinsische Funktionen variieren.
Die Kombination dieser Eigenschaften stellt eine komplexe Herausforderung dar, da diese Änderungen einen direkten Einfluss auf wichtige Charakteristika wie die Adressierbarkeit, die Effizienz und die Stabilität der Moleküle haben. Darüber hinaus spielt die thermische Stabilität eine erhebliche Rolle im Hinblick auf die Speicherung von Energie oder Informationen für Anwendungsbereiche in der Energiegewinnung und Datenverarbeitung.
Für die Anwendung solcher photochromen Moleküle ist hinsichtlich der oben genannten Eigenschaften auch das Wissen über den photoinduzierten Reaktionsmechanismus unabdingbar.
Im Rahmen dieser Arbeit wurde der Einfluss auf die Isomerisierungsdynamik organischer Photoschalter durch unterschiedliche Modifikationen mittels stationärer und zeitaufgelöster Spektroskopie untersucht. Im Bereich der Merocyanine konnte ein Derivat vorgestellt werden, das ausschließlich zwischen zwei MC-Formen (trans/cis) isomerisiert. Die interne Methylierung am Phenolatsauerstoff der Chromeneinheit verhindert die Ringschlussreaktion zum SP und somit seinen zwitterionischen Charakter. Die stabilen Grundzustandsisomere TTT und CCT weisen durch den Methylsubstituenten eine hypsochrome Verschiebung ihrer Absorptionsmaxima auf, während TTT das thermodynamisch stabilste Isomer darstellt. Das MeMC wies eine erstaunlich hohe Effizienz seiner Schaltamplituden, insbesondere der TTT → CCT Photoisomerisierung auf, sowie eine überaus hohe Quantenausbeute.
Das MeMC wies zudem eine signifikante Lösungsmittelabhängigkeit auf, die sich insbesondere in der Photostabilität bemerkbar macht. Während das MeMC in MeCN und EtOH photodegradiert, konnte in EtOH/H2O eine konstante Reliabilität festgestellt werden. Diese Zuverlässigkeit impliziert nicht nur eine Stabilisierung durch das Wasser, sondern auch eine Resistenz gegenüber Hydrolysereaktionen. Darüber hinaus konnten kinetische Studien eine hohe thermische Rückkonversion von CCT zu TTT bei Raumtemperatur nachweisen, womit auf schädliche UV-Bestrahlung verzichtet werden könnte.
Die Untersuchung der Kurzzeitdynamiken beider Grundzustandsisomere gab Aufschluss über die Beteiligung anderer möglicher MC-Intermediate und den Einfluss der Methylgruppe auf das System. Mittels quantenchemischer Berechnungen konnte eine erste Initiierung um die zentrale Doppelbindung beider Isomere bestimmt werden, die jeweils zu einem heißen Grundzustandsintermediat führt, bis nach einer zweiten Isomerisierung der endgültige Grundzustand der Photoprodukte populiert wird. Dies bedeutet, dass die trans/cis-Isomerisierung über TTT-TCT-CCT und die Rückkonversion über CCT-CTT-TTT erfolgt.
Im Bereich der Hydrazon-Photoschalter konnten unterschiedlich substituierte Derivate mittels statischer und zeitaufgelösten UV/Vis-Studien untersucht werden. Da ESIPT Prozesse eine wichtige Funktion bei der Kontrolle von biologischen Systemen spielen, wurden verschiedene Hydrazonderivate hinsichtlich ihrer Reaktionsmechanismen untersucht. Als Rotoreinheit diente zum einen eine Benzothiazolkomponente, die die interne H-Bindung des angeregten Z-Hydrazons schwächen sollte und zum anderen wurde ein Chinolinsubstituent eingesetzt, der als Elektronenakzeptor diente und den H-Transfer begünstigt. Der Einsatz der Benzothiazolkomponente bewirkte die gewünschte Vergrößerung der bathochromen Verschiebung des E-Isomers, sowie eine deutliche Erhöhung der thermischen Stabilität des metastabilen
Zustands. Dies bestätigten die zeitaufgelösten Studien der Z zu E Isomerisierung, bei denen die Isomere im Vergleich zum Chinolinhydrazonderivat, in beiden ausgewählten Lösungsmitteln metastabile Z-Intermediate zeigten und eine Lebenszeit bis in den µs-Zeitbereich aufwiesen. Die Rückreaktion beider Derivate (HCN) und (HBN) hingegen zeigte eine barrierelose Umwandlung in die beteiligten Photoprodukte. Trotz der Verwendung des Chinolinsubstituenten zusammen mit Naphthalin als Rotoreinheit (HCN), konnte kein ESIPT Prozess beobachtet werden. HCB mit einer Kombination aus einem Chinolinrotor und eines Benzothiazolsubstituenten, wies eine Hydrazon-Azobenzol-Tautomerie auf, die ein prototropes Gleichgewicht zwischen dem E-Hydrazon und der E-Azobenzolform (E-AB) ausbildete. Die Reaktionsdynamiken des Z-Hydrazons zum E-AB wiesen eine ultraschnelle Bildung des Photoproduktes auf, während die Rückreaktion über einen ESIPT im sub-ps-Bereich erfolgte. Dieser H-Transfer hat die Bildung des angeregten E-Hydrazons zur Folge. Interessanterweise wurde kein Rückprotonentransfer nachgewiesen, sondern die mögliche Formation eines Z-AB gefunden. Damit unterscheidet sich dieser Reaktionsmechanismus erheblich von den typischen ESIPT Prozessen, die normalerweise zu ihrem Ausgangsmolekül zurückrelaxieren. Des Weiteren konnte ein Pyridinoxid und Benzoylpyridin-substituiertes Hydrazon charakterisiert werden, bei denen die stationären Studien kein Schaltverhalten, sondern Photodegradation aufwiesen. Die zeitaufgelösten Daten ergaben ebenfalls keine Photoproduktbildung, was die These der Photozersetzung unterstützt. Die Verwendung von zusätzlich substituierten Rotoreinheiten, wie beispielsweise Pyridinoxid und Benzoylpyridin, die aufgrund fehlender Protonenakzeptormöglichkeit keine interne H-Bindung ausbilden, erlaubt keine Bildung des Z-Hydrazon Isomers.
Der Dialog ist für die einen das Versprechen gelingender Kommunikation, für die anderen ein überholtes Ideal. Marten Weise zeigt in einer interdisziplinär angelegten Studie, dass sich die Lücke zwischen Lobpreisungen und Abgesängen schließen lässt. Er setzt bei der Unmöglichkeit des Denkens "nach der Shoah" an und erkundet in exemplarischen Untersuchungen der europäischen Literatur-, Theater- und Theoriegeschichte die Spannungen und Widersprüche im Verhältnis zum "Anderen", ohne die der Dialog nicht zu greifen ist. So macht er zwischenmenschliche, soziale und politische Vorgänge als prinzipiell unabschließbares Sprachgeschehen fassbar und eröffnet einen Spielraum für die Aushandlung und das Aushalten von Dissens und Differenz.
Diese Arbeit hatte das Ziel, die Größe einer DVT-Aufnahme (FOV) mit der Größe der durch die Indikationsstellung definierten Region (ROI) zu vergleichen. Durch eine speziell dafür entwickelte Software sollten Messungen in den Datensätzen ermöglicht werden. Die dazu verwendeten 332 Datensätze wurden zufallsverteilt aus den mit einem Orthophos SL-3D DVT-Gerät der Firma Dentsply Sirona in der Poliklinik für zahnärztliche Chirurgie und Implantologie des ZZMK (Carolinum) in Frankfurt angefertigten Röntgenaufnahmen selektiert.
Es wurde die Auswertungssoftware ExRoi entwickelt, mit der die Werte des axialen Durchmessers, die Höhe (vertikale Dimension) sowie die Distanz der Mittelpunkte von FOV und ROI direkt in den Datensätzen bestimmt werden konnten. Zusätzlich wurde festgehalten, welche rechtfertigenden Indikationen gestellt und welche Auflösungsmodi verwendet wurden.
Die Stichprobe bestand aus Aufnahmen mit einem axialen Durchmesser von 8 cm [VOL 1] (n= 76, entsprechend 46,39%), 5 cm Durchmesser [VOL 2] (n = 102, entsprechend 30,72%) und 11 cm Durchmesser [VOL 3] (n= 154, entsprechend 22,89%). 95,18% der Aufnahmen wurden im HD-Modus mit laut Herstellerangaben vier Mal so vielen Aufnahmen im Vergleich zum SD-Modus angefertigt. Hauptindikationen waren Implantat Planung (45,1%) und Planungen komplizierter Zahn-Extraktionen (25,5%).
Die Messungen zum Vergleich des axialen Durchmessers zeigten, dass bei Verwendung des VOL 2 die ROI im Mittel den größten Anteil der FOV nutzt (78,52 %), den kleinsten Anteil nutzt durchschnittlich VOL 1 (56,04 %). Dazwischen liegt VOL 3 (69,12 %). In der Vertikalen nutzt die ROI von VOL 3 mittelwertig den größten Anteil der FOV (81,87 %), den kleinsten Mittelwert hat VOL 1 (58,76 %). VOL 2 liegt zwischen diesen Werten (64,47 %).
In allen Fällen war das FOV größer als die ROI und die ROI lag im Bereich des gewählten FOV.
Die Mittelpunkte von FOV und ROI lagen im Mittel in der axialen Ebene in Abhängigkeit vom gewählten Volumen um rund 9-13 mm auseinander, in der coronalen und sagittalen Ebene um rund 5-6mm.
Aus diesen Ergebnissen kann für das verwendete Gerät eine gute Trefferquote für die ROI abgeleitet werden. Höhe und Durchmesser des FOV hätten in den meisten Fällen kleiner gewählt werden können, liegen aber angesichts der vorhandenen Auswahl-Optionen des Röntgengeräts zur Dimensionierung der Volumina in einem akzeptablen Bereich.
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Raumkonstruktionen, die über Handlung und Bedeutungszuschreibungen im Kontext sozialer Medien entstehen, sind ein Fallbeispiel dafür, wie vor dem Hintergrund von Digitalität Fachinhalte re-innoviert werden müssen. Mit dem Ziel eines Beitrags zur Konzeption professionellen Lehrkräftewissens im Kontext von Digitalität werden, ausgehend von der Fragestellung, welche professionellen Fähigkeiten Lehrkräfte benötigen, um Raumkonstruktionen im Unterricht zu thematisieren, in dieser kumulativen Dissertation Raumkonstruktionen aus normativer und empirischer Perspektive als exemplarischer geographischer Fachinhalt adressiert.
Als theoretischer Rahmen dient dabei das TPACK Modell von Mishra & Koehler (2006), das professionelles Lehrkräftewissen in die Bereiche fachliches, pädagogisches und technologisches Wissen sowie deren Überschneidungsbereiche einteilt. Zunächst erfolgt eine Anwendung des Modells als Reflexionsperspektive auf Fachinhalte zur Erzeugung normativer Fähigkeitsbeschreibungen. Diese Fähigkeitsbeschreibungen fließen in die Entwicklung eines TPACK-Selbsteinschätzungsfragebogens für Lehramtsstudierende der Geographie ein. Im Rahmen der damit durchgeführten Studie (n= 364) zeigen sich auf deskriptiver Ebene vergleichsweise niedrige Selbsteinschätzungen der Bereiche inhaltlichen und fachdidaktischen Wissens. Durch die Anwendung einer konfirmatorischen Faktorenanalyse kann das TPACK Modell als zufriedenstellend für die Beschreibung der Daten identifiziert werden. Auffällig ist allerdings die niedrige Korrelation des Konstrukts technologischen Wissens mit den angrenzenden Wissensbereichen. In Bezug auf die Selbsteinschätzungen im phasen- und kontextübergreifenden Vergleich lässt sich, ausgehend von linearen Regressionsanalysen, eine tendenzielle Zunahme der selbsteingeschätzten Fähigkeiten entlang der Fachsemesterzahl ermitteln. Mittels Zweistichproben-t-Tests können außerdem höhere Selbsteinschätzungen der pädagogischen Wissensbereiche durch Studierende, die als Vertretungslehrkräfte tätig sind, festgestellt werden.
In Bezug auf die zur Thematisierung von Raumkonstruktionen im Unterricht benötigten Fähigkeiten ist zunächst die Relevanz der Förderung der Integration fachlichen, pädagogischen und fachdidaktischen Wissens hervorzuheben. Die Studie gibt darüber hinaus Hinweise auf eine niedrigere Bedeutung technologischen Wissens im Hinblick auf soziale Medien als Beispiele alltäglicher Technologien. Vor dem Hintergrund des positiven Effekts von Selbstwirksamkeitsprozessen bieten die Ergebnisse Implikationen für eine Diskussion von praktischen Erfahrungen als Aspekt professionellen Lehrkräftewissens im Sinne der Förderung einer kritisch-reflexiven Auseinandersetzung mit der Tätigkeit als Vertretungslehrkraft aus fachdidaktischer Perspektive. Insgesamt leistet die kumulative Dissertation einen Beitrag zum Diskurs um fachliche geographische Bildung im Kontext von Digitalität und zur Konzeption des professionellen Lehrkräftewissens vor diesem Hintergrund.
Das radioaktive Edelgas Radon und seine ebenfalls radioaktiven Zerfallsprodukte machen den größten Teil der natürlichen Strahlenbelastung in Deutschland aus. Trotz der Einstufung als krebserregend für Lungenkrebs wird es zur Therapie entzündlicher Krankheiten eingesetzt. Der hauptsächliche Aufnahmemechanismus ist dabei die Inkorporation über die Atmung, wobei Radon auch über die Haut aufgenommen werden kann. Radon wird dabei über das Blut im gesamten Körper verteilt und kann in Gewebe mit hoher Radonlöslichkeit akkumulieren. Die Zerfallsprodukte verbleiben jedoch in der Lunge, zerfallen dort, bevor sie abtransportiert werden können und schädigen das dortige Gewebe.
Die Lungendosis wird laut Simulationen zum größten Teil durch die kleinsten Radon-Zerfallsprodukte (< 10 nm) bestimmt, die besonders effektiv im Respirationstrakt anheften. Die erzeugte Dosis ist dabei aufgrund der inhomogenen Anlagerung der Zerfallsprodukte lokal stark variabel. In Simulationen wurden Bifurkationen als Ort besonders hoher Deposition identifiziert, wobei die experimentelle Datenlage zur Deposition kleinster Radon-Zerfallsprodukte eingeschränkt ist. Aufgrund des Anstiegs der Komplexität von Simulationen oder Experimenten wird in den meisten Betrachtungen nicht der oszillatorische Atemzyklus berücksichtigt, sondern lediglich ein einseitig gerichteter Luftstrom betrachtet. Im Rahmen dieser Arbeit wurde ein experimentelles Modell entwickelt und etabliert, das die Messung der Deposition von Radon-Zerfallsprodukten ermöglicht und zwischen drei Größenfraktionen (Freie Zerfallsprodukte: < 10 nm, Cluster: 20-100 nm, Angelagerte Zerfallsprodukte: > 100 nm) unterscheiden kann. Der Luftfluss durch das Modell bildet sowohl die Inhalation als auch die Exhalation ab. Erste Experimente mit dem neu entwickelten Messaufbau konnten die aus Simulationen bekannte erhöhte Deposition der freien Zerfallsprodukte in einer Bifurkation abbilden. Die Vergrößerung des Bifurkationswinkels von 70° auf 180° zeigte lediglich einen minimalen Anstieg in der Größenordnung des Messfehlers. Der dominierende Prozess der Anlagerung der freien Zerfallsprodukte ist die Brown'sche Molekularbewegung, die unabhängig vom Bifurkationswinkel ist. Dennoch kann ein veränderter Winkel die Luftströmung und entstehende Turbulenzen verändern, wodurch die Deposition beeinflusst werden kann. Dies lässt sich jedoch mit dem hier benutzten Messaufbau nicht auflösen. Entgegen der Beobachtungen in der Literatur führte die Erhöhung der Atemfrequenz von 12 auf 30 Atemzüge pro Minute, in den im Rahmen dieser Arbeit durchgeführten Experimenten, zu keiner messbaren Veränderung der Deposition. Diese Beobachtung ist auf die Entstehung gegensätzlicher Effekte zurückzuführen. Einerseits führt eine schnellere Luftströmung zu kürzeren Aufenthaltszeiten der freien Zerfallsprodukte im Modell, wodurch die Deposition unwahrscheinlicher wird. Andererseits entstehen vermehrt sekundäre Strömungen und absolut betrachtet werden mehr Partikel durch das Modell gepumpt. Es ist davon auszugehen, dass sich diese Effekte im hier getesteten Bereich aufheben.
Als potentielle Schutzmaßnahme zur Reduktion der Lungendosis konnte im Rahmen dieser Arbeit die Filtereffzienz von Gesichtsmasken (OP-Masken, FFP2 Masken) gegenüber Radon und seinen Zerfallsprodukten bestimmt werden. Während Radon nicht gefiltert wird, wurden die freien Zerfallsprodukte fast vollständig (> 98%) und die Cluster zum größten Teil (≈ 80 %) zurückgehalten.
Radon selbst kann im gesamten Organismus verteilt werden und dort in Gewebe akkumulieren. Zur Bestimmung der Dosis wird dabei auf biokinetische Modelle zurückgegriffen. Diese sind von der Qualität ihrer Eingabeparameter abhängig, wobei beispielsweise die Werte zur Verteilung von Radon zwischen Blut und Gewebe auf experimentell gewonnenen Löslichkeitswerten aus Mäusen und Ratten beruhen. Unbekannte Werte werden von der Internationalen Strahlenschutzkommission basierend auf der Gewebezusammensetzung als gewichteter Mittelwert berechnet. In dieser Arbeit wurde die Löslichkeit in humanen Blutproben und wässrigen Lösungen verschiedener Konzentrationen der Blutproteine Hämoglobin und Albumin bestimmt. Es löste sich mehr Radon in Plasma als in Erythrozytenkonzentrat und Vollblut. Die Protein-Lösungen zeigten keine Konzentrationsabhängigkeit der Löslichkeit, sondern lediglich in hitzedenaturiertem Hämoglobin wurde eine niedrigere Löslichkeit gemessen. Basierend auf diesen Beobachtungen, sollte die These überprüft werden, ob sich die Löslichkeit einer Mischung als gewichteter Mittelwert der einzelnen Löslichkeiten berechnen lässt. Daher wurden diese in einer Mischung aus zwei Flüssigkeiten (1-Pentanol, Ölsäure) bestimmt. Die experimentell bestimmte Löslichkeit war dabei fast doppelt so groß wie der berechnete Wert. Dieser Unterschied kann dadurch zustande kommen, dass bei einer Berechnung basierend auf der Zusammensetzung die Wechselwirkungen zwischen den Lösungsmitteln vernachlässigt werden. Dies verdeutlicht die Notwendigkeit experimenteller Daten zur Verteilung und Lösung von Radon in verschiedenem Gewebe.
Einleitung: Die Zentrale Notaufnahme (ZNA) stellt eine Schnittstelle zwischen prä- und innerklinischer Versorgung dar. Das Spektrum der Krankheitsbilder erstreckt sich über jegliche Fachrichtungen und variiert von harmlosen Banalitäten bis zu akuten Notfällen. Eine sichere und suffiziente Primärversorgung ist die Basis eines qualitativ-hochwertigen Gesundheitssystems.2 Verspätete oder falsche Diagnosen in der ZNA sind mit 10-30 % keine Seltenheit.
Dies ist nicht nur für den individuellen Patienten belastend, es bedeutet auch einen zusätzlichen Ressourcenverbrauch und eine finanzielle Belastung für das Gesundheitssystem. Clinical Decision Support Systems (CDSS) haben das Potenzial, sowohl professionelle Anwender als auch Laien bei ihrer Diagnosefindung zu unterstützen. Fragestellung: Ziel der Arbeit ist es herauszufinden, welchen Einfluss der Diagnosezeitpunkt auf das Outcome von Patienten mit Abdominalschmerzen in der ZNA hat und inwiefern ein CDSS das Potenzial hat, die genannten Punkte zu beeinflussen.
Methoden: Es handelte sich um eine prospektive, doppelt verblindete Beobachtungsstudie. Patienten, die sich mit Abdominalschmerzen in der Notaufnahme vorstellten, gaben ihre Symptome in die Ada-App ein. Sowohl die Diagnosevorschläge der App als auch die Verdachtsdiagnosen des behandelnden Arztes wurden dokumentiert und verglichen. Weitere erhobene Parameter waren die Verwendung von apparativer Diagnostik, die vergangene Zeit bis zur endgültigen Diagnosestellung, das Auftreten von Komplikationen, die Komorbidität und Mortalität sowie die Länge des Krankenhausaufenthalts. Das Follow-Up erfolgte zu verschiedenen Zeitpunkten bis zu Tag 90. Für die Analyse wurden die 450 Patienten anhand des Zeitpunkts ihrer Diagnosestellung in Gruppen "früh" (Tag 0) und "spät" (Tag 1-24) eingeteilt.
Ergebnisse: Im Vergleich zur „frühen“ Gruppe, hatte die Gruppe der „spät“ diagnostizierten Patienten einen höheren Anteil von Männern (45.2% (n=168/372) versus 60.3 % (n=47/78); p=0.018), im Schnitt einen höheren Charlson Comorbidity Index (0.7 versus 1.1; p=0.045) und im Schnitt einen höheren RAI-C Score (8.06 versus 9.9; p<0.001) am Tag ihrer Vorstellung. Bei den „spät“ diagnostizierten blieben weniger Patienten komplikationsfrei (57.0 % 49 (n=212/372) versus 17.9% (n=14/78); p<0.001), es traten mehr Major-Komplikationen auf (8.9% (n=33/372) versus 17.9% (n=14/78); p=0.024), analog dazu war der Comprehensive Complication Index höher (13.1 versus 25.6; p<0.001) und sie verweilten länger im Krankenhaus (2.6 Tage versus 6.7 Tage; p<0.001). Zudem nahmen sie signifikant mehr apparative Diagnostik in Anspruch.
Die behandelnden Ärzte konnten in 82.6% der Fälle (n=372/450) am Tag der Vorstellung die korrekte Diagnose stellen. Die Ada-App konnte in insgesamt 52% der Fälle (n=234/450) die korrekte Diagnose unter ihren Diagnoseverschlägen nennen.
Schlussfolgerung: Multimorbide Patienten scheinen anfälliger zu sein für falsche und verspätete Diagnosen. Ein später Diagnosezeitpunkt korreliert mit der vermehrten Nutzung apparativer Diagnostik, einem komplikationsreicheren Verlauf, einer höheren Komorbidität und einem längeren Krankenhausaufenthalt.
Die Ada-App ist den Ärzten zwar unterlegen, dennoch ist Potenzial vorhanden.
Für Ärzte kann die Ada-App eine Unterstützung im Rahmen der Diagnosefindung darstellen. Neben der Ressourcenentlastung kann sie vor Fehlannahmen und frühzeitigen Schlussfolgerungen schützen und auf weitere mögliche Differentialdiagnosen hinweisen. Die Ada-App stellt für Laien mit Sicherheit eine Weiterentwicklung gegenüber der simplen Symptomsuche über das Internet dar, dennoch sollten weitere Studien den Nutzen und die Sicherheit der App überprüfen.
Das Schilddrüsenkarzinom (SK) ist die häufigste bösartige endokrine Tumorerkrankung. Während das nicht-metastasierte und nicht-mutierte papilläre Schilddrüsenkarzinom (PSK) und das follikuläre Schilddrüsenkarzinom (FSK) eine gute Heilungschance aufweisen, zeigen die mutierten und metastasierten Varianten des PSK und FSK sowie das anaplastische Schilddrüsenkarzinom (ASK) weiterhin eine schlechte Prognose. Die Entwicklung von Therapieresistenzen stellen hierbei ein Hauptproblem in der Behandlung des fortgeschrittenen Schilddrüsenkarzinoms dar.
In den letzten Jahren wurden in Studien zunehmend Tumor-initiierende Zellen (TIZ) beschrieben, welche eine kleine Subpopulation von Zellen mit der Fähigkeit zur Selbsterneuerung, Tumorinitiierung und Entwicklung von Therapieresistenzen von Tumoren darstellen. Die Existenz von TIZ wurde auch im SK nachgewiesen. Ein entscheidender Faktor für die Persistenz von TIZ ist die Hypoxie, welche über eine Veränderung des Tumormikromilieus und des Zellmetabolismus zur Entstehung von Therapieresistenzen beiträgt. Ein durch Hypoxie hochreguliertes Enzym ist die Carboanhydrase IX (CAIX). CAIX wird hauptsächlich von Tumorzellen exprimiert und katalysiert die Reaktion von Kohlendioxid zu Bicarbonat und einem Proton und trägt damit zur Säurepufferung der Tumorzelle bei. CAIX stellt somit einen entscheidenden Faktor für das Überleben von Tumorzellen in einem hypoxischen Milieu dar. Des Weiteren ist eine erhöhte Expression von CAIX mit einem schlechten Patienten-Outcome assoziiert, wie z.B. im Brustkrebs. Diese Eigenschaften machen CAIX zu einem attraktiven Angriffspunkt einer zielgerichteten Tumortherapie. Die vorliegende Studie hat zum Ziel, die Expression von CAIX sowie dessen biologische Rolle im Schilddrüsenkarzinom näher zu untersuchen.
Hierzu wurden Proben von 114 SK-Patienten immunhistochemisch auf eine CAIX-Expression untersucht und mit tumorfreiem Schilddrüsengewebe verglichen. Hierbei waren unterschiedliche SK-Subtypen vertreten. Für eine weitere Validierung der Expressionsdaten erfolgte die Auswertung eines Datasets von „The Cancer Genome Atlas“ (TCGA) mithilfe von cBioportal. Da die Hypoxie ein wichtiger Faktor für die Persistenz von TIZ ist, wurde die CAIX-Expression in Tumorsphären, ein in vitro Nachweis von TIZ-Aktivität, mittels der Durchflusszytometrie bestimmt und mit der CAIX-Expression von Monolayern verglichen. Als SK-Zelllinien wurden BCPAP (PSK), FTC 133 (FSK) und 8505 C (ASK) verwendet. Anschließend wurde mithilfe der Polymerasekettenreaktion und Immunofluoreszenzfärbung untersucht, ob eine CAIX-Expression in den Tumorsphären mit der Expression von bereits bekannten Stammzellmarkern, u.a. NANOG, assoziiert ist. Die Unterschiede der CAIX-Expression, nach Inkubation der Monolayer jeweils in Normoxie und Hypoxie, wurden mittels Durchflusszytometrie bestimmt. Mithilfe eines genetischen CAIX-Knockdowns sowie einer pharmakologischen Inhibition mit dem CAIX-Inhibitor Methazolamid (MZM) wurde die Tumorzellproliferation und -Sphärenbildung unter Normoxie und Hypoxie bestimmt. Zusätzlich wurde der Einfluss von MZM auf die Apoptose und den Zellzyklus untersucht.
Immunhistochemische Färbungen der Gewebeproben von SK-Patienten zeigten, dass die CAIX-Expression sowohl im PSK und FSK als auch im ASK im Vergleich zum tumorfreien Schilddrüsengewebe erhöht war. Des Weiteren zeigte die klinisch-pathologische Datenanalyse, dass eine erhöhte CAIX-Expression mit dem Auftreten von Lymphknotenmetastasen im differenzierten SK assoziiert war. Auch die Analyse des TCGA-Datasets bestätigte, dass eine erhöhte Expression der CAIX-mRNA mit einem fortgeschrittenen Tumorstadium, Fernmetastasen und mit einem kürzeren Gesamt-Überleben von SK-Patienten korrelierte. Die weiteren funktionellen in vitro Untersuchungen ergaben, dass die CAIX-Expression in den Tumorsphären im Vergleich zu Monolayern erhöht und mit einer erhöhten Expression von Stammzellmarkern assoziiert war. Ein genetischer CAIX-Knockdown und eine CAIX-Inhibition mit MZM führten über eine Induktion der Apoptose und eines Zellzyklusarrests zu einer verminderten Tumorzellproliferation und Sphärenbildung.
Zusammenfassend deuten die Ergebnisse darauf hin, dass CAIX ein vielversprechendes Zielmolekül für eine gezielte Tumortherapie des fortgeschrittenen SK ist. Um diese Hypothese bestätigen zu können, sind jedoch weitere prospektive Analysen von Patientenproben sowie funktionelle in vivo Untersuchungen am SK nötig.
In Deutschland leidet ca. jeder zehnte Mensch über 40 Jahren an einer chronischen Einschränkung seiner Nierenfunktion. Nicht wenige davon sind im Laufe der Erkrankung auf eine Nierenersatztherapie angewiesen. Die Ursachen für eine Nierenschädigung sind vielfältig. Als neuartiger und vielversprechender Therapieansatz werden aktuell Mesenchymale Stamm-/Stromazellen (MSC) als Therapeutikum für diverse Nierenerkrankungen getestet. Erste Ergebnisse klinischer Phase-I-Studien zeigen, dass MSC sicher als Immunsuppressivum nach Nierentransplantation angewendet werden können. Auch für weitere Erkrankungen der Niere sind erste klinische Studien am Laufen. MSC gelten als regenerativ, immunsupprimierend und antientzündlich. Dennoch gibt es noch einige Limitationen. Nach der Transplantation der Zellen ist das Wachstum der Zellen oft eingeschränkt und es kommt zur vermehrten Apoptose. Auch wird immer wieder ein paradoxes und entzündungsförderndes Verhalten der MSC am Wirkort beobachtet. Ein wichtiger Lösungsansatz ist eine in vitro Vorbehandlung der MSC zur Modulierung der zellulären Eigenschaften. In dieser Arbeit wurden drei Substanzen und Arzneimittel auf ihre Fähigkeit untersucht, die entzündungshemmenden Eigenschaften der MSC zu verbessern und die entzündungsfördernden zu unterdrücken. Der Fokus lag hierbei auf dem Arzneimittel Niclosamid und den beiden bisher noch nicht zugelassenen Substanzen Berberin und Gedunin, die alle in vitro und in vivo bereits erste vielversprechende antientzündliche Wirkungen bewiesen haben. Für diese Arbeit wurden MSC aus Fettgewebe isoliert (ASC) und mit LPS oder einem Cytokin-Mix (Mischung aus TNF-α, IFN-γ und IL-1β) sowie den drei Substanzen stimuliert. Untersucht wurden im Anschluss die mRNA-Expressionen der gängigsten proinflammatorischen (TNF-α, IL-6, TLR-4, ICAM-1, HLA-DR) und antiinflammatorischen Marker (IDO, IL-10), sowie mittels ELISA die Protein-Freisetzung von IL-6 und IL-8. Die vielversprechendsten Ergebnisse ließen sich durch Berberin hervorrufen. Hier zeigte sich eine deutliche Senkung der IL-8-Konzentration im ELISA. Die Anwendung des Gedunin hatte keine signifikante Wirkung auf die ASC. Niclosamid hingegen scheint widererwarten sogar entzündungsfördernd zu wirken, in dem es die IL-6-, ICAM-1-mRNA-Expression steigerte und die IDO-mRNA-Expression absenkte. Unter den drei getesteten Subtanzen hat Berberin die beste Wirkung bewiesen. Nach weiterer Testung könnte eine Anwendung mit Berberin als in vitro Präkonditionierung von MSC vielversprechend sein. Die Verwendung von Niclosamid hingegen sollte vermieden werden, die Wirkung von Gedunin müsste genauer untersucht werden.
Finanzielle Armut prägt Mobilitätspraktiken und kann dabei zum Prozess von mobilitätsbezogener sozialer Exklusion beitragen. Zu den Personen, deren Armutsrisiko besonders hoch ist, zählen in Deutschland Haushalte mit Kindern, insbesondere Alleinerziehende. Ältere Menschen haben nicht die höchste Armutsgefährdung, jedoch besteht bei ihnen das Risiko von Verharrung in Armut, da die Möglichkeiten, die finanzielle Situation aus eigener Kraft zu ändern mit zunehmendem Alter sinken.
Um ein tieferes Verständnis davon zu erhalten, wie finanzielle Armut die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern sowie älteren Menschen prägt, wurden mit diesen beiden Personengruppen problemzentrierte Interviews in Ronnenberg (Region Hannover) geführt und analysiert. Die Ergebnisse belegen, dass, wenngleich alle Befragten mit ähnlich geringen finanziellen Ressourcen haushalten und Verzicht sowie Abwägungsprozesse notwendig sind, sich ihre Mobilitätspraktiken und Alltagsbewältigungsstrategien unterscheiden, was sich in zwei Typologien widerspiegelt. Erstens, eine Typologie der Mobilitätspraktiken von Haushalten mit Kindern: (i) autozentriert, (ii) autoreduziert, (iii) ÖPNV-orientiert und (iv) nichtmotorisiert. Zweitens, eine Typologie älterer Menschen anhand ihrer Mobilitätspraktiken: (i) aktive ältere Menschen mit vielseitigen sozialen Interaktionen, (ii) nachbarschaftsorientierte ältere Menschen mit lokalen Kontakten und (iii) ältere Menschen, die überwiegend zu Hause sind und wenig soziale Kontakte haben.
Um herauszufinden, inwiefern mobilitätsbezogene Barrieren der sozialen Teilhabe reduziert werden können, wurden fünf Maßnahmen bezüglich ihrer Wirkung auf die Mobilitätspraktiken einkommensarmer Haushalte mit Kindern untersucht: einerseits die Wirkung des 9-Euro-Tickets anhand von problemzentrierten Interviews mit einkommensarmen Haushalten mit Kindern, andererseits anhand von Expert:inneninterviews die Wirkung von Radlernkursen für Frauen mit Migrationshintergrund, eines Mietertickets, eines Quartierstickets und der Verbesserung der Nahraum- und Aufenthaltsqualität am Beispiel von Tempo 30. Die Ergebnisse zum 9-Euro-Ticket belegen, dass ein erschwingliches ÖPNV-Ticket erheblich zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe im Armutskontext beiträgt. Die Expert:inneninterviews zeigen auf, dass eine Förderung des Umweltverbunds zielführend ist, um zu einer sozial-ökologischen Verkehrswende beizutragen und insbesondere Maßnahmenbündel Wirkung auf die Reduzierung von mobilitätsbezogenen Barrieren der sozialen Teilhabe entfalten.
Die Erkenntnisse dieser Dissertation ergänzen den wissenschaftlichen Forschungstand um ein tiefergehendes Verständnis der Wirkung von finanzieller Armut auf die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern und älteren Menschen und helfen dabei, Maßnahmen zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe zu konzipieren und umzusetzen.
Polygene Risikoscores (PRS) integrieren zahlreiche Einzelnukleotid-Polymorphismen (SNP) von meist geringer Effektstärke, um Auskunft über das Erkrankungsrisiko bestimmter Krankheiten zu geben. In dieser Arbeit wurde der PRS zur genetisch generalisierten Epilepsie (GGE) von Leu et al. aus dem Jahr 2019 untersucht, um festzustellen, ob über das Erkrankungsrisiko hinaus noch Korrelationen mit weiteren phänotypischen Eigenschaften von Patienten bestehen. Der Nachweis solcher Zusammenhänge würde eine Prädiktionsfähigkeit des GGE-PRS demonstrieren, die perspektivisch ein Potential für dessen klinische Anwendbarkeit, beispielsweise im Sinne der personalisierten Medizin, aufzeigen könnte.
Die Identifizierung neuer Korrelationen sollte durch Vergleich der Phänotypen von zwei Gruppen von GGE-Patienten mit extrem hohen, beziehungsweise extrem niedrigen PRS-Werten erfolgen. Hierfür wurden von 2256 Patienten aus der Datenbank von Epi25, einem internationalen Forschungskollaborativ zur Erforschung der Relevanz genetischer Faktoren bei der Entwicklung von Epilepsie, die Patienten mit den höchsten (n=59) und den niedrigsten (n=49) GGE-PRS-Werten ausgewählt. Für diese 108 Patienten wurden retrospektive klinische Daten von den jeweiligen Behandlungszentren akquiriert. Hierzu wurde den Studienleitern der Zentren ein Questionnaire mit Fragen zu zahlreichen phänotypischen Parametern der Patienten übermittelt. Die Rücklaufrate war mit 54% gut.
Die so eingeholten Patientendaten wurden anschließend mittels Exaktem Test nach Fisher und Wilcoxon-Rangsummentest statistisch analysiert, um Unterschiede zwischen den Phänotypen beider Gruppen nachzuweisen. Im Falle der Pharmakoresistenz zeichneten sich hierbei zunächst signifikante Unterschiede ab, die ein selteneres Auftreten dieser Eigenschaft für Patienten mit hohen GGE-PRS-Werten implizierten. Diese Ergebnisse waren jedoch nach einer Bonferroni-Korrektur und bei Validierung in einer größeren Kohorte (n=825) nicht mehr signifikant. Für die anderen untersuchten Parameter waren ebenfalls keine signifikanten Unterschiede nachweisbar.
Das Ergebnis, dass für keinen der untersuchten Parameter signifikante Differenzen bestanden, obwohl zwei Kohorten mit extrem gegensätzlichen PRS-Werten untersucht wurden, spricht gegen eine Verwendung des aktuell verfügbaren GGE-PRS als prädiktiver Biomarker über das Erkrankungsrisiko hinaus und somit gegen dessen klinische Anwendbarkeit. Jedoch können die nicht-signifikanten Korrelationen im Falle der Pharmakoresistenz als Hinweis verstanden werden, dass im Bereich der Pharmakotherapie Zusammenhänge zwischen Score und Phänotyp bestehen könnten, die weiterer Untersuchungen in zukünftigen Studien bedürfen. Bei Verwendung eines verbesserten GGE-PRS mit zusätzlichen risikoassoziierten SNP und verfeinerter Wichtung der Effektstärken sowie größerer Kohorten könnten in diesem Bereich möglicherweise auch signifikante Zusammenhänge nachweisbar werden.
Ziel: Nebennierenraumforderungen können sonographisch mit guter Sensitivität und Spezifität erkannt werden. Ziel der vorliegenden Studie war es, die Wertig-keit der Kontrastmittel-Sonographie (CEUS = contrast enhanced ultrasound) unter Verwendung von Zeit-Intensitäts-Kurven für die Charakterisierung von Nebennierenraumforderungen zu bewerten.
Material und Methoden: 108 Patienten mit 116 Raumforderungen der Neben-niere erhielten einen Ultraschall der Nebenniere, inklusive einer Kontrastmittel-Sonographie mit dem Kontrastmittel SonoVue®. Die Kontrastmitteldynamik wurde mittels Zeit-Intensitätskurven aufgezeichnet. Anhand der Kontrastmittel-anflutungszeit wurden folgende vier Kontrastmittelanreicherungsmuster ver-wendet, welche in einer Pilotstudie1 entwickelt wurden: Anreicherungsmuster I = früh arterielle Kontrastmittelanreicherung, Anreicherungsmuster II = arterielle Kontrastmittelanreicherung, Anreicherungsmuster III = späte Kontrastmittelan-reicherung, Anreicherungsmuster IV = keine Kontrastmittelanreicherung. Zu-sätzlich erhielten alle Patienten eine Beurteilung der Nebenniere durch ein zweite Bildgebendes Verfahren (Computertomographie (CT) oder Magnetresonanztomographie (MRT)) sowie eine laborchemische Hormondiagnostik. In Fällen mit malignitätsverdächtigem Befund erfolgte eine Biopsie oder Adrenalektomie.
Ergebnisse: CEUS- Anreicherungsmuster I und II konnten bei allen Patienten mit primärem oder sekundärem Malignom der Nebenniere (n = 16) nachgewie-sen werden. Die Sensitivität der CEUS für die Diagnose einer malignen Neben-nierenraumforderung betrug 100% (95% CI [75; 100]) und die Spezifität 67% (95% CI [56; 75]). Bei 40 Nebennierenraumforderungen war die Histologie die Referenzmethode. In 68% dieser Nebennierenraumforderungen waren MRT/CT und CEUS kongruent in der Beurteilung der Dignität. Schlussfolgerung: Die Kontrastmittel-Sonographie ist eine nützliche ergän-zende Methode in der Aufarbeitung von Nebennierenraumforderungen mit exzellenter Sensitivität für die Diagnose eines Malignoms.
Intelligenz ist einer der stärksten Einzelprädikatoren für berufliche Leistungen. Hochintelligente Personen, sogenannte Hochbegabte, müssten daher generell hohe berufliche Leistungen erbringen. Dies steht jedoch im Widerspruch zu Darstellungen von Schwierigkeiten Hochbegabter im Beruf. Sollten die negativen Stereotype zutreffen, wäre dies aus ressourcenorientierter Sicht problematisch, da Organisationen das der Hochbegabung zugrunde liegende Potenzial der Mitarbeiter*innen nicht hinreichend nutzen. Die vorliegende Arbeit leistet einen Beitrag dazu, diese Diskrepanz aufzuklären, indem sie untersucht wie Hochbegabte ihre berufliche Situation (erfolgreich) gestalten. Nach einer Begriffsklärung und Darstellung des Zusammenhangs von Intelligenz und Beruf wird im ersten Beitrag der internationale Forschungsstand mithilfe eines Literature Reviews systematisiert. Aufbauend darauf werden im zweiten Beitrag mithilfe einer Fragebogenerhebung die überwiegend internationalen Beiträge durch eine deutsche Stichprobe und die bisher wenig betrachtete Gruppe von Hochbegabten gemäß Kompetenzdefinition ergänzt. Schließlich fokussiert der dritte Beitrag den Widerspruch, dass Hochbegabte generell erfolgreich und zufrieden im Beruf sind, jedoch individuell von Schwierigkeiten berichten. Dazu werden teilstrukturierte Interviews durchgeführt, um ein tieferes Verständnis für den Einfluss der Hochbegabung auf den Beruf sowie etwaige bestehende Unterschiede zu nicht-hochbegabten Personen zu gewinnen. Zudem werden Strategien erfasst, die Hochbegabte nutzen, um Unterschiede und eventuell daraus resultierende Schwierigkeiten zu bewältigen. Abschließend werden Implikationen für die Berufspraxis und Forschung diskutiert.
Die vorliegende Arbeit untersucht den Übergang von Mitarbeitenden zu Führungskräften. Der Fokus der Arbeit ist nicht die Konzeption der Führungskräfteentwicklung aus der Perspektive der Unternehmen, sondern die Untersuchung der Entstehung und Gestaltung dieses Übergangs durch die Mitarbeitenden innerhalb ihrer beruflichen Rahmenbedingungen. Die Ergebnisse dieser Arbeit zeigen, dass sich in der Gestaltung dieses Übergangs von Mitarbeitenden zur Führungskräften individuelle und organisatorische Aspekte verbinden – bzw. diese durch das Subjekt in eine Verbindung gebracht werden. Durch leitfadengestützte Interviews mit (berufs-) biografischem Schwerpunkt ließen sich die individuellen, wie auch die sozialen und organisatorischen Aspekte der Gestaltung des Übergangs von Mitarbeitenden zur Führungskräften rekonstruieren. Die Stichprobe dieser Arbeit umfasst neun Interviews aus unterschiedlichsten Branchen und beinhaltet sowohl öffentliche als auch privatwirtschaftliche Arbeitgeber. Die dadurch gewonnenen Erkenntnisse ermöglichen Einsichten in die Formen und Bedingungen der Gestaltung dieses Übergangs und können auch eine Grundlage für (organisations-)pädagogische Konzepte zur Unterstützung der Mitarbeitenden bei diesem Übergang bilden.
Die vorliegende Dissertation befasst sich mit Flow-Zuständen beim Lesen fiktiver Texte. Das 1975 von Mihaly Csikszentmihalyi vorgestellte Konzept des Flow bezieht sich auf das völlige Aufgehen in einer optimal herausfordernden Tätigkeit, das mit Absorption, Verarbeitungsflüssigkeit und intrinsische Freude einhergeht. Bislang wurde Flow zumeist im Kontext motorischer und leistungsorientierter Aktivitäten empirisch untersucht und in erster Linie theoretisch mit Lesefreude in Verbindung gebracht. Ziel der drei Studien, die diese Dissertation umfasst, war es daher einerseits, Flow beim Lesen erstmals anhand größerer Leser-Stichproben und mithilfe von psychometrischen Gütekriterien genügenden Messinstrumenten nachzuweisen. Andererseits sollte Flow im Rahmen eines Modells für positives Leseerleben mit anderen in der Leseforschung diskutierten Konzepten in Verbindung gebracht und im Hinblick auf potenzielle psychophysiologische Korrelate untersucht werden.
In der ersten Studie wurde eine in der allgemeinen Flow-Forschung verbreitete Kurz-Skala an den Lesekontext adaptiert und anhand einer 229 Leser umfassenden Stichprobe psychometrisch getestet. Hierzu wurden die Teilnehmer im Rahmen einer Online-Studie gebeten, nach 20-minütigem Lesen in einem selbstgewählten Roman Fragebögen zu ihrem Leseerleben auszufüllen. Zufriedenstellende Reliabilitätskoeffizienten, positive Korrelationen mit konvergenten Maßen, die faktoranalytische Unterscheidbarkeit zu diskriminanten Maßen und die erwartete Assoziation mit einem Flow-Kriterium bestätigten die Güte der Flow-Skala. Eine Explorative Faktorenanalyse ergab jedoch, dass fast alle Items auf dem Faktor Absorption luden. Zudem ließ die zweifakorielle Skalenstruktur keine abschließende Aussage zur Legitimierung eines globalen Flow-Scores zu. Daher wurde in der zweiten Studie auf Basis der ersten Skala und der aus der Theorie bekannten Flow-Komponenten ein umfassenderer lesespezifischer Flow-Fragebogen entwickelt. Dessen Reliabilität und Validität konnte anhand einer Online-Studie mit 373 Teilnehmern, in deren Rahmen ein Kapitel aus Homers Odyssee gelesen wurde, bestätigt werden. Neben Hinweisen zur konvergenten und diskriminanten Konstrukt- und zur Kriteriumsvalidität stützten die Ergebnisse einer Konfirmatorischen Faktorenanalyse eine theoretisch angemessene Skalenstruktur, mit den einzelnen Komponenten, mit Absorption, Verarbeitungsflüssigkeit und intrinsischer Freude als Subdimensionen und mit Flow als übergeordnetem Faktor. Mittels eines Strukturgleichungsmodells konnte zudem demonstriert werden, dass der auf Basis dieses Fragebogens gemessene Flow eine zentrale Rolle beim Leseerleben einnehmen kann. So wurde Flow als Mediator für andere, ebenfalls erhobene Erlebnisformen beim Lesen wie etwa Identifikation oder Spannung bestätigt. Von diesen Konzepten klärte Flow den größten Anteil an Varianz in Lesefreude und Textverständnis auf, die als Outcomes von positivem Leseerleben modelliert wurden. Da Flow gegenüber anderen Konzepten der Leseforschung den Vorteil hat, die Ableitung experimenteller Paradigmen und psychophysiologischer Hypothesen zu ermöglichen, wurden in der dritten Studie über die Manipulation des stilistischen Herausforderungsgrades eines weiteren Odyssee-Kapitels unterschiedliche Lese-Bedingungen hergestellt und kardiovaskuläre Daten gemessen. Es zeigten sich zwar keine signifikanten Gruppenunterschiede im Flow-Erleben, jedoch Interaktionen zwischen der Lesebedingung und kardiovaskulären Indikatoren bei der Vorhersage von Flow. So scheinen parasympathische Dominanz und ein entsprechender innerer Entspannungszustand, indiziert durch eine geringe Herzrate und hohe Herzratenvariabilität, Flow beim Lesen zu begünstigen, wenn der Text stilistisch anspruchsvoll ist. Es fanden sich hingegen keine Hinweise dafür, dass Flow-Erleben die Herzaktivität von Lesern verändert oder sich durch sie objektiv erfassen lässt.
Insgesamt sprechen die Ergebnisse dieses Forschungsprojektes somit für das Auf-treten von Flow beim Lesen sowie für dessen zentrale Rolle bei positiven Leseerlebnissen. Außerdem zeigen sie das Potenzial des Flow-Konzeptes für die Leseforschung auf, insbesondere hinsichtlich psychophysiologischer Experimentalstudien.