Refine
Year of publication
Document Type
- Doctoral Thesis (3620) (remove)
Language
- German (3620) (remove)
Has Fulltext
- yes (3620) (remove)
Is part of the Bibliography
- no (3620)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (10)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1385)
- Biochemie und Chemie (446)
- Biowissenschaften (408)
- Pharmazie (237)
- Physik (216)
- Biochemie, Chemie und Pharmazie (98)
- Gesellschaftswissenschaften (95)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
Die vorliegende Studie widmete sich der Untersuchung von mikrostrukturellen Eigenschaften im Gehirn von Patienten mit Epilepsie, bei denen im herkömmlichen Magnetresonanztomografie (MRT) keine strukturellen Anomalien festgestellt wurden. Epilepsie ist eine komplexe neurologische Störung, die durch wiederkehrende epileptische Anfälle gekennzeichnet ist. I Bisher wurde die Beeinträchtigung der Hirnmikrostruktur in dieser Gruppe kaum erforscht, obwohl aufgrund pathologischer Umstrukturierungen zerebraler Netzwerke, neuronaler Hyperaktivität und Hypersynchronisation ähnliche Schäden wie bei Patienten mit sichtbaren Läsionen angenommen werden könnten. Zur Untersuchung der zerebralen Mikrostruktur wurden in dieser Studie hochauflösende quantitative Tl-, T2- und Protonendichte (PD)-Verfahren in Kombination mit einer Gewebesegmentierung auf Basis synthetischer Anatomien verwendet.
Es wurden insgesamt 27 Epilepsiepatienten rekrutiert, bei denen mittels herkömmlicher MRT keine strukturellen Läsionen im Gehirn festgestellt wurden. Die MRT-Daten wurden mit einem 3-Tesla-MAGNETOM-TRlO-MR-Scanner erfasst, der mit einer 8-Kanal-Kopfspule ausgestattet war. Die quantitative MRTTechnik ermöglichte die Messung von Tl-, T2- und PD Werten, um die mikrostrukturellen Eigenschaften des kortikalen Gewebes zu analysieren. Die kortikale graue Substanz wurde analysiert, indem zur Vermeidung von Partialvolumeneffekten Tl-, T2- und PD-Werte aus den zentralen 20% des Kortex ausgelesen und in Oberflächendatensätzen gespeichert wurden. Die Gruppenvergleiche wurden dann mittels statistischer Analysen (allgemeines lineares Modell) und Permutationssimulationen durchgeführt, um Cluster zu identifizieren, die auf mögliche Gruppenunterschiede hinweisen. Für die weiße und tiefe graue Substanz erfolgte eine „region of interest"-basierte Analyse und eine Voxel-weise Analyse.
Die beschriebenen Analysen der quantitativen MRT-Daten zeigten keine signifikanten Unterschiede der Tl-, T2- oder PD-Werte zwischen den Gruppen. Weder in der grauen noch weißen Substanz ergaben sich demnach Hinweise auf mikrostrukturelle Veränderungen bei Patienten mit MRT-negativer Epilepsie.
Die Ergebnisse zeigen, dass zukünftige wissenschaftliche Untersuchungen erforderlich sein werden, um die maßgeblichen Faktoren und Mechanismen zu ermitteln, die zur mikrostrukturellen Schädigung von Gehirngewebe in unterschiedlichen Untergruppen von Epilepsiepatienten beitragen.
Identifizierung und funktionelle Analyse von Pathogenitätsfaktoren in Bartonella bacilliformis
(2023)
Die Carrión-Krankheit ist eine durch Vektoren übertragene vernachlässigte Tropenkrankheit (neglected tropical disease), die in den südamerikanischen Andentälern auf einer Höhe von 600 3.200 m über dem Meeresspiegel vor allem in Peru, aber auch in Ecuador und Kolumbien endemisch ist. Der Erreger dieser Infektionskrankheit ist Bartonella bacilliformis, ein strikt humanpathogenes, Gram-negatives, fakultativ intrazelluläres Stäbchen der Klasse der Alphaproteobakterien. In der akuten Krankheitsphase, die als "Oroya-Fieber" bezeichnet wird, infizieren die Erreger Erythrozyten und verursachen eine schwere akute hämolytische Anämie, hohes Fieber sowie eine ausgeprägte Immunsuppression. Für diese Phase wurden Sterblichkeitsraten von bis zu 88% beschrieben. Dem Oroya-Fieber folgt meist eine chronische Infektion der vaskulären Endothelzellen, bei der durch vaskulo-endotheliale Proliferationen noduläre, Hämangiom-ähnliche, kutane Gefäßläsionen, die als "Verruga peruana" bezeichnet werden, entstehen. Diese beiden Phasen treten in der Regel nacheinander, manchmal aber auch unabhängig voneinander auf. Die Übertragung auf dem Menschen erfolgt durch den Biss infizierter Sandmücken (Lutzomyia spp.), die in den hochgelegenen Regionen der Anden vorkommen. Klimatische Veränderungen führen jedoch zur Expansion des Vektors auf angrenzende Regionen und begünstigen damit die Ausbreitung von B. bacilliformis-Infektionen.
In der Erforschung der Carrión-Krankheit besteht ein erheblicher Wissensmangel zu zahlreichen Aspekten (z. B. Epidemiologie, Infektionsbiologie, Diagnostik, Therapie), wodurch die Entwicklung von potenziellen Diagnostika, Therapeutika oder Vakzinen verhindert wird. Auch wenn frühere Studien zum Ziel hatten, immundominante Proteine für die Entwicklung serodiagnostischer Verfahren und Impfstoffe zu identifizieren, ist bislang kein validierter serologischer Test bzw. ein Impfstoff verfügbar. Daher sollte im ersten Teil dieser Arbeit ein serologischer Test zum Nachweis von anti-B. bacilliformis-Antikörpern entwickelt werden. Hierzu wurde ein Ansatz aus reverser Vakzinologie in Kombination mit einer Analyse heterologer genomischer Expressionsbibliotheken verfolgt, um geeignete immundominante Proteine zu identifizieren. Insgesamt wurden 21 potenziell immundominante Proteine identifiziert, rekombinant produziert, und auf ihre Reaktivität mit B. bacilliformis Patientenseren mittels Immunoblotting analysiert. Von den 21 Antigenkandidaten erwiesen sich 14 als immunreaktiv, die anschließend in einer Lineblot-Analyse mit 26 Serumproben von peruanischen B. bacilliformis Patienten und 96 Serumproben von gesunden deutschen Blutspendern ohne Reisevorgeschichte in Südamerika auf ihren potenziellen Nutzen für serologische Test untersucht wurden. Drei Antigene (Porin-B, Autotransporter-E und hypothetisches Protein-B) erwiesen sich für die Entwicklung eines diagnostischen ELISA als geeignet und wurden in zwei verschiedenen Antigenkombinationen (ELISA 1: Porin-B, Autotransporter-E, ELISA 2: Porin-B, Autotransporter-E, hypothetisches Protein B) verwendet. Um die Leistungsfähigkeit des B. bacilliformis ELISA zu bewerten, wurde eine Receiver-Operating-Characteristic-Analyse durchgeführt. Für die Kombination aus Porin-B und Autotransporter-E lag die Sensitivität des Tests bei 80,8% und die Spezifität bei 94,8%, wohingegen die Kombination aus Porin-B, Autotransporter-E und dem hypothetischem Protein-B in einer Sensitivität von 76,9% und einer Spezifität von 93,8% resultierte. Dieser neu entwickelte ELISA könnte ein nützliches serodiagnostisches Instrument für künftige epidemiologische Studien über B. bacilliformis in endemischen Gebieten darstellen. Darüber hinaus könnten die hier identifizierten immundominanten Antigene eine erste Grundlage für die zukünftige Entwicklung von Impfstoffen für die Prävention Carrión-Krankheit bilden.
Erythrozyten-Invasion und Hämolyse sind wahrscheinlich die wichtigsten Schritte in der Pathogenese der Carrión-Krankheit und verantwortlich für die hohe Sterblichkeitsrate beim Menschen. Genaue mechanistische Kenntnis dieses Prozesses sind entscheidend für die Entwicklung therapeutischer Arzneimittel. Im zweiten Teil dieser Arbeit sollten die in der Hämolyse involvierten Pathogenitätsfaktoren von B. bacilliformis identifiziert werden. Hierzu wurde eine Tn5-Transposonmutagenese in den beiden B. bacilliformis Stämmen KC583 und KC584 durchgeführt. Ein screening nach Hämolyse-defizienten Mutanten führte zur Identifizierung von zwei Pathogenitätsfaktoren: einem Porin (Porin-A) und einer α/β-Hydrolase. Ihre vermutete Funktion im Prozess der Hämolyse wurde durch eine zielgerichtete markerlose Deletion sowie durch genetische Komplementationen in vitro funktionell bestätigt. Dabei zeigte sich, dass Porin-A und die α/β Hydrolase jeweils essenzielle Faktoren für die Hämolyse darstellen. Durch eine in silico-Charakterisierung konnte konservierte biologische Funktionen identifiziert sowie die dreidimensionale Struktur der Proteine vorhergesagt werden. Diese Versuche bilden eine experimentelle Basis, um die Rolle von Porin-A und der α/β-Hydrolase näher untersuchen zu können und um potenzielle (Porin-A und α/β-Hydrolase) Inhibitoren mit anti-hämolytischer und damit therapeutische Wirkung testen zu können.
Untersuchung zur Sicherheit bei der simultan bilateralen Cochlea-Implantation bei Erwachsenen
(2023)
Schwerhörigkeit ist sowohl für die betroffenen Patienten als auch sozioökonomisch eine relevante Erkrankung. Sie stellt ein Hindernis für die soziale Teilhabe dar, reduziert die Lebensqualität und führt zu direkten und indirekten Gesundheitskosten.
Cochlea-Implantate sind vielkanalige Neuroprothesen, die über einen chirurgisch in die Hörschnecke eingebrachten Elektrodenträger das erste Neuron der Hörbahn direkt elektrisch stimulieren und so eine Hörwahrnehmung induzieren.
Dadurch kann ein Funktionsverlust der Haarzellen, welcher die häufigste Ursache für eine Schwerhörigkeit ist, ersetzt werden. Cochlea-Implantate stellen den Goldstandard der Hörrehabilitation bei hochgradig schwerhörigen oder postlingual ertaubten erwachsenen Patienten sowie in der Versorgung prälingual ertaubter Kinder dar.
Bei vielen schwerhörigen Patienten besteht die Indikation zur beidseitigen Versorgung mit einem Cochlea-Implantat. Prinzipiell besteht die Möglichkeit, diese chirurgische Versorgung beidseits einzeitig (simultan) oder zweizeitig (sequenziell) durchzuführen. Während die Sicherheit der bilateral-simultanen Operation für Kinder durch mehrere Studien belegt wurde, liegen für Erwachsene erst wenige Daten vor.
Die vorliegende Studie untersucht, ob die bilaterale simultane Implantation mit höheren Komplikationsraten als die sequenzielle Operation assoziiert ist und leistet damit einen Beitrag zur Entscheidungsfindung von Patienten und Behandlern.
Es konnten 169 zwischen 2008 und 2017 bilateral implantierte Patienten eingeschlossen werden. Davon wurden 34 simultan (Gruppe 1) und 135 (Gruppe 2) sequenziell versorgt. Es wurde die Dauer der Operation, das Auftreten von Minor- und Major-Komplikationen sowie die Dauer des stationären Aufenthalts erfasst und zwischen beiden Gruppen verglichen.
Die Ergebnisse zeigten, dass die Gesamtzeit der Patienten im Operationssaal in der simultan implantierten Gruppe deutlich kürzer war. Die Häufigkeit chirurgischer Major- und Minor-Komplikationen unterschied sich hingegen nicht signifikant. Bezüglich einer letalen nicht-chirurgischen Komplikation in der simultan implantierten Gruppe erfolgte eine umfangreiche Aufarbeitung, ohne dass ein kausaler Zusammenhang mit der gewählten Behandlungsmethode nachgewiesen werden konnte. Die Dauer des Krankenhausaufenthalts war in der simultanen Gruppe 0,7 Tage länger als bei unilateraler Implantation, aber 2,8 Tage kürzer als bei beiden sequenziellen Operation zusammen.
In der Zusammenschau aller berücksichtigten Komplikationen und der komplikationsrelevanten Faktoren ist die Sicherheit der simultan bilateralen Operation gegenüber dem sequenziellen Vorgehen als gleichwertig zu bewerten.
Jedoch muss individuell auf mögliche Risikokonstellationen des Patienten eingegangen werden, die bei der längeren Operationszeit der simultanen Implantation relevant sein kann. Daher ist eine sorgfältige Auswahl der Patienten
unter besonderer Berücksichtigung bestehender Komorbiditäten unerlässlich.
Menschen mit Epilepsie (engl. PWE) haben im Vergleich zur Allgemeinbevölkerung ein erhöhtes Risiko, vorzeitig zu versterben. Der plötzliche, unerwartete Tod bei Epilepsie (engl. Sudden Unexpected Death in Epilepsy, kurz SUDEP) stellt die häufigste epilepsiebedingte Todesursache dar. Obwohl das Thema in Fachkreisen zunehmende Aufmerksamkeit erfährt, die Empfehlung zur SUDEP Aufklärung zunehmend in nationalen Leitlinien aufgenommen wird, und der Patientenwunsch nach einer generellen SUDEP Aufklärung in verschiedenen Studien gezeigt werden konnte, besteht weiterhin ein Informationsdefizit unter PWE. Ursache hierfür scheint insbesondere die Sorge der behandelnden Neurolog*innen zu sein, Menschen mit Epilepsie übermäßig emotional zu belasten und ihre Lebensqualität zu mindern. Diese Studie untersucht sowohl das Vorwissen über SUDEP als auch unmittelbare sowie langfristige Auswirkungen einer SUDEP Aufklärung auf Erwachsene mit Epilepsie. Ziel ist mögliche negative Auswirkungen der Aufklärung sowie Auswirkungen auf das Verhalten aufzudecken. Aus diesem Zweck wählten wir ein prospektives, multizentrisches, longitudinales Studiendesign. Die Daten wurden in halbquantitativen Interviews vor (vor der Aufklärung), unmittelbar nach (nach der Aufklärung) und drei Monate nach (3-Monats Follow-up) der SUDEP Aufklärung erhoben. Um die direkte Vergleichbarkeit zwischen den Zeitpunkten zu ermöglichen wurden folgende validierte Instrumente verwendet: das Neurological Disorders Depression Inventory for Epilepsy (NDDI-E) zur Erfassung depressiver Symptome, der EuroQoL (EQ-5D) zur Erfassung der gesundheitsbezogenen Lebensqualität (HRQoL), eine visuelle Analogskala (VAS) zur Erfassung des allgemeinen Gesundheitszustandes, die revised Epilepsy Stigma Scale (rESS) zur Erfassung der wahrgenommenen Stigmatisierung und die Seizure Worry Scale zur Erfassung anfallsbezogener Sorgen. Insgesamt wurden 236 Teilnehmende (Durchschnittsalter: 39,3 Jahre, Spannweite: 18-77 Jahre, 51,7 % Frauen) in die Studie eingeschlossen. 205 (86,9 %) der Teilnehmenden konnten erneut im Langzeit Follow-up nach drei Monaten befragt werden. Eine der Teilnehmenden verstarb im Zeitraum des Follow-ups an SUDEP. Keines der validierten Instrumente zeigte zwischen den Zeitpunkten vor der Aufklärung und dem 3-Monats Follow-up eine Verschlechterung. Vor der Aufklärung hatten nur 27,5 % der Teilnehmenden von SUDEP gehört, und nur 9,3 % gaben an, diese Informationen von ihrer bzw. ihrem Neurolog*in erhalten zu haben. Nach der Aufklärung gaben mehr als 85 % der Teilnehmenden an, mit der SUDEP Aufklärung zufrieden oder sehr zufrieden zu sein. Drei Viertel der Teilnehmenden gaben an, durch die Aufklärung nicht oder überhaupt nicht belastet zu sein. Mehr als 80 % der Teilnehmenden befürworteten eine generelle SUDEP Aufklärung für alle Menschen mit Epilepsie. Bei dem 3-Monats Follow-up gab die Mehrheit der Teilnehmenden an, keine Verhaltensänderung vorgenommen zu haben, 24,8 % berichteten jedoch von starken Verhaltensänderungen.
Unsere Studie zeigt, dass eine SUDEP Aufklärung keine negativen Auswirkungen auf den allgemeinen Gesundheitszustand, die HRQoL, depressive Symptome, krankheitsbezogene Stigmatisierung oder Sorgen vor Anfällen hat. Insgesamt zeigte sich eine hohe Zustimmung zur SUDEP Aufklärung. Eine generelle SUDEP Aufklärung könnte sich zudem positiv auf die Compliance auswirken und das Mortalitätsrisiko senken. Eine SUDEP Aufklärung bietet allerdings keinen sicheren Schutz vor SUDEP.
Hintergrund und Ziele: Die Hämodialyse ist das am weitesten verbreitete Nierenersatztherapieverfahren und wird auch in den nächsten Jahren von immer mehr Patienten mit akutem und terminalen Nierenversagen beansprucht werden. Ein großlumiger, sicherer und komplikationsarmer Gefäßzugang ist essenziell für die Durchführung einer effizienten Hämodialyse. Während arterio-venöse Zugänge der klar präferierte Gefäßzugang zur chronischen Hämodialyse sind, eignen sie sich aufgrund ihrer Reifungsdauer nicht für Patienten mit akuter Dialysepflichtigkeit oder für Patienten mit untauglichen Gefäßeigenschaften. Für diese Patienten kann die Hämodialyse über einen Vorhofkatheter erfolgen. Die KDOQI Richtlinien (2019) empfehlen die präferierte Punktion der rechten Vena jugularis interna, jedoch muss für Patienten mit thrombosiertem oder obliteriertem Gefäßstatus die Verwendung neuer, unkonventionellerer Zugangswege erwogen werden, um die überlebenswichtige Hämodialyse zu ermöglichen. Ein solcher unkonventioneller Zugangsweg ist der erstmals 2006 von Betz et al. beschriebene Iliakalvenenkatheter, der während seines Beobachtungszeitraums von 1.500 Kathetertagen initial die Sicherheit und Effektivität des Verfahrens vermuten ließ.
Die vorliegende Arbeit stellt eine retrospektive Analyse des Langzeitverlaufs von 95 Iliakalvenenkathetern zur Hämodialyse dar, die in den Jahren 2004 bis 2022 im Universitätsklinikum Frankfurt implantiert wurden. Der nun deutlich längere kumulative Beobachtungszeitraum von 20.252 Tagen soll beurteilen, ob sich die ursprünglich durch Betz et al. beschriebenen Ergebnisse auch im Langzeitverlauf bestätigen und soll weiterführend einordnen, inwieweit der Iliakalvenenkatheter als Option des Zugangsweges zur chronischen Hämodialyse für Patienten mit schwierigem Gefäßstatus in Betracht gezogen werden kann.
Patienten und Methoden: Das Patientenkollektiv bestand aus 79 Patienten (49 Männer und 30 Frauen) eines breiten Altersspektrums zum Zeitpunkt der Implantation (27 bis 84 Jahre), die während des Beobachtungszeitraums einen oder im Verlauf mehrere Dialysekatheter über eine der Iliakalvenen implantiert bekamen. Insgesamt wurden 95 Iliakalvenenkatheter erfasst und im Hinblick auf ihre Liegedauer, Komplikationsraten und Dialyse-Effektivität evaluiert.
Die Datenerhebung erfolgte aus den archivierten Patientenakten und Dialyseprotokollen des Universitätsklinikums Frankfurt und ergänzend mittels Datenanforderung von weiterbehandelnden Zentren, Praxen und Kliniken.
Ergebnisse: Der Iliakalvenenkatheter kam bei einem speziellen Patientenkollektiv zum Einsatz, welches oftmals bereits eine lange nephrologische Krankheitsgeschichte (im Durchschnitt erfolgte die Implantation 895,5 Tage nach der primären Andialyse), mehrere gescheiterte Gefäßzugänge 3,01(±2,97) und keine Alternativen eines sicheren konventionellen Gefäßzugangs zur Hämodialyse aufwiesen. Die Katheter-Anlage verlief bei 98,96% der Implantationsversuche erfolgreich. Alle erfolgreichen Anlagen verliefen komplikationslos. Die durchschnittliche Katheter-Liegedauer betrug 853,7 (± 162,87) Kathetertage und die primary patency der Katheter lag im Mittelwert bei 507,60 (±58,33) Tagen. Die Gesamt-Infektionsrate der Iliakalvenenkatheter lag bei 0,69/1.000 Kathetertage und eine Katheter-Dysfunktion war in acht Fällen der Grund der Katheter- Entfernung (8,4%). Die durchschnittliche Urea Reduction Rate betrug 68,9% (± 7,1). Es bestand kein statistisch signifikanter Zusammenhang zwischen Alter (p=0.37), Geschlecht (p=0,61), BMI (p=0.97) oder Seitenlage des Katheters (p=0.22) und der Katheter-Liegedauer. Im Verlauf erfolgte bei drei Patienten eine erfolgreiche Nierentransplantation.
Schlussfolgerungen: Die Implantation des Iliakalvenenkatheters hat eine hohe Erfolgsrate, ein niedriges Komplikationsrisiko, ist technisch leicht zu erlernen und bedarf keiner aufwendigen interventionellen Rahmenbedingungen. Auch im Verlauf zeigt sich ein Komplikationsprofil, das in Bezug auf Katheter-Infektionen, Katheter-Dysfunktion, Katheter-Thrombosen und Komplikations-bedingten Explantationen den etablierten Zugangswegen mindestens gleichwertig ist. Außerdem konnte gezeigt werden, dass der Iliakalvenenkatheter eine lange Komplikations-freie Liegedauer hat und in Einzelfällen auch über mehrere Jahre hinweg eine suffiziente Hämodialyse gewährleisten kann. Geäußerte Bedenken, nach welchen eine spätere Nierentransplantation nicht möglich sei, konnten ausgeräumt werden. Des Weiteren beschreibt die vorliegende Studie erstmalig den Langzeitverlauf des Iliakalvenenkatheters bei einem Patientenkollektiv eines breiten Altersspektrums und zeigte auch die altersunabhängige Eignung des Zugangsweges.
Die vorliegende Dissertation hat die Evaluation der Instruktionssensitivität von Testitems unter Berücksichtigung individueller Lernvoraussetzungen von Schülerinnen und Schülern zum Thema. Die Instruktionssensitivität von Items bzw. Testaufgaben erfasst, ob diese in der Lage sind, Effekte von Unterricht auf die Leistungen der Schülerinnen und Schüler abzubilden. Der Begriff der individuellen Lernvoraussetzungen wird im Rahmen dieser Arbeit sehr breit gefasst und subsumiert unter anderem kognitive, metakognitive, motivationale und volitionale Merkmale (Brühwiler, 2014; Brühwiler et al., 2017). Ausgehend von den Lernvoraussetzungen, welche im Zusammenhang von Angebots-Nutzungs-Modellen (u.a. Brühwiler, 2014; Fend, 1981) konzeptionell aufgegriffen werden, wird in den daran anschließenden quantitativen Analysen ein besonderer Fokus auf die Qualität der Lernmotivation (Ryan & Deci, 2000) gelegt. Das empirische Ziel der Arbeit besteht in der exemplarischen Überprüfung, inwiefern Indikatoren der Instruktionssensitivität von Testitems durch die Qualität der Lernmotivation der Schülerinnen und Schüler beeinflusst werden.
Vor dem Hintergrund dieses Erkenntnisinteresses werden Parameterschätzungen aus längsschnittlichen Mehrebenen-Item-Response-Modellen mit unterschiedlichen Modellspezifikationen gegenübergestellt. Analysiert werden Daten von 832 Fünftklässlerinnen und Fünftklässlern aus dem Schweizer Kanton St. Gallen, die wiederholt an Schulleistungstests im Fach Mathematik teilgenommen haben. Unterscheiden sich die Parameterschätzungen zwischen den Spezifikationen, spricht dies dafür, dass die Qualität der Lernmotivation einen Einfluss auf die Schätzung der Instruktionssensitivität der Mathematikitems nimmt. Als Indikatoren der Instruktionssensitivität werden die differenzielle (Naumann et al., 2016) und die spezifische Sensitivität herangezogen. Angenommen wird, dass die Einbeziehung der Qualität der Lernmotivation als Kovariate die Schätzung dieser beiden Indikatoren beeinflusst.
Das Ergebnis der Analysen ist eindeutig: Keine der aufgestellten Hypothesen kann angenommen werden. Die Resultate sprechen dafür, dass die Parameterschätzungen zur Evaluation der Instruktionssensitivität von der Qualität der Lernmotivation nicht wesentlich beeinflusst werden. Diese Befundlage überrascht, da zahlreiche Studien darauf hindeuten, dass motivationale Merkmale von Schülerinnen und Schülern einen Einfluss auf deren schulische Leistungen nehmen (u.a. Kriegbaum et al., 2015; Taylor et al., 2014) und für die Schätzung der Indikatoren der Instruktionssensitivität auf Daten von Schulleistungstests zurückgegriffen wurde. Die Ergebnisse werden aus inhaltlicher und methodischer Perspektive diskutiert.
Neuroendokrine Tumoren (NET) sind eine seltene Krankheit mit einem breitgefächerten heterogenen Erscheinungsbild, wodurch sich die Diagnose der Tumoren aus einer Vielzahl aus Gründen häufig um Jahre verzögert (1). In dieser Arbeit analysierten wir einen großen Datensatz in einem tertiären Referenzzentrum (UKF) von 1984-2019, um die Symptomatik vor der Diagnose des Tumors sowie den Zeitraum von der Tumormanifestation bis zur Diagnose weiter zu klären. Für die deskriptiven Analysen kamen SPSS, Cox-Regression und Log-Rank-Test zur Anwendung.
Insgesamt schloss die retrospektive Studie 488 gastroenteropankreastische (GEP)-NET mit 486 Patienten ≥ 18 Jahren ein, wovon knapp mehr als die Hälfte männlich (52,9%) waren. Das mittlere Alter bei Erstdiagnose (ED) betrug 58 Jahre (477/486, 9 unbekannt). Die häufigsten Primärtumorlokalisationen stellten Pankreas (143/488 Patienten) und Dünndarm (145/488 Patienten) dar. Die Mehrheit der NET waren langsam wachsende G1-Tumoren mit einem Ki67 < 3% (155/330). Die Hälfte der Patienten entwickelten im Verlauf Fernmetastasen, wobei die meisten bereits bei der ED vorlagen und insbesondere die Leber als Metastasierungsorgan dominierte. Bei mehr als 60% der Patienten konnten Angaben zur klinischen Symptomatik vor der ED detektiert werden, wovon wiederum mehr als die Hälfte symptomatisch waren. 42% der symptomatischen Patienten zeigten NET-spezifische Symptome (Bauchschmerzen 77/128; 60,2%, Durchfall 51/128; 39,8%, Flush 19/128; 14,8%, Karzinoidsyndrom 8/128; 6,3% Tachykardie 6/128; 4,7%). In der primären bildgebenden Diagnostik dominierten konventionelle Bildgebungen wie Sonographie und Computertomographie (CT), wobei nuklearmedizinische Diagnostik eine Seltenheit darstellte. Mehr als 30% der Tumoren wurden als Zufallsbefunde im Rahmen einer bildgebenden Diagnostik oder Operation diagnostiziert. Die Mehrheit der Patienten stellte sich initial außerhalb unserer Klinik vor, nur etwa 15% wurden innerhalb unserer Klinik insbesondere in der Gastroenterologie vorstellig, wo der NET diagnostiziert wurde.
Die Phase von der Tumormanifestation bis zur ED aller NET betrug im Median 17 Tage. Das Vorhandensein von Fernmetastasen sowie Symptomen führte zu keiner signifikanten Kürzung der Phase und einer schnelleren ED des NET (Median 65,5 vs. 90 Tage, p = 0,4).
Hintergrund: Der Rettungsdienst versorgt täglich viele Patient/-innen in unterschiedlichen Umgebungen und ist damit auch potentieller Überträger nosokomialer Infektionen. Zur Händehygiene, als entscheidende Säule der Infektionsprophylaxe, liegen bislang nur wenige Daten aus dem Rettungsdienst vor.
Methoden: Prospektive multizentrische Studie mit Fragebogen zur Selbst- und Fremdeinschätzung der Compliance und beeinflussender Faktoren (abgeleitet von der WHO Perception Survey for Health-Care Workers) sowie direkte Compliance-Beobachtung nach WHO-Standard bei Rettungsdienstpersonal zweier Berufsfeuerwehren in Deutschland.
Ergebnisse: Es wurden 207 Fragebögen eingereicht und während ca. 66h Beobachtungszeit wurden 674 Händedesinfektionsgelegenheiten protokolliert. Der präventive Effekt der HH wurde allgemein von den Mitarbeitenden anerkannt. Die Selbsteinschätzung (MW: 80%) und beobachtete Compliance-Rate (38%) zeigten eine deutliche Diskrepanz und die Compliance variierte zwischen den verschiedenen Indikationen. Besonders niedrig zeigte sich die Compliance rund um die Durchführung aseptischer Tätigkeiten. Hier zeichnete sich ein geringes Risikobewusstsein für nicht sichtbare Verunreinigungen ab. Hürden für die Umsetzung der Händehygiene stellten vor allem die Vorrangigkeit anderer Maßnahmen, Unterbrechung des Arbeitsablaufes und Zeitmangel dar.
Schlussfolgerungen: Die beobachtete Compliance-Rate im Rettungsdienst lag unterhalb der innerklinischen Durchschnittswerte. Insbesondere die Compliance im Rahmen aseptischer Tätigkeiten muss dringend gesteigert werden. Dies erfordert einen multimodalen Lösungsansatz, der die Optimierung der Ausbildung, Algorithmen, Materialverfügbarkeit und Praktikabilität der Händedesinfektion im Rettungsdienst beinhaltet.
In der Dissertation werden mit Hilfe der Grounded Theory Methodologie Möglichkeiten und Bedingungen von Museumsangeboten für Menschen mit Demenz erforscht.Die Arbeit versteht sich als erziehungswissenschaftlich-gerontologisch und nimmt dabei die Perspektive einer kritischen Kunst- und Kulturvermittlung ein.
In dieser retrospektiven Studie wurden 47 Patienten mit einem histologisch nachgewiesenen Analkarzinom und im Anschluss aufgetretenen Rezidiv nach Beendigung der Radiochemotherapie und hinsichtlich der Risikofaktoren für das tumorfreie, sowie das Gesamtüberleben ausgewertet.
Auffällig in dieser Patientenkohorte war der hohe Anteil an männlichen Patienten (68,1 %), an HIV-positiven (36,2 %) sowie an Patienten mit nachgewiesenem Lymphknotenbefall bei Erstdiagnose (72,3 %).
Als signifikante Risikofaktoren für das tumorfreie Überleben wurden ein Primärtumor ab ≥ T3-Kategorie (Hazard-Ratio 1,87), ein Karnofsky-Performance-Status ≤ 80 % vor Beginn der Radiochemotherapie (Hazard-Ratio 3,25), sowie das initiale fehlende therapeutische Ansprechen der Radiochemotherapie (Hazard-Ratio 5,9) festgestellt. Auffällig war, dass kein signifikanter Einfluss bzgl. des biologischen Geschlechts, des Gradings, der N Kategorie oder des Alters ermittelt werden konnte.
In Bezug auf das Gesamtüberleben der Patienten ergaben sich folgende signifikante Risikofaktoren: eine T-Kategorie ≥ T3 (Hazard-Ratio 4,091), ein hohes UICC-Stadium (Hazard Ratio 2,89 für Stadium IIIC), das fehlende initiale therapeutische Ansprechen der Radiochemotherapie (Hazard-Ratio 9,59), ein Karnofsky-Performance-Status ≤ 80 % (Hazard-Ratio 12,23). Ein protektiver Faktor stellte ein längeres tumorfreies Überleben (Hazard-Ratio 0,935) dar.
Die Auswertung des gesamten und des tumorfreien Überlebens hinsichtlich des Befallsmusters der Rezidive ergab, dass mit zusätzlich zum lokalen Rezidiv nachgewiesenem lokoregionären Rezidiv und Fernmetastasen sich sowohl das tumorfreie Überleben (Ein-Jahres-tumorfreies Überleben 52,9 ± 12,1 % vs. 15,0 ± 8,0 %) als auch das Gesamtüberleben (5-Jahres-Gesamtüberleben 75,0 ± 12,5 % vs. 0,0 %) signifikant verringerten.
Im Vergleich der Merkmale der Patienten mit und ohne nachgewiesenen Fernmetastasen ergab sich ein signifikanter Unterschied in Bezug auf den Anteil der Tumore ≥ T3 (75 %).
In der Untergruppe, die mittels abdominoperinealer Rektumexstirpation therapiert wurde, konnte kein signifikanter Unterschied in Bezug auf die rpT-Kategorie, R-Klassikfikation, Pn-, V- und L-Klassifikation festgestellt werden.
Lungensonographie bei Patienten mit HIV und AIDS
Ziele und Methoden: Vor dem Hintergrund mehrerer retrospektiven Studien und Fallserien zur Anwendung des Lungenultraschalls zur Diagnose HIV-assoziierter Lungenerkrankungen führten wir eine prospektive Studie in der Abteilung für Infektiologie am Klinikum der Goethe-Universität Frankfurt durch. Wir schlossen hierbei Patientinnen und Patienten ein, bei denen durch konventionelle Diagnostik eine Lungenerkrankung nachzuweisen oder auszuschließen war, und führten zeitnah zur konventionellen Diagnostik verblindete Ultraschalluntersuchungen durch. Diese wurden zudem verblindet von zwei weiteren Ultraschalluntersuchern reevaluiert, basierend darauf wurde die Interrater-Reliabilität zwischen den drei Befunden errechnet. Die konventionell-radiologischen Untersuchungen wurden verblindet von einem weiteren Radiologen befundet.
Ergebnisse: Wir untersuchten 80 HIV-positive Patienten, von denen 54 nachweislich eine pulmonale Erkrankung hatten. Die häufigsten Diagnosen waren Pneumocystis jirovecii-Pneumonien (21 Fälle), bakterielle Pneumonien (17 Fälle) und andere Diagnosen (16 Fälle). Die Lungenultraschalluntersuchungen zeigten bei 90.7% der Patienten mit pulmonaler Diagnose und bei 34.5% der lungengesunden Patienten Auffälligkeiten. Die CT-Untersuchungen fanden Pathologien in 97.5% der Erkrankten und 27.3% der Gesunden. Röntgenuntersuchungen zeigten bei 78.1% der Erkrankten und bei 25% der Gesunden pathologische Befunde. Die häufigsten Pathologien in allen Modalitäten waren interstitielle Veränderungen. Diese zeigten in der Lungenultraschalluntersuchung keinen signifikanten Unterschied zwischen den verschiedenen Lungenerkrankungen, waren jedoch signifikant häufiger als bei Patienten ohne Lungenerkrankung. Konsolidierungen und Pleuraergüsse waren im Lungenultraschall zwar häufiger bei Erkrankten, aber nicht signifikant gegenüber den Gesunden. Die Interrater-Reliabilität des Lungenultraschalls war hoch für interstitielle Pathologien (ICC=0.82) ohne nennenswerte Änderungen im Studienverlauf (r=-0.11), und niedriger bei Konsolidierungen und Ergüssen (jeweils κ=0.12) mit positivem Zusammenhang zur Studiendauer (r=0.88 für Konsolidierungen, r=0.37 für Ergüsse).
Diskussion: Lungenerkrankungen sind bei HIV-Patienten im Ultraschall am häufigsten durch interstitielle Pathologien nachzuweisen, diese allein erlauben allerdings keine Unterscheidung zwischen verschiedenen Erkrankungen. Die Sensitivität der Ultraschalluntersuchung ist geringer als die der Computertomographie, jedoch höher als die Sensitivität des Röntgens. Interstitielle Pathologien werden bereits nach kurzer Lernphase reliabel identifiziert. Konsolidierungen und Ergüsse waren seltenere Befunde, und scheinen eine längere Lernphase zu benötigen, da die Interrater-Reliabilität im Verlauf der Studie ansteigt. In allen Modalitäten zeigten auch gesunde Patienten bildgebend Auffälligkeiten, was den positiv prädiktiven Wert bei niedrigerer Prävalenz negativ beeinflussen kann.
Lungensonographie bei Patienten mit COVID-19
Ziele und Methoden: Im Rahmen der seit Ende 2019 andauernden COVID-19 Pandemie boten sich die erlernten Sonographiekenntnisse für die bettseitige Diagnostik dieser neuen Lungenerkrankung an. Aufgrund der Pathogenität des neuartigen Erregers wandten wir die Lungensonographie zur Diagnostik unter Isolationsbedingungen an, um Transporte für konventionelle Bildgebung zu reduzieren. Bettseitig durchgeführte Lungensonographien bei SARS-CoV-2-positiven Patientinnen und Patienten wurden mit durchgeführter konventioneller Bildgebung im Rahmen dieser retrospektiven Fallserie verglichen.
Ergebnisse: Die Ultraschalluntersuchungen von 17 Patientinnen und Patienten wurden ausgewertet, hiervon zeigten 14 Untersuchungen Pathologien. In neun Fällen wurden interstitielle Pathologien beobachtet, fünf dieser Fälle zeigten zusätzlich Konsolidierungen.
Drei Patienten hatten außer Konsolidierungen keine weiteren Pathologien. Pleuraergüsse wurden in drei Fällen beobachtet, Pleuraplaques bei einem Patienten. In 5 von 7 Fällen mit auffälligem Thorax-CT zeigte die Lungensonographie Pathologien. Die Lungensonographie zeigte in jedem Fall Pathologien, in dem auch das Röntgen auffällig war.
Diskussion: Diese Fallserie zeigt die Anwendung der Sonographie als bettseitige Lungendiagnostik unter Isolationsbedingungen. Interstitielle Pathologien und Konsolidierungen scheinen die relevantesten Hinweise auf eine pulmonale Beteiligung im Rahmen der COVID-19-Erkrankung zu sein. Wegen der geringen Fallzahl und des retrospektiven Designs ist die Aussagekraft dieser Substudie gering, jedoch zeigt sie die Umsetzbarkeit der Sonographie als bildgebendes Verfahren, wenn aufgrund notwendiger Isolationsmaßnahmen und hoher Fallzahlen konventionelle Bildgebung erschwert ist.
Aktivierende Mutationen der Fms-like tyrosine kinase (FLT3) treten bei 25 % der Patienten mit akuter myeloischer Leukämie (AML) auf und begünstigen die unkontrollierte Proliferation maligner Blasten. Autophagie ist ein intrazellulärer Prozess, durch den zytoplasmatische Bestandteile lysosomal abgebaut werden und fungiert als intrazellulärer Homöostase-Mechanismus unter Stress-Bedingungen.
Ziel dieser Arbeit war es, herauszufinden, ob FLT3-ITD+-AML-Zellen vulnerabel gegenüber Autophagie-Hemmung sind.
Hierzu wurde zunächst untersucht, wie sich FLT3-ITD-Signaling und Autophagie unter basalen Wachstumsbedingungen gegenseitig beeinflussen. In einem genetischen Modell zeigte sich, dass FLT3-ITD-transformierte wachstumsfaktorunabhängige Zellen während ihrer fortgesetzten Proliferation vermehrt Autophagie betreiben. Lysosomale Autophagie-Inhibitoren zeigten jedoch unter diesen Bedingungen keine erhöhte Wirksamkeit gegenüber FLT3-ITD-positiven Zellen. Humane FLT3-ITD-positive AML-Zellen zeigten nach genetischer Deletion von ULK1 ebenfalls nur transiente und milde Proliferationsdefizite. Unter basalen Wachstumsbedingungen zeigte sich also keine erhöhte Vulnerabilität FLT3-ITD-exprimierender Zellen gegenüber Autophagie-Inhibition.
Daraufhin wurde die Bedeutung von Autophagie während pharmakologischer Hemmung von FLT3 untersucht. FLT3-Inhibition mittels AC220, einem FLT3-spezifischer Tyrosinkinase-Inhibitor, induzierte bzw. steigerte die autophagische Aktivität ähnlich stark wie eine direkte mTOR-Inhibition. Dies ließ sich im Zellmodell therapeutisch ausnutzen: eine Kombinationsbehandlung mit AC220 und einem lysosomalen Autophagie-Inhibitor zeigte eine synergistische antiproliferative Wirkung. Dies stellt möglicherweise einen neuen rationalen Kombinationsbehandlungsansatz für die Therapie FLT3-ITD-positiver AML-Patienten dar.
Die vorliegende Arbeit stellt eine auf datenwissenschaftlichen Methoden beruhende Analyse des aktuellen Wissens über mögliche kausale Zusammenhänge zwischen therapeutischen Morphinapplikationen mit Todesfällen dar, welche auf computergestützter Extraktion von Information aus frei verfügbaren Wissensdatenbanken und der Analyse der darin enthaltenen numerischen Information besteht. Die Relevanz der vorliegenden Analyse ergibt sich aus dem weltweit breiten Einsatz von Morphin zur Behandlung starker Schmerzen und der immer wieder vorkommenden Todesfälle während einer Morphintherapie, die regelmäßig zu Gerichtsverfahren mit den verschreibenden Ärzten als Angeklagte führen.
Morphin ist ein Opioid und zählt zu den starken Analgetika der WHO Stufe III. Bei der Applikation von Morphin kann es neben der gewünschten Analgesie auch zur Abflachung der Ventilation bis hin zum fatalen Atemstillstand kommen. In der Literatur wird die Inzidenz von Morphin-assoziierten Todesfällen mit 0,3 bis 4% angegeben. So kommt es in einigen Fällen auch zu strafrechtlichen Ermittlungen und Gerichtsverfahren mit dem Verdacht der vorsätzlichen Tötung oder sogar des Mordes. Die Frage, ob eine Morphinapplikation Ursache für den Tod eines Patienten war, ist nicht einfach zu beantworten, was mit einigen Besonderheiten von Opioid-Analgetika im Allgemeinen und von Morphin im Besonderen zusammenhängt. Für Morphin existieren z.B. keine genau definierten maximalen Dosen. Es wurden bisher lediglich Empfehlungen ausgesprochen, abhängig auch davon, ob ein Patient noch „opioid-naiv“ ist oder bereits Opioide einnimmt und damit ein Gewöhnungseffekt eingetreten ist, welcher neben der Analgesie die Gefahr des Atemstillstandes verringert. Grundsätzlich gilt immer, die Dosis so gering wie möglich und so hoch wie nötig zu halten. Die Dosis wird an die Schmerzintensität adaptiert, wobei nach keine maximal erlaubte Dosis existiert. Besonders bei terminal kranken Patienten ist die Kausalität zwischen therapeutischer Morphinapplikation und dem Tode oft fraglich, und es werden regelmäßig Gutachten eingeholt, die meistens von Rechtsmedizinern, Anästhesisten und klinischen Pharmakologen erstellt werden.
In diesen Gutachten müssen viele Faktoren, die die Wirkungen von Morphin bis hin zum letalen Ausgang beeinflussen können, diskutiert wurden, und die daher Hauptinhalt der vorliegenden Arbeit sind. Dazu gehören die verabreichten Morphindosen und die Konzentrationen von Morphin und seiner Metabolite im Blut, aber auch Charakteristika des Patienten, wie Alter, Vorerkrankungen wie z.B. Leber- oder Niereninsuffizienz, Komedikationen, oder pharmakogenetische Faktoren. Darüber hinaus spielt für die zeitliche Zuordnung einer Morphingabe mit dem Tode die verzögerte Verteilung Morphins an seinen Wirkort (das zentrale Nervensystem) eine wichtige Rolle.
Eine weitere Schwierigkeit, die sich bei Morphin-assoziierten Toden darstellt, ist die oft zur Debatte stehende verabreichte Morphindosis, die nachträglich aus den gemessenen Konzentrationen im Blut des Verstorbenen rekonstruiert werden soll, was oft nicht sicher möglich ist. Die postmortal gemessenen Konzentrationen von Morphin unterliegen relevanten Veränderungen aufgrund postmortaler Flüssigkeitsumverteilung oder des Zerfalls von Morphin, aber auch als Folge von Veränderungen während der Lagerung der Proben.
In unserer Analyse und Auswertung der vorhandenen Literatur zu diesen Themen kamen wir zu dem Ergebnis, dass es gegenwärtig praktisch sehr schwer ist, eine Morphindosis oder -konzentration sicher mit dem Tod eines Patienten in Verbindung zu bringen. Somit bleibt jeder Todesfall individuell und kontext-abhängig und erfordert die Berücksichtigung weiterer Aspekte bei der der strafrechtlichen Aufarbeitung. Zudem kamen wir zu dem Entschluss, dass angesichts dieser bereits seit langen bekannten Problemen mit Morphin und aber auch anderen Opioiden (siehe “opioid crisis” in den USA), die Entwicklung von sichereren stark wirksamen Analgetika als Ersatz für Opioide dringlich ist.
Das Prostatakarzinom ist in Europa die häufigste Krebserkrankung des Mannes. Im metastasierten, kastrationsresistenten Zustand gibt es wenige Therapieoptionen. Als neuere Therapiemöglichkeit hat sich in den letzten Jahren die Radioligandentherapie (RLT) mit 177Lu-PSMA-617 hervorgetan. Die Myelosuppression ist allerdings ein potentiell dosis-limitierender Faktor bei der Radioligandentherapie.
Ziel der vorliegenden Arbeit war es, das Auftreten, den Schweregrad und die Reversibilität von hämatotoxischen Nebenwirkungen in einer großen Patientenkohorte zu unter-suchen, die sich einer RLT mit 177Lu-PSMA-617 bei metastasiertem kastrationsresistentem Prostatakarzinom (mCRPC) unterzogen. Nach deskriptiver Analyse des behandelten Patientenkollektivs erfolgte die Identifikation von prädisponierenden Faktoren für das Eintreten von hämatologischen Nebenwirkungen. Dabei wurden insbesondere der Beitrag von Vortherapien, Behandlungsaktivität, Ausmaß der Knochentumorlast sowie eine prätherapeutisch bestehende Zytopenie berücksichtigt.
Die RLT wurde bei 140 Patienten durchgeführt, die insgesamt 497 Zyklen erhielten. Eine mittlere Aktivität von 6.9±1.3 GBq 177Lu-PSMA-617 pro Zyklus wurde in einem Median von 3 Behandlungszyklen verabreicht. Die mittlere kumulative Aktivität betrug 24.6±15.9 GBq. Hämatologische Parameter wurden bei Studienbeginn, vor jeder Behandlung, 2 bis 4 Wochen danach und während der gesamten Nachbeobachtung gemessen. Die Toxizität wurde anhand der Common Terminology Criteria for Adverse Events v5.0 eingestuft.
Dabei zeigten sich signifikante (Grad ≥3) hämatologische unerwünschte Ereignisse bei 13 Patienten (9.3%). Davon 10 mit Anämie (7.1%), 5 mit Leukopenie (3.6%) und 6 mit Thrombozytopenie (4.3%). Die Hämatotoxizität war bis zu einem medianen Follow-up von 8 Monaten bei allen bis auf zwei Patienten, die innerhalb von weniger als 3 Monaten nach der RLT an einer Krankheitsprogression starben, reversibel auf Grad ≤2. Die Myelosuppression war signifikant häufiger bei Patienten mit vorbestehender Zytopenie Grad ≥2 oder hoher Knochentumorlast (disseminiert oder diffus). Eine vorangegangene taxan-basierte Chemotherapie war ebenfalls mit einer erhöhten Inzidenz signifikanter Hämatotoxizität assoziiert, während die Behandlung mit 223Ra-Dichlorid, die kumulative RLT-Behandlungsaktivität und die Aktivität pro Zyklus nicht signifikant korreliert waren.
Die vorliegenden Ergebnisse zeigen somit, dass hämatologische Nebenwirkungen nach RLT eine akzeptable Gesamtinzidenz besitzen und häufig reversibel sind. Eine hohe Knochentumorlast, eine vorangegangene taxan-basierte Chemotherapie und eine Zyto-penie vor der Behandlung vom Grad ≥2 können als Risikofaktoren für die Entwicklung einer klinisch relevanten Myelosuppression angesehen werden, während die kumulative RLT-Aktivität und eine vorangegangene 223Ra-Dichlorid-Behandlung keinen signifikanten Beitrag zur Inzidenzrate zeigen. Die Fragestellung ist von unmittelbarer Relevanz, da die Erkenntnisse entscheidend für die individuelle Risikoeinschätzung von Patienten mit mCRPC bezüglich der 177Lu-PSMA-617 beitragen.
Ziel der Arbeit ist es die Eigenschaften und die Häufigkeit von Rezidiven der primär und sekundär therapierten Basalzellkarzinome der MKPG, insbesondere in Abhängigkeit der Lokalisation und des Resektionsstatus zu evaluieren und mit den Ergebnissen der Literatur zu vergleichen, um ein optimiertes chirurgisches Vorgehen zu sichern.
Herzkreislauferkrankungen führen weltweit weiterhin die Liste der häufigsten Todesursachen an. Dem frühzeitigen Erkennen kardialer Veränderungen kommt daher eine besondere Bedeutung zu. Das Erkennen subklinischer Veränderungen des Myokards mit Hilfe des myokardialen T1 Mappings und der Strain Analyse in der kardialen MRT mit der Bestimmung der Korrelation von T1 Mapping und Veränderung des myokardialen Strains war das primäre Ziel der vorliegenden Arbeit. Das native T1 Mapping sollte dabei diffuse kardiale Fibrose erkennen, während die Strainparameter zur Analyse der subtilen kardialen Funktion dienten. Wenn eine vermehrte diffuse Fibrose eine Einschränkung der myokardialen Funktion bedeutet, so müssten sich das native T1 Mapping und die Strainparameter gleichsinnig verändern.
Eingeschlossen in die Untersuchung wurden Patienten, die im Rahmen ihres Klinikaufenthaltes an der Kerckhoff-Klinik Bad Nauheim ein kardiales MRT erhielten und ihre Zustimmung zur Aufnahme in das geführte Register gaben. Alle durchgeführten MRT-Untersuchungen besaßen dabei eine medizinische Indikation. Die Untersuchung umfasste eine Blutentnahme sowie die Bildakquisition und das Ausfüllen eines Fragebogens. In der anschließenden Bildauswertung wurden das native T1 Mapping, eine Featuretrackinganalyse, sowie die reguläre diagnostische Beurteilung durch einen Facharzt durchgeführt. Die Patienten wurden anschließend nach ihren Diagnosen in Gruppen eingeteilt. Ein Jahr nach ihrer Untersuchung wurden die Patienten kontaktiert und erneut befragt, um den Anteil an „major adverse cerebro- and cardiovasculare events“ (MACCE) und der Gesamtsterblichkeit am Gesamtkollektiv festzustellen.
Es zeigten sich signifikante Zusammenhänge zwischen nativem T1 Mapping und den Strainparametern, ebenso wie signifikante Zusammenhänge von schwächerer Effektstärke zwischen ECV und den Strainparametern. Das erhöhte native T1 Mapping ging mit verringerten Strainparametern einher, was auf eine vermehrte Fibrose schließen lässt. In der Überlebensanalyse bezüglich des allgemeinen Überlebens zeigte sich nur das native T1 Mapping als unabhängiger Prädiktor, während bei den MACCE zusätzlich auch die Anzahl der betroffenen Segmente im „late gardolinium enhancement“ (LGE) einen unabhängigen Prädiktor darstellten. Der globale longitudinale Strain (GLS) verfehlte bezüglich der MACCE knapp das Signifikanzniveau, zeigte aber eine Tendenz zur Signifikanz.
Natives T1 Mapping und, in begrenztem Maße, möglicherweise auch der Strain haben eine besondere Rolle in der Diagnostik und können bereits früh kardiale Veränderungen detektieren. Da die erhöhten T1 Zeiten als Marker für morphologische Veränderungen mit den Strains als funktionelle Parameter korrelierten, lässt sich spekulieren, dass Fibrose eine Einschränkung der Funktion bedingt.
Zur bisherigen Basisdiagnostik bei klinischem Verdacht eines PCa wird den aktuellen Leitlinien zufolge, neben einer fundierten Anamnese und körperlicher Untersuchung, die Bestimmung des PSA-Wertes gezählt. Seit nun mehr als zwei Jahrzehnten hat sich die PSA-Bestimmung zur Früherkennung, aber auch der Überwachung von Patienten mit bereits diagnostiziertem PCa bewährt. Ob die Bestimmung des PSA-Wertes die PCa-spezifische Mortalität adäquat widerspiegelt, wird allerdings in zahlreichen Expertenkreisen weiterhin kontrovers diskutiert. Anlässlich dessen soll die Erforschung neuer Biomarker dazu dienen, das Risiko eines aggressiven PCa gezielter zu erfassen und behandeln zu können. Die Arbeitsgruppe von Tsaur et al. hat in vorausgegangenen Studien auf das vielversprechende Potential von sE-Cadherin als möglichen Biomarker beim PCa hingewiesen [92]. Basierend darauf wurde in der vorliegenden Arbeit untersucht, wie sich das Serumprotein sE-Cadherin auf PCa-Zelllinien vor allem in Hinblick auf die Metastasierung des PCa am in vitro Modell auswirkt. Die Experimente erfolgten an den beiden Androgen-resistenten Zellen PC3 und DU145 sowie der Androgen-sensitiven Zelllinie LNCaP nach Behandlung mit sE-Cadherin. Unbehandelte Zellen dienten jeweils als Kontrolle. Die ersten Versuche beschäftigten sich damit, eine Arbeitskonzentration des sE-Cadherins zu etablieren, welche nachfolgend für alle weiteren Versuche genutzt werden konnte. Die Arbeitskonzentration von sE-Cadherin wurde auf 5 µg/ml festgelegt. Mithilfe des MTT-Assays wurde nachfolgend das Zellwachstum untersucht. Auswirkungen von sE-Cadherin auf den Zellzyklus der genannten PCa-Zelllinien wurden mithilfe der fluoreszenzaktivierten Zellanalyse (FACS) nach erfolgter Zell-Synchronisation evaluiert. Der Einfluss von sE-Cadherin auf die einzelnen Schritte der Metastasierung wurde durch Migrations- und Invasions- sowie Adhäsions-Versuchen an Zellmatrixproteinen (immobilisiertes Kollagen und Fibronektin) untersucht. Mithilfe der Durchflusszytometrie konnte die Beeinflussung von sE-Cadherin auf die Integrinoberflächenprofile analysiert werden. Zur Evaluation relevanter Signalwege erfolgten Western-Blot-Versuche, in denen der Expressionsstatus von Integrin-assoziierten Signalproteinen untersucht wurde. Blockade-Studien dienten der Überprüfung der funktionellen Relevanz einzelner Integrine. Die Behandlung der PCa-Zellen mit sE-Cadherin in der Konzentration von 5 µg/ml führte zur signifikanten Abnahme des Tumorwachstums. Die Zellzyklus-Analyse zeigte einen vermehrten Zell-Arrest in der G0/G1-Phase sowie Abnahme der S-Phase. Des Weiteren führte die sE-Cadherin-Applikation bei allen drei PCa-Zelllinien zur Abnahme der Adhäsionsfähigkeit an Kollagen und Fibronektin. Im Gegensatz dazu konnte gleichzeitig eine Erhöhung der chemotaktischen Bewegung beobachtet werden. Unter der sE-Cadherin-Behandlung kam es zur signifikanten Veränderung der Oberflächenprofile der Integrin-Subtypen α3 und β1. Dessen physiologische Relevanz konnte in Blockadestudien überprüft werden. Es zeigte sich, dass beide Subtypen, jedoch insbesondere β1, in die Adhäsion und Chemotaxis involviert sind. Abschließend kann in Zusammenschau der Experimente und dessen Resultate geschlussfolgert werden, dass sE-Cadherin maßgeblich das Metastasierungspotenzial der verschiedenen Prostatakarzinomzellen steigert, indem es das Zellwachstum stagnieren lässt und gleichzeitig das Herablösen der Tumorzellen von der extrazellulären Matrix sowie den Anschluss an das Blut-/Lymphabflusssystem erleichtert.
Hintergrund: Epilepsie bezeichnet eine Erkrankung, welche durch eine anhaltende Prädisposition für Symptome, die im Zusammenhang mit einer ungewöhnlich starken oder synchronisierten elektrischen Aktivität des Gehirns auftreten (=epileptischer Anfall) charakterisiert ist. Mutationen in dem Gen DEPDC5 (Dishevelled, Egl-10 and Pleckstrin (DEP) domain-containing protein 5) sind mit fokalen Epilepsien assoziiert und führen in Tiermodellen und humanen Modellen zu einer Überaktivierung des mTOR-Signalweges. Auf neuromorphologischer Ebene zeigt sich die mTOR-Überaktivierung durch eine Vergrößerung des Zelldurchmessers und einer zunehmenden Verästelung der Neuriten. Ziel dieser Studie war es, die morphologischen Auswirkungen der DEPDC5-assoziierten mTOR-Überaktivierung in der SH-SY5Y-Neuroblastomzelllinie zu untersuchen. Dadurch soll eine Einschätzung getroffen werden, ob das im Zusammenhang mit neurodegenerativen Erkrankungen bereits gut etablierte SH-SY5Y-Zellmodell auch bei der Untersuchung epilepsieassoziierter Pathomechanismen zum Einsatz kommen kann.
Methoden: Unter Einsatz der CRISPR/Cas9-Methode wurden Knockout(KO)-Mutationen in Exon 2 und Exon 3 des DEPDC5-Gens erzeugt und diese mittels Sanger-Sequenzierung bestätigt. Danach wurden die Knockouts auf RNA- und Proteinebene, durch Real-time-RT-PCR und Western Blot validiert. Die bestätigten homozygoten DEPDC5-KO-Zelllinen wurden anschließend mittels Western Blot auf eine mTOR-Überaktivierung untersucht. Zuletzt erfolgte die neuromorphologische Validierung des DEPDC5-KO. Die Zellgröße proliferierender SH-SY5Y wurden mittels Durchflusszytometrie (FACS) untersucht. Zudem bestimmten wir die neuronale Architektur differenzierter SH-SY5Y unter Einsatz der Sholl-Analyse.
Ergebnisse: Es konnten vier unabhängige DEPDC5-KO-SH-SY5Y-Zelllinien mit homozygoten Indel-Mutationen und vorzeitigem Stoppcodon in Exon 3 generiert werden. Die erwartete Reduktion an DEPDC5-mRNA konnte mittels Real-time 10 RT-PCR nicht festgestellt werden. Die Abwesenheit des Proteins konnte durch Western Blot aber gezeigt werden. Funktionell konnte für alle Zelllinien eine mTOR-Überaktivierung mittels Western Blot nachgewiesen werden. Dabei konnte phosphoryliertes AKT (AKT serine/threonine kinase 1) als stabilster Marker etabliert werden. Auf neuromorphologischer Ebene ließ sich ein Trend in Richtung vergrößertem Zelldurchmesser bei verlängertem Auswachsen der Neuriten feststellen, wobei sich für das Modell Unterschiede zwischen den einzelnen Klonen ergaben.
Diskussion: In dieser Studie gelang es erstmals, den Zusammenhang zwischen DEPDC5-KO und einer mTOR-Überaktivierung in der onkogenen SH-SY5Y-Zelllinie zu replizieren. Das verlängerte Auswachsen der Neuriten, bei jedoch gleichbleibender Anzahl peripherer Verästelungen, stellt dabei einen neuen Befund dar und könnte durch die frühe neuronale Entwicklungsstufe des SH-SY5Y-Zellmodells erklärt werden. Auf Grundlage der Ergebnisse dieser Arbeit lässt sich sagen, dass das robuste und kostengünstige SH-SY5Y-Zellmodell insbesondere für high-throughput Methoden und Screeningassays ein geeignetes Modell ist. Durch die Kombination mit reiferen Zellmodellen, wie beispielsweise iPSCs (induced pluripotent stem cells), könnte der Phänotyp eines DEPDC5-KO und anderer mTOR-assoziierter Epilepsien, möglichst umfassend in-vitro dargestellt werden.
Die Krebsstammzellforschung gelangte in den letzten Jahren vermehrt in den Fokus der Tumorforschung. Im Tumor bilden Krebsstammzellen eine kleine Population an Zellen mit Stammzelleigenschaften, wodurch sie eine große Rolle bei der Entstehung von Rezidiven, Metastasen, sowie der Entwicklung von Chemotherapieresistenzen spielen. Um eine gezielte Bekämpfung von Krebsstammzellen zu ermöglichen, müssen diese im
Tumor zunächst zuverlässig durch Krebsstammzellmarker detektiert werden können.
Gerade bei soliden pädiatrischen Tumoren, wie dem Hepatoblastom, ergeben sich hierbei Schwierigkeiten dadurch, dass im sehr heterogenen Tumorgewebe viele Zellen aufgrund der embryonalen Natur des Tumors bereits Stammzellmarker exprimieren, ohne dass es sich bei diesen Zellen um Krebsstammzellen handelt. Das Hepatoblastom ist mit 2/3 der Lebertumore des Kindes die häufigste maligne Leberneoplasie im Kindesalter.
Auch wenn es bereits Hinweise auf das Vorliegen von Krebsstammzellen im Hepatoblastom gibt, so konnten diese bisher nicht genauer durch fest definierte Krebsstammzellmarker identifiziert werden.
Um dies zu erreichen, wurden in dieser Arbeit die beiden Hepatoblastomzelllinien HuH6 und HepG2 auf die Expression der bereits bekannten Krebsstammzellmarker CD90, CD34 und CXCR4 überprüft. Zusätzlich wurde auf eine Bindung des „oval cell“ Antikörpers, OV-6, untersucht. Mittels Durchflusszytometrie-Analysen konnte eine Zellpopulation gefunden werden, welche die Oberflächenmarker CD34 und CD90 koexprimiert und gleichzeitig den OV-6 Antikörper bindet. Im nächsten Schritt wurden die Zellen auf einige Krebsstammzelleigenschaften überprüft. Zur weiteren Untersuchung dieser Subpopulation erfolgte mittels MACS (magnetic activated cell sorting) eine Anreicherung der CD90 exprimierenden Zellen. Diese wurde mittels qPCR auf die Expression der Pluripotenzmarker Oct4 und Nanog, sowie der Zytidindeaminase AID untersucht. Es konnte eine signifikant erhöhte Expression von AID und Oct4 detektiert werden. Im Gegensatz hierzu zeigte sich die Expression von EpCAM, c-myc und Albumin, welche als Kontrollgene untersucht wurden, nicht signifikant erhöht. Um auf das Metastasierungspotential der CD90 angereicherten Zellen rückzuschließen, wurde ein Migrationsassay mit angereicherten und depletierten Zellen durchgeführt. Hier wiesen die CD90 angereicherten Zellen, im Vergleich zu den depletierten Zellen eine erhöhte Migration auf. Im Tumorsphäroid-Assay war die HepG2 Zelllinie in der Lage Tumor-61 -sphäroide auszubilden. Nach der Passagierung zeigten diese eine erhöhte Expression der Krebsstammzellmarker CD90 und CD34, sowie der Pluripotenzmarker Oct4 und Nanog.
Zusammengefasst kann mit den Krebsstammzellmarkern CD90, CD34 und OV-6 eine Subpopulation im Hepatoblastom identifiziert werden, die nach unseren Analysen Krebsstammzelleigenschaften aufweisen. Mithilfe dieses Markersets können nun neue Therapieansätze auf ihre Effektivität, Krebsstammzellen gezielt zu eliminieren, getestet werden.
Ein intaktes Arbeitsgedächtnis ermöglicht es, Informationen, z.B. visuellen oder auditorischen Ursprungs temporär zu speichern, zu manipulieren und weiterzuverarbeiten. Es bildet die Grundlage zum Lernen, zum Begreifen und zum Verstehen von Sprache und somit die Grundlage zum tagtäglichen Funktionieren.
Beeinträchtigungen des Arbeitsgedächtnisses sind mit schlechten (Arbeits-) Leistungen, eingeschränkter zwischenmenschlicher Kommunikation, niedrigerem gesellschaftlichem Funktionsniveau und Arbeitslosigkeit vergesellschaftet und somit folgenschwer.
Psychiatrische Erkrankungen aus dem schizophrenen Spektrum, die unipolare Depression oder das Aufmerksamkeitsdefizit-Hyperaktivitätssyndrom (ADHS) gehen gehäuft mit kognitiven Beeinträchtigungen einher. Auch die bipolare affektive Störung zählt zu den psychiatrischen Erkrankungen, die mit kognitiver Beeinträchtigung assoziiert ist.
Das Ziel der Studie war es, darzustellen, dass kognitive Einschränkungen von Patienten, die an einer bipolaren affektiven Störung leiden, unter den exekutiven Funktionen insbesondere das Arbeitsgedächtnis betreffen und diese auch in euthymer Stimmungslage zu erfassen sind.
Hierzu wurde mittels einer Aufgabe zur Farbveränderung vier verschiedener Kreise, die um ein zentral platziertes, schwarzes Kreuz angeordnet waren, das visuelle Arbeitsgedächtnis anhand der Merkfähigkeit der Patienten, deren euthyme Stimmungslage mit den Ratingskalen MADRS und YMRS bestätigt wurde, im Vergleich zu einer Gruppe gesunder Kontrollprobanden, die mit der Patientengruppe in den Faktoren Alter, Geschlechterverteilung, prämorbide Intelligenz, Schulbildung und Händigkeit vergleichbar war, überprüft.
Anhand der erzielten Ergebnisse wurde die Arbeitsgedächtniskapazität K nach Pashler bestimmt. Es ergab sich eine bei mittlerer Effektstärke signifikant geringere Arbeitsgedächtniskapazität in der Gruppe der remittierten Patienten mit bipolarer affektiver Störung im Vergleich zur Kontrollgruppe gesunder Probanden.
Ein Einfluss der zum Zeitpunkt der Testung in der Patientengruppe angewandten Psychopharmaka auf die Arbeitsgedächtniskapazität konnte ausgeschlossen werden, sodass die ermittelten Defizite nicht als eine Form von Medikamentennebenwirkungen erklärt werden konnten. Interessanterweise betrug die mediane Erkrankungsdauer in der Patientengruppe drei Jahre, sodass davon auszugehen ist, dass die Ausprägung von Defiziten des Arbeitsgedächtnisses keinen langen Krankheitsverlauf bedingt, sondern bereits zu Beginn der Erkrankung vorhanden sein könnte.
Somit konnte die Studie darlegen, dass kognitive Defizite, insbesondere Störungen des Arbeitsgedächtnisses mit daraus resultierender signifikant erniedrigter Arbeitsgedächtniskapazität, bei Patienten mit bipolarer affektiver Störung in euthymer Stimmungslage bereits zu einem frühen Zeitpunkt des Krankheitsverlaufs bestehen, die eine Folge der Erkrankung selbst sind und keine Nebenwirkung von psychopharmazeutischer Medikation darstellen. Den Grund für das Auftreten kognitiver Defizite bei Patienten mit bipolarer affektiver Störung liefert diese Studie nicht, sie impliziert dennoch, dass das Verständnis und die Berücksichtigung kognitiver Störungen bei der bipolaren affektiven Störung zukünftig ein wichtiges Therapieziel darstellen sollte um das funktionelle Outcome von Patienten, die an dieser Störung leiden, entscheidend zu verbessern und somit eine Teilnahme am tagtäglichen Funktionieren weiterhin ermöglicht wird.
In die Zukunft blickend sollten unsere Ergebnisse mithilfe weiterer Untersuchungen validiert werden, insbesondere in Bezug auf genetische Komponenten, die die Arbeitsgedächtniskapazität regulieren. Es sollten Faktoren identifiziert werden, die eine reduzierte Arbeitsgedächtniskapazität bei Patienten mit bipolarer affektiver Störung bedingen. Die vorliegende Studie beantwortet nämlich nicht die Frage, wie genetische Faktoren und Umweltfaktoren die Arbeitsgedächtniskapazität auf kognitiver und neurophysiologischer Ebene beeinflussen könnten.
Angesichts der erwähnten Relevanz eines intakten Arbeitsgedächtnisses für die Funktionsfähigkeit der Patienten sollten zukünftige Studien prüfen, ob prokognitive Interventionen wie die kognitive Remediation oder sogar medikamentöse Therapieoptionen diese Defizite verbessern könnten.