Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (1502) (remove)
Has Fulltext
- yes (1502)
Is part of the Bibliography
- no (1502)
Keywords
- HIV (6)
- Brustkrebs (5)
- Kardiovaskuläre Krankheit (5)
- NMR-Tomographie (5)
- Allgemeinmedizin (4)
- Apoptosis (4)
- Depression (4)
- Glioblastom (4)
- Hepatitis C (4)
- Immunsuppression (4)
Institute
- Medizin (1502) (remove)
Aktivierende Mutationen der Fms-like tyrosine kinase (FLT3) treten bei 25 % der Patienten mit akuter myeloischer Leukämie (AML) auf und begünstigen die unkontrollierte Proliferation maligner Blasten. Autophagie ist ein intrazellulärer Prozess, durch den zytoplasmatische Bestandteile lysosomal abgebaut werden und fungiert als intrazellulärer Homöostase-Mechanismus unter Stress-Bedingungen.
Ziel dieser Arbeit war es, herauszufinden, ob FLT3-ITD+-AML-Zellen vulnerabel gegenüber Autophagie-Hemmung sind.
Hierzu wurde zunächst untersucht, wie sich FLT3-ITD-Signaling und Autophagie unter basalen Wachstumsbedingungen gegenseitig beeinflussen. In einem genetischen Modell zeigte sich, dass FLT3-ITD-transformierte wachstumsfaktorunabhängige Zellen während ihrer fortgesetzten Proliferation vermehrt Autophagie betreiben. Lysosomale Autophagie-Inhibitoren zeigten jedoch unter diesen Bedingungen keine erhöhte Wirksamkeit gegenüber FLT3-ITD-positiven Zellen. Humane FLT3-ITD-positive AML-Zellen zeigten nach genetischer Deletion von ULK1 ebenfalls nur transiente und milde Proliferationsdefizite. Unter basalen Wachstumsbedingungen zeigte sich also keine erhöhte Vulnerabilität FLT3-ITD-exprimierender Zellen gegenüber Autophagie-Inhibition.
Daraufhin wurde die Bedeutung von Autophagie während pharmakologischer Hemmung von FLT3 untersucht. FLT3-Inhibition mittels AC220, einem FLT3-spezifischer Tyrosinkinase-Inhibitor, induzierte bzw. steigerte die autophagische Aktivität ähnlich stark wie eine direkte mTOR-Inhibition. Dies ließ sich im Zellmodell therapeutisch ausnutzen: eine Kombinationsbehandlung mit AC220 und einem lysosomalen Autophagie-Inhibitor zeigte eine synergistische antiproliferative Wirkung. Dies stellt möglicherweise einen neuen rationalen Kombinationsbehandlungsansatz für die Therapie FLT3-ITD-positiver AML-Patienten dar.
Die vorliegende Arbeit stellt eine auf datenwissenschaftlichen Methoden beruhende Analyse des aktuellen Wissens über mögliche kausale Zusammenhänge zwischen therapeutischen Morphinapplikationen mit Todesfällen dar, welche auf computergestützter Extraktion von Information aus frei verfügbaren Wissensdatenbanken und der Analyse der darin enthaltenen numerischen Information besteht. Die Relevanz der vorliegenden Analyse ergibt sich aus dem weltweit breiten Einsatz von Morphin zur Behandlung starker Schmerzen und der immer wieder vorkommenden Todesfälle während einer Morphintherapie, die regelmäßig zu Gerichtsverfahren mit den verschreibenden Ärzten als Angeklagte führen.
Morphin ist ein Opioid und zählt zu den starken Analgetika der WHO Stufe III. Bei der Applikation von Morphin kann es neben der gewünschten Analgesie auch zur Abflachung der Ventilation bis hin zum fatalen Atemstillstand kommen. In der Literatur wird die Inzidenz von Morphin-assoziierten Todesfällen mit 0,3 bis 4% angegeben. So kommt es in einigen Fällen auch zu strafrechtlichen Ermittlungen und Gerichtsverfahren mit dem Verdacht der vorsätzlichen Tötung oder sogar des Mordes. Die Frage, ob eine Morphinapplikation Ursache für den Tod eines Patienten war, ist nicht einfach zu beantworten, was mit einigen Besonderheiten von Opioid-Analgetika im Allgemeinen und von Morphin im Besonderen zusammenhängt. Für Morphin existieren z.B. keine genau definierten maximalen Dosen. Es wurden bisher lediglich Empfehlungen ausgesprochen, abhängig auch davon, ob ein Patient noch „opioid-naiv“ ist oder bereits Opioide einnimmt und damit ein Gewöhnungseffekt eingetreten ist, welcher neben der Analgesie die Gefahr des Atemstillstandes verringert. Grundsätzlich gilt immer, die Dosis so gering wie möglich und so hoch wie nötig zu halten. Die Dosis wird an die Schmerzintensität adaptiert, wobei nach keine maximal erlaubte Dosis existiert. Besonders bei terminal kranken Patienten ist die Kausalität zwischen therapeutischer Morphinapplikation und dem Tode oft fraglich, und es werden regelmäßig Gutachten eingeholt, die meistens von Rechtsmedizinern, Anästhesisten und klinischen Pharmakologen erstellt werden.
In diesen Gutachten müssen viele Faktoren, die die Wirkungen von Morphin bis hin zum letalen Ausgang beeinflussen können, diskutiert wurden, und die daher Hauptinhalt der vorliegenden Arbeit sind. Dazu gehören die verabreichten Morphindosen und die Konzentrationen von Morphin und seiner Metabolite im Blut, aber auch Charakteristika des Patienten, wie Alter, Vorerkrankungen wie z.B. Leber- oder Niereninsuffizienz, Komedikationen, oder pharmakogenetische Faktoren. Darüber hinaus spielt für die zeitliche Zuordnung einer Morphingabe mit dem Tode die verzögerte Verteilung Morphins an seinen Wirkort (das zentrale Nervensystem) eine wichtige Rolle.
Eine weitere Schwierigkeit, die sich bei Morphin-assoziierten Toden darstellt, ist die oft zur Debatte stehende verabreichte Morphindosis, die nachträglich aus den gemessenen Konzentrationen im Blut des Verstorbenen rekonstruiert werden soll, was oft nicht sicher möglich ist. Die postmortal gemessenen Konzentrationen von Morphin unterliegen relevanten Veränderungen aufgrund postmortaler Flüssigkeitsumverteilung oder des Zerfalls von Morphin, aber auch als Folge von Veränderungen während der Lagerung der Proben.
In unserer Analyse und Auswertung der vorhandenen Literatur zu diesen Themen kamen wir zu dem Ergebnis, dass es gegenwärtig praktisch sehr schwer ist, eine Morphindosis oder -konzentration sicher mit dem Tod eines Patienten in Verbindung zu bringen. Somit bleibt jeder Todesfall individuell und kontext-abhängig und erfordert die Berücksichtigung weiterer Aspekte bei der der strafrechtlichen Aufarbeitung. Zudem kamen wir zu dem Entschluss, dass angesichts dieser bereits seit langen bekannten Problemen mit Morphin und aber auch anderen Opioiden (siehe “opioid crisis” in den USA), die Entwicklung von sichereren stark wirksamen Analgetika als Ersatz für Opioide dringlich ist.
Das Prostatakarzinom ist in Europa die häufigste Krebserkrankung des Mannes. Im metastasierten, kastrationsresistenten Zustand gibt es wenige Therapieoptionen. Als neuere Therapiemöglichkeit hat sich in den letzten Jahren die Radioligandentherapie (RLT) mit 177Lu-PSMA-617 hervorgetan. Die Myelosuppression ist allerdings ein potentiell dosis-limitierender Faktor bei der Radioligandentherapie.
Ziel der vorliegenden Arbeit war es, das Auftreten, den Schweregrad und die Reversibilität von hämatotoxischen Nebenwirkungen in einer großen Patientenkohorte zu unter-suchen, die sich einer RLT mit 177Lu-PSMA-617 bei metastasiertem kastrationsresistentem Prostatakarzinom (mCRPC) unterzogen. Nach deskriptiver Analyse des behandelten Patientenkollektivs erfolgte die Identifikation von prädisponierenden Faktoren für das Eintreten von hämatologischen Nebenwirkungen. Dabei wurden insbesondere der Beitrag von Vortherapien, Behandlungsaktivität, Ausmaß der Knochentumorlast sowie eine prätherapeutisch bestehende Zytopenie berücksichtigt.
Die RLT wurde bei 140 Patienten durchgeführt, die insgesamt 497 Zyklen erhielten. Eine mittlere Aktivität von 6.9±1.3 GBq 177Lu-PSMA-617 pro Zyklus wurde in einem Median von 3 Behandlungszyklen verabreicht. Die mittlere kumulative Aktivität betrug 24.6±15.9 GBq. Hämatologische Parameter wurden bei Studienbeginn, vor jeder Behandlung, 2 bis 4 Wochen danach und während der gesamten Nachbeobachtung gemessen. Die Toxizität wurde anhand der Common Terminology Criteria for Adverse Events v5.0 eingestuft.
Dabei zeigten sich signifikante (Grad ≥3) hämatologische unerwünschte Ereignisse bei 13 Patienten (9.3%). Davon 10 mit Anämie (7.1%), 5 mit Leukopenie (3.6%) und 6 mit Thrombozytopenie (4.3%). Die Hämatotoxizität war bis zu einem medianen Follow-up von 8 Monaten bei allen bis auf zwei Patienten, die innerhalb von weniger als 3 Monaten nach der RLT an einer Krankheitsprogression starben, reversibel auf Grad ≤2. Die Myelosuppression war signifikant häufiger bei Patienten mit vorbestehender Zytopenie Grad ≥2 oder hoher Knochentumorlast (disseminiert oder diffus). Eine vorangegangene taxan-basierte Chemotherapie war ebenfalls mit einer erhöhten Inzidenz signifikanter Hämatotoxizität assoziiert, während die Behandlung mit 223Ra-Dichlorid, die kumulative RLT-Behandlungsaktivität und die Aktivität pro Zyklus nicht signifikant korreliert waren.
Die vorliegenden Ergebnisse zeigen somit, dass hämatologische Nebenwirkungen nach RLT eine akzeptable Gesamtinzidenz besitzen und häufig reversibel sind. Eine hohe Knochentumorlast, eine vorangegangene taxan-basierte Chemotherapie und eine Zyto-penie vor der Behandlung vom Grad ≥2 können als Risikofaktoren für die Entwicklung einer klinisch relevanten Myelosuppression angesehen werden, während die kumulative RLT-Aktivität und eine vorangegangene 223Ra-Dichlorid-Behandlung keinen signifikanten Beitrag zur Inzidenzrate zeigen. Die Fragestellung ist von unmittelbarer Relevanz, da die Erkenntnisse entscheidend für die individuelle Risikoeinschätzung von Patienten mit mCRPC bezüglich der 177Lu-PSMA-617 beitragen.
Ziel der Arbeit ist es die Eigenschaften und die Häufigkeit von Rezidiven der primär und sekundär therapierten Basalzellkarzinome der MKPG, insbesondere in Abhängigkeit der Lokalisation und des Resektionsstatus zu evaluieren und mit den Ergebnissen der Literatur zu vergleichen, um ein optimiertes chirurgisches Vorgehen zu sichern.
Herzkreislauferkrankungen führen weltweit weiterhin die Liste der häufigsten Todesursachen an. Dem frühzeitigen Erkennen kardialer Veränderungen kommt daher eine besondere Bedeutung zu. Das Erkennen subklinischer Veränderungen des Myokards mit Hilfe des myokardialen T1 Mappings und der Strain Analyse in der kardialen MRT mit der Bestimmung der Korrelation von T1 Mapping und Veränderung des myokardialen Strains war das primäre Ziel der vorliegenden Arbeit. Das native T1 Mapping sollte dabei diffuse kardiale Fibrose erkennen, während die Strainparameter zur Analyse der subtilen kardialen Funktion dienten. Wenn eine vermehrte diffuse Fibrose eine Einschränkung der myokardialen Funktion bedeutet, so müssten sich das native T1 Mapping und die Strainparameter gleichsinnig verändern.
Eingeschlossen in die Untersuchung wurden Patienten, die im Rahmen ihres Klinikaufenthaltes an der Kerckhoff-Klinik Bad Nauheim ein kardiales MRT erhielten und ihre Zustimmung zur Aufnahme in das geführte Register gaben. Alle durchgeführten MRT-Untersuchungen besaßen dabei eine medizinische Indikation. Die Untersuchung umfasste eine Blutentnahme sowie die Bildakquisition und das Ausfüllen eines Fragebogens. In der anschließenden Bildauswertung wurden das native T1 Mapping, eine Featuretrackinganalyse, sowie die reguläre diagnostische Beurteilung durch einen Facharzt durchgeführt. Die Patienten wurden anschließend nach ihren Diagnosen in Gruppen eingeteilt. Ein Jahr nach ihrer Untersuchung wurden die Patienten kontaktiert und erneut befragt, um den Anteil an „major adverse cerebro- and cardiovasculare events“ (MACCE) und der Gesamtsterblichkeit am Gesamtkollektiv festzustellen.
Es zeigten sich signifikante Zusammenhänge zwischen nativem T1 Mapping und den Strainparametern, ebenso wie signifikante Zusammenhänge von schwächerer Effektstärke zwischen ECV und den Strainparametern. Das erhöhte native T1 Mapping ging mit verringerten Strainparametern einher, was auf eine vermehrte Fibrose schließen lässt. In der Überlebensanalyse bezüglich des allgemeinen Überlebens zeigte sich nur das native T1 Mapping als unabhängiger Prädiktor, während bei den MACCE zusätzlich auch die Anzahl der betroffenen Segmente im „late gardolinium enhancement“ (LGE) einen unabhängigen Prädiktor darstellten. Der globale longitudinale Strain (GLS) verfehlte bezüglich der MACCE knapp das Signifikanzniveau, zeigte aber eine Tendenz zur Signifikanz.
Natives T1 Mapping und, in begrenztem Maße, möglicherweise auch der Strain haben eine besondere Rolle in der Diagnostik und können bereits früh kardiale Veränderungen detektieren. Da die erhöhten T1 Zeiten als Marker für morphologische Veränderungen mit den Strains als funktionelle Parameter korrelierten, lässt sich spekulieren, dass Fibrose eine Einschränkung der Funktion bedingt.
Zur bisherigen Basisdiagnostik bei klinischem Verdacht eines PCa wird den aktuellen Leitlinien zufolge, neben einer fundierten Anamnese und körperlicher Untersuchung, die Bestimmung des PSA-Wertes gezählt. Seit nun mehr als zwei Jahrzehnten hat sich die PSA-Bestimmung zur Früherkennung, aber auch der Überwachung von Patienten mit bereits diagnostiziertem PCa bewährt. Ob die Bestimmung des PSA-Wertes die PCa-spezifische Mortalität adäquat widerspiegelt, wird allerdings in zahlreichen Expertenkreisen weiterhin kontrovers diskutiert. Anlässlich dessen soll die Erforschung neuer Biomarker dazu dienen, das Risiko eines aggressiven PCa gezielter zu erfassen und behandeln zu können. Die Arbeitsgruppe von Tsaur et al. hat in vorausgegangenen Studien auf das vielversprechende Potential von sE-Cadherin als möglichen Biomarker beim PCa hingewiesen [92]. Basierend darauf wurde in der vorliegenden Arbeit untersucht, wie sich das Serumprotein sE-Cadherin auf PCa-Zelllinien vor allem in Hinblick auf die Metastasierung des PCa am in vitro Modell auswirkt. Die Experimente erfolgten an den beiden Androgen-resistenten Zellen PC3 und DU145 sowie der Androgen-sensitiven Zelllinie LNCaP nach Behandlung mit sE-Cadherin. Unbehandelte Zellen dienten jeweils als Kontrolle. Die ersten Versuche beschäftigten sich damit, eine Arbeitskonzentration des sE-Cadherins zu etablieren, welche nachfolgend für alle weiteren Versuche genutzt werden konnte. Die Arbeitskonzentration von sE-Cadherin wurde auf 5 µg/ml festgelegt. Mithilfe des MTT-Assays wurde nachfolgend das Zellwachstum untersucht. Auswirkungen von sE-Cadherin auf den Zellzyklus der genannten PCa-Zelllinien wurden mithilfe der fluoreszenzaktivierten Zellanalyse (FACS) nach erfolgter Zell-Synchronisation evaluiert. Der Einfluss von sE-Cadherin auf die einzelnen Schritte der Metastasierung wurde durch Migrations- und Invasions- sowie Adhäsions-Versuchen an Zellmatrixproteinen (immobilisiertes Kollagen und Fibronektin) untersucht. Mithilfe der Durchflusszytometrie konnte die Beeinflussung von sE-Cadherin auf die Integrinoberflächenprofile analysiert werden. Zur Evaluation relevanter Signalwege erfolgten Western-Blot-Versuche, in denen der Expressionsstatus von Integrin-assoziierten Signalproteinen untersucht wurde. Blockade-Studien dienten der Überprüfung der funktionellen Relevanz einzelner Integrine. Die Behandlung der PCa-Zellen mit sE-Cadherin in der Konzentration von 5 µg/ml führte zur signifikanten Abnahme des Tumorwachstums. Die Zellzyklus-Analyse zeigte einen vermehrten Zell-Arrest in der G0/G1-Phase sowie Abnahme der S-Phase. Des Weiteren führte die sE-Cadherin-Applikation bei allen drei PCa-Zelllinien zur Abnahme der Adhäsionsfähigkeit an Kollagen und Fibronektin. Im Gegensatz dazu konnte gleichzeitig eine Erhöhung der chemotaktischen Bewegung beobachtet werden. Unter der sE-Cadherin-Behandlung kam es zur signifikanten Veränderung der Oberflächenprofile der Integrin-Subtypen α3 und β1. Dessen physiologische Relevanz konnte in Blockadestudien überprüft werden. Es zeigte sich, dass beide Subtypen, jedoch insbesondere β1, in die Adhäsion und Chemotaxis involviert sind. Abschließend kann in Zusammenschau der Experimente und dessen Resultate geschlussfolgert werden, dass sE-Cadherin maßgeblich das Metastasierungspotenzial der verschiedenen Prostatakarzinomzellen steigert, indem es das Zellwachstum stagnieren lässt und gleichzeitig das Herablösen der Tumorzellen von der extrazellulären Matrix sowie den Anschluss an das Blut-/Lymphabflusssystem erleichtert.
Hintergrund: Epilepsie bezeichnet eine Erkrankung, welche durch eine anhaltende Prädisposition für Symptome, die im Zusammenhang mit einer ungewöhnlich starken oder synchronisierten elektrischen Aktivität des Gehirns auftreten (=epileptischer Anfall) charakterisiert ist. Mutationen in dem Gen DEPDC5 (Dishevelled, Egl-10 and Pleckstrin (DEP) domain-containing protein 5) sind mit fokalen Epilepsien assoziiert und führen in Tiermodellen und humanen Modellen zu einer Überaktivierung des mTOR-Signalweges. Auf neuromorphologischer Ebene zeigt sich die mTOR-Überaktivierung durch eine Vergrößerung des Zelldurchmessers und einer zunehmenden Verästelung der Neuriten. Ziel dieser Studie war es, die morphologischen Auswirkungen der DEPDC5-assoziierten mTOR-Überaktivierung in der SH-SY5Y-Neuroblastomzelllinie zu untersuchen. Dadurch soll eine Einschätzung getroffen werden, ob das im Zusammenhang mit neurodegenerativen Erkrankungen bereits gut etablierte SH-SY5Y-Zellmodell auch bei der Untersuchung epilepsieassoziierter Pathomechanismen zum Einsatz kommen kann.
Methoden: Unter Einsatz der CRISPR/Cas9-Methode wurden Knockout(KO)-Mutationen in Exon 2 und Exon 3 des DEPDC5-Gens erzeugt und diese mittels Sanger-Sequenzierung bestätigt. Danach wurden die Knockouts auf RNA- und Proteinebene, durch Real-time-RT-PCR und Western Blot validiert. Die bestätigten homozygoten DEPDC5-KO-Zelllinen wurden anschließend mittels Western Blot auf eine mTOR-Überaktivierung untersucht. Zuletzt erfolgte die neuromorphologische Validierung des DEPDC5-KO. Die Zellgröße proliferierender SH-SY5Y wurden mittels Durchflusszytometrie (FACS) untersucht. Zudem bestimmten wir die neuronale Architektur differenzierter SH-SY5Y unter Einsatz der Sholl-Analyse.
Ergebnisse: Es konnten vier unabhängige DEPDC5-KO-SH-SY5Y-Zelllinien mit homozygoten Indel-Mutationen und vorzeitigem Stoppcodon in Exon 3 generiert werden. Die erwartete Reduktion an DEPDC5-mRNA konnte mittels Real-time 10 RT-PCR nicht festgestellt werden. Die Abwesenheit des Proteins konnte durch Western Blot aber gezeigt werden. Funktionell konnte für alle Zelllinien eine mTOR-Überaktivierung mittels Western Blot nachgewiesen werden. Dabei konnte phosphoryliertes AKT (AKT serine/threonine kinase 1) als stabilster Marker etabliert werden. Auf neuromorphologischer Ebene ließ sich ein Trend in Richtung vergrößertem Zelldurchmesser bei verlängertem Auswachsen der Neuriten feststellen, wobei sich für das Modell Unterschiede zwischen den einzelnen Klonen ergaben.
Diskussion: In dieser Studie gelang es erstmals, den Zusammenhang zwischen DEPDC5-KO und einer mTOR-Überaktivierung in der onkogenen SH-SY5Y-Zelllinie zu replizieren. Das verlängerte Auswachsen der Neuriten, bei jedoch gleichbleibender Anzahl peripherer Verästelungen, stellt dabei einen neuen Befund dar und könnte durch die frühe neuronale Entwicklungsstufe des SH-SY5Y-Zellmodells erklärt werden. Auf Grundlage der Ergebnisse dieser Arbeit lässt sich sagen, dass das robuste und kostengünstige SH-SY5Y-Zellmodell insbesondere für high-throughput Methoden und Screeningassays ein geeignetes Modell ist. Durch die Kombination mit reiferen Zellmodellen, wie beispielsweise iPSCs (induced pluripotent stem cells), könnte der Phänotyp eines DEPDC5-KO und anderer mTOR-assoziierter Epilepsien, möglichst umfassend in-vitro dargestellt werden.
Die Krebsstammzellforschung gelangte in den letzten Jahren vermehrt in den Fokus der Tumorforschung. Im Tumor bilden Krebsstammzellen eine kleine Population an Zellen mit Stammzelleigenschaften, wodurch sie eine große Rolle bei der Entstehung von Rezidiven, Metastasen, sowie der Entwicklung von Chemotherapieresistenzen spielen. Um eine gezielte Bekämpfung von Krebsstammzellen zu ermöglichen, müssen diese im
Tumor zunächst zuverlässig durch Krebsstammzellmarker detektiert werden können.
Gerade bei soliden pädiatrischen Tumoren, wie dem Hepatoblastom, ergeben sich hierbei Schwierigkeiten dadurch, dass im sehr heterogenen Tumorgewebe viele Zellen aufgrund der embryonalen Natur des Tumors bereits Stammzellmarker exprimieren, ohne dass es sich bei diesen Zellen um Krebsstammzellen handelt. Das Hepatoblastom ist mit 2/3 der Lebertumore des Kindes die häufigste maligne Leberneoplasie im Kindesalter.
Auch wenn es bereits Hinweise auf das Vorliegen von Krebsstammzellen im Hepatoblastom gibt, so konnten diese bisher nicht genauer durch fest definierte Krebsstammzellmarker identifiziert werden.
Um dies zu erreichen, wurden in dieser Arbeit die beiden Hepatoblastomzelllinien HuH6 und HepG2 auf die Expression der bereits bekannten Krebsstammzellmarker CD90, CD34 und CXCR4 überprüft. Zusätzlich wurde auf eine Bindung des „oval cell“ Antikörpers, OV-6, untersucht. Mittels Durchflusszytometrie-Analysen konnte eine Zellpopulation gefunden werden, welche die Oberflächenmarker CD34 und CD90 koexprimiert und gleichzeitig den OV-6 Antikörper bindet. Im nächsten Schritt wurden die Zellen auf einige Krebsstammzelleigenschaften überprüft. Zur weiteren Untersuchung dieser Subpopulation erfolgte mittels MACS (magnetic activated cell sorting) eine Anreicherung der CD90 exprimierenden Zellen. Diese wurde mittels qPCR auf die Expression der Pluripotenzmarker Oct4 und Nanog, sowie der Zytidindeaminase AID untersucht. Es konnte eine signifikant erhöhte Expression von AID und Oct4 detektiert werden. Im Gegensatz hierzu zeigte sich die Expression von EpCAM, c-myc und Albumin, welche als Kontrollgene untersucht wurden, nicht signifikant erhöht. Um auf das Metastasierungspotential der CD90 angereicherten Zellen rückzuschließen, wurde ein Migrationsassay mit angereicherten und depletierten Zellen durchgeführt. Hier wiesen die CD90 angereicherten Zellen, im Vergleich zu den depletierten Zellen eine erhöhte Migration auf. Im Tumorsphäroid-Assay war die HepG2 Zelllinie in der Lage Tumor-61 -sphäroide auszubilden. Nach der Passagierung zeigten diese eine erhöhte Expression der Krebsstammzellmarker CD90 und CD34, sowie der Pluripotenzmarker Oct4 und Nanog.
Zusammengefasst kann mit den Krebsstammzellmarkern CD90, CD34 und OV-6 eine Subpopulation im Hepatoblastom identifiziert werden, die nach unseren Analysen Krebsstammzelleigenschaften aufweisen. Mithilfe dieses Markersets können nun neue Therapieansätze auf ihre Effektivität, Krebsstammzellen gezielt zu eliminieren, getestet werden.
Ein intaktes Arbeitsgedächtnis ermöglicht es, Informationen, z.B. visuellen oder auditorischen Ursprungs temporär zu speichern, zu manipulieren und weiterzuverarbeiten. Es bildet die Grundlage zum Lernen, zum Begreifen und zum Verstehen von Sprache und somit die Grundlage zum tagtäglichen Funktionieren.
Beeinträchtigungen des Arbeitsgedächtnisses sind mit schlechten (Arbeits-) Leistungen, eingeschränkter zwischenmenschlicher Kommunikation, niedrigerem gesellschaftlichem Funktionsniveau und Arbeitslosigkeit vergesellschaftet und somit folgenschwer.
Psychiatrische Erkrankungen aus dem schizophrenen Spektrum, die unipolare Depression oder das Aufmerksamkeitsdefizit-Hyperaktivitätssyndrom (ADHS) gehen gehäuft mit kognitiven Beeinträchtigungen einher. Auch die bipolare affektive Störung zählt zu den psychiatrischen Erkrankungen, die mit kognitiver Beeinträchtigung assoziiert ist.
Das Ziel der Studie war es, darzustellen, dass kognitive Einschränkungen von Patienten, die an einer bipolaren affektiven Störung leiden, unter den exekutiven Funktionen insbesondere das Arbeitsgedächtnis betreffen und diese auch in euthymer Stimmungslage zu erfassen sind.
Hierzu wurde mittels einer Aufgabe zur Farbveränderung vier verschiedener Kreise, die um ein zentral platziertes, schwarzes Kreuz angeordnet waren, das visuelle Arbeitsgedächtnis anhand der Merkfähigkeit der Patienten, deren euthyme Stimmungslage mit den Ratingskalen MADRS und YMRS bestätigt wurde, im Vergleich zu einer Gruppe gesunder Kontrollprobanden, die mit der Patientengruppe in den Faktoren Alter, Geschlechterverteilung, prämorbide Intelligenz, Schulbildung und Händigkeit vergleichbar war, überprüft.
Anhand der erzielten Ergebnisse wurde die Arbeitsgedächtniskapazität K nach Pashler bestimmt. Es ergab sich eine bei mittlerer Effektstärke signifikant geringere Arbeitsgedächtniskapazität in der Gruppe der remittierten Patienten mit bipolarer affektiver Störung im Vergleich zur Kontrollgruppe gesunder Probanden.
Ein Einfluss der zum Zeitpunkt der Testung in der Patientengruppe angewandten Psychopharmaka auf die Arbeitsgedächtniskapazität konnte ausgeschlossen werden, sodass die ermittelten Defizite nicht als eine Form von Medikamentennebenwirkungen erklärt werden konnten. Interessanterweise betrug die mediane Erkrankungsdauer in der Patientengruppe drei Jahre, sodass davon auszugehen ist, dass die Ausprägung von Defiziten des Arbeitsgedächtnisses keinen langen Krankheitsverlauf bedingt, sondern bereits zu Beginn der Erkrankung vorhanden sein könnte.
Somit konnte die Studie darlegen, dass kognitive Defizite, insbesondere Störungen des Arbeitsgedächtnisses mit daraus resultierender signifikant erniedrigter Arbeitsgedächtniskapazität, bei Patienten mit bipolarer affektiver Störung in euthymer Stimmungslage bereits zu einem frühen Zeitpunkt des Krankheitsverlaufs bestehen, die eine Folge der Erkrankung selbst sind und keine Nebenwirkung von psychopharmazeutischer Medikation darstellen. Den Grund für das Auftreten kognitiver Defizite bei Patienten mit bipolarer affektiver Störung liefert diese Studie nicht, sie impliziert dennoch, dass das Verständnis und die Berücksichtigung kognitiver Störungen bei der bipolaren affektiven Störung zukünftig ein wichtiges Therapieziel darstellen sollte um das funktionelle Outcome von Patienten, die an dieser Störung leiden, entscheidend zu verbessern und somit eine Teilnahme am tagtäglichen Funktionieren weiterhin ermöglicht wird.
In die Zukunft blickend sollten unsere Ergebnisse mithilfe weiterer Untersuchungen validiert werden, insbesondere in Bezug auf genetische Komponenten, die die Arbeitsgedächtniskapazität regulieren. Es sollten Faktoren identifiziert werden, die eine reduzierte Arbeitsgedächtniskapazität bei Patienten mit bipolarer affektiver Störung bedingen. Die vorliegende Studie beantwortet nämlich nicht die Frage, wie genetische Faktoren und Umweltfaktoren die Arbeitsgedächtniskapazität auf kognitiver und neurophysiologischer Ebene beeinflussen könnten.
Angesichts der erwähnten Relevanz eines intakten Arbeitsgedächtnisses für die Funktionsfähigkeit der Patienten sollten zukünftige Studien prüfen, ob prokognitive Interventionen wie die kognitive Remediation oder sogar medikamentöse Therapieoptionen diese Defizite verbessern könnten.
Die rechtsmedizinische Begutachtung von Knochenfunden : eine hessenweite retrospektive Studie
(2023)
Einleitung: Zufällige Funde von Knochen(fragmenten) können von großem Interesse für z. B. Strafverfolgungs- und Denkmalbehörden oder Bauträger sein. Zur Beurteilung einer etwaigen strafrechtlichen oder historischen Relevanz tragen forensisch-osteologische Untersuchungen in einem hohen Maße bei. Die vorliegende Arbeit soll einen Überblick über die forensisch-osteologische Arbeit der beiden hessischen Institute für Rechtsmedizin geben und durch die Interpretation der Ergebnisse im (inter-)nationalen Vergleich regionale Besonderheiten und die Rolle der Rechtsmedizin bei der Begutachtung aufzeigen. Der daraus entstandene Erkenntnisgewinn soll ein Problembewusstsein schaffen sowie Fallarbeit und Lehre verbessern.
Material und Methoden: Zunächst wurden für den Zeitraum von 2005 bis 2019 die im Institut für Rechtsmedizin Gießen archivierten osteologischen Gutachten deskriptiv statistisch ausgewertet. Es wurden Daten zu Fundort, -umständen, Humanspezifität, postmortalem Intervall, Spuren von Gewalt und die Ergebnisse weiterführender Untersuchungen erhoben.
In einer zweiten Studie wurde die Auswertung auf archivierte forensisch- osteologische Gutachten des Instituts für Rechtsmedizin Frankfurt am Main ausgeweitet und der Auswertungszeitraum auf die Jahre 2011 bis einschließlich 2020 angepasst, um eine hessenweite Datengrundlage zu generieren.
Ergebnisse: In der ersten Studie wurden von den in dem 15-Jahres-Zeitraum begutachteten 172 Knochenfunden aus dem Institut für Rechtsmedizin Gießen 40 % in Wald- und Wiesengebieten aufgefunden. In 58 % enthielten die Funde menschliche Knochen, davon wurde in 32 % eine forensisch relevante Liegezeit von 50 Jahren oder weniger nicht ausgeschlossen, und 6% wiesen Zeichen perimortaler Gewalteinwirkung auf. Bei den Fällen, in denen eine Humanspezifität ausgeschlossen wurde, handelte es sich am häufigsten um Knochen von Hirsch bzw. Reh (32 %), Schwein (29 %) und Rind (14 %). In 20 % aller Fälle wurden
ergänzende DNA-Untersuchungen durchgeführt; in 62 % verlief die Typisierung humaner STR-Systeme erfolgreich und davon gelang in 41 % die Zuordnung zu einem antemortalen Profil einer vermissten Person.
In der zweiten, hessenweiten Studie, wurden 288 Knochenfunde eines 10-Jahres-Zeitraums ausgewertet. Mit 38,2 % wurden die meisten Funde in Wäldern, Wiesen und großen Parks getätigt. In 50,7 % der Fälle enthielten die Funde menschliche Knochen, davon wurde in 37,0 % eine forensisch relevante Liegezeit angenommen. Zeichen einer Gewalteinwirkung wurden in 77,4 % der Fälle mit menschlichen Knochen beschrieben, dabei handelte es sich mit 78,8 % am häufigsten um postmortale Beschädigungen, in 9,7 % um perimortale und in 11,5 % um antemortale Verletzungen. In 40,4 % der als human klassifizierten Knochenfunde wurden DNA-Untersuchungen durchgeführt. Dabei konnte in 81,3 % ein STR-Profil erstellt werden, das in 35,4% zu einer sicheren Identifizierung führte. Bei den zur Untersuchung überstellten nicht-menschlichen Knochen handelte es sich am häufigsten um Knochen vom Schwein (23,4 %), Hirsch (18,1 %), Rind (16,4 %), Reh (11,7 %) und Schaf (11,7 %).
Diskussion: Die Begutachtung von Knochen und Knochenfragmenten ist ein fester Bestandteil der rechtsmedizinischen Fallarbeit und zwingend erforderlich, um Fälle von forensischem Interesse zu identifizieren. Die makroskopische Befundung durch einen geschulten Untersucher erlaubt in der Regel bereits, Aussagen über die forensische Relevanz eines Fundes zu treffen und so die Weichen für das weitere Vorgehen zu stellen. Hilfreich bei der makroskopischen Beurteilung ist eine gute Kenntnis der regionalen Besonderheiten in dem Gebiet, in dem die Knochen gefunden wurden. Die makroskopische forensisch-osteologische Begutachtung stellt trotz der sich ständig weiterentwickelnden technischen Möglichkeiten ein unverzichtbares Werkzeug in der Bearbeitung von Knochenfunden dar. In Deutschland ist es Aufgabe der Rechtsmedizin, diese Expertise zu pflegen und vorzuhalten, mit dem Ziel, zur Aufklärung von Vermisstenfällen beizutragen und unentdeckte nichtnatürliche Todesfälle aufzuklären.
Hintergrund: Anämie gehört zu den häufigsten Erkrankungen weltweit und stellt daher ein zentrales globales Gesundheitsproblem dar. Etwa ein Drittel aller chirurgischen Patienten weisen präoperativ eine Anämie auf. Dies wird als unabhängiger Risikofaktor für eine erhöhte Morbidität und Mortalität sowie für das vermehrte Auftreten postoperativer Komplikationen angesehen. Vor diesem Hintergrund wurde von der Weltgesundheitsorganisation (World Health Organization, WHO) ein patientenzentriertes Behandlungskonzept namens Patient Blood Management (PBM) gefordert, um unter anderem Anämien frühzeitig zu diagnostizieren und einen rationalen Einsatz von Fremdblutprodukten zu fördern. Trotz der Tatsache, dass PBM vor etwa 10 Jahren eingeführt wurde, scheint Deutschland im internationalen Vergleich eine überdurchschnittlich hohe Menge an Erythrozytenkonzentrat-(EK)Einheiten pro Kopf zu transfundieren. Die Ursachen dafür sind bislang unklar und könnten möglicherweise durch eine erhöhte Anämie- Prävalenz bei chirurgischen Patienten und dem damit verbundenen erhöhten Bedarf an Transfusionen einhergehen.
Zielsetzung: Ziel dieser Arbeit ist die multizentrische Erfassung der präoperativen Anämie-Prävalenz innerhalb des Zeitraums 2007-2019 in Deutschland.
Methoden: In dieser retrospektiven, multizentrischen Beobachtungsstudie wurden alle Patienten jeden Alters, die im Monat März der Jahre 2007, 2012, 2015, 2017 und 2019 in acht teilnehmenden Krankenhäusern operiert wurden, erfasst. Patientencharakteristika und klinische Daten wurden aus den Krankenhausinformationssystemen der teilnehmenden Krankenhäuser entnommen. Primäres Ziel war die Prävalenz der Anämie bei Krankenhausaufnahme. Sekundäre Endpunkte waren der Zusammenhang zwischen Anämie und Anzahl der transfundierten EKs, Dauer des Krankenhausaufenthalts und Sterblichkeit im Krankenhaus.
Ergebnisse: Von insgesamt 30.763 Patienten konnten 23.836 Patienten aus acht Krankenhäusern in die Analyse eingeschlossen werden. Im untersuchten Zeitraum zeigte sich eine Reduktion der präoperativen Anämie-Prävalenz erwachsener Patienten von 37% auf 32,2%. Die Zahl, der mit Erythrozytenkonzentraten -5- transfundierten Patienten, ging signifikant von 16,5 % im Jahr 2007 auf 7,8 % im Jahr 2019 zurück, wobei Patienten mit präoperativer Anämie im Vergleich zu Patienten ohne Anämie sechsmal mehr EKs erhielten. Insgesamt verkürzte sich die Krankenhausverweildauer seit 2007 deutlich, zeigte jedoch eine signifikante Verlängerung bei Vorliegen einer präoperativen Anämie. Die Sterblichkeitsrate war über die Jahre hinweg konstant, dennoch signifikant höher bei anämischen Patienten. Eine multivariate Regressionsanalyse mit festen Effekten ergab, dass präoperative Anämie und EK-Transfusion Prädiktoren für die Sterblichkeitsrate waren.
Diskussion: Die Prävalenz der präoperativen Anämie lag in unserer Studienpopulation im Jahr 2019 bei 32,2 %, was der weltweiten Prävalenz entspricht. Das Implementieren von PBM-Strategien, um präoperative Anämien frühzeitig zu identifizieren und zu therapieren sowie Blutprodukte rational einzusetzen, nimmt daher weiterhin einen großen Stellenwert ein. Diese perioperativen Maßnahmen sind für alle chirurgischen Patienten von zentraler Bedeutung, da eine präoperative Anämie den Bedarf an EK-Transfusionen erhöhen, die Liegezeit verlängern und mit einer erhöhten Sterblichkeitsrate assoziiert sein kann.
Einleitung: Im Jahr 2016 wurde eine neue, individuelle Lehrform, das „Lernzentrum für ein individualisiertes medizinisches Tätigkeitstraining und Entwicklung“ („Limette“), an der Westfälischen Wilhelms-Universität Münster entwickelt. Das Ziel dieser Lernform ist und war es, nicht nur die theoretische Lehre, sondern vor allem die praktische Lehre und praktische Szenarien in einem geschütztem Lernumfeld in der medizinischen Lehrdidaktik in den Vordergrund zu stellen.
Die Studierenden nehmen an verschiedenen Fächern der Limette teil. In dieser Promotionsarbeit liegt der Fokus auf der Limette Patient Blood Management (PBM) und Transfusionsmedizin.
Vor Kursbeginn wird den Studierenden Zugang zu verschiedenen Vorbereitungsvideos sowie weiteren theoretischen Materialien über PBM und Transfusionsmedizin zur Verfügung gestellt. Bei der Limette durchläuft jeder Studierende sechs verschiedene Stationen. Hierbei beobachten Dozenten die Fertigkeiten und die Umsetzung der Aufgabenlösung durch halbverspiegelte Scheiben, im Umgang mit echten Blutprodukten oder die Kommunikation mit Patienten, die von Schauspielern dargestellt werden. Die Beobachtungen werden den Dozenten des Seminars, welches im Anschluss zur Nachbesprechung stattfindet, mitgeteilt. Hier teilen die Studierenden untereinander ihr Wissen, können den Dozenten Fragen stellen und werden ihnen weitere theoretisch-praktische Kenntnisse vermittelt.
Ziel der Arbeit: Die Promotionsarbeit hat die Auswertung der Selbsteinschätzungsbögen vor und nach der Limette mit anschließender Interpretation der Ergebnisse zum Ziel. Es soll eruiert werden, ob diese neue Lehrmethodik effektiv in der Umsetzung des Lehrerfolgs ist.
Methodik: Die Selbsteinschätzungsbögen hinsichtlich medizinischer Fertigkeiten und Tätigkeiten werden vor und nach der Limette von den Studierenden ausgefüllt. Die Aufgabenstellungen fokussieren sich jeweils auf medizinische Tätigkeiten, bei denen aus 13 verschiedenen Entrustable Professional Activities (EPAs) diejenigen hinterlegt werden, die bei dieser Aufgabe gelehrt werden. Die Differenz von post- zu prä- Selbsteinschätzung zeigt den Lehrerfolg. Die EPAs werden alle analysiert und mit Hilfe der sogenannten Cohen-Zahl interpretiert. Die Cohen Zahl ist definiert als die Differenz zwischen den Mittelwerten zweier Gruppen dividiert durch die gemeinsame Standardabweichung der beiden Populationen. Nach dem Autor Hattie wurde die Skalierung von Cohen für die Lehre angepasst und dabei folgende Einteilung definiert: d = 0,2 (klein), d = 0,4 (mittel) und d = 0,6 (groß). Alle Methoden mit d > 0,4 wurden als „Zone der gewünschten Effekte“ eingestuft.
Ergebnisse: Im Wintersemester 2021/2022 nahmen n=122 Studierende teil, von welchen n=50 beide Fragebögen komplettierten. Eine signifikante Zahl der dargestellten EPAs (50%) hat gute Ergebnisse erzielt, weist mithin einen Cohen´s Wert von d > 0,40 auf. Im Sommersemester 2022 nahmen n=99 Studierende teil, wobei nur n=29 beide Selbsterhebungsbögen komplettierten. Aufgrund des niedrigen Rücklaufs war die Zahl der ausgefüllten Selbsteinschätzungsbögen deutlich geringer und zugleich die Ergebnisse geringer ausgeprägt. In jenem Semester weist die Mehrheit der Ergebnisse einen Cohen´s d-Wert zwischen 0,15 und 0,4 auf, was als durchschnittlicher Lehrerfolg beurteilt wird.
Schlussfolgerung: Die Lehrform der Limette ist eine neue Form der praktischen Lehrvermittlung, die kontinuierlichen Anpassungen unterliegt. Eine hohe Zahl an ausgefüllten Selbsteinschätzungsbögen ist erstrebenswert, um den Lehrerfolg positiv und statistisch signifikant interpretieren zu können. Hierbei ist es nötig, die Lehre in der Limette auszuwerten und gegebenenfalls weitere Anpassungen durchzuführen.
Die Limette ist eine neue Lehrmethode mit einem guten Lehrerfolg hinsichtlich der Vermittlung praktischer Fähigkeiten und sozialer Kompetenz, welche auch an anderen Institutionen angewandt und umgesetzt werden könnte.
Der Einfluss von Trauma-aktiviertem platelet-rich fibrin auf mesenchymale Stammzellen in vitro
(2023)
Ziel dieser Arbeit war es, die Wechselwirkung zwischen MSC und PRF von Traumapatienten herauszuarbeiten und zu überprüfen, ob ein therapeutischer Einsatz der Kombination von MSC und Trauma-aktiviertem PRF in Frakturen sinnvoll erscheint.
Hierfür wurden MSC mit PRF über einen Zeitraum von 24 oder 120 Stunden co-inkubiert und die metabolische Aktivität, definierte Faktoren im Überstand (IL-6, CXCL10, VEGF und IDO-2) und die Genexpression ausgewählter Faktoren (MAPK8, MAPK14, IL-6, CXCL10,IDO-1, TNFAIP6, VEGFA, RUNX2 und COL1A) in bis zu drei Messzeitpunkten überprüft. Die Versuche erfolgten vergleichend mit Traumapatienten und gesunden Probanden.
Es konnte gezeigt werden, dass Trauma-aktiviertes PRF verglichen mit PRF von gesunden Probanden die metabolische Aktivität von MSC nach 120 Stunden erhöhen kann. Zudem stellten sich erhöhte Werte des inflammatorischen Faktors IL-6 im Überstand bei Traumapatienten nach 24 und 72 Stunden dar, welche bis zum dritten Messzeitpunkt nach 120 Stunden wieder abfielen. Ein ähnlicher Verlauf zeigte sich bei den Messwerten von VEGFA, einem Faktor, welcher eine große Rolle bei der Angiogenese spielt.
Über alle Messzeitpunkte hinweg konnten niedrigere Werte in der Genexpression von COL1A und RUNX2 im Vergleich zu den Kontrollmessungen erfasst werden.
Die Ergebnisse zeigen, dass im Vergleich zu PRF gesunder Probanden Trauma-aktiviertes PRF die Möglichkeit besitzt, die Proliferation von MSC zu stimulieren. Außerdem wurde beobachtet, dass Trauma-aktiviertes PRF ein inflammatorisches und angiogenetisches Potenzial nach 72 Stunden besitzt, welches nach 120 Stunden allerdings wieder abfällt. Möglicherweise kann durch den Einfluss von MSC der Inflammation entgegengewirkt werden. Ein signifikantes osteogenes Potenzial des Trauma-aktivierten PRFs konnte zu keinem Messzeitpunkt nachgewiesen werden.
Inwiefern der Einsatz von MSC in Kombination mit Trauma-aktiviertem PRF die Frakturheilung verbessern kann, konnte in der vorliegenden Studie nicht eindeutig geklärt werden. Es kann allerdings davon ausgegangen werden, dass die Implantation von Trauma-aktiviertem PRF und MSC in den Defekt erst nach Verstreichen einer bestimmten Zeitperiode nach dem Trauma durchgeführt werden sollte. Die Gründe für diese Annahme sind das erhöhte proliferative und verringerte inflammatorische Potenzial im Verlauf. Eine Ursache für das Fehlen der osteogenen Differenzierung der MSC kann der kurze Messzeitraum sein.
Weitere Studien sollten folgen, um das Potenzial der Kombination von MSC und Trauma-aktiviertem PRF als therapeutisches Verfahren zu überprüfen.
Trauma ist in Deutschland und weltweit eine der häufigsten Todesursache bei Personen unter 55 Jahren. Eine traumatische Verletzung von Gewebe führt zur Freisetzung von sogenannten damage-associated molecular patterns (DAMPs), die eine Entzündungskaskade auslösen, welche die Organfunktion negativ beeinträchtigt. Dies führt bei anhaltender Entzündung zunächst zu Organdysfunktion, was im weiteren Verlauf zu Organversagen führt und im Spätstadium im multiplen Organversagen (MOF) enden kann. In den meisten Fällen ist die inflammatorische Antwort des Immunsystems auf das Trauma adäquat und entspricht einem gut koordinierten Netzwerk von Immunzellen, Zytokinen und Chemokinen, welches zur Wiederherstellung des geschädigten Gewebes führt. Wenn dieses Netzwerk jedoch nicht im Gleichgewicht ist, kann die Entzündungsreaktion durch eine sogenannte feed-forward-loop von Inflammation und Gewebeschäden verstärkt werden. Wenn dieser Prozess systemisch wird, spricht man vom systemic inflammatory response syndrome (SIRS). Auf der anderen Seite gibt es ein Gegenstück zu SIRS, nämlich das sogenannte compensatory anti-inflammatory response syndrome (CARS). Auch ein Überschießen von CARS kann den Verlauf der posttraumatischen Inflammation negativ beeinträchtigen. Sowohl eine Verschiebung in Richtung von SIRS als auch in Richtung von CARS kann zu Organfunktionsstörungen, nosokomialen Infektionen und letztendlich zum Tod führen. Daher ist eine ausgeglichene, frühe posttraumatische Immunantwort für ein gutes Outcome von entscheidender Bedeutung.
Monozyten nehmen eine kritische Stellung sowohl in der primären Immunantwort nach Trauma als auch nach Infektion ein. Durch die Oberflächenexpression von diversen sogenannten pattern-recocnition receptors (PRRs), insbesondere Toll-Like-Rezeptoren (TLRs), können Monozyten Pathogene und sogenannte pathogen-associated molecular patterns (PAMPs) erkennen und neutralisieren. Darüber hinaus können Monozyten PAMPs über major histocompatibility complex class II -Moleküle (MHC-II) dem adaptiven Immunsystem präsentieren und somit als zelluläre Verbindung zwischen dem angeborenen und dem adaptiven Immunsystem fungieren. TLR2, eine Untergruppe der TLRs, ist einer der Hauptrezeptoren für PAMPs von grampositiven Bakterien wie S. aureus, dem Hauptkeim für posttraumatische Wundinfektionen und nosokomiale Infektionen.
Es gibt immer noch keinen Konsens über den Einfluss von Trauma auf die Funktion von Monozyten und deren Expressionsprofil von PRRs und MHC-II-Molekülen nach einem Trauma. Verschiedene Studien berichten von einer beeinträchtigten TLR2-Expression bei Monozyten nach Trauma, während sich in anderen Studien eine konstante oder sogar erhöhte TLR2-Expression bei Monozyten nach Trauma gezeigt hat. Die Daten sind auch in Bezug auf die posttraumatische Phagozytoseleistung von Monozyten unbeständig. Während in einigen Studien im frühen posttraumatischen Verlauf im Vergleich zu gesunden Probanden von einer erhöhten Anzahl zirkulierender Monozyten mit erhaltener Phagozytoseleistung berichtet wird, zeigten andere Studien eine verminderte Phagozytoseleistung von Monozyten nach Trauma. Darüber hinaus gibt es widersprüchliche Ergebnisse bezüglich der Fähigkeit von Monozyten, proinflammatorische Zytokine wie Interleukin (IL)-1β oder Tumor necrosis factor (TNF)-α freizusetzen.
Zusammengefasst ist die derzeitige Studienlage widersprüchlich. Zusätzlich wurde es in bisherigen Studien verpasst, die Kombination verschiedener Aspekte wie die Funktionalität der Monozyten in Bezug auf Phänotypisierung oder funktioneller Assays und deren Beobachtung über einen längeren Zeitraum miteinzubeziehen.
Die unterschiedlichen Ergebnisse der bisherigen Studien könnte durch die Natur des Polytraumas bedingt sein, beispielsweise durch verschiedene Verletzungsmuster und Verletzungsschwere, die unterschiedliche Erstversorgung am Unfallort, die Zeit bis zur Ankunft in der Notaufnahme oder die unterschiedliche primäre und definitive Versorgung der Verletzungen. All das kann zu einer unterschiedlichen Antwort des Immunsystems und somit zu unterschiedlichen Outcomes führen.
Daher war es Ziel unserer Studie, die oben genannten Variablen zu eliminieren, und eine kontrollierte Polytraumastudie am Schweinemodell durchzuführen, um die Funktionalität von Schweinemonozyten über einen Zeitraum von 72 Stunden nach Trauma zu untersuchen.
Zusätzlich und im Gegensatz zu früheren Studien haben wir die Phänotypisierung von Monozyten (TLR2 und MHC-II [SLA-DR]) mit einem funktionellen Phagozytose-Assay kombiniert und deren direkte Assoziation in einem unabhängigen Assay analysiert.
Peripheres Blut wurde vor (-1h) und direkt nach der Induktion des Polytraumas (PT) (0h) entnommen, sowie 3,5h, 5,5h, 24h und 72h später. Die Expression von H(S)LA-DR und TLR2 auf Schweine-Monozyten wurde untersucht. Außerdem wurde die Phagozytierungsaktivität von Schweinemonozyten gemessen.
Darüber hinaus wurden aus mechanistischen Gründen Blutproben von 10 gesunden Schweinen zunächst einem TLR2-neutralisierenden Antikörper und anschließend S. aureus-Partikeln ausgesetzt, bevor die Phagozytoseleistung der Monozyten untersucht wurde.
Die Anzahl der CD14 + -Monozyten aller zirkulierenden Leukozyten blieb während des Beobachtungszeitraums konstant, während der Prozentsatz der CD14 + H(S)LA-DR + -Monozyten direkt, 3,5h und 5,5h nach dem Trauma signifikant abnahm. Der Prozentsatz von TLR2 + exprimierenden Zellen aus allen Monozyten verringerte sich direkt, 3,5h und 5,5h nach dem Trauma signifikant. Der Prozentsatz der phagozytierenden Monozyten nahm direkt nach Trauma ab und blieb in den ersten 3,5 Stunden nach dem Trauma niedriger, stieg jedoch nach 24 Stunden an. Die Antagonisierung von TLR2 verringerte signifikant die Phagozytoseleistung der Monozyten.
Sowohl der verringerte Prozentsatz der aktivierten als auch der TLR2-exprimierenden Monozyten blieb bestehen, solange die verringerte Phagozytoseleistung beobachtet wurde.
Darüber hinaus führte auch die Neutralisation von TLR2 zu einer verminderten Phagozytoseleistung. Daher nehmen wir an, dass eine verringerte TLR2-Expression für die verringerte Phagozytoseleistung verantwortlich ist.
Zielsetzung der vorliegenden Dissertation war die Validierung einer deutschsprachigen Version, der bereits für andere Sprachen validierten Repetitiven Verhaltensskala – Revidiert (RBS-R) für Kinder- und Jugendliche im Alter zwischen 4-17 Jahren. Die RBS-R ist ein aus 43 Items bestehendes, gut untersuchtes Screeninginstrument, welches restriktives, repetitives Verhalten (RRV) erfasst. RRV stellen einen heterogenen Symptomkomplex dar, welcher durch stereotype motorische, sprachliche und kognitive Verhaltensmuster gekennzeichnet ist.
RRV sind neben Abweichungen sozialer Interaktion und Kommunikation eines der Hauptkriterien für eine Autismus-Spektrum-Störung (ASS). RRV sind jedoch nicht nur Teil des Symptomspektrums einer ASS, sondern treten häufig auch bei anderen psychiatrischen Erkrankungen (PE), einer Intelligenzminderung (IM) oder bei altersentsprechend entwickelten Kindern (AE), beispielsweise in bestimmten Phasen des Heranwachsens auf. Bisher wurde die RBS-R fast ausschließlich an ASS untersucht. Es besteht die Notwendigkeit für ein valides und zuverlässiges Messinstrument für den deutschen Sprachraum, welches RRV hinsichtlich ihrer Heterogenität transdiagnostisch erfassen und den Schweregrad der Ausprägung ermitteln kann. Das Ziel dieser Arbeit war, dies durch eine möglichst große und heterogene Stichprobe (n= 948) mit Inklusion von Probanden mit einer ASS (n= 218), IM (n= 120), PE (n= 166) und AE (n = 444) zu gewährleisten. Zur Überprüfung der psychometrischen Eignung erfolgte nach der Adaptation der RBS-R für den deutschen Sprachraum eine Evaluation gemäß den Prinzipien der klassischen Testtheorie, insbesondere hinsichtlich Validität und Reliabilität. Darüber hinaus erfolgte unter Einbeziehung der vier Stichproben eine explorative Faktoranalyse (EFA) um eine geeignete Faktorlösung zu finden. Diese sollte sowohl den Anspruch Klinisch-Tätiger als auch Forschender erfüllen und eine Anwendung der RBS-R auch außerhalb von ASS ermöglichen. Zudem sollten RRV in den unterschiedlichen Kohorten, sowie in Bezug auf Alters- und Geschlechtseffekte bei ASS untersucht werden.
Die Bedeutung der Ergebnisse dieser Arbeit ist, ob der schon breit erforschten Eigenschaften der RBS-R, vor allem im Kontext mit den vorliegenden Studien zu betrachten. Einzigartig für diese deutschsprachige Validierung der RBS-R ist die Diversität und große Anzahl der teilnehmenden Probanden.
Die vorliegende Validierung der RBS-R erbrachte gute Ergebnisse für die Reliabilität und konvergente Validität der Skalen, vergleichbar mit den Ergebnissen vorheriger Studien. Die untersuchte Itemschwierigkeit war relativ gering, was durch die geringe Antwortvarianz in der großen Kohorte der AE erklärbar ist. Die Itemgesamtkorrelation zeigte gute Werte. Auch Items mit niedrigen Ergebnissen für die Itemzustimmung wurden nicht exkludiert. Dies geschah konkordant zum Vorgehen vorheriger Studien und hatte den Hintergrund, eine internationale Vergleichbarkeit des RBS-R beizubehalten. Die EFA bestätigte die gute Anwendbarkeit einer Vielzahl von Faktorlösungen. Wir legten eine 4-Faktorlösung für die deutschsprachige Version der RBS-R fest. Grundlage hierfür war das Bestreben die ursprünglichen Subskalen für eine internationale Vergleichbarkeit so getreu wie möglich beizubehalten. Die 4 Faktoren bildeten treffend RRV niedriger und hoher Ordnung ab. Gegen eine 5- oder 6-Faktorlösung sprach hierbei, dass dies zu Subskalen mit wenig Items und schwachen psychometrischen Eigenschaften führte (Lam et al, kritisiert durch Georgiades et al). Gegen eine 2- oder 3-Faktorlösung sprach die eingeschränkte klinische Interpretierbarkeit durch Subskalen mit vielen kumulierten Items. Hinsichtlich der Kohortenzugehörigkeit kann der RBS-R übereinstimmend mit Fulceri et al valide zwischen RRV in ASS und AE unterscheiden. Eine valide Unterscheidung zwischen ASS, PE und IM konnten wir nicht verifizieren. Betreffend der untersuchten Alterseffekts bestätigte sich, dass RRV bei ASS mit dem Alter abnehmen. Im Gegensatz zu einigen vorherigen Studien, welche keinen Geschlechtsunterschied bezüglich RRV bei ASS fanden, zeigten die männlichen Probanden der ASS Kohorte bei uns häufiger und ausgeprägter RRV.
IL-38 is the latest discovered cytokine of the IL-1 family and has been added to the IL-36 subfamily. Since its discovery in 2001, increasing evidence suggests predominantly anti-inflammatory properties of IL-38, which are most likely exerted through three potential receptors, the IL-1 Receptor 1 (IL-1R1), IL-36 Receptor (IL-36R) and the IL-1 Receptor Accessory Protein Like 1 (IL-1RAPL1). However, to this date detailed knowledge of IL-38 functioning remains to be examined. Importantly, how IL-38 is processed, secreted from cells and the exact mechanisms of target receptor binding and intracellular signaling are not fully understood. Further, IL-38 has been associated with regulatory functions in autoimmune diseases like systemic lupus erythematosus (SLE) and psoriasis. At the same time however, connections between B cells as indispensable part of immunity and IL-38 remain rare.
In this study we examined the influence of IL-38 in peripheral human blood B cells differentiating into antibody secreting cells using a three-step in vitro differentiation process. We first show that all potential IL-38 binding receptors are present on peripheral blood B cells on a gene expression level and remain detectable throughout B cell differentiation. Next, while B cells treated with exogenous IL-38 depict no differences in early B cell activation markers, the process of B cell differentiation revealed significant alterations in B cell phenotype created by IL-38 treatment. Predominantly on day 7 of the differentiation process, IL-38 treated B cells showed significantly reduced CD38 expression which depicts an important step in development towards plasma cells. We hypothesize that IL-38 acts antagonistically on the IL-1R1 pathway reducing Nuclear factor kappa B (NFκB) expression and consequently decreasing CD38 expression. Further IL-38 reduced early antibody production while increasing IgM secretion at the end stages of differentiation. Next, we repeated the differentiation assays under the influence of additional IL-21 stimulation to further enhance plasma cell development. In these experiments, the impact of IL-38 on B cell differentiation and immunoglobulin production were reduced, indicating a comparatively moderate relevance of IL-38 for B cell differentiation. We then examined how proliferation and cell death were impacted by exogenous IL-38 during B cell differentiation. IL-38 treatment alone significantly reduced B cell survival which was further augmented by IL-21 stimulation. We conclude that IL-38 and IL-21 act synergistically in promoting B cell apoptosis, also depicting an anti-inflammatory property of IL-38. Finally, using a siRNA we successfully performed an IL-38 knockdown experiment of human blood B cells reducing IL-38 expression to 44% measured on day 4 of B cell differentiation. In these experiments we observed reversed tendencies of CD38 expression compared to exogenous IL-38 treatment. Here, IL-38 knockdown cells showed increased CD38 expression indicating endogenous regulatory properties of IL-38 in B cell differentiation.
Our project, for the first time proves direct effects of IL-38 on human B cells. The results support previous research of IL-38 to act anti-inflammatory as it seems to modulate B cell differentiation, survival, and immunoglobulin production in a down-regulatory manner. These findings pave way for more detailed research on the connection between B cell homoeostasis and IL-38 function.
Diese Versuchsreihe beschäftigte sich mit der Fragestellung, ob günstige Handelsmarken- Zigaretten mehr Feinstaub als teure Markenzigaretten emittieren. Dabei wurde der Passivrauch untersucht, welcher durch das Verrauchen verschiedener Zigarettenmarken entstand. Feinstaub stellt heutzutage den wichtigsten einzelnen gesundheitsschädlichen Faktor in Innenräumen dar. Das Augenmerk liegt dabei hauptsächlich auf den feinen Partikeln (PM2,5, PM1). Tumore, chronische Atemwegserkrankungen und eine erhöhte Mortalität stellen nur einen Teil der massiven gesundheitlichen Folgen durch Feinstaub dar. Vulnerable Bevölkerungsgruppen wie Kinder und alte Personen sind besonders durch Passivrauch gefährdet. Die Ergebnisse der Versuchsreihe dienen als Grundlage, um den gesundheitsschädlichen Einfluss des Passivrauchs zu interpretieren. Günstige Handelsmarken-Zigaretten weisen, unter anderem wegen des beständig ansteigenden Zigarettenpreises als auch der anhaltenden Inflation in Deutschland, einen wachsenden Marktanteil auf. Daher müssen sie auch weiterhin in wissenschaftlichen Untersuchungen mit einbezogen werden.
Drei teure sowie drei günstige Zigarettenmarken wurden miteinander und mit der Referenzzigarette 3R4F der Universität Kentucky verglichen. Zu den teuren Marken zählten Marlboro, Camel und Nil. Die günstigeren Handelsmarken-Zigaretten waren Giants, Goldfield und Jakordia. Die Rauchpumpe „Automatic environmental tobacco smoke emitter“ (AETSE) ermöglichte in einem definierten Raum der abgeschlossenen Rauchkammer, Passivrauch zu erzeugen, ohne die menschliche Gesundheit zu gefährden. Ein standardisiertes Rauchprotokoll garantierte dabei reproduzierbare und vergleichbare Ergebnisse. Das Laser Aerosolspektrometer (LAS) Modell 1.109 der Firma Grimm wies eine Messspanne von 0,25 μm bis 32 μm auf. So konnte der Feinstaub gemessen und gruppiert werden. Obwohl der Versuchsaufbau nicht vollkommen realitätsgetreu war, entstand ein adäquater Vergleich der Feinstaubemissionen von (Handels-)Markenzigaretten.
PM10 und PM2,5 wurden erhoben, weil sie die von der EU und WHO standardisierten Messwerte für die Luftverschmutzung durch Feinstaub sind. Die Messung von PM1 rechtfertigt sich durch die stärker gesundheitsschädigende Komponente von Partikeln dieser Größenordnung. Für diese drei Größenfraktionen wurden die mittlere Konzentration Cmean sowie die Area Under The Curve (AUC) ermittelt. Die AUC stellt dabei die Höhe der Gesamtexposition durch Feinstaub dar.
Die Ergebnisse dieser Versuchsreihe zeigen, dass PM1 den größten Anteil der Feinstaubemission der getesteten Zigaretten ausmachte. Alle Zigarettenmarken haben in einem abgeschlossenen Raum Feinstaubmengen in gesundheitsgefährdender Menge produziert. Die Handelsmarke Jakordia emittierte beim Verrauchen generell weniger Feinstaub als alle anderen Zigarettenmarken. Im Allgemeinen konnte kein Unterschied zwischen den günstigen Handels- und den teuren Markenzigaretten festgestellt werden. Es ist wissenschaftlich belegt, dass sich jede Feinstaubkonzentration negativ auf die Gesundheit auswirkt. Die Ergebnisse können dementsprechend in Gänze unter dem Gesichtspunkt der Gesundheitsschädlichkeit eingestuft werden.
Aufgrund veralteter und unspezifischer, beziehungsweise fehlender Angaben zu den Inhaltsstoffen der einzelnen Zigarettensorten, konnte die Ursache der Unterschiede zwischen Jakordia und den anderen Marken nicht geklärt werden. Die Zigarettenhersteller müssen verpflichtet werden, die detaillierten Zusammensetzungen der Tabakprodukte den Behörden wie dem BMEL oder dem Bundesgesundheitsministerium zugänglich zu machen. Dies wäre ein wichtiger Bestandteil für die zukünftige Forschung und Risikobewertung der verschiedenen Inhalts- und Zusatzstoffe.
Untersuchung der Expression von Wachstumsfaktoren in reseziertem Hirngewebe von Epilepsiepatienten
(2023)
Hintergrund: Die Epilepsie gehört zu den häufigsten chronischen neurologischen Erkrankungen beim Menschen. Bei Patienten mit mesialer TLE und Hippocampussklerose besteht die höchste Wahrscheinlichkeit, eine medikamentöse Therapierefraktärität zu entwickeln. Die Ursache der Hippocampussklerose sowie die ursächlichen Mechanismen sind nicht bekannt. Allerdings kann eine initiale Schädigung, wie etwa komplizierte Fieberkrämpfe im Kindesalter, Schädel-Hirn-Traumata, Schlaganfälle, entzündliche Prozesse oder Ähnliches, für die Entwicklung einer Hippocampussklerose prädisponieren. Diese kann anschließend nach einer klinisch stummen Latenzperiode zur Entwicklung spontaner epileptischer Anfälle und der Diagnose einer Epilepsie führen. Im Rahmen der Epileptogenese, also der Entstehung und Progression der Epilepsie kommt es zu Wachstumsprozessen, weshalb eine Beteiligung von neurotrophen Wachstumsfaktoren naheliegend war. Das Ziel dieser Arbeit war die vergleichende Untersuchung resezierter Hippocampi auf Wachstumsfaktoren, um semiquantitative Daten zu deren Verteilung bei Epilepsiepatienten zu erhalten. Des Weiteren war die Korrelation mit den klinischen Daten der Patienten von besonderem Interesse, da so Hinweise auf mögliche Zusammenhänge zwischen dem klinischen Erscheinungsbild und der Expression der Wachstumsfaktoren gewonnen werden konnten.
Methoden: Bei dem in der vorliegenden Arbeit untersuchten Gewebe handelt es sich um Hippocampi von 21 Patienten mit TLE, die epilepsiechirurgisch therapiert wurden. Die Schnitte der paraffinierten Hippocampi wurden mittels Immunhistochemie auf die Wachstumsfaktoren BDNF, FGF2, GDNF, GMFB und PDGF-B untersucht. Im Anschluss wurden die Schnitte gescannt und die Zellen mittels eines Algorithmus identifiziert und ausgewertet. Diese experimentellen Daten wurden anschließend mit den klinischen Daten der Patienten korreliert.
Ergebnisse: Es fand sich eine signifikante Korrelation zwischen der Expression von GMFB und dem postoperativen Outcome der Patienten. Des Weiteren fanden sich auch Korrelationen zwischen der präoperativen Anfallsfrequenz und der Expression von BDNF sowie GDNF. Auch die Epilepsiedauer korrelierte mit der Expression von BDNF. Zudem fanden sich Korrelationen zwischen den Ergebnissen der neuropsychologischen Testungen und der Expression von BDNF, sowie PDGF-B.
Diskussion: Die vorliegende Arbeit liefert einige Daten, die Hinweise für nachfolgende Untersuchungen geben können. Sowohl für die Anfallsfrequenz, als auch für die Epilepsiedauer fanden sich signifikante Korrelationen mit BDNF. Beides ist passend zu den vermuteten und zum Teil in der Literatur beschriebenen Mechanismen im Rahmen der Epilepsie, also einer postiktalen Hochregulation von Wachstumsfaktoren beziehungswiese des Zugrundegehens von Zellen im Verlauf der Erkrankung und damit zu einer reduzierten Expression von Wachstumsfaktoren. Geschlechterabhängige Unterschiede in der Expression der Wachstumsfaktoren fanden sich, passend zu der vorhandenen Literatur, nicht. Interessant ist, dass sowohl Geschlechtshormone als auch anfallssuppressive Medikamente einen Einfluss auf die Expression der Wachstumsfaktoren haben können.
Bis heute ist kein Biomarker bekannt, der eine Vorhersage über den Erfolg einer operativen Therapie bei therapierefraktären TLE treffen kann. Da meine Daten eine Korrelation von GMFB und dem postoperativen Outcome zeigen, bietet es sich für weitere Untersuchungen an, GMFB als präoperativen Biomarker zu nutzen. zu können, wäre eine einfachere Probengewinnung beispielsweise aus Blut, Liquor, Urin oder Speichel notwendig. Im Sinne einer „Liquid Biopsy“ könnte so der Erfolg einer chirurgischen Therapie weiter objektiviert werden, was die Entscheidungsfindung einfacher und risikoärmer gestalten würde.
Die chronische myeloische Leukämie (CML) ist eine klonale myeloproliferative Neoplasie und hat ihren Ursprung in transformierten pluripotenten Stammzellen im Knochenmark. Der Krankheitsentstehung liegt eine reziproke chromosomale Translokation zugrunde, in deren Folge ein neues Fusionsgen, das sogenannte Philadelphia-Chromosom, entsteht. Das hiervon codierte Genprodukt ist eine Tyrosinkinase mit konstitutiver Aktivität mit resultierender unkontrollierter Signaltransduktion. Gegen diese Tyrosinkinase existiert eine molekular zielgerichtete Therapie, die Tyrosinkinase-Inhibitoren (TKI).
Den Therapiestandard stellt die Behandlung mit einem TKI dar. Seit einigen Jahren existiert jedoch das Therapieziel der therapiefreien Remission (TFR), bei dem CML-Patienten mit einem guten molekularen Ansprechen den TKI nach einiger Zeit absetzen und unter engmaschigen Kontrollen therapiefrei bleiben. Ungefähr die Hälfte dieser Patienten erleidet kein molekulares Rezidiv und bleibt langfristig in TFR. Zu der Thematik der TFR existieren zahlreiche klinische Studien, die die Umsetzbarkeit und die Sicherheit eines Absetzversuchs belegen und Kriterien definiert haben, die für einen Absetzversuch erfüllt sein sollten. In dieser Dissertation wird die Umsetzung der TFR im klinischen Alltag onkologischer Praxen untersucht. Es wird untersucht, ob die Studienergebnisse mit den TFR-Raten und den identifizierten Einflussfaktoren auf den Praxisalltag übertragbar sind und ob das Therapieziel TFR in den klinischen Alltag integrierbar ist. Hierfür werden die Daten von 61 CML-Patienten mit einem Absetzversuch aus fünf onkologischen Praxen retrospektiv ausgewertet. Erhoben werden Parameter der Routineversorgung und die Ergebnisse der Kontrolluntersuchungen während der TFR werden dokumentiert und ausgewertet. Die TFR-Raten von ca. 50%, die in den Absetz-Studien beobachtet wurden, finden sich im hier untersuchten Patientenkollektiv wieder. Mithilfe der binären logistischen Regression wird getestet, ob bestimmte Faktoren, wie die Therapiedauer und das verwendete Medikament vor dem Absetzen, einen signifikanten Einfluss auf den Verlauf der TFR haben. Hier kann kein signifikanter Einflussfaktor identifiziert werden. Es lässt sich eine signifikant längere therapiefreie Überlebensdauer bei den Patienten zeigen, die mit einem TKI der zweiten Generation vor dem Absetzen behandelt wurden.
Zusammenfassend lässt sich sagen, dass die TFR bei geeigneten CML-Patienten in der Praxis umsetzbar und sicher ist und fest im klinischen Alltag onkologischer Praxen verankert sein sollte.