Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (1502) (remove)
Has Fulltext
- yes (1502)
Is part of the Bibliography
- no (1502)
Keywords
- HIV (6)
- Brustkrebs (5)
- Kardiovaskuläre Krankheit (5)
- NMR-Tomographie (5)
- Allgemeinmedizin (4)
- Apoptosis (4)
- Depression (4)
- Glioblastom (4)
- Hepatitis C (4)
- Immunsuppression (4)
Institute
- Medizin (1502) (remove)
The impact of the Covid-19 pandemic called for rapid responses in face of unprecedented challenges. In this context, earning more about the causative agent SARS-CoV-2 becomes imperative. Therefore, clinical virus isolates were studied with focus on infectivity, replication kinetic, and caspase activity.
Firstly, clinical specimens collected from patients were tested for infectivity in cell culture. Combined with polymerase chain reaction results, a formula predicting infectivity in cell culture based on abundance of viral RNA was developed. Additionally, analysis of different specimen types, sources, and material, elucidate the question of infectivity. Here, infectivity was demonstrated in specimens derived from different parts of the respiratory tract, including specimens collected from deceased persons. A protocol for virus isolation on human airway epithelium in air-liquid interface culture was established.
Secondly, replication kinetics of 20 clinical isolates were compared, including a subset of seven sequenced isolates. All isolates replicated in the colon epithelial cell culture model. Within the subset, differences between isolates carrying the D614G amino acid exchange and with original spike protein were observed.
Lastly, elevated caspase activity was demonstrated in two cell culture models including human airway epithelium in air-liquid interface culture.
Subsequently, caspase inhibition by small-molecule compound Emricasan and its effects on the cytopathic effect observed in cell culture were studied. Here, increased cell survival in a colon epithelial cell line was shown with unimpaired virus replication. Elevated caspase activity was identified as early marker of infection and validated by testing across 20 clinical virus isolates.
This study offers information on infectivity that can help shape the understanding of transmission risk. As such, parts of the data collected here were used for validation of rapid antigen tests. The insights gained by studying caspase activity contributed in part to the development of a drug screening method by Bojkova et al.,41 thus aiding routine laboratory workflow. It was demonstrated that Emricasan exhibits no antiviral effect, while the finding of increased cell survival in cell culture could give rise to further research on prevention of tissue damage.
Untersuchung zur Sicherheit bei der simultan bilateralen Cochlea-Implantation bei Erwachsenen
(2023)
Schwerhörigkeit ist sowohl für die betroffenen Patienten als auch sozioökonomisch eine relevante Erkrankung. Sie stellt ein Hindernis für die soziale Teilhabe dar, reduziert die Lebensqualität und führt zu direkten und indirekten Gesundheitskosten.
Cochlea-Implantate sind vielkanalige Neuroprothesen, die über einen chirurgisch in die Hörschnecke eingebrachten Elektrodenträger das erste Neuron der Hörbahn direkt elektrisch stimulieren und so eine Hörwahrnehmung induzieren.
Dadurch kann ein Funktionsverlust der Haarzellen, welcher die häufigste Ursache für eine Schwerhörigkeit ist, ersetzt werden. Cochlea-Implantate stellen den Goldstandard der Hörrehabilitation bei hochgradig schwerhörigen oder postlingual ertaubten erwachsenen Patienten sowie in der Versorgung prälingual ertaubter Kinder dar.
Bei vielen schwerhörigen Patienten besteht die Indikation zur beidseitigen Versorgung mit einem Cochlea-Implantat. Prinzipiell besteht die Möglichkeit, diese chirurgische Versorgung beidseits einzeitig (simultan) oder zweizeitig (sequenziell) durchzuführen. Während die Sicherheit der bilateral-simultanen Operation für Kinder durch mehrere Studien belegt wurde, liegen für Erwachsene erst wenige Daten vor.
Die vorliegende Studie untersucht, ob die bilaterale simultane Implantation mit höheren Komplikationsraten als die sequenzielle Operation assoziiert ist und leistet damit einen Beitrag zur Entscheidungsfindung von Patienten und Behandlern.
Es konnten 169 zwischen 2008 und 2017 bilateral implantierte Patienten eingeschlossen werden. Davon wurden 34 simultan (Gruppe 1) und 135 (Gruppe 2) sequenziell versorgt. Es wurde die Dauer der Operation, das Auftreten von Minor- und Major-Komplikationen sowie die Dauer des stationären Aufenthalts erfasst und zwischen beiden Gruppen verglichen.
Die Ergebnisse zeigten, dass die Gesamtzeit der Patienten im Operationssaal in der simultan implantierten Gruppe deutlich kürzer war. Die Häufigkeit chirurgischer Major- und Minor-Komplikationen unterschied sich hingegen nicht signifikant. Bezüglich einer letalen nicht-chirurgischen Komplikation in der simultan implantierten Gruppe erfolgte eine umfangreiche Aufarbeitung, ohne dass ein kausaler Zusammenhang mit der gewählten Behandlungsmethode nachgewiesen werden konnte. Die Dauer des Krankenhausaufenthalts war in der simultanen Gruppe 0,7 Tage länger als bei unilateraler Implantation, aber 2,8 Tage kürzer als bei beiden sequenziellen Operation zusammen.
In der Zusammenschau aller berücksichtigten Komplikationen und der komplikationsrelevanten Faktoren ist die Sicherheit der simultan bilateralen Operation gegenüber dem sequenziellen Vorgehen als gleichwertig zu bewerten.
Jedoch muss individuell auf mögliche Risikokonstellationen des Patienten eingegangen werden, die bei der längeren Operationszeit der simultanen Implantation relevant sein kann. Daher ist eine sorgfältige Auswahl der Patienten
unter besonderer Berücksichtigung bestehender Komorbiditäten unerlässlich.
Menschen mit Epilepsie (engl. PWE) haben im Vergleich zur Allgemeinbevölkerung ein erhöhtes Risiko, vorzeitig zu versterben. Der plötzliche, unerwartete Tod bei Epilepsie (engl. Sudden Unexpected Death in Epilepsy, kurz SUDEP) stellt die häufigste epilepsiebedingte Todesursache dar. Obwohl das Thema in Fachkreisen zunehmende Aufmerksamkeit erfährt, die Empfehlung zur SUDEP Aufklärung zunehmend in nationalen Leitlinien aufgenommen wird, und der Patientenwunsch nach einer generellen SUDEP Aufklärung in verschiedenen Studien gezeigt werden konnte, besteht weiterhin ein Informationsdefizit unter PWE. Ursache hierfür scheint insbesondere die Sorge der behandelnden Neurolog*innen zu sein, Menschen mit Epilepsie übermäßig emotional zu belasten und ihre Lebensqualität zu mindern. Diese Studie untersucht sowohl das Vorwissen über SUDEP als auch unmittelbare sowie langfristige Auswirkungen einer SUDEP Aufklärung auf Erwachsene mit Epilepsie. Ziel ist mögliche negative Auswirkungen der Aufklärung sowie Auswirkungen auf das Verhalten aufzudecken. Aus diesem Zweck wählten wir ein prospektives, multizentrisches, longitudinales Studiendesign. Die Daten wurden in halbquantitativen Interviews vor (vor der Aufklärung), unmittelbar nach (nach der Aufklärung) und drei Monate nach (3-Monats Follow-up) der SUDEP Aufklärung erhoben. Um die direkte Vergleichbarkeit zwischen den Zeitpunkten zu ermöglichen wurden folgende validierte Instrumente verwendet: das Neurological Disorders Depression Inventory for Epilepsy (NDDI-E) zur Erfassung depressiver Symptome, der EuroQoL (EQ-5D) zur Erfassung der gesundheitsbezogenen Lebensqualität (HRQoL), eine visuelle Analogskala (VAS) zur Erfassung des allgemeinen Gesundheitszustandes, die revised Epilepsy Stigma Scale (rESS) zur Erfassung der wahrgenommenen Stigmatisierung und die Seizure Worry Scale zur Erfassung anfallsbezogener Sorgen. Insgesamt wurden 236 Teilnehmende (Durchschnittsalter: 39,3 Jahre, Spannweite: 18-77 Jahre, 51,7 % Frauen) in die Studie eingeschlossen. 205 (86,9 %) der Teilnehmenden konnten erneut im Langzeit Follow-up nach drei Monaten befragt werden. Eine der Teilnehmenden verstarb im Zeitraum des Follow-ups an SUDEP. Keines der validierten Instrumente zeigte zwischen den Zeitpunkten vor der Aufklärung und dem 3-Monats Follow-up eine Verschlechterung. Vor der Aufklärung hatten nur 27,5 % der Teilnehmenden von SUDEP gehört, und nur 9,3 % gaben an, diese Informationen von ihrer bzw. ihrem Neurolog*in erhalten zu haben. Nach der Aufklärung gaben mehr als 85 % der Teilnehmenden an, mit der SUDEP Aufklärung zufrieden oder sehr zufrieden zu sein. Drei Viertel der Teilnehmenden gaben an, durch die Aufklärung nicht oder überhaupt nicht belastet zu sein. Mehr als 80 % der Teilnehmenden befürworteten eine generelle SUDEP Aufklärung für alle Menschen mit Epilepsie. Bei dem 3-Monats Follow-up gab die Mehrheit der Teilnehmenden an, keine Verhaltensänderung vorgenommen zu haben, 24,8 % berichteten jedoch von starken Verhaltensänderungen.
Unsere Studie zeigt, dass eine SUDEP Aufklärung keine negativen Auswirkungen auf den allgemeinen Gesundheitszustand, die HRQoL, depressive Symptome, krankheitsbezogene Stigmatisierung oder Sorgen vor Anfällen hat. Insgesamt zeigte sich eine hohe Zustimmung zur SUDEP Aufklärung. Eine generelle SUDEP Aufklärung könnte sich zudem positiv auf die Compliance auswirken und das Mortalitätsrisiko senken. Eine SUDEP Aufklärung bietet allerdings keinen sicheren Schutz vor SUDEP.
Hintergrund und Ziele: Die Hämodialyse ist das am weitesten verbreitete Nierenersatztherapieverfahren und wird auch in den nächsten Jahren von immer mehr Patienten mit akutem und terminalen Nierenversagen beansprucht werden. Ein großlumiger, sicherer und komplikationsarmer Gefäßzugang ist essenziell für die Durchführung einer effizienten Hämodialyse. Während arterio-venöse Zugänge der klar präferierte Gefäßzugang zur chronischen Hämodialyse sind, eignen sie sich aufgrund ihrer Reifungsdauer nicht für Patienten mit akuter Dialysepflichtigkeit oder für Patienten mit untauglichen Gefäßeigenschaften. Für diese Patienten kann die Hämodialyse über einen Vorhofkatheter erfolgen. Die KDOQI Richtlinien (2019) empfehlen die präferierte Punktion der rechten Vena jugularis interna, jedoch muss für Patienten mit thrombosiertem oder obliteriertem Gefäßstatus die Verwendung neuer, unkonventionellerer Zugangswege erwogen werden, um die überlebenswichtige Hämodialyse zu ermöglichen. Ein solcher unkonventioneller Zugangsweg ist der erstmals 2006 von Betz et al. beschriebene Iliakalvenenkatheter, der während seines Beobachtungszeitraums von 1.500 Kathetertagen initial die Sicherheit und Effektivität des Verfahrens vermuten ließ.
Die vorliegende Arbeit stellt eine retrospektive Analyse des Langzeitverlaufs von 95 Iliakalvenenkathetern zur Hämodialyse dar, die in den Jahren 2004 bis 2022 im Universitätsklinikum Frankfurt implantiert wurden. Der nun deutlich längere kumulative Beobachtungszeitraum von 20.252 Tagen soll beurteilen, ob sich die ursprünglich durch Betz et al. beschriebenen Ergebnisse auch im Langzeitverlauf bestätigen und soll weiterführend einordnen, inwieweit der Iliakalvenenkatheter als Option des Zugangsweges zur chronischen Hämodialyse für Patienten mit schwierigem Gefäßstatus in Betracht gezogen werden kann.
Patienten und Methoden: Das Patientenkollektiv bestand aus 79 Patienten (49 Männer und 30 Frauen) eines breiten Altersspektrums zum Zeitpunkt der Implantation (27 bis 84 Jahre), die während des Beobachtungszeitraums einen oder im Verlauf mehrere Dialysekatheter über eine der Iliakalvenen implantiert bekamen. Insgesamt wurden 95 Iliakalvenenkatheter erfasst und im Hinblick auf ihre Liegedauer, Komplikationsraten und Dialyse-Effektivität evaluiert.
Die Datenerhebung erfolgte aus den archivierten Patientenakten und Dialyseprotokollen des Universitätsklinikums Frankfurt und ergänzend mittels Datenanforderung von weiterbehandelnden Zentren, Praxen und Kliniken.
Ergebnisse: Der Iliakalvenenkatheter kam bei einem speziellen Patientenkollektiv zum Einsatz, welches oftmals bereits eine lange nephrologische Krankheitsgeschichte (im Durchschnitt erfolgte die Implantation 895,5 Tage nach der primären Andialyse), mehrere gescheiterte Gefäßzugänge 3,01(±2,97) und keine Alternativen eines sicheren konventionellen Gefäßzugangs zur Hämodialyse aufwiesen. Die Katheter-Anlage verlief bei 98,96% der Implantationsversuche erfolgreich. Alle erfolgreichen Anlagen verliefen komplikationslos. Die durchschnittliche Katheter-Liegedauer betrug 853,7 (± 162,87) Kathetertage und die primary patency der Katheter lag im Mittelwert bei 507,60 (±58,33) Tagen. Die Gesamt-Infektionsrate der Iliakalvenenkatheter lag bei 0,69/1.000 Kathetertage und eine Katheter-Dysfunktion war in acht Fällen der Grund der Katheter- Entfernung (8,4%). Die durchschnittliche Urea Reduction Rate betrug 68,9% (± 7,1). Es bestand kein statistisch signifikanter Zusammenhang zwischen Alter (p=0.37), Geschlecht (p=0,61), BMI (p=0.97) oder Seitenlage des Katheters (p=0.22) und der Katheter-Liegedauer. Im Verlauf erfolgte bei drei Patienten eine erfolgreiche Nierentransplantation.
Schlussfolgerungen: Die Implantation des Iliakalvenenkatheters hat eine hohe Erfolgsrate, ein niedriges Komplikationsrisiko, ist technisch leicht zu erlernen und bedarf keiner aufwendigen interventionellen Rahmenbedingungen. Auch im Verlauf zeigt sich ein Komplikationsprofil, das in Bezug auf Katheter-Infektionen, Katheter-Dysfunktion, Katheter-Thrombosen und Komplikations-bedingten Explantationen den etablierten Zugangswegen mindestens gleichwertig ist. Außerdem konnte gezeigt werden, dass der Iliakalvenenkatheter eine lange Komplikations-freie Liegedauer hat und in Einzelfällen auch über mehrere Jahre hinweg eine suffiziente Hämodialyse gewährleisten kann. Geäußerte Bedenken, nach welchen eine spätere Nierentransplantation nicht möglich sei, konnten ausgeräumt werden. Des Weiteren beschreibt die vorliegende Studie erstmalig den Langzeitverlauf des Iliakalvenenkatheters bei einem Patientenkollektiv eines breiten Altersspektrums und zeigte auch die altersunabhängige Eignung des Zugangsweges.
Bei über der Hälfte der Patienten mit einer operationsbedürftigen MI liegt gleichzeitig eine Insuffizienz der TK vor. In den meisten Fällen handelt es sich hierbei um eine funktionelle Insuffizienz welche aus einer RV-Pathologie, bedingt durch eine Volumen- oder Druckbelastung resultiert. In der Vergangenheit bestand die Überzeugung eine konservative Behandlung der TI sei ausreichend und nach Beheben der ursächlichen Grunderkrankung sei diese selbstlimitierend. Neuere Studien konnten jedoch belegen, dass eine bestehende TI auch nach operativer Versorgung einer ursächlichen LV-pathologie keine ausreichende Rückbildungstendenz aufweist, sondern im Verlauf sogar noch progredient ist. Die persistierende TI führt zu einer deutlich erhöhten Morbidität und Mortalität. Ist eine zweizeitige Operation an der TK im Verlauf erforderlich, so ist die Früh- und Spätmortalität deutlich erhöht und die Langzeitergebnisse sind schlecht. Diese Ergebnisse haben dazu geführt, dass die Indikation zur operativen Versorgung der TI ≥ 2 zu einem früheren Zeitpunkt und weniger restriktiv gestellt wird. Jedoch weisen die aktuellen ESC/EACTS-Guidelines insbesondere hinsichtlich der Versorgung einer TI < 2 nur einen niedrigen Evidenz-Grad auf, der richtige Operationszeitpunkt bleibt weiterhin umstritten. Der Grund für eine eher zurückhaltende Einstellung ist vor allem die Angst vor einer erhöhten Morbidität und Mortalität durch den additiven Eingriff. Zudem sind kaum Studien zu einer operativen Versorgung einer TI < 2 vorhanden. Ziel der vorliegenden Arbeit war daher der Gewinn weiterer Erkenntnisse, dieses bis dato kaum untersuchten Patientengutes, insbesondere hinsichtlich der peri- und postoperativen Mortalität, sowie der Auswirkungen der prophylaktischen TKR im Langzeitverlauf. Im Rahmen dieser monozentrischen, prospektiven Studie wurden 264 Patienten eingeschlossen, welche sich im Zeitraum von 2009 bis 2015 einer TKR im Rahmen einer MKR an der Klinik für Thorax- Herz- und thorakaler Gefäßchirurgie des Universitätsklinikums Frankfurt am Main unterzogen. Das Patientenkollektiv wurde nachfolgend in zwei Gruppen unterteilt, nach dem Schweregrad der präoperativ bestehenden TI in eine „prophylaktische” pTKR-Gruppe bei einer TI < 2 und eine „therapeutische” tTKR-Gruppe bei einer TI ≥ 2. Primärer Endpunkt war die Erfassung der Früh- und Spätmortalität. Sekundäres Endziel war die Untersuchung des postoperativen Verlaufes der TI, sowie der Verlauf der kardialen Funktion. Die 30-Tages-Mortalität betrug 12% in der pTKR-Gruppe und 17% in der tTKR-Gruppe. Der wichtigste Einflussfaktor war die EKZ-Dauer. Der Unterschied zwischen den beiden Gruppen war statistisch nicht signifikant. Im Vergleich zu anderen Studien zeigte sich eine höhere 30-Tages-Mortalität, jedoch handelte es sich bei diesen zumeist um einen isolierten Eingriff an der Mitralklappe, mit einer deutlich kürzeren EKZ. Hinsichtlich der Gesamtmortalität zeigte sich ein 1-, 5- und 7-Jahres-Überleben in der pTKR-Gruppe von 81%, 66% und 56%, sowie 65%, 52% und 41% in der tTKR-Gruppe. Die höhere Gesamtmortalität dieser Studie im Vergleich zu anderen Arbeiten ist durch das deutlich ältere und multimorbide Patientenkollektiv erklärt. Bei dem Vergleich von Patienten, welche im Rahmen dieser Studie eine prophylaktische TKR erhielten gegenüber den Patienten, bei welchen im Rahmen von Vergleichsarbeiten bewusst auf eine TKR verzichtet wurde (NTKR-Gruppe), zeigte sich ein verbessertes Langzeitüberleben der pTKR-Gruppe. Bei den Arbeiten, bei welchen kein Überlebensvorteil unserer pTKR-Gruppe, gegenüber deren NTKR-Gruppe gezeigt werden konnte, zeigten sich dennoch positive Effekte der begleitenden Klappenoperation. Die erhöhte Frühsterblichkeit dieser Arbeit ist dem Umstand geschuldet, dass durch die zur Indikationsstellung herangezogenen Risikofaktoren ein Hochrisikokollektiv selektioniert wurde, mit einer konsekutiv erhöhten Sterblichkeit auch abhängig vom Ausmass der TI. Bereits in der Vergangenheit konnte eine Verbesserung des Langzeitüberlebens durch die Durchführung einer TKR bei einer TI ≥ 2, gegenüber dem Verzicht auf diese nachgewiesen werden. Anhand des Vergleiches von anderen Arbeiten mit der vorliegenden Arbeit konnte dieser Überlebensvorteil auch für die Durchführung einer pTKR bei einer TI < 2 gezeigt werden. Zudem konnte dargelegt werden, dass es sich bei der begleitenden pTKR um eine effektive und dauerhafte Methode zur Vermeidung einer Klappeninsuffizienz handelt. Somit konnte gezeigt werden, dass auch bei Patienten mit einer TI < 2 eine additiven TKR die Entwicklung einer späten TI verhindert.
Neuroendokrine Tumoren (NET) sind eine seltene Krankheit mit einem breitgefächerten heterogenen Erscheinungsbild, wodurch sich die Diagnose der Tumoren aus einer Vielzahl aus Gründen häufig um Jahre verzögert (1). In dieser Arbeit analysierten wir einen großen Datensatz in einem tertiären Referenzzentrum (UKF) von 1984-2019, um die Symptomatik vor der Diagnose des Tumors sowie den Zeitraum von der Tumormanifestation bis zur Diagnose weiter zu klären. Für die deskriptiven Analysen kamen SPSS, Cox-Regression und Log-Rank-Test zur Anwendung.
Insgesamt schloss die retrospektive Studie 488 gastroenteropankreastische (GEP)-NET mit 486 Patienten ≥ 18 Jahren ein, wovon knapp mehr als die Hälfte männlich (52,9%) waren. Das mittlere Alter bei Erstdiagnose (ED) betrug 58 Jahre (477/486, 9 unbekannt). Die häufigsten Primärtumorlokalisationen stellten Pankreas (143/488 Patienten) und Dünndarm (145/488 Patienten) dar. Die Mehrheit der NET waren langsam wachsende G1-Tumoren mit einem Ki67 < 3% (155/330). Die Hälfte der Patienten entwickelten im Verlauf Fernmetastasen, wobei die meisten bereits bei der ED vorlagen und insbesondere die Leber als Metastasierungsorgan dominierte. Bei mehr als 60% der Patienten konnten Angaben zur klinischen Symptomatik vor der ED detektiert werden, wovon wiederum mehr als die Hälfte symptomatisch waren. 42% der symptomatischen Patienten zeigten NET-spezifische Symptome (Bauchschmerzen 77/128; 60,2%, Durchfall 51/128; 39,8%, Flush 19/128; 14,8%, Karzinoidsyndrom 8/128; 6,3% Tachykardie 6/128; 4,7%). In der primären bildgebenden Diagnostik dominierten konventionelle Bildgebungen wie Sonographie und Computertomographie (CT), wobei nuklearmedizinische Diagnostik eine Seltenheit darstellte. Mehr als 30% der Tumoren wurden als Zufallsbefunde im Rahmen einer bildgebenden Diagnostik oder Operation diagnostiziert. Die Mehrheit der Patienten stellte sich initial außerhalb unserer Klinik vor, nur etwa 15% wurden innerhalb unserer Klinik insbesondere in der Gastroenterologie vorstellig, wo der NET diagnostiziert wurde.
Die Phase von der Tumormanifestation bis zur ED aller NET betrug im Median 17 Tage. Das Vorhandensein von Fernmetastasen sowie Symptomen führte zu keiner signifikanten Kürzung der Phase und einer schnelleren ED des NET (Median 65,5 vs. 90 Tage, p = 0,4).
Hintergrund: Der Rettungsdienst versorgt täglich viele Patient/-innen in unterschiedlichen Umgebungen und ist damit auch potentieller Überträger nosokomialer Infektionen. Zur Händehygiene, als entscheidende Säule der Infektionsprophylaxe, liegen bislang nur wenige Daten aus dem Rettungsdienst vor.
Methoden: Prospektive multizentrische Studie mit Fragebogen zur Selbst- und Fremdeinschätzung der Compliance und beeinflussender Faktoren (abgeleitet von der WHO Perception Survey for Health-Care Workers) sowie direkte Compliance-Beobachtung nach WHO-Standard bei Rettungsdienstpersonal zweier Berufsfeuerwehren in Deutschland.
Ergebnisse: Es wurden 207 Fragebögen eingereicht und während ca. 66h Beobachtungszeit wurden 674 Händedesinfektionsgelegenheiten protokolliert. Der präventive Effekt der HH wurde allgemein von den Mitarbeitenden anerkannt. Die Selbsteinschätzung (MW: 80%) und beobachtete Compliance-Rate (38%) zeigten eine deutliche Diskrepanz und die Compliance variierte zwischen den verschiedenen Indikationen. Besonders niedrig zeigte sich die Compliance rund um die Durchführung aseptischer Tätigkeiten. Hier zeichnete sich ein geringes Risikobewusstsein für nicht sichtbare Verunreinigungen ab. Hürden für die Umsetzung der Händehygiene stellten vor allem die Vorrangigkeit anderer Maßnahmen, Unterbrechung des Arbeitsablaufes und Zeitmangel dar.
Schlussfolgerungen: Die beobachtete Compliance-Rate im Rettungsdienst lag unterhalb der innerklinischen Durchschnittswerte. Insbesondere die Compliance im Rahmen aseptischer Tätigkeiten muss dringend gesteigert werden. Dies erfordert einen multimodalen Lösungsansatz, der die Optimierung der Ausbildung, Algorithmen, Materialverfügbarkeit und Praktikabilität der Händedesinfektion im Rettungsdienst beinhaltet.
In dieser retrospektiven Studie wurden 47 Patienten mit einem histologisch nachgewiesenen Analkarzinom und im Anschluss aufgetretenen Rezidiv nach Beendigung der Radiochemotherapie und hinsichtlich der Risikofaktoren für das tumorfreie, sowie das Gesamtüberleben ausgewertet.
Auffällig in dieser Patientenkohorte war der hohe Anteil an männlichen Patienten (68,1 %), an HIV-positiven (36,2 %) sowie an Patienten mit nachgewiesenem Lymphknotenbefall bei Erstdiagnose (72,3 %).
Als signifikante Risikofaktoren für das tumorfreie Überleben wurden ein Primärtumor ab ≥ T3-Kategorie (Hazard-Ratio 1,87), ein Karnofsky-Performance-Status ≤ 80 % vor Beginn der Radiochemotherapie (Hazard-Ratio 3,25), sowie das initiale fehlende therapeutische Ansprechen der Radiochemotherapie (Hazard-Ratio 5,9) festgestellt. Auffällig war, dass kein signifikanter Einfluss bzgl. des biologischen Geschlechts, des Gradings, der N Kategorie oder des Alters ermittelt werden konnte.
In Bezug auf das Gesamtüberleben der Patienten ergaben sich folgende signifikante Risikofaktoren: eine T-Kategorie ≥ T3 (Hazard-Ratio 4,091), ein hohes UICC-Stadium (Hazard Ratio 2,89 für Stadium IIIC), das fehlende initiale therapeutische Ansprechen der Radiochemotherapie (Hazard-Ratio 9,59), ein Karnofsky-Performance-Status ≤ 80 % (Hazard-Ratio 12,23). Ein protektiver Faktor stellte ein längeres tumorfreies Überleben (Hazard-Ratio 0,935) dar.
Die Auswertung des gesamten und des tumorfreien Überlebens hinsichtlich des Befallsmusters der Rezidive ergab, dass mit zusätzlich zum lokalen Rezidiv nachgewiesenem lokoregionären Rezidiv und Fernmetastasen sich sowohl das tumorfreie Überleben (Ein-Jahres-tumorfreies Überleben 52,9 ± 12,1 % vs. 15,0 ± 8,0 %) als auch das Gesamtüberleben (5-Jahres-Gesamtüberleben 75,0 ± 12,5 % vs. 0,0 %) signifikant verringerten.
Im Vergleich der Merkmale der Patienten mit und ohne nachgewiesenen Fernmetastasen ergab sich ein signifikanter Unterschied in Bezug auf den Anteil der Tumore ≥ T3 (75 %).
In der Untergruppe, die mittels abdominoperinealer Rektumexstirpation therapiert wurde, konnte kein signifikanter Unterschied in Bezug auf die rpT-Kategorie, R-Klassikfikation, Pn-, V- und L-Klassifikation festgestellt werden.
Background: Hepatectomy is a complex procedure with high morbidity and mortality.
Early prediction/prevention of major complications is highly valuable for patient care.
Surgical APGAR score (SAS) has been validated to predict post-surgical complications (PCs).
Goal: We aimed to define a simple complications classification following hepatectomy based on a therapy-oriented severity Clavien-Dindo classification (CDC).
Methods: 119 patients undergoing liver resection were included. PCs were determined at follow-up based on CDC. Clinicopathological factors were used to calculate SAS. A receiver-operator characteristic (ROC) curve analysis estimated the predictive value of SAS for PCs. Circulating markers levels of liver injury were analyzed as critical elements on PCs.
Results: SAS (P=0.008), estimated blood-loss (P=0.018) and operation time (P=0.0008) were associated with PCs. SAS was reduced in patients with (+) compared to those without (-) complications (6.64±1.84 vs 5.70±1.79, P=0.0079). The area-under-the-curve was 0.646 by ROC, indicating an acceptable discrimination with 65% possibility to distinguish (-) and (+) groups (P=0.004).
Best cutoff value for SAS was ≤6/≥7, at which sensitivity and specificity were maximal.
ALT/ASL levels were significantly different within the group with 9-10 SAS points (P=0.01 and 0.02).
Conclusion: SAS provides accurate risk stratification for major PCs after hepatectomy, and might help improving the overall patient outcome.
Lungensonographie bei Patienten mit HIV und AIDS
Ziele und Methoden: Vor dem Hintergrund mehrerer retrospektiven Studien und Fallserien zur Anwendung des Lungenultraschalls zur Diagnose HIV-assoziierter Lungenerkrankungen führten wir eine prospektive Studie in der Abteilung für Infektiologie am Klinikum der Goethe-Universität Frankfurt durch. Wir schlossen hierbei Patientinnen und Patienten ein, bei denen durch konventionelle Diagnostik eine Lungenerkrankung nachzuweisen oder auszuschließen war, und führten zeitnah zur konventionellen Diagnostik verblindete Ultraschalluntersuchungen durch. Diese wurden zudem verblindet von zwei weiteren Ultraschalluntersuchern reevaluiert, basierend darauf wurde die Interrater-Reliabilität zwischen den drei Befunden errechnet. Die konventionell-radiologischen Untersuchungen wurden verblindet von einem weiteren Radiologen befundet.
Ergebnisse: Wir untersuchten 80 HIV-positive Patienten, von denen 54 nachweislich eine pulmonale Erkrankung hatten. Die häufigsten Diagnosen waren Pneumocystis jirovecii-Pneumonien (21 Fälle), bakterielle Pneumonien (17 Fälle) und andere Diagnosen (16 Fälle). Die Lungenultraschalluntersuchungen zeigten bei 90.7% der Patienten mit pulmonaler Diagnose und bei 34.5% der lungengesunden Patienten Auffälligkeiten. Die CT-Untersuchungen fanden Pathologien in 97.5% der Erkrankten und 27.3% der Gesunden. Röntgenuntersuchungen zeigten bei 78.1% der Erkrankten und bei 25% der Gesunden pathologische Befunde. Die häufigsten Pathologien in allen Modalitäten waren interstitielle Veränderungen. Diese zeigten in der Lungenultraschalluntersuchung keinen signifikanten Unterschied zwischen den verschiedenen Lungenerkrankungen, waren jedoch signifikant häufiger als bei Patienten ohne Lungenerkrankung. Konsolidierungen und Pleuraergüsse waren im Lungenultraschall zwar häufiger bei Erkrankten, aber nicht signifikant gegenüber den Gesunden. Die Interrater-Reliabilität des Lungenultraschalls war hoch für interstitielle Pathologien (ICC=0.82) ohne nennenswerte Änderungen im Studienverlauf (r=-0.11), und niedriger bei Konsolidierungen und Ergüssen (jeweils κ=0.12) mit positivem Zusammenhang zur Studiendauer (r=0.88 für Konsolidierungen, r=0.37 für Ergüsse).
Diskussion: Lungenerkrankungen sind bei HIV-Patienten im Ultraschall am häufigsten durch interstitielle Pathologien nachzuweisen, diese allein erlauben allerdings keine Unterscheidung zwischen verschiedenen Erkrankungen. Die Sensitivität der Ultraschalluntersuchung ist geringer als die der Computertomographie, jedoch höher als die Sensitivität des Röntgens. Interstitielle Pathologien werden bereits nach kurzer Lernphase reliabel identifiziert. Konsolidierungen und Ergüsse waren seltenere Befunde, und scheinen eine längere Lernphase zu benötigen, da die Interrater-Reliabilität im Verlauf der Studie ansteigt. In allen Modalitäten zeigten auch gesunde Patienten bildgebend Auffälligkeiten, was den positiv prädiktiven Wert bei niedrigerer Prävalenz negativ beeinflussen kann.
Lungensonographie bei Patienten mit COVID-19
Ziele und Methoden: Im Rahmen der seit Ende 2019 andauernden COVID-19 Pandemie boten sich die erlernten Sonographiekenntnisse für die bettseitige Diagnostik dieser neuen Lungenerkrankung an. Aufgrund der Pathogenität des neuartigen Erregers wandten wir die Lungensonographie zur Diagnostik unter Isolationsbedingungen an, um Transporte für konventionelle Bildgebung zu reduzieren. Bettseitig durchgeführte Lungensonographien bei SARS-CoV-2-positiven Patientinnen und Patienten wurden mit durchgeführter konventioneller Bildgebung im Rahmen dieser retrospektiven Fallserie verglichen.
Ergebnisse: Die Ultraschalluntersuchungen von 17 Patientinnen und Patienten wurden ausgewertet, hiervon zeigten 14 Untersuchungen Pathologien. In neun Fällen wurden interstitielle Pathologien beobachtet, fünf dieser Fälle zeigten zusätzlich Konsolidierungen.
Drei Patienten hatten außer Konsolidierungen keine weiteren Pathologien. Pleuraergüsse wurden in drei Fällen beobachtet, Pleuraplaques bei einem Patienten. In 5 von 7 Fällen mit auffälligem Thorax-CT zeigte die Lungensonographie Pathologien. Die Lungensonographie zeigte in jedem Fall Pathologien, in dem auch das Röntgen auffällig war.
Diskussion: Diese Fallserie zeigt die Anwendung der Sonographie als bettseitige Lungendiagnostik unter Isolationsbedingungen. Interstitielle Pathologien und Konsolidierungen scheinen die relevantesten Hinweise auf eine pulmonale Beteiligung im Rahmen der COVID-19-Erkrankung zu sein. Wegen der geringen Fallzahl und des retrospektiven Designs ist die Aussagekraft dieser Substudie gering, jedoch zeigt sie die Umsetzbarkeit der Sonographie als bildgebendes Verfahren, wenn aufgrund notwendiger Isolationsmaßnahmen und hoher Fallzahlen konventionelle Bildgebung erschwert ist.
Aktivierende Mutationen der Fms-like tyrosine kinase (FLT3) treten bei 25 % der Patienten mit akuter myeloischer Leukämie (AML) auf und begünstigen die unkontrollierte Proliferation maligner Blasten. Autophagie ist ein intrazellulärer Prozess, durch den zytoplasmatische Bestandteile lysosomal abgebaut werden und fungiert als intrazellulärer Homöostase-Mechanismus unter Stress-Bedingungen.
Ziel dieser Arbeit war es, herauszufinden, ob FLT3-ITD+-AML-Zellen vulnerabel gegenüber Autophagie-Hemmung sind.
Hierzu wurde zunächst untersucht, wie sich FLT3-ITD-Signaling und Autophagie unter basalen Wachstumsbedingungen gegenseitig beeinflussen. In einem genetischen Modell zeigte sich, dass FLT3-ITD-transformierte wachstumsfaktorunabhängige Zellen während ihrer fortgesetzten Proliferation vermehrt Autophagie betreiben. Lysosomale Autophagie-Inhibitoren zeigten jedoch unter diesen Bedingungen keine erhöhte Wirksamkeit gegenüber FLT3-ITD-positiven Zellen. Humane FLT3-ITD-positive AML-Zellen zeigten nach genetischer Deletion von ULK1 ebenfalls nur transiente und milde Proliferationsdefizite. Unter basalen Wachstumsbedingungen zeigte sich also keine erhöhte Vulnerabilität FLT3-ITD-exprimierender Zellen gegenüber Autophagie-Inhibition.
Daraufhin wurde die Bedeutung von Autophagie während pharmakologischer Hemmung von FLT3 untersucht. FLT3-Inhibition mittels AC220, einem FLT3-spezifischer Tyrosinkinase-Inhibitor, induzierte bzw. steigerte die autophagische Aktivität ähnlich stark wie eine direkte mTOR-Inhibition. Dies ließ sich im Zellmodell therapeutisch ausnutzen: eine Kombinationsbehandlung mit AC220 und einem lysosomalen Autophagie-Inhibitor zeigte eine synergistische antiproliferative Wirkung. Dies stellt möglicherweise einen neuen rationalen Kombinationsbehandlungsansatz für die Therapie FLT3-ITD-positiver AML-Patienten dar.
Die vorliegende Arbeit stellt eine auf datenwissenschaftlichen Methoden beruhende Analyse des aktuellen Wissens über mögliche kausale Zusammenhänge zwischen therapeutischen Morphinapplikationen mit Todesfällen dar, welche auf computergestützter Extraktion von Information aus frei verfügbaren Wissensdatenbanken und der Analyse der darin enthaltenen numerischen Information besteht. Die Relevanz der vorliegenden Analyse ergibt sich aus dem weltweit breiten Einsatz von Morphin zur Behandlung starker Schmerzen und der immer wieder vorkommenden Todesfälle während einer Morphintherapie, die regelmäßig zu Gerichtsverfahren mit den verschreibenden Ärzten als Angeklagte führen.
Morphin ist ein Opioid und zählt zu den starken Analgetika der WHO Stufe III. Bei der Applikation von Morphin kann es neben der gewünschten Analgesie auch zur Abflachung der Ventilation bis hin zum fatalen Atemstillstand kommen. In der Literatur wird die Inzidenz von Morphin-assoziierten Todesfällen mit 0,3 bis 4% angegeben. So kommt es in einigen Fällen auch zu strafrechtlichen Ermittlungen und Gerichtsverfahren mit dem Verdacht der vorsätzlichen Tötung oder sogar des Mordes. Die Frage, ob eine Morphinapplikation Ursache für den Tod eines Patienten war, ist nicht einfach zu beantworten, was mit einigen Besonderheiten von Opioid-Analgetika im Allgemeinen und von Morphin im Besonderen zusammenhängt. Für Morphin existieren z.B. keine genau definierten maximalen Dosen. Es wurden bisher lediglich Empfehlungen ausgesprochen, abhängig auch davon, ob ein Patient noch „opioid-naiv“ ist oder bereits Opioide einnimmt und damit ein Gewöhnungseffekt eingetreten ist, welcher neben der Analgesie die Gefahr des Atemstillstandes verringert. Grundsätzlich gilt immer, die Dosis so gering wie möglich und so hoch wie nötig zu halten. Die Dosis wird an die Schmerzintensität adaptiert, wobei nach keine maximal erlaubte Dosis existiert. Besonders bei terminal kranken Patienten ist die Kausalität zwischen therapeutischer Morphinapplikation und dem Tode oft fraglich, und es werden regelmäßig Gutachten eingeholt, die meistens von Rechtsmedizinern, Anästhesisten und klinischen Pharmakologen erstellt werden.
In diesen Gutachten müssen viele Faktoren, die die Wirkungen von Morphin bis hin zum letalen Ausgang beeinflussen können, diskutiert wurden, und die daher Hauptinhalt der vorliegenden Arbeit sind. Dazu gehören die verabreichten Morphindosen und die Konzentrationen von Morphin und seiner Metabolite im Blut, aber auch Charakteristika des Patienten, wie Alter, Vorerkrankungen wie z.B. Leber- oder Niereninsuffizienz, Komedikationen, oder pharmakogenetische Faktoren. Darüber hinaus spielt für die zeitliche Zuordnung einer Morphingabe mit dem Tode die verzögerte Verteilung Morphins an seinen Wirkort (das zentrale Nervensystem) eine wichtige Rolle.
Eine weitere Schwierigkeit, die sich bei Morphin-assoziierten Toden darstellt, ist die oft zur Debatte stehende verabreichte Morphindosis, die nachträglich aus den gemessenen Konzentrationen im Blut des Verstorbenen rekonstruiert werden soll, was oft nicht sicher möglich ist. Die postmortal gemessenen Konzentrationen von Morphin unterliegen relevanten Veränderungen aufgrund postmortaler Flüssigkeitsumverteilung oder des Zerfalls von Morphin, aber auch als Folge von Veränderungen während der Lagerung der Proben.
In unserer Analyse und Auswertung der vorhandenen Literatur zu diesen Themen kamen wir zu dem Ergebnis, dass es gegenwärtig praktisch sehr schwer ist, eine Morphindosis oder -konzentration sicher mit dem Tod eines Patienten in Verbindung zu bringen. Somit bleibt jeder Todesfall individuell und kontext-abhängig und erfordert die Berücksichtigung weiterer Aspekte bei der der strafrechtlichen Aufarbeitung. Zudem kamen wir zu dem Entschluss, dass angesichts dieser bereits seit langen bekannten Problemen mit Morphin und aber auch anderen Opioiden (siehe “opioid crisis” in den USA), die Entwicklung von sichereren stark wirksamen Analgetika als Ersatz für Opioide dringlich ist.
Das Prostatakarzinom ist in Europa die häufigste Krebserkrankung des Mannes. Im metastasierten, kastrationsresistenten Zustand gibt es wenige Therapieoptionen. Als neuere Therapiemöglichkeit hat sich in den letzten Jahren die Radioligandentherapie (RLT) mit 177Lu-PSMA-617 hervorgetan. Die Myelosuppression ist allerdings ein potentiell dosis-limitierender Faktor bei der Radioligandentherapie.
Ziel der vorliegenden Arbeit war es, das Auftreten, den Schweregrad und die Reversibilität von hämatotoxischen Nebenwirkungen in einer großen Patientenkohorte zu unter-suchen, die sich einer RLT mit 177Lu-PSMA-617 bei metastasiertem kastrationsresistentem Prostatakarzinom (mCRPC) unterzogen. Nach deskriptiver Analyse des behandelten Patientenkollektivs erfolgte die Identifikation von prädisponierenden Faktoren für das Eintreten von hämatologischen Nebenwirkungen. Dabei wurden insbesondere der Beitrag von Vortherapien, Behandlungsaktivität, Ausmaß der Knochentumorlast sowie eine prätherapeutisch bestehende Zytopenie berücksichtigt.
Die RLT wurde bei 140 Patienten durchgeführt, die insgesamt 497 Zyklen erhielten. Eine mittlere Aktivität von 6.9±1.3 GBq 177Lu-PSMA-617 pro Zyklus wurde in einem Median von 3 Behandlungszyklen verabreicht. Die mittlere kumulative Aktivität betrug 24.6±15.9 GBq. Hämatologische Parameter wurden bei Studienbeginn, vor jeder Behandlung, 2 bis 4 Wochen danach und während der gesamten Nachbeobachtung gemessen. Die Toxizität wurde anhand der Common Terminology Criteria for Adverse Events v5.0 eingestuft.
Dabei zeigten sich signifikante (Grad ≥3) hämatologische unerwünschte Ereignisse bei 13 Patienten (9.3%). Davon 10 mit Anämie (7.1%), 5 mit Leukopenie (3.6%) und 6 mit Thrombozytopenie (4.3%). Die Hämatotoxizität war bis zu einem medianen Follow-up von 8 Monaten bei allen bis auf zwei Patienten, die innerhalb von weniger als 3 Monaten nach der RLT an einer Krankheitsprogression starben, reversibel auf Grad ≤2. Die Myelosuppression war signifikant häufiger bei Patienten mit vorbestehender Zytopenie Grad ≥2 oder hoher Knochentumorlast (disseminiert oder diffus). Eine vorangegangene taxan-basierte Chemotherapie war ebenfalls mit einer erhöhten Inzidenz signifikanter Hämatotoxizität assoziiert, während die Behandlung mit 223Ra-Dichlorid, die kumulative RLT-Behandlungsaktivität und die Aktivität pro Zyklus nicht signifikant korreliert waren.
Die vorliegenden Ergebnisse zeigen somit, dass hämatologische Nebenwirkungen nach RLT eine akzeptable Gesamtinzidenz besitzen und häufig reversibel sind. Eine hohe Knochentumorlast, eine vorangegangene taxan-basierte Chemotherapie und eine Zyto-penie vor der Behandlung vom Grad ≥2 können als Risikofaktoren für die Entwicklung einer klinisch relevanten Myelosuppression angesehen werden, während die kumulative RLT-Aktivität und eine vorangegangene 223Ra-Dichlorid-Behandlung keinen signifikanten Beitrag zur Inzidenzrate zeigen. Die Fragestellung ist von unmittelbarer Relevanz, da die Erkenntnisse entscheidend für die individuelle Risikoeinschätzung von Patienten mit mCRPC bezüglich der 177Lu-PSMA-617 beitragen.
Ziel der Arbeit ist es die Eigenschaften und die Häufigkeit von Rezidiven der primär und sekundär therapierten Basalzellkarzinome der MKPG, insbesondere in Abhängigkeit der Lokalisation und des Resektionsstatus zu evaluieren und mit den Ergebnissen der Literatur zu vergleichen, um ein optimiertes chirurgisches Vorgehen zu sichern.
Herzkreislauferkrankungen führen weltweit weiterhin die Liste der häufigsten Todesursachen an. Dem frühzeitigen Erkennen kardialer Veränderungen kommt daher eine besondere Bedeutung zu. Das Erkennen subklinischer Veränderungen des Myokards mit Hilfe des myokardialen T1 Mappings und der Strain Analyse in der kardialen MRT mit der Bestimmung der Korrelation von T1 Mapping und Veränderung des myokardialen Strains war das primäre Ziel der vorliegenden Arbeit. Das native T1 Mapping sollte dabei diffuse kardiale Fibrose erkennen, während die Strainparameter zur Analyse der subtilen kardialen Funktion dienten. Wenn eine vermehrte diffuse Fibrose eine Einschränkung der myokardialen Funktion bedeutet, so müssten sich das native T1 Mapping und die Strainparameter gleichsinnig verändern.
Eingeschlossen in die Untersuchung wurden Patienten, die im Rahmen ihres Klinikaufenthaltes an der Kerckhoff-Klinik Bad Nauheim ein kardiales MRT erhielten und ihre Zustimmung zur Aufnahme in das geführte Register gaben. Alle durchgeführten MRT-Untersuchungen besaßen dabei eine medizinische Indikation. Die Untersuchung umfasste eine Blutentnahme sowie die Bildakquisition und das Ausfüllen eines Fragebogens. In der anschließenden Bildauswertung wurden das native T1 Mapping, eine Featuretrackinganalyse, sowie die reguläre diagnostische Beurteilung durch einen Facharzt durchgeführt. Die Patienten wurden anschließend nach ihren Diagnosen in Gruppen eingeteilt. Ein Jahr nach ihrer Untersuchung wurden die Patienten kontaktiert und erneut befragt, um den Anteil an „major adverse cerebro- and cardiovasculare events“ (MACCE) und der Gesamtsterblichkeit am Gesamtkollektiv festzustellen.
Es zeigten sich signifikante Zusammenhänge zwischen nativem T1 Mapping und den Strainparametern, ebenso wie signifikante Zusammenhänge von schwächerer Effektstärke zwischen ECV und den Strainparametern. Das erhöhte native T1 Mapping ging mit verringerten Strainparametern einher, was auf eine vermehrte Fibrose schließen lässt. In der Überlebensanalyse bezüglich des allgemeinen Überlebens zeigte sich nur das native T1 Mapping als unabhängiger Prädiktor, während bei den MACCE zusätzlich auch die Anzahl der betroffenen Segmente im „late gardolinium enhancement“ (LGE) einen unabhängigen Prädiktor darstellten. Der globale longitudinale Strain (GLS) verfehlte bezüglich der MACCE knapp das Signifikanzniveau, zeigte aber eine Tendenz zur Signifikanz.
Natives T1 Mapping und, in begrenztem Maße, möglicherweise auch der Strain haben eine besondere Rolle in der Diagnostik und können bereits früh kardiale Veränderungen detektieren. Da die erhöhten T1 Zeiten als Marker für morphologische Veränderungen mit den Strains als funktionelle Parameter korrelierten, lässt sich spekulieren, dass Fibrose eine Einschränkung der Funktion bedingt.
Zur bisherigen Basisdiagnostik bei klinischem Verdacht eines PCa wird den aktuellen Leitlinien zufolge, neben einer fundierten Anamnese und körperlicher Untersuchung, die Bestimmung des PSA-Wertes gezählt. Seit nun mehr als zwei Jahrzehnten hat sich die PSA-Bestimmung zur Früherkennung, aber auch der Überwachung von Patienten mit bereits diagnostiziertem PCa bewährt. Ob die Bestimmung des PSA-Wertes die PCa-spezifische Mortalität adäquat widerspiegelt, wird allerdings in zahlreichen Expertenkreisen weiterhin kontrovers diskutiert. Anlässlich dessen soll die Erforschung neuer Biomarker dazu dienen, das Risiko eines aggressiven PCa gezielter zu erfassen und behandeln zu können. Die Arbeitsgruppe von Tsaur et al. hat in vorausgegangenen Studien auf das vielversprechende Potential von sE-Cadherin als möglichen Biomarker beim PCa hingewiesen [92]. Basierend darauf wurde in der vorliegenden Arbeit untersucht, wie sich das Serumprotein sE-Cadherin auf PCa-Zelllinien vor allem in Hinblick auf die Metastasierung des PCa am in vitro Modell auswirkt. Die Experimente erfolgten an den beiden Androgen-resistenten Zellen PC3 und DU145 sowie der Androgen-sensitiven Zelllinie LNCaP nach Behandlung mit sE-Cadherin. Unbehandelte Zellen dienten jeweils als Kontrolle. Die ersten Versuche beschäftigten sich damit, eine Arbeitskonzentration des sE-Cadherins zu etablieren, welche nachfolgend für alle weiteren Versuche genutzt werden konnte. Die Arbeitskonzentration von sE-Cadherin wurde auf 5 µg/ml festgelegt. Mithilfe des MTT-Assays wurde nachfolgend das Zellwachstum untersucht. Auswirkungen von sE-Cadherin auf den Zellzyklus der genannten PCa-Zelllinien wurden mithilfe der fluoreszenzaktivierten Zellanalyse (FACS) nach erfolgter Zell-Synchronisation evaluiert. Der Einfluss von sE-Cadherin auf die einzelnen Schritte der Metastasierung wurde durch Migrations- und Invasions- sowie Adhäsions-Versuchen an Zellmatrixproteinen (immobilisiertes Kollagen und Fibronektin) untersucht. Mithilfe der Durchflusszytometrie konnte die Beeinflussung von sE-Cadherin auf die Integrinoberflächenprofile analysiert werden. Zur Evaluation relevanter Signalwege erfolgten Western-Blot-Versuche, in denen der Expressionsstatus von Integrin-assoziierten Signalproteinen untersucht wurde. Blockade-Studien dienten der Überprüfung der funktionellen Relevanz einzelner Integrine. Die Behandlung der PCa-Zellen mit sE-Cadherin in der Konzentration von 5 µg/ml führte zur signifikanten Abnahme des Tumorwachstums. Die Zellzyklus-Analyse zeigte einen vermehrten Zell-Arrest in der G0/G1-Phase sowie Abnahme der S-Phase. Des Weiteren führte die sE-Cadherin-Applikation bei allen drei PCa-Zelllinien zur Abnahme der Adhäsionsfähigkeit an Kollagen und Fibronektin. Im Gegensatz dazu konnte gleichzeitig eine Erhöhung der chemotaktischen Bewegung beobachtet werden. Unter der sE-Cadherin-Behandlung kam es zur signifikanten Veränderung der Oberflächenprofile der Integrin-Subtypen α3 und β1. Dessen physiologische Relevanz konnte in Blockadestudien überprüft werden. Es zeigte sich, dass beide Subtypen, jedoch insbesondere β1, in die Adhäsion und Chemotaxis involviert sind. Abschließend kann in Zusammenschau der Experimente und dessen Resultate geschlussfolgert werden, dass sE-Cadherin maßgeblich das Metastasierungspotenzial der verschiedenen Prostatakarzinomzellen steigert, indem es das Zellwachstum stagnieren lässt und gleichzeitig das Herablösen der Tumorzellen von der extrazellulären Matrix sowie den Anschluss an das Blut-/Lymphabflusssystem erleichtert.
Hintergrund: Epilepsie bezeichnet eine Erkrankung, welche durch eine anhaltende Prädisposition für Symptome, die im Zusammenhang mit einer ungewöhnlich starken oder synchronisierten elektrischen Aktivität des Gehirns auftreten (=epileptischer Anfall) charakterisiert ist. Mutationen in dem Gen DEPDC5 (Dishevelled, Egl-10 and Pleckstrin (DEP) domain-containing protein 5) sind mit fokalen Epilepsien assoziiert und führen in Tiermodellen und humanen Modellen zu einer Überaktivierung des mTOR-Signalweges. Auf neuromorphologischer Ebene zeigt sich die mTOR-Überaktivierung durch eine Vergrößerung des Zelldurchmessers und einer zunehmenden Verästelung der Neuriten. Ziel dieser Studie war es, die morphologischen Auswirkungen der DEPDC5-assoziierten mTOR-Überaktivierung in der SH-SY5Y-Neuroblastomzelllinie zu untersuchen. Dadurch soll eine Einschätzung getroffen werden, ob das im Zusammenhang mit neurodegenerativen Erkrankungen bereits gut etablierte SH-SY5Y-Zellmodell auch bei der Untersuchung epilepsieassoziierter Pathomechanismen zum Einsatz kommen kann.
Methoden: Unter Einsatz der CRISPR/Cas9-Methode wurden Knockout(KO)-Mutationen in Exon 2 und Exon 3 des DEPDC5-Gens erzeugt und diese mittels Sanger-Sequenzierung bestätigt. Danach wurden die Knockouts auf RNA- und Proteinebene, durch Real-time-RT-PCR und Western Blot validiert. Die bestätigten homozygoten DEPDC5-KO-Zelllinen wurden anschließend mittels Western Blot auf eine mTOR-Überaktivierung untersucht. Zuletzt erfolgte die neuromorphologische Validierung des DEPDC5-KO. Die Zellgröße proliferierender SH-SY5Y wurden mittels Durchflusszytometrie (FACS) untersucht. Zudem bestimmten wir die neuronale Architektur differenzierter SH-SY5Y unter Einsatz der Sholl-Analyse.
Ergebnisse: Es konnten vier unabhängige DEPDC5-KO-SH-SY5Y-Zelllinien mit homozygoten Indel-Mutationen und vorzeitigem Stoppcodon in Exon 3 generiert werden. Die erwartete Reduktion an DEPDC5-mRNA konnte mittels Real-time 10 RT-PCR nicht festgestellt werden. Die Abwesenheit des Proteins konnte durch Western Blot aber gezeigt werden. Funktionell konnte für alle Zelllinien eine mTOR-Überaktivierung mittels Western Blot nachgewiesen werden. Dabei konnte phosphoryliertes AKT (AKT serine/threonine kinase 1) als stabilster Marker etabliert werden. Auf neuromorphologischer Ebene ließ sich ein Trend in Richtung vergrößertem Zelldurchmesser bei verlängertem Auswachsen der Neuriten feststellen, wobei sich für das Modell Unterschiede zwischen den einzelnen Klonen ergaben.
Diskussion: In dieser Studie gelang es erstmals, den Zusammenhang zwischen DEPDC5-KO und einer mTOR-Überaktivierung in der onkogenen SH-SY5Y-Zelllinie zu replizieren. Das verlängerte Auswachsen der Neuriten, bei jedoch gleichbleibender Anzahl peripherer Verästelungen, stellt dabei einen neuen Befund dar und könnte durch die frühe neuronale Entwicklungsstufe des SH-SY5Y-Zellmodells erklärt werden. Auf Grundlage der Ergebnisse dieser Arbeit lässt sich sagen, dass das robuste und kostengünstige SH-SY5Y-Zellmodell insbesondere für high-throughput Methoden und Screeningassays ein geeignetes Modell ist. Durch die Kombination mit reiferen Zellmodellen, wie beispielsweise iPSCs (induced pluripotent stem cells), könnte der Phänotyp eines DEPDC5-KO und anderer mTOR-assoziierter Epilepsien, möglichst umfassend in-vitro dargestellt werden.
Die Krebsstammzellforschung gelangte in den letzten Jahren vermehrt in den Fokus der Tumorforschung. Im Tumor bilden Krebsstammzellen eine kleine Population an Zellen mit Stammzelleigenschaften, wodurch sie eine große Rolle bei der Entstehung von Rezidiven, Metastasen, sowie der Entwicklung von Chemotherapieresistenzen spielen. Um eine gezielte Bekämpfung von Krebsstammzellen zu ermöglichen, müssen diese im
Tumor zunächst zuverlässig durch Krebsstammzellmarker detektiert werden können.
Gerade bei soliden pädiatrischen Tumoren, wie dem Hepatoblastom, ergeben sich hierbei Schwierigkeiten dadurch, dass im sehr heterogenen Tumorgewebe viele Zellen aufgrund der embryonalen Natur des Tumors bereits Stammzellmarker exprimieren, ohne dass es sich bei diesen Zellen um Krebsstammzellen handelt. Das Hepatoblastom ist mit 2/3 der Lebertumore des Kindes die häufigste maligne Leberneoplasie im Kindesalter.
Auch wenn es bereits Hinweise auf das Vorliegen von Krebsstammzellen im Hepatoblastom gibt, so konnten diese bisher nicht genauer durch fest definierte Krebsstammzellmarker identifiziert werden.
Um dies zu erreichen, wurden in dieser Arbeit die beiden Hepatoblastomzelllinien HuH6 und HepG2 auf die Expression der bereits bekannten Krebsstammzellmarker CD90, CD34 und CXCR4 überprüft. Zusätzlich wurde auf eine Bindung des „oval cell“ Antikörpers, OV-6, untersucht. Mittels Durchflusszytometrie-Analysen konnte eine Zellpopulation gefunden werden, welche die Oberflächenmarker CD34 und CD90 koexprimiert und gleichzeitig den OV-6 Antikörper bindet. Im nächsten Schritt wurden die Zellen auf einige Krebsstammzelleigenschaften überprüft. Zur weiteren Untersuchung dieser Subpopulation erfolgte mittels MACS (magnetic activated cell sorting) eine Anreicherung der CD90 exprimierenden Zellen. Diese wurde mittels qPCR auf die Expression der Pluripotenzmarker Oct4 und Nanog, sowie der Zytidindeaminase AID untersucht. Es konnte eine signifikant erhöhte Expression von AID und Oct4 detektiert werden. Im Gegensatz hierzu zeigte sich die Expression von EpCAM, c-myc und Albumin, welche als Kontrollgene untersucht wurden, nicht signifikant erhöht. Um auf das Metastasierungspotential der CD90 angereicherten Zellen rückzuschließen, wurde ein Migrationsassay mit angereicherten und depletierten Zellen durchgeführt. Hier wiesen die CD90 angereicherten Zellen, im Vergleich zu den depletierten Zellen eine erhöhte Migration auf. Im Tumorsphäroid-Assay war die HepG2 Zelllinie in der Lage Tumor-61 -sphäroide auszubilden. Nach der Passagierung zeigten diese eine erhöhte Expression der Krebsstammzellmarker CD90 und CD34, sowie der Pluripotenzmarker Oct4 und Nanog.
Zusammengefasst kann mit den Krebsstammzellmarkern CD90, CD34 und OV-6 eine Subpopulation im Hepatoblastom identifiziert werden, die nach unseren Analysen Krebsstammzelleigenschaften aufweisen. Mithilfe dieses Markersets können nun neue Therapieansätze auf ihre Effektivität, Krebsstammzellen gezielt zu eliminieren, getestet werden.
Ein intaktes Arbeitsgedächtnis ermöglicht es, Informationen, z.B. visuellen oder auditorischen Ursprungs temporär zu speichern, zu manipulieren und weiterzuverarbeiten. Es bildet die Grundlage zum Lernen, zum Begreifen und zum Verstehen von Sprache und somit die Grundlage zum tagtäglichen Funktionieren.
Beeinträchtigungen des Arbeitsgedächtnisses sind mit schlechten (Arbeits-) Leistungen, eingeschränkter zwischenmenschlicher Kommunikation, niedrigerem gesellschaftlichem Funktionsniveau und Arbeitslosigkeit vergesellschaftet und somit folgenschwer.
Psychiatrische Erkrankungen aus dem schizophrenen Spektrum, die unipolare Depression oder das Aufmerksamkeitsdefizit-Hyperaktivitätssyndrom (ADHS) gehen gehäuft mit kognitiven Beeinträchtigungen einher. Auch die bipolare affektive Störung zählt zu den psychiatrischen Erkrankungen, die mit kognitiver Beeinträchtigung assoziiert ist.
Das Ziel der Studie war es, darzustellen, dass kognitive Einschränkungen von Patienten, die an einer bipolaren affektiven Störung leiden, unter den exekutiven Funktionen insbesondere das Arbeitsgedächtnis betreffen und diese auch in euthymer Stimmungslage zu erfassen sind.
Hierzu wurde mittels einer Aufgabe zur Farbveränderung vier verschiedener Kreise, die um ein zentral platziertes, schwarzes Kreuz angeordnet waren, das visuelle Arbeitsgedächtnis anhand der Merkfähigkeit der Patienten, deren euthyme Stimmungslage mit den Ratingskalen MADRS und YMRS bestätigt wurde, im Vergleich zu einer Gruppe gesunder Kontrollprobanden, die mit der Patientengruppe in den Faktoren Alter, Geschlechterverteilung, prämorbide Intelligenz, Schulbildung und Händigkeit vergleichbar war, überprüft.
Anhand der erzielten Ergebnisse wurde die Arbeitsgedächtniskapazität K nach Pashler bestimmt. Es ergab sich eine bei mittlerer Effektstärke signifikant geringere Arbeitsgedächtniskapazität in der Gruppe der remittierten Patienten mit bipolarer affektiver Störung im Vergleich zur Kontrollgruppe gesunder Probanden.
Ein Einfluss der zum Zeitpunkt der Testung in der Patientengruppe angewandten Psychopharmaka auf die Arbeitsgedächtniskapazität konnte ausgeschlossen werden, sodass die ermittelten Defizite nicht als eine Form von Medikamentennebenwirkungen erklärt werden konnten. Interessanterweise betrug die mediane Erkrankungsdauer in der Patientengruppe drei Jahre, sodass davon auszugehen ist, dass die Ausprägung von Defiziten des Arbeitsgedächtnisses keinen langen Krankheitsverlauf bedingt, sondern bereits zu Beginn der Erkrankung vorhanden sein könnte.
Somit konnte die Studie darlegen, dass kognitive Defizite, insbesondere Störungen des Arbeitsgedächtnisses mit daraus resultierender signifikant erniedrigter Arbeitsgedächtniskapazität, bei Patienten mit bipolarer affektiver Störung in euthymer Stimmungslage bereits zu einem frühen Zeitpunkt des Krankheitsverlaufs bestehen, die eine Folge der Erkrankung selbst sind und keine Nebenwirkung von psychopharmazeutischer Medikation darstellen. Den Grund für das Auftreten kognitiver Defizite bei Patienten mit bipolarer affektiver Störung liefert diese Studie nicht, sie impliziert dennoch, dass das Verständnis und die Berücksichtigung kognitiver Störungen bei der bipolaren affektiven Störung zukünftig ein wichtiges Therapieziel darstellen sollte um das funktionelle Outcome von Patienten, die an dieser Störung leiden, entscheidend zu verbessern und somit eine Teilnahme am tagtäglichen Funktionieren weiterhin ermöglicht wird.
In die Zukunft blickend sollten unsere Ergebnisse mithilfe weiterer Untersuchungen validiert werden, insbesondere in Bezug auf genetische Komponenten, die die Arbeitsgedächtniskapazität regulieren. Es sollten Faktoren identifiziert werden, die eine reduzierte Arbeitsgedächtniskapazität bei Patienten mit bipolarer affektiver Störung bedingen. Die vorliegende Studie beantwortet nämlich nicht die Frage, wie genetische Faktoren und Umweltfaktoren die Arbeitsgedächtniskapazität auf kognitiver und neurophysiologischer Ebene beeinflussen könnten.
Angesichts der erwähnten Relevanz eines intakten Arbeitsgedächtnisses für die Funktionsfähigkeit der Patienten sollten zukünftige Studien prüfen, ob prokognitive Interventionen wie die kognitive Remediation oder sogar medikamentöse Therapieoptionen diese Defizite verbessern könnten.
Die rechtsmedizinische Begutachtung von Knochenfunden : eine hessenweite retrospektive Studie
(2023)
Einleitung: Zufällige Funde von Knochen(fragmenten) können von großem Interesse für z. B. Strafverfolgungs- und Denkmalbehörden oder Bauträger sein. Zur Beurteilung einer etwaigen strafrechtlichen oder historischen Relevanz tragen forensisch-osteologische Untersuchungen in einem hohen Maße bei. Die vorliegende Arbeit soll einen Überblick über die forensisch-osteologische Arbeit der beiden hessischen Institute für Rechtsmedizin geben und durch die Interpretation der Ergebnisse im (inter-)nationalen Vergleich regionale Besonderheiten und die Rolle der Rechtsmedizin bei der Begutachtung aufzeigen. Der daraus entstandene Erkenntnisgewinn soll ein Problembewusstsein schaffen sowie Fallarbeit und Lehre verbessern.
Material und Methoden: Zunächst wurden für den Zeitraum von 2005 bis 2019 die im Institut für Rechtsmedizin Gießen archivierten osteologischen Gutachten deskriptiv statistisch ausgewertet. Es wurden Daten zu Fundort, -umständen, Humanspezifität, postmortalem Intervall, Spuren von Gewalt und die Ergebnisse weiterführender Untersuchungen erhoben.
In einer zweiten Studie wurde die Auswertung auf archivierte forensisch- osteologische Gutachten des Instituts für Rechtsmedizin Frankfurt am Main ausgeweitet und der Auswertungszeitraum auf die Jahre 2011 bis einschließlich 2020 angepasst, um eine hessenweite Datengrundlage zu generieren.
Ergebnisse: In der ersten Studie wurden von den in dem 15-Jahres-Zeitraum begutachteten 172 Knochenfunden aus dem Institut für Rechtsmedizin Gießen 40 % in Wald- und Wiesengebieten aufgefunden. In 58 % enthielten die Funde menschliche Knochen, davon wurde in 32 % eine forensisch relevante Liegezeit von 50 Jahren oder weniger nicht ausgeschlossen, und 6% wiesen Zeichen perimortaler Gewalteinwirkung auf. Bei den Fällen, in denen eine Humanspezifität ausgeschlossen wurde, handelte es sich am häufigsten um Knochen von Hirsch bzw. Reh (32 %), Schwein (29 %) und Rind (14 %). In 20 % aller Fälle wurden
ergänzende DNA-Untersuchungen durchgeführt; in 62 % verlief die Typisierung humaner STR-Systeme erfolgreich und davon gelang in 41 % die Zuordnung zu einem antemortalen Profil einer vermissten Person.
In der zweiten, hessenweiten Studie, wurden 288 Knochenfunde eines 10-Jahres-Zeitraums ausgewertet. Mit 38,2 % wurden die meisten Funde in Wäldern, Wiesen und großen Parks getätigt. In 50,7 % der Fälle enthielten die Funde menschliche Knochen, davon wurde in 37,0 % eine forensisch relevante Liegezeit angenommen. Zeichen einer Gewalteinwirkung wurden in 77,4 % der Fälle mit menschlichen Knochen beschrieben, dabei handelte es sich mit 78,8 % am häufigsten um postmortale Beschädigungen, in 9,7 % um perimortale und in 11,5 % um antemortale Verletzungen. In 40,4 % der als human klassifizierten Knochenfunde wurden DNA-Untersuchungen durchgeführt. Dabei konnte in 81,3 % ein STR-Profil erstellt werden, das in 35,4% zu einer sicheren Identifizierung führte. Bei den zur Untersuchung überstellten nicht-menschlichen Knochen handelte es sich am häufigsten um Knochen vom Schwein (23,4 %), Hirsch (18,1 %), Rind (16,4 %), Reh (11,7 %) und Schaf (11,7 %).
Diskussion: Die Begutachtung von Knochen und Knochenfragmenten ist ein fester Bestandteil der rechtsmedizinischen Fallarbeit und zwingend erforderlich, um Fälle von forensischem Interesse zu identifizieren. Die makroskopische Befundung durch einen geschulten Untersucher erlaubt in der Regel bereits, Aussagen über die forensische Relevanz eines Fundes zu treffen und so die Weichen für das weitere Vorgehen zu stellen. Hilfreich bei der makroskopischen Beurteilung ist eine gute Kenntnis der regionalen Besonderheiten in dem Gebiet, in dem die Knochen gefunden wurden. Die makroskopische forensisch-osteologische Begutachtung stellt trotz der sich ständig weiterentwickelnden technischen Möglichkeiten ein unverzichtbares Werkzeug in der Bearbeitung von Knochenfunden dar. In Deutschland ist es Aufgabe der Rechtsmedizin, diese Expertise zu pflegen und vorzuhalten, mit dem Ziel, zur Aufklärung von Vermisstenfällen beizutragen und unentdeckte nichtnatürliche Todesfälle aufzuklären.
Hintergrund: Anämie gehört zu den häufigsten Erkrankungen weltweit und stellt daher ein zentrales globales Gesundheitsproblem dar. Etwa ein Drittel aller chirurgischen Patienten weisen präoperativ eine Anämie auf. Dies wird als unabhängiger Risikofaktor für eine erhöhte Morbidität und Mortalität sowie für das vermehrte Auftreten postoperativer Komplikationen angesehen. Vor diesem Hintergrund wurde von der Weltgesundheitsorganisation (World Health Organization, WHO) ein patientenzentriertes Behandlungskonzept namens Patient Blood Management (PBM) gefordert, um unter anderem Anämien frühzeitig zu diagnostizieren und einen rationalen Einsatz von Fremdblutprodukten zu fördern. Trotz der Tatsache, dass PBM vor etwa 10 Jahren eingeführt wurde, scheint Deutschland im internationalen Vergleich eine überdurchschnittlich hohe Menge an Erythrozytenkonzentrat-(EK)Einheiten pro Kopf zu transfundieren. Die Ursachen dafür sind bislang unklar und könnten möglicherweise durch eine erhöhte Anämie- Prävalenz bei chirurgischen Patienten und dem damit verbundenen erhöhten Bedarf an Transfusionen einhergehen.
Zielsetzung: Ziel dieser Arbeit ist die multizentrische Erfassung der präoperativen Anämie-Prävalenz innerhalb des Zeitraums 2007-2019 in Deutschland.
Methoden: In dieser retrospektiven, multizentrischen Beobachtungsstudie wurden alle Patienten jeden Alters, die im Monat März der Jahre 2007, 2012, 2015, 2017 und 2019 in acht teilnehmenden Krankenhäusern operiert wurden, erfasst. Patientencharakteristika und klinische Daten wurden aus den Krankenhausinformationssystemen der teilnehmenden Krankenhäuser entnommen. Primäres Ziel war die Prävalenz der Anämie bei Krankenhausaufnahme. Sekundäre Endpunkte waren der Zusammenhang zwischen Anämie und Anzahl der transfundierten EKs, Dauer des Krankenhausaufenthalts und Sterblichkeit im Krankenhaus.
Ergebnisse: Von insgesamt 30.763 Patienten konnten 23.836 Patienten aus acht Krankenhäusern in die Analyse eingeschlossen werden. Im untersuchten Zeitraum zeigte sich eine Reduktion der präoperativen Anämie-Prävalenz erwachsener Patienten von 37% auf 32,2%. Die Zahl, der mit Erythrozytenkonzentraten -5- transfundierten Patienten, ging signifikant von 16,5 % im Jahr 2007 auf 7,8 % im Jahr 2019 zurück, wobei Patienten mit präoperativer Anämie im Vergleich zu Patienten ohne Anämie sechsmal mehr EKs erhielten. Insgesamt verkürzte sich die Krankenhausverweildauer seit 2007 deutlich, zeigte jedoch eine signifikante Verlängerung bei Vorliegen einer präoperativen Anämie. Die Sterblichkeitsrate war über die Jahre hinweg konstant, dennoch signifikant höher bei anämischen Patienten. Eine multivariate Regressionsanalyse mit festen Effekten ergab, dass präoperative Anämie und EK-Transfusion Prädiktoren für die Sterblichkeitsrate waren.
Diskussion: Die Prävalenz der präoperativen Anämie lag in unserer Studienpopulation im Jahr 2019 bei 32,2 %, was der weltweiten Prävalenz entspricht. Das Implementieren von PBM-Strategien, um präoperative Anämien frühzeitig zu identifizieren und zu therapieren sowie Blutprodukte rational einzusetzen, nimmt daher weiterhin einen großen Stellenwert ein. Diese perioperativen Maßnahmen sind für alle chirurgischen Patienten von zentraler Bedeutung, da eine präoperative Anämie den Bedarf an EK-Transfusionen erhöhen, die Liegezeit verlängern und mit einer erhöhten Sterblichkeitsrate assoziiert sein kann.
Einleitung: Im Jahr 2016 wurde eine neue, individuelle Lehrform, das „Lernzentrum für ein individualisiertes medizinisches Tätigkeitstraining und Entwicklung“ („Limette“), an der Westfälischen Wilhelms-Universität Münster entwickelt. Das Ziel dieser Lernform ist und war es, nicht nur die theoretische Lehre, sondern vor allem die praktische Lehre und praktische Szenarien in einem geschütztem Lernumfeld in der medizinischen Lehrdidaktik in den Vordergrund zu stellen.
Die Studierenden nehmen an verschiedenen Fächern der Limette teil. In dieser Promotionsarbeit liegt der Fokus auf der Limette Patient Blood Management (PBM) und Transfusionsmedizin.
Vor Kursbeginn wird den Studierenden Zugang zu verschiedenen Vorbereitungsvideos sowie weiteren theoretischen Materialien über PBM und Transfusionsmedizin zur Verfügung gestellt. Bei der Limette durchläuft jeder Studierende sechs verschiedene Stationen. Hierbei beobachten Dozenten die Fertigkeiten und die Umsetzung der Aufgabenlösung durch halbverspiegelte Scheiben, im Umgang mit echten Blutprodukten oder die Kommunikation mit Patienten, die von Schauspielern dargestellt werden. Die Beobachtungen werden den Dozenten des Seminars, welches im Anschluss zur Nachbesprechung stattfindet, mitgeteilt. Hier teilen die Studierenden untereinander ihr Wissen, können den Dozenten Fragen stellen und werden ihnen weitere theoretisch-praktische Kenntnisse vermittelt.
Ziel der Arbeit: Die Promotionsarbeit hat die Auswertung der Selbsteinschätzungsbögen vor und nach der Limette mit anschließender Interpretation der Ergebnisse zum Ziel. Es soll eruiert werden, ob diese neue Lehrmethodik effektiv in der Umsetzung des Lehrerfolgs ist.
Methodik: Die Selbsteinschätzungsbögen hinsichtlich medizinischer Fertigkeiten und Tätigkeiten werden vor und nach der Limette von den Studierenden ausgefüllt. Die Aufgabenstellungen fokussieren sich jeweils auf medizinische Tätigkeiten, bei denen aus 13 verschiedenen Entrustable Professional Activities (EPAs) diejenigen hinterlegt werden, die bei dieser Aufgabe gelehrt werden. Die Differenz von post- zu prä- Selbsteinschätzung zeigt den Lehrerfolg. Die EPAs werden alle analysiert und mit Hilfe der sogenannten Cohen-Zahl interpretiert. Die Cohen Zahl ist definiert als die Differenz zwischen den Mittelwerten zweier Gruppen dividiert durch die gemeinsame Standardabweichung der beiden Populationen. Nach dem Autor Hattie wurde die Skalierung von Cohen für die Lehre angepasst und dabei folgende Einteilung definiert: d = 0,2 (klein), d = 0,4 (mittel) und d = 0,6 (groß). Alle Methoden mit d > 0,4 wurden als „Zone der gewünschten Effekte“ eingestuft.
Ergebnisse: Im Wintersemester 2021/2022 nahmen n=122 Studierende teil, von welchen n=50 beide Fragebögen komplettierten. Eine signifikante Zahl der dargestellten EPAs (50%) hat gute Ergebnisse erzielt, weist mithin einen Cohen´s Wert von d > 0,40 auf. Im Sommersemester 2022 nahmen n=99 Studierende teil, wobei nur n=29 beide Selbsterhebungsbögen komplettierten. Aufgrund des niedrigen Rücklaufs war die Zahl der ausgefüllten Selbsteinschätzungsbögen deutlich geringer und zugleich die Ergebnisse geringer ausgeprägt. In jenem Semester weist die Mehrheit der Ergebnisse einen Cohen´s d-Wert zwischen 0,15 und 0,4 auf, was als durchschnittlicher Lehrerfolg beurteilt wird.
Schlussfolgerung: Die Lehrform der Limette ist eine neue Form der praktischen Lehrvermittlung, die kontinuierlichen Anpassungen unterliegt. Eine hohe Zahl an ausgefüllten Selbsteinschätzungsbögen ist erstrebenswert, um den Lehrerfolg positiv und statistisch signifikant interpretieren zu können. Hierbei ist es nötig, die Lehre in der Limette auszuwerten und gegebenenfalls weitere Anpassungen durchzuführen.
Die Limette ist eine neue Lehrmethode mit einem guten Lehrerfolg hinsichtlich der Vermittlung praktischer Fähigkeiten und sozialer Kompetenz, welche auch an anderen Institutionen angewandt und umgesetzt werden könnte.
Der Einfluss von Trauma-aktiviertem platelet-rich fibrin auf mesenchymale Stammzellen in vitro
(2023)
Ziel dieser Arbeit war es, die Wechselwirkung zwischen MSC und PRF von Traumapatienten herauszuarbeiten und zu überprüfen, ob ein therapeutischer Einsatz der Kombination von MSC und Trauma-aktiviertem PRF in Frakturen sinnvoll erscheint.
Hierfür wurden MSC mit PRF über einen Zeitraum von 24 oder 120 Stunden co-inkubiert und die metabolische Aktivität, definierte Faktoren im Überstand (IL-6, CXCL10, VEGF und IDO-2) und die Genexpression ausgewählter Faktoren (MAPK8, MAPK14, IL-6, CXCL10,IDO-1, TNFAIP6, VEGFA, RUNX2 und COL1A) in bis zu drei Messzeitpunkten überprüft. Die Versuche erfolgten vergleichend mit Traumapatienten und gesunden Probanden.
Es konnte gezeigt werden, dass Trauma-aktiviertes PRF verglichen mit PRF von gesunden Probanden die metabolische Aktivität von MSC nach 120 Stunden erhöhen kann. Zudem stellten sich erhöhte Werte des inflammatorischen Faktors IL-6 im Überstand bei Traumapatienten nach 24 und 72 Stunden dar, welche bis zum dritten Messzeitpunkt nach 120 Stunden wieder abfielen. Ein ähnlicher Verlauf zeigte sich bei den Messwerten von VEGFA, einem Faktor, welcher eine große Rolle bei der Angiogenese spielt.
Über alle Messzeitpunkte hinweg konnten niedrigere Werte in der Genexpression von COL1A und RUNX2 im Vergleich zu den Kontrollmessungen erfasst werden.
Die Ergebnisse zeigen, dass im Vergleich zu PRF gesunder Probanden Trauma-aktiviertes PRF die Möglichkeit besitzt, die Proliferation von MSC zu stimulieren. Außerdem wurde beobachtet, dass Trauma-aktiviertes PRF ein inflammatorisches und angiogenetisches Potenzial nach 72 Stunden besitzt, welches nach 120 Stunden allerdings wieder abfällt. Möglicherweise kann durch den Einfluss von MSC der Inflammation entgegengewirkt werden. Ein signifikantes osteogenes Potenzial des Trauma-aktivierten PRFs konnte zu keinem Messzeitpunkt nachgewiesen werden.
Inwiefern der Einsatz von MSC in Kombination mit Trauma-aktiviertem PRF die Frakturheilung verbessern kann, konnte in der vorliegenden Studie nicht eindeutig geklärt werden. Es kann allerdings davon ausgegangen werden, dass die Implantation von Trauma-aktiviertem PRF und MSC in den Defekt erst nach Verstreichen einer bestimmten Zeitperiode nach dem Trauma durchgeführt werden sollte. Die Gründe für diese Annahme sind das erhöhte proliferative und verringerte inflammatorische Potenzial im Verlauf. Eine Ursache für das Fehlen der osteogenen Differenzierung der MSC kann der kurze Messzeitraum sein.
Weitere Studien sollten folgen, um das Potenzial der Kombination von MSC und Trauma-aktiviertem PRF als therapeutisches Verfahren zu überprüfen.
Trauma ist in Deutschland und weltweit eine der häufigsten Todesursache bei Personen unter 55 Jahren. Eine traumatische Verletzung von Gewebe führt zur Freisetzung von sogenannten damage-associated molecular patterns (DAMPs), die eine Entzündungskaskade auslösen, welche die Organfunktion negativ beeinträchtigt. Dies führt bei anhaltender Entzündung zunächst zu Organdysfunktion, was im weiteren Verlauf zu Organversagen führt und im Spätstadium im multiplen Organversagen (MOF) enden kann. In den meisten Fällen ist die inflammatorische Antwort des Immunsystems auf das Trauma adäquat und entspricht einem gut koordinierten Netzwerk von Immunzellen, Zytokinen und Chemokinen, welches zur Wiederherstellung des geschädigten Gewebes führt. Wenn dieses Netzwerk jedoch nicht im Gleichgewicht ist, kann die Entzündungsreaktion durch eine sogenannte feed-forward-loop von Inflammation und Gewebeschäden verstärkt werden. Wenn dieser Prozess systemisch wird, spricht man vom systemic inflammatory response syndrome (SIRS). Auf der anderen Seite gibt es ein Gegenstück zu SIRS, nämlich das sogenannte compensatory anti-inflammatory response syndrome (CARS). Auch ein Überschießen von CARS kann den Verlauf der posttraumatischen Inflammation negativ beeinträchtigen. Sowohl eine Verschiebung in Richtung von SIRS als auch in Richtung von CARS kann zu Organfunktionsstörungen, nosokomialen Infektionen und letztendlich zum Tod führen. Daher ist eine ausgeglichene, frühe posttraumatische Immunantwort für ein gutes Outcome von entscheidender Bedeutung.
Monozyten nehmen eine kritische Stellung sowohl in der primären Immunantwort nach Trauma als auch nach Infektion ein. Durch die Oberflächenexpression von diversen sogenannten pattern-recocnition receptors (PRRs), insbesondere Toll-Like-Rezeptoren (TLRs), können Monozyten Pathogene und sogenannte pathogen-associated molecular patterns (PAMPs) erkennen und neutralisieren. Darüber hinaus können Monozyten PAMPs über major histocompatibility complex class II -Moleküle (MHC-II) dem adaptiven Immunsystem präsentieren und somit als zelluläre Verbindung zwischen dem angeborenen und dem adaptiven Immunsystem fungieren. TLR2, eine Untergruppe der TLRs, ist einer der Hauptrezeptoren für PAMPs von grampositiven Bakterien wie S. aureus, dem Hauptkeim für posttraumatische Wundinfektionen und nosokomiale Infektionen.
Es gibt immer noch keinen Konsens über den Einfluss von Trauma auf die Funktion von Monozyten und deren Expressionsprofil von PRRs und MHC-II-Molekülen nach einem Trauma. Verschiedene Studien berichten von einer beeinträchtigten TLR2-Expression bei Monozyten nach Trauma, während sich in anderen Studien eine konstante oder sogar erhöhte TLR2-Expression bei Monozyten nach Trauma gezeigt hat. Die Daten sind auch in Bezug auf die posttraumatische Phagozytoseleistung von Monozyten unbeständig. Während in einigen Studien im frühen posttraumatischen Verlauf im Vergleich zu gesunden Probanden von einer erhöhten Anzahl zirkulierender Monozyten mit erhaltener Phagozytoseleistung berichtet wird, zeigten andere Studien eine verminderte Phagozytoseleistung von Monozyten nach Trauma. Darüber hinaus gibt es widersprüchliche Ergebnisse bezüglich der Fähigkeit von Monozyten, proinflammatorische Zytokine wie Interleukin (IL)-1β oder Tumor necrosis factor (TNF)-α freizusetzen.
Zusammengefasst ist die derzeitige Studienlage widersprüchlich. Zusätzlich wurde es in bisherigen Studien verpasst, die Kombination verschiedener Aspekte wie die Funktionalität der Monozyten in Bezug auf Phänotypisierung oder funktioneller Assays und deren Beobachtung über einen längeren Zeitraum miteinzubeziehen.
Die unterschiedlichen Ergebnisse der bisherigen Studien könnte durch die Natur des Polytraumas bedingt sein, beispielsweise durch verschiedene Verletzungsmuster und Verletzungsschwere, die unterschiedliche Erstversorgung am Unfallort, die Zeit bis zur Ankunft in der Notaufnahme oder die unterschiedliche primäre und definitive Versorgung der Verletzungen. All das kann zu einer unterschiedlichen Antwort des Immunsystems und somit zu unterschiedlichen Outcomes führen.
Daher war es Ziel unserer Studie, die oben genannten Variablen zu eliminieren, und eine kontrollierte Polytraumastudie am Schweinemodell durchzuführen, um die Funktionalität von Schweinemonozyten über einen Zeitraum von 72 Stunden nach Trauma zu untersuchen.
Zusätzlich und im Gegensatz zu früheren Studien haben wir die Phänotypisierung von Monozyten (TLR2 und MHC-II [SLA-DR]) mit einem funktionellen Phagozytose-Assay kombiniert und deren direkte Assoziation in einem unabhängigen Assay analysiert.
Peripheres Blut wurde vor (-1h) und direkt nach der Induktion des Polytraumas (PT) (0h) entnommen, sowie 3,5h, 5,5h, 24h und 72h später. Die Expression von H(S)LA-DR und TLR2 auf Schweine-Monozyten wurde untersucht. Außerdem wurde die Phagozytierungsaktivität von Schweinemonozyten gemessen.
Darüber hinaus wurden aus mechanistischen Gründen Blutproben von 10 gesunden Schweinen zunächst einem TLR2-neutralisierenden Antikörper und anschließend S. aureus-Partikeln ausgesetzt, bevor die Phagozytoseleistung der Monozyten untersucht wurde.
Die Anzahl der CD14 + -Monozyten aller zirkulierenden Leukozyten blieb während des Beobachtungszeitraums konstant, während der Prozentsatz der CD14 + H(S)LA-DR + -Monozyten direkt, 3,5h und 5,5h nach dem Trauma signifikant abnahm. Der Prozentsatz von TLR2 + exprimierenden Zellen aus allen Monozyten verringerte sich direkt, 3,5h und 5,5h nach dem Trauma signifikant. Der Prozentsatz der phagozytierenden Monozyten nahm direkt nach Trauma ab und blieb in den ersten 3,5 Stunden nach dem Trauma niedriger, stieg jedoch nach 24 Stunden an. Die Antagonisierung von TLR2 verringerte signifikant die Phagozytoseleistung der Monozyten.
Sowohl der verringerte Prozentsatz der aktivierten als auch der TLR2-exprimierenden Monozyten blieb bestehen, solange die verringerte Phagozytoseleistung beobachtet wurde.
Darüber hinaus führte auch die Neutralisation von TLR2 zu einer verminderten Phagozytoseleistung. Daher nehmen wir an, dass eine verringerte TLR2-Expression für die verringerte Phagozytoseleistung verantwortlich ist.
Zielsetzung der vorliegenden Dissertation war die Validierung einer deutschsprachigen Version, der bereits für andere Sprachen validierten Repetitiven Verhaltensskala – Revidiert (RBS-R) für Kinder- und Jugendliche im Alter zwischen 4-17 Jahren. Die RBS-R ist ein aus 43 Items bestehendes, gut untersuchtes Screeninginstrument, welches restriktives, repetitives Verhalten (RRV) erfasst. RRV stellen einen heterogenen Symptomkomplex dar, welcher durch stereotype motorische, sprachliche und kognitive Verhaltensmuster gekennzeichnet ist.
RRV sind neben Abweichungen sozialer Interaktion und Kommunikation eines der Hauptkriterien für eine Autismus-Spektrum-Störung (ASS). RRV sind jedoch nicht nur Teil des Symptomspektrums einer ASS, sondern treten häufig auch bei anderen psychiatrischen Erkrankungen (PE), einer Intelligenzminderung (IM) oder bei altersentsprechend entwickelten Kindern (AE), beispielsweise in bestimmten Phasen des Heranwachsens auf. Bisher wurde die RBS-R fast ausschließlich an ASS untersucht. Es besteht die Notwendigkeit für ein valides und zuverlässiges Messinstrument für den deutschen Sprachraum, welches RRV hinsichtlich ihrer Heterogenität transdiagnostisch erfassen und den Schweregrad der Ausprägung ermitteln kann. Das Ziel dieser Arbeit war, dies durch eine möglichst große und heterogene Stichprobe (n= 948) mit Inklusion von Probanden mit einer ASS (n= 218), IM (n= 120), PE (n= 166) und AE (n = 444) zu gewährleisten. Zur Überprüfung der psychometrischen Eignung erfolgte nach der Adaptation der RBS-R für den deutschen Sprachraum eine Evaluation gemäß den Prinzipien der klassischen Testtheorie, insbesondere hinsichtlich Validität und Reliabilität. Darüber hinaus erfolgte unter Einbeziehung der vier Stichproben eine explorative Faktoranalyse (EFA) um eine geeignete Faktorlösung zu finden. Diese sollte sowohl den Anspruch Klinisch-Tätiger als auch Forschender erfüllen und eine Anwendung der RBS-R auch außerhalb von ASS ermöglichen. Zudem sollten RRV in den unterschiedlichen Kohorten, sowie in Bezug auf Alters- und Geschlechtseffekte bei ASS untersucht werden.
Die Bedeutung der Ergebnisse dieser Arbeit ist, ob der schon breit erforschten Eigenschaften der RBS-R, vor allem im Kontext mit den vorliegenden Studien zu betrachten. Einzigartig für diese deutschsprachige Validierung der RBS-R ist die Diversität und große Anzahl der teilnehmenden Probanden.
Die vorliegende Validierung der RBS-R erbrachte gute Ergebnisse für die Reliabilität und konvergente Validität der Skalen, vergleichbar mit den Ergebnissen vorheriger Studien. Die untersuchte Itemschwierigkeit war relativ gering, was durch die geringe Antwortvarianz in der großen Kohorte der AE erklärbar ist. Die Itemgesamtkorrelation zeigte gute Werte. Auch Items mit niedrigen Ergebnissen für die Itemzustimmung wurden nicht exkludiert. Dies geschah konkordant zum Vorgehen vorheriger Studien und hatte den Hintergrund, eine internationale Vergleichbarkeit des RBS-R beizubehalten. Die EFA bestätigte die gute Anwendbarkeit einer Vielzahl von Faktorlösungen. Wir legten eine 4-Faktorlösung für die deutschsprachige Version der RBS-R fest. Grundlage hierfür war das Bestreben die ursprünglichen Subskalen für eine internationale Vergleichbarkeit so getreu wie möglich beizubehalten. Die 4 Faktoren bildeten treffend RRV niedriger und hoher Ordnung ab. Gegen eine 5- oder 6-Faktorlösung sprach hierbei, dass dies zu Subskalen mit wenig Items und schwachen psychometrischen Eigenschaften führte (Lam et al, kritisiert durch Georgiades et al). Gegen eine 2- oder 3-Faktorlösung sprach die eingeschränkte klinische Interpretierbarkeit durch Subskalen mit vielen kumulierten Items. Hinsichtlich der Kohortenzugehörigkeit kann der RBS-R übereinstimmend mit Fulceri et al valide zwischen RRV in ASS und AE unterscheiden. Eine valide Unterscheidung zwischen ASS, PE und IM konnten wir nicht verifizieren. Betreffend der untersuchten Alterseffekts bestätigte sich, dass RRV bei ASS mit dem Alter abnehmen. Im Gegensatz zu einigen vorherigen Studien, welche keinen Geschlechtsunterschied bezüglich RRV bei ASS fanden, zeigten die männlichen Probanden der ASS Kohorte bei uns häufiger und ausgeprägter RRV.
IL-38 is the latest discovered cytokine of the IL-1 family and has been added to the IL-36 subfamily. Since its discovery in 2001, increasing evidence suggests predominantly anti-inflammatory properties of IL-38, which are most likely exerted through three potential receptors, the IL-1 Receptor 1 (IL-1R1), IL-36 Receptor (IL-36R) and the IL-1 Receptor Accessory Protein Like 1 (IL-1RAPL1). However, to this date detailed knowledge of IL-38 functioning remains to be examined. Importantly, how IL-38 is processed, secreted from cells and the exact mechanisms of target receptor binding and intracellular signaling are not fully understood. Further, IL-38 has been associated with regulatory functions in autoimmune diseases like systemic lupus erythematosus (SLE) and psoriasis. At the same time however, connections between B cells as indispensable part of immunity and IL-38 remain rare.
In this study we examined the influence of IL-38 in peripheral human blood B cells differentiating into antibody secreting cells using a three-step in vitro differentiation process. We first show that all potential IL-38 binding receptors are present on peripheral blood B cells on a gene expression level and remain detectable throughout B cell differentiation. Next, while B cells treated with exogenous IL-38 depict no differences in early B cell activation markers, the process of B cell differentiation revealed significant alterations in B cell phenotype created by IL-38 treatment. Predominantly on day 7 of the differentiation process, IL-38 treated B cells showed significantly reduced CD38 expression which depicts an important step in development towards plasma cells. We hypothesize that IL-38 acts antagonistically on the IL-1R1 pathway reducing Nuclear factor kappa B (NFκB) expression and consequently decreasing CD38 expression. Further IL-38 reduced early antibody production while increasing IgM secretion at the end stages of differentiation. Next, we repeated the differentiation assays under the influence of additional IL-21 stimulation to further enhance plasma cell development. In these experiments, the impact of IL-38 on B cell differentiation and immunoglobulin production were reduced, indicating a comparatively moderate relevance of IL-38 for B cell differentiation. We then examined how proliferation and cell death were impacted by exogenous IL-38 during B cell differentiation. IL-38 treatment alone significantly reduced B cell survival which was further augmented by IL-21 stimulation. We conclude that IL-38 and IL-21 act synergistically in promoting B cell apoptosis, also depicting an anti-inflammatory property of IL-38. Finally, using a siRNA we successfully performed an IL-38 knockdown experiment of human blood B cells reducing IL-38 expression to 44% measured on day 4 of B cell differentiation. In these experiments we observed reversed tendencies of CD38 expression compared to exogenous IL-38 treatment. Here, IL-38 knockdown cells showed increased CD38 expression indicating endogenous regulatory properties of IL-38 in B cell differentiation.
Our project, for the first time proves direct effects of IL-38 on human B cells. The results support previous research of IL-38 to act anti-inflammatory as it seems to modulate B cell differentiation, survival, and immunoglobulin production in a down-regulatory manner. These findings pave way for more detailed research on the connection between B cell homoeostasis and IL-38 function.
Diese Versuchsreihe beschäftigte sich mit der Fragestellung, ob günstige Handelsmarken- Zigaretten mehr Feinstaub als teure Markenzigaretten emittieren. Dabei wurde der Passivrauch untersucht, welcher durch das Verrauchen verschiedener Zigarettenmarken entstand. Feinstaub stellt heutzutage den wichtigsten einzelnen gesundheitsschädlichen Faktor in Innenräumen dar. Das Augenmerk liegt dabei hauptsächlich auf den feinen Partikeln (PM2,5, PM1). Tumore, chronische Atemwegserkrankungen und eine erhöhte Mortalität stellen nur einen Teil der massiven gesundheitlichen Folgen durch Feinstaub dar. Vulnerable Bevölkerungsgruppen wie Kinder und alte Personen sind besonders durch Passivrauch gefährdet. Die Ergebnisse der Versuchsreihe dienen als Grundlage, um den gesundheitsschädlichen Einfluss des Passivrauchs zu interpretieren. Günstige Handelsmarken-Zigaretten weisen, unter anderem wegen des beständig ansteigenden Zigarettenpreises als auch der anhaltenden Inflation in Deutschland, einen wachsenden Marktanteil auf. Daher müssen sie auch weiterhin in wissenschaftlichen Untersuchungen mit einbezogen werden.
Drei teure sowie drei günstige Zigarettenmarken wurden miteinander und mit der Referenzzigarette 3R4F der Universität Kentucky verglichen. Zu den teuren Marken zählten Marlboro, Camel und Nil. Die günstigeren Handelsmarken-Zigaretten waren Giants, Goldfield und Jakordia. Die Rauchpumpe „Automatic environmental tobacco smoke emitter“ (AETSE) ermöglichte in einem definierten Raum der abgeschlossenen Rauchkammer, Passivrauch zu erzeugen, ohne die menschliche Gesundheit zu gefährden. Ein standardisiertes Rauchprotokoll garantierte dabei reproduzierbare und vergleichbare Ergebnisse. Das Laser Aerosolspektrometer (LAS) Modell 1.109 der Firma Grimm wies eine Messspanne von 0,25 μm bis 32 μm auf. So konnte der Feinstaub gemessen und gruppiert werden. Obwohl der Versuchsaufbau nicht vollkommen realitätsgetreu war, entstand ein adäquater Vergleich der Feinstaubemissionen von (Handels-)Markenzigaretten.
PM10 und PM2,5 wurden erhoben, weil sie die von der EU und WHO standardisierten Messwerte für die Luftverschmutzung durch Feinstaub sind. Die Messung von PM1 rechtfertigt sich durch die stärker gesundheitsschädigende Komponente von Partikeln dieser Größenordnung. Für diese drei Größenfraktionen wurden die mittlere Konzentration Cmean sowie die Area Under The Curve (AUC) ermittelt. Die AUC stellt dabei die Höhe der Gesamtexposition durch Feinstaub dar.
Die Ergebnisse dieser Versuchsreihe zeigen, dass PM1 den größten Anteil der Feinstaubemission der getesteten Zigaretten ausmachte. Alle Zigarettenmarken haben in einem abgeschlossenen Raum Feinstaubmengen in gesundheitsgefährdender Menge produziert. Die Handelsmarke Jakordia emittierte beim Verrauchen generell weniger Feinstaub als alle anderen Zigarettenmarken. Im Allgemeinen konnte kein Unterschied zwischen den günstigen Handels- und den teuren Markenzigaretten festgestellt werden. Es ist wissenschaftlich belegt, dass sich jede Feinstaubkonzentration negativ auf die Gesundheit auswirkt. Die Ergebnisse können dementsprechend in Gänze unter dem Gesichtspunkt der Gesundheitsschädlichkeit eingestuft werden.
Aufgrund veralteter und unspezifischer, beziehungsweise fehlender Angaben zu den Inhaltsstoffen der einzelnen Zigarettensorten, konnte die Ursache der Unterschiede zwischen Jakordia und den anderen Marken nicht geklärt werden. Die Zigarettenhersteller müssen verpflichtet werden, die detaillierten Zusammensetzungen der Tabakprodukte den Behörden wie dem BMEL oder dem Bundesgesundheitsministerium zugänglich zu machen. Dies wäre ein wichtiger Bestandteil für die zukünftige Forschung und Risikobewertung der verschiedenen Inhalts- und Zusatzstoffe.
Untersuchung der Expression von Wachstumsfaktoren in reseziertem Hirngewebe von Epilepsiepatienten
(2023)
Hintergrund: Die Epilepsie gehört zu den häufigsten chronischen neurologischen Erkrankungen beim Menschen. Bei Patienten mit mesialer TLE und Hippocampussklerose besteht die höchste Wahrscheinlichkeit, eine medikamentöse Therapierefraktärität zu entwickeln. Die Ursache der Hippocampussklerose sowie die ursächlichen Mechanismen sind nicht bekannt. Allerdings kann eine initiale Schädigung, wie etwa komplizierte Fieberkrämpfe im Kindesalter, Schädel-Hirn-Traumata, Schlaganfälle, entzündliche Prozesse oder Ähnliches, für die Entwicklung einer Hippocampussklerose prädisponieren. Diese kann anschließend nach einer klinisch stummen Latenzperiode zur Entwicklung spontaner epileptischer Anfälle und der Diagnose einer Epilepsie führen. Im Rahmen der Epileptogenese, also der Entstehung und Progression der Epilepsie kommt es zu Wachstumsprozessen, weshalb eine Beteiligung von neurotrophen Wachstumsfaktoren naheliegend war. Das Ziel dieser Arbeit war die vergleichende Untersuchung resezierter Hippocampi auf Wachstumsfaktoren, um semiquantitative Daten zu deren Verteilung bei Epilepsiepatienten zu erhalten. Des Weiteren war die Korrelation mit den klinischen Daten der Patienten von besonderem Interesse, da so Hinweise auf mögliche Zusammenhänge zwischen dem klinischen Erscheinungsbild und der Expression der Wachstumsfaktoren gewonnen werden konnten.
Methoden: Bei dem in der vorliegenden Arbeit untersuchten Gewebe handelt es sich um Hippocampi von 21 Patienten mit TLE, die epilepsiechirurgisch therapiert wurden. Die Schnitte der paraffinierten Hippocampi wurden mittels Immunhistochemie auf die Wachstumsfaktoren BDNF, FGF2, GDNF, GMFB und PDGF-B untersucht. Im Anschluss wurden die Schnitte gescannt und die Zellen mittels eines Algorithmus identifiziert und ausgewertet. Diese experimentellen Daten wurden anschließend mit den klinischen Daten der Patienten korreliert.
Ergebnisse: Es fand sich eine signifikante Korrelation zwischen der Expression von GMFB und dem postoperativen Outcome der Patienten. Des Weiteren fanden sich auch Korrelationen zwischen der präoperativen Anfallsfrequenz und der Expression von BDNF sowie GDNF. Auch die Epilepsiedauer korrelierte mit der Expression von BDNF. Zudem fanden sich Korrelationen zwischen den Ergebnissen der neuropsychologischen Testungen und der Expression von BDNF, sowie PDGF-B.
Diskussion: Die vorliegende Arbeit liefert einige Daten, die Hinweise für nachfolgende Untersuchungen geben können. Sowohl für die Anfallsfrequenz, als auch für die Epilepsiedauer fanden sich signifikante Korrelationen mit BDNF. Beides ist passend zu den vermuteten und zum Teil in der Literatur beschriebenen Mechanismen im Rahmen der Epilepsie, also einer postiktalen Hochregulation von Wachstumsfaktoren beziehungswiese des Zugrundegehens von Zellen im Verlauf der Erkrankung und damit zu einer reduzierten Expression von Wachstumsfaktoren. Geschlechterabhängige Unterschiede in der Expression der Wachstumsfaktoren fanden sich, passend zu der vorhandenen Literatur, nicht. Interessant ist, dass sowohl Geschlechtshormone als auch anfallssuppressive Medikamente einen Einfluss auf die Expression der Wachstumsfaktoren haben können.
Bis heute ist kein Biomarker bekannt, der eine Vorhersage über den Erfolg einer operativen Therapie bei therapierefraktären TLE treffen kann. Da meine Daten eine Korrelation von GMFB und dem postoperativen Outcome zeigen, bietet es sich für weitere Untersuchungen an, GMFB als präoperativen Biomarker zu nutzen. zu können, wäre eine einfachere Probengewinnung beispielsweise aus Blut, Liquor, Urin oder Speichel notwendig. Im Sinne einer „Liquid Biopsy“ könnte so der Erfolg einer chirurgischen Therapie weiter objektiviert werden, was die Entscheidungsfindung einfacher und risikoärmer gestalten würde.
Die chronische myeloische Leukämie (CML) ist eine klonale myeloproliferative Neoplasie und hat ihren Ursprung in transformierten pluripotenten Stammzellen im Knochenmark. Der Krankheitsentstehung liegt eine reziproke chromosomale Translokation zugrunde, in deren Folge ein neues Fusionsgen, das sogenannte Philadelphia-Chromosom, entsteht. Das hiervon codierte Genprodukt ist eine Tyrosinkinase mit konstitutiver Aktivität mit resultierender unkontrollierter Signaltransduktion. Gegen diese Tyrosinkinase existiert eine molekular zielgerichtete Therapie, die Tyrosinkinase-Inhibitoren (TKI).
Den Therapiestandard stellt die Behandlung mit einem TKI dar. Seit einigen Jahren existiert jedoch das Therapieziel der therapiefreien Remission (TFR), bei dem CML-Patienten mit einem guten molekularen Ansprechen den TKI nach einiger Zeit absetzen und unter engmaschigen Kontrollen therapiefrei bleiben. Ungefähr die Hälfte dieser Patienten erleidet kein molekulares Rezidiv und bleibt langfristig in TFR. Zu der Thematik der TFR existieren zahlreiche klinische Studien, die die Umsetzbarkeit und die Sicherheit eines Absetzversuchs belegen und Kriterien definiert haben, die für einen Absetzversuch erfüllt sein sollten. In dieser Dissertation wird die Umsetzung der TFR im klinischen Alltag onkologischer Praxen untersucht. Es wird untersucht, ob die Studienergebnisse mit den TFR-Raten und den identifizierten Einflussfaktoren auf den Praxisalltag übertragbar sind und ob das Therapieziel TFR in den klinischen Alltag integrierbar ist. Hierfür werden die Daten von 61 CML-Patienten mit einem Absetzversuch aus fünf onkologischen Praxen retrospektiv ausgewertet. Erhoben werden Parameter der Routineversorgung und die Ergebnisse der Kontrolluntersuchungen während der TFR werden dokumentiert und ausgewertet. Die TFR-Raten von ca. 50%, die in den Absetz-Studien beobachtet wurden, finden sich im hier untersuchten Patientenkollektiv wieder. Mithilfe der binären logistischen Regression wird getestet, ob bestimmte Faktoren, wie die Therapiedauer und das verwendete Medikament vor dem Absetzen, einen signifikanten Einfluss auf den Verlauf der TFR haben. Hier kann kein signifikanter Einflussfaktor identifiziert werden. Es lässt sich eine signifikant längere therapiefreie Überlebensdauer bei den Patienten zeigen, die mit einem TKI der zweiten Generation vor dem Absetzen behandelt wurden.
Zusammenfassend lässt sich sagen, dass die TFR bei geeigneten CML-Patienten in der Praxis umsetzbar und sicher ist und fest im klinischen Alltag onkologischer Praxen verankert sein sollte.
In der vorliegenden Arbeit wurden die Proteine Vlp15/16 und GlpQ aus B. miyamotoi hinsichtlich ihrer Eigenschaft, mit Plasminogen zu interagieren, charakterisiert.
Da einige Fälle von ZNS-Beteiligungen bei B. miyamotoi-Infektionen berichtet wurden, ist anzunehmen, dass diese Borrelienspezies über molekulare Mechanismen zur Überwindung der Blut-Hirn-Schranke verfügt. Eine solche Strategie könnte die Bindung wirtseigener Proteasen wie z.B. Plasminogen sein, um Komponenten der extrazellulären Matrix zu degradieren und dadurch die Dissemination des Erregers zu erleichtern.
Während Vmps, zu welchen auch Vlp15/16 gehört, als membranständige Proteine durch Variation der antigenen Oberflächenmatrix zur Immunevasion des Erregers beitragen, ist GlpQ bei der Hydrolyse von Phospholipiden in den Zellstoffwechsel eingebunden. Trotz dieser unterschiedlichen Funktionen, die den beiden Proteinen zukommen, binden beide Moleküle Plasminogen. Die Eigenschaften dieser Interaktion wurden in dieser Arbeit im Detail untersucht. Die Ergebnisse zeigen, dass Vlp15/16 und GlpQ Plasminogen konzentrationsabhängig binden und die Dissoziationskonstanten (Vlp15/16:Kd = 354 nM ± 62 nM; GlpQ: Kd = 413 nM ± 72 nM) für beide Proteine im Bereich der Serumkonzentration von 2 µM liegen. Darüber hinaus konnte gezeigt werden, dass den beiden Proteinen unterschiedliche Mechanismen zugrunde liegen, Plasminogen zu binden. Während die erhobenen Daten für Vlp15/16 darauf hindeuten, dass Lysin-Reste essenziell für die Interaktion sind, scheinen bei GlpQ ionische Wechselwirkungen von Bedeutung zu sein.
Um die Beteiligung von C-terminal lokalisierten Lysin-Resten für die PlasminogenBindung von GlpQ nachzuweisen, wurden Varianten mit einzelnen Lysin-Substitutionen an zwei unterschiedlichen Positionen (333 und 334) sowie eine Variante mit einer Zweifach-Substitution (GlpQ-K333A-K334A) generiert. Die Bindungsanalysen ergaben, dass insbesondere der Lysin-Rest an Position 334 bei der Interaktion mit Plasminogen beteiligt ist.
Die funktionellen Analysen zeigten, dass das an Vlp15/16 beziehungsweise GlpQ gebundene Plasminogen zu Plasmin aktiviert werden konnte und darüber hinaus dazu in der Lage war, das physiologische Substrat Fibrinogen zu degradieren.
Abschließend wurde die Plasminogen-Bindung an nativen B. miyamotoi-Zellen mittels Immunfluoreszenz-Mikroskopie nachgewiesen.
Die Ergebnisse dieser Arbeit weisen Vlp15/16 und GlpQ als Plasminogen-bindende Proteine aus, mit deren Hilfe B. miyamotoi befähigt ist, Komponenten der extrazellulären Matrix zu degradieren und somit prinzipiell zur Dissemination des Erregers beizutragen.
Abdominal aortic aneurysm (AAA) is the most common type of aortic aneurysm, which is defined as a dilation of the abdominal aorta over 3.0 cm or more. Surgical repair is the golden standard for the treatment of AAA, in which open surgical repair (OSR) and endovascular aneurysm repair (EVAR) are the main approaches. Technically speaking, the lesion segment of aueurysm is completely replaced by a graft during OSR, while in EVAR, the lesion is insulated by a stentgraft. EVAR is a less invasive treatment than OSR and shows a lower early mortality rate, although the long-term advantages of EVAR over OSR remain inconclusive.
Endoleak, especially the type II endoleak (T2EL), is a common complication after EVAR. According to research, 16-28% of the patients develop a T2EL after EVAR, and it accounts for nearly three in four of all types of endoleaks. Around 30-50% of the T2EL resolved spontaneously during the follow-up, however, it still causes a secondary intervention in many patients. Therefore, it is critical to monitor endoleaks after repair.
Patent aortic branches in the stent-overlapped area and vasa vasorum have been identified as potential sources of blood flow in T2EL. However, the mechanisms of biological changes or remodeling of the aneurysm sac after the repair are still not clear, but they have been considered to play an important role in the development of endoleaks. Unfortunately, it is impossible to obtain a tissue sample of the aortic wall in patients who underwent EVAR.
MicroRNAs (miRNAs) are a class of small single-stranded non-coding RNAs that inhibit the expression of target message RNA (mRNA). miR-29b/29c, miR-155, and miR-15a are miRNAs associated with regulating extracellular matrix (ECM) components, inflammation, and proliferation, respectively. All four miRNAs have been identified as biomarkers of AAA, not only in aneurysm tissue but also extracellular as circulating miRNAs. However, it is still unknown whether they can reflect the biological changes after AAA repair. Thus, we conducted a prospective study to investigate the changes in expression of circulating miR-29b, miR-29c, miR-155, and miR-15a before (T0), 3 days (T1), and 3 months (T2) after AAA repair.
A total of 39 patients were recruited for this study, 17 of whom were repaired by OSR and 22 of whom were repaired by EVAR. Four patients failed the T2 follow-up due to the Covid-19 pandemic. No significant changes were found in the expression of miR-29b, miR-29c, miR-155, and miR-15a. There were also no obvious differences between OSR and EVAR. However, the T1 expression of miR-15a was significantly lower in patients without endoleak after EVAR than in those who developed endoleak after EVAR and those who were repaired by OSR. Unfortunately, these differences did not persist to the T2 follow-up, and no other differences were found among these patients.
In summary, miR-15a is a miRNA that significantly changes in AAA patients. This study demonstrates that the expression of circulating miR-15a is lower in patients without endoleak three days after EVAR, compared to those who had endoleak after EVAR and those who underwent OSR. The results suggest that miR-15a might be involved in the early aortic remodeling after EVAR as an indicator of endoleak.
ADHS im Erwachsenenalter ist eine komplexe Erkrankung, die durch verschiedene diagnostische Instrumente erfasst wird. Aktuell spielen dabei vor allem die klinische Exploration, Interview- und Fragebogendaten eine Rolle.
Obwohl bei Patient*innen vielfältige kognitive Einschränkungen bestehen, wird die Verwendung neuropsychologischer Daueraufmerksamkeitstests (CPTs) in den klinischen Leitlinien nur ergänzend erwähnt. Validität und Nützlichkeit von CPTs bei ADHS Patient*innen wird aufgrund der mangelnden Sensitivität und
Spezifität immer wieder kritisch diskutiert. Multidimensionale Ansätze, in denen verschiedene neuropsychologische Beurteilungen mit klinischen Parametern kombiniert werden, sollen das Aufstellen einer ADHS Diagnose im Erwachsenenalter verbessern. Die vorliegende Studie untersucht zwei verschiedene CPTs bezüglich deren Vergleichbarkeit und deren Verknüpfung mit klinischen Parametern. Ein direkter Vergleich innerhalb derselben Stichprobe ist bisher nicht durchgeführt worden, könnte jedoch wichtige Implikationen für die Testauswahl und darauffolgende klinische Interventionen haben. Die klinische Stichprobe besteht aus zufällig ausgewählten erwachsenen Patient*innen, die sich in der ADHS Ambulanz der Klinik für Psychiatrie, Psychosomatik und Psychotherapie des Universitätsklinikums Frankfurt zur diagnostischen ADHS Beurteilung zwischen Mai und November 2019 vorstellten. Die Patient*innen wurden von erfahrenen Ärzt*innen mithilfe des strukturierten diagnostischen Interviews für ADHS bei Erwachsenen (DIVA 2.0) befragt. Au§erdem wurden Schulzeugnisse bewertet und die medizinische Vorgeschichte erhoben. Anschließend wurden die Patient*innen mit dem Wender-Reimherr Interview (WRI) von einer unabhängigen Interviewerin befragt und füllten die folgenden Selbstbeurteilungsfragebögen aus: Kurzform der Wender-Utah Rating Scale (WURS-k), Impulsive Behavior Scale (UPPS) und General Health Questionnaire (GHQ-28). Alle Patient*innen nahmen anschließend an der Testung mit zwei CPTs teil: dem Quantified Behavior Test (Qb-Test) und Nesplora Aquarium [9]. Der Qb-Test misst neben Unaufmerksamkeit und Impulsivität auch Hyperaktivität mithilfe einer Infrarot Kamera und eines Reflektors, welche das Bewegungsmuster während der Testung aufzeichnen. In Nesplora Aquarium wird virtuelle Realität genutzt, um das Bewegungsmuster mithilfe eines optischen Gerätes, das mit Sensoren und Lautsprechern ausgestattet ist, aufzuzeichnen. Es zeigte sich, dass die übergreifende Vergleichbarkeit beider Tests begrenzt ist. Trotz der kongruenten Messung von Unaufmerksamkeit in beiden Tests konnten keine Korrelationen mit den klinischen Parametern festgestellt werden. Hyperaktivität ist in beiden Tests positiv mit aktuellen ADHS Symptomen assoziiert, wobei der Qb-Test darüber hinaus noch Korrelationen mit ADHS Symptomen aus der Kindheit aufweist. Impulsivität stellte sich als ein unabhängiges Konstrukt heraus, sowohl die Korrelation zwischen beiden Tests als auch die Assoziation mit klinischen Parametern betreffend. Dies stellt in Frage, ob ein homogenes mpulsivitätskonstrukt existiert, welches sich in neuropsychologischen Tests und klinischen Symptomen abbildet. Insgesamt ermöglicht die Studie einen guten Vergleich beider CPTs und zeigt detaillierte Informationen über die
Kompatibilität mit klinischen Symptomen auf. Unaufmerksamkeit stellte sich als ein basaler Faktor heraus, der zwischen beiden Tests über alle Patient*innen hinweg überlappt. Da dieser Faktor jedoch nicht mit klinischen Parametern korreliert, unterstreicht dies die Problematik, subjektive mit objektiven Methoden in der ADHS Diagnostik zu verbinden. Die aktuellen Ergebnisse bezweifeln die einfache Anwendung sogenannter objektiver Messverfahren in der klinischen ADHS Diagnostik aufgrund ihrer fragwürdigen Validität. Die Ergebnisse der Studie verdeutlichen die Notwendigkeit eines neuen diagnostischen Ansatzes im Sinne der Präzisionsmedizin, welcher über die konventionellen Klassifikationssysteme hinaus passende individuelle Lösungen für Diagnostik und Behandlung ermöglicht.
In der vorliegenden Dissertation wird auf diesen Ergebnissen basierend der Goldstandard der aktuellen ADHS-Diagnostik unter Beachtung der Leitlinien diskutiert. Die untersuchten CPTs werden unter Berücksichtigung der Gütekriterien guter diagnostischer Verfahren überprüft. Das Potenzial neuropsychologischer Testverfahren im Hinblick auf die Steigerung von Objektivität, Validität und Differenziertheit der Diagnosen wird untersucht und Empfehlungen für die klinische Anwendung formuliert.
Hintergrund: Bei steigender Lebenserwartung ergibt sich in Zukunft eine steigende Prävalenz der degenerativen Aortenklappenstenose (AS). Die Transkathether-Aortenklappenimplantation (TAVI) erfährt immer größere Bedeutung in der Behandlung der symptomatischen, hochgradigen AS. Eine paravalvuläre Leckage (PVL) ist ein anerkannter Risikofaktor für eine erhöhte Mortalität und sollte periinterventionell adäquat erkannt und behandelt werden. Eine Postdilatation als typische korrigierende Intervention (CI) kann allerdings zu schwerwiegenden Komplikationen führen. Weitere Instrumente zur Entscheidung über die Notwendigkeit einer CI sind erstrebenswert. Für die Aortenregurgitationsindex-Ratio (ARI-Ratio) und für die präprozedurale Kalklast, gemessen mit der Mehrschicht-Computertomografie (MSCT), wurde gezeigt, dass beide prädiktiv sind für die Notwendigkeit einer periinterventionellen CI.
Ziele: Die ARI-Ratio und der Kalkstatus wurde in Hinblick auf ihren prädiktiven Wert für die Notwendigkeit einer CI miteinander verglichen.
Methoden: Von 199 Patienten nach TAVI erhielten 38,9 % eine Portico™, 29,5 % eine Symetis Acurate™, 21,5 % eine Sapien 3™ und 10,1 % eine Evolut™. Es wurde retrospektiv der postinterventionell erhobene systolische (SB), diastolische (DB) und linksventrikuläre enddiastolische Blutdruck (LVEDP) im ARI zusammengefasst: [(DBP - LVEDP) / SBP] × 100. Die ARI-Ratio wurde berechnet als Quotient zwischen ARI nach und vor dem Eingriff. Des Weiteren wurden die MSCTs mittels „3mensio Structural Heart“ analysiert insbesondere in Hinblick auf die Verkalkung des linksventrikulären Ausflusstrakts, der Aortenklappe (gesamt sowie der einzelnen Taschen) und des sinotubulären Übergang. Dabei wurde der Kalzium-Volumen-Score auf Basis drei verschiedener Thresholds benutzt (500 Hounsfield Einheiten (HU), 800 HU und visuell-individuell). Im Folgenden wurden ROC-Kurven für den ARI-Ratio und für die verschiedenen Kalklastparameter erstellt um die Notwendigkeit einer CI zu beurteilen. Schließlich wurde die Area under the curve (AUC) der ARI-Ratio mit denen der Kalklastsurrogatparameter verglichen.
Ergebnisse: Die ARI-Ratio zeigte mit einer AUC von 0,747 das beste Ergebnis. Bei den Verkalkungsparametern zeigte die Verkalkung der noncoronaren Aortenklappentasche die beste AUC, nachfolgend die der gesamten Aortenklappe. Der 800-HU-Threshold zeigte bessere AUCs als 500 HU. Von 19 Verkalkungssurrogatparametern zeigten elf einen statistisch signifikanten Vorhersagewert auf. Die ARI-Ratio zeigte eine signifikante Überlegenheit gegenüber sechs dieser Parameter. Für die fünf Verbliebenen konnte kein signifikanter Unterschied nachgewiesen werden.
Schlussfolgerung: Die ARI-Ratio ist ein besserer Prädiktor für die Notwendigkeit einer CI als die Kalzifikationsparameter. Auch diverse Kalzifikationsparameter haben diesbezüglich eine Aussagekraft. Die Kalzifikationsparameter können bereits präinterventionell beurteilt werden können, die ARI-Ratio nur periinterventionell. Es sollte neben der Anschauung von bereits etablierten Methoden ein integrativer Ansatz gewählt werden, der Kalklast und ARI-Ratio für die Entscheidung zur Notwendigkeit einer CI miteinschließt. Weitere Studien zur Standardisierung der Verkalkungsparameter sind notwendig für eine weitere Einordnung deren Vorhersagekraft. Es bestanden teils erhebliche Unterschiede zwischen den verwendeten Klappenprothesentypen. Weitere Studien mit einer größeren Anzahl an verschiedenen Prothesentypen könnten richtungsweisende Subgruppenanalysen möglich machen.
Die Ergebnisse der Studie und die Diversität der Datenbanken ist groß.
Für 12 Datenbanken wurde ein Punktesystem mit elf Items entworfen, um die Qualität der einzelnen Datenbanken zu objektivieren. Keine Datenbank konnte alle Bewertungskriterien erfüllen. Der insgesamt schlechte Punktedurchschnitt ist ein Indikator für die Mängel der aktuell verfügbaren Datenbanken. Außerdem konnten wir einen Qualitätsunterschied zwischen kostenpflichtigen und kostenfreien Datenbanken beweisen und mussten im Zuge dieser Ergebnisse die Frage stellen, ob kostenfreie Datenbanken überhaupt nützlich sind. Zwischen den kostenpflichtigen Datenbanken fallen die Qualitätsunterschiede weniger gravierend aus, wenngleich Stärken und Schwächen sich deutlich unterscheiden. Die häufigsten Wechselwirkungen wurden in allen Datenbanken mit großem Abstand zwischen rein psychiatrischen Interaktionspaaren erfasst. Dieses zeigt, wie wechselwirkungsreich Psychopharmaka sind und dass psychiatrische Patienten besonders vulnerabel sind. Die Nutzung digitaler Hilfsmittel scheint bei Betrachtung der hohen Anzahl ausgegebener Warnmeldungen unabdingbar zu sein, dennoch existiert große Uneinheitlichkeit bei der Bewertung der einzelnen Interaktionen. Die Vorstellung, dass zwei Kliniker bei Nutzung zweier unterschiedlicher Datenbanken zu völlig unterschiedlichen Empfehlungen kommen, fällt nicht schwer. Gleichzeitig könnte die Kooperation von Heilberuflern, die unterschiedliche Datenbanken verwenden, die Chance auf zusätzlichen Informationsgewinn und Austausch erhöhen, was im Umkehrschluss in einer erhöhten Arzneimitteltherapiesicherheit resultiert. In Studien konnte der positive Effekt interdisziplinärer Zusammenarbeit bereits bewiesen werden.
Zusammenfassend konnten umfangreiche Differenzen zwischen allen untersuchten Datenbanken aufgezeigt werden. Um den Anforderungen des klinischen Alltags zu genügen, müssen digitale Unterstützungssysteme weiterentwickelt werden.
Die „ideale Datenbank“ gibt es bisher nicht – das lässt sich durch unser Punktesystem beweisen. Um im klinischen Alltag Patientensicherheit zu gewährleisten ist die Nutzung einer einzelnen Datenbank bisher nicht ausreichend.
Die Gewährung der Patientensicherheit sollte unser oberstes Ziel sein und um dieses zu erreichen, bedarf es vieler Komponenten. Neben der Nutzung und vor allem Weiterentwicklung digitaler Unterstützungssysteme sollte auch der zwischenmenschliche Austausch weiter gefördert werden. Interdisziplinäre Zusammenarbeit im Sinne pharmazeutischer Dienstleistungen zur Medikationsanalyse könnten ein zusätzliches Instrument zur Vermeidung arzneimittelbezogener Probleme werden.
Zukünftig werden unsere Patienten am meisten von optimaler Nutzung weiterentwickelter Technologien, sowie wachsendem zwischenmenschlichem Austausch profitieren.
Pericytes are capillary-associated mural cells involved in the maintenance and the stability of the vascular network. This thesis aims to investigate the role of pericytes in the heart in the context of ageing and disease. We highlight the malignant effects of the remodelling in the heart and stress the focus on the role of cardiac pericytes in this context. We show that ageing reduces pericyte coverage and that myocardial infarction (MI) causes an activation of these cells. Single-nuclei and single-cell RNA sequencing analysis of murine hearts further revealed that the expression of the Regulator of G-protein signalling 5 (Rgs5) is reduced in cardiac pericytes both in ageing and transiently at day 1 and day 3 after MI. The loss of RGS5 in pericytes drives an entropic state of these mural cells characterized by morphological changes, excessive extracellular deposition and enhanced Gaq mediated GPCR signalling. The deletion of RGS5 in pericytes causes cardiac systolic dysfunction, induces myocardial fibrosis, and drives the activation of cardiac fibroblasts in a TGFb-dependent manner. In conclusion, our results describe the importance of pericytes maintaining cardiac homeostasis, identify RGS5 as a key regulator of this process and propose pericytes as crucial mediators of cardiac fibrosis and possible therapeutic targets to prevent cardiovascular disease.
Im Rahmen der Versorgung von polytraumatisierten (schwerstverletzten) Patienten ist insbesondere die systemische Inflammation zu beachten. Durch das initiale Trauma (“first hit“) kommt es zu einer systemischen Dysregulation der inflammatorischen Kaskaden, wobei sowohl eine überschießende (SIRS/Sepsis) wie auch unterschießende Reaktion (CARS) zu schweren Komplikationen wie Multiorganversagen bis hin zum Tod führen kann. Die notfallmässige chirurgische Versorgung fügt durch multiple Faktoren wie Weichteilverletzung, Blutverlust und Intubation dem Patienten einen “second hit“ zu, welcher sich auf den “first hit“ aufsummieren und besagte Komplikationen induzieren kann. Aufgrund dessen wurden verschiedene Therapiekonzepte entwickelt wie beispielsweise die “Damage control surgery“, welche durch minimalinvasive Techniken die notfallmässig versorgungsbedürftigen Verletzungen temporär stabilisiert/versorgt, bis der Patient sich physiologisch stabilisiert und definitiv versorgt werden kann. Eine weitere Strategie stellt die „Safe Definitive Surgery“ dar, welche eine Synopsis bildet aus zu einen frühzeitiger definitiver Versorgung gepaart mit minimalinvasiven Techniken, um während der Operation multipler Frakturen intraoperativ anhand der Physiologie des Patienten regelmäßig zu reevaluieren und daran zu adjustieren.
Bei der definitiven Versorgung von langen Röhrenknochen im Schaftbereich werden klinisch standardmässig Marknägel verwendet. Hierbei eröffnet man den langen Röhrenkochen am proximalen Eintrittspunkt, bohrt den Knochen intramedullär mittels “Reamer“ auf und führt den Nagel ein, welchen man mittels Schrauben multidimensional in der Corticalis verriegelt. Hierbei stellt die intramedulläre Aufbohrung den kritischsten Schritt dar, da hierbei zum einen Knochenmark austritt und durch den Bohrer Thermonekrosen im Knochen auftreten können sowie auch Knochenpartikel austreten. Um diese Nachteile zu beheben, wurde der “Reamer-Irrigator-Aspirator“ (RIA) entwickelt, welcher nebst der klassischen Bohrfunktion noch eine Spül-Saugfunktion innehat und somit parallel intramedullär eine Kühlung herbeiführt, wie auch das Knochenmark nebst Knochenpartikeln absaugt. Hiervon gibt es eine ältere (RIA 1) und eine neuere (RIA 2) Version, wobei sich diese geringfügig in Grösse des Bohrkopfes und der Saugfunktion wie auch im Handling unterscheiden. Wenig ist jedoch zum aktuellen Zeitpunkt bekannt, welche Auswirkungen diese unterschiedlichen Versionen verglichen mit dem konventionellen “Reamer haben“. Um dies näher zu evaluieren, wurde ein standardisiertes Polytrauma-Modell an 30 Schweinen (Sus scrofa) durchgeführt. Unter konstanter Analgesie wurde nach Erreichen einer standardisierten Baseline an 24 der Tiere ein Polytrauma, bestehend aus unilateraler Femurfraktur, stumpfem Thoraxtrauma inklusive Leberlazeration und hämorrhagischem Schock ausgeübt. Sechs Tiere fungierten als Kontrollgruppe (sham), welche kein Trauma sowie Therapie erhielten, aber sonst gleich behandelt wurden. Die polytraumatisierten Tiere erhielten Therapie nach Schockraum- und ATLS Versorgung nach dem Trauma. Bestehend aus “Abdominal Packing“, Kreislaufstabilisierung und Versorgung der Femurfraktur mittels intramedullärer Nagelung. Die 24 polytraumtisierten Versuchstiere wurden bezüglich der Versorgung der Femurfraktur in drei Gruppen aufgeteilt: 1) Konventionelles Reaming, 2) RIA 1 und 3) RIA 2. An sechs Zeitpunkte (t1 (-1.5h) - t6 (6h)) über 7.5 Stunden erfolgten regelmäßige Blut- wie Urinentnahmen und eine bronchoalveoläre Lavage vor fachgerechtem Exitus am letzen Zeitpunkt. Anschließend wurde mittels ELISA in besagten Proben das Interleukin-6, Interleukin-8, Interleukin-10 und Tumornekrosefaktor-alpha bestimmt und statistische Unterschiede zwischen den Gruppen ermittelt.
Die Ergebnisse legen nahe, dass die Verwendung des Reamer-Irrigator-Aspirator Typ 2 aufgrund spezifischer Modifikationen verglichen mit seinem Vorgänger (RIA Typ 1) eine geringere inflammatorische Immunantwort aufweist. Verglichen mit dem konventionellen Reaming konnte in unserer Versuchsreihe in Hinblick auf entzündliche Mediatoren systemisch wie lokal kein Unterschied zu der Versorgung mittels RIA aufgezeigt werden. Jedoch präsentierte sich bei der Benutzung des konventionellen Reamers auch in unserer Versuchsreihe das Auftreten einer Fett/Lungenembolie, was bereits in der Literatur als eine gängige Komplikation dieses Instrumentariums beschrieben wird. Zusammenfassend ist der Reaming-Irrigator-Aspirator eine modernisierte Version des konventionellem Reamers, welcher multiple Vorteile aufweist, jedoch im Rahmen der Kostensenkung wahrscheinlich erst im weiteren zeitlichen Verlauf regelmäßige Anwendung in der Klinik finden wird.
Polyunsaturated fatty acids (PUFAs) play essential roles in mediating inflammation and its resolution. PUFA metabolites generated by the cytochrome P450 (CYP) - soluble epoxide hydrolase (sEH) axis are known to regulate macrophage activation/polarization but little is known about their role in the resolution of inflammation. Monocytes were isolated from murine bone marrow or human peripheral blood and differentiated to naïve macrophages (M0). Thereafter cells were polarized using LPS and IFNγ (M1), IL-4 (M2a), or TGFβ1 (M2c). Gene expression was analyzed by RNA sequencing, RT-qPCR and Western blotting. Phagocytosis of zymosan and oxo-LDL were also assessed in vitro. Zymosan-induced peritonitis combined with immune cell profiling was used to evaluate the resolution of inflammation in vivo. The expression of sEH was comparable in M0, M1 and M2a macrophages but markedly elevated in M2c polarized cells. The increase in sEH expression elicited by TGFβ relied on the TGFβ receptor ALK5 and the phosphorylation of SMAD2, which was able to bind to the sEH promoter. In macrophages lacking sEH, M2c polarization was incomplete and characterized by lower levels of pro-resolving phagocytosis associated receptors (Tlr2 and Mrc1), as well as higher levels of the pro-inflammatory markers; Nlrp3, IL-1β and TNFα. Fitting with the failure to upregulate phagocytosis associated receptors, the uptake of zymosan and ox-LDL was less efficient in M2c macrophages from sEH-/- mice. The latter animals also demonstrated a retarded resolution of inflammation (zymosan-induced peritonitis) in vivo with fewer resident macrophages and recruited macrophages. PUFA profile analysis indicated decreased sEH substrates e.g., 11, 12-EET, as well as increased sEH products e.g., 11, 12-DHET, indicating an increased sEH activity in M2c macrophages. Taken together, our data indicates that sEH expression is required for the effective M2c polarization of macrophages and thus the resolution of inflammation.
Test-Retest-Reliabilität der Präpulsinhibition (PPI) und PPI-Korrelation mit dem Arbeitsgedächtnis
(2023)
Sensomotorisches Gating – ein Mechanismus zur Filterung des sensorischen Inputs und zur Regulierung des motorischen Outputs – wird experimentell durch die Präpulsinhibition (PPI) der akustisch ausgelösten Schreckreaktion (ASR) operatio-nalisiert. Frühere Studien deuten auf eine hohe Test-Retest-Reliabilität der PPI und eine mögliche Korrelation mit dem Arbeitsgedächtnis (engl. Working Memory (WM)) hin. Ziel dieser Studie war es, die Test-Retest-Reliabilität der PPI bei ge-sunden Menschen und ihre Korrelation mit der Leistung des WM zu überprüfen. Hier wurde ein akustisches Schreckreiz-PPI-Paradigma mit vier verschiedenen Präpuls-Intensitäten (64, 68, 72 und 76 dB(A)) und zwei verschiedene WM-Aufgaben (n-back, Change-Detection-Task (CDT)) verwendet. Es konnte eine ho-he Retest-Reliabilität der PPI mit einer mittleren Intraklassenkorrelation (engl. In-traclass Correlation (ICC)) von >.80 und eine signifikante positive Korrelation der PPI mit der n-back-, aber nicht mit der CDT-Leistung bestätigt werden. Eine detail-lierte Analyse zeigte, dass die PPI über alle Präpulsintensitäten hinweg sowohl mit den 2-back- als auch mit den 0-back-Bedingungen signifikant korrelierte, was auf eine Regulation durch konditionsübergreifende Prozesse (z. B. Aufmerksamkeit) schließen lässt. Wird jedoch die 0-back-Komponente aus den 2-back-Daten aus-partialisiert, sind spezifische und signifikante Korrelationen mit der Arbeitsgedächt-nisleistung für die 76 dB(A) PPI-Bedingung zu finden. Mit der vorliegenden Studie konnte die hohe Test-Retest-Reliabilität der PPI beim Menschen bestätigt und die Korrelation mit der Arbeitsgedächtnisleistung validiert und erweitert werden.
Multilevel-Untersuchung des nitrinergen Systems bei affektiven Störungen und schizophrenen Psychosen
(2023)
Das nitrinerge System und damit auch NOx als Neurotransmitter werden mit der Entstehung verschiedener psychischer Erkrankungen in Verbindung gebracht. Die genaue Rolle des Botenstoffs ist jedoch nicht ausreichend geklärt und auch die Frage, ob dieser als diagnostischer oder prädiktiver Biomarker nützlich sein könnte, ist unbeantwortet. In der vorliegenden Arbeit wurde folglich untersucht, ob es Unterschiede zwischen den Diagnosegruppen MDD, BIP, SCZ und der Kontrollgruppe bezüglich peripherer NOx- Konzentrationen gibt. Darüber hinaus wurden Unterschiede innerhalb der Diagnosegruppen im Krankheitsverlauf im Sinne von Phasenunterschieden mittels zweier Messzeitpunkte untersucht und analysiert, ob es Korrelationen mit genetischen Variationen in NOS-Genabschnitten gibt. Insgesamt wurden 185 Probanden in die Studie mitaufgenommen: 52 gesunde CTRL, 43 Patienten mit MDD, 41 Patienten mit BIP und 49 Patienten mit SCZ. Biochemische, genetische und klinische Daten wurden bei Aufnahme und Entlassung in der psychiatrischen Abteilung des Universitätsklinikums Frankfurt erhoben. Klinische Daten, die den Symptomverlauf 90 und die Erkrankungsschwere beurteilten, nutzten dazu standardisierte teilstrukturierte klinische Interviews. Biochemische Daten wurden mittels im Serum gemessener NOx- Spiegel quantifiziert. Bezüglich der Untersuchung der Risikogenvarianten wurden Probanden anhand des NOS1 ex1f-VNTR-Polymorphismus sowie SNPs in den Genen NOS1, NOS3 und NOS1AP genotypisiert. Bei Aufnahme wiesen SCZ-Patienten im Vergleich zu CTRL-, MDD- und BIP-Gruppen signifikant höhere NOx- Konzentrationen auf. Während NOx- Spiegel im Behandlungsverlauf bei MDD- und BIP-Patienten signifikant zunahmen, konnte dies bei SCZ-Patienten nicht beobachtet werden. Weiterhin konnte gezeigt werden, dass Patienten, deren depressive Beschwerden nicht relevant zurückgingen, bei Entlassung signifikant höhere NOx- Konzentrationen aufwiesen, was durch die Beobachtung einer signifikant positiven Korrelation zwischen NOx- Serumspiegeln und depressiven Symptomen bei Entlassung unterstützt wurde. Bei der genetischen Untersuchung der Daten fiel auf, dass homozygote Träger des kurzen VNTR-Allels signifikant erhöhte NOx- Konzentrationen besaßen. Diese Ergebnisse blieben bei jenen Trägern auch nach Entlassung signifikant. Insgesamt gibt es Hinweise darauf, dass erhöhte periphere NOx- Metabolitkonzentrationen mit einer Zunahme der Psychopathologie bzw. der Erkrankungsschwere einhergehen könnten, was möglicherweise auf den NOS1 ex1f-VNRT-Polymorphismus zurückzuführen ist. Außerdem zeigten zwei SNPs, welche beide im NOS1AP-Gen lokalisiert sind, bei BIP Patienten signifikant gesteigerte NOx- Werte. Die vorliegenden Ergebnisse deuten darauf hin, dass NO-Signalübertragung und NOS-Genotypen in der Pathogenese psychischer Erkrankungen eine Rolle spielen könnten. Ob diese Veränderungen allerdings kausal mit Krankheitsprozessen zu tun haben oder ob es eher Epiphänomene der Erkrankungen sind, kann mit dieser Studie nicht geklärt werden. Die Genvarianten könnten wiederum bei der Regulierung von peripheren NOx- Konzentrationen von Bedeutung sein. Die Arbeit liefert zudem Hinweise, die Verwendung von NOx als möglichen peripheren Biomarker weiter zu verfeinern und zu untersuchen. Zukünftige Studien, die die Wirksamkeit von NOx- modulierenden Pharmaka untersuchen, könnten davon profitieren, Diagnosegruppen nach Subgruppen einzuteilen, die sowohl NOS Risikogenvarianten als auch periphere NOx- Spiegel im Sinne eines Biomarker beachten.
Die klinische Pfade zielten in erster Linie darauf ab, die Aufenthaltsdauer zu verkürzen und unnötige Kosten zu sparen, während die Qualität der Pflege erhalten blieb oder verbessert wurde. Bei der laparoskopischen Cholezystektomie gibt es keine ausreichenden Beweise für einen Einfluss auf postoperative Komplikationen.
In dieser retrospektiven Studie wurde die logistische Regression verwendet, um einen Neigungswert zu berechnen, und nach dem Abgleich werden 296 Patienten in beiden Gruppen im Hinblick auf postoperative Komplikationen unter Verwendung des Clavien-Dindo-Klassifizierungssystems als primäres Ziel analysiert. Darüber hinaus wurden sekundäre Ziele wie Aufenthaltsdauer, Einhaltung und Abweichung vom klinischen Pfad in Bezug auf die Entlassung von Patienten analysiert. Das relative Risiko des primären Ergebnisses wurde berechnet und mit dem E-Wert als Ansatz für Sensitivitätstests verglichen.
Aufgrund des obligatorischen Teil der klinischen Pfad bei den Patienten betrug die Compliance 100 Prozent. In 16% der Fälle trat eine Abweichung vom Pfad in Bezug auf die geplante Entlassung des Patienten am zweiten Tag nach der Operation auf. Nach Anpassung um potenzielle Faktoren beträgt das relative Risiko beim Vergleich der Clavien-Dindo-Komplikationsbewertung 0 versus 1-4 ist 1,64 (95% CI 0,87; 3,11), was nicht signifikant unterschiedlich ist (p = 0,127).
Nach Matching beträgt die Verweildauer 3,69 Tage ohne bzw. 3,26 Tage mit dem klinischen Pfad.
Vergleich zu bereits implementierter strukturierter Standardoperationsverfahren kann ein klinischer Pfad postoperative Komplikationen nicht reduzieren.
Dennoch betrachten wir unseren klinischen Pfad als ein äußerst wertvolles Instrument für die interdisziplinäre Verwaltung des Krankenhausaufenthalts des Patienten unter der Aufsicht eines erfahrenen Chirurgen.
Resilienz als Schutzfaktor vor der Entwicklung psychischer Erkrankungen ist angesichts der zunehmenden gesellschaftlichen Belastung durch chronischen Stress und stressassoziierte Folgeerkrankungen ein hochaktuelles Forschungsthema. Obwohl bereits zahlreiche Erhebungen zur Resilienz existieren, herrscht kein Konsens über die konkrete Operationalisierung des Konzepts. In der Folge differieren vorliegende Studienergebnisse stark voneinander, sind nur schwer miteinander vergleichbar und fraglich auf die Gesellschaft zu übertragen. Die vorliegende Arbeit untersucht daher, ob Haarcortisol einen geeigneten Biomarker in der Resilienzforschung darstellt und einen Beitrag zur Vereinheitlichung und Objektivierung dieses Forschungsgebietes leisten kann.
Zur Beantwortung dieser Frage wurde auf die Daten des aktuell laufenden Langzeitforschungsprojekts „Longitudinal Resilience Assessment“ der Universitätskliniken Frankfurt und Mainz aus den Jahren 2017 bis 2019 zurückgegriffen. Alle Proband*innen der psychisch gesunden Stichprobe (N= 192, 18-50 Jahre) füllten zu insgesamt drei Erhebungszeitpunkten nach Studieneinschluss und im Abstand von je drei Monaten Onlinefragebögen zur Ermittlung der aktuell vorherrschenden Stressexposition, der allgemeinen psychischen Gesundheit sowie des subjektiven Stresserlebens aus. Gleichzeitig fand die Entnahme von Haarproben für die Analyse der Haarcortisolkonzentration statt. Zum Studieneinschluss erfolgte ergänzend die Erhebung der Traumatisierung und negativen Erfahrungen im Kindesalter.
Mittels linearer multivariater Regression wurde ein Effekt möglicher anthropometrischer und soziodemographischer Einflussfaktoren auf die Cortisolkonzentration im Haar ausgeschlossen. Ferner wurde die Auswirkung der Lagerungszeit auf die Höhe der Cortisolwerte im Haar untersucht. Es zeigte sich, dass Haarproben mit einer kürzeren Lagerungszeit signifikant höhere Cortisolwerte aufwiesen als solche mit einer längeren Lagerungszeit. Die Stabilität der Cortisolkonzentrationen über die einzelnen Messzeitpunkte hinweg erwies sich dabei insgesamt nur als mäßig hoch. Zur Untersuchung des Zusammenhangs zwischen subjektivem und objektivem Stress, Traumatisierung und negativen kindlichen Erfahrungen, allgemeiner psychischer Gesundheit, Resilienz und HCC wurden Spearman-Rang-Korrelationen angewandt. Auch hier ließen sich keine statistisch signifikanten Zusammenhänge feststellen. Dennoch konnten bei Personen mit einer Veränderung des Stressniveaus während des Beobachtungszeitraumes eine insgesamt deskriptiv erhöhte Stressexposition sowie statistisch signifikant höhere Mengen an Haarcortisol beobachtet werden. Bei weiteren explorativen Datenanalysen innerhalb einer kleinen Subpopulation der Studienstichprobe konnten während des Einwirkens eines intensiven spezifischen Stressors erhöhte HCC-Werte in Verbindung mit schlechteren psychischen Gesundheitsergebnissen gebracht werden.
Auf Grundlage dieser Arbeit lässt sich kein relevanter Einfluss verschiedener Stressvariablen auf die Cortisolkonzentration im Haar ableiten. Auch die individuelle Resilienz steht in keinem Zusammenhang zum HCC. Die Ergebnisse der explorativen Untersuchungen deuten in Zusammenschau mit einer mäßig hohen Stabilität des HCC jedoch darauf hin, dass Haarcortisol ein veränderungssensitiver Biomarker sein kann. Bei intensiver spezifischer Stresseinwirkung steht es in Zusammenhang mit schlechteren Gesundheitsergebnissen und damit indirekt mit der individuellen Resilienz. In zukünftigen Arbeiten sollte untersucht werden, auf welche Weise die Höhe des Haarcortisols Hinweise auf die Auswirkungen einer spezifischen Stressexposition und damit auf den psychischen Gesundheitszustand eines Individuums liefern kann, um so Risikogruppen identifizieren und diese durch frühzeitige Interventionen vor der Entwicklung psychischer Erkrankungen schützen zu können.
Das Ziel in der vorliegenden systematischen Literaturrecherche ist es, den aktuellen Stand des Wissens über die Erfolgsfaktoren von Einzelzahnimplantaten, bei denen eine Sofortbelastung auf den provisorischen Implantatkronen zum Antagonisten erfolgt, wiederzugeben. In diesem Rahmen wurden Zusammenhänge zwischen der Implantatüberlebensrate, der Primärstabilität, der Implantatregion, des Implantatdesigns und des Implantationszeitpunktes getrennt nach okklusalem Belastungsprotokoll (mit versus ohne antagonistische Okklusionskontakte auf den provisorischen Implantatkronen) und der postoperativen Verhaltensweisen der Patienten analysiert. Der Prozess der systematischen Literaturrecherche wurde nach den PRISMA-Guidelines für den Suchzeitraum von 2012 bis 2022 durchgeführt.
Um die Forschungsfrage zu beantworten, wurde eine qualitative Analyse in deskriptiver Form durchgeführt.
In den analysierten Studien, wurde am häufigsten ein Eindrehmoment von ≥ 35 Ncm als Kriterium für eine Sofortbelastung gewählt. Die meisten Implantate wurden in der Oberkieferregion 15 bis 25 inseriert. Bei den Implantatkronen mit antagonistischen Okklusionskontakten fielen die Überlebensraten insgesamt niedriger aus als in den Studien, in denen die Implantatkronen ohne antagonistische Okklusionskontakte eingegliedert wurden. Die Überlebensraten waren weitestgehend vergleichbar mit den Ergebnissen konventioneller Belastungsprotokolle. Die Datenlage anhand dieser Recherche spricht zurzeit für die Realisierung der Sofortbelastung von provisorischen Implantatkronen ohne antagonistische Okklusionskontakte in Verbindung mit postoperativen Verhaltensmaßnahmen.
Das Harnblasenkarzinom ist einer der häufigsten Tumoren weltweit. Insbesondere die muskelinvasiven Tumoren haben eine schlechte Prognose und stellen sich morphologisch sehr unterschiedlich dar. Diese Heterogenität wird bislang bei Therapieentscheidungen nicht beachtet. Um Patienten zukünftig individuell auf den vorliegenden Subtyp des muskelinvasiven Harnblasenkarzinoms (MIBC, muscle invasive bladder cancer) behandeln zu können und dadurch unnötige Belastungen durch Chemotherapien vermeiden zu können, ist eine einfache und kostengünstige Diagnostik erforderlich. Das Ziel der vorliegenden Arbeit war es, den Einsatz bestimmter immunhistochemischer Färbungen als ein mögliches diagnostisches Routineverfahren zur Bestimmung der vorliegenden Subtypen auszutesten. Hierzu wurde die Expression von „luminalen“ und „basalen“ Proteinen mit histologischen Subtypen des MIBCs korreliert. In einem zweiten Schritt wurde der Einfluss auf das Überleben mit und ohne adjuvante Chemotherapie untersucht.
Es wurden insgesamt 181 Tissue-Microarray-Spots analysiert. Alle histologischen Patientenproben sowie klinischen Daten stammten aus dem Universitätsklinikum Frankfurt am Main. Aus den entsprechenden Gewebeblöcken wurden Stanzen zur Erstellung eines Tissue-Microarrays (TMAs) entnommen. Diese wurden konventionell angeschnitten und histologisch mit Hämatoxylin-Eosin (H/E) sowie immunhistochemisch mit Cytokeratin 5/6 (CK5/6), Cytokeratin 20 (CK20), Glutamyl Aminotransferase-Untereinheit A bindendem Protein 3 (GATA3), Tumorsuppressor- protein p53 und Synaptophysin (SYNAPT) gefärbt.
Anhand der H/E-Schnitte wurden die vorliegenden histologischen Subtypen lichtmikroskopisch bestimmt und es folgte eine statistische Auswertung der Färbeergebnisse. Die deskriptive statistische Analyse zeigte insbesondere für die beiden Färbungen CK5/6 und GATA3 signifikante Ergebnisse. Deshalb wurden in einem zweiten Schritt alle Fälle der Studienkohorte den bekannten vier Gruppen: CK5/6 positiv, GATA3 positiv, doppelt positiv und doppelt negativ zugeordnet und näher untersucht. Es folgte eine Überlebensanalyse nach Kaplan Meier Schätzer sowie uni- und multivariate Analysen.
Die Ergebnisse zeigten eine Assoziation der Expression von CK5/6 mit einer squamösen Differenzierung (96%) und eine Assoziation der Expression von GATA3 mit einer mikropapillären Differenzierung (100%). Die adjuvante Chemotherapie ging mit einem Überlebensvorteil (HR 0,15 95%KI 0,1-0,3; p<0,001) der Patienten mit MIBC einher. Immunhistochemisch doppelt negative Patienten mit MIBC wiesen ein verringertes Gesamtüberleben auf (HR 4,96; 95%KI 1,6-15,6; p=0,006); in der Gruppe der doppelt negativen MIBCs fanden sich fünf verschiedene histologische Subtypen. Zusammenfassend lässt sich sagen, dass die immunhistochemische Klassifizierung des MIBCs mit histologischen Subtypen assoziiert ist und dabei helfen kann, Fälle in der pathologischen Routine in „luminal“ und „basal“ zu unterteilen. Jedoch ist ein auf zwei Markern basierendes Klassifizierungssystem nicht ausreichend, um die Heterogenität des MIBCs abzubilden und die Basis für Therapieentscheidungen zu bilden.
Tobacco smoke-associated particulate matter emissions in a car cabin using the TAPaC platform
(2023)
Zigarettenrauch enthält bis zu 5000 Inhaltsstoffe, von denen mindestens 250 gesundheits-schädlich und 98 krebserregend sind. Der freigesetzte Feinstaub erreicht hohe Konzentrati-onen in Innenräumen und ist somit besonders schädlich für Passivraucher (z.B. Kinder).
Ziel war es eine Messplattform zu etablieren, mit dessen Hilfe die Feinstaubexposition durch Zigarettenrauch im Fahrzeuginnenraum unter unterschiedlichen ventilatorischen Szenarien untersucht werden konnte. Zudem sollte der Einfluss verschiedener Tabakprodukte auf die Feinstaubkonzentration getestet werden.
Im ersten Teil dieser Dissertation wird die neuartige TAPaC Messplattform (tobacco-associated particulate matter emissions inside a car cabin: establishment of a new measuring platform) vorgestellt. Sie erlaubt die Auswirkungen verschiedener ventilatorischer Sze-narien auf die Feinstaubemission von Zigarettenrauch im Auto besser beurteilen zu können. Da niemand gesundheitsschädlichem Tabakrauch ausgesetzt wird, kann sie ohne jegliche ethische Bedenken eingesetzt werden. Die Zigaretten werden hierbei einzeln auf der Beifahrerseite verraucht. Der beim Rauchen freigesetzte Feinstaub wird auf der Fahrerseite gemessen und in PM10 (Partikel mit einem aerodynamischen Durchmesser <10 µm), PM2,5 (Partikel mit einem aerodynamischen Durchmesser <2,5 µm), und PM1 (Partikel mit einem aerodynamischen Durchmesser <1 µm) unterteilt. Hierbei konnten unter der Verwendung von 3R4F Research Cigarettes extrem hohe Feinstaubmesswerte bei geschlossenen Fenstern und ausgeschalteter Lüftung nachgewiesen werden (PM10: 1608 µg/m3, PM2,5: 1583 µg/m3, PM1: 1133 µg/m3). Diese Daten stellen Durchschnittwerte nach 10-minütiger Messung dar. Auch konnte eine Reduktion der Feinstaubkonzentration (PM10: -70,8 bis -74,4%, PM2,5: -70,6 bis -74,3%, PM1: -64,0 bis -68,0%) durch den Einsatz der Lüftung nachgewiesen werden.
Der zweite Teil dieser Dissertation befasste sich maßgeblich mit dem Einfluss unterschiedlicher ventilatorischer Szenarien auf die Feinstaubkonzentrationen im Auto. Unter Verwen-dung von drei unterschiedlichen Zigarettenprodukten (3R4F Research Cigarettes, Marlboro Red, Marlboro Gold) wurden insgesamt 7 ventilatorische Szenarien (Condition C1b–C7b) getestet. Für alle Szenarien, mit Ausnahme von C1b, war die Autolüftung auf Stufe 2/4 ge-stellt und in Richtung der Windschutzscheibe gerichtet. Die Szenarien beinhalteten: Condition 1 (C1b) Fenster geschlossen, Autolüftung aus und externer Ventilator aus, Condition 2 (C2b) Fenster 10 cm geöffnet und externer Ventilator aus, Condition 3 (C3b) Fenster 10 cm geöffnet und externer Ventilator auf höchster Stufe (3/3) an, Condition 4 (C4b) Fenster halb geöffnet und externer Ventilator aus, Condition 5 (C5b) Fenster halb geöffnet und externer Ventilator auf höchster Stufe (3/3) an, Condition 6 (C6b) Fenster vollständig geöffnet und externer Ventilator aus und Condition 7 (C7b) Fenster vollständig geöffnet und externer Ventilator auf höchster Stufe (3/3) an.
Es zeigten sich besonders hohe Feinstaubkonzentrationen bei Zigaretten, welche ohne Ventilation bei geschlossenem Fenster verraucht wurden. Unabhängig von der verwendeten Marke war die Feinstaubbelastung nach 10 min unter C1b (PM10: 1272–1697 µg/m3, PM2,5: 1253–1659 µg/m3, PM1: 964–1263 µg/m3) deutlich höher als unter C2b (PM10: 67–84 µg/m3, PM2,5: 68–83 µg/m3, PM1: 66–79 µg/m3), C3b (PM10: 100–139 µg/m3, PM2,5: 99–138 µg/m3, PM1: 95–132 µg/m3), C4b (PM10: 84–94 µg/m3, PM2,5: 84–93 µg/m3, PM1: 81–89 µg/m3), C5b (PM10: 94–120 µg/m3, PM2,5: 93–119 µg/m3, PM1: 90–114 µg/m3), C6b (PM10: 155–196 µg/m3, PM2,5: 154–195 µg/m3, PM1: 148–184 µg/m3), und C7b (PM10: 74–99 µg/m3, PM2,5: 72–97 µg/m3, PM1: 69–93 µg/m3). Ebenfalls wurden Feinstaubspitzenwerte bei 4,5 min und 10 min ausgewertet. Bei 4,5 min konnte PM10 unter C2b–C7b um 81,6–93,3% im Vergleich zu C1b reduziert werden. Bei 10 min sogar um 92,9–99,3%. Die 3R4F Zigarette hatte die höchste Feinstaubemission gefolgt von Marlboro Rod und Marlboro Gold. Zudem zeigte sich, dass die Feinstaubemission auch von den Tabakinhaltsstoffen und dessen Konzentrationen abhängig ist.
Die Etablierung der neuen Messplattform ermöglicht die Erforschung von Feinstaubexpositionen durch Zigarettenrauch im Auto ohne potentiell gesundheitliche Folgen. In Zusammenschau der Daten ließ sich nach Öffnen des Fensters und unter Einflussnahme verschiedener ventilatorischer Einstellungen eine deutliche Reduktion der Feinstaubkonzentration im Auto feststellen. Nichtsdestotrotz bleibt die Feinstaubbelastung im Autoinnenraum zu hoch und übersteigt die Richtwerte der Air Quality Guidelines aus dem Jahre 2021 der WHO. Die experimentell untersuchten Belüftungsszenarien sind somit insuffizient, da sie nicht vor der toxischen Feinstaubexposition durch Passivrauch beim Autofahren schützen können.
Das Hepatoblastom ist ein embryonaler Lebertumor, dessen Zellen unterschiedliche unreife Stadien aufweisen. Aufgrund dieser Unreife ist die Identifizierung von Krebsstammzellen erschwert, die in diesem Tumor vermutet und für Rückfälle verantwortlich gemacht werden. In Vorarbeiten konnte eine Krebsstammzellpopulation mit der Kombination der hämatopoetischen Stammzellmarker CD90 und CD34 sowie dem „oval cell“ OV-6-Antikörper in den etablierten Hepatoblastomzelllinien HuH6 und HepG2 detektiert werden. Diese CD34+OV-6+CD90+ Zellen wiesen eine erhöhte Expression von Pluripotenzfaktoren auf und zeichneten sich durch ein erhöhtes Migrationsverhalten aus.
In der hier vorgelegten Arbeit wurden zunächst Tumor-Sphäroid-Assays durchgeführt um diese Population als Krebsstammzellen zu bestätigen, da nur Krebsstammzellen unter den gegebenen Umständen wachsen können. Diese waren im Anschluss wieder in der Lage, in „normalem Medium“ zu differenzieren. Des Weiteren wurden die Zelllinien mit dem Standardtherapeutikum Cisplatin behandelt. Da Krebsstammzellen als chemoresistent gelten, konnte in der überlebenden Zellpopulation auch eine Anreicherung der CD34+OV-6+CD90+ Zellen beobachtet werden. Zusätzlich ließ sich eine weitere CD34+OV-6+CD90+ Population identifizieren, deren Expression aller drei Marker schwächer war und die bei steigenden Cisplatin-Konzentrationen den Großteil der CD34+OV-6+CD90+ Population ausmachte.
Neben den erhöhten Transkriptmengen der Pluripotenzmarker Oct4 und Nanog zeichneten sich die CD34+OV-6+CD90+ Krebsstammzellen durch eine verstärkte Expression der aktivierungsinduzierten Zytidin-Desaminase AID aus. AID wirkt induzierend auf die Transkription beider Pluripotenzmarker. Daher könnte es auch bei Krebsstammzellen eine Rolle bei der Induktion von Pluripotenz und bei ihrer langfristigen Erhaltung spielen. Dies unterstützend legten die verminderten Transkriptmengen der Pluripotenzgene nach einem AID siRNA Knock-Down eine Abhängigkeit des Stammzellcharakters von diesem Faktor nahe. Um einen Effekt von Therapeutika, die inhibitorisch auf AID wirken, auf Krebsstammzellen zu untersuchen, wurden die Zellen mit den DNMT-Inhibitoren Decitabine und Zebularine sowie dem HSP90-Inhibitor Tanespimycin behandelt. Tatsächlich konnte vor allem in den HuH6-Zellen ein verminderter Anteil der Krebsstammzellpopulation durch die drei Substanzen beobachtet werden. Wurden die Zellen im Anschluss mit dem Standardzytostatikum Cisplatin behandelt, führte allerdings eine Vorbehandlung mit Zebularine oder Decitabine zu einer starken Anreicherung von Krebsstammzellen. Dies war vor allem auf Zellen mit dem schwach positiven CD34+OV-6+CD90+ Expressionsprofil zurückzuführen, die chemo-induziert zu sein scheinen. Zwar erscheint die Mehrheit der Tumorzellen eliminiert zu werden, jedoch lassen diese Ergebnisse die Entstehung von chemo-induzierten Krebsstammzellen vermuten, die langfristig für einen Rückfall verantwortlich sein könnten. Daher ist von einer Ergänzung der Therapie mit diesen Substanzen abzusehen. Eine Vorbehandlung mit Tanespimycin hingegen konnte im Vergleich zur alleinigen Cisplatin-Behandlung wirksam den Anteil der Krebsstammzellen reduzieren. Interessanterweise war dies nicht auf einen verstärkten Zelltod der Krebsstammzellen, sondern vielmehr auf eine durch Tanespimycin bewirkte Differenzierung derselben zurückzuführen. Diese spiegelte sich auch in einer verminderten Expression von Pluripotenzmarkern auf mRNA-Ebene im Vergleich zur alleinigen Cisplatin-Behandlung wider.
Somit präsentierte sich Tanespimycin als potenter Inhibitor von Krebsstammzellen. Auch wenn weitere vorklinische und klinische Tests und Untersuchungen erfolgen müssen, stellt Tanespimycin bzw. die Substanzklasse der HSP90-Inhibitoren einen interessanten und vielversprechenden Kandidaten für eine Ergänzung der Standardtherapie vor allem bei behandlungsresistenten und rekurrenten High-Risk-Hepatoblastomen dar.
Im Rahmen dieser publikationsbasierten Dissertation wurden drei wissenschaftliche Arbeiten veröffentlicht. Als Erstautorenschaft wurde 2022 die Arbeit “Effectiveness of High-intensity Focused Ultrasound (HIFU) Therapy of Solid and Complex Benign Thyroid Nodules - A Long-term Follow up Two-center Study.” im Journal “Experimental and Clinical Endocrinology & Diabetes” veröffentlicht. Im Folgenden wird der Inhalt dieser Arbeit dargelegt. Ein kurzer Überblick über die Ergebnisse der anderen beiden mitpublizierten Arbeiten findet sich im Kapitel „Weitere Ergebnisse der Arbeitsgruppe“.
Durch die hohe Prävalenz benigner Schilddrüsenknoten sind deren Behandlungsalternativen von großem wissenschaftlichem Interesse. Dabei bildet die nebenwirkungsarme, minimalinvasive Thermoablation mittels high-intensity focused ultrasound (HIFU) eine attraktive Alternative zu herkömmlichen Verfahren wie der Schilddrüsenchirurgie oder der Radioiodtherapie. Bei der HIFU-Echotherapie werden die Schilddrüsenknoten auf 80 - 90 Grad Celsius erhitzt, sodass eine irreversible Koagulationsnekrose entsteht. Um den Therapieprozess und die Indikationsstellung von HIFU bei benignen Schilddrüsenknoten zu optimieren, ist es notwendig, genaue Studien durchzuführen.
Ziel der vorliegenden bizentrischen Langzeitstudie war, die Effektivität von HIFU-Echotherapien bei benignen Schilddrüsenknoten zu evaluieren und erstmalig den Einfluss der Knotenmorphologie auf den Therapieerfolg zu untersuchen. Vor der Therapie und in regelmäßigen Intervallen nach der Therapie wurden die Größe und die Morphologie der Schilddrüsenknoten mittels Ultraschall dokumentiert. In der retrospektiven Studie wurden Daten von 58 Patienten ausgewertet. Dabei wurde die Gesamtpopulation in eine Gruppe mit soliden und in eine Gruppe mit komplexen Knoten eingeteilt. Die durchschnittliche prozentuale Volumenreduktion in jeder Gruppe wurde mit dem Wilcoxon-Signed-Rank Test statistisch analysiert.
Die Gesamtpopulation zeigte eine Volumenreduktion der zuvor abladierten Knoten von 38.86 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p < 0.0001, n = 25), 42.7 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p < 0.0001, n = 18), 62.21 % nach 9 Monaten (Spannweite: 12.88 % - 93.2 %, p = 0.0078, n = 8) und 61.42 % nach 12 Monaten (Spannweite: 39.39 % - 93.2 %, p > 0.05, n = 4). Die soliden Knoten hatten eine Volumenreduktion von 49.98 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p = 0.0001, n = 15), 46.40 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p = 0.001, n = 11), 65.77 % nach 9 Monaten (Spannweite: 39.39 % - 93.2 %, p = 0.0156, n = 7) und 63.88 % nach 12 Monaten (Spannweite: 39.39 % - 93.2%, p > 0.05, n = 2). Komplexe Knoten hatten eine Volumenreduktion von 35.2 % nach 3 Monaten (Spannweite: 5.85 % - 68.63 %, p = 0.002, n = 10), 36.89 % nach 6 Monaten (Spannweite: 12.23 % - 68.63 %, p = 0.0156, n = 7) und 63.64 % nach 12 Monaten (Spannweite: 52,38 % - 73.91 %, p > 0.05, n = 2).
In der vorliegenden bizentrischen Langzeitstudie wurde deutlich, dass HIFU-Echotherapie eine effektive Behandlungsoption benigner Schilddrüsenknoten ist. Erstmalig gezeigt wurde der Trend, dass solide Knoten besser auf HIFU-Echotherapie ansprechen als komplexe Knoten.
Anhand der gewonnenen Ergebnisse und der neuen Erkenntnisse zum Einfluss der Knotenmorphologie auf die HIFU-Echotherapie benigner Schilddrüsenknoten kann HIFU als Therapieoption besser bewertet werden. Eine differenziertere Indikationsstellung in Bezug auf solide und komplexe Knoten wird ermöglicht und die HIFU-Echotherapie kann gegen andere thermoablative Verfahren abgewogen werden.
Therapierefraktärer Schmerz ist ein weit verbreitetes, äußerst belastendes Leitsymptom rheumatischer Erkrankungen. Viele Betroffene weichen daher bei Versagen der Standardmedikation selbstständig auf Cannabis oder die strukturell verwandte Substanz Palmitoylethanolamid (PEA) als Add-On- oder Alternativtherapie aus, obwohl dies in Deutschland bisher nur eingeschränkt zulässig ist. Die deutsche Gesetzgebung ist diesbezüglich nicht eindeutig, weshalb Ärzt:innen in ihrer Entscheidung, Cannabis zu verschreiben, auf Leitlinien, Fallberichte und Expert:innenmeinungen zurückgreifen müssen. Dies führt zu schwierigen Einzelfallentscheidungen, da sich die derzeitige Datenlage zu Cannabis-based Medicine (CBM) bzw. PEA und Rheuma als mangelhaft darstellt und die Leitlinien dementsprechend keine klaren Empfehlungen enthalten. Ziel der vorliegenden Arbeit ist es, die vorhandene Evidenz zusammenzufassen, zu ordnen und anhand der Hill-Kriterien den möglichen kausalen Zusammenhang zwischen der Einnahme von CBM bzw. PEA und der analgetischen Wirkung bei Rheumaschmerzen zu prüfen.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Diese Arbeit hatte das Ziel, die Größe einer DVT-Aufnahme (FOV) mit der Größe der durch die Indikationsstellung definierten Region (ROI) zu vergleichen. Durch eine speziell dafür entwickelte Software sollten Messungen in den Datensätzen ermöglicht werden. Die dazu verwendeten 332 Datensätze wurden zufallsverteilt aus den mit einem Orthophos SL-3D DVT-Gerät der Firma Dentsply Sirona in der Poliklinik für zahnärztliche Chirurgie und Implantologie des ZZMK (Carolinum) in Frankfurt angefertigten Röntgenaufnahmen selektiert.
Es wurde die Auswertungssoftware ExRoi entwickelt, mit der die Werte des axialen Durchmessers, die Höhe (vertikale Dimension) sowie die Distanz der Mittelpunkte von FOV und ROI direkt in den Datensätzen bestimmt werden konnten. Zusätzlich wurde festgehalten, welche rechtfertigenden Indikationen gestellt und welche Auflösungsmodi verwendet wurden.
Die Stichprobe bestand aus Aufnahmen mit einem axialen Durchmesser von 8 cm [VOL 1] (n= 76, entsprechend 46,39%), 5 cm Durchmesser [VOL 2] (n = 102, entsprechend 30,72%) und 11 cm Durchmesser [VOL 3] (n= 154, entsprechend 22,89%). 95,18% der Aufnahmen wurden im HD-Modus mit laut Herstellerangaben vier Mal so vielen Aufnahmen im Vergleich zum SD-Modus angefertigt. Hauptindikationen waren Implantat Planung (45,1%) und Planungen komplizierter Zahn-Extraktionen (25,5%).
Die Messungen zum Vergleich des axialen Durchmessers zeigten, dass bei Verwendung des VOL 2 die ROI im Mittel den größten Anteil der FOV nutzt (78,52 %), den kleinsten Anteil nutzt durchschnittlich VOL 1 (56,04 %). Dazwischen liegt VOL 3 (69,12 %). In der Vertikalen nutzt die ROI von VOL 3 mittelwertig den größten Anteil der FOV (81,87 %), den kleinsten Mittelwert hat VOL 1 (58,76 %). VOL 2 liegt zwischen diesen Werten (64,47 %).
In allen Fällen war das FOV größer als die ROI und die ROI lag im Bereich des gewählten FOV.
Die Mittelpunkte von FOV und ROI lagen im Mittel in der axialen Ebene in Abhängigkeit vom gewählten Volumen um rund 9-13 mm auseinander, in der coronalen und sagittalen Ebene um rund 5-6mm.
Aus diesen Ergebnissen kann für das verwendete Gerät eine gute Trefferquote für die ROI abgeleitet werden. Höhe und Durchmesser des FOV hätten in den meisten Fällen kleiner gewählt werden können, liegen aber angesichts der vorhandenen Auswahl-Optionen des Röntgengeräts zur Dimensionierung der Volumina in einem akzeptablen Bereich.
Inflammation is a regulated reaction of the body to control a threat such as infection or injury. An efficient resolution of inflammation is critical to prevent the development of chronic inflammation and to restore tissue homeostasis. Macrophages (Mf) play a crucial role in the onset, but also in the resolution of inflammation, because they phagocytose and eliminate pathogens and tissue debris. Efficient efferocytosis, i.e. the engulfment of apoptotic cells, represents an important trigger for the onset of the resolution response and contributes to the pro-resolving reprogramming of Mf. Despite the importance of post- transcriptional modes of regulation during the resolution phase and translational control as a key node modulating gene expression in immune cells, relevant translational alterations remain largely elusive.
In the present study, I aimed to identify translationally regulated targets in inflammatory primary murine Mf upon resolution-promoting efferocytosis. To this end, I used total RNA-sequencing as well as de novo proteomics analyses to determine global transcriptional and translational changes. Sequencing data confirmed that efferocytosis induced a pro-resolution signature in inflammatory Mf and pointed towards translational regulation because the related integrated stress response was enriched upon efferocytosis. While changes of gene expression between efferocytic and non-efferocytic Mf appeared rather small at the transcriptional level, I observed considerable differences at the level of de novo synthesized proteins. This finding suggests a regulation at the level of translation. Furthermore, the tight connection between translational and metabolic changes was confirmed by enriched metabolism-associated terms of targets upregulated by efferocytosis at both RNA and de novo protein level. Interestingly, analysis of translationally regulated targets in response to inflammatory stimulation showed reduced translation for most targets, with only little impact of efferocytosis. Among those targets, I identified pro-resolving matrix metallopeptidase 12 (Mmp12) as a novel candidate, which showed translational repression during early inflammation and translational increase during the resolution phase. Noteworthy, a first indicator for a potential translation regulatory component of Mmp12 were the extremely high mRNA levels and not overly high de novo protein levels. Validation experiments recapitulated a slight elevation of Mmp12 mRNA expression and a significant downregulation of MMP12 intracellular protein levels in inflammatory Mf, as observed in the RNA-seq and de novo proteomics datasets. To investigate whether the discrepancy in mRNA and protein expression were due to changes in translation, I applied polysomal fractionation analysis to determine the translational status of Mmp12. Inflammatory Mf displayed a significantly lower relative Mmp12 mRNA abundance in the late polysomes compared to naïve Mf, suggesting reduced translational efficiency upon inflammatory stimulation. Consequently, extracellular MMP12 levels in the supernatant of inflammatory Mf decreased, although with a slight delay.
The functional impact of attenuated Mmp12 translation upon inflammatory stimulation was assessed in migration assays. While siRNA-mediated knockdown of Mmp12 did not alter Mf migration on uncoated plates, it increased migration 3-fold on matrigel/elastin-coated plates. Importantly, the increase in migrated distance driven by siMmp12 could be lowered by the addition of exogenous recombinant MMP12 protein. In line with reduced Mmp12 translation and MMP12 protein in inflammatory Mf, I observed a significant increase in cell migration on matrigel/elastin-coated plates, while it remained unaltered on uncoated plates. Consequently, Mf elastase MMP12 degrades elastin, thereby cell migration along elastin fibers is diminished. In inflammatory Mf, Mmp12 is translationally downregulated, thereby enhancing the migratory capacity.
In summary, the present study identifies a substantial contribution of translational regulation in the course of inflammation shown by high changes between inflammatory naïve and efferocytic Mf at the de novo proteomic level. Specifically, I was able to determine the translational regulation of pro-resolving Mmp12, which is repressed during early inflammation and recovers during the resolution phase. Functionally, translational control of MMP12 emerged as a strategy to alter the migratory properties of Mf, enabling enhanced, matrix- dependent migration of Mf during the early inflammatory phase, while restricting migration during the resolution phase.
Ziel: Nebennierenraumforderungen können sonographisch mit guter Sensitivität und Spezifität erkannt werden. Ziel der vorliegenden Studie war es, die Wertig-keit der Kontrastmittel-Sonographie (CEUS = contrast enhanced ultrasound) unter Verwendung von Zeit-Intensitäts-Kurven für die Charakterisierung von Nebennierenraumforderungen zu bewerten.
Material und Methoden: 108 Patienten mit 116 Raumforderungen der Neben-niere erhielten einen Ultraschall der Nebenniere, inklusive einer Kontrastmittel-Sonographie mit dem Kontrastmittel SonoVue®. Die Kontrastmitteldynamik wurde mittels Zeit-Intensitätskurven aufgezeichnet. Anhand der Kontrastmittel-anflutungszeit wurden folgende vier Kontrastmittelanreicherungsmuster ver-wendet, welche in einer Pilotstudie1 entwickelt wurden: Anreicherungsmuster I = früh arterielle Kontrastmittelanreicherung, Anreicherungsmuster II = arterielle Kontrastmittelanreicherung, Anreicherungsmuster III = späte Kontrastmittelan-reicherung, Anreicherungsmuster IV = keine Kontrastmittelanreicherung. Zu-sätzlich erhielten alle Patienten eine Beurteilung der Nebenniere durch ein zweite Bildgebendes Verfahren (Computertomographie (CT) oder Magnetresonanztomographie (MRT)) sowie eine laborchemische Hormondiagnostik. In Fällen mit malignitätsverdächtigem Befund erfolgte eine Biopsie oder Adrenalektomie.
Ergebnisse: CEUS- Anreicherungsmuster I und II konnten bei allen Patienten mit primärem oder sekundärem Malignom der Nebenniere (n = 16) nachgewie-sen werden. Die Sensitivität der CEUS für die Diagnose einer malignen Neben-nierenraumforderung betrug 100% (95% CI [75; 100]) und die Spezifität 67% (95% CI [56; 75]). Bei 40 Nebennierenraumforderungen war die Histologie die Referenzmethode. In 68% dieser Nebennierenraumforderungen waren MRT/CT und CEUS kongruent in der Beurteilung der Dignität. Schlussfolgerung: Die Kontrastmittel-Sonographie ist eine nützliche ergän-zende Methode in der Aufarbeitung von Nebennierenraumforderungen mit exzellenter Sensitivität für die Diagnose eines Malignoms.