Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (711) (remove)
Language
- German (711) (remove)
Has Fulltext
- yes (711) (remove)
Is part of the Bibliography
- no (711)
Keywords
- HIV (5)
- Depression (4)
- Hepatitis C (4)
- Prostatakarzinom (4)
- Autismus (3)
- Glioblastom (3)
- Knochenersatzmaterial (3)
- Leberzirrhose (3)
- Medizinstudierende (3)
- Neuroblastom (3)
Institute
- Medizin (711) (remove)
Die vorliegende Studie widmete sich der Untersuchung von mikrostrukturellen Eigenschaften im Gehirn von Patienten mit Epilepsie, bei denen im herkömmlichen Magnetresonanztomografie (MRT) keine strukturellen Anomalien festgestellt wurden. Epilepsie ist eine komplexe neurologische Störung, die durch wiederkehrende epileptische Anfälle gekennzeichnet ist. I Bisher wurde die Beeinträchtigung der Hirnmikrostruktur in dieser Gruppe kaum erforscht, obwohl aufgrund pathologischer Umstrukturierungen zerebraler Netzwerke, neuronaler Hyperaktivität und Hypersynchronisation ähnliche Schäden wie bei Patienten mit sichtbaren Läsionen angenommen werden könnten. Zur Untersuchung der zerebralen Mikrostruktur wurden in dieser Studie hochauflösende quantitative Tl-, T2- und Protonendichte (PD)-Verfahren in Kombination mit einer Gewebesegmentierung auf Basis synthetischer Anatomien verwendet.
Es wurden insgesamt 27 Epilepsiepatienten rekrutiert, bei denen mittels herkömmlicher MRT keine strukturellen Läsionen im Gehirn festgestellt wurden. Die MRT-Daten wurden mit einem 3-Tesla-MAGNETOM-TRlO-MR-Scanner erfasst, der mit einer 8-Kanal-Kopfspule ausgestattet war. Die quantitative MRTTechnik ermöglichte die Messung von Tl-, T2- und PD Werten, um die mikrostrukturellen Eigenschaften des kortikalen Gewebes zu analysieren. Die kortikale graue Substanz wurde analysiert, indem zur Vermeidung von Partialvolumeneffekten Tl-, T2- und PD-Werte aus den zentralen 20% des Kortex ausgelesen und in Oberflächendatensätzen gespeichert wurden. Die Gruppenvergleiche wurden dann mittels statistischer Analysen (allgemeines lineares Modell) und Permutationssimulationen durchgeführt, um Cluster zu identifizieren, die auf mögliche Gruppenunterschiede hinweisen. Für die weiße und tiefe graue Substanz erfolgte eine „region of interest"-basierte Analyse und eine Voxel-weise Analyse.
Die beschriebenen Analysen der quantitativen MRT-Daten zeigten keine signifikanten Unterschiede der Tl-, T2- oder PD-Werte zwischen den Gruppen. Weder in der grauen noch weißen Substanz ergaben sich demnach Hinweise auf mikrostrukturelle Veränderungen bei Patienten mit MRT-negativer Epilepsie.
Die Ergebnisse zeigen, dass zukünftige wissenschaftliche Untersuchungen erforderlich sein werden, um die maßgeblichen Faktoren und Mechanismen zu ermitteln, die zur mikrostrukturellen Schädigung von Gehirngewebe in unterschiedlichen Untergruppen von Epilepsiepatienten beitragen.
Therapierefraktärer Schmerz ist ein weit verbreitetes, äußerst belastendes Leitsymptom rheumatischer Erkrankungen. Viele Betroffene weichen daher bei Versagen der Standardmedikation selbstständig auf Cannabis oder die strukturell verwandte Substanz Palmitoylethanolamid (PEA) als Add-On- oder Alternativtherapie aus, obwohl dies in Deutschland bisher nur eingeschränkt zulässig ist. Die deutsche Gesetzgebung ist diesbezüglich nicht eindeutig, weshalb Ärzt:innen in ihrer Entscheidung, Cannabis zu verschreiben, auf Leitlinien, Fallberichte und Expert:innenmeinungen zurückgreifen müssen. Dies führt zu schwierigen Einzelfallentscheidungen, da sich die derzeitige Datenlage zu Cannabis-based Medicine (CBM) bzw. PEA und Rheuma als mangelhaft darstellt und die Leitlinien dementsprechend keine klaren Empfehlungen enthalten. Ziel der vorliegenden Arbeit ist es, die vorhandene Evidenz zusammenzufassen, zu ordnen und anhand der Hill-Kriterien den möglichen kausalen Zusammenhang zwischen der Einnahme von CBM bzw. PEA und der analgetischen Wirkung bei Rheumaschmerzen zu prüfen.
ADHS im Erwachsenenalter ist eine komplexe Erkrankung, die durch verschiedene diagnostische Instrumente erfasst wird. Aktuell spielen dabei vor allem die klinische Exploration, Interview- und Fragebogendaten eine Rolle.
Obwohl bei Patient*innen vielfältige kognitive Einschränkungen bestehen, wird die Verwendung neuropsychologischer Daueraufmerksamkeitstests (CPTs) in den klinischen Leitlinien nur ergänzend erwähnt. Validität und Nützlichkeit von CPTs bei ADHS Patient*innen wird aufgrund der mangelnden Sensitivität und
Spezifität immer wieder kritisch diskutiert. Multidimensionale Ansätze, in denen verschiedene neuropsychologische Beurteilungen mit klinischen Parametern kombiniert werden, sollen das Aufstellen einer ADHS Diagnose im Erwachsenenalter verbessern. Die vorliegende Studie untersucht zwei verschiedene CPTs bezüglich deren Vergleichbarkeit und deren Verknüpfung mit klinischen Parametern. Ein direkter Vergleich innerhalb derselben Stichprobe ist bisher nicht durchgeführt worden, könnte jedoch wichtige Implikationen für die Testauswahl und darauffolgende klinische Interventionen haben. Die klinische Stichprobe besteht aus zufällig ausgewählten erwachsenen Patient*innen, die sich in der ADHS Ambulanz der Klinik für Psychiatrie, Psychosomatik und Psychotherapie des Universitätsklinikums Frankfurt zur diagnostischen ADHS Beurteilung zwischen Mai und November 2019 vorstellten. Die Patient*innen wurden von erfahrenen Ärzt*innen mithilfe des strukturierten diagnostischen Interviews für ADHS bei Erwachsenen (DIVA 2.0) befragt. Au§erdem wurden Schulzeugnisse bewertet und die medizinische Vorgeschichte erhoben. Anschließend wurden die Patient*innen mit dem Wender-Reimherr Interview (WRI) von einer unabhängigen Interviewerin befragt und füllten die folgenden Selbstbeurteilungsfragebögen aus: Kurzform der Wender-Utah Rating Scale (WURS-k), Impulsive Behavior Scale (UPPS) und General Health Questionnaire (GHQ-28). Alle Patient*innen nahmen anschließend an der Testung mit zwei CPTs teil: dem Quantified Behavior Test (Qb-Test) und Nesplora Aquarium [9]. Der Qb-Test misst neben Unaufmerksamkeit und Impulsivität auch Hyperaktivität mithilfe einer Infrarot Kamera und eines Reflektors, welche das Bewegungsmuster während der Testung aufzeichnen. In Nesplora Aquarium wird virtuelle Realität genutzt, um das Bewegungsmuster mithilfe eines optischen Gerätes, das mit Sensoren und Lautsprechern ausgestattet ist, aufzuzeichnen. Es zeigte sich, dass die übergreifende Vergleichbarkeit beider Tests begrenzt ist. Trotz der kongruenten Messung von Unaufmerksamkeit in beiden Tests konnten keine Korrelationen mit den klinischen Parametern festgestellt werden. Hyperaktivität ist in beiden Tests positiv mit aktuellen ADHS Symptomen assoziiert, wobei der Qb-Test darüber hinaus noch Korrelationen mit ADHS Symptomen aus der Kindheit aufweist. Impulsivität stellte sich als ein unabhängiges Konstrukt heraus, sowohl die Korrelation zwischen beiden Tests als auch die Assoziation mit klinischen Parametern betreffend. Dies stellt in Frage, ob ein homogenes mpulsivitätskonstrukt existiert, welches sich in neuropsychologischen Tests und klinischen Symptomen abbildet. Insgesamt ermöglicht die Studie einen guten Vergleich beider CPTs und zeigt detaillierte Informationen über die
Kompatibilität mit klinischen Symptomen auf. Unaufmerksamkeit stellte sich als ein basaler Faktor heraus, der zwischen beiden Tests über alle Patient*innen hinweg überlappt. Da dieser Faktor jedoch nicht mit klinischen Parametern korreliert, unterstreicht dies die Problematik, subjektive mit objektiven Methoden in der ADHS Diagnostik zu verbinden. Die aktuellen Ergebnisse bezweifeln die einfache Anwendung sogenannter objektiver Messverfahren in der klinischen ADHS Diagnostik aufgrund ihrer fragwürdigen Validität. Die Ergebnisse der Studie verdeutlichen die Notwendigkeit eines neuen diagnostischen Ansatzes im Sinne der Präzisionsmedizin, welcher über die konventionellen Klassifikationssysteme hinaus passende individuelle Lösungen für Diagnostik und Behandlung ermöglicht.
In der vorliegenden Dissertation wird auf diesen Ergebnissen basierend der Goldstandard der aktuellen ADHS-Diagnostik unter Beachtung der Leitlinien diskutiert. Die untersuchten CPTs werden unter Berücksichtigung der Gütekriterien guter diagnostischer Verfahren überprüft. Das Potenzial neuropsychologischer Testverfahren im Hinblick auf die Steigerung von Objektivität, Validität und Differenziertheit der Diagnosen wird untersucht und Empfehlungen für die klinische Anwendung formuliert.
Die Zöliakie ist eine immunvermittelte Systemerkrankung, die durch den Konsum glutenhaltiger Nahrung ausgelöst werden kann. Hierbei spielen sowohl eine genetische Prädisposition als auch verschiedene Umweltfaktoren eine Rolle. Die wissenschaftliche und gesellschaftliche Relevanz der Zöliakie hat in den letzten 25 Jahren zunehmend an Bedeutung gewonnen. Was man heute über die Erkrankung weiß, ist Ergebnis einer Vielzahl von Studien und Veröffentlichungen.
Ziel dieser Arbeit war anhand von szientometrischen Analysen ein umfassendes Bild über diese Forschungslandschaft zu erstellen. Es wurden dabei sowohl quantitative als auch qualitative Analyseverfahren zur Anwendung gebracht.
Refraktives und visuelles Ergebnis nach Neuausrichtung von rotierten torischen Intraokularlinsen
(2023)
Hintergrund und Ziel der Studie
Das Ziel der Studie ist die Beurteilung des refraktiven und visuellen Ergebnisses von Patienten mit fehlausgerichteten torischen IOLs nach operativer Neuausrichtung, mit und ohne Rückberechnung der torischen Achse nach Implantation der IOL.
Methoden
Dies ist eine retrospektive Analyse von 39 Patienten, die sich von August 2013 bis Dezember 2019 an der Klinik für Augenheilkunde der Goethe-Universität Frankfurt am Main einer zweiten Operation zur Neuausrichtung einer fehlausgerichteten torischen IOL unterzogen haben. Die zweite Operaton zur Korrektur der Achsenlage wurde auf zwei Weisen durchgeführt: In der ersten Gruppe wurde auf die primär berechnete Achse rotiert und in der zweiten Gruppe wurde die Rotation auf eine neu berechnete Achse mit dem Rückrechner von astigmatisfix.com vorgenommen.
Ergebnisse
In dieser retrospektiven Studie wurden 39 Augen von 39 Patienten eingeschlossen. Die Ergebnisse nach der ersten Operation (die Linsenoperation) zeigte eine Besserung der (BCVA) von 0,28 ± 0,22 logMAR (20/40) auf 0,15 ± 0,14 logMAR (20/32). Nach der Linsenoperation zeigten die torischen IOLs durchschnittlich eine postoperative Fehlstellung von 25,69° ± 26,06°. Verglichen vor und nach der Rotation der torischen IOL blieb der BCVA unverändert bei 0,14 ± 0,14 logMAR (20/32), während sich der UDVA signifikant von 0,39 ± 0,29 logMAR (20/50) auf 0,27 ± 0,18 logMAR (20/40) verbesserte. Das refraktive Ergebnis zeigte eine Reduktion sowohl in der Restsphäre sowie in dem Zylinder. Die Ergebnisse der Gruppenanalyse demonstrierte für die erste Gruppe (Neuausrichtung auf die präoperativ berechnete Achse) eine postoperative UDVA 0,24 ± 0,16 logMAR mit einem Zylinder von 0,90 ± 0,90 D. In der zweiten Gruppe (Ausrichtung auf eine zurückberechnete Achse) betrug die UDVA 0,32 ± 0,20 logMAR mit einem Zylinder von 0,76 ± 0,72 D. Die IOLs mit hoher Zylinderstärke (≥ 2 D) zeigten bei der Rückberechnung eine stärkere Abnahme des Restzylinders als IOL mit niedriger Zylinderstärke (< 2 D) (27 % vs. 9 %). Der mittlere sphärische Äquivalent-Vorhersagefehler der Rückberechnung betrug 0,54 ± 0,55 D.
Schlussfolgerung
Die Neuausrichtung von fehlausgerichteten torischen IOLs verbessert die Sehschärfe und reduziert verbleibende Brechungsfehler. Insbesondere bei IOL mit hoher Zylinderstärke kann ein besseres refraktives Ergebnis erzielt werden, wenn vor der Neuausrichtung eine Rückberechnung durchgeführt wird.
Die kathetergestützte Thrombektomie ist, spätestens seitdem 2015 verschiedene Studien ihre Überlegenheit zur alleinigen medikamentösen Behandlung gezeigt haben, die bevorzugte Therapie bei Patienten mit akutem ischämi-schem Schlaganfall und embolischen Verschluss einer großen intrakraniellen Arterie. Obwohl die mechanische Thrombektomie mittlerweile zur Standardthe-rapie zählt, ist der Zusammenhang zwischen Lokalisation des Infarktareals und klinischem Behandlungsergebnis nach Thrombektomie bisher nicht gut untersucht. Die dieser Studie zugrunde liegende Hypothese war, dass Infarktdemar-kationen in der zentralen Corona radiata, Capsula interna und/oder den Ba-salganglien aufgrund einer potenziellen Schädigung der Fasern des Tractus corticospinalis mit einem schlechten Behandlungsergebnis (mRS 3 bis 6) nach mechanischer Thrombektomie assoziiert sind. Ziel dieser Studie war es somit, den Behandlungserfolg nach Thrombektomie bei Patienten mit entsprechender Infarktlokalisation zu untersuchen.
Hierfür wurden die Daten von 70 erwachsenen Patienten analysiert, die im Zeitraum von April 2016 bis Januar 2020 im Institut für Neuroradiologie des Universitätsklinikums Frankfurt aufgrund eines ischämischen Infarktes mit entsprechender Infarktdemarkation eine mechanische Thrombektomie erhalten haben. Alle erhobenen Daten stammen aus der elektronischen Krankenakte, dem Radiologie-Informations-System oder einem prospektiven Register zur internen Qualitätssicherung. Es erfolgte außerdem eine Unterteilung der Studi-enkohorte anhand des zusätzlichen kortikalen Infarktausmaßes bzw. der kortikalen Infarktlokalisation, um den Einfluss kortikaler Infarkte auf das Behandlungsergebnis beurteilen zu können. Die wichtigsten Endpunkte der Studie waren das klinische Behandlungsergebnis gemessen anhand der mRS nach 90 Tagen sowie die Ergebnisse der Subgruppenanalyse.
51,4 % der Studienpopulation erzielten nach 90 Tagen ein gutes klinische Be-handlungsergebnis (mRS 0 bis 2), 32,9 % der Patienten erreichten sogar ein exzellentes Ergebnis (mRS 0 bis 1). Insgesamt verstarben innerhalb von 90 Tagen nach dem Schlaganfallereignis 15,7 % aller Patienten und 32,9 % konn-ten nur ein schlechtes Behandlungsergebnis (mRS 3 bis 5) erzielen. Die Ergebnisse zeigen, dass die in der routinemäßig angefertigten Bildgebung nachgewiesenen Infarktdemarkationen im Verlauf der langen Bahnen nicht zwingend ein schlechtes Behandlungsergebnis bedingen. Bei Patienten mit ausge-dehnter Beteiligung des Kortex und Infarkten in definierten eloquenten Arealen waren die klinischen Behandlungsergebnisse allerdings schlechter als in der Vergleichsgruppe mit isolierten Läsionen der langen Bahnen.
Um künftig ein besseres Verständnis darüber zu erlangen, welche Patienten mit bestimmter Infarktlokalisation von einer mechanischen Thrombektomie langfristig profitieren können, sind weitere prospektive Studien mit exakt definierten Vergleichsgruppen und höherwertiger MRT-basierter Bildgebung erforderlich.
In den letzten Jahren haben sich die Therapiemöglichkeiten des Mammakarzinoms deutlich verbessert. Durch die Analyse von genetischen Veränderungen in den Tumorzellen oder in der Keimbahn ist eine zielgerichtete Tumortherapie bei einigen Subgruppen möglich; z.B. mit PARP- und PIK3CA-Inhibitoren.
In einer retrospektiven Analyse wurde in dieser Arbeit untersucht, wie genetische Mutationsanalysen in einer onkologischen Schwerpunktpraxis eingesetzt werden. Es sollte untersucht werden, wie häufig PatientInnen in einer onkologischen Praxis mit metastasiertem Mammakarzinom eine Mutationsanalyse brustkrebsassoziierter Gene erhalten haben, und welche Konsequenzen daraus gezogen wurden. Dabei wurde der Zeitraum von 2019 – 2022 betrachtet. Mithilfe der Software Albis wurden Daten von 49 PatientInnen identifiziert. 40 PatientInnen haben eine Keimbahndiagnostik der Gene BRCA1/2 erhalten. Von den PatientInnen, die die BRCA1/2-Analyse bekommen haben, konnten in 20% der PatientInnen eine Mutation in BRCA1 oder 2 detektiert werden. Bei den meisten dieser PatientInnen wurde der PARP Inhibitor Olaparib therapeutisch eingesetzt. 10 PatientInnen erhielten eine PIK3CA-Analyse, 9 von ihnen mittels PCR und eine mittels NGS. In dieser Gruppe wurde bei einer Patientin eine Mutation im PIK3CA-Gen ermittelt. 15 PatientInnen haben eine Multigenpanel-Diagnostik erhalten. Dabei ist eine Reihe weiterer genetischer Veränderungen nachgewiesen worden. Für einige dieser Veränderungen stehen therapeutische Möglichkeiten zur Verfügung, die zwar nicht für das Mammakarzinom, aber für andere Tumorentitäten bereits zugelassen sind.
Das periinterventionelle Management von antikoagulierten Patienten stellt eine große Herausforderung im klinischen Alltag dar. Die genaue Abwägung von Blutungs- und Thromboembolierisiko ist essentieller Bestandteil der Frage, ob und wann die blutgerinnungshemmende Medikation pausiert werden soll. Ist das Zeitintervall zur geplanten Intervention zu kurz gewählt und daher die antikoagulierende Wirkung der Arzneimittel noch ausgeprägt, kann es leichter zu intra- und postoperativen Blutungen kommen. Umgekehrt kann es bei einer zu langen Unterbrechung der Antikoagulation zur Entwicklung von Thromboembolien kommen. Um diese Risiken zu minimieren und die Patientensicherheit zu verbessern ist ein leitliniengerechtes Handeln von großer Bedeutung. Durch den Einfluss des demographischen Wandels und die steigende Inzidenz der Erkrankungen, die eine Antikoagulation notwendig machen, erhöht sich ebenso die Anzahl der antikoagulierten Patienten, die sich einer elektiven Operation unterziehen müssen, wodurch das Thema schon seit Jahren an Bedeutung gewinnt. Trotz diverser Leitlinien, die in den letzten Jahren publiziert wurden, findet man im klinischen Alltag oftmals nicht auf Anhieb die passende Empfehlung, da diese von dem Einfluss etlicher Risikofaktoren, wie Alter, Geschlecht, Nierenfunktion u.a. bestimmt werden sollte. Der Einsatz eines Clinic Decision Support Systems (CDSS) kann ein leitliniengerechtes Handeln möglicherweise verbessern, indem patientenspezifische Risikokonstellationen anhand europäischer Leitlinien geprüft werden und dem Nutzer eine optimale Vorgehensweise unterbreitet wird.
Zielsetzung: In dieser Arbeit, soll die Eignung eines klinischen Entscheidungs-Unterstützungssystems (CDSS) anhand eines Multiple Choice (MC) Tests mit 11 kliniknahen Fallbeispielen, bezüglich evidenzbasierten perioperativen Managements von antikoagulierten Patienten untersucht werden.
Methoden: Im Rahmen einer klinischen prospektiven randomisierten multizentrischen Simulationsstudie beantworteten Ärztinnen und Ärzte einen Multiple Choice Test bestehend aus 11 Fallbeispielen zum Thema periinterventionelles Management von antikoagulierten Patienten. Dabei sollte zu - 5 - jedem Beispiel zwei möglichst leitliniengerechte Empfehlung ausgewählt werden.
Die Ärztinnen und Ärzte wurden vorab in zwei Gruppen randomisiert. Der PERI-KOAG Gruppe wurde das CDSS zur Beantwortung der Fragen zur Verfügung gestellt. Die Kontroll-Gruppe hatte hingegen keinen Zugriff auf die Applikation und sollte den Test mit frei zugänglichen Hilfsmitteln, zum Beispiel Leitlinien oder anderen allgemein verfügbaren Apps beantworten. Die beiden Gruppen wurden anschließend in Bezug auf die Gesamtergebnisse, die Bearbeitungszeit und Berufserfahrung verglichen.
Ergebnisse: Insgesamt wurden 168 Teilnehmer in die beiden Gruppen randomisiert, wovon 76 Teilnehmer, 42 Teilnehmer der PERI-KOAG Gruppe und 34 Teilnehmer der Kontroll-Gruppe den MC-Test vollständig beendeten und in die weitere Auswertung eingeschlossen wurden. Der MC-Test konnte mit maximal 22 Punkten (=100%) abgeschlossen werden. Die PERI-KOAG Gruppe erreichte dabei im Durchschnitt signifikant bessere Ergebnisse als die Kontroll-Gruppe (82 ±15% vs. 70 ±10%; 18 ±3 vs. 15 ±2 Punkte; P =0,0003). Unter Berücksichtigung der Bearbeitungszeit erzielten Teilnehmer mit längerer Bearbeitung durchschnittlich höhere Ergebnisse, als Kollegen welche den Test schneller abschlossen. Dieser Effekt zeigte sich in beiden Gruppen. Ein signifikanter Unterschied konnte hierbei nur in der PERI-KOAG Gruppe gezeigt werden (PERI-KOAG Gruppe ≥33 min. 89 ±10% (20 ±2 Punkte) vs. <33 min. 73 ±15% (16 ±3 Punkte), P =0,0005). Innerhalb der PERI-KOAG Gruppe zeigten sich tendenziell höhere Ergebnisse innerhalb der erfahreneren Gruppe (>5 Jahre Berufserfahrung), aber keinen signifikanten Unterschied zu weniger (≤5 Jahre Berufserfahrung) erfahrenen Kollegen (87 ±10% (19 ±2 Punkte) vs. 78 ±17% (17 ±4 Punkte), P =0,08). Dagegen konnte in der Kontroll-Gruppe kein Unterschied zwischen den Testresultaten von mehr und weniger erfahrenen Teilnehmern gezeigt werden (>5 Jahre: 71 ±8% (16 ±2 Punkte) vs. ≤5 Jahre: 70 ±13% (15 ±3 Punkte) P =0,66).
Diskussion: Diese Arbeit zeigt, dass im Rahmen eines MC-Tests mit Hilfe des CDSS ein leitliniengerechtes perioperatives Management von antikoagulierten Patienten signifikant verbessert werden kann. Eine fachgerechte Anwendung des Tools ist essentiell, um schwerwiegende Folgen, wie Blutungen oder Thromboembolien zu vermeiden. Eine längere Bearbeitungszeit und mutmaßlich intensivere Nutzung des CDSS, geht mit besseren Ergebnissen einher als eine schnelle Testbearbeitung. Ein insgesamt verbessertes leitliniengerechtes Management zeigt, unabhängig von der Berufserfahrung der Teilnehmer, das große Potential des CDSS.
In Deutschland existieren nur wenige Ergebnisse aus der klinischen Forschung, die im Kontext der allgemeinmedizinischen Versorgung gewonnen wurden. Dies ist u.a. damit zu begründen, dass Forschung in der Allgemeinmedizin in den Praxisalltag eingebunden sein muss, worauf die gegenwärtige Versorgungsstruktur nicht ausgelegt ist. Damit für Hausärztinnen und Hausärzte Forschung im Praxisalltag möglich ist, müssen also Strukturen geschaffen werden, die Forschung ermöglichen. Eine solche Struktur bieten Forschungspraxennetze (FPN) wie beispielsweise das Forschungspraxennetz „ForN“. ForN wurde vom Institut für Allgemeinmedizin der Goethe-Universität Frankfurt am Main im Jahr 2011 initiiert. In ForN tätige Forschungspraxen können sich mit einer Gültigkeit von fünf Jahren als „akademische Forschungspraxis“ akkreditieren lassen, wenn sie bestimmte Anforderungen erfüllen. Dazu gehört die Teilnahme an für Forschungsprojekte qualifizierenden Fortbildungen oder an Netz-begleitenden Treffen für Ärztinnen, Ärzte und Medizinische Fachangestellte (MFA) sowie die regelmäßige Teilnahme an Forschungsprojekten. Eine Verlängerung der Akkreditierung nach fünf Jahren ist möglich. Bisherige Publikationen über Forschung zu FPN bieten insbesondere Einblicke in Faktoren, welche den Beitritt in ein FPN fördern oder eher behindern. Forschung, die Faktoren der längerfristigen Mitwirkung der Praxen an FPN (wie Austrittsgründe, aber auch Motivation, eine Re-Akkreditierung anzustreben) untersucht, ist im Gegensatz dazu rar.
Diese Dissertation untersucht diese Faktoren anhand der folgenden Fragen: warum traten Forschungspraxen im Laufe der Zeit aus dem FPN ForN aus (ehemalige Mitglieder) und warum strebten andere eine Re-Akkreditierung an (aktive Mitglieder)? Weitere Unterfragen dieser Arbeit sind: welche Faktoren motivierten oder erschwerten hausärztlichen Teams eine Mitwirkung als Forschungspraxis? Wie wurde die bisherige Zusammenarbeit gesehen und als wie gut machbar wurden die Anforderungen zur Erlangung der Bezeichnung „akademische Forschungspraxis“ eingeschätzt?
Es wurde ein Fragebogen für ehemalige ärztliche ForN-Mitglieder entworfen und eingesetzt. Des Weiteren wurden Daten aus Fragebogenerhebungen von aktiven ForN-Mitgliedern (Hausärztinnen, Hausärzte, MFA) aufbereitetet. Die Daten wurden mithilfe der Datenanalysesoftware SPSS deskriptiv unter Angabe der Häufigkeiten, Mittelwerte, Standardabweichungen und Spannweiten ausgewertet.
Es konnten 14 Fragebögen von ehemaligen ärztlichen ForN-Mitgliedern aus 13 Praxen analysiert werden. Von den aktiven ForN-Mitgliedern wurden Fragebögen von 48 Ärztinnen und Ärzten sowie 57 MFA aus 41 Praxen ausgewertet. Als Gründe für den Austritt wurde von ehemaligen Mitgliedern insbesondere Zeitmangel und eine hohe Arbeitsbelastung angegeben. Weitere erschwerende Umstände waren ein Mangel an MFA, eine große Entfernung zum Standort des Instituts für Allgemeinmedizin und persönliche Gründe. Bis auf letztere Angabe waren dies auch die größten Hürden während der Teilnahme, die von aktiven Mitgliedern beschrieben wurden. Einen Beitrag für die Allgemeinmedizin zu leisten, persönliche Kompetenzen und Kompetenzen des Praxisteams zu erweitern sowie Abwechslung im Praxisalltag zu erleben, waren die wichtigsten motivierenden Faktoren einer Teilnahme im Forschungspraxennetz ForN, sowohl für aktive als auch für ehemalige Mitglieder. Die Anforderungen des FPN ForN an die Akkreditierung als Forschungspraxis wurden aus Perspektive der aktiven Mitglieder überwiegend als machbar empfunden. Nur die Umsetzung zusätzlicher, nicht verpflichtender Aktivitäten wurde als schwieriger erfüllbar bewertet. Bezüglich der Zusammenarbeit mit dem Institut für Allgemeinmedizin gaben ehemalige ärztliche ForN-Mitglieder an, eine gute Vorbereitung auf Forschungsaufgaben erfahren zu haben, dem ForN-Team des Instituts für Allgemeinmedizin vertrauen zu können und dass die Kommunikation allgemein gut war.
Gründe für den Austritt aus dem FPN und Hindernisse während der Teilnahme in ForN waren überwiegend externe Faktoren wie Zeitmangel, eine hohe Arbeitsbelastung oder ein Mangel an MFA. Auf diese Faktoren hat das Institut für Allgemeinmedizin keinen direkten Einfluss, es kann lediglich die administrativen Aufgaben innerhalb eines Forschungsprojektes für das Team einer Forschungspraxis so vorstrukturieren, dass sie möglichst gut im Praxisalltag bewältigt werden können. Ein Vergleich mit Publikationen, die sich mit förderlichen und hinderlichen Faktoren eines Beitritts in ein FPN auseinandersetzen, zeigt, dass ähnliche Gründe auch die längerfristige Mitwirkung beeinflussen.
Im Rahmen der Versorgung von polytraumatisierten (schwerstverletzten) Patienten ist insbesondere die systemische Inflammation zu beachten. Durch das initiale Trauma (“first hit“) kommt es zu einer systemischen Dysregulation der inflammatorischen Kaskaden, wobei sowohl eine überschießende (SIRS/Sepsis) wie auch unterschießende Reaktion (CARS) zu schweren Komplikationen wie Multiorganversagen bis hin zum Tod führen kann. Die notfallmässige chirurgische Versorgung fügt durch multiple Faktoren wie Weichteilverletzung, Blutverlust und Intubation dem Patienten einen “second hit“ zu, welcher sich auf den “first hit“ aufsummieren und besagte Komplikationen induzieren kann. Aufgrund dessen wurden verschiedene Therapiekonzepte entwickelt wie beispielsweise die “Damage control surgery“, welche durch minimalinvasive Techniken die notfallmässig versorgungsbedürftigen Verletzungen temporär stabilisiert/versorgt, bis der Patient sich physiologisch stabilisiert und definitiv versorgt werden kann. Eine weitere Strategie stellt die „Safe Definitive Surgery“ dar, welche eine Synopsis bildet aus zu einen frühzeitiger definitiver Versorgung gepaart mit minimalinvasiven Techniken, um während der Operation multipler Frakturen intraoperativ anhand der Physiologie des Patienten regelmäßig zu reevaluieren und daran zu adjustieren.
Bei der definitiven Versorgung von langen Röhrenknochen im Schaftbereich werden klinisch standardmässig Marknägel verwendet. Hierbei eröffnet man den langen Röhrenkochen am proximalen Eintrittspunkt, bohrt den Knochen intramedullär mittels “Reamer“ auf und führt den Nagel ein, welchen man mittels Schrauben multidimensional in der Corticalis verriegelt. Hierbei stellt die intramedulläre Aufbohrung den kritischsten Schritt dar, da hierbei zum einen Knochenmark austritt und durch den Bohrer Thermonekrosen im Knochen auftreten können sowie auch Knochenpartikel austreten. Um diese Nachteile zu beheben, wurde der “Reamer-Irrigator-Aspirator“ (RIA) entwickelt, welcher nebst der klassischen Bohrfunktion noch eine Spül-Saugfunktion innehat und somit parallel intramedullär eine Kühlung herbeiführt, wie auch das Knochenmark nebst Knochenpartikeln absaugt. Hiervon gibt es eine ältere (RIA 1) und eine neuere (RIA 2) Version, wobei sich diese geringfügig in Grösse des Bohrkopfes und der Saugfunktion wie auch im Handling unterscheiden. Wenig ist jedoch zum aktuellen Zeitpunkt bekannt, welche Auswirkungen diese unterschiedlichen Versionen verglichen mit dem konventionellen “Reamer haben“. Um dies näher zu evaluieren, wurde ein standardisiertes Polytrauma-Modell an 30 Schweinen (Sus scrofa) durchgeführt. Unter konstanter Analgesie wurde nach Erreichen einer standardisierten Baseline an 24 der Tiere ein Polytrauma, bestehend aus unilateraler Femurfraktur, stumpfem Thoraxtrauma inklusive Leberlazeration und hämorrhagischem Schock ausgeübt. Sechs Tiere fungierten als Kontrollgruppe (sham), welche kein Trauma sowie Therapie erhielten, aber sonst gleich behandelt wurden. Die polytraumatisierten Tiere erhielten Therapie nach Schockraum- und ATLS Versorgung nach dem Trauma. Bestehend aus “Abdominal Packing“, Kreislaufstabilisierung und Versorgung der Femurfraktur mittels intramedullärer Nagelung. Die 24 polytraumtisierten Versuchstiere wurden bezüglich der Versorgung der Femurfraktur in drei Gruppen aufgeteilt: 1) Konventionelles Reaming, 2) RIA 1 und 3) RIA 2. An sechs Zeitpunkte (t1 (-1.5h) - t6 (6h)) über 7.5 Stunden erfolgten regelmäßige Blut- wie Urinentnahmen und eine bronchoalveoläre Lavage vor fachgerechtem Exitus am letzen Zeitpunkt. Anschließend wurde mittels ELISA in besagten Proben das Interleukin-6, Interleukin-8, Interleukin-10 und Tumornekrosefaktor-alpha bestimmt und statistische Unterschiede zwischen den Gruppen ermittelt.
Die Ergebnisse legen nahe, dass die Verwendung des Reamer-Irrigator-Aspirator Typ 2 aufgrund spezifischer Modifikationen verglichen mit seinem Vorgänger (RIA Typ 1) eine geringere inflammatorische Immunantwort aufweist. Verglichen mit dem konventionellen Reaming konnte in unserer Versuchsreihe in Hinblick auf entzündliche Mediatoren systemisch wie lokal kein Unterschied zu der Versorgung mittels RIA aufgezeigt werden. Jedoch präsentierte sich bei der Benutzung des konventionellen Reamers auch in unserer Versuchsreihe das Auftreten einer Fett/Lungenembolie, was bereits in der Literatur als eine gängige Komplikation dieses Instrumentariums beschrieben wird. Zusammenfassend ist der Reaming-Irrigator-Aspirator eine modernisierte Version des konventionellem Reamers, welcher multiple Vorteile aufweist, jedoch im Rahmen der Kostensenkung wahrscheinlich erst im weiteren zeitlichen Verlauf regelmäßige Anwendung in der Klinik finden wird.
Hintergrund und Ziele: Die Hämodialyse ist das am weitesten verbreitete Nierenersatztherapieverfahren und wird auch in den nächsten Jahren von immer mehr Patienten mit akutem und terminalen Nierenversagen beansprucht werden. Ein großlumiger, sicherer und komplikationsarmer Gefäßzugang ist essenziell für die Durchführung einer effizienten Hämodialyse. Während arterio-venöse Zugänge der klar präferierte Gefäßzugang zur chronischen Hämodialyse sind, eignen sie sich aufgrund ihrer Reifungsdauer nicht für Patienten mit akuter Dialysepflichtigkeit oder für Patienten mit untauglichen Gefäßeigenschaften. Für diese Patienten kann die Hämodialyse über einen Vorhofkatheter erfolgen. Die KDOQI Richtlinien (2019) empfehlen die präferierte Punktion der rechten Vena jugularis interna, jedoch muss für Patienten mit thrombosiertem oder obliteriertem Gefäßstatus die Verwendung neuer, unkonventionellerer Zugangswege erwogen werden, um die überlebenswichtige Hämodialyse zu ermöglichen. Ein solcher unkonventioneller Zugangsweg ist der erstmals 2006 von Betz et al. beschriebene Iliakalvenenkatheter, der während seines Beobachtungszeitraums von 1.500 Kathetertagen initial die Sicherheit und Effektivität des Verfahrens vermuten ließ.
Die vorliegende Arbeit stellt eine retrospektive Analyse des Langzeitverlaufs von 95 Iliakalvenenkathetern zur Hämodialyse dar, die in den Jahren 2004 bis 2022 im Universitätsklinikum Frankfurt implantiert wurden. Der nun deutlich längere kumulative Beobachtungszeitraum von 20.252 Tagen soll beurteilen, ob sich die ursprünglich durch Betz et al. beschriebenen Ergebnisse auch im Langzeitverlauf bestätigen und soll weiterführend einordnen, inwieweit der Iliakalvenenkatheter als Option des Zugangsweges zur chronischen Hämodialyse für Patienten mit schwierigem Gefäßstatus in Betracht gezogen werden kann.
Patienten und Methoden: Das Patientenkollektiv bestand aus 79 Patienten (49 Männer und 30 Frauen) eines breiten Altersspektrums zum Zeitpunkt der Implantation (27 bis 84 Jahre), die während des Beobachtungszeitraums einen oder im Verlauf mehrere Dialysekatheter über eine der Iliakalvenen implantiert bekamen. Insgesamt wurden 95 Iliakalvenenkatheter erfasst und im Hinblick auf ihre Liegedauer, Komplikationsraten und Dialyse-Effektivität evaluiert.
Die Datenerhebung erfolgte aus den archivierten Patientenakten und Dialyseprotokollen des Universitätsklinikums Frankfurt und ergänzend mittels Datenanforderung von weiterbehandelnden Zentren, Praxen und Kliniken.
Ergebnisse: Der Iliakalvenenkatheter kam bei einem speziellen Patientenkollektiv zum Einsatz, welches oftmals bereits eine lange nephrologische Krankheitsgeschichte (im Durchschnitt erfolgte die Implantation 895,5 Tage nach der primären Andialyse), mehrere gescheiterte Gefäßzugänge 3,01(±2,97) und keine Alternativen eines sicheren konventionellen Gefäßzugangs zur Hämodialyse aufwiesen. Die Katheter-Anlage verlief bei 98,96% der Implantationsversuche erfolgreich. Alle erfolgreichen Anlagen verliefen komplikationslos. Die durchschnittliche Katheter-Liegedauer betrug 853,7 (± 162,87) Kathetertage und die primary patency der Katheter lag im Mittelwert bei 507,60 (±58,33) Tagen. Die Gesamt-Infektionsrate der Iliakalvenenkatheter lag bei 0,69/1.000 Kathetertage und eine Katheter-Dysfunktion war in acht Fällen der Grund der Katheter- Entfernung (8,4%). Die durchschnittliche Urea Reduction Rate betrug 68,9% (± 7,1). Es bestand kein statistisch signifikanter Zusammenhang zwischen Alter (p=0.37), Geschlecht (p=0,61), BMI (p=0.97) oder Seitenlage des Katheters (p=0.22) und der Katheter-Liegedauer. Im Verlauf erfolgte bei drei Patienten eine erfolgreiche Nierentransplantation.
Schlussfolgerungen: Die Implantation des Iliakalvenenkatheters hat eine hohe Erfolgsrate, ein niedriges Komplikationsrisiko, ist technisch leicht zu erlernen und bedarf keiner aufwendigen interventionellen Rahmenbedingungen. Auch im Verlauf zeigt sich ein Komplikationsprofil, das in Bezug auf Katheter-Infektionen, Katheter-Dysfunktion, Katheter-Thrombosen und Komplikations-bedingten Explantationen den etablierten Zugangswegen mindestens gleichwertig ist. Außerdem konnte gezeigt werden, dass der Iliakalvenenkatheter eine lange Komplikations-freie Liegedauer hat und in Einzelfällen auch über mehrere Jahre hinweg eine suffiziente Hämodialyse gewährleisten kann. Geäußerte Bedenken, nach welchen eine spätere Nierentransplantation nicht möglich sei, konnten ausgeräumt werden. Des Weiteren beschreibt die vorliegende Studie erstmalig den Langzeitverlauf des Iliakalvenenkatheters bei einem Patientenkollektiv eines breiten Altersspektrums und zeigte auch die altersunabhängige Eignung des Zugangsweges.
Einleitung: Frailty (engl. für Gebrechlichkeit) bezeichnet eine mit hohem Alter zunehmende Verschlechterung des körperlichen und kognitiven Zustandes von Individuen, woraufhin der Körper nicht mehr in der Lage ist, adäquat auf äußere und innere Stressoren zu reagieren. Frailty ist mit einer erhöhten Morbiditäts- und Mortalitätsrate sowie längerer Krankenhausverweildauer und erhöhter postoperativer Komplikationsrate verbunden und stellt folglich einen chirurgischen Risikofaktor dar.
Problemstellung: Die Relevanz eines strukturierten Frailty Assessments in der präoperativen Risikostratifizierung führte zur Indikationsstellung, diverse validierte Risk Assessment Tools auf ihre prädiktive Vorhersagekraft bezüglich des Auftretens von postoperativen Komplikationen und postoperativer Sterbewahrscheinlichkeit zu untersuchen.
Methoden: In die vorliegende Studie wurden Patienten, die in dem Zeitraum vom 01.09.2018 und 31.01.2019 in der allgemeinchirurgischen Ambulanz vorstellig waren und einen allgemeinchirurgischen Eingriff erhielten, aufgenommen. Mittels Fragebögen wurden die Scores „Risk Analysis Index“, „Edmonton Frail Scale“ sowie „Charlson Comorbidity Index“ präoperativ erhoben und retrospektiv mit Daten aus der digitalen Patientenakte zusammengeführt. Endpunkte waren die 90-Tages- Mortalität sowie das Auftreten von schweren postoperativen Komplikationen ab Clavien Dindo Grad 3b. Die Analyse erfolgte in SPSS mittels Chi-Quadrat Test, t- Test und ROC-Kurven Analysen.
Ergebnisse: Das durchschnittliche Alter der Studienkohorte lag bei 56 ± 15.9 Jahren und der Anteil männlicher Patienten überwog mit 59.2% (n=282).
Die Fragebögen wurden 739 Patienten vorlegt und 476 Patienten konnten in die Datenanalyse eingeschlossen werden. Die 90-Tages-Mortalität lag bei 2.7% (n=13) und 9% (n=43) erlitten schwere postoperative Komplikationen ab Clavien-Dindo Grad IIIb. Die Einteilung nach der ASA-Klassifikation (p=0.024), maligne Diagnosen -7-(p<0.001) und Majorkomplikationen (p<0.001) stellten präoperative Risikofaktoren für postoperative 90-Tage-Mortalität dar. Von den Risk Assessment Scores zeigte lediglich der Risk Analysis Index eine signifikante Korrelation auf (p=0.013). Ein mittels ROC-Analyse ermittelter Cut-Off Wert von 23 klassifizierte 166 (34.9%) Patienten als frail, die mit 69% Sensitivität und 66% Spezifität (AUC=0.735) ein erhöhtes Risiko für postoperatives Versterben innerhalb von 90 Tagen aufwiesen (p=0.008). Risikofaktoren für das Auftreten schwerer postoperativer Komplikationen waren die ASA-Klassifikation (p=0.041), längere Krankenhausverweildauer (p<0.001) und maligne Diagnosen (p<0.001). Der Charlson Comorbidity Index (p=0.031) und RAI-C Werte ≥ 23 (p<0.001) korrelierten signifikant mit Majorkomplikationen. Das Alter ab 65 Jahren stellte mit 77 % Spezifität und 69 % Sensitivität ebenfalls einen prädiktiven Risikofaktor für postoperative Mortalität dar (AUC=0,787).
Schlussfolgerung: Mithilfe validierter Risk Assessment Tools ist es möglich Patienten, die ein erhöhtes Risiko für postoperative negative Ereignisse aufweisen, bereits präoperativ zu erkennen. Dies ermöglicht eine bessere Beurteilung der chirurgischen Indikationsstellung sowie das rechtzeitige Ergreifen von risikominimierenden Maßnahmen. Es ist notwendig die Ergebnisse dieser Arbeit künftig mit risikominimierenden Maßnahmen zu verknüpfen und zu untersuchen, ob die Implementierung der Risk Assessment Tools zu verbesserten postoperativen Ergebnissen führt, wenn modifizierbare Faktoren verbessert werden.
Im Rahmen dieser publikationsbasierten Dissertation wurden drei wissenschaftliche Arbeiten veröffentlicht. Als Erstautorenschaft wurde 2022 die Arbeit “Effectiveness of High-intensity Focused Ultrasound (HIFU) Therapy of Solid and Complex Benign Thyroid Nodules - A Long-term Follow up Two-center Study.” im Journal “Experimental and Clinical Endocrinology & Diabetes” veröffentlicht. Im Folgenden wird der Inhalt dieser Arbeit dargelegt. Ein kurzer Überblick über die Ergebnisse der anderen beiden mitpublizierten Arbeiten findet sich im Kapitel „Weitere Ergebnisse der Arbeitsgruppe“.
Durch die hohe Prävalenz benigner Schilddrüsenknoten sind deren Behandlungsalternativen von großem wissenschaftlichem Interesse. Dabei bildet die nebenwirkungsarme, minimalinvasive Thermoablation mittels high-intensity focused ultrasound (HIFU) eine attraktive Alternative zu herkömmlichen Verfahren wie der Schilddrüsenchirurgie oder der Radioiodtherapie. Bei der HIFU-Echotherapie werden die Schilddrüsenknoten auf 80 - 90 Grad Celsius erhitzt, sodass eine irreversible Koagulationsnekrose entsteht. Um den Therapieprozess und die Indikationsstellung von HIFU bei benignen Schilddrüsenknoten zu optimieren, ist es notwendig, genaue Studien durchzuführen.
Ziel der vorliegenden bizentrischen Langzeitstudie war, die Effektivität von HIFU-Echotherapien bei benignen Schilddrüsenknoten zu evaluieren und erstmalig den Einfluss der Knotenmorphologie auf den Therapieerfolg zu untersuchen. Vor der Therapie und in regelmäßigen Intervallen nach der Therapie wurden die Größe und die Morphologie der Schilddrüsenknoten mittels Ultraschall dokumentiert. In der retrospektiven Studie wurden Daten von 58 Patienten ausgewertet. Dabei wurde die Gesamtpopulation in eine Gruppe mit soliden und in eine Gruppe mit komplexen Knoten eingeteilt. Die durchschnittliche prozentuale Volumenreduktion in jeder Gruppe wurde mit dem Wilcoxon-Signed-Rank Test statistisch analysiert.
Die Gesamtpopulation zeigte eine Volumenreduktion der zuvor abladierten Knoten von 38.86 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p < 0.0001, n = 25), 42.7 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p < 0.0001, n = 18), 62.21 % nach 9 Monaten (Spannweite: 12.88 % - 93.2 %, p = 0.0078, n = 8) und 61.42 % nach 12 Monaten (Spannweite: 39.39 % - 93.2 %, p > 0.05, n = 4). Die soliden Knoten hatten eine Volumenreduktion von 49.98 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p = 0.0001, n = 15), 46.40 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p = 0.001, n = 11), 65.77 % nach 9 Monaten (Spannweite: 39.39 % - 93.2 %, p = 0.0156, n = 7) und 63.88 % nach 12 Monaten (Spannweite: 39.39 % - 93.2%, p > 0.05, n = 2). Komplexe Knoten hatten eine Volumenreduktion von 35.2 % nach 3 Monaten (Spannweite: 5.85 % - 68.63 %, p = 0.002, n = 10), 36.89 % nach 6 Monaten (Spannweite: 12.23 % - 68.63 %, p = 0.0156, n = 7) und 63.64 % nach 12 Monaten (Spannweite: 52,38 % - 73.91 %, p > 0.05, n = 2).
In der vorliegenden bizentrischen Langzeitstudie wurde deutlich, dass HIFU-Echotherapie eine effektive Behandlungsoption benigner Schilddrüsenknoten ist. Erstmalig gezeigt wurde der Trend, dass solide Knoten besser auf HIFU-Echotherapie ansprechen als komplexe Knoten.
Anhand der gewonnenen Ergebnisse und der neuen Erkenntnisse zum Einfluss der Knotenmorphologie auf die HIFU-Echotherapie benigner Schilddrüsenknoten kann HIFU als Therapieoption besser bewertet werden. Eine differenziertere Indikationsstellung in Bezug auf solide und komplexe Knoten wird ermöglicht und die HIFU-Echotherapie kann gegen andere thermoablative Verfahren abgewogen werden.
Diese Promotionsarbeit dient in erster Linie dazu herauszufinden, ob Unterschiede im Gesamt- und rezidivfreien Überleben zwischen dem laparoskopischen und offenen chirurgischen Zugangsweg der radikalen Nephroureterektomie (RNU) bei Patienten mit nicht-metastasiertem Urothelkarzinom des oberen Harntrakts bestehen. Als sekundäres Ziel soll untersucht werden, ob die Durchführung einer präoperativen Ureterorenoskopie (URS) bei Patienten mit nicht-metastasiertem Urothelkarzinom des oberen Harntrakts zu Unterschieden im Gesamt- und rezidivfreien Überleben führt.
Zur Untersuchung der Hypothesen wurden die Daten von Patienten, die zwischen 2010 und 2020 wegen eines Urothelkarzinom des oberen Harntrakts behandelt wurden, retrospektiv aus institutionellen Datenbanken erhoben. Die Studienpopulation bestand aus Patienten, die älter als 18 Jahre waren, sich einer offenen oder laparoskopischen RNU unterzogen und bei denen kein Verdacht auf Metastasen bestand (cM0). Patienten mit Verdacht auf Metastasen bei der Diagnose (cM1) oder anderen Therapien als einer RNU wurden ausgeschlossen. Die Daten wurden tabellarisch dargestellt und, mithilfe von Kaplan-Meier-Kurven, Unterschiede im Gesamt- und rezidivfreien Überleben hinsichtlich des chirurgischen Zugangs (laparoskopisch versus offen) untersucht. In gesonderten Kaplan-Meier-Kurven wurde darüber hinaus der Einfluss der präoperativen URS auf das Gesamt- und rezidivfreie Überleben beider Kohorten untersucht (unabhängig vom Zugangsweg).
Von den 59 Patienten, die sich einer RNU unterzogen, wurden 29% (n=17) laparoskopisch und 71% (n=42) offen operiert. Die Patienten- und Tumormerkmale waren in beiden Gruppen gleichmäßig verteilt (p≥0,2). Das mediane Gesamtüberleben unterschied sich nicht statistisch signifikant zwischen den Kohorten. Es betrug 93 Monate nach einer laparoskopischen RNU im Vergleich zu 73 Monaten nach einer offenen RNU (p=0,46). Das mediane rezidivfreie Überleben wies keine Unterschiede zwischen laparoskopischer und offener RNU auf und betrug für beide Kohorten 73 Monate (p=0,93). Auch das mediane Gesamt- und rezidivfreie Überleben unterschied sich nicht zwischen Patienten mit und ohne präoperativer URS (p=0,1).
Basierend auf den Ergebnissen einer retrospektiven, unizentrischen Studie zeigten die Gesamt- und rezidivfreien Überlebensraten bei Patienten mit nicht-metastasiertem Urothelkarzinom des oberen Harntrakts, die mit laparoskopischer oder offener RNU behandelt wurden, keinen signifikanten Unterschied. Das laparoskopische Verfahren kann dem offenen Verfahren also ebenbürtig angesehen werden. Außerdem führte eine präoperative URS vor der RNU nicht zu verringerten Gesamt- oder rezidivfreien Überlebensraten.
Trotz der nennenswerten Ergebnisse bestehen auch für die vorliegende Studie Einschränkungen. Sie begründen sich einerseits auf dem retrospektiven Studiendesign, was in einer schlechteren Qualität der Daten resultiert sowie andererseits auf der geringen Stichprobengröße, weshalb die Ergebnisse nur eingeschränkt auf die Allgemeinheit anwendbar sind.
Auf der Grundlage dieser Studie sollten multizentrische, randomisierte, prospektive Studien mit einer umfangreicheren Kohortengröße erfolgen, um diese Ergebnisse zu bestätigen und die verbleibenden Unsicherheiten hinsichtlich des onkologisch günstigsten chirurgischen Verfahrens zu klären.
Hintergrund: Amblyopie ist nach Fehlsichtigkeit die häufigste Sehstörung bei Kindern. Sie ist eine wesentliche Ursache für eine lebenslange Minderung der bestkorrigierten Sehschärfe und ist meist unilateral. Eine Asymmetrie in der Qualität des visuellen Eindrucks während der sensiblen Phase führt in der Regel zu einer unzureichenden Entwicklung des binokularen Sehsystems. Die Standardtherapie der Amblyopie besteht aus optimaler optischer Korrektur vorhandener Brechungsfehler und der direkten Okklusion, wobei das funktionsbessere Auge zeitweise mit einem Augenpflaster abgedeckt wird. Bisherige Studien haben gezeigt, dass besonders bei Patienten mit tiefer Amblyopie, die Therapietreue oft mäßig ist. In einigen Fällen kann das amblyope Auge nicht mit der Foveola fixieren. Diese exzentrische Fixation beeinflusst den Therapieerfolg negativ. Unser Ziel war, bei dieser speziellen Patientengruppe die Okklusionsdauer objektiv zu registrieren und deren Auswirkung auf die Visusentwicklung und die Fixationsänderung in Abhängigkeit vom Alter über einen langen Zeitraum zu untersuchen.
Methoden: In unserer prospektiven multizentrischen Pilotstudie untersuchten wir amblyope Kinder mit exzentrischer Fixation im Alter von 3-16 Jahren während 12-monatiger Okklusionsbehandlung. Der Nahvisus wurde mittels Landoltringen und Lea-Symbolen (jeweils Reihenoptotypen) bestimmt. Die Okklusionsdauer wurde kontinuierlich mit einem TheraMon®-Mikrosensor aufgezeichnet, der am Augenpflaster angebracht wurde. Der Fixationsort am Augenhintergrund wurde mit einem direkten Ophthalmoskop bestimmt. Unsere Ziele waren: Evaluierung der Sehfunktion, Therapieadhärenz und Beurteilung des Fixationsortes des amblyopen Auges. Der Anteil des korrigierten Visusdefizits, die Dosis-Wirkungs-Beziehung und die Therapieeffizienz wurden berechnet.
Ergebnisse: In unserer Studie wurden 12 Patienten mit Schiel- und kombinierter Schiel- und Anisometropieamblyopie im Alter von 2,9-12,4 Jahren (im Mittel 6,5 ± 3,4 Jahre) untersucht. Der Anfangsvisus der amblyopen Augen nach 3 Monaten refraktiver Adaptationsphase lag im Mittel bei 1,4 ± 0,4 logMAR (Spannweite 0,9-2,0), und der 5 Führungsaugen bei 0,3 ± 0,3 logMAR (Spannweite -0,1-0,8). Die mittlere interokuläre Visusdifferenz (IOVAD, Visusunterschied zwischen dem amblyopen Auge und dem Führungsauge) zu Beginn betrug im Mittel 1,1 ± 0,4 log Einheiten (Spannweite 0,5-1,8). Die verschriebene Okklusionsdauer lag im Median bei 7,7 Stunden/Tag (Spannweite 6,6-9,9), die tatsächlich erreichte bei 5,2 Stunden/Tag (Spannweite 0,7-9,7). Nach 12 Monaten betrug die mediane Visusbesserung der amblyopen Augen 0,6 log Einheiten (Spannweite 0-1,6), die mediane IOVAD 0,3 log Einheiten (Spannweite 0-1,8). Multiple Regressionsanalyse mit Rückwärtselimination zeigte, dass sowohl das Alter (p=0,0002) als auch die Okklusionsdosis (p=0,046) signifikante Einflussfaktoren für den Visusanstieg waren. Kinder unter 4 Jahren zeigten das beste Ansprechen mit der niedrigsten Rest-IOVAD (Median 0,1 log Einheiten, Spannweite 0-0,3). Die Effizienzberechnung ergab eine Visusbesserung von etwa einer log Visusstufe pro 100 Stunden Okklusion in den ersten zwei Monaten und einer halben log Visusstufe nach 6 Monaten. Die Therapieeffizienz nahm mit zunehmendem Alter ab (p = 0,01). Trotz einer gewissen Visusbesserung auch bei Patienten im Alter von ≥8 Jahren (Median 0,4 log Einheiten), zeigten diese eine geringere Therapieadhärenz sowie -effizienz (mediane Rest-IOVAD 0,8 log Einheiten). Zentrale Fixation wurde von 9 Patienten nach im Median 3 Monaten erreicht (Spannweite 1-4 Monate). Drei Patienten (>6 Jahre) erreichten keine zentrale Fixation.
Schlussfolgerung: Amblyopie mit exzentrischer Fixation stellt auch bei guter Adhärenz eine Herausforderung für den Therapieerfolg dar. Unsere Studie zeigte erstmals prospektive quantitative Daten basierend auf elektronischer Erfassung der Okklusion bei dieser seltenen Patientengruppe. Es konnte die deutliche Abnahme der Therapieeffizienz mit zunehmendem Alter gezeigt werden. Die Visusbesserung wurde viel stärker vom Alter als von der Okklusionsdosis beeinflusst. Nur Kinder, die zum Okklusionsbeginn jünger als 4 Jahre waren, konnten im Studienzeitraum in ihren amblyopen Augen eine für ihr Alter annähernd normale Sehschärfe und eine IOVAD <0,2 log Einheiten erreichen. Demzufolge sind, trotz möglicher geringer Visusbesserung auch bei älteren Patienten, eine frühzeitige Diagnose und Therapie dieser Patientengruppe unerlässlich für den Therapieerfolg.
Förderung: bereitgestellt durch den Forschungspreis des Vereins „Augenstern e.V.“
Hintergrund: Die Aortenklappenstenose stellt in Europa und Nordamerika das häufigste Klappenvitium dar und ist vor allem auf eine degenerative Genese zurückzuführen. Da das Auftreten erster Symptome mit einer schlechten Prognose assoziiert ist, ist die transfemorale Aortenklappenimplantation mittels Katheter (TAVI) als minimalinvasive Therapie schon seit längerem eine Alternative zum operativen Ersatz der Aortenklappe und aktuelles Thema der Forschung. Zwar existiert eine Vielzahl an Transkatheterklappen und es werden fortlaufend neue Generationen entwickelt, allerdings liegt bislang noch keine Studie vor, die einen direkten Vergleich der intraannularen Portico-Prothese (Abbott) mit der ebenfalls selbstexpandierbaren, aber supraannularen, Symetis-Prothese (Boston Scientific) präsentiert.
Methoden: Es erfolgte eine retrospektive Analyse von 142 gematchten (nach Alter, BMI, NYHA-Klasse, EuroScore, insulinpflichtiger Diabetes Mellitus, arterielle Hypertonie, COPD, KHK, präinterventionelle eGFR, cAVK, Schlaganfall, TIA in der Vorgeschichte) Patienten je Klappenmodell im medianen Alter von 83 Jahren, die sich mit einer hochgradigen symptomatischen Aortenklappenstenose im Zeitraum vom 12.10.2015 bis zum 07.01.2020 einer transfemoralen TAVI im Universitätsklinikum in Frankfurt am Main unterzogen. Untersucht wurde als primärer Endpunkt die Gesamtmortalität nach 1 Jahr. Darüber hinaus wurden mittels multivariater Cox-Regression unabhängige Risikofaktoren identifiziert. Als sekundäre Endpunkte wurden Komplikationen innerhalb von 30 Tagen gemäß den Definitionen des Valve Academic Research Consortium (VARC) 2 gewählt wie die Implantationen neuer Schrittmacher, paravalvuläre Leckage, Gefäßkomplikationen und akutes Nierenversagen. Analysiert wurden außerdem prozedurale Faktoren, die Symptomatik anhand der NYHA-Klasse sowie einige Laborparameter vor und nach der TAVI.
Ergebnisse: In dieser Arbeit konnte gezeigt werden, dass die 1-Jahres-Mortalität mit der Portico-Prothese signifikant höher ist als mit der Symetis-Prothese (25,2% vs. 12,2%; p=0,011). Dabei gelten neben der Portico-Prothese eine reduzierte linksventrikuläre Funktion und die NYHA-Klassen III/IV gemäß multivariater Cox-Regressionsanalyse als unabhängige Risikofaktoren. Postinterventionell war in der Portico-Kohorte ein neuer Linksschenkelblock (34,5% vs. 23,2%; p=0,036), die Implantation neuer Schrittmacher (22,6% vs. 11,8%; p=0,011) sowie ein akutes Nierenversagen (25,5% vs. 12,8%; p=0,006) signifikant häufiger. Hinsichtlich prozedurbezogener Faktoren hat sich herausgestellt, dass mit der Symetis-Prothese häufiger nachdilatiert (41,5% vs. 25,3%; p=0,004), mit der Portico-Prothese hingegen häufiger vordilatiert (92,2% vs. 82,3%; p=0,012) wurde. Außerdem wurde in der Portico-Kohorte signifikant mehr Kontrastmittel eingesetzt und das Verfahren mit der Durchleuchtung dauerte signifikant länger. Echokardiographisch resultierte post TAVI mit der Symetis-Prothese eine signifikant andere bzw. günstigere Verteilung der Aortenklappeninsuffizienzgrade. Laborchemisch war der Wert für NT-proBNP als biochemischer Marker für eine Herzinsuffizienz signifikant höher als in der Symetis-Gruppe.
Schlussfolgerung: Diese Arbeit zeigte eine signifikant höhere Mortalität nach 1 Jahr mit der Portico-Prothese im direkten Vergleich mit der Symetis-Prothese. Außerdem ergab der Vergleich signifikant höhere Komplikationsraten in der Portico-Kohorte hinsichtlich Schrittmacherimplantationen, neuem Linksschenkelblock und akutem Nierenversagen. Weitere Studien sollten die beiden Prothesen im längerfristigen Verlauf vergleichend analysieren. Die Ergebnisse dieser Studie können zur Optimierung neuer Klappengenerationen beitragen, indem sie auf potenziell prognosebestimmende Aspekte des Designs und der Implantationstechnik aufmerksam machen. Außerdem sensibilisert die Studie für eine individuell für jeden Patienten angepasste Prothesenauswahl. Möglicherweise sollte bei Vorerkrankungen der Niere oder bei vorbekannten Herzleitungsstörungen die Symetis- gegenüber der Portico-Prothese vorgezogen werden.
Resistenzen gegenüber Carbapenemen sind eine Bedrohung für die globale Gesundheit mit wenigen verbleibenden Therapieoptionen. Ceftazidim/Avibavtam (CZA) ist die Kombination aus einem Cephalosporin und einem Diazabicyclooctan, mit der Eigenschaft eine Vielzahl von Carbapenemasen der Ambler Klasse A und D zu inhibieren. Resistenzen gegenüber Carbapenemen in gramnegativen Bakterien sind in Kolumbien und anderen Ländern Lateinamerikas weit verbreitet. In den hier vorgestellten Arbeiten wurden 2.235 Enterobakterien und 492 P. aeruginosa Isolate aus fünf Lateinamerikanischen Ländern auf ihre Empfindlichkeit gegenüber CZA und anderen klinisch verfügbaren Antibiotika untersucht. Die CZA-resistenten Isolate wurden mittels PCR und Genomsequenzierung auf die zugrundeliegenden Resistenzmechanismen hin analysiert. CZA zeigte Aktivitäten gegenüber 99,2% (2.217/2.235) aller untersuchten Enterobacterales und 77,8% (383/492) aller P. aeruginosa Isolate. Als plausible Erklärung für die Resistenz gegen CZA konnte mittels qPCR bei allen Enterobakterien und bei 38,5% (42/109) der P. aeruginosa Isolate ein Metallo-β-Laktamase (MBL)-kodierendes Gen nachgewiesen werden. Die verbleibenden P. aeruginosa Isolate wurden einer Genomsequenzierung unterzogen, dabei zeigten sich Mutationen in Genen, die zuvor mit einer verringerten Empfindlichkeit gegen CZA assoziiert wurden, wie z.B. Genen die mit der Überexpression von MexAB-OprM und AmpC (PDC) in Verbindung stehen, sowie Genen, die PoxB (blaOXA-50-like), FtsI (PBP3), DacB (PBP4) und OprD kodieren. Unsere Ergebnisse unterstreichen die Notwendigkeit von Therapieoptionen gegenüber MBL-produzierenden und anderen Carbapenem-resistenten Mikroorganismen. Des Weiteren sind diese Studien eine Momentaufnahme der Empfindlichkeit gegen CZA vor dessen Verfügbarkeit in Lateinamerika und dienen deswegen als Ausgangspunkt um die Entwicklung von Resistenzen in dieser Region zu verfolgen.
Hintergrund: Der Hypoparathyreoidismus (Hypopara) ist neben der Recurrensparese eine typische postoperative Komplikation nach Thyreoidektomie. Ziel dieser Arbeit soll die Prozessoptimierung des postoperativen Managements sein, um einen p.o. Hypopara frühzeitig zu erkennen und zu therapieren und somit die klinischen Symptome zu lindern oder zu vermeiden.
Methoden: Es wurden alle Patienten mit einer beidseitigen Schilddrüsenresektion eingeschlossen. Ausschlusskriterien waren simultane Nebenschilddrüsen- erkrankungen sowie fortgeschrittene Schilddrüsenmalignome mit geplantem Tumordebulking und/oder langem ITS-Aufenthalt. Postoperativ wurden Parathormon (EDTA) sowie Kalzium (Serum) bestimmt. Bei einem Parathormon (PTH) - Wert unter dem Referenzbereich (15,0-68,3 pg/ml) und/oder einer ausgeprägten Hypokalzämie mit einem Kalziumwert < 1,9 (Ref. 2,20-2,65 mmol/l) und/oder klinischen Zeichen wie Kribbelparästhesien oder Tetanie wurde Kalzium und Vitamin D mittels festem Schema verordnet. Die Symptombesserung wurde klinisch dokumentiert.
Ergebnisse: Am AGAPLESION Elisabethenstift gGmbH in Darmstadt wurden im Zeitraum zwischen Januar 2019 und Juni 2022 Schilddrüseneingriffe bei insgesamt 465 Patienten durchgeführt. Nach Berücksichtigung der Ein- und Ausschlusskriterien wurden 193 Patienten mit Thyreoidektomie in die Auswertung einbezogen. Ein p.o. Hypopara wurde bei 51 Patienten (26,4 %) festgestellt. Bei 40 Patienten (20,7 %) traten Symptome auf (39x Kribbelparästhesie, 1xTetanie). Von den 51 Patienten lag bei 26 (51 %) ein nur leicht erniedrigter Kalziumwert am 1. p.o. Tag vor (zwischen 2,00 und 2,20 mmol/l), bei 10 Patienten (19,6 %) war der Kalziumwert im Normbereich (2,20-2,65 mmol/l). Im Vergleich dazu lag bei 6 von 51 Patienten (11,8 %) ein normwertiger PTH-Wert vor. Bei 20 Patienten (10,4 %) erfolgte intraoperativ eine Nebenschilddrüsen-Replantation in den ipsilateralen M. sternocleidomastoideus. Davon trat bei 8 Patienten (40 %) ein Hypopara auf. Bei 29 Patienten (15 %) wurde in der Histologie ein akzidentiell mitentferntes Epithelkörperchen nachgewiesen. Davon trat bei 13 Patienten (44,8 %) ein Hypopara auf. Die mittlere Zeit nach OP zur PTH-Bestimmung lag bei 2,41 Tagen. Die mittlere Aufenthaltsdauer der Patienten mit Hypopara betrug 3,86 Tage (± 2,272), die der restlichen Patienten betrug 2,69 Tage (± 1,759), p < 0,001.
Schlussfolgerungen: Die PTH-Bestimmung ist neben der klinischen Visite essentiell zur Früherkennung eines p.o. Hypopara. Eine mehrtägige Kalziumbestimmung ist damit nicht zwingend erforderlich, sodass die Verweildauer verkürzt werden kann. Das verordnete Schema zur oralen Substitution von Kalzium und Vitamin D ist auch ambulant fortführbar. Die Replantation einer nicht erhaltbaren NSD hat bei 60 % einen Hypopara verhindert. Die gezielte Darstellung und Erhalt der NSD sollte bei jedem Eingriff eingehalten werden. Insgesamt zeigt diese Arbeit den höheren Stellenwert des postoperativen PTH-Wertes sowie der klinischen Zeichen als das Serumkalzium zur Erkennung und Therapie des Hypopara nach Thyreoidektomie.
Zielsetzung der vorliegenden Dissertation war die Validierung einer deutschsprachigen Version, der bereits für andere Sprachen validierten Repetitiven Verhaltensskala – Revidiert (RBS-R) für Kinder- und Jugendliche im Alter zwischen 4-17 Jahren. Die RBS-R ist ein aus 43 Items bestehendes, gut untersuchtes Screeninginstrument, welches restriktives, repetitives Verhalten (RRV) erfasst. RRV stellen einen heterogenen Symptomkomplex dar, welcher durch stereotype motorische, sprachliche und kognitive Verhaltensmuster gekennzeichnet ist.
RRV sind neben Abweichungen sozialer Interaktion und Kommunikation eines der Hauptkriterien für eine Autismus-Spektrum-Störung (ASS). RRV sind jedoch nicht nur Teil des Symptomspektrums einer ASS, sondern treten häufig auch bei anderen psychiatrischen Erkrankungen (PE), einer Intelligenzminderung (IM) oder bei altersentsprechend entwickelten Kindern (AE), beispielsweise in bestimmten Phasen des Heranwachsens auf. Bisher wurde die RBS-R fast ausschließlich an ASS untersucht. Es besteht die Notwendigkeit für ein valides und zuverlässiges Messinstrument für den deutschen Sprachraum, welches RRV hinsichtlich ihrer Heterogenität transdiagnostisch erfassen und den Schweregrad der Ausprägung ermitteln kann. Das Ziel dieser Arbeit war, dies durch eine möglichst große und heterogene Stichprobe (n= 948) mit Inklusion von Probanden mit einer ASS (n= 218), IM (n= 120), PE (n= 166) und AE (n = 444) zu gewährleisten. Zur Überprüfung der psychometrischen Eignung erfolgte nach der Adaptation der RBS-R für den deutschen Sprachraum eine Evaluation gemäß den Prinzipien der klassischen Testtheorie, insbesondere hinsichtlich Validität und Reliabilität. Darüber hinaus erfolgte unter Einbeziehung der vier Stichproben eine explorative Faktoranalyse (EFA) um eine geeignete Faktorlösung zu finden. Diese sollte sowohl den Anspruch Klinisch-Tätiger als auch Forschender erfüllen und eine Anwendung der RBS-R auch außerhalb von ASS ermöglichen. Zudem sollten RRV in den unterschiedlichen Kohorten, sowie in Bezug auf Alters- und Geschlechtseffekte bei ASS untersucht werden.
Die Bedeutung der Ergebnisse dieser Arbeit ist, ob der schon breit erforschten Eigenschaften der RBS-R, vor allem im Kontext mit den vorliegenden Studien zu betrachten. Einzigartig für diese deutschsprachige Validierung der RBS-R ist die Diversität und große Anzahl der teilnehmenden Probanden.
Die vorliegende Validierung der RBS-R erbrachte gute Ergebnisse für die Reliabilität und konvergente Validität der Skalen, vergleichbar mit den Ergebnissen vorheriger Studien. Die untersuchte Itemschwierigkeit war relativ gering, was durch die geringe Antwortvarianz in der großen Kohorte der AE erklärbar ist. Die Itemgesamtkorrelation zeigte gute Werte. Auch Items mit niedrigen Ergebnissen für die Itemzustimmung wurden nicht exkludiert. Dies geschah konkordant zum Vorgehen vorheriger Studien und hatte den Hintergrund, eine internationale Vergleichbarkeit des RBS-R beizubehalten. Die EFA bestätigte die gute Anwendbarkeit einer Vielzahl von Faktorlösungen. Wir legten eine 4-Faktorlösung für die deutschsprachige Version der RBS-R fest. Grundlage hierfür war das Bestreben die ursprünglichen Subskalen für eine internationale Vergleichbarkeit so getreu wie möglich beizubehalten. Die 4 Faktoren bildeten treffend RRV niedriger und hoher Ordnung ab. Gegen eine 5- oder 6-Faktorlösung sprach hierbei, dass dies zu Subskalen mit wenig Items und schwachen psychometrischen Eigenschaften führte (Lam et al, kritisiert durch Georgiades et al). Gegen eine 2- oder 3-Faktorlösung sprach die eingeschränkte klinische Interpretierbarkeit durch Subskalen mit vielen kumulierten Items. Hinsichtlich der Kohortenzugehörigkeit kann der RBS-R übereinstimmend mit Fulceri et al valide zwischen RRV in ASS und AE unterscheiden. Eine valide Unterscheidung zwischen ASS, PE und IM konnten wir nicht verifizieren. Betreffend der untersuchten Alterseffekts bestätigte sich, dass RRV bei ASS mit dem Alter abnehmen. Im Gegensatz zu einigen vorherigen Studien, welche keinen Geschlechtsunterschied bezüglich RRV bei ASS fanden, zeigten die männlichen Probanden der ASS Kohorte bei uns häufiger und ausgeprägter RRV.
Das schnelle und unkontrollierte Wachstum von Tumorzellen bedingt beim Glioblastom ein heterogenes Tumormikromilieu, mit lokalem Sauerstoff- und Nährstoffmangel. Lokaler Selektionsdruck bedingt eine Evolution besonders anpassungsfähiger Klone. Die integrierte Stressantwort (integrated stress response, ISR) ist ein zelluläres Programm, das durch zahlreiche Stressoren, wie endoplasmatische Retikulum Stress (ER-Stress), durch die Akkumulation ungefalteter Proteine, Hypoxie, Glukose- oder Aminosäuremangel aktiviert wird. Ein zentraler Schritt zur Aktivierung der ISR ist die Phosphorylierung der alpha Untereinheit des eukaryotischen Translationsinitiationsfaktors 2 (eIF2α) an Serin 51. Die Phosphorylierung von eIF2α führt zur Modulation der Translation mit Induktion des Transkriptionsfaktors ATF4 (Activating Transcription Factor 4), der dann zelluläre Anpassungsvorgänge einleitet.
Unsere Hypothese lautete, dass ATF4-vermittelte molekulare Anpassungsmechanismen menschlicher Glioblastom (GB)-Zellen an die Bedingungen der Tumormikroumgebung (wie z.B. Hypoxie und Nährstoffentzug) maßgeblich zur Therapieresistenz beitragen und auch die Empfindlichkeit gegen TMZ-Chemotherapie beeinflussen. Somit könnte eine Inhibition der integrierten Stressantwort über den zentralen Mediator ATF4 zu einem gesteigerten Ansprechen auf Therapiebedingungen führen.
Um die ISR und ATF4 als mögliche therapeutische Angriffspunkte im Glioblastom zu evaluieren, wurde die ATF4 Induktion in Glioblastomzellen pharmakologisch und genetisch moduliert und im Zusammenhang mit TMZ-Behandlung sowie Glukose- und Sauerstoffentzug untersucht. Unter Glutaminentzug, Hypoxie und TMZ-Behandlung, welche Aspekte der GB-Mikroumgebung widerspiegeln, zeigten sich erhöhte ATF4 Proteinspiegel. ATF4-gensupprimierte GB-Zellen (ATF4sh) exprimierten unter gleicher Behandlung wesentlich weniger ATF4.
Im Einklang mit der Hypothese, dass ATF4 zur Therapieresistenz humaner Glioblastomzellen beiträgt, waren ATF4-gensupprimierte GB-Zellen (ATF4sh) im Vergleich zur Kontrollzelllinie empfindlicher gegen Hypoxie-induzierten Zelltod und zeigten einen erhöhten Sauerstoffverbrauch. Umgekehrt zeigten GB-Zellen nach pharmakologischer ISR Induktion einen verminderten Sauerstoffverbrauch. Auch nach Behandlung mit TMZ war die Überlebensrate in ATF4sh Zellen im Vergleich zur Kontrollgruppe geringer. Zur Hemmung der ISR wurden verschiedenen Inhibitoren der Kinase PERK (Protein kinase R-like endoplasmic reticulum kinase) entwickelt. In unseren Untersuchungen war nach der Behandlung der GB-Zelllinien eine verminderte ATF4 Expression festzustellen. Dabei kam es allerdings gleichzeitig bei der Behandlung mit höheren Inhibitorkonzentrationen zu einer Induktion von ATF4. Für den PERK-Inhibitor GSK 414 wurde in der Literatur auch die Hemmung anderer Kinasen wie KIT und RIPK1 gezeigt. Daher konnte bei den Konzentrationen, die für eine vollständige PERK-Inhibition erforderlich waren, keine selektive Hemmung von PERK mehr gewährleistet werden. Besonders aufgrund ihrer Toxizität auf die Funktion des Pankreas eignen sich diese Inhibitoren nicht für eine in vivo Erprobung. Da aber durch die Inhibition der ISR eine neuroprotektive Wirkung beschrieben ist, besteht die Notwendigkeit, weitere Inhibitoren zur Hemmung der ISR zu entwickeln. ISRIB (Integrated Stress Response Inhibitor) ist ein partieller ISR Inhibitor, der eIF2B angreift, was als Guanidin-Nukleotid-Austauschfaktor im Translationsinitiationsprozess benötigt wird. Für ISRIB wurde bereits in vitro und in vivo eine neuroprotektive, aber keine toxische Wirkung beschrieben.
Zusammenfassend lieferten unsere Untersuchungen Hinweise auf die wichtige Rolle von ATF4 für die Anpassung humaner GB-Zellen an Bedingungen der Tumormikroumgebung und für die Entstehung von TMZ-Resistenzen. Die Hemmung der ISR in GB-Zellen könnte daher ein vielversprechender Therapieansatz sein.
Langzeitüberleben und Mortalitätsprädiktoren nach perkutanem
kathetergestütztem Aortenklappenersatz
(2022)
Ziel dieser Studie war die Evaluation von Patienten, die eine transfemorale oder eine transapikale TAVI erhalten haben, in Bezug auf ihre Mortalitätsprädiktoren und ihre Langzeit-Mortalität.
Methoden: Untersucht wurden Patienten mit einer minimalen FU-Zeit von sechs Jahren, welche im Zeitraum von 2006 – 2014 eine TAVI im Herzkatheterlabor des Universitätsklinikums in Frankfurt erhalten haben. Das Patientenkollektiv wurde basierend auf dem Zugangsweg (transfemoral oder transapikal) analysiert.
Ergebnisse: Insgesamt wurden 679 Patienten in die Studie eingeschlossen. 408 Patienten (59,82 %) bekamen eine transfemorale TAVI und 271 Patienten (39,74 %) bekamen eine transapikale TAVI. Der durchschnittliche STS-Score betrug in der transfemoralen Gruppe 4,21 ± 2,4 % und in der transapikalen Gruppe 4,19 ± 2,7 %. Die Mortalität war nach 30 Tagen (15,8 % transapikal versus 8,2 % transfemoral, p = 0,00) sowie im Langzeit-FU (79,5 % transapikal versus 68,3 % transfemoral, p = 0,00) signifikant höher in der transapikalen Gruppe. Viele postinterventionelle Komplikationen waren häufiger in der transfemoralen Gruppe. Postinterventionelle Schrittmacherimplantationen (15,7 % versus 4,1 %, p = 0,00), große und kleine vaskuläre Komplikationen (5,1 % versus 1,1 %, p = 0,01) sowie große und kleine zerebrovaskuläre Insulte (31,8 % versus 9,1 %, p = 0,00) kamen in der transfemoralen Gruppe signifikant häufiger vor. Allerdings war der transfemorale Zugangsweg mit einer besseren Überlebensrate assoziiert (Log Rank Test p = 0,01 und HR 1,33 (1,04 – 1,71), p = 0,03). Patienten mit einem hohen STS-Score (HR 1,09 (1,03 – 1,15), p = 0,00), einem vorbestehenden Diabetes Mellitus (HR 0,75 (0,58 – 0,97), p = 0,03) sowie großen Gefäßkomplikationen (HR 0,60 (0,37 – 0,99), p = 0,04) korrelieren mit einem schlechteren Langzeit-Überleben.
Zusammenfassung: Für den kathetergestützten Aortenklappenersatz weisen beide Zugangswege spezifische Risiken auf, daher sollte die individuell beste Variante für jeden Patienten ausgewählt werden.
Untersuchung zur Sicherheit bei der simultan bilateralen Cochlea-Implantation bei Erwachsenen
(2023)
Schwerhörigkeit ist sowohl für die betroffenen Patienten als auch sozioökonomisch eine relevante Erkrankung. Sie stellt ein Hindernis für die soziale Teilhabe dar, reduziert die Lebensqualität und führt zu direkten und indirekten Gesundheitskosten.
Cochlea-Implantate sind vielkanalige Neuroprothesen, die über einen chirurgisch in die Hörschnecke eingebrachten Elektrodenträger das erste Neuron der Hörbahn direkt elektrisch stimulieren und so eine Hörwahrnehmung induzieren.
Dadurch kann ein Funktionsverlust der Haarzellen, welcher die häufigste Ursache für eine Schwerhörigkeit ist, ersetzt werden. Cochlea-Implantate stellen den Goldstandard der Hörrehabilitation bei hochgradig schwerhörigen oder postlingual ertaubten erwachsenen Patienten sowie in der Versorgung prälingual ertaubter Kinder dar.
Bei vielen schwerhörigen Patienten besteht die Indikation zur beidseitigen Versorgung mit einem Cochlea-Implantat. Prinzipiell besteht die Möglichkeit, diese chirurgische Versorgung beidseits einzeitig (simultan) oder zweizeitig (sequenziell) durchzuführen. Während die Sicherheit der bilateral-simultanen Operation für Kinder durch mehrere Studien belegt wurde, liegen für Erwachsene erst wenige Daten vor.
Die vorliegende Studie untersucht, ob die bilaterale simultane Implantation mit höheren Komplikationsraten als die sequenzielle Operation assoziiert ist und leistet damit einen Beitrag zur Entscheidungsfindung von Patienten und Behandlern.
Es konnten 169 zwischen 2008 und 2017 bilateral implantierte Patienten eingeschlossen werden. Davon wurden 34 simultan (Gruppe 1) und 135 (Gruppe 2) sequenziell versorgt. Es wurde die Dauer der Operation, das Auftreten von Minor- und Major-Komplikationen sowie die Dauer des stationären Aufenthalts erfasst und zwischen beiden Gruppen verglichen.
Die Ergebnisse zeigten, dass die Gesamtzeit der Patienten im Operationssaal in der simultan implantierten Gruppe deutlich kürzer war. Die Häufigkeit chirurgischer Major- und Minor-Komplikationen unterschied sich hingegen nicht signifikant. Bezüglich einer letalen nicht-chirurgischen Komplikation in der simultan implantierten Gruppe erfolgte eine umfangreiche Aufarbeitung, ohne dass ein kausaler Zusammenhang mit der gewählten Behandlungsmethode nachgewiesen werden konnte. Die Dauer des Krankenhausaufenthalts war in der simultanen Gruppe 0,7 Tage länger als bei unilateraler Implantation, aber 2,8 Tage kürzer als bei beiden sequenziellen Operation zusammen.
In der Zusammenschau aller berücksichtigten Komplikationen und der komplikationsrelevanten Faktoren ist die Sicherheit der simultan bilateralen Operation gegenüber dem sequenziellen Vorgehen als gleichwertig zu bewerten.
Jedoch muss individuell auf mögliche Risikokonstellationen des Patienten eingegangen werden, die bei der längeren Operationszeit der simultanen Implantation relevant sein kann. Daher ist eine sorgfältige Auswahl der Patienten
unter besonderer Berücksichtigung bestehender Komorbiditäten unerlässlich.
Menschen mit Epilepsie (engl. PWE) haben im Vergleich zur Allgemeinbevölkerung ein erhöhtes Risiko, vorzeitig zu versterben. Der plötzliche, unerwartete Tod bei Epilepsie (engl. Sudden Unexpected Death in Epilepsy, kurz SUDEP) stellt die häufigste epilepsiebedingte Todesursache dar. Obwohl das Thema in Fachkreisen zunehmende Aufmerksamkeit erfährt, die Empfehlung zur SUDEP Aufklärung zunehmend in nationalen Leitlinien aufgenommen wird, und der Patientenwunsch nach einer generellen SUDEP Aufklärung in verschiedenen Studien gezeigt werden konnte, besteht weiterhin ein Informationsdefizit unter PWE. Ursache hierfür scheint insbesondere die Sorge der behandelnden Neurolog*innen zu sein, Menschen mit Epilepsie übermäßig emotional zu belasten und ihre Lebensqualität zu mindern. Diese Studie untersucht sowohl das Vorwissen über SUDEP als auch unmittelbare sowie langfristige Auswirkungen einer SUDEP Aufklärung auf Erwachsene mit Epilepsie. Ziel ist mögliche negative Auswirkungen der Aufklärung sowie Auswirkungen auf das Verhalten aufzudecken. Aus diesem Zweck wählten wir ein prospektives, multizentrisches, longitudinales Studiendesign. Die Daten wurden in halbquantitativen Interviews vor (vor der Aufklärung), unmittelbar nach (nach der Aufklärung) und drei Monate nach (3-Monats Follow-up) der SUDEP Aufklärung erhoben. Um die direkte Vergleichbarkeit zwischen den Zeitpunkten zu ermöglichen wurden folgende validierte Instrumente verwendet: das Neurological Disorders Depression Inventory for Epilepsy (NDDI-E) zur Erfassung depressiver Symptome, der EuroQoL (EQ-5D) zur Erfassung der gesundheitsbezogenen Lebensqualität (HRQoL), eine visuelle Analogskala (VAS) zur Erfassung des allgemeinen Gesundheitszustandes, die revised Epilepsy Stigma Scale (rESS) zur Erfassung der wahrgenommenen Stigmatisierung und die Seizure Worry Scale zur Erfassung anfallsbezogener Sorgen. Insgesamt wurden 236 Teilnehmende (Durchschnittsalter: 39,3 Jahre, Spannweite: 18-77 Jahre, 51,7 % Frauen) in die Studie eingeschlossen. 205 (86,9 %) der Teilnehmenden konnten erneut im Langzeit Follow-up nach drei Monaten befragt werden. Eine der Teilnehmenden verstarb im Zeitraum des Follow-ups an SUDEP. Keines der validierten Instrumente zeigte zwischen den Zeitpunkten vor der Aufklärung und dem 3-Monats Follow-up eine Verschlechterung. Vor der Aufklärung hatten nur 27,5 % der Teilnehmenden von SUDEP gehört, und nur 9,3 % gaben an, diese Informationen von ihrer bzw. ihrem Neurolog*in erhalten zu haben. Nach der Aufklärung gaben mehr als 85 % der Teilnehmenden an, mit der SUDEP Aufklärung zufrieden oder sehr zufrieden zu sein. Drei Viertel der Teilnehmenden gaben an, durch die Aufklärung nicht oder überhaupt nicht belastet zu sein. Mehr als 80 % der Teilnehmenden befürworteten eine generelle SUDEP Aufklärung für alle Menschen mit Epilepsie. Bei dem 3-Monats Follow-up gab die Mehrheit der Teilnehmenden an, keine Verhaltensänderung vorgenommen zu haben, 24,8 % berichteten jedoch von starken Verhaltensänderungen.
Unsere Studie zeigt, dass eine SUDEP Aufklärung keine negativen Auswirkungen auf den allgemeinen Gesundheitszustand, die HRQoL, depressive Symptome, krankheitsbezogene Stigmatisierung oder Sorgen vor Anfällen hat. Insgesamt zeigte sich eine hohe Zustimmung zur SUDEP Aufklärung. Eine generelle SUDEP Aufklärung könnte sich zudem positiv auf die Compliance auswirken und das Mortalitätsrisiko senken. Eine SUDEP Aufklärung bietet allerdings keinen sicheren Schutz vor SUDEP.
Die rechtsmedizinische Begutachtung von Knochenfunden : eine hessenweite retrospektive Studie
(2023)
Einleitung: Zufällige Funde von Knochen(fragmenten) können von großem Interesse für z. B. Strafverfolgungs- und Denkmalbehörden oder Bauträger sein. Zur Beurteilung einer etwaigen strafrechtlichen oder historischen Relevanz tragen forensisch-osteologische Untersuchungen in einem hohen Maße bei. Die vorliegende Arbeit soll einen Überblick über die forensisch-osteologische Arbeit der beiden hessischen Institute für Rechtsmedizin geben und durch die Interpretation der Ergebnisse im (inter-)nationalen Vergleich regionale Besonderheiten und die Rolle der Rechtsmedizin bei der Begutachtung aufzeigen. Der daraus entstandene Erkenntnisgewinn soll ein Problembewusstsein schaffen sowie Fallarbeit und Lehre verbessern.
Material und Methoden: Zunächst wurden für den Zeitraum von 2005 bis 2019 die im Institut für Rechtsmedizin Gießen archivierten osteologischen Gutachten deskriptiv statistisch ausgewertet. Es wurden Daten zu Fundort, -umständen, Humanspezifität, postmortalem Intervall, Spuren von Gewalt und die Ergebnisse weiterführender Untersuchungen erhoben.
In einer zweiten Studie wurde die Auswertung auf archivierte forensisch- osteologische Gutachten des Instituts für Rechtsmedizin Frankfurt am Main ausgeweitet und der Auswertungszeitraum auf die Jahre 2011 bis einschließlich 2020 angepasst, um eine hessenweite Datengrundlage zu generieren.
Ergebnisse: In der ersten Studie wurden von den in dem 15-Jahres-Zeitraum begutachteten 172 Knochenfunden aus dem Institut für Rechtsmedizin Gießen 40 % in Wald- und Wiesengebieten aufgefunden. In 58 % enthielten die Funde menschliche Knochen, davon wurde in 32 % eine forensisch relevante Liegezeit von 50 Jahren oder weniger nicht ausgeschlossen, und 6% wiesen Zeichen perimortaler Gewalteinwirkung auf. Bei den Fällen, in denen eine Humanspezifität ausgeschlossen wurde, handelte es sich am häufigsten um Knochen von Hirsch bzw. Reh (32 %), Schwein (29 %) und Rind (14 %). In 20 % aller Fälle wurden
ergänzende DNA-Untersuchungen durchgeführt; in 62 % verlief die Typisierung humaner STR-Systeme erfolgreich und davon gelang in 41 % die Zuordnung zu einem antemortalen Profil einer vermissten Person.
In der zweiten, hessenweiten Studie, wurden 288 Knochenfunde eines 10-Jahres-Zeitraums ausgewertet. Mit 38,2 % wurden die meisten Funde in Wäldern, Wiesen und großen Parks getätigt. In 50,7 % der Fälle enthielten die Funde menschliche Knochen, davon wurde in 37,0 % eine forensisch relevante Liegezeit angenommen. Zeichen einer Gewalteinwirkung wurden in 77,4 % der Fälle mit menschlichen Knochen beschrieben, dabei handelte es sich mit 78,8 % am häufigsten um postmortale Beschädigungen, in 9,7 % um perimortale und in 11,5 % um antemortale Verletzungen. In 40,4 % der als human klassifizierten Knochenfunde wurden DNA-Untersuchungen durchgeführt. Dabei konnte in 81,3 % ein STR-Profil erstellt werden, das in 35,4% zu einer sicheren Identifizierung führte. Bei den zur Untersuchung überstellten nicht-menschlichen Knochen handelte es sich am häufigsten um Knochen vom Schwein (23,4 %), Hirsch (18,1 %), Rind (16,4 %), Reh (11,7 %) und Schaf (11,7 %).
Diskussion: Die Begutachtung von Knochen und Knochenfragmenten ist ein fester Bestandteil der rechtsmedizinischen Fallarbeit und zwingend erforderlich, um Fälle von forensischem Interesse zu identifizieren. Die makroskopische Befundung durch einen geschulten Untersucher erlaubt in der Regel bereits, Aussagen über die forensische Relevanz eines Fundes zu treffen und so die Weichen für das weitere Vorgehen zu stellen. Hilfreich bei der makroskopischen Beurteilung ist eine gute Kenntnis der regionalen Besonderheiten in dem Gebiet, in dem die Knochen gefunden wurden. Die makroskopische forensisch-osteologische Begutachtung stellt trotz der sich ständig weiterentwickelnden technischen Möglichkeiten ein unverzichtbares Werkzeug in der Bearbeitung von Knochenfunden dar. In Deutschland ist es Aufgabe der Rechtsmedizin, diese Expertise zu pflegen und vorzuhalten, mit dem Ziel, zur Aufklärung von Vermisstenfällen beizutragen und unentdeckte nichtnatürliche Todesfälle aufzuklären.
Einleitung: Die Bronchiolitis obliterans ist eine seltene Lungenerkrankung unterschiedlicher Ätiologie, die mit einer chronischen Entzündung der kleinen Atemwege einhergeht. Mit der Identifizierung von Kandidaten-miRNA sollen Biomarker evaluiert werden, die in der Diagnostik der postinfektiösen Bronchiolitis obliterans (PIBO) herangezogen werden sowie in Zukunft eine mögliche Therapieoption darstellen können.
Material und Methoden: 19 Patientinnen und Patienten mit PIBO sowie 18 gesunde Kontrollen wurden in die Studie eingeschlossen. Nach Komplettsequenzierung wurden die miRNA-Profile der Patienten mit den Profilen der alters- und geschlechtsadaptierten gesunden Kontrollgruppe verglichen. Als Nebenzielgrößen wurden die Lungenfunktion und Sputum-Biomarker erfasst.
Ergebnisse: Die Patientenkohorte wies signifikant niedrigere Werte in der Lungenfunktionsdiagnostik (Patienten, Median: FVC (%) 76,3***, FEV1 (%) 59,8***, FEV1/FVC 0,68***, FEF75 (%) 25,1***, *p<0,05, **p<0,01, ***p<0,001) sowie eine signifikante Erhöhung der neutrophilen Granulozyten und der proinflammatorischen Zytokine IL-1β, IL-6 und IL-8 in der Sputumanalyse auf (Patienten, Median: Neutrophile (%) 82,5***, IL-1β (pg/ml) 1453,0**, IL-6 (pg/ml) 825,6**, IL-8 (pg/ml) 35368,0***). Die Analyse der miRNA-Expression ergab insgesamt 40 unterschiedlich regulierte miRNAs (padj ≤ 0,05). 22 miRNAs waren in der Patientenkohorte vermehrt exprimiert, 18 miRNAs waren vermindert exprimiert. Die vier miRNAs mit pbonf < 0,05 wurden in der weiteren Analyse berücksichtigt. Die miRNAs hsa-let-7b-3p und hsa-miR-146a-3p waren signifikant vermehrt exprimiert, wohingegen die miRNAs hsa-miR-1287-5p und hsa-miR-27b-3p signifikant vermindert exprimiert waren. Die identifizierten miRNAs spielen unter anderem eine Rolle im TGF-β- und Hippo-Signalweg.
Schlussfolgerung: Die Ergebnisse zeigen, dass das miRNA-Expressionsmuster bei Patienten, die an postinfektiöser Bronchiolitis obliterans erkrankt sind, alteriert ist. Die identifizierten miRNAs sind relevante Biomarker und können als potentielle Ziele von miRNA-Therapeutika in Betracht gezogen werden.
Einleitung: Im Jahr 2016 wurde eine neue, individuelle Lehrform, das „Lernzentrum für ein individualisiertes medizinisches Tätigkeitstraining und Entwicklung“ („Limette“), an der Westfälischen Wilhelms-Universität Münster entwickelt. Das Ziel dieser Lernform ist und war es, nicht nur die theoretische Lehre, sondern vor allem die praktische Lehre und praktische Szenarien in einem geschütztem Lernumfeld in der medizinischen Lehrdidaktik in den Vordergrund zu stellen.
Die Studierenden nehmen an verschiedenen Fächern der Limette teil. In dieser Promotionsarbeit liegt der Fokus auf der Limette Patient Blood Management (PBM) und Transfusionsmedizin.
Vor Kursbeginn wird den Studierenden Zugang zu verschiedenen Vorbereitungsvideos sowie weiteren theoretischen Materialien über PBM und Transfusionsmedizin zur Verfügung gestellt. Bei der Limette durchläuft jeder Studierende sechs verschiedene Stationen. Hierbei beobachten Dozenten die Fertigkeiten und die Umsetzung der Aufgabenlösung durch halbverspiegelte Scheiben, im Umgang mit echten Blutprodukten oder die Kommunikation mit Patienten, die von Schauspielern dargestellt werden. Die Beobachtungen werden den Dozenten des Seminars, welches im Anschluss zur Nachbesprechung stattfindet, mitgeteilt. Hier teilen die Studierenden untereinander ihr Wissen, können den Dozenten Fragen stellen und werden ihnen weitere theoretisch-praktische Kenntnisse vermittelt.
Ziel der Arbeit: Die Promotionsarbeit hat die Auswertung der Selbsteinschätzungsbögen vor und nach der Limette mit anschließender Interpretation der Ergebnisse zum Ziel. Es soll eruiert werden, ob diese neue Lehrmethodik effektiv in der Umsetzung des Lehrerfolgs ist.
Methodik: Die Selbsteinschätzungsbögen hinsichtlich medizinischer Fertigkeiten und Tätigkeiten werden vor und nach der Limette von den Studierenden ausgefüllt. Die Aufgabenstellungen fokussieren sich jeweils auf medizinische Tätigkeiten, bei denen aus 13 verschiedenen Entrustable Professional Activities (EPAs) diejenigen hinterlegt werden, die bei dieser Aufgabe gelehrt werden. Die Differenz von post- zu prä- Selbsteinschätzung zeigt den Lehrerfolg. Die EPAs werden alle analysiert und mit Hilfe der sogenannten Cohen-Zahl interpretiert. Die Cohen Zahl ist definiert als die Differenz zwischen den Mittelwerten zweier Gruppen dividiert durch die gemeinsame Standardabweichung der beiden Populationen. Nach dem Autor Hattie wurde die Skalierung von Cohen für die Lehre angepasst und dabei folgende Einteilung definiert: d = 0,2 (klein), d = 0,4 (mittel) und d = 0,6 (groß). Alle Methoden mit d > 0,4 wurden als „Zone der gewünschten Effekte“ eingestuft.
Ergebnisse: Im Wintersemester 2021/2022 nahmen n=122 Studierende teil, von welchen n=50 beide Fragebögen komplettierten. Eine signifikante Zahl der dargestellten EPAs (50%) hat gute Ergebnisse erzielt, weist mithin einen Cohen´s Wert von d > 0,40 auf. Im Sommersemester 2022 nahmen n=99 Studierende teil, wobei nur n=29 beide Selbsterhebungsbögen komplettierten. Aufgrund des niedrigen Rücklaufs war die Zahl der ausgefüllten Selbsteinschätzungsbögen deutlich geringer und zugleich die Ergebnisse geringer ausgeprägt. In jenem Semester weist die Mehrheit der Ergebnisse einen Cohen´s d-Wert zwischen 0,15 und 0,4 auf, was als durchschnittlicher Lehrerfolg beurteilt wird.
Schlussfolgerung: Die Lehrform der Limette ist eine neue Form der praktischen Lehrvermittlung, die kontinuierlichen Anpassungen unterliegt. Eine hohe Zahl an ausgefüllten Selbsteinschätzungsbögen ist erstrebenswert, um den Lehrerfolg positiv und statistisch signifikant interpretieren zu können. Hierbei ist es nötig, die Lehre in der Limette auszuwerten und gegebenenfalls weitere Anpassungen durchzuführen.
Die Limette ist eine neue Lehrmethode mit einem guten Lehrerfolg hinsichtlich der Vermittlung praktischer Fähigkeiten und sozialer Kompetenz, welche auch an anderen Institutionen angewandt und umgesetzt werden könnte.
Herzkreislauferkrankungen führen weltweit weiterhin die Liste der häufigsten Todesursachen an. Dem frühzeitigen Erkennen kardialer Veränderungen kommt daher eine besondere Bedeutung zu. Das Erkennen subklinischer Veränderungen des Myokards mit Hilfe des myokardialen T1 Mappings und der Strain Analyse in der kardialen MRT mit der Bestimmung der Korrelation von T1 Mapping und Veränderung des myokardialen Strains war das primäre Ziel der vorliegenden Arbeit. Das native T1 Mapping sollte dabei diffuse kardiale Fibrose erkennen, während die Strainparameter zur Analyse der subtilen kardialen Funktion dienten. Wenn eine vermehrte diffuse Fibrose eine Einschränkung der myokardialen Funktion bedeutet, so müssten sich das native T1 Mapping und die Strainparameter gleichsinnig verändern.
Eingeschlossen in die Untersuchung wurden Patienten, die im Rahmen ihres Klinikaufenthaltes an der Kerckhoff-Klinik Bad Nauheim ein kardiales MRT erhielten und ihre Zustimmung zur Aufnahme in das geführte Register gaben. Alle durchgeführten MRT-Untersuchungen besaßen dabei eine medizinische Indikation. Die Untersuchung umfasste eine Blutentnahme sowie die Bildakquisition und das Ausfüllen eines Fragebogens. In der anschließenden Bildauswertung wurden das native T1 Mapping, eine Featuretrackinganalyse, sowie die reguläre diagnostische Beurteilung durch einen Facharzt durchgeführt. Die Patienten wurden anschließend nach ihren Diagnosen in Gruppen eingeteilt. Ein Jahr nach ihrer Untersuchung wurden die Patienten kontaktiert und erneut befragt, um den Anteil an „major adverse cerebro- and cardiovasculare events“ (MACCE) und der Gesamtsterblichkeit am Gesamtkollektiv festzustellen.
Es zeigten sich signifikante Zusammenhänge zwischen nativem T1 Mapping und den Strainparametern, ebenso wie signifikante Zusammenhänge von schwächerer Effektstärke zwischen ECV und den Strainparametern. Das erhöhte native T1 Mapping ging mit verringerten Strainparametern einher, was auf eine vermehrte Fibrose schließen lässt. In der Überlebensanalyse bezüglich des allgemeinen Überlebens zeigte sich nur das native T1 Mapping als unabhängiger Prädiktor, während bei den MACCE zusätzlich auch die Anzahl der betroffenen Segmente im „late gardolinium enhancement“ (LGE) einen unabhängigen Prädiktor darstellten. Der globale longitudinale Strain (GLS) verfehlte bezüglich der MACCE knapp das Signifikanzniveau, zeigte aber eine Tendenz zur Signifikanz.
Natives T1 Mapping und, in begrenztem Maße, möglicherweise auch der Strain haben eine besondere Rolle in der Diagnostik und können bereits früh kardiale Veränderungen detektieren. Da die erhöhten T1 Zeiten als Marker für morphologische Veränderungen mit den Strains als funktionelle Parameter korrelierten, lässt sich spekulieren, dass Fibrose eine Einschränkung der Funktion bedingt.
Der Einfluss von Trauma-aktiviertem platelet-rich fibrin auf mesenchymale Stammzellen in vitro
(2023)
Ziel dieser Arbeit war es, die Wechselwirkung zwischen MSC und PRF von Traumapatienten herauszuarbeiten und zu überprüfen, ob ein therapeutischer Einsatz der Kombination von MSC und Trauma-aktiviertem PRF in Frakturen sinnvoll erscheint.
Hierfür wurden MSC mit PRF über einen Zeitraum von 24 oder 120 Stunden co-inkubiert und die metabolische Aktivität, definierte Faktoren im Überstand (IL-6, CXCL10, VEGF und IDO-2) und die Genexpression ausgewählter Faktoren (MAPK8, MAPK14, IL-6, CXCL10,IDO-1, TNFAIP6, VEGFA, RUNX2 und COL1A) in bis zu drei Messzeitpunkten überprüft. Die Versuche erfolgten vergleichend mit Traumapatienten und gesunden Probanden.
Es konnte gezeigt werden, dass Trauma-aktiviertes PRF verglichen mit PRF von gesunden Probanden die metabolische Aktivität von MSC nach 120 Stunden erhöhen kann. Zudem stellten sich erhöhte Werte des inflammatorischen Faktors IL-6 im Überstand bei Traumapatienten nach 24 und 72 Stunden dar, welche bis zum dritten Messzeitpunkt nach 120 Stunden wieder abfielen. Ein ähnlicher Verlauf zeigte sich bei den Messwerten von VEGFA, einem Faktor, welcher eine große Rolle bei der Angiogenese spielt.
Über alle Messzeitpunkte hinweg konnten niedrigere Werte in der Genexpression von COL1A und RUNX2 im Vergleich zu den Kontrollmessungen erfasst werden.
Die Ergebnisse zeigen, dass im Vergleich zu PRF gesunder Probanden Trauma-aktiviertes PRF die Möglichkeit besitzt, die Proliferation von MSC zu stimulieren. Außerdem wurde beobachtet, dass Trauma-aktiviertes PRF ein inflammatorisches und angiogenetisches Potenzial nach 72 Stunden besitzt, welches nach 120 Stunden allerdings wieder abfällt. Möglicherweise kann durch den Einfluss von MSC der Inflammation entgegengewirkt werden. Ein signifikantes osteogenes Potenzial des Trauma-aktivierten PRFs konnte zu keinem Messzeitpunkt nachgewiesen werden.
Inwiefern der Einsatz von MSC in Kombination mit Trauma-aktiviertem PRF die Frakturheilung verbessern kann, konnte in der vorliegenden Studie nicht eindeutig geklärt werden. Es kann allerdings davon ausgegangen werden, dass die Implantation von Trauma-aktiviertem PRF und MSC in den Defekt erst nach Verstreichen einer bestimmten Zeitperiode nach dem Trauma durchgeführt werden sollte. Die Gründe für diese Annahme sind das erhöhte proliferative und verringerte inflammatorische Potenzial im Verlauf. Eine Ursache für das Fehlen der osteogenen Differenzierung der MSC kann der kurze Messzeitraum sein.
Weitere Studien sollten folgen, um das Potenzial der Kombination von MSC und Trauma-aktiviertem PRF als therapeutisches Verfahren zu überprüfen.
Die Krebsstammzellforschung gelangte in den letzten Jahren vermehrt in den Fokus der Tumorforschung. Im Tumor bilden Krebsstammzellen eine kleine Population an Zellen mit Stammzelleigenschaften, wodurch sie eine große Rolle bei der Entstehung von Rezidiven, Metastasen, sowie der Entwicklung von Chemotherapieresistenzen spielen. Um eine gezielte Bekämpfung von Krebsstammzellen zu ermöglichen, müssen diese im
Tumor zunächst zuverlässig durch Krebsstammzellmarker detektiert werden können.
Gerade bei soliden pädiatrischen Tumoren, wie dem Hepatoblastom, ergeben sich hierbei Schwierigkeiten dadurch, dass im sehr heterogenen Tumorgewebe viele Zellen aufgrund der embryonalen Natur des Tumors bereits Stammzellmarker exprimieren, ohne dass es sich bei diesen Zellen um Krebsstammzellen handelt. Das Hepatoblastom ist mit 2/3 der Lebertumore des Kindes die häufigste maligne Leberneoplasie im Kindesalter.
Auch wenn es bereits Hinweise auf das Vorliegen von Krebsstammzellen im Hepatoblastom gibt, so konnten diese bisher nicht genauer durch fest definierte Krebsstammzellmarker identifiziert werden.
Um dies zu erreichen, wurden in dieser Arbeit die beiden Hepatoblastomzelllinien HuH6 und HepG2 auf die Expression der bereits bekannten Krebsstammzellmarker CD90, CD34 und CXCR4 überprüft. Zusätzlich wurde auf eine Bindung des „oval cell“ Antikörpers, OV-6, untersucht. Mittels Durchflusszytometrie-Analysen konnte eine Zellpopulation gefunden werden, welche die Oberflächenmarker CD34 und CD90 koexprimiert und gleichzeitig den OV-6 Antikörper bindet. Im nächsten Schritt wurden die Zellen auf einige Krebsstammzelleigenschaften überprüft. Zur weiteren Untersuchung dieser Subpopulation erfolgte mittels MACS (magnetic activated cell sorting) eine Anreicherung der CD90 exprimierenden Zellen. Diese wurde mittels qPCR auf die Expression der Pluripotenzmarker Oct4 und Nanog, sowie der Zytidindeaminase AID untersucht. Es konnte eine signifikant erhöhte Expression von AID und Oct4 detektiert werden. Im Gegensatz hierzu zeigte sich die Expression von EpCAM, c-myc und Albumin, welche als Kontrollgene untersucht wurden, nicht signifikant erhöht. Um auf das Metastasierungspotential der CD90 angereicherten Zellen rückzuschließen, wurde ein Migrationsassay mit angereicherten und depletierten Zellen durchgeführt. Hier wiesen die CD90 angereicherten Zellen, im Vergleich zu den depletierten Zellen eine erhöhte Migration auf. Im Tumorsphäroid-Assay war die HepG2 Zelllinie in der Lage Tumor-61 -sphäroide auszubilden. Nach der Passagierung zeigten diese eine erhöhte Expression der Krebsstammzellmarker CD90 und CD34, sowie der Pluripotenzmarker Oct4 und Nanog.
Zusammengefasst kann mit den Krebsstammzellmarkern CD90, CD34 und OV-6 eine Subpopulation im Hepatoblastom identifiziert werden, die nach unseren Analysen Krebsstammzelleigenschaften aufweisen. Mithilfe dieses Markersets können nun neue Therapieansätze auf ihre Effektivität, Krebsstammzellen gezielt zu eliminieren, getestet werden.
Aktivierende Mutationen der Fms-like tyrosine kinase (FLT3) treten bei 25 % der Patienten mit akuter myeloischer Leukämie (AML) auf und begünstigen die unkontrollierte Proliferation maligner Blasten. Autophagie ist ein intrazellulärer Prozess, durch den zytoplasmatische Bestandteile lysosomal abgebaut werden und fungiert als intrazellulärer Homöostase-Mechanismus unter Stress-Bedingungen.
Ziel dieser Arbeit war es, herauszufinden, ob FLT3-ITD+-AML-Zellen vulnerabel gegenüber Autophagie-Hemmung sind.
Hierzu wurde zunächst untersucht, wie sich FLT3-ITD-Signaling und Autophagie unter basalen Wachstumsbedingungen gegenseitig beeinflussen. In einem genetischen Modell zeigte sich, dass FLT3-ITD-transformierte wachstumsfaktorunabhängige Zellen während ihrer fortgesetzten Proliferation vermehrt Autophagie betreiben. Lysosomale Autophagie-Inhibitoren zeigten jedoch unter diesen Bedingungen keine erhöhte Wirksamkeit gegenüber FLT3-ITD-positiven Zellen. Humane FLT3-ITD-positive AML-Zellen zeigten nach genetischer Deletion von ULK1 ebenfalls nur transiente und milde Proliferationsdefizite. Unter basalen Wachstumsbedingungen zeigte sich also keine erhöhte Vulnerabilität FLT3-ITD-exprimierender Zellen gegenüber Autophagie-Inhibition.
Daraufhin wurde die Bedeutung von Autophagie während pharmakologischer Hemmung von FLT3 untersucht. FLT3-Inhibition mittels AC220, einem FLT3-spezifischer Tyrosinkinase-Inhibitor, induzierte bzw. steigerte die autophagische Aktivität ähnlich stark wie eine direkte mTOR-Inhibition. Dies ließ sich im Zellmodell therapeutisch ausnutzen: eine Kombinationsbehandlung mit AC220 und einem lysosomalen Autophagie-Inhibitor zeigte eine synergistische antiproliferative Wirkung. Dies stellt möglicherweise einen neuen rationalen Kombinationsbehandlungsansatz für die Therapie FLT3-ITD-positiver AML-Patienten dar.
Hintergrund: Anämie gehört zu den häufigsten Erkrankungen weltweit und stellt daher ein zentrales globales Gesundheitsproblem dar. Etwa ein Drittel aller chirurgischen Patienten weisen präoperativ eine Anämie auf. Dies wird als unabhängiger Risikofaktor für eine erhöhte Morbidität und Mortalität sowie für das vermehrte Auftreten postoperativer Komplikationen angesehen. Vor diesem Hintergrund wurde von der Weltgesundheitsorganisation (World Health Organization, WHO) ein patientenzentriertes Behandlungskonzept namens Patient Blood Management (PBM) gefordert, um unter anderem Anämien frühzeitig zu diagnostizieren und einen rationalen Einsatz von Fremdblutprodukten zu fördern. Trotz der Tatsache, dass PBM vor etwa 10 Jahren eingeführt wurde, scheint Deutschland im internationalen Vergleich eine überdurchschnittlich hohe Menge an Erythrozytenkonzentrat-(EK)Einheiten pro Kopf zu transfundieren. Die Ursachen dafür sind bislang unklar und könnten möglicherweise durch eine erhöhte Anämie- Prävalenz bei chirurgischen Patienten und dem damit verbundenen erhöhten Bedarf an Transfusionen einhergehen.
Zielsetzung: Ziel dieser Arbeit ist die multizentrische Erfassung der präoperativen Anämie-Prävalenz innerhalb des Zeitraums 2007-2019 in Deutschland.
Methoden: In dieser retrospektiven, multizentrischen Beobachtungsstudie wurden alle Patienten jeden Alters, die im Monat März der Jahre 2007, 2012, 2015, 2017 und 2019 in acht teilnehmenden Krankenhäusern operiert wurden, erfasst. Patientencharakteristika und klinische Daten wurden aus den Krankenhausinformationssystemen der teilnehmenden Krankenhäuser entnommen. Primäres Ziel war die Prävalenz der Anämie bei Krankenhausaufnahme. Sekundäre Endpunkte waren der Zusammenhang zwischen Anämie und Anzahl der transfundierten EKs, Dauer des Krankenhausaufenthalts und Sterblichkeit im Krankenhaus.
Ergebnisse: Von insgesamt 30.763 Patienten konnten 23.836 Patienten aus acht Krankenhäusern in die Analyse eingeschlossen werden. Im untersuchten Zeitraum zeigte sich eine Reduktion der präoperativen Anämie-Prävalenz erwachsener Patienten von 37% auf 32,2%. Die Zahl, der mit Erythrozytenkonzentraten -5- transfundierten Patienten, ging signifikant von 16,5 % im Jahr 2007 auf 7,8 % im Jahr 2019 zurück, wobei Patienten mit präoperativer Anämie im Vergleich zu Patienten ohne Anämie sechsmal mehr EKs erhielten. Insgesamt verkürzte sich die Krankenhausverweildauer seit 2007 deutlich, zeigte jedoch eine signifikante Verlängerung bei Vorliegen einer präoperativen Anämie. Die Sterblichkeitsrate war über die Jahre hinweg konstant, dennoch signifikant höher bei anämischen Patienten. Eine multivariate Regressionsanalyse mit festen Effekten ergab, dass präoperative Anämie und EK-Transfusion Prädiktoren für die Sterblichkeitsrate waren.
Diskussion: Die Prävalenz der präoperativen Anämie lag in unserer Studienpopulation im Jahr 2019 bei 32,2 %, was der weltweiten Prävalenz entspricht. Das Implementieren von PBM-Strategien, um präoperative Anämien frühzeitig zu identifizieren und zu therapieren sowie Blutprodukte rational einzusetzen, nimmt daher weiterhin einen großen Stellenwert ein. Diese perioperativen Maßnahmen sind für alle chirurgischen Patienten von zentraler Bedeutung, da eine präoperative Anämie den Bedarf an EK-Transfusionen erhöhen, die Liegezeit verlängern und mit einer erhöhten Sterblichkeitsrate assoziiert sein kann.
Hintergrund: Epilepsie bezeichnet eine Erkrankung, welche durch eine anhaltende Prädisposition für Symptome, die im Zusammenhang mit einer ungewöhnlich starken oder synchronisierten elektrischen Aktivität des Gehirns auftreten (=epileptischer Anfall) charakterisiert ist. Mutationen in dem Gen DEPDC5 (Dishevelled, Egl-10 and Pleckstrin (DEP) domain-containing protein 5) sind mit fokalen Epilepsien assoziiert und führen in Tiermodellen und humanen Modellen zu einer Überaktivierung des mTOR-Signalweges. Auf neuromorphologischer Ebene zeigt sich die mTOR-Überaktivierung durch eine Vergrößerung des Zelldurchmessers und einer zunehmenden Verästelung der Neuriten. Ziel dieser Studie war es, die morphologischen Auswirkungen der DEPDC5-assoziierten mTOR-Überaktivierung in der SH-SY5Y-Neuroblastomzelllinie zu untersuchen. Dadurch soll eine Einschätzung getroffen werden, ob das im Zusammenhang mit neurodegenerativen Erkrankungen bereits gut etablierte SH-SY5Y-Zellmodell auch bei der Untersuchung epilepsieassoziierter Pathomechanismen zum Einsatz kommen kann.
Methoden: Unter Einsatz der CRISPR/Cas9-Methode wurden Knockout(KO)-Mutationen in Exon 2 und Exon 3 des DEPDC5-Gens erzeugt und diese mittels Sanger-Sequenzierung bestätigt. Danach wurden die Knockouts auf RNA- und Proteinebene, durch Real-time-RT-PCR und Western Blot validiert. Die bestätigten homozygoten DEPDC5-KO-Zelllinen wurden anschließend mittels Western Blot auf eine mTOR-Überaktivierung untersucht. Zuletzt erfolgte die neuromorphologische Validierung des DEPDC5-KO. Die Zellgröße proliferierender SH-SY5Y wurden mittels Durchflusszytometrie (FACS) untersucht. Zudem bestimmten wir die neuronale Architektur differenzierter SH-SY5Y unter Einsatz der Sholl-Analyse.
Ergebnisse: Es konnten vier unabhängige DEPDC5-KO-SH-SY5Y-Zelllinien mit homozygoten Indel-Mutationen und vorzeitigem Stoppcodon in Exon 3 generiert werden. Die erwartete Reduktion an DEPDC5-mRNA konnte mittels Real-time 10 RT-PCR nicht festgestellt werden. Die Abwesenheit des Proteins konnte durch Western Blot aber gezeigt werden. Funktionell konnte für alle Zelllinien eine mTOR-Überaktivierung mittels Western Blot nachgewiesen werden. Dabei konnte phosphoryliertes AKT (AKT serine/threonine kinase 1) als stabilster Marker etabliert werden. Auf neuromorphologischer Ebene ließ sich ein Trend in Richtung vergrößertem Zelldurchmesser bei verlängertem Auswachsen der Neuriten feststellen, wobei sich für das Modell Unterschiede zwischen den einzelnen Klonen ergaben.
Diskussion: In dieser Studie gelang es erstmals, den Zusammenhang zwischen DEPDC5-KO und einer mTOR-Überaktivierung in der onkogenen SH-SY5Y-Zelllinie zu replizieren. Das verlängerte Auswachsen der Neuriten, bei jedoch gleichbleibender Anzahl peripherer Verästelungen, stellt dabei einen neuen Befund dar und könnte durch die frühe neuronale Entwicklungsstufe des SH-SY5Y-Zellmodells erklärt werden. Auf Grundlage der Ergebnisse dieser Arbeit lässt sich sagen, dass das robuste und kostengünstige SH-SY5Y-Zellmodell insbesondere für high-throughput Methoden und Screeningassays ein geeignetes Modell ist. Durch die Kombination mit reiferen Zellmodellen, wie beispielsweise iPSCs (induced pluripotent stem cells), könnte der Phänotyp eines DEPDC5-KO und anderer mTOR-assoziierter Epilepsien, möglichst umfassend in-vitro dargestellt werden.
Trauma ist in Deutschland und weltweit eine der häufigsten Todesursache bei Personen unter 55 Jahren. Eine traumatische Verletzung von Gewebe führt zur Freisetzung von sogenannten damage-associated molecular patterns (DAMPs), die eine Entzündungskaskade auslösen, welche die Organfunktion negativ beeinträchtigt. Dies führt bei anhaltender Entzündung zunächst zu Organdysfunktion, was im weiteren Verlauf zu Organversagen führt und im Spätstadium im multiplen Organversagen (MOF) enden kann. In den meisten Fällen ist die inflammatorische Antwort des Immunsystems auf das Trauma adäquat und entspricht einem gut koordinierten Netzwerk von Immunzellen, Zytokinen und Chemokinen, welches zur Wiederherstellung des geschädigten Gewebes führt. Wenn dieses Netzwerk jedoch nicht im Gleichgewicht ist, kann die Entzündungsreaktion durch eine sogenannte feed-forward-loop von Inflammation und Gewebeschäden verstärkt werden. Wenn dieser Prozess systemisch wird, spricht man vom systemic inflammatory response syndrome (SIRS). Auf der anderen Seite gibt es ein Gegenstück zu SIRS, nämlich das sogenannte compensatory anti-inflammatory response syndrome (CARS). Auch ein Überschießen von CARS kann den Verlauf der posttraumatischen Inflammation negativ beeinträchtigen. Sowohl eine Verschiebung in Richtung von SIRS als auch in Richtung von CARS kann zu Organfunktionsstörungen, nosokomialen Infektionen und letztendlich zum Tod führen. Daher ist eine ausgeglichene, frühe posttraumatische Immunantwort für ein gutes Outcome von entscheidender Bedeutung.
Monozyten nehmen eine kritische Stellung sowohl in der primären Immunantwort nach Trauma als auch nach Infektion ein. Durch die Oberflächenexpression von diversen sogenannten pattern-recocnition receptors (PRRs), insbesondere Toll-Like-Rezeptoren (TLRs), können Monozyten Pathogene und sogenannte pathogen-associated molecular patterns (PAMPs) erkennen und neutralisieren. Darüber hinaus können Monozyten PAMPs über major histocompatibility complex class II -Moleküle (MHC-II) dem adaptiven Immunsystem präsentieren und somit als zelluläre Verbindung zwischen dem angeborenen und dem adaptiven Immunsystem fungieren. TLR2, eine Untergruppe der TLRs, ist einer der Hauptrezeptoren für PAMPs von grampositiven Bakterien wie S. aureus, dem Hauptkeim für posttraumatische Wundinfektionen und nosokomiale Infektionen.
Es gibt immer noch keinen Konsens über den Einfluss von Trauma auf die Funktion von Monozyten und deren Expressionsprofil von PRRs und MHC-II-Molekülen nach einem Trauma. Verschiedene Studien berichten von einer beeinträchtigten TLR2-Expression bei Monozyten nach Trauma, während sich in anderen Studien eine konstante oder sogar erhöhte TLR2-Expression bei Monozyten nach Trauma gezeigt hat. Die Daten sind auch in Bezug auf die posttraumatische Phagozytoseleistung von Monozyten unbeständig. Während in einigen Studien im frühen posttraumatischen Verlauf im Vergleich zu gesunden Probanden von einer erhöhten Anzahl zirkulierender Monozyten mit erhaltener Phagozytoseleistung berichtet wird, zeigten andere Studien eine verminderte Phagozytoseleistung von Monozyten nach Trauma. Darüber hinaus gibt es widersprüchliche Ergebnisse bezüglich der Fähigkeit von Monozyten, proinflammatorische Zytokine wie Interleukin (IL)-1β oder Tumor necrosis factor (TNF)-α freizusetzen.
Zusammengefasst ist die derzeitige Studienlage widersprüchlich. Zusätzlich wurde es in bisherigen Studien verpasst, die Kombination verschiedener Aspekte wie die Funktionalität der Monozyten in Bezug auf Phänotypisierung oder funktioneller Assays und deren Beobachtung über einen längeren Zeitraum miteinzubeziehen.
Die unterschiedlichen Ergebnisse der bisherigen Studien könnte durch die Natur des Polytraumas bedingt sein, beispielsweise durch verschiedene Verletzungsmuster und Verletzungsschwere, die unterschiedliche Erstversorgung am Unfallort, die Zeit bis zur Ankunft in der Notaufnahme oder die unterschiedliche primäre und definitive Versorgung der Verletzungen. All das kann zu einer unterschiedlichen Antwort des Immunsystems und somit zu unterschiedlichen Outcomes führen.
Daher war es Ziel unserer Studie, die oben genannten Variablen zu eliminieren, und eine kontrollierte Polytraumastudie am Schweinemodell durchzuführen, um die Funktionalität von Schweinemonozyten über einen Zeitraum von 72 Stunden nach Trauma zu untersuchen.
Zusätzlich und im Gegensatz zu früheren Studien haben wir die Phänotypisierung von Monozyten (TLR2 und MHC-II [SLA-DR]) mit einem funktionellen Phagozytose-Assay kombiniert und deren direkte Assoziation in einem unabhängigen Assay analysiert.
Peripheres Blut wurde vor (-1h) und direkt nach der Induktion des Polytraumas (PT) (0h) entnommen, sowie 3,5h, 5,5h, 24h und 72h später. Die Expression von H(S)LA-DR und TLR2 auf Schweine-Monozyten wurde untersucht. Außerdem wurde die Phagozytierungsaktivität von Schweinemonozyten gemessen.
Darüber hinaus wurden aus mechanistischen Gründen Blutproben von 10 gesunden Schweinen zunächst einem TLR2-neutralisierenden Antikörper und anschließend S. aureus-Partikeln ausgesetzt, bevor die Phagozytoseleistung der Monozyten untersucht wurde.
Die Anzahl der CD14 + -Monozyten aller zirkulierenden Leukozyten blieb während des Beobachtungszeitraums konstant, während der Prozentsatz der CD14 + H(S)LA-DR + -Monozyten direkt, 3,5h und 5,5h nach dem Trauma signifikant abnahm. Der Prozentsatz von TLR2 + exprimierenden Zellen aus allen Monozyten verringerte sich direkt, 3,5h und 5,5h nach dem Trauma signifikant. Der Prozentsatz der phagozytierenden Monozyten nahm direkt nach Trauma ab und blieb in den ersten 3,5 Stunden nach dem Trauma niedriger, stieg jedoch nach 24 Stunden an. Die Antagonisierung von TLR2 verringerte signifikant die Phagozytoseleistung der Monozyten.
Sowohl der verringerte Prozentsatz der aktivierten als auch der TLR2-exprimierenden Monozyten blieb bestehen, solange die verringerte Phagozytoseleistung beobachtet wurde.
Darüber hinaus führte auch die Neutralisation von TLR2 zu einer verminderten Phagozytoseleistung. Daher nehmen wir an, dass eine verringerte TLR2-Expression für die verringerte Phagozytoseleistung verantwortlich ist.
Einleitung: Das Pseudoaneurysma (PSA) stellt eine der häufigsten Komplikationen nach arteriellen Punktionen dar. Dabei unterscheiden sich die Komplikationsraten kathetergestützter Verfahren bei diagnostischen Eingriffen deutlich von jenen bei therapeutischen Eingriffen. Zur Behandlung des Pseudoaneurysmas steht eine große Bandbreite an Therapieoptionen zur Verfügung, unter anderem die ultraschallgestützte Thrombininjektion (TI) sowie die Therapie mittels konventionellem Druckverband (DV). Jedoch werden venöse Thrombosen nach der Behandlung des Pseudoaneurysmas beschrieben. Der Einfluss von Antikoagulantien (AK) und Thrombozytenaggregationshemmern (TAH) sowohl auf die Erfolgsraten der Pseudoaneurysmatherapie als auch die anschließende Entstehung venöser Thrombosen wurde bisher noch nicht analysiert.
Fragestellung: Die Effektivität des Druckverbands und der Thrombininjektion bei Patienten mit Pseudoaneurysma und damit assoziierten venösen Thrombosen wurde geprüft. Außerdem wurden die Auswirkungen von Antikoagulantien und Thrombozytenaggregationshemmern auf die Erfolgsraten der Pseudoaneurysmatherapie und die damit assoziierten venösen Thrombosen untersucht.
Methoden: Es wurden von Januar 2010 bis Dezember 2018 insgesamt 468 Patienten mit Pseudoaneurysma untersucht, wovon 238 Patienten in die retrospektive Studie eingeschlossen wurden. Die Behandlung des Pseudoaneurysmas erfolgte mittels Thrombininjektion oder Druckverband. Nach Ablauf von 24 Stunden wurde der Therapieerfolg sonographisch kontrolliert, wobei auch auf das Neuauftreten venöser Beinvenenthrombosen geachtet wurde. Bei allen Patienten wurde die Medikation mit Antikoagulantien und Thrombozytenaggregationshemmern zum Zeitpunkt der Pseudoaneurysmatherapie erhoben.
Ergebnisse: Die Thrombininjektion war dem Druckverband sowohl hinsichtlich des größeren Therapieerfolgs (TI 86% vs. DV 52%, p<0,001) als auch der geringeren Thromboseinzidenz (TI 7,7% vs. DV 21,3%, p=0,039) signifikant überlegen.
Insgesamt erlitten 40 der 238 Patienten eine neu aufgetretene venöse Thrombose der unteren Extremität. Auch bei Betrachtung des Einflusses von Antikoagulantien und Thrombozytenaggregationshemmern erwies sich die 5 Thrombininjektion als dem Druckverband signifikant überlegen. Jedoch wurde bei der Thrombininjektion eine um 18% niedrigere Erfolgsrate unter Antikoagulation festgestellt (TIoAK 97% vs. TImAK 79%, p=0,22), wohingegen bei Druckverbandanlage unter Antikoagulation die Erfolgsrate nur um 6% geringer war (DVoAK 57% vs. DVmAK 51%, p=0,38). In Bezug auf die Thromboseraten nach Thrombininjektion bzw. Druckverband unter Antikoagulation oder Thrombozytenaggregationshemmern konnten keine signifikanten Unterschiede beobachtet werden.
Fazit: Es konnte nachgewiesen werden, dass die Thrombininjektion eine sichere Methode zur Behandlung des Pseudoaneurysmas darstellt und nach Ansicht der Autoren, bei vorhandener Expertise, primär angewandt werden sollte.
Denn die Thrombininjektion ist dem Druckverband in Bezug auf Erfolgs- und Thromboseraten signifikant überlegen. Antikoagulantien beeinträchtigen den Erfolg der Thrombininjektion stärker als den des Druckverbands, weshalb bei Notwendigkeit einer Pseudoaneurysmatherapie die Pausierung der Antikoagulantien im Rahmen einer patientenspezifischen Risiko-Nutzen-Abwägung in Betracht gezogen werden sollte.
Das Prostatakarzinom ist in Europa die häufigste Krebserkrankung des Mannes. Im metastasierten, kastrationsresistenten Zustand gibt es wenige Therapieoptionen. Als neuere Therapiemöglichkeit hat sich in den letzten Jahren die Radioligandentherapie (RLT) mit 177Lu-PSMA-617 hervorgetan. Die Myelosuppression ist allerdings ein potentiell dosis-limitierender Faktor bei der Radioligandentherapie.
Ziel der vorliegenden Arbeit war es, das Auftreten, den Schweregrad und die Reversibilität von hämatotoxischen Nebenwirkungen in einer großen Patientenkohorte zu unter-suchen, die sich einer RLT mit 177Lu-PSMA-617 bei metastasiertem kastrationsresistentem Prostatakarzinom (mCRPC) unterzogen. Nach deskriptiver Analyse des behandelten Patientenkollektivs erfolgte die Identifikation von prädisponierenden Faktoren für das Eintreten von hämatologischen Nebenwirkungen. Dabei wurden insbesondere der Beitrag von Vortherapien, Behandlungsaktivität, Ausmaß der Knochentumorlast sowie eine prätherapeutisch bestehende Zytopenie berücksichtigt.
Die RLT wurde bei 140 Patienten durchgeführt, die insgesamt 497 Zyklen erhielten. Eine mittlere Aktivität von 6.9±1.3 GBq 177Lu-PSMA-617 pro Zyklus wurde in einem Median von 3 Behandlungszyklen verabreicht. Die mittlere kumulative Aktivität betrug 24.6±15.9 GBq. Hämatologische Parameter wurden bei Studienbeginn, vor jeder Behandlung, 2 bis 4 Wochen danach und während der gesamten Nachbeobachtung gemessen. Die Toxizität wurde anhand der Common Terminology Criteria for Adverse Events v5.0 eingestuft.
Dabei zeigten sich signifikante (Grad ≥3) hämatologische unerwünschte Ereignisse bei 13 Patienten (9.3%). Davon 10 mit Anämie (7.1%), 5 mit Leukopenie (3.6%) und 6 mit Thrombozytopenie (4.3%). Die Hämatotoxizität war bis zu einem medianen Follow-up von 8 Monaten bei allen bis auf zwei Patienten, die innerhalb von weniger als 3 Monaten nach der RLT an einer Krankheitsprogression starben, reversibel auf Grad ≤2. Die Myelosuppression war signifikant häufiger bei Patienten mit vorbestehender Zytopenie Grad ≥2 oder hoher Knochentumorlast (disseminiert oder diffus). Eine vorangegangene taxan-basierte Chemotherapie war ebenfalls mit einer erhöhten Inzidenz signifikanter Hämatotoxizität assoziiert, während die Behandlung mit 223Ra-Dichlorid, die kumulative RLT-Behandlungsaktivität und die Aktivität pro Zyklus nicht signifikant korreliert waren.
Die vorliegenden Ergebnisse zeigen somit, dass hämatologische Nebenwirkungen nach RLT eine akzeptable Gesamtinzidenz besitzen und häufig reversibel sind. Eine hohe Knochentumorlast, eine vorangegangene taxan-basierte Chemotherapie und eine Zyto-penie vor der Behandlung vom Grad ≥2 können als Risikofaktoren für die Entwicklung einer klinisch relevanten Myelosuppression angesehen werden, während die kumulative RLT-Aktivität und eine vorangegangene 223Ra-Dichlorid-Behandlung keinen signifikanten Beitrag zur Inzidenzrate zeigen. Die Fragestellung ist von unmittelbarer Relevanz, da die Erkenntnisse entscheidend für die individuelle Risikoeinschätzung von Patienten mit mCRPC bezüglich der 177Lu-PSMA-617 beitragen.
In dieser retrospektiven Studie wurden 47 Patienten mit einem histologisch nachgewiesenen Analkarzinom und im Anschluss aufgetretenen Rezidiv nach Beendigung der Radiochemotherapie und hinsichtlich der Risikofaktoren für das tumorfreie, sowie das Gesamtüberleben ausgewertet.
Auffällig in dieser Patientenkohorte war der hohe Anteil an männlichen Patienten (68,1 %), an HIV-positiven (36,2 %) sowie an Patienten mit nachgewiesenem Lymphknotenbefall bei Erstdiagnose (72,3 %).
Als signifikante Risikofaktoren für das tumorfreie Überleben wurden ein Primärtumor ab ≥ T3-Kategorie (Hazard-Ratio 1,87), ein Karnofsky-Performance-Status ≤ 80 % vor Beginn der Radiochemotherapie (Hazard-Ratio 3,25), sowie das initiale fehlende therapeutische Ansprechen der Radiochemotherapie (Hazard-Ratio 5,9) festgestellt. Auffällig war, dass kein signifikanter Einfluss bzgl. des biologischen Geschlechts, des Gradings, der N Kategorie oder des Alters ermittelt werden konnte.
In Bezug auf das Gesamtüberleben der Patienten ergaben sich folgende signifikante Risikofaktoren: eine T-Kategorie ≥ T3 (Hazard-Ratio 4,091), ein hohes UICC-Stadium (Hazard Ratio 2,89 für Stadium IIIC), das fehlende initiale therapeutische Ansprechen der Radiochemotherapie (Hazard-Ratio 9,59), ein Karnofsky-Performance-Status ≤ 80 % (Hazard-Ratio 12,23). Ein protektiver Faktor stellte ein längeres tumorfreies Überleben (Hazard-Ratio 0,935) dar.
Die Auswertung des gesamten und des tumorfreien Überlebens hinsichtlich des Befallsmusters der Rezidive ergab, dass mit zusätzlich zum lokalen Rezidiv nachgewiesenem lokoregionären Rezidiv und Fernmetastasen sich sowohl das tumorfreie Überleben (Ein-Jahres-tumorfreies Überleben 52,9 ± 12,1 % vs. 15,0 ± 8,0 %) als auch das Gesamtüberleben (5-Jahres-Gesamtüberleben 75,0 ± 12,5 % vs. 0,0 %) signifikant verringerten.
Im Vergleich der Merkmale der Patienten mit und ohne nachgewiesenen Fernmetastasen ergab sich ein signifikanter Unterschied in Bezug auf den Anteil der Tumore ≥ T3 (75 %).
In der Untergruppe, die mittels abdominoperinealer Rektumexstirpation therapiert wurde, konnte kein signifikanter Unterschied in Bezug auf die rpT-Kategorie, R-Klassikfikation, Pn-, V- und L-Klassifikation festgestellt werden.
Das Glioblastom ist eine tödliche maligne Erkrankung des zentralen Nervensystems. Etablierte Therapiekonzepte resultieren in einer Fünfjahresüberlebensrate von fünf Prozent. Die derart infauste Prognose wird unter anderem bedingt durch die Heterogenität des Tumors. Insbesondere einer Population stammzellartiger Zellen wird die Verantwortung für Resistenz und Rekurrenz des Glioblastoms zugesprochen. Die genuine Plastizität des Glioblastoms mit entsprechender Fähigkeit zur Änderungen tumorweiter Expressionsprofile und Ausbildung einzigartiger funktioneller Fähigkeiten kann ohne gezielte Beeinträchtigung von stammzellartigen Zellen womöglich nicht ausreichend überwunden werden. Als Urheber kritischer Eigenschaften erscheint die erfolgreiche Elimination dieser Population innerhalb des Glioblastoms notwendig um nachhaltige Therapieerfolge zu erzielen. Mögliche Strategien der Elimination stammzellartiger Zellen setzen an Differenzierung und Ausbeutung stammzelltypischer Signalwege zur Modulation dieser Zellen an. Hierdurch sollen zentrale Fähigkeiten der Population stammzellartiger Zellen, wie Selbsterneuerung, Resistenz gegenüber Strahlen- und Chemotherapie und erneute Formation heterogener Tumore, überwunden werden.
Zentrale zelluläre Prozesse, welche zum Erhalt des stammzellartigen Zustandes dieser Zellen beitragen, sind unter anderem der Hedgehog- und Notch-Signalweg. Einer Beeinträchtigung dieser Signalwege wohnt womöglich die Fähigkeit der effektiven Modulation zentraler Eigenschaften stammzellartiger Zellen inne. Neben diesen Signalwegen gibt es eine Reihe weiterer Prozesse, welchen eine Urheberschaft an der Resistenz der Zellen zugesprochen wird. Hierzu zählt beispielweise der Prozess der Autophagie. Die Autophagie ist ein hochkonservierter zellulärer Mechanismus zur Selbsterneuerung durch Selbstdegradation fehlerhafter zellulärer Komponenten. Gleichzeitig kann die Autophagie durch eine Überaktivität zu einem spezifischen, autophagischen Zelltod beitragen. Die Modulation dieses Dualismus kann in einer Vielzahl von Tumoren, so auch im Glioblastom, das Schicksal einer tumorfördernden Autophagie in eine antitumorale Autophagie ändern.
Im Rahmen dieser Arbeit wurde erstmalig eine Modulation zentraler Eigenschaften stammzellartiger Zellen durch die Beeinflussung ihrer zellulären Prozesse mittels kombinierter Therapie durch Arsentrioxid oder GANT und (-)-Gossypol gezeigt. Arsentrioxid wirkt unspezifisch unter anderem als Inhibitor von Notch- und Hedgehog-Signalweg. Diese Inhibition wurde auch in den untersuchten Zellen nachgewiesen und führte zu einer Reduktion von stammzelltypischen Markerproteinen und Fähigkeiten der Tumorgenese in -vitro und ex -vivo, sowie zur Sensitivierung gegenüber strahleninduzierten Schäden. Gegenüber einer spezifischen Hedgehog-Inhibition durch eine GANT-vermittelte Bindung an Gli-Transkriptionsfaktoren zeigten sich deutliche Vorteile der dualen Inhibition durch Arsentrioxid hinsichtlich der genannten Eigenschaften. Die Kombination der Substanzen mit dem pan-Bcl-Inhibitor (-)-Gossypol führte zu einer synergistischen Steigerung der antitumoralen Effekte. (-)-Gossypol wird in Gliomzellen insbesondere mit der Modulation der autophagischen Maschinerie und Auslösung eines autophagischen Zelltodes in Verbindung gebracht. Die Ergebnisse weisen parallele Signalweginteraktionen mit effektiver Modulation des DNA-Damage-Response-Systems durch die Reduktion des Proteins CHEK als kausalen Mechanismus des Synergismus der Substanzen aus.
Die beobachteten Änderungen der typischen Eigenschaften stammzellartiger Zellen durch die Therapie mit Arsentrioxid und (-)-Gossypol implizieren lohnende Folgeuntersuchungen zur weiteren Evaluation dieser Effekte in -vivo, um zukünftig translationale Ableitungen zu erlauben. Die Heterogenität des Glioblastoms und seine genuine Plastizität lassen sich womöglich erfolgreich durch multiple Eingriffe in unterschiedliche zelluläre Prozesse, hierunter Notch- und Hedgehog-Signaling, modulieren. Hierdurch könnten zentrale Eigenschaften des Glioblastoms eventuell effektiv verändert und Resistenz sowie Rekurrenz überwunden werden.
Hintergrund: Die kardiale Magnetresonanztomographie (CMR) gilt als Referenzstandard für die Beurteilung der linksventrikulären Funktion und des Volumens des linken Ventrikels (LV). Neuartige Echtzeittechniken versprechen eine schnelle Bildgebung bei freier Atmung mit ähnlicher Qualität. Ziel dieser Studie war es, die Genauigkeit der standardmäßigen Steady-State-Free-Precession (SSFP)-Cine-Bildgebung bei angehaltenem Atem mit der gleichen Sequenz unter Verwendung von drei Signalmittelungen, während freier Atmung sowie mit einer Compressed-Sensing (Cs)- Echtzeittechnik während der freien Atmung zur Beurteilung von LV-Volumen und Masse zu vergleichen.
Methoden: 24 Probanden wurden mit einer Standard-SSFP-Technik bei angehaltenem Atem (BH), mit derselben Technik bei freier Atmung unter Verwendung von drei durchschnittlichen Herzzyklen (SA-FB) sowie mit einem CS-Echtzeitprotokoll bei freier Atmung (CS-FB) untersucht. Verglichen wurden die Erfassungsdauer, die Genauigkeit sowie die Inter- und Intraobserver-Variabilität von LV-Funktion, Volumen und Masse.
Ergebnisse: Die Echtzeit-Bildgebung war erheblich schneller als die freie Atmung mit drei Signalmittelwerten (p<0.001). Die Korrelation zwischen dem Referenzstandard (BH) und den beiden anderen Techniken war ausgezeichnet mit einem r2 für SA-FB vs. BH zwischen 0.74 - 0.89 und einem r2 für CS-FB vs. BH zwischen 0.81 und 0.94. SA-FB ergab mittlere Fehler zwischen 5.9% und 15% für verschiedene LV-Parameter, während CS-FB zu mittleren Fehlern von 6.5%bis 13% führte. Die Inter- und Intraobserver-Variabilität war bei der Echtzeit-Bildgebung ausgezeichnet und bei der SSFP-Bildgebung (SA-FB und BH) gut.
Schlussfolgerung: Sowohl ein Standardprotokoll mit 3 Signalmittelungen, während der freien Atmung als auch die Compressed Sensing liefern genaue und reproduzierbare Messungen des LV, während die Echtzeit-Bildgebung wesentlich schneller ist.
Auf Grund einer hohen Inzidenz und Mortalität, welche in den nächsten Jahren voraussichtlich eine deutliche Zunahme erfahren wird, stellt die Behandlung eines HCC an alle beteiligten Fächer der Medizin, sowie an den Patienten und die Patientin, eine enorme Herausforderung dar. In der klinischen Routine hat sich die TACE, nicht nur bei Patienten im intermediären Stadium der Erkrankung, etabliert, sodass im Laufe der Erkrankung nahezu jeder zweite Patient mindestens eine TACE-Behandlung bekommt.
Der mit Radiomics betitelte, im medizinischen Bereich relativ junge, Forschungszweig beschäftigt sich mit der Idee, dass in den Schnittbildern eine für das menschliche Auge nicht sichtbare Ebene von Informationen vorliegt, welche mit den richtigen Mitteln extrahiert, relevante Daten und Informationen zur Genetik, Phänotypie und Pathophysiologie des Tumors liefern kann.
Hier greift der Ansatz dieser Arbeit an. In dieser Arbeit wird die Hypothese postuliert, dass durch die Auswertung und Integration von Lipiodolablagerungen in der Zielläsion nach der ersten durchgeführten TACE eine zuverlässigere Prognose zum Therapieansprechen und Gesamtüberleben mit Hilfe von Radiomics möglich ist, als dies klinische Scores alleine erlauben.
Dazu wurde in dieser Arbeit ein Patientenstamm von 61 Patienten untersucht. Alle Patienten litten an einem histologisch gesicherten HCC. Bei allen Patienten wurden innerhalb eines Zeitintervalls von 6 Monaten drei TACE durchgeführt mit einer nachfolgenden Verlaufskontrolle mittels kontrastmittelgestützter MRT oder CT.
In einem dezidierten, mehrstufigen Verfahren wurden aus der nativen 24 Stunden postinterventionellen CT-Kontrolle die Lipiodol anreichernden HCC-Herde segmentiert. Aus diesem segmentierten 3-D Bilddatensatz wurde eine Vielzahl von bildgebenden Biomarkern, Features, extrahiert. Die Features wurden im weiteren Prozess selektiert, redundante und nicht reproduzierbare Features wurden für das weitere Vorgehen verworfen.
Aus den vorliegenden Daten der Patienten wurden Informationen selektiert, mit welchen insgesamt 5 klinische Scores berechnet wurden, diese Scores wurden im weiteren Verfahren ebenfalls als Features angesehen.
Mehrere Machine Learning-Algorithmen wurden mit der Zielvariable: Größenregredienz des Tumors nach TACE als Folge eines annehmbaren Therapieansprechens, angelernt.
Das beste Ergebnis lieferte ein ML-Algorithmus mit einem Random Forrest Klassifikator auf der Grundlage des kombinierten, aus Radiomics-Features und klinischem Score-Features bestehendem Featuresets.
Um die initial aufgestellte Hypothese zu überprüfen wurde die Zielvariable von Größenregredienz der TL auf OS verändert. Die Performance des ML-Algorithmus in Bezug auf die neu definierte Zielvariable OS wurde hierbei mit dem C-index bewertet. Im Test-Set liegt ein C-Index von 0,67 vor. Das kombinierte Modell aus klinischem Score und Radiomics zeigt hierbei eine Überlegenheit gegenüber dem klinischen Score allein (C-Index 0,58) und dem Radiomics score (C-Index 0,60). Dies bestätigt die aufgestellte Hypothese. Das kombinierte Modell hat die Fähigkeit, anhand der Lipiodolanreicherung in der 24 Stunden postinterventionell durchgeführten CT, zur Prädiktion eines Gesamtüberlebens von HCC-Patienten nach einer TACE.
Die Patienten mit der kürzesten und längsten Überlebenszeit innerhalb der Studienpopulation dienten als Grundlage für eine Kaplan-Meier-Schätzung und Berechnung eines Risiko-Scores (siehe Abbildung 37). Dabei zeigt sich eine signifikante Differenz zwischen den Risiko-Scores. Eine Kurve dieser Art könnte zukünftig theoretisch als Schätzung zur Überprüfung der Indikation einer TACE- Wiederholung für einzelne Patienten dienen. Für eine entsprechende Generalisierbarkeit sind weiterführende Studien zur Validierung nötig. Unsere Studie liefert hier erste vielversprechende Hinweise, wobei unsere Limitationen nicht zu vernachlässigen sind, wie im Detail diskutiert.
Zusammenfassend zeigt unsere Arbeit, dass ein von uns definierter kombinierter Score, bestehend aus bildgebenden Biomarkern (Radiomics) und einem klinischen Score (m- HAP-II-Score), eine Prognose zum Gesamtüberleben nach der ersten TACE- Behandlung liefern kann. Mit Hilfe dieses kombinierten Scores war es in unserer Studienkohorte möglich abzuschätzen, ob ein Patient von weiteren TACE-Prozeduren profitieren würde. Der Behandlungsalgorithmus könnte auf dieser Basis individuell angepasst werden.
Der kombinierte Score hätte somit nicht nur das Potenzial Nebenwirkungen zu verhindern und Kosten im System einzusparen, sondern ebenfalls den Patienten potentiell individuell effektiveren Therapiealternativen zuzuführen.
Die kongenitale Zytomegalievirus Infektion (cCMV-Infektion) ist die häufigste kongenitale Infektionskrankheit weltweit und ist der häufigste Grund für angeborene nicht-genetische Hörstörungen und eine häufige Ursache neurologische Entwicklungsstörungen. Die Inzidenz der cCMV-Infektion liegt in Deutschland zwischen 0,2 % – 0,5 %. Bei retroviral-exponierten Neugeborenen wird die Inzidenz mit 2,7 % – 11,4 % angegeben. Mit der erhöhten Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen ergibt sich für diese Kinder ebenfalls ein erhöhtes Risiko für Langzeitfolgen. Die genaue Inzidenz der cCMV-Infektion variiert je nach untersuchter Population. Für Deutschland existiert eine retrospektive Studie, welche eine Inzidenz von 2,7 % für cCMV-Infektionen bei retroviral-exponierten Neugeborenen ermittelte. In der vorliegenden Studie wurde diese Inzidenz in einem prospektiven multizentrischem Studiendesign in Deutschland ermittelt.
Zur Ermittlung der Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen und Beurteilung der Umsetzbarkeit eines cCMV-Neugeborenen-Screenings wurde ein selektives cCMV-Neugeborenen-Screening für retroviral-exponierte Neugeborene mittels PCR-Untersuchung auf CMV aus einem Mundschleimhautabstrich innerhalb der ersten 21 Lebenstage an drei Studienstandorten innerhalb Deutschlands, Mannheim, München und Frankfurt am Main, durchgeführt. Bei positivem Ergebnis der PCR auf CMV-DNA erfolgte eine Bestätigungsdiagnostik mittels erweiterter Urin- und Blutuntersuchung auf CMV. Zur Diagnostik von cCMV-assoziierten Symptomen erfolgte eine Sonographie des Abdomens und des Schädels sowie eine ausführliche körperliche Untersuchung, eine augenärztliche Evaluation und erweiterte Testungen der Gehörfunktion. Nachuntersuchungen und Therapien wurden den betroffenen Familien außerhalb der Studie angeboten.
122 / 184 (66,3 %) HIV-exponierte Neugeborene von 111 Müttern wurden im Studienzeitraum zwischen dem 24.11.2017 und dem 31.03.2021 eingeschlossen. Eine cCMV-Infektion wurde bei einem Neugeborenen nachgewiesen, sodass die Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen in dieser Studie 0,8 % beträgt. Eine HIV-Mutter-Kind-Transmission wurde nicht detektiert. Die Seroprävalenz für CMV bei den HIV-positiven Frauen lag in diesem Kollektiv bei 96,1 %.
Das Neugeborene mit nachgewiesener cCMV-Infektion zeigte eine zerebrale Beteiligung mit ependymalen Zysten und einer thalamostriatalen Vaskulopathie und erhielt außerhalb der Studie eine zeitgerechte antivirale Therapie mit Beginn in der Neonatalper-ode. Im Verlauf zeigten sich trotz der antiviralen Therapie Entwicklungsstörungen mit autistischen Verhaltensweisen. Die cCMV-Infektion wäre ohne ein routinemäßiges Screening mit großer Wahrscheinlichkeit nicht nachgewiesen worden.
Die frühzeitige Untersuchung der Probanden auf eine cCMV-Infektion hat sich in dieser Studie als vorteilhaft gezeigt, da bei Nachweis einer cCMV-Infektion zeitnah weiterführende Diagnostik und Therapien angeboten werden konnten. Auch die relativ große Anzahl an rekrutierten retroviral-exponierten Neugeborenen im prospektiven Studiendesign in Zusammenarbeit mit mehreren Studienzentren in Deutschland spricht für die Validität dieser Studie. Als Limitation ist zu nennen, dass ein statistisch signifikantes Ergebnis nicht erzielt werden konnte. Aufgrund der Corona-Pandemie kam es organisationbedingt zu einer relativ hohen Anzahl an nicht eingeschlossenen Patienten. Auch die geplante Rekrutierung einer Vergleichsgruppe in Südafrika konnte aufgrund der Pandemie nicht umgesetzt werden. Falsch negative Befunde wurden im Sinne der Familie nicht mittels Goldstandardmethode überprüft, sodass eine Unterschätzung der Rate an cCMV-Infektionen möglich ist.
Insgesamt konnte diese Studie neben der Ermittlung der cCMV-Inzidenz bei retroviral-exponierten Neugeborenen in Deutschland von 0,8 % aufgezeigt werden, dass selbst symptomatische cCMV-Infektionen ohne ein systematisches cCMV-Neugeborenen-Screening nicht sicher nachgewiesen werden konnte. Zudem konnte gezeigt werden, dass ein systematisches cCMV-Neugeborenen-Screening mittels Mundschleimhautabstrich in Deutschland praktikabel ist und bei den Sorgeberechtigten Akzeptanz findet. Den erhobenen Daten zur Folge könnte ein Screening aller Neugeborener oder zumindest ein risikoadaptiertes Screening auf das Vorliegen einer cCMV-Infektion dazu beitragen, dass mehr Kinder mit asymptomatischer oder unentdeckter symptomatischer cCMV-Infektion diagnostiziert werden und so eine entsprechende Behandlung ermöglicht sowie ggf. Langzeitfolgen möglichst verringert werden.
Weitere Studien zum Effekt der verfügbaren antiviralen Therapie bei cCMV-Infektionen und regelmäßiger Kontrolluntersuchungen nach stattgehabter cCMV-Infektion sind zu empfehlen, um die Auswirkungen dieser Maßnahmen auf den Krankheitsverlauf zu evaluieren.
S100A12 ist ein Entzündungsmarker, der inflammatorische Prozesse präzise anzeigt. Entzündungsprozesse mit erhöhten S100A12 Konzentrationen spielen vor allem bei Autoimmunerkrankungen wie der der rheumatischen Arthritis (RA), autoinflammatorischen Erkrankungen wie der juvenilen idiopathische Arthritis (JIA) oder weiteren Erkrankungen wie dem familiären Mittelmeerfieber (FMF) eine wichtige Rolle. Das S100A12 Protein besitzt drei verschiedene Konformationen: das Dimer, das Tetramer und das Hexamer. In verschiedenen Studien konnte gezeigt werde, dass das Hexamer an proinflammatorische Rezeptoren wie dem Toll-like Rezeptor-4 (TLR-4) und dem „receptor for the advanced glycation end products“ (RAGE) bindet und so die Produktion von weiteren Entzündungsmediatoren stimuliert. Daher besitzt die S100A12 Hexamerkonformation eine entscheidende Rolle in Entzündungsprozessen. Das Ziel bestand somit in der Selektion von Peptiden oder „single chain variable fragment“ (scFv)-Konstrukten, die exklusiv an die hexamere Konformation von S100A12 binden.
Mittels Biopanning von Peptid- und scFv-Phagen Bibliotheken konnten Peptide und scFvs selektiert werden. Die selektierten Peptide und die selektierten scFvs wurden in ELISAs weiter auf ihre Bindungseigenschaften charakterisiert. Durch Umklonierung in einen Fc-Konstrukt Vektor konnten die scFvs als vollständige scFv-Fc-Konstrukte exprimiert werden. Die Bindung der selektierten Peptide bestätigte sich als Biotin-Fusion im anschließenden ELISA. Es zeigte sich eine sehr hohe Bindungsspezifität der Peptide und der produzierten scFv-Fc-Konstrukte an das S100A12 Hexamer.
Mit den selektierten Liganden ist es gelungen einen Test zu entwickeln: an Streptavidin immobilisierte Peptide binden spezifisch das S100A12 Hexamer aus dem Testmedium und mittels selektiertem scFv-Fc-Konstrukten lassen sich die gebundenen S100A12 Proteine detektieren. Ein Detektionsantikörper ermöglichte die Visualisierung der gebundenen scFv-Fc-Konstrukte mittels Farbreaktion. Das S100A12 Hexamer konnte durch den Testaufbau auch im Plasma spezifisch detekiert werden.
Dieser Test könnte es ermöglichen, die exakte Diagnose und vor allem das Überwachung von Patienten mit steigenden Entzündungsmarkern, wie im Rahmen der autoinflammtorischen Erkrankung JIA oder einer Erkrankung wie dem FMF, zu verbessern. Mit einem verbessertem Krankheitsmonitoring könnte ebenfalls die Therapie im frühen Stadium optimiert werden.
Zusätzlich könnte ein mögliches therapeutische Potential der S100A12 Hexamer Liganden getestet werden. Sollten die hexamerspezifischen Liganden die Interaktion von S100A12 mit ihren Rezeptoren wie TLR-4 oder RAGE blockieren, ist eine therapeutische Verwendung in der Behandlung von Autoimmun- und autoinflammatorischen Erkrankungen möglich.
Chronisch-entzündliche Dermatosen sind in Deutschland weit verbreitet und haben einen enormen Einfluss auf die Lebensqualität der Erkrankten. Das umfassende Verständnis der molekularen Prozesse und Signalwege bildet die Basis, um mögliche Beziehungen zwischen den Hauterkrankungen aufzudecken. Der Nachweis von Ähnlichkeit und Übereinstimmung in den Signalwegen bietet die Aussicht, dass etablierte Therapien auch bei anderen Erkrankungen helfen können.
Der Zweck dieser Arbeit ist der Nachweis der Expression von IL-1β, IL-17A, IL-22, IL-23 und TNF-α in drei chronisch-entzündlichen Dermatosen: Acne inversa (AI), Sinus pilondalis (SP) und Perifolliculitis capitis abscedens et suffodiens (PCAS). Bei allen untersuchten Diagnosen handelt es sich um potentiell verwandte Erkrankungen der Haarfollikel, die durch Verlegung der Ausführungsgänge zu ausgedehnten Entzündungsreaktionen mit Bildung von Knoten, Abszessen und Fisteln führen. Bereits nachgewiesen ist, dass IL-1β, IL-17A, IL-22, IL-23 und TNF-α eine wichtige Rolle in der Pathogenese von Acne inversa spielen und Antikörpertherapien an einigen dieser Zielproteine spezifisch angreifen, um den Verlauf der Erkrankung zu verbessern.
Die Expression der Proteine wurde in Läsionen von Patienten mit den drei Indikationen immunhistochemisch an paraffiniertem Gewebe untersucht. Wie erwartet, zeigten sich in der überwiegenden Anzahl der Proben große entzündliche Infiltrate und hier wurde die Expression aller untersuchten Zytokine in unterschiedlicher Intensität nachgewiesen. Vielversprechend war insbesondere die Expression von IL-17A und IL-23 in SP und PCAS. Die Expression von IL-1β war insgesamt eher gering ausgeprägt; bei AI noch etwas höher als in SP und PCAS. Die Färbungen auf IL-22 zeigten sich kräftig in allen untersuchten Dermatosen. Allerdings gibt es bisher keine zugelassene Therapie zur Modulation dieses speziellen Zytokins. IL-22 scheint eine zentrale Rolle in
der Pathogenese der AI zu spielen. Mit TNF-α-Blockern wurden schon gute therapeutische Ergebnisse bei AI und PCAS erzielt. Deshalb ist der Nachweis von TNF-α in den entzündlichen Läsionen zu erwarten gewesen. Auch bei den SP-Proben fanden sich deutlich erhöhte Protein-Level, sodass auch hier eine gezielte Therapie von Vorteil sein könnte. Wegen des geringen Probenumfangs und der Methodik sind weitere gezielte Untersuchungen notwendig. Dennoch konnten viele Gemeinsamkeiten der Zytokinexpression ausgemacht werden, was vielversprechende Hinweise auf mögliche Behandlungsansätze bei AI, SP und PCAS zulässt. Diese Arbeit bietet einen ersten Blick auf den immunologischen Phänotyp der verwandten Dermatosen.
Gastroschisis und Omphalozele zählen zu den häufigsten angeborenen Bauchwanddefekten. Dabei wird zwischen einfacher (ohne sekundäre Darmveränderungen) und komplexer (mit sekundären Darmveränderungen) Gastroschisis unterschieden. Bei der Omphalozele ist es wichtig, ob eine Protrusion der Leber vorliegt. Die Therapie beider Fehlbildungen besteht aus der Reposition der Bauchorgane in den Bauchraum und einem operativen Bauchdeckenverschluss in den ersten Lebenstagen.
Daten zu Langzeitverläufen nach dem operativen Bauchdeckenverschluss, insbesondere in Hinblick auf gastrointestinale Komplikationen mit erneutem chirurgischen Interventionsbedarf, sind in der Literatur rar.
Ziel dieser Studie ist es daher, die Inzidenz und die Art von operativen Eingriffen nach dem Bauchdeckenverschluss bei Patienten mit einer Gastroschisis und einer Omphalozele nach einem Bauchdeckenverschluss am eigenen Patientenkollektiv zu untersuchen. Hierzu wurden die Akten aller Patienten mit Gastroschisis und Omphalozele, die in der Klinik für Kinderchirurgie und Kinderurologie des Universitätsklinikums Frankfurt von 2010 bis 2019 behandelt wurden, retrospektiv ausgewertet. Die Inzidenz von Operationen nach Bauchdeckenverschluss wurde anhand der mittleren kumulativen Ein-Jahres-Anzahl an Operationen pro Patienten und der kumulativen Ein-Jahres-Inzidenz der Operationen ermittelt.
Insgesamt wurden 61 Patienten identifiziert. Nach Ausschluss von vier Patienten (Krankenhausverlegung (ein Patient) und Versterben (drei Patienten)) konnten die Verläufe von 33 Patienten mit Gastroschisis (18 mit einfacher und 15 mit komplexer Gastroschisis) und 24 Patienten mit Omphalozele (je zwölf mit und ohne Leberprotrusion) ausgewertet werden.
Bei 23 Patienten mit Gastroschisis und bei 20 Patienten mit Omphalozele kam es innerhalb des ersten Jahres nach Bauchdeckenverschluss zu erneuten Operationen. Das Risiko sich einer erneuten Operation unterziehen zu müssen, war bei Patienten mit komplexer Gastroschisis signifikant höher als bei Patienten mit einfacher Gastroschisis (kumulative Ein-Jahres-Inzidenz: 64,3% vs. 24,4%; p= 0,05). Zwischen den beiden 6 Formen der Omphalozele bestand kein Unterschied in der Inzidenz chirurgischer Eingriffe. Im Median kam es bei Patienten mit Gastroschisis nach 84 Tagen und bei Patienten mit Omphalozele nach 114,5 Tagen zu einer erneuten Operation.
74% der Patienten mit Gastroschisis und 30% der Patienten mit Omphalozele wurden aufgrund einer gastrointestinalen Komplikation operiert. Die Patienten mit komplexer Gastroschisis hatten im Vergleich zu Patienten mit einfacher Gastroschisis ein signifikant erhöhtes Risiko für eine Operation zur Behandlung einer gastrointestinalen Komplikation (kumulative Ein-Jahres-Inzidenz 64,3% vs. 11,1%; p= 0,015). In Bezug auf die Anzahl der Operationen pro Patienten und Jahr hatten die Patienten mit komplexer Gastroschisis und Patienten mit Omphalozele und Leberprotrusion die meisten operativen Eingriffe (kumulative Ein-Jahres-Anzahl 1,664 und 1,417 vs. einfache Gastroschisis (0,326) und Omphalozele ohne Leberprotrusion (0,333)). Dieses Verhältnis spiegelt sich auch in der kumulativen Ein-Jahres-Anzahl an Operationen mit gastrointestinalen Indikationen wider (komplexe Gastroschisis: 1,462 Operationen; Omphalozele mit Leberprotrusion: 0,500 Operationen; einfache Gastroschisis: 0,111 Operationen; Omphalozele ohne Leberprotrusion: keine Operation)
Nach dem Bauchdeckenverschluss kam es zu zwei Todesfällen bei Patienten mit komplexer Gastroschisis und zu drei Todesfällen bei den Patienten mit Omphalozele und Leberprotrusion. Bei den beiden Patienten mit komplexer Gastroschisis lag eine gastrointestinale Ursache vor (Leberversagen, Dünndarmvolvulus). Die Patienten mit der Omphalozele verstarben aufgrund assoziierter kardialer und pulmonaler Erkrankungen. Die Daten zeigen, dass Patienten mit Gastroschisis und Omphalozele im ersten Lebensjahr nach dem Bauchdeckenverschluss ein hohes Risiko für weitere Operationen haben. Patienten mit komplexer Gastroschisis und mit einer Omphalozele und Leberprotrusion haben das größte Risiko für eine erneute Operation nach Bauchdeckenverschluss. Bei Patienten mit einfacher Gastroschisis und Omphalozele ohne Leberprotrusion ist dieses Risiko gering. Die Mehrzahl der Operationen erfolgt aufgrund von gastrointestinalen Ursachen. Nur bei Patienten mit komplexer Gastroschisis tragen gastrointestinale Komplikationen zu einer erhöhten Mortalitätsrate bei. Die Ergebnisse dieser Arbeit können für Aufklärungs- und Beratungsgespräche von Eltern von Kindern mit Gastroschisis und Omphalozele herangezogen werden.
Neuroendokrine Tumoren (NET) sind eine seltene Krankheit mit einem breitgefächerten heterogenen Erscheinungsbild, wodurch sich die Diagnose der Tumoren aus einer Vielzahl aus Gründen häufig um Jahre verzögert (1). In dieser Arbeit analysierten wir einen großen Datensatz in einem tertiären Referenzzentrum (UKF) von 1984-2019, um die Symptomatik vor der Diagnose des Tumors sowie den Zeitraum von der Tumormanifestation bis zur Diagnose weiter zu klären. Für die deskriptiven Analysen kamen SPSS, Cox-Regression und Log-Rank-Test zur Anwendung.
Insgesamt schloss die retrospektive Studie 488 gastroenteropankreastische (GEP)-NET mit 486 Patienten ≥ 18 Jahren ein, wovon knapp mehr als die Hälfte männlich (52,9%) waren. Das mittlere Alter bei Erstdiagnose (ED) betrug 58 Jahre (477/486, 9 unbekannt). Die häufigsten Primärtumorlokalisationen stellten Pankreas (143/488 Patienten) und Dünndarm (145/488 Patienten) dar. Die Mehrheit der NET waren langsam wachsende G1-Tumoren mit einem Ki67 < 3% (155/330). Die Hälfte der Patienten entwickelten im Verlauf Fernmetastasen, wobei die meisten bereits bei der ED vorlagen und insbesondere die Leber als Metastasierungsorgan dominierte. Bei mehr als 60% der Patienten konnten Angaben zur klinischen Symptomatik vor der ED detektiert werden, wovon wiederum mehr als die Hälfte symptomatisch waren. 42% der symptomatischen Patienten zeigten NET-spezifische Symptome (Bauchschmerzen 77/128; 60,2%, Durchfall 51/128; 39,8%, Flush 19/128; 14,8%, Karzinoidsyndrom 8/128; 6,3% Tachykardie 6/128; 4,7%). In der primären bildgebenden Diagnostik dominierten konventionelle Bildgebungen wie Sonographie und Computertomographie (CT), wobei nuklearmedizinische Diagnostik eine Seltenheit darstellte. Mehr als 30% der Tumoren wurden als Zufallsbefunde im Rahmen einer bildgebenden Diagnostik oder Operation diagnostiziert. Die Mehrheit der Patienten stellte sich initial außerhalb unserer Klinik vor, nur etwa 15% wurden innerhalb unserer Klinik insbesondere in der Gastroenterologie vorstellig, wo der NET diagnostiziert wurde.
Die Phase von der Tumormanifestation bis zur ED aller NET betrug im Median 17 Tage. Das Vorhandensein von Fernmetastasen sowie Symptomen führte zu keiner signifikanten Kürzung der Phase und einer schnelleren ED des NET (Median 65,5 vs. 90 Tage, p = 0,4).
Sowohl die Lebenserwartung als auch die Prävalenz HIV-infizierter Patient*innen ist stetig ansteigend,aufgrund der HAART und durch verbesserte diagnostische Methoden. Nicht-AIDS-definierenden Erkrankungen sind heutzutage die führenden Todesursachen. Durch verzögerte Diagnosestellung und zurückhaltenden Therapien gynäkologischer Malignome ist die Prognose im Vergleich zur Normalbevölkerung schlechter.
In dieser retrospektiven Fall-Kontroll-Studie des Universitätsklinikums Frankfurt am Mains wurden die Therapie und das Outcome gynäkologischer Malignome von 23 HIV-infizierten Patientinnen aus den Jahren 2009-2019 mit einer Kontrollgruppe aus dem gynäkologischen Krebszentrum der Klinik Essen Mitte verglichen, um herauszufinden, inwiefern eine HIV-Infektion das Outcome der Patientinnen beeinflusst.
Das gynäkologische Malignom, dominierend das Zervixkarzinom, trat durchschnittlich ein Jahrzehnt nach der HIV-Diagnose auf. Im Unterschied zu anderen Studien, ist unser Kollektiv überwiegend hellhäutig. Ein bekannter Drogenabusus ist häufig und zusammenhängend mit weiteren Koinfektionen.
Die HIV-Erkrankung ist bei mehr als der Hälfte der Patientinnen bereits fortgeschritten, jedoch ließ sich kein Zusammenhang zwischen dem Auftreten gynäkologischer Malignome und einer CD4-Zellzahl <500 CD4-Zellen/µl nachweisen. Die antiretrovirale Therapie entsprach größtenteils nicht den aktuellen Leitlinien.
Bis auf fünf Frauen wurden alle Frauen leitliniengerecht therapiert. Eine Korrelation zwischen der Therapie und der Tumorentität, der CD4-Zellzahl, dem Alter oder dem Stadium des Malignoms konnte nicht gezeigt werden.
Insgesamt liegt die 5-Jahresüberlebensrate der Kohorte bei 74.8%. Eine nicht leitliniengerechte Therapie ist nicht direkt mit einem schlechteren Outcome verbunden, jedoch mit einem weitaus kürzeren Follow-Up-Zeitraum von durchschnittlich 0.22 Jahren im Vergleich zu 4.85 Jahren bei leitlinienkonform therapierten Patientinnen. Es liegt ein statistisch signifikanter Unterschied zwischen der Kontrollgruppe und unserer Kohorte vor, sodass angenommen werden kann, dass bei Vorliegen einer HIV-Infektion die Therapie des gynäkologischen Malignoms häufiger nicht leitliniengerecht ist.
Bislang existieren nur wenige Studien, die die Therapie und das Outcome gynäkologischer Malignome bei HIV-infizierten Patientinnen untersuchen. Die Interaktion einer ART mit antineoplastischen Medikamenten und die Anwendung von Checkpointinhibitoren und einer „targeted therapy“ sollten Gegenstand weiterer Untersuchungen sein. Dafür sollten HIV-Patientinnen in Therapiestudien inkludiert werden, sodass geeignete Leitlinien erarbeitet werden können.
Das Verständnis von Tumorerkrankungen wurde durch neue technologische und ökonomische Verbesserungen für die Next-Generation-Sequencing Analyse (NGS) gefördert. Die Komplexität der Interpretation genomischer Daten erschwert jedoch die Anwendung von NGS-Analysen im klinischen Kontext. Die Herausforderung besteht darin bei stetig wachsendem medizinischem Wissen dieses im klinischen Kontext zu interpretieren und eine personalisierte Therapieempfehlung abzugeben. Einen ressourcensparenden Ansatz können KI-unterstützende Software-Programme bieten, welche die genomischen Varianten mit der aktuellen Literatur vergleichen, eine Bewertung der Therapieoptionen geben und klinische Studien empfehlen können. In dieser retrospektiven Arbeit wurden Patient:innen mit metastasiertem Brustkrebs (n=77) mittels gezielter NGS-Analyse anhand von sogenannten Genpanels mit 126 bzw. 540 krebsrelevanten Genen im Zeitraum von 01/2019-02/2022 untersucht. Mit Hilfe von bioinformatischen Methoden wurden patientenspezifische genomische Veränderungen mit Behandlungsoptionen abgeglichen. Diese Methoden stützen sich vollständig auf öffentliche Datenbanken über somatische Varianten mit prädiktiver Evidenz für das Ansprechen auf bestimmte Medikamente. Diese Versorgungsforschung einer repräsentativen Kohorte des Universitätsklinikums Frankfurt in Kooperation mit Regionalverbund OncoNet Rhein-Main wurden systematisch ausgewertet inklusive der Bedeutung genomischer Varianten. Das OncoNet Rhein-Main ist eine Kooperation aus führenden onkologischen Zentren und Praxen im Rhein-Main-Gebiet, welche sich als Netzwerk der Aufgabe angenommen haben Patient:innen optimal therapeutisch zu versorgen. Für 51% (39/77) der Patient:innen konnte mindestens eine gezielte Therapieoption mit einem effektivem Biomarker im gleichen Tumortyp gemäß Zulassung der Europäischen Arzneimittelbehörde (EMA) gefunden werden.
Bei 12/77 (16%) wurde mindestens eine Alteration mit einem effektivem Biomarker und einer OFF-Label Therapieoption gefunden. Bei 30% der Patient:innen wurden Veränderungen in optionalen Biomarkern gefunden, welche Resistenzmechanismen erklären. Die umfassende molekulare Analyse von Patient:innen mit fortgeschrittenem Brustkrebs erlaubt die Behandlungsoption zu verbessern und ermöglicht durch die Analyse von bekannten Resistenzmarkern auch den klinischen Verlauf besser zu verstehen. Die interdisziplinäre Besprechung der Befunde im molekularem Tumorboard ist im Hinblick auf kontinuierliches Lernen aller Beteiligten sowie zur Qualitätssicherung eine entscheidende obligate Maßnahme.
Ziel: Ziel dieser Studie war es die Verweildauerraten, sowie die komplikationslosen Verweil-dauerraten von rein zahn, rein implantat und kombiniert zahn-implantatgetragenen Galvano-Konusprothesen auf keramischen Primärteilen im Oberkiefer zu untersuchen. Zusätzlich wurden durchgeführte Reparaturen, sowie die Patientenzufriedenheit ausgewertet.
Methode: 83 Patienten, welche im Zeitraum von 1999-2012 am ZZMK eine Galvano-Konusprothese im Oberkiefer erhalten haben wurden retrospektiv nachuntersucht. Die Patientenzufriedenheit wurde anhand eines Fragebogens erhoben, welcher mittels 22 Fragen die Bereiche „Ästhetik“, „Prothesenhalt-bzw. funktion“ und die „Reinigungsmöglichkeit der Prothese“ aus Patientensicht evaluiert. Als Zielereignis der Kaplan-Meier Verweildaueranalyse wurde die erste Reparatur, das Versagen der Prothese, sowie der Pfeiler- bzw. der Implantatverlust definiert. Reparatur- und Nachsorgemaßnahmen wurden deskriptiv erhoben.
Ergebnisse: Es konnten 83 Prothesen und 477 Pfeiler nachuntersucht werden. Der mittlere Beobachtungszeitraum betrug 3,9 Jahre. Die 3- ,5- und 10- Jahres Verweildauerraten der Prothesen lagen bei 98,2%, 95,5% bzw. 70,7%. Die konstruktionsbezogene Pfeilerüberlebensrate bis zum ersten Pfeilerzahnverlust betrug 98,2% nach 3 Jahren, 92,9% nach 5 Jahren und 29,2% nach 10 Jahren. Die häufigste Ursache eines Versagens war der Mehrfachverlust von Pfeilern (n=5). Eine Prothese versagte aufgrund eines Gerüstbruchs (n=1). Es konnte keine signifikanten Unterschiede in der Verweildauerrate bis zum Prothesenverlust, sowie in der komplikationslosen Verweildauerrate zwischen rein zahn, rein implantat und kombiniert zahn-implantagetragenen Prothesen festgestellt werden. Zu den häufigsten Reparaturen zählten Erweiterungen nach Pfeilerverlusten, Verblendreparaturen, Dezementierungen der Primärkronen und Frakturen von Prothesenzähnen. Die häufigste Nachsorgemaßnahme war die Druckstellenentfernung. Die Patientenzufriedenheit mit der Galvano-Konusprothese erwies sich als sehr hoch. Die Ästhetik, der Prothesenhalt und die Reinigungsmöglichkeit des Zahnersatzes wurden unabhängig der Verankerungsart durchgängig positiv bewertet.
Schlussfolgerung: Die Galvano-Konusprothese hat sich als hochwertiger herausnehmbarer Zahnersatz bewährt, welcher hohe Verweildauerraten aufweist und dessen Reparaturanfälligkeit vergleichbar mit anderen Doppelkronenversorgungen ist.
Hintergrund: Asthma ist die häufigste chronische Krankheit bei Kindern und Jugendlichen. Asthma-Exazerbationen sind ein häufiger Grund für Vorstellungen in der Notaufnahme und für Krankenhausaufenthalte. Die routinemäßige Gabe von Antibiotika bei einem akuten schweren Asthma wird von den Leitlinien nicht empfohlen, trotzdem erfolgt sie sowohl im ambulanten als auch im stationären Bereich. Das primäre Ziel dieser Promotion war es, die Häufigkeit der Gabe von Antibiotika während Asthma-Exazerbationen, die eingesetzten Antibiotikaklassen, den Einfluss des CRP Spiegels und die klinischen Kriterien, die zur Antibiotikagabe führten, zu analysieren.
Methoden: Es handelte sich um eine retrospektive Analyse von 660 Kindern und Jugendlichen im Alter von 6 bis 17 Jahren, die während eines Zeitraums von 10 Jahren (2008 - 2018) mit der ICD Diagnose Asthma Bronchiale (J.45) stationär am Universitätsklinik Frankfurt/Main stationär behandelt wurden. Akutes, schweres Asthma wurde definiert als Dyspnoe, Tachypnoe, Sauerstoffbedarf und/oder systemische Steroidtherapie. Antibiotikagabe ohne Indikation wurde definiert als Gabe von Antibiotika bei einem CRP <2 mg/dl, keiner radiologischen Evidenz einer Pneumonie, oder keiner Indikation zur Durchführung eines Röntgenbildes und keinem anderen Grund zur Antibiotikagabe. Analysiert wurden u.a. Alter, Geschlecht, Intensivstationsaufenthalt, Liegedauer, Erstdiagnose oder bekanntes Asthma, Sauerstoffbedarf, Laborparameter, Lungenfunktion, Röntgen, Phänotypen, Therapie und Anzahl der Re-Hospitalisierungen.
Ergebnisse: 350 Aufnahmen erfüllten die Einschlusskriterien. Es erfolgte bei jüngeren Kindern häufig eine Antibiotikagabe (6 - 11 Jahre 57,6% und 12 - 17 Jahre 39,7%). Bei 26% der Aufnahmen wurde ein Antibiotikum ohne Indikation verabreicht, dabei waren Makrolide die häufigste Antibiotikaklasse. Die Gruppe der PatientInnen, die ein Antibiotikum ohne Indikation erhielten, unterschieden sich von der Gruppe, die kein Antibiotikum erhielten in Alter (9 ± 6 Jahre vs. 11 ± 6 Jahre; p-Wert 0,024), Sauerstoffbedarf (46,2% vs. 26,3%; p<0.001) und CRP-Wert (0,79 ± 0,92 mg/dl vs. 0,23 ± 0,46 mg/dl; p<0.001), aber nicht im Vorhandensein von Fieber (14,3% vs. 10,6%; n.s.). 10,3 % der PatientInnen wurden in den 10 Jahren re-hospitalisiert. Es fanden sich klinisch keine Unterschiede zwischen den re-hospitalisierten PatientInnen und den anderen Patienten.
Schlussfolgerung: Antibiotikagabe ohne klare Indikation während einem akuten, schweren Asthma war in unserer Kohorte häufig. Klinische Parameter einer schwereren Erkrankung beeinflussten die Entscheidung zur Antibiotikagabe, obwohl keine Hinweise auf eine bakterielle Infektion vorlagen und nicht zu einem verbesserten Outcome führten. Gründe der Re-Hospitalisierung von PatientInnen sollten weiter untersucht werden, mit besonderem Fokus auf ausreichende Allergiediagnostik und Evaluierung der Compliance.
Bei über der Hälfte der Patienten mit einer operationsbedürftigen MI liegt gleichzeitig eine Insuffizienz der TK vor. In den meisten Fällen handelt es sich hierbei um eine funktionelle Insuffizienz welche aus einer RV-Pathologie, bedingt durch eine Volumen- oder Druckbelastung resultiert. In der Vergangenheit bestand die Überzeugung eine konservative Behandlung der TI sei ausreichend und nach Beheben der ursächlichen Grunderkrankung sei diese selbstlimitierend. Neuere Studien konnten jedoch belegen, dass eine bestehende TI auch nach operativer Versorgung einer ursächlichen LV-pathologie keine ausreichende Rückbildungstendenz aufweist, sondern im Verlauf sogar noch progredient ist. Die persistierende TI führt zu einer deutlich erhöhten Morbidität und Mortalität. Ist eine zweizeitige Operation an der TK im Verlauf erforderlich, so ist die Früh- und Spätmortalität deutlich erhöht und die Langzeitergebnisse sind schlecht. Diese Ergebnisse haben dazu geführt, dass die Indikation zur operativen Versorgung der TI ≥ 2 zu einem früheren Zeitpunkt und weniger restriktiv gestellt wird. Jedoch weisen die aktuellen ESC/EACTS-Guidelines insbesondere hinsichtlich der Versorgung einer TI < 2 nur einen niedrigen Evidenz-Grad auf, der richtige Operationszeitpunkt bleibt weiterhin umstritten. Der Grund für eine eher zurückhaltende Einstellung ist vor allem die Angst vor einer erhöhten Morbidität und Mortalität durch den additiven Eingriff. Zudem sind kaum Studien zu einer operativen Versorgung einer TI < 2 vorhanden. Ziel der vorliegenden Arbeit war daher der Gewinn weiterer Erkenntnisse, dieses bis dato kaum untersuchten Patientengutes, insbesondere hinsichtlich der peri- und postoperativen Mortalität, sowie der Auswirkungen der prophylaktischen TKR im Langzeitverlauf. Im Rahmen dieser monozentrischen, prospektiven Studie wurden 264 Patienten eingeschlossen, welche sich im Zeitraum von 2009 bis 2015 einer TKR im Rahmen einer MKR an der Klinik für Thorax- Herz- und thorakaler Gefäßchirurgie des Universitätsklinikums Frankfurt am Main unterzogen. Das Patientenkollektiv wurde nachfolgend in zwei Gruppen unterteilt, nach dem Schweregrad der präoperativ bestehenden TI in eine „prophylaktische” pTKR-Gruppe bei einer TI < 2 und eine „therapeutische” tTKR-Gruppe bei einer TI ≥ 2. Primärer Endpunkt war die Erfassung der Früh- und Spätmortalität. Sekundäres Endziel war die Untersuchung des postoperativen Verlaufes der TI, sowie der Verlauf der kardialen Funktion. Die 30-Tages-Mortalität betrug 12% in der pTKR-Gruppe und 17% in der tTKR-Gruppe. Der wichtigste Einflussfaktor war die EKZ-Dauer. Der Unterschied zwischen den beiden Gruppen war statistisch nicht signifikant. Im Vergleich zu anderen Studien zeigte sich eine höhere 30-Tages-Mortalität, jedoch handelte es sich bei diesen zumeist um einen isolierten Eingriff an der Mitralklappe, mit einer deutlich kürzeren EKZ. Hinsichtlich der Gesamtmortalität zeigte sich ein 1-, 5- und 7-Jahres-Überleben in der pTKR-Gruppe von 81%, 66% und 56%, sowie 65%, 52% und 41% in der tTKR-Gruppe. Die höhere Gesamtmortalität dieser Studie im Vergleich zu anderen Arbeiten ist durch das deutlich ältere und multimorbide Patientenkollektiv erklärt. Bei dem Vergleich von Patienten, welche im Rahmen dieser Studie eine prophylaktische TKR erhielten gegenüber den Patienten, bei welchen im Rahmen von Vergleichsarbeiten bewusst auf eine TKR verzichtet wurde (NTKR-Gruppe), zeigte sich ein verbessertes Langzeitüberleben der pTKR-Gruppe. Bei den Arbeiten, bei welchen kein Überlebensvorteil unserer pTKR-Gruppe, gegenüber deren NTKR-Gruppe gezeigt werden konnte, zeigten sich dennoch positive Effekte der begleitenden Klappenoperation. Die erhöhte Frühsterblichkeit dieser Arbeit ist dem Umstand geschuldet, dass durch die zur Indikationsstellung herangezogenen Risikofaktoren ein Hochrisikokollektiv selektioniert wurde, mit einer konsekutiv erhöhten Sterblichkeit auch abhängig vom Ausmass der TI. Bereits in der Vergangenheit konnte eine Verbesserung des Langzeitüberlebens durch die Durchführung einer TKR bei einer TI ≥ 2, gegenüber dem Verzicht auf diese nachgewiesen werden. Anhand des Vergleiches von anderen Arbeiten mit der vorliegenden Arbeit konnte dieser Überlebensvorteil auch für die Durchführung einer pTKR bei einer TI < 2 gezeigt werden. Zudem konnte dargelegt werden, dass es sich bei der begleitenden pTKR um eine effektive und dauerhafte Methode zur Vermeidung einer Klappeninsuffizienz handelt. Somit konnte gezeigt werden, dass auch bei Patienten mit einer TI < 2 eine additiven TKR die Entwicklung einer späten TI verhindert.
Die MicroRNA-193b (miR-193b) fungiert in Akuter Myeloischer Leukämie (AML) als Tumorsuppressor und als Biomarker zur Prädiktion der Überlebenswahrscheinlichkeit bei erwachsenen sowie kindlichen AML-Patienten. Die Expression der miR-193b ist in allen AML-Entitäten reduziert, mit Ausnahme der Akuten Promyelozyten Leukämie (APL), bei der das Level an miR-193b erhöht ist. APL ist auch die einzige Form der AML, bei der All-Trans-Retinoinsäure (ATRA) leit-liniengerecht und effektiv zur Therapie angewendet wird.
In Vorarbeiten konnte gezeigt werden, dass der antileukämische irreversible Inhibitor der Lysin-spezifischen Histon Demethylase 1 (LSD1) GSK-LSD1 die Expression von miR-193b induziert. Dadurch wird in murinen Homebox protein A9 (Hoxa9)/Meis Homebox Protein 1 (Meis1) AML-Zellen zumindest ein Teil der tumorsuppressiven Wirkung von GSK-LSD1 über die Hochregulation von miR-193b vermittelt.
Das Ziel dieser Arbeit bestand darin, die Gültigkeit des potenziellen GSK-LSD1-Wirkmechanismus über die Induktion von miR-193b in humanen Zellen zu untersuchen. Weitere Ziele waren die Erforschung der Rolle der miR-193b bei dem Behandlungseffekt von ATRA in humaner AML und APL sowie die Untersuchung einer potenziell protoonkogenen Eigenschaft der miR-193b in APL. Der methodische Ansatz dieser Arbeit basierte auf einer Senkung bzw. Erhöhung des intrazellulären miR-193b-Levels mittels Locked nucleic acids (LNA) bzw. lentiviraler miR-193b-Überexpression und anschließender Behandlung der Zellen mit den Wirkstoffen. Es wurden Proliferationskurven erstellt und der Differenzierungsgrad durchflusszytometrisch bestimmt. Eine hohe Aufnahmeeffizienz und Effektivität der LNA und des lentiviralen Überexpressionsvektors wurde durchflusszytometrisch und per quantitativer Polymerase-Kettenreaktion (qPCR) bestätigt.
Zur Untersuchung der Rolle der miR-193b bei dem Behandlungseffekt von GSK-LSD1 wurden die AML-Linien ML-2 und MOLM-13 sowie die APL-Zelllinie NB-4 mit LNA transfiziert bzw. mit dem Überexpressionsvektor transduziert und mit GSK-LSD1 behandelt. Die Populationen mit reduziertem miR-193b-Level wiesen nach 96 Stunden eine unverändert reduzierte Proliferation und Differenzierung auf. Hingegen zeigten miR-193b-überexprimierende Zellen nach GSK-LSD1-Behandlung einen signifikant stärkeren antiproliferativen Effekt. ML-2 Zellen wiesen zudem eine signifikant gesteigerte Differenzierung auf, gemessen an der Expression des Differenzierungsmarkers CD11b.
Die erhöhten miR-193b-Level in APL-Patienten konnten in der APL-Zelllinie NB-4 mittels qPCR bestätigt werden. NB-4 weist eine über 60-fach höhere miR-193b Expression als ML-2 (AML) auf. Zur Überprüfung einer onkogenen Eigenschaft der miR-193b in APL wurde das zelluläre miR-193b-Level in NB-4-Zellen durch LNA reduziert und anschließend die Proliferationskurve über 12 Tage bestimmt und die Differenzierungsmarker CD11b und CD13 gemessen. Proliferation und Differenzierungsgrad blieben nach Reduktion der miR-193b in NB-4-Zellen unverändert.
Die gleichzeitige Behandlung von NB-4 mit ATRA und miR-193b-LNA zeigte nach 96 Stunden den gleichen antiproliferativen und differenzierungsinduzierenden Effekt wie bei ATRA allein. Auch bei den AML-Zelllinien ML-2 und MOLM-13 wirkte die ATRA-Behandlung bei reduziertem miR-193b-Level unverändert differenzierungsinduzierend und antiproliferativ. Hingegen führte eine ATRA-Behandlung der AML-Zelllinien bei erhöhtem miR-193b-Level zu einer Verstärkung des antiproliferativen Effekts. Bei beiden AML-Zelllinien wurde die Proliferation mehr als doppelt so stark reduziert als bei alleiniger ATRA-Behandlung.
Diese Arbeit konnte zeigen, dass miR-193b kein Protoonkogen in der APL-Zelllinie NB-4 ist. Außerdem weisen die Ergebnisse dieser Arbeit darauf hin, dass die Wirkungseffekte von sowohl GSK-LSD1 als auch von ATRA, weder in APL noch in AML, über die Induktion der miR-193b vermittelt werden. Hingegen zeigt sich bei beiden Wirkstoffen in AML-Zellen ein additiver antileukämischer Effekt bei Behandlung mit gleichzeitiger Erhöhung des miR-193b-Levels. Die molekulare Begründung hierfür ist möglicherweise eine gemeinsame Modulation der Mitogen-aktivierten Protein Kinase (MAPK)-Signaltransduktionskaskade und bedarf weiterer Experimente zur Überprüfung dieser Hypothese. Ausblickend stellen die Ergebnisse dieser Arbeit die miR-193b als einen interessanten Kombinationspartner für die Therapie mit GSK-LSD1 oder ATRA, bzw. generell für den MAPK Signalweg beeinflussende Medikamente, dar, sobald eine sichere und effiziente Einschleusung von MicroRNAs in Patienten möglich ist.