Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (711) (remove)
Language
- German (711) (remove)
Has Fulltext
- yes (711) (remove)
Is part of the Bibliography
- no (711)
Keywords
- HIV (5)
- Depression (4)
- Hepatitis C (4)
- Prostatakarzinom (4)
- Autismus (3)
- Glioblastom (3)
- Knochenersatzmaterial (3)
- Leberzirrhose (3)
- Medizinstudierende (3)
- Neuroblastom (3)
Institute
- Medizin (711) (remove)
Die Zöliakie ist eine immunvermittelte Systemerkrankung, die durch den Konsum glutenhaltiger Nahrung ausgelöst werden kann. Hierbei spielen sowohl eine genetische Prädisposition als auch verschiedene Umweltfaktoren eine Rolle. Die wissenschaftliche und gesellschaftliche Relevanz der Zöliakie hat in den letzten 25 Jahren zunehmend an Bedeutung gewonnen. Was man heute über die Erkrankung weiß, ist Ergebnis einer Vielzahl von Studien und Veröffentlichungen.
Ziel dieser Arbeit war anhand von szientometrischen Analysen ein umfassendes Bild über diese Forschungslandschaft zu erstellen. Es wurden dabei sowohl quantitative als auch qualitative Analyseverfahren zur Anwendung gebracht.
Refraktives und visuelles Ergebnis nach Neuausrichtung von rotierten torischen Intraokularlinsen
(2023)
Hintergrund und Ziel der Studie
Das Ziel der Studie ist die Beurteilung des refraktiven und visuellen Ergebnisses von Patienten mit fehlausgerichteten torischen IOLs nach operativer Neuausrichtung, mit und ohne Rückberechnung der torischen Achse nach Implantation der IOL.
Methoden
Dies ist eine retrospektive Analyse von 39 Patienten, die sich von August 2013 bis Dezember 2019 an der Klinik für Augenheilkunde der Goethe-Universität Frankfurt am Main einer zweiten Operation zur Neuausrichtung einer fehlausgerichteten torischen IOL unterzogen haben. Die zweite Operaton zur Korrektur der Achsenlage wurde auf zwei Weisen durchgeführt: In der ersten Gruppe wurde auf die primär berechnete Achse rotiert und in der zweiten Gruppe wurde die Rotation auf eine neu berechnete Achse mit dem Rückrechner von astigmatisfix.com vorgenommen.
Ergebnisse
In dieser retrospektiven Studie wurden 39 Augen von 39 Patienten eingeschlossen. Die Ergebnisse nach der ersten Operation (die Linsenoperation) zeigte eine Besserung der (BCVA) von 0,28 ± 0,22 logMAR (20/40) auf 0,15 ± 0,14 logMAR (20/32). Nach der Linsenoperation zeigten die torischen IOLs durchschnittlich eine postoperative Fehlstellung von 25,69° ± 26,06°. Verglichen vor und nach der Rotation der torischen IOL blieb der BCVA unverändert bei 0,14 ± 0,14 logMAR (20/32), während sich der UDVA signifikant von 0,39 ± 0,29 logMAR (20/50) auf 0,27 ± 0,18 logMAR (20/40) verbesserte. Das refraktive Ergebnis zeigte eine Reduktion sowohl in der Restsphäre sowie in dem Zylinder. Die Ergebnisse der Gruppenanalyse demonstrierte für die erste Gruppe (Neuausrichtung auf die präoperativ berechnete Achse) eine postoperative UDVA 0,24 ± 0,16 logMAR mit einem Zylinder von 0,90 ± 0,90 D. In der zweiten Gruppe (Ausrichtung auf eine zurückberechnete Achse) betrug die UDVA 0,32 ± 0,20 logMAR mit einem Zylinder von 0,76 ± 0,72 D. Die IOLs mit hoher Zylinderstärke (≥ 2 D) zeigten bei der Rückberechnung eine stärkere Abnahme des Restzylinders als IOL mit niedriger Zylinderstärke (< 2 D) (27 % vs. 9 %). Der mittlere sphärische Äquivalent-Vorhersagefehler der Rückberechnung betrug 0,54 ± 0,55 D.
Schlussfolgerung
Die Neuausrichtung von fehlausgerichteten torischen IOLs verbessert die Sehschärfe und reduziert verbleibende Brechungsfehler. Insbesondere bei IOL mit hoher Zylinderstärke kann ein besseres refraktives Ergebnis erzielt werden, wenn vor der Neuausrichtung eine Rückberechnung durchgeführt wird.
Die kathetergestützte Thrombektomie ist, spätestens seitdem 2015 verschiedene Studien ihre Überlegenheit zur alleinigen medikamentösen Behandlung gezeigt haben, die bevorzugte Therapie bei Patienten mit akutem ischämi-schem Schlaganfall und embolischen Verschluss einer großen intrakraniellen Arterie. Obwohl die mechanische Thrombektomie mittlerweile zur Standardthe-rapie zählt, ist der Zusammenhang zwischen Lokalisation des Infarktareals und klinischem Behandlungsergebnis nach Thrombektomie bisher nicht gut untersucht. Die dieser Studie zugrunde liegende Hypothese war, dass Infarktdemar-kationen in der zentralen Corona radiata, Capsula interna und/oder den Ba-salganglien aufgrund einer potenziellen Schädigung der Fasern des Tractus corticospinalis mit einem schlechten Behandlungsergebnis (mRS 3 bis 6) nach mechanischer Thrombektomie assoziiert sind. Ziel dieser Studie war es somit, den Behandlungserfolg nach Thrombektomie bei Patienten mit entsprechender Infarktlokalisation zu untersuchen.
Hierfür wurden die Daten von 70 erwachsenen Patienten analysiert, die im Zeitraum von April 2016 bis Januar 2020 im Institut für Neuroradiologie des Universitätsklinikums Frankfurt aufgrund eines ischämischen Infarktes mit entsprechender Infarktdemarkation eine mechanische Thrombektomie erhalten haben. Alle erhobenen Daten stammen aus der elektronischen Krankenakte, dem Radiologie-Informations-System oder einem prospektiven Register zur internen Qualitätssicherung. Es erfolgte außerdem eine Unterteilung der Studi-enkohorte anhand des zusätzlichen kortikalen Infarktausmaßes bzw. der kortikalen Infarktlokalisation, um den Einfluss kortikaler Infarkte auf das Behandlungsergebnis beurteilen zu können. Die wichtigsten Endpunkte der Studie waren das klinische Behandlungsergebnis gemessen anhand der mRS nach 90 Tagen sowie die Ergebnisse der Subgruppenanalyse.
51,4 % der Studienpopulation erzielten nach 90 Tagen ein gutes klinische Be-handlungsergebnis (mRS 0 bis 2), 32,9 % der Patienten erreichten sogar ein exzellentes Ergebnis (mRS 0 bis 1). Insgesamt verstarben innerhalb von 90 Tagen nach dem Schlaganfallereignis 15,7 % aller Patienten und 32,9 % konn-ten nur ein schlechtes Behandlungsergebnis (mRS 3 bis 5) erzielen. Die Ergebnisse zeigen, dass die in der routinemäßig angefertigten Bildgebung nachgewiesenen Infarktdemarkationen im Verlauf der langen Bahnen nicht zwingend ein schlechtes Behandlungsergebnis bedingen. Bei Patienten mit ausge-dehnter Beteiligung des Kortex und Infarkten in definierten eloquenten Arealen waren die klinischen Behandlungsergebnisse allerdings schlechter als in der Vergleichsgruppe mit isolierten Läsionen der langen Bahnen.
Um künftig ein besseres Verständnis darüber zu erlangen, welche Patienten mit bestimmter Infarktlokalisation von einer mechanischen Thrombektomie langfristig profitieren können, sind weitere prospektive Studien mit exakt definierten Vergleichsgruppen und höherwertiger MRT-basierter Bildgebung erforderlich.
In den letzten Jahren haben sich die Therapiemöglichkeiten des Mammakarzinoms deutlich verbessert. Durch die Analyse von genetischen Veränderungen in den Tumorzellen oder in der Keimbahn ist eine zielgerichtete Tumortherapie bei einigen Subgruppen möglich; z.B. mit PARP- und PIK3CA-Inhibitoren.
In einer retrospektiven Analyse wurde in dieser Arbeit untersucht, wie genetische Mutationsanalysen in einer onkologischen Schwerpunktpraxis eingesetzt werden. Es sollte untersucht werden, wie häufig PatientInnen in einer onkologischen Praxis mit metastasiertem Mammakarzinom eine Mutationsanalyse brustkrebsassoziierter Gene erhalten haben, und welche Konsequenzen daraus gezogen wurden. Dabei wurde der Zeitraum von 2019 – 2022 betrachtet. Mithilfe der Software Albis wurden Daten von 49 PatientInnen identifiziert. 40 PatientInnen haben eine Keimbahndiagnostik der Gene BRCA1/2 erhalten. Von den PatientInnen, die die BRCA1/2-Analyse bekommen haben, konnten in 20% der PatientInnen eine Mutation in BRCA1 oder 2 detektiert werden. Bei den meisten dieser PatientInnen wurde der PARP Inhibitor Olaparib therapeutisch eingesetzt. 10 PatientInnen erhielten eine PIK3CA-Analyse, 9 von ihnen mittels PCR und eine mittels NGS. In dieser Gruppe wurde bei einer Patientin eine Mutation im PIK3CA-Gen ermittelt. 15 PatientInnen haben eine Multigenpanel-Diagnostik erhalten. Dabei ist eine Reihe weiterer genetischer Veränderungen nachgewiesen worden. Für einige dieser Veränderungen stehen therapeutische Möglichkeiten zur Verfügung, die zwar nicht für das Mammakarzinom, aber für andere Tumorentitäten bereits zugelassen sind.
Das periinterventionelle Management von antikoagulierten Patienten stellt eine große Herausforderung im klinischen Alltag dar. Die genaue Abwägung von Blutungs- und Thromboembolierisiko ist essentieller Bestandteil der Frage, ob und wann die blutgerinnungshemmende Medikation pausiert werden soll. Ist das Zeitintervall zur geplanten Intervention zu kurz gewählt und daher die antikoagulierende Wirkung der Arzneimittel noch ausgeprägt, kann es leichter zu intra- und postoperativen Blutungen kommen. Umgekehrt kann es bei einer zu langen Unterbrechung der Antikoagulation zur Entwicklung von Thromboembolien kommen. Um diese Risiken zu minimieren und die Patientensicherheit zu verbessern ist ein leitliniengerechtes Handeln von großer Bedeutung. Durch den Einfluss des demographischen Wandels und die steigende Inzidenz der Erkrankungen, die eine Antikoagulation notwendig machen, erhöht sich ebenso die Anzahl der antikoagulierten Patienten, die sich einer elektiven Operation unterziehen müssen, wodurch das Thema schon seit Jahren an Bedeutung gewinnt. Trotz diverser Leitlinien, die in den letzten Jahren publiziert wurden, findet man im klinischen Alltag oftmals nicht auf Anhieb die passende Empfehlung, da diese von dem Einfluss etlicher Risikofaktoren, wie Alter, Geschlecht, Nierenfunktion u.a. bestimmt werden sollte. Der Einsatz eines Clinic Decision Support Systems (CDSS) kann ein leitliniengerechtes Handeln möglicherweise verbessern, indem patientenspezifische Risikokonstellationen anhand europäischer Leitlinien geprüft werden und dem Nutzer eine optimale Vorgehensweise unterbreitet wird.
Zielsetzung: In dieser Arbeit, soll die Eignung eines klinischen Entscheidungs-Unterstützungssystems (CDSS) anhand eines Multiple Choice (MC) Tests mit 11 kliniknahen Fallbeispielen, bezüglich evidenzbasierten perioperativen Managements von antikoagulierten Patienten untersucht werden.
Methoden: Im Rahmen einer klinischen prospektiven randomisierten multizentrischen Simulationsstudie beantworteten Ärztinnen und Ärzte einen Multiple Choice Test bestehend aus 11 Fallbeispielen zum Thema periinterventionelles Management von antikoagulierten Patienten. Dabei sollte zu - 5 - jedem Beispiel zwei möglichst leitliniengerechte Empfehlung ausgewählt werden.
Die Ärztinnen und Ärzte wurden vorab in zwei Gruppen randomisiert. Der PERI-KOAG Gruppe wurde das CDSS zur Beantwortung der Fragen zur Verfügung gestellt. Die Kontroll-Gruppe hatte hingegen keinen Zugriff auf die Applikation und sollte den Test mit frei zugänglichen Hilfsmitteln, zum Beispiel Leitlinien oder anderen allgemein verfügbaren Apps beantworten. Die beiden Gruppen wurden anschließend in Bezug auf die Gesamtergebnisse, die Bearbeitungszeit und Berufserfahrung verglichen.
Ergebnisse: Insgesamt wurden 168 Teilnehmer in die beiden Gruppen randomisiert, wovon 76 Teilnehmer, 42 Teilnehmer der PERI-KOAG Gruppe und 34 Teilnehmer der Kontroll-Gruppe den MC-Test vollständig beendeten und in die weitere Auswertung eingeschlossen wurden. Der MC-Test konnte mit maximal 22 Punkten (=100%) abgeschlossen werden. Die PERI-KOAG Gruppe erreichte dabei im Durchschnitt signifikant bessere Ergebnisse als die Kontroll-Gruppe (82 ±15% vs. 70 ±10%; 18 ±3 vs. 15 ±2 Punkte; P =0,0003). Unter Berücksichtigung der Bearbeitungszeit erzielten Teilnehmer mit längerer Bearbeitung durchschnittlich höhere Ergebnisse, als Kollegen welche den Test schneller abschlossen. Dieser Effekt zeigte sich in beiden Gruppen. Ein signifikanter Unterschied konnte hierbei nur in der PERI-KOAG Gruppe gezeigt werden (PERI-KOAG Gruppe ≥33 min. 89 ±10% (20 ±2 Punkte) vs. <33 min. 73 ±15% (16 ±3 Punkte), P =0,0005). Innerhalb der PERI-KOAG Gruppe zeigten sich tendenziell höhere Ergebnisse innerhalb der erfahreneren Gruppe (>5 Jahre Berufserfahrung), aber keinen signifikanten Unterschied zu weniger (≤5 Jahre Berufserfahrung) erfahrenen Kollegen (87 ±10% (19 ±2 Punkte) vs. 78 ±17% (17 ±4 Punkte), P =0,08). Dagegen konnte in der Kontroll-Gruppe kein Unterschied zwischen den Testresultaten von mehr und weniger erfahrenen Teilnehmern gezeigt werden (>5 Jahre: 71 ±8% (16 ±2 Punkte) vs. ≤5 Jahre: 70 ±13% (15 ±3 Punkte) P =0,66).
Diskussion: Diese Arbeit zeigt, dass im Rahmen eines MC-Tests mit Hilfe des CDSS ein leitliniengerechtes perioperatives Management von antikoagulierten Patienten signifikant verbessert werden kann. Eine fachgerechte Anwendung des Tools ist essentiell, um schwerwiegende Folgen, wie Blutungen oder Thromboembolien zu vermeiden. Eine längere Bearbeitungszeit und mutmaßlich intensivere Nutzung des CDSS, geht mit besseren Ergebnissen einher als eine schnelle Testbearbeitung. Ein insgesamt verbessertes leitliniengerechtes Management zeigt, unabhängig von der Berufserfahrung der Teilnehmer, das große Potential des CDSS.
In Deutschland existieren nur wenige Ergebnisse aus der klinischen Forschung, die im Kontext der allgemeinmedizinischen Versorgung gewonnen wurden. Dies ist u.a. damit zu begründen, dass Forschung in der Allgemeinmedizin in den Praxisalltag eingebunden sein muss, worauf die gegenwärtige Versorgungsstruktur nicht ausgelegt ist. Damit für Hausärztinnen und Hausärzte Forschung im Praxisalltag möglich ist, müssen also Strukturen geschaffen werden, die Forschung ermöglichen. Eine solche Struktur bieten Forschungspraxennetze (FPN) wie beispielsweise das Forschungspraxennetz „ForN“. ForN wurde vom Institut für Allgemeinmedizin der Goethe-Universität Frankfurt am Main im Jahr 2011 initiiert. In ForN tätige Forschungspraxen können sich mit einer Gültigkeit von fünf Jahren als „akademische Forschungspraxis“ akkreditieren lassen, wenn sie bestimmte Anforderungen erfüllen. Dazu gehört die Teilnahme an für Forschungsprojekte qualifizierenden Fortbildungen oder an Netz-begleitenden Treffen für Ärztinnen, Ärzte und Medizinische Fachangestellte (MFA) sowie die regelmäßige Teilnahme an Forschungsprojekten. Eine Verlängerung der Akkreditierung nach fünf Jahren ist möglich. Bisherige Publikationen über Forschung zu FPN bieten insbesondere Einblicke in Faktoren, welche den Beitritt in ein FPN fördern oder eher behindern. Forschung, die Faktoren der längerfristigen Mitwirkung der Praxen an FPN (wie Austrittsgründe, aber auch Motivation, eine Re-Akkreditierung anzustreben) untersucht, ist im Gegensatz dazu rar.
Diese Dissertation untersucht diese Faktoren anhand der folgenden Fragen: warum traten Forschungspraxen im Laufe der Zeit aus dem FPN ForN aus (ehemalige Mitglieder) und warum strebten andere eine Re-Akkreditierung an (aktive Mitglieder)? Weitere Unterfragen dieser Arbeit sind: welche Faktoren motivierten oder erschwerten hausärztlichen Teams eine Mitwirkung als Forschungspraxis? Wie wurde die bisherige Zusammenarbeit gesehen und als wie gut machbar wurden die Anforderungen zur Erlangung der Bezeichnung „akademische Forschungspraxis“ eingeschätzt?
Es wurde ein Fragebogen für ehemalige ärztliche ForN-Mitglieder entworfen und eingesetzt. Des Weiteren wurden Daten aus Fragebogenerhebungen von aktiven ForN-Mitgliedern (Hausärztinnen, Hausärzte, MFA) aufbereitetet. Die Daten wurden mithilfe der Datenanalysesoftware SPSS deskriptiv unter Angabe der Häufigkeiten, Mittelwerte, Standardabweichungen und Spannweiten ausgewertet.
Es konnten 14 Fragebögen von ehemaligen ärztlichen ForN-Mitgliedern aus 13 Praxen analysiert werden. Von den aktiven ForN-Mitgliedern wurden Fragebögen von 48 Ärztinnen und Ärzten sowie 57 MFA aus 41 Praxen ausgewertet. Als Gründe für den Austritt wurde von ehemaligen Mitgliedern insbesondere Zeitmangel und eine hohe Arbeitsbelastung angegeben. Weitere erschwerende Umstände waren ein Mangel an MFA, eine große Entfernung zum Standort des Instituts für Allgemeinmedizin und persönliche Gründe. Bis auf letztere Angabe waren dies auch die größten Hürden während der Teilnahme, die von aktiven Mitgliedern beschrieben wurden. Einen Beitrag für die Allgemeinmedizin zu leisten, persönliche Kompetenzen und Kompetenzen des Praxisteams zu erweitern sowie Abwechslung im Praxisalltag zu erleben, waren die wichtigsten motivierenden Faktoren einer Teilnahme im Forschungspraxennetz ForN, sowohl für aktive als auch für ehemalige Mitglieder. Die Anforderungen des FPN ForN an die Akkreditierung als Forschungspraxis wurden aus Perspektive der aktiven Mitglieder überwiegend als machbar empfunden. Nur die Umsetzung zusätzlicher, nicht verpflichtender Aktivitäten wurde als schwieriger erfüllbar bewertet. Bezüglich der Zusammenarbeit mit dem Institut für Allgemeinmedizin gaben ehemalige ärztliche ForN-Mitglieder an, eine gute Vorbereitung auf Forschungsaufgaben erfahren zu haben, dem ForN-Team des Instituts für Allgemeinmedizin vertrauen zu können und dass die Kommunikation allgemein gut war.
Gründe für den Austritt aus dem FPN und Hindernisse während der Teilnahme in ForN waren überwiegend externe Faktoren wie Zeitmangel, eine hohe Arbeitsbelastung oder ein Mangel an MFA. Auf diese Faktoren hat das Institut für Allgemeinmedizin keinen direkten Einfluss, es kann lediglich die administrativen Aufgaben innerhalb eines Forschungsprojektes für das Team einer Forschungspraxis so vorstrukturieren, dass sie möglichst gut im Praxisalltag bewältigt werden können. Ein Vergleich mit Publikationen, die sich mit förderlichen und hinderlichen Faktoren eines Beitritts in ein FPN auseinandersetzen, zeigt, dass ähnliche Gründe auch die längerfristige Mitwirkung beeinflussen.
Im Rahmen der Versorgung von polytraumatisierten (schwerstverletzten) Patienten ist insbesondere die systemische Inflammation zu beachten. Durch das initiale Trauma (“first hit“) kommt es zu einer systemischen Dysregulation der inflammatorischen Kaskaden, wobei sowohl eine überschießende (SIRS/Sepsis) wie auch unterschießende Reaktion (CARS) zu schweren Komplikationen wie Multiorganversagen bis hin zum Tod führen kann. Die notfallmässige chirurgische Versorgung fügt durch multiple Faktoren wie Weichteilverletzung, Blutverlust und Intubation dem Patienten einen “second hit“ zu, welcher sich auf den “first hit“ aufsummieren und besagte Komplikationen induzieren kann. Aufgrund dessen wurden verschiedene Therapiekonzepte entwickelt wie beispielsweise die “Damage control surgery“, welche durch minimalinvasive Techniken die notfallmässig versorgungsbedürftigen Verletzungen temporär stabilisiert/versorgt, bis der Patient sich physiologisch stabilisiert und definitiv versorgt werden kann. Eine weitere Strategie stellt die „Safe Definitive Surgery“ dar, welche eine Synopsis bildet aus zu einen frühzeitiger definitiver Versorgung gepaart mit minimalinvasiven Techniken, um während der Operation multipler Frakturen intraoperativ anhand der Physiologie des Patienten regelmäßig zu reevaluieren und daran zu adjustieren.
Bei der definitiven Versorgung von langen Röhrenknochen im Schaftbereich werden klinisch standardmässig Marknägel verwendet. Hierbei eröffnet man den langen Röhrenkochen am proximalen Eintrittspunkt, bohrt den Knochen intramedullär mittels “Reamer“ auf und führt den Nagel ein, welchen man mittels Schrauben multidimensional in der Corticalis verriegelt. Hierbei stellt die intramedulläre Aufbohrung den kritischsten Schritt dar, da hierbei zum einen Knochenmark austritt und durch den Bohrer Thermonekrosen im Knochen auftreten können sowie auch Knochenpartikel austreten. Um diese Nachteile zu beheben, wurde der “Reamer-Irrigator-Aspirator“ (RIA) entwickelt, welcher nebst der klassischen Bohrfunktion noch eine Spül-Saugfunktion innehat und somit parallel intramedullär eine Kühlung herbeiführt, wie auch das Knochenmark nebst Knochenpartikeln absaugt. Hiervon gibt es eine ältere (RIA 1) und eine neuere (RIA 2) Version, wobei sich diese geringfügig in Grösse des Bohrkopfes und der Saugfunktion wie auch im Handling unterscheiden. Wenig ist jedoch zum aktuellen Zeitpunkt bekannt, welche Auswirkungen diese unterschiedlichen Versionen verglichen mit dem konventionellen “Reamer haben“. Um dies näher zu evaluieren, wurde ein standardisiertes Polytrauma-Modell an 30 Schweinen (Sus scrofa) durchgeführt. Unter konstanter Analgesie wurde nach Erreichen einer standardisierten Baseline an 24 der Tiere ein Polytrauma, bestehend aus unilateraler Femurfraktur, stumpfem Thoraxtrauma inklusive Leberlazeration und hämorrhagischem Schock ausgeübt. Sechs Tiere fungierten als Kontrollgruppe (sham), welche kein Trauma sowie Therapie erhielten, aber sonst gleich behandelt wurden. Die polytraumatisierten Tiere erhielten Therapie nach Schockraum- und ATLS Versorgung nach dem Trauma. Bestehend aus “Abdominal Packing“, Kreislaufstabilisierung und Versorgung der Femurfraktur mittels intramedullärer Nagelung. Die 24 polytraumtisierten Versuchstiere wurden bezüglich der Versorgung der Femurfraktur in drei Gruppen aufgeteilt: 1) Konventionelles Reaming, 2) RIA 1 und 3) RIA 2. An sechs Zeitpunkte (t1 (-1.5h) - t6 (6h)) über 7.5 Stunden erfolgten regelmäßige Blut- wie Urinentnahmen und eine bronchoalveoläre Lavage vor fachgerechtem Exitus am letzen Zeitpunkt. Anschließend wurde mittels ELISA in besagten Proben das Interleukin-6, Interleukin-8, Interleukin-10 und Tumornekrosefaktor-alpha bestimmt und statistische Unterschiede zwischen den Gruppen ermittelt.
Die Ergebnisse legen nahe, dass die Verwendung des Reamer-Irrigator-Aspirator Typ 2 aufgrund spezifischer Modifikationen verglichen mit seinem Vorgänger (RIA Typ 1) eine geringere inflammatorische Immunantwort aufweist. Verglichen mit dem konventionellen Reaming konnte in unserer Versuchsreihe in Hinblick auf entzündliche Mediatoren systemisch wie lokal kein Unterschied zu der Versorgung mittels RIA aufgezeigt werden. Jedoch präsentierte sich bei der Benutzung des konventionellen Reamers auch in unserer Versuchsreihe das Auftreten einer Fett/Lungenembolie, was bereits in der Literatur als eine gängige Komplikation dieses Instrumentariums beschrieben wird. Zusammenfassend ist der Reaming-Irrigator-Aspirator eine modernisierte Version des konventionellem Reamers, welcher multiple Vorteile aufweist, jedoch im Rahmen der Kostensenkung wahrscheinlich erst im weiteren zeitlichen Verlauf regelmäßige Anwendung in der Klinik finden wird.
Hintergrund und Ziele: Die Hämodialyse ist das am weitesten verbreitete Nierenersatztherapieverfahren und wird auch in den nächsten Jahren von immer mehr Patienten mit akutem und terminalen Nierenversagen beansprucht werden. Ein großlumiger, sicherer und komplikationsarmer Gefäßzugang ist essenziell für die Durchführung einer effizienten Hämodialyse. Während arterio-venöse Zugänge der klar präferierte Gefäßzugang zur chronischen Hämodialyse sind, eignen sie sich aufgrund ihrer Reifungsdauer nicht für Patienten mit akuter Dialysepflichtigkeit oder für Patienten mit untauglichen Gefäßeigenschaften. Für diese Patienten kann die Hämodialyse über einen Vorhofkatheter erfolgen. Die KDOQI Richtlinien (2019) empfehlen die präferierte Punktion der rechten Vena jugularis interna, jedoch muss für Patienten mit thrombosiertem oder obliteriertem Gefäßstatus die Verwendung neuer, unkonventionellerer Zugangswege erwogen werden, um die überlebenswichtige Hämodialyse zu ermöglichen. Ein solcher unkonventioneller Zugangsweg ist der erstmals 2006 von Betz et al. beschriebene Iliakalvenenkatheter, der während seines Beobachtungszeitraums von 1.500 Kathetertagen initial die Sicherheit und Effektivität des Verfahrens vermuten ließ.
Die vorliegende Arbeit stellt eine retrospektive Analyse des Langzeitverlaufs von 95 Iliakalvenenkathetern zur Hämodialyse dar, die in den Jahren 2004 bis 2022 im Universitätsklinikum Frankfurt implantiert wurden. Der nun deutlich längere kumulative Beobachtungszeitraum von 20.252 Tagen soll beurteilen, ob sich die ursprünglich durch Betz et al. beschriebenen Ergebnisse auch im Langzeitverlauf bestätigen und soll weiterführend einordnen, inwieweit der Iliakalvenenkatheter als Option des Zugangsweges zur chronischen Hämodialyse für Patienten mit schwierigem Gefäßstatus in Betracht gezogen werden kann.
Patienten und Methoden: Das Patientenkollektiv bestand aus 79 Patienten (49 Männer und 30 Frauen) eines breiten Altersspektrums zum Zeitpunkt der Implantation (27 bis 84 Jahre), die während des Beobachtungszeitraums einen oder im Verlauf mehrere Dialysekatheter über eine der Iliakalvenen implantiert bekamen. Insgesamt wurden 95 Iliakalvenenkatheter erfasst und im Hinblick auf ihre Liegedauer, Komplikationsraten und Dialyse-Effektivität evaluiert.
Die Datenerhebung erfolgte aus den archivierten Patientenakten und Dialyseprotokollen des Universitätsklinikums Frankfurt und ergänzend mittels Datenanforderung von weiterbehandelnden Zentren, Praxen und Kliniken.
Ergebnisse: Der Iliakalvenenkatheter kam bei einem speziellen Patientenkollektiv zum Einsatz, welches oftmals bereits eine lange nephrologische Krankheitsgeschichte (im Durchschnitt erfolgte die Implantation 895,5 Tage nach der primären Andialyse), mehrere gescheiterte Gefäßzugänge 3,01(±2,97) und keine Alternativen eines sicheren konventionellen Gefäßzugangs zur Hämodialyse aufwiesen. Die Katheter-Anlage verlief bei 98,96% der Implantationsversuche erfolgreich. Alle erfolgreichen Anlagen verliefen komplikationslos. Die durchschnittliche Katheter-Liegedauer betrug 853,7 (± 162,87) Kathetertage und die primary patency der Katheter lag im Mittelwert bei 507,60 (±58,33) Tagen. Die Gesamt-Infektionsrate der Iliakalvenenkatheter lag bei 0,69/1.000 Kathetertage und eine Katheter-Dysfunktion war in acht Fällen der Grund der Katheter- Entfernung (8,4%). Die durchschnittliche Urea Reduction Rate betrug 68,9% (± 7,1). Es bestand kein statistisch signifikanter Zusammenhang zwischen Alter (p=0.37), Geschlecht (p=0,61), BMI (p=0.97) oder Seitenlage des Katheters (p=0.22) und der Katheter-Liegedauer. Im Verlauf erfolgte bei drei Patienten eine erfolgreiche Nierentransplantation.
Schlussfolgerungen: Die Implantation des Iliakalvenenkatheters hat eine hohe Erfolgsrate, ein niedriges Komplikationsrisiko, ist technisch leicht zu erlernen und bedarf keiner aufwendigen interventionellen Rahmenbedingungen. Auch im Verlauf zeigt sich ein Komplikationsprofil, das in Bezug auf Katheter-Infektionen, Katheter-Dysfunktion, Katheter-Thrombosen und Komplikations-bedingten Explantationen den etablierten Zugangswegen mindestens gleichwertig ist. Außerdem konnte gezeigt werden, dass der Iliakalvenenkatheter eine lange Komplikations-freie Liegedauer hat und in Einzelfällen auch über mehrere Jahre hinweg eine suffiziente Hämodialyse gewährleisten kann. Geäußerte Bedenken, nach welchen eine spätere Nierentransplantation nicht möglich sei, konnten ausgeräumt werden. Des Weiteren beschreibt die vorliegende Studie erstmalig den Langzeitverlauf des Iliakalvenenkatheters bei einem Patientenkollektiv eines breiten Altersspektrums und zeigte auch die altersunabhängige Eignung des Zugangsweges.
Einleitung: Frailty (engl. für Gebrechlichkeit) bezeichnet eine mit hohem Alter zunehmende Verschlechterung des körperlichen und kognitiven Zustandes von Individuen, woraufhin der Körper nicht mehr in der Lage ist, adäquat auf äußere und innere Stressoren zu reagieren. Frailty ist mit einer erhöhten Morbiditäts- und Mortalitätsrate sowie längerer Krankenhausverweildauer und erhöhter postoperativer Komplikationsrate verbunden und stellt folglich einen chirurgischen Risikofaktor dar.
Problemstellung: Die Relevanz eines strukturierten Frailty Assessments in der präoperativen Risikostratifizierung führte zur Indikationsstellung, diverse validierte Risk Assessment Tools auf ihre prädiktive Vorhersagekraft bezüglich des Auftretens von postoperativen Komplikationen und postoperativer Sterbewahrscheinlichkeit zu untersuchen.
Methoden: In die vorliegende Studie wurden Patienten, die in dem Zeitraum vom 01.09.2018 und 31.01.2019 in der allgemeinchirurgischen Ambulanz vorstellig waren und einen allgemeinchirurgischen Eingriff erhielten, aufgenommen. Mittels Fragebögen wurden die Scores „Risk Analysis Index“, „Edmonton Frail Scale“ sowie „Charlson Comorbidity Index“ präoperativ erhoben und retrospektiv mit Daten aus der digitalen Patientenakte zusammengeführt. Endpunkte waren die 90-Tages- Mortalität sowie das Auftreten von schweren postoperativen Komplikationen ab Clavien Dindo Grad 3b. Die Analyse erfolgte in SPSS mittels Chi-Quadrat Test, t- Test und ROC-Kurven Analysen.
Ergebnisse: Das durchschnittliche Alter der Studienkohorte lag bei 56 ± 15.9 Jahren und der Anteil männlicher Patienten überwog mit 59.2% (n=282).
Die Fragebögen wurden 739 Patienten vorlegt und 476 Patienten konnten in die Datenanalyse eingeschlossen werden. Die 90-Tages-Mortalität lag bei 2.7% (n=13) und 9% (n=43) erlitten schwere postoperative Komplikationen ab Clavien-Dindo Grad IIIb. Die Einteilung nach der ASA-Klassifikation (p=0.024), maligne Diagnosen -7-(p<0.001) und Majorkomplikationen (p<0.001) stellten präoperative Risikofaktoren für postoperative 90-Tage-Mortalität dar. Von den Risk Assessment Scores zeigte lediglich der Risk Analysis Index eine signifikante Korrelation auf (p=0.013). Ein mittels ROC-Analyse ermittelter Cut-Off Wert von 23 klassifizierte 166 (34.9%) Patienten als frail, die mit 69% Sensitivität und 66% Spezifität (AUC=0.735) ein erhöhtes Risiko für postoperatives Versterben innerhalb von 90 Tagen aufwiesen (p=0.008). Risikofaktoren für das Auftreten schwerer postoperativer Komplikationen waren die ASA-Klassifikation (p=0.041), längere Krankenhausverweildauer (p<0.001) und maligne Diagnosen (p<0.001). Der Charlson Comorbidity Index (p=0.031) und RAI-C Werte ≥ 23 (p<0.001) korrelierten signifikant mit Majorkomplikationen. Das Alter ab 65 Jahren stellte mit 77 % Spezifität und 69 % Sensitivität ebenfalls einen prädiktiven Risikofaktor für postoperative Mortalität dar (AUC=0,787).
Schlussfolgerung: Mithilfe validierter Risk Assessment Tools ist es möglich Patienten, die ein erhöhtes Risiko für postoperative negative Ereignisse aufweisen, bereits präoperativ zu erkennen. Dies ermöglicht eine bessere Beurteilung der chirurgischen Indikationsstellung sowie das rechtzeitige Ergreifen von risikominimierenden Maßnahmen. Es ist notwendig die Ergebnisse dieser Arbeit künftig mit risikominimierenden Maßnahmen zu verknüpfen und zu untersuchen, ob die Implementierung der Risk Assessment Tools zu verbesserten postoperativen Ergebnissen führt, wenn modifizierbare Faktoren verbessert werden.
Im Rahmen dieser publikationsbasierten Dissertation wurden drei wissenschaftliche Arbeiten veröffentlicht. Als Erstautorenschaft wurde 2022 die Arbeit “Effectiveness of High-intensity Focused Ultrasound (HIFU) Therapy of Solid and Complex Benign Thyroid Nodules - A Long-term Follow up Two-center Study.” im Journal “Experimental and Clinical Endocrinology & Diabetes” veröffentlicht. Im Folgenden wird der Inhalt dieser Arbeit dargelegt. Ein kurzer Überblick über die Ergebnisse der anderen beiden mitpublizierten Arbeiten findet sich im Kapitel „Weitere Ergebnisse der Arbeitsgruppe“.
Durch die hohe Prävalenz benigner Schilddrüsenknoten sind deren Behandlungsalternativen von großem wissenschaftlichem Interesse. Dabei bildet die nebenwirkungsarme, minimalinvasive Thermoablation mittels high-intensity focused ultrasound (HIFU) eine attraktive Alternative zu herkömmlichen Verfahren wie der Schilddrüsenchirurgie oder der Radioiodtherapie. Bei der HIFU-Echotherapie werden die Schilddrüsenknoten auf 80 - 90 Grad Celsius erhitzt, sodass eine irreversible Koagulationsnekrose entsteht. Um den Therapieprozess und die Indikationsstellung von HIFU bei benignen Schilddrüsenknoten zu optimieren, ist es notwendig, genaue Studien durchzuführen.
Ziel der vorliegenden bizentrischen Langzeitstudie war, die Effektivität von HIFU-Echotherapien bei benignen Schilddrüsenknoten zu evaluieren und erstmalig den Einfluss der Knotenmorphologie auf den Therapieerfolg zu untersuchen. Vor der Therapie und in regelmäßigen Intervallen nach der Therapie wurden die Größe und die Morphologie der Schilddrüsenknoten mittels Ultraschall dokumentiert. In der retrospektiven Studie wurden Daten von 58 Patienten ausgewertet. Dabei wurde die Gesamtpopulation in eine Gruppe mit soliden und in eine Gruppe mit komplexen Knoten eingeteilt. Die durchschnittliche prozentuale Volumenreduktion in jeder Gruppe wurde mit dem Wilcoxon-Signed-Rank Test statistisch analysiert.
Die Gesamtpopulation zeigte eine Volumenreduktion der zuvor abladierten Knoten von 38.86 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p < 0.0001, n = 25), 42.7 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p < 0.0001, n = 18), 62.21 % nach 9 Monaten (Spannweite: 12.88 % - 93.2 %, p = 0.0078, n = 8) und 61.42 % nach 12 Monaten (Spannweite: 39.39 % - 93.2 %, p > 0.05, n = 4). Die soliden Knoten hatten eine Volumenreduktion von 49.98 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p = 0.0001, n = 15), 46.40 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p = 0.001, n = 11), 65.77 % nach 9 Monaten (Spannweite: 39.39 % - 93.2 %, p = 0.0156, n = 7) und 63.88 % nach 12 Monaten (Spannweite: 39.39 % - 93.2%, p > 0.05, n = 2). Komplexe Knoten hatten eine Volumenreduktion von 35.2 % nach 3 Monaten (Spannweite: 5.85 % - 68.63 %, p = 0.002, n = 10), 36.89 % nach 6 Monaten (Spannweite: 12.23 % - 68.63 %, p = 0.0156, n = 7) und 63.64 % nach 12 Monaten (Spannweite: 52,38 % - 73.91 %, p > 0.05, n = 2).
In der vorliegenden bizentrischen Langzeitstudie wurde deutlich, dass HIFU-Echotherapie eine effektive Behandlungsoption benigner Schilddrüsenknoten ist. Erstmalig gezeigt wurde der Trend, dass solide Knoten besser auf HIFU-Echotherapie ansprechen als komplexe Knoten.
Anhand der gewonnenen Ergebnisse und der neuen Erkenntnisse zum Einfluss der Knotenmorphologie auf die HIFU-Echotherapie benigner Schilddrüsenknoten kann HIFU als Therapieoption besser bewertet werden. Eine differenziertere Indikationsstellung in Bezug auf solide und komplexe Knoten wird ermöglicht und die HIFU-Echotherapie kann gegen andere thermoablative Verfahren abgewogen werden.
Diese Promotionsarbeit dient in erster Linie dazu herauszufinden, ob Unterschiede im Gesamt- und rezidivfreien Überleben zwischen dem laparoskopischen und offenen chirurgischen Zugangsweg der radikalen Nephroureterektomie (RNU) bei Patienten mit nicht-metastasiertem Urothelkarzinom des oberen Harntrakts bestehen. Als sekundäres Ziel soll untersucht werden, ob die Durchführung einer präoperativen Ureterorenoskopie (URS) bei Patienten mit nicht-metastasiertem Urothelkarzinom des oberen Harntrakts zu Unterschieden im Gesamt- und rezidivfreien Überleben führt.
Zur Untersuchung der Hypothesen wurden die Daten von Patienten, die zwischen 2010 und 2020 wegen eines Urothelkarzinom des oberen Harntrakts behandelt wurden, retrospektiv aus institutionellen Datenbanken erhoben. Die Studienpopulation bestand aus Patienten, die älter als 18 Jahre waren, sich einer offenen oder laparoskopischen RNU unterzogen und bei denen kein Verdacht auf Metastasen bestand (cM0). Patienten mit Verdacht auf Metastasen bei der Diagnose (cM1) oder anderen Therapien als einer RNU wurden ausgeschlossen. Die Daten wurden tabellarisch dargestellt und, mithilfe von Kaplan-Meier-Kurven, Unterschiede im Gesamt- und rezidivfreien Überleben hinsichtlich des chirurgischen Zugangs (laparoskopisch versus offen) untersucht. In gesonderten Kaplan-Meier-Kurven wurde darüber hinaus der Einfluss der präoperativen URS auf das Gesamt- und rezidivfreie Überleben beider Kohorten untersucht (unabhängig vom Zugangsweg).
Von den 59 Patienten, die sich einer RNU unterzogen, wurden 29% (n=17) laparoskopisch und 71% (n=42) offen operiert. Die Patienten- und Tumormerkmale waren in beiden Gruppen gleichmäßig verteilt (p≥0,2). Das mediane Gesamtüberleben unterschied sich nicht statistisch signifikant zwischen den Kohorten. Es betrug 93 Monate nach einer laparoskopischen RNU im Vergleich zu 73 Monaten nach einer offenen RNU (p=0,46). Das mediane rezidivfreie Überleben wies keine Unterschiede zwischen laparoskopischer und offener RNU auf und betrug für beide Kohorten 73 Monate (p=0,93). Auch das mediane Gesamt- und rezidivfreie Überleben unterschied sich nicht zwischen Patienten mit und ohne präoperativer URS (p=0,1).
Basierend auf den Ergebnissen einer retrospektiven, unizentrischen Studie zeigten die Gesamt- und rezidivfreien Überlebensraten bei Patienten mit nicht-metastasiertem Urothelkarzinom des oberen Harntrakts, die mit laparoskopischer oder offener RNU behandelt wurden, keinen signifikanten Unterschied. Das laparoskopische Verfahren kann dem offenen Verfahren also ebenbürtig angesehen werden. Außerdem führte eine präoperative URS vor der RNU nicht zu verringerten Gesamt- oder rezidivfreien Überlebensraten.
Trotz der nennenswerten Ergebnisse bestehen auch für die vorliegende Studie Einschränkungen. Sie begründen sich einerseits auf dem retrospektiven Studiendesign, was in einer schlechteren Qualität der Daten resultiert sowie andererseits auf der geringen Stichprobengröße, weshalb die Ergebnisse nur eingeschränkt auf die Allgemeinheit anwendbar sind.
Auf der Grundlage dieser Studie sollten multizentrische, randomisierte, prospektive Studien mit einer umfangreicheren Kohortengröße erfolgen, um diese Ergebnisse zu bestätigen und die verbleibenden Unsicherheiten hinsichtlich des onkologisch günstigsten chirurgischen Verfahrens zu klären.
Hintergrund: Amblyopie ist nach Fehlsichtigkeit die häufigste Sehstörung bei Kindern. Sie ist eine wesentliche Ursache für eine lebenslange Minderung der bestkorrigierten Sehschärfe und ist meist unilateral. Eine Asymmetrie in der Qualität des visuellen Eindrucks während der sensiblen Phase führt in der Regel zu einer unzureichenden Entwicklung des binokularen Sehsystems. Die Standardtherapie der Amblyopie besteht aus optimaler optischer Korrektur vorhandener Brechungsfehler und der direkten Okklusion, wobei das funktionsbessere Auge zeitweise mit einem Augenpflaster abgedeckt wird. Bisherige Studien haben gezeigt, dass besonders bei Patienten mit tiefer Amblyopie, die Therapietreue oft mäßig ist. In einigen Fällen kann das amblyope Auge nicht mit der Foveola fixieren. Diese exzentrische Fixation beeinflusst den Therapieerfolg negativ. Unser Ziel war, bei dieser speziellen Patientengruppe die Okklusionsdauer objektiv zu registrieren und deren Auswirkung auf die Visusentwicklung und die Fixationsänderung in Abhängigkeit vom Alter über einen langen Zeitraum zu untersuchen.
Methoden: In unserer prospektiven multizentrischen Pilotstudie untersuchten wir amblyope Kinder mit exzentrischer Fixation im Alter von 3-16 Jahren während 12-monatiger Okklusionsbehandlung. Der Nahvisus wurde mittels Landoltringen und Lea-Symbolen (jeweils Reihenoptotypen) bestimmt. Die Okklusionsdauer wurde kontinuierlich mit einem TheraMon®-Mikrosensor aufgezeichnet, der am Augenpflaster angebracht wurde. Der Fixationsort am Augenhintergrund wurde mit einem direkten Ophthalmoskop bestimmt. Unsere Ziele waren: Evaluierung der Sehfunktion, Therapieadhärenz und Beurteilung des Fixationsortes des amblyopen Auges. Der Anteil des korrigierten Visusdefizits, die Dosis-Wirkungs-Beziehung und die Therapieeffizienz wurden berechnet.
Ergebnisse: In unserer Studie wurden 12 Patienten mit Schiel- und kombinierter Schiel- und Anisometropieamblyopie im Alter von 2,9-12,4 Jahren (im Mittel 6,5 ± 3,4 Jahre) untersucht. Der Anfangsvisus der amblyopen Augen nach 3 Monaten refraktiver Adaptationsphase lag im Mittel bei 1,4 ± 0,4 logMAR (Spannweite 0,9-2,0), und der 5 Führungsaugen bei 0,3 ± 0,3 logMAR (Spannweite -0,1-0,8). Die mittlere interokuläre Visusdifferenz (IOVAD, Visusunterschied zwischen dem amblyopen Auge und dem Führungsauge) zu Beginn betrug im Mittel 1,1 ± 0,4 log Einheiten (Spannweite 0,5-1,8). Die verschriebene Okklusionsdauer lag im Median bei 7,7 Stunden/Tag (Spannweite 6,6-9,9), die tatsächlich erreichte bei 5,2 Stunden/Tag (Spannweite 0,7-9,7). Nach 12 Monaten betrug die mediane Visusbesserung der amblyopen Augen 0,6 log Einheiten (Spannweite 0-1,6), die mediane IOVAD 0,3 log Einheiten (Spannweite 0-1,8). Multiple Regressionsanalyse mit Rückwärtselimination zeigte, dass sowohl das Alter (p=0,0002) als auch die Okklusionsdosis (p=0,046) signifikante Einflussfaktoren für den Visusanstieg waren. Kinder unter 4 Jahren zeigten das beste Ansprechen mit der niedrigsten Rest-IOVAD (Median 0,1 log Einheiten, Spannweite 0-0,3). Die Effizienzberechnung ergab eine Visusbesserung von etwa einer log Visusstufe pro 100 Stunden Okklusion in den ersten zwei Monaten und einer halben log Visusstufe nach 6 Monaten. Die Therapieeffizienz nahm mit zunehmendem Alter ab (p = 0,01). Trotz einer gewissen Visusbesserung auch bei Patienten im Alter von ≥8 Jahren (Median 0,4 log Einheiten), zeigten diese eine geringere Therapieadhärenz sowie -effizienz (mediane Rest-IOVAD 0,8 log Einheiten). Zentrale Fixation wurde von 9 Patienten nach im Median 3 Monaten erreicht (Spannweite 1-4 Monate). Drei Patienten (>6 Jahre) erreichten keine zentrale Fixation.
Schlussfolgerung: Amblyopie mit exzentrischer Fixation stellt auch bei guter Adhärenz eine Herausforderung für den Therapieerfolg dar. Unsere Studie zeigte erstmals prospektive quantitative Daten basierend auf elektronischer Erfassung der Okklusion bei dieser seltenen Patientengruppe. Es konnte die deutliche Abnahme der Therapieeffizienz mit zunehmendem Alter gezeigt werden. Die Visusbesserung wurde viel stärker vom Alter als von der Okklusionsdosis beeinflusst. Nur Kinder, die zum Okklusionsbeginn jünger als 4 Jahre waren, konnten im Studienzeitraum in ihren amblyopen Augen eine für ihr Alter annähernd normale Sehschärfe und eine IOVAD <0,2 log Einheiten erreichen. Demzufolge sind, trotz möglicher geringer Visusbesserung auch bei älteren Patienten, eine frühzeitige Diagnose und Therapie dieser Patientengruppe unerlässlich für den Therapieerfolg.
Förderung: bereitgestellt durch den Forschungspreis des Vereins „Augenstern e.V.“
Hintergrund: Die Aortenklappenstenose stellt in Europa und Nordamerika das häufigste Klappenvitium dar und ist vor allem auf eine degenerative Genese zurückzuführen. Da das Auftreten erster Symptome mit einer schlechten Prognose assoziiert ist, ist die transfemorale Aortenklappenimplantation mittels Katheter (TAVI) als minimalinvasive Therapie schon seit längerem eine Alternative zum operativen Ersatz der Aortenklappe und aktuelles Thema der Forschung. Zwar existiert eine Vielzahl an Transkatheterklappen und es werden fortlaufend neue Generationen entwickelt, allerdings liegt bislang noch keine Studie vor, die einen direkten Vergleich der intraannularen Portico-Prothese (Abbott) mit der ebenfalls selbstexpandierbaren, aber supraannularen, Symetis-Prothese (Boston Scientific) präsentiert.
Methoden: Es erfolgte eine retrospektive Analyse von 142 gematchten (nach Alter, BMI, NYHA-Klasse, EuroScore, insulinpflichtiger Diabetes Mellitus, arterielle Hypertonie, COPD, KHK, präinterventionelle eGFR, cAVK, Schlaganfall, TIA in der Vorgeschichte) Patienten je Klappenmodell im medianen Alter von 83 Jahren, die sich mit einer hochgradigen symptomatischen Aortenklappenstenose im Zeitraum vom 12.10.2015 bis zum 07.01.2020 einer transfemoralen TAVI im Universitätsklinikum in Frankfurt am Main unterzogen. Untersucht wurde als primärer Endpunkt die Gesamtmortalität nach 1 Jahr. Darüber hinaus wurden mittels multivariater Cox-Regression unabhängige Risikofaktoren identifiziert. Als sekundäre Endpunkte wurden Komplikationen innerhalb von 30 Tagen gemäß den Definitionen des Valve Academic Research Consortium (VARC) 2 gewählt wie die Implantationen neuer Schrittmacher, paravalvuläre Leckage, Gefäßkomplikationen und akutes Nierenversagen. Analysiert wurden außerdem prozedurale Faktoren, die Symptomatik anhand der NYHA-Klasse sowie einige Laborparameter vor und nach der TAVI.
Ergebnisse: In dieser Arbeit konnte gezeigt werden, dass die 1-Jahres-Mortalität mit der Portico-Prothese signifikant höher ist als mit der Symetis-Prothese (25,2% vs. 12,2%; p=0,011). Dabei gelten neben der Portico-Prothese eine reduzierte linksventrikuläre Funktion und die NYHA-Klassen III/IV gemäß multivariater Cox-Regressionsanalyse als unabhängige Risikofaktoren. Postinterventionell war in der Portico-Kohorte ein neuer Linksschenkelblock (34,5% vs. 23,2%; p=0,036), die Implantation neuer Schrittmacher (22,6% vs. 11,8%; p=0,011) sowie ein akutes Nierenversagen (25,5% vs. 12,8%; p=0,006) signifikant häufiger. Hinsichtlich prozedurbezogener Faktoren hat sich herausgestellt, dass mit der Symetis-Prothese häufiger nachdilatiert (41,5% vs. 25,3%; p=0,004), mit der Portico-Prothese hingegen häufiger vordilatiert (92,2% vs. 82,3%; p=0,012) wurde. Außerdem wurde in der Portico-Kohorte signifikant mehr Kontrastmittel eingesetzt und das Verfahren mit der Durchleuchtung dauerte signifikant länger. Echokardiographisch resultierte post TAVI mit der Symetis-Prothese eine signifikant andere bzw. günstigere Verteilung der Aortenklappeninsuffizienzgrade. Laborchemisch war der Wert für NT-proBNP als biochemischer Marker für eine Herzinsuffizienz signifikant höher als in der Symetis-Gruppe.
Schlussfolgerung: Diese Arbeit zeigte eine signifikant höhere Mortalität nach 1 Jahr mit der Portico-Prothese im direkten Vergleich mit der Symetis-Prothese. Außerdem ergab der Vergleich signifikant höhere Komplikationsraten in der Portico-Kohorte hinsichtlich Schrittmacherimplantationen, neuem Linksschenkelblock und akutem Nierenversagen. Weitere Studien sollten die beiden Prothesen im längerfristigen Verlauf vergleichend analysieren. Die Ergebnisse dieser Studie können zur Optimierung neuer Klappengenerationen beitragen, indem sie auf potenziell prognosebestimmende Aspekte des Designs und der Implantationstechnik aufmerksam machen. Außerdem sensibilisert die Studie für eine individuell für jeden Patienten angepasste Prothesenauswahl. Möglicherweise sollte bei Vorerkrankungen der Niere oder bei vorbekannten Herzleitungsstörungen die Symetis- gegenüber der Portico-Prothese vorgezogen werden.
Resistenzen gegenüber Carbapenemen sind eine Bedrohung für die globale Gesundheit mit wenigen verbleibenden Therapieoptionen. Ceftazidim/Avibavtam (CZA) ist die Kombination aus einem Cephalosporin und einem Diazabicyclooctan, mit der Eigenschaft eine Vielzahl von Carbapenemasen der Ambler Klasse A und D zu inhibieren. Resistenzen gegenüber Carbapenemen in gramnegativen Bakterien sind in Kolumbien und anderen Ländern Lateinamerikas weit verbreitet. In den hier vorgestellten Arbeiten wurden 2.235 Enterobakterien und 492 P. aeruginosa Isolate aus fünf Lateinamerikanischen Ländern auf ihre Empfindlichkeit gegenüber CZA und anderen klinisch verfügbaren Antibiotika untersucht. Die CZA-resistenten Isolate wurden mittels PCR und Genomsequenzierung auf die zugrundeliegenden Resistenzmechanismen hin analysiert. CZA zeigte Aktivitäten gegenüber 99,2% (2.217/2.235) aller untersuchten Enterobacterales und 77,8% (383/492) aller P. aeruginosa Isolate. Als plausible Erklärung für die Resistenz gegen CZA konnte mittels qPCR bei allen Enterobakterien und bei 38,5% (42/109) der P. aeruginosa Isolate ein Metallo-β-Laktamase (MBL)-kodierendes Gen nachgewiesen werden. Die verbleibenden P. aeruginosa Isolate wurden einer Genomsequenzierung unterzogen, dabei zeigten sich Mutationen in Genen, die zuvor mit einer verringerten Empfindlichkeit gegen CZA assoziiert wurden, wie z.B. Genen die mit der Überexpression von MexAB-OprM und AmpC (PDC) in Verbindung stehen, sowie Genen, die PoxB (blaOXA-50-like), FtsI (PBP3), DacB (PBP4) und OprD kodieren. Unsere Ergebnisse unterstreichen die Notwendigkeit von Therapieoptionen gegenüber MBL-produzierenden und anderen Carbapenem-resistenten Mikroorganismen. Des Weiteren sind diese Studien eine Momentaufnahme der Empfindlichkeit gegen CZA vor dessen Verfügbarkeit in Lateinamerika und dienen deswegen als Ausgangspunkt um die Entwicklung von Resistenzen in dieser Region zu verfolgen.
Hintergrund: Der Hypoparathyreoidismus (Hypopara) ist neben der Recurrensparese eine typische postoperative Komplikation nach Thyreoidektomie. Ziel dieser Arbeit soll die Prozessoptimierung des postoperativen Managements sein, um einen p.o. Hypopara frühzeitig zu erkennen und zu therapieren und somit die klinischen Symptome zu lindern oder zu vermeiden.
Methoden: Es wurden alle Patienten mit einer beidseitigen Schilddrüsenresektion eingeschlossen. Ausschlusskriterien waren simultane Nebenschilddrüsen- erkrankungen sowie fortgeschrittene Schilddrüsenmalignome mit geplantem Tumordebulking und/oder langem ITS-Aufenthalt. Postoperativ wurden Parathormon (EDTA) sowie Kalzium (Serum) bestimmt. Bei einem Parathormon (PTH) - Wert unter dem Referenzbereich (15,0-68,3 pg/ml) und/oder einer ausgeprägten Hypokalzämie mit einem Kalziumwert < 1,9 (Ref. 2,20-2,65 mmol/l) und/oder klinischen Zeichen wie Kribbelparästhesien oder Tetanie wurde Kalzium und Vitamin D mittels festem Schema verordnet. Die Symptombesserung wurde klinisch dokumentiert.
Ergebnisse: Am AGAPLESION Elisabethenstift gGmbH in Darmstadt wurden im Zeitraum zwischen Januar 2019 und Juni 2022 Schilddrüseneingriffe bei insgesamt 465 Patienten durchgeführt. Nach Berücksichtigung der Ein- und Ausschlusskriterien wurden 193 Patienten mit Thyreoidektomie in die Auswertung einbezogen. Ein p.o. Hypopara wurde bei 51 Patienten (26,4 %) festgestellt. Bei 40 Patienten (20,7 %) traten Symptome auf (39x Kribbelparästhesie, 1xTetanie). Von den 51 Patienten lag bei 26 (51 %) ein nur leicht erniedrigter Kalziumwert am 1. p.o. Tag vor (zwischen 2,00 und 2,20 mmol/l), bei 10 Patienten (19,6 %) war der Kalziumwert im Normbereich (2,20-2,65 mmol/l). Im Vergleich dazu lag bei 6 von 51 Patienten (11,8 %) ein normwertiger PTH-Wert vor. Bei 20 Patienten (10,4 %) erfolgte intraoperativ eine Nebenschilddrüsen-Replantation in den ipsilateralen M. sternocleidomastoideus. Davon trat bei 8 Patienten (40 %) ein Hypopara auf. Bei 29 Patienten (15 %) wurde in der Histologie ein akzidentiell mitentferntes Epithelkörperchen nachgewiesen. Davon trat bei 13 Patienten (44,8 %) ein Hypopara auf. Die mittlere Zeit nach OP zur PTH-Bestimmung lag bei 2,41 Tagen. Die mittlere Aufenthaltsdauer der Patienten mit Hypopara betrug 3,86 Tage (± 2,272), die der restlichen Patienten betrug 2,69 Tage (± 1,759), p < 0,001.
Schlussfolgerungen: Die PTH-Bestimmung ist neben der klinischen Visite essentiell zur Früherkennung eines p.o. Hypopara. Eine mehrtägige Kalziumbestimmung ist damit nicht zwingend erforderlich, sodass die Verweildauer verkürzt werden kann. Das verordnete Schema zur oralen Substitution von Kalzium und Vitamin D ist auch ambulant fortführbar. Die Replantation einer nicht erhaltbaren NSD hat bei 60 % einen Hypopara verhindert. Die gezielte Darstellung und Erhalt der NSD sollte bei jedem Eingriff eingehalten werden. Insgesamt zeigt diese Arbeit den höheren Stellenwert des postoperativen PTH-Wertes sowie der klinischen Zeichen als das Serumkalzium zur Erkennung und Therapie des Hypopara nach Thyreoidektomie.
Zielsetzung der vorliegenden Dissertation war die Validierung einer deutschsprachigen Version, der bereits für andere Sprachen validierten Repetitiven Verhaltensskala – Revidiert (RBS-R) für Kinder- und Jugendliche im Alter zwischen 4-17 Jahren. Die RBS-R ist ein aus 43 Items bestehendes, gut untersuchtes Screeninginstrument, welches restriktives, repetitives Verhalten (RRV) erfasst. RRV stellen einen heterogenen Symptomkomplex dar, welcher durch stereotype motorische, sprachliche und kognitive Verhaltensmuster gekennzeichnet ist.
RRV sind neben Abweichungen sozialer Interaktion und Kommunikation eines der Hauptkriterien für eine Autismus-Spektrum-Störung (ASS). RRV sind jedoch nicht nur Teil des Symptomspektrums einer ASS, sondern treten häufig auch bei anderen psychiatrischen Erkrankungen (PE), einer Intelligenzminderung (IM) oder bei altersentsprechend entwickelten Kindern (AE), beispielsweise in bestimmten Phasen des Heranwachsens auf. Bisher wurde die RBS-R fast ausschließlich an ASS untersucht. Es besteht die Notwendigkeit für ein valides und zuverlässiges Messinstrument für den deutschen Sprachraum, welches RRV hinsichtlich ihrer Heterogenität transdiagnostisch erfassen und den Schweregrad der Ausprägung ermitteln kann. Das Ziel dieser Arbeit war, dies durch eine möglichst große und heterogene Stichprobe (n= 948) mit Inklusion von Probanden mit einer ASS (n= 218), IM (n= 120), PE (n= 166) und AE (n = 444) zu gewährleisten. Zur Überprüfung der psychometrischen Eignung erfolgte nach der Adaptation der RBS-R für den deutschen Sprachraum eine Evaluation gemäß den Prinzipien der klassischen Testtheorie, insbesondere hinsichtlich Validität und Reliabilität. Darüber hinaus erfolgte unter Einbeziehung der vier Stichproben eine explorative Faktoranalyse (EFA) um eine geeignete Faktorlösung zu finden. Diese sollte sowohl den Anspruch Klinisch-Tätiger als auch Forschender erfüllen und eine Anwendung der RBS-R auch außerhalb von ASS ermöglichen. Zudem sollten RRV in den unterschiedlichen Kohorten, sowie in Bezug auf Alters- und Geschlechtseffekte bei ASS untersucht werden.
Die Bedeutung der Ergebnisse dieser Arbeit ist, ob der schon breit erforschten Eigenschaften der RBS-R, vor allem im Kontext mit den vorliegenden Studien zu betrachten. Einzigartig für diese deutschsprachige Validierung der RBS-R ist die Diversität und große Anzahl der teilnehmenden Probanden.
Die vorliegende Validierung der RBS-R erbrachte gute Ergebnisse für die Reliabilität und konvergente Validität der Skalen, vergleichbar mit den Ergebnissen vorheriger Studien. Die untersuchte Itemschwierigkeit war relativ gering, was durch die geringe Antwortvarianz in der großen Kohorte der AE erklärbar ist. Die Itemgesamtkorrelation zeigte gute Werte. Auch Items mit niedrigen Ergebnissen für die Itemzustimmung wurden nicht exkludiert. Dies geschah konkordant zum Vorgehen vorheriger Studien und hatte den Hintergrund, eine internationale Vergleichbarkeit des RBS-R beizubehalten. Die EFA bestätigte die gute Anwendbarkeit einer Vielzahl von Faktorlösungen. Wir legten eine 4-Faktorlösung für die deutschsprachige Version der RBS-R fest. Grundlage hierfür war das Bestreben die ursprünglichen Subskalen für eine internationale Vergleichbarkeit so getreu wie möglich beizubehalten. Die 4 Faktoren bildeten treffend RRV niedriger und hoher Ordnung ab. Gegen eine 5- oder 6-Faktorlösung sprach hierbei, dass dies zu Subskalen mit wenig Items und schwachen psychometrischen Eigenschaften führte (Lam et al, kritisiert durch Georgiades et al). Gegen eine 2- oder 3-Faktorlösung sprach die eingeschränkte klinische Interpretierbarkeit durch Subskalen mit vielen kumulierten Items. Hinsichtlich der Kohortenzugehörigkeit kann der RBS-R übereinstimmend mit Fulceri et al valide zwischen RRV in ASS und AE unterscheiden. Eine valide Unterscheidung zwischen ASS, PE und IM konnten wir nicht verifizieren. Betreffend der untersuchten Alterseffekts bestätigte sich, dass RRV bei ASS mit dem Alter abnehmen. Im Gegensatz zu einigen vorherigen Studien, welche keinen Geschlechtsunterschied bezüglich RRV bei ASS fanden, zeigten die männlichen Probanden der ASS Kohorte bei uns häufiger und ausgeprägter RRV.
Das schnelle und unkontrollierte Wachstum von Tumorzellen bedingt beim Glioblastom ein heterogenes Tumormikromilieu, mit lokalem Sauerstoff- und Nährstoffmangel. Lokaler Selektionsdruck bedingt eine Evolution besonders anpassungsfähiger Klone. Die integrierte Stressantwort (integrated stress response, ISR) ist ein zelluläres Programm, das durch zahlreiche Stressoren, wie endoplasmatische Retikulum Stress (ER-Stress), durch die Akkumulation ungefalteter Proteine, Hypoxie, Glukose- oder Aminosäuremangel aktiviert wird. Ein zentraler Schritt zur Aktivierung der ISR ist die Phosphorylierung der alpha Untereinheit des eukaryotischen Translationsinitiationsfaktors 2 (eIF2α) an Serin 51. Die Phosphorylierung von eIF2α führt zur Modulation der Translation mit Induktion des Transkriptionsfaktors ATF4 (Activating Transcription Factor 4), der dann zelluläre Anpassungsvorgänge einleitet.
Unsere Hypothese lautete, dass ATF4-vermittelte molekulare Anpassungsmechanismen menschlicher Glioblastom (GB)-Zellen an die Bedingungen der Tumormikroumgebung (wie z.B. Hypoxie und Nährstoffentzug) maßgeblich zur Therapieresistenz beitragen und auch die Empfindlichkeit gegen TMZ-Chemotherapie beeinflussen. Somit könnte eine Inhibition der integrierten Stressantwort über den zentralen Mediator ATF4 zu einem gesteigerten Ansprechen auf Therapiebedingungen führen.
Um die ISR und ATF4 als mögliche therapeutische Angriffspunkte im Glioblastom zu evaluieren, wurde die ATF4 Induktion in Glioblastomzellen pharmakologisch und genetisch moduliert und im Zusammenhang mit TMZ-Behandlung sowie Glukose- und Sauerstoffentzug untersucht. Unter Glutaminentzug, Hypoxie und TMZ-Behandlung, welche Aspekte der GB-Mikroumgebung widerspiegeln, zeigten sich erhöhte ATF4 Proteinspiegel. ATF4-gensupprimierte GB-Zellen (ATF4sh) exprimierten unter gleicher Behandlung wesentlich weniger ATF4.
Im Einklang mit der Hypothese, dass ATF4 zur Therapieresistenz humaner Glioblastomzellen beiträgt, waren ATF4-gensupprimierte GB-Zellen (ATF4sh) im Vergleich zur Kontrollzelllinie empfindlicher gegen Hypoxie-induzierten Zelltod und zeigten einen erhöhten Sauerstoffverbrauch. Umgekehrt zeigten GB-Zellen nach pharmakologischer ISR Induktion einen verminderten Sauerstoffverbrauch. Auch nach Behandlung mit TMZ war die Überlebensrate in ATF4sh Zellen im Vergleich zur Kontrollgruppe geringer. Zur Hemmung der ISR wurden verschiedenen Inhibitoren der Kinase PERK (Protein kinase R-like endoplasmic reticulum kinase) entwickelt. In unseren Untersuchungen war nach der Behandlung der GB-Zelllinien eine verminderte ATF4 Expression festzustellen. Dabei kam es allerdings gleichzeitig bei der Behandlung mit höheren Inhibitorkonzentrationen zu einer Induktion von ATF4. Für den PERK-Inhibitor GSK 414 wurde in der Literatur auch die Hemmung anderer Kinasen wie KIT und RIPK1 gezeigt. Daher konnte bei den Konzentrationen, die für eine vollständige PERK-Inhibition erforderlich waren, keine selektive Hemmung von PERK mehr gewährleistet werden. Besonders aufgrund ihrer Toxizität auf die Funktion des Pankreas eignen sich diese Inhibitoren nicht für eine in vivo Erprobung. Da aber durch die Inhibition der ISR eine neuroprotektive Wirkung beschrieben ist, besteht die Notwendigkeit, weitere Inhibitoren zur Hemmung der ISR zu entwickeln. ISRIB (Integrated Stress Response Inhibitor) ist ein partieller ISR Inhibitor, der eIF2B angreift, was als Guanidin-Nukleotid-Austauschfaktor im Translationsinitiationsprozess benötigt wird. Für ISRIB wurde bereits in vitro und in vivo eine neuroprotektive, aber keine toxische Wirkung beschrieben.
Zusammenfassend lieferten unsere Untersuchungen Hinweise auf die wichtige Rolle von ATF4 für die Anpassung humaner GB-Zellen an Bedingungen der Tumormikroumgebung und für die Entstehung von TMZ-Resistenzen. Die Hemmung der ISR in GB-Zellen könnte daher ein vielversprechender Therapieansatz sein.
Langzeitüberleben und Mortalitätsprädiktoren nach perkutanem
kathetergestütztem Aortenklappenersatz
(2022)
Ziel dieser Studie war die Evaluation von Patienten, die eine transfemorale oder eine transapikale TAVI erhalten haben, in Bezug auf ihre Mortalitätsprädiktoren und ihre Langzeit-Mortalität.
Methoden: Untersucht wurden Patienten mit einer minimalen FU-Zeit von sechs Jahren, welche im Zeitraum von 2006 – 2014 eine TAVI im Herzkatheterlabor des Universitätsklinikums in Frankfurt erhalten haben. Das Patientenkollektiv wurde basierend auf dem Zugangsweg (transfemoral oder transapikal) analysiert.
Ergebnisse: Insgesamt wurden 679 Patienten in die Studie eingeschlossen. 408 Patienten (59,82 %) bekamen eine transfemorale TAVI und 271 Patienten (39,74 %) bekamen eine transapikale TAVI. Der durchschnittliche STS-Score betrug in der transfemoralen Gruppe 4,21 ± 2,4 % und in der transapikalen Gruppe 4,19 ± 2,7 %. Die Mortalität war nach 30 Tagen (15,8 % transapikal versus 8,2 % transfemoral, p = 0,00) sowie im Langzeit-FU (79,5 % transapikal versus 68,3 % transfemoral, p = 0,00) signifikant höher in der transapikalen Gruppe. Viele postinterventionelle Komplikationen waren häufiger in der transfemoralen Gruppe. Postinterventionelle Schrittmacherimplantationen (15,7 % versus 4,1 %, p = 0,00), große und kleine vaskuläre Komplikationen (5,1 % versus 1,1 %, p = 0,01) sowie große und kleine zerebrovaskuläre Insulte (31,8 % versus 9,1 %, p = 0,00) kamen in der transfemoralen Gruppe signifikant häufiger vor. Allerdings war der transfemorale Zugangsweg mit einer besseren Überlebensrate assoziiert (Log Rank Test p = 0,01 und HR 1,33 (1,04 – 1,71), p = 0,03). Patienten mit einem hohen STS-Score (HR 1,09 (1,03 – 1,15), p = 0,00), einem vorbestehenden Diabetes Mellitus (HR 0,75 (0,58 – 0,97), p = 0,03) sowie großen Gefäßkomplikationen (HR 0,60 (0,37 – 0,99), p = 0,04) korrelieren mit einem schlechteren Langzeit-Überleben.
Zusammenfassung: Für den kathetergestützten Aortenklappenersatz weisen beide Zugangswege spezifische Risiken auf, daher sollte die individuell beste Variante für jeden Patienten ausgewählt werden.
Untersuchung zur Sicherheit bei der simultan bilateralen Cochlea-Implantation bei Erwachsenen
(2023)
Schwerhörigkeit ist sowohl für die betroffenen Patienten als auch sozioökonomisch eine relevante Erkrankung. Sie stellt ein Hindernis für die soziale Teilhabe dar, reduziert die Lebensqualität und führt zu direkten und indirekten Gesundheitskosten.
Cochlea-Implantate sind vielkanalige Neuroprothesen, die über einen chirurgisch in die Hörschnecke eingebrachten Elektrodenträger das erste Neuron der Hörbahn direkt elektrisch stimulieren und so eine Hörwahrnehmung induzieren.
Dadurch kann ein Funktionsverlust der Haarzellen, welcher die häufigste Ursache für eine Schwerhörigkeit ist, ersetzt werden. Cochlea-Implantate stellen den Goldstandard der Hörrehabilitation bei hochgradig schwerhörigen oder postlingual ertaubten erwachsenen Patienten sowie in der Versorgung prälingual ertaubter Kinder dar.
Bei vielen schwerhörigen Patienten besteht die Indikation zur beidseitigen Versorgung mit einem Cochlea-Implantat. Prinzipiell besteht die Möglichkeit, diese chirurgische Versorgung beidseits einzeitig (simultan) oder zweizeitig (sequenziell) durchzuführen. Während die Sicherheit der bilateral-simultanen Operation für Kinder durch mehrere Studien belegt wurde, liegen für Erwachsene erst wenige Daten vor.
Die vorliegende Studie untersucht, ob die bilaterale simultane Implantation mit höheren Komplikationsraten als die sequenzielle Operation assoziiert ist und leistet damit einen Beitrag zur Entscheidungsfindung von Patienten und Behandlern.
Es konnten 169 zwischen 2008 und 2017 bilateral implantierte Patienten eingeschlossen werden. Davon wurden 34 simultan (Gruppe 1) und 135 (Gruppe 2) sequenziell versorgt. Es wurde die Dauer der Operation, das Auftreten von Minor- und Major-Komplikationen sowie die Dauer des stationären Aufenthalts erfasst und zwischen beiden Gruppen verglichen.
Die Ergebnisse zeigten, dass die Gesamtzeit der Patienten im Operationssaal in der simultan implantierten Gruppe deutlich kürzer war. Die Häufigkeit chirurgischer Major- und Minor-Komplikationen unterschied sich hingegen nicht signifikant. Bezüglich einer letalen nicht-chirurgischen Komplikation in der simultan implantierten Gruppe erfolgte eine umfangreiche Aufarbeitung, ohne dass ein kausaler Zusammenhang mit der gewählten Behandlungsmethode nachgewiesen werden konnte. Die Dauer des Krankenhausaufenthalts war in der simultanen Gruppe 0,7 Tage länger als bei unilateraler Implantation, aber 2,8 Tage kürzer als bei beiden sequenziellen Operation zusammen.
In der Zusammenschau aller berücksichtigten Komplikationen und der komplikationsrelevanten Faktoren ist die Sicherheit der simultan bilateralen Operation gegenüber dem sequenziellen Vorgehen als gleichwertig zu bewerten.
Jedoch muss individuell auf mögliche Risikokonstellationen des Patienten eingegangen werden, die bei der längeren Operationszeit der simultanen Implantation relevant sein kann. Daher ist eine sorgfältige Auswahl der Patienten
unter besonderer Berücksichtigung bestehender Komorbiditäten unerlässlich.
Menschen mit Epilepsie (engl. PWE) haben im Vergleich zur Allgemeinbevölkerung ein erhöhtes Risiko, vorzeitig zu versterben. Der plötzliche, unerwartete Tod bei Epilepsie (engl. Sudden Unexpected Death in Epilepsy, kurz SUDEP) stellt die häufigste epilepsiebedingte Todesursache dar. Obwohl das Thema in Fachkreisen zunehmende Aufmerksamkeit erfährt, die Empfehlung zur SUDEP Aufklärung zunehmend in nationalen Leitlinien aufgenommen wird, und der Patientenwunsch nach einer generellen SUDEP Aufklärung in verschiedenen Studien gezeigt werden konnte, besteht weiterhin ein Informationsdefizit unter PWE. Ursache hierfür scheint insbesondere die Sorge der behandelnden Neurolog*innen zu sein, Menschen mit Epilepsie übermäßig emotional zu belasten und ihre Lebensqualität zu mindern. Diese Studie untersucht sowohl das Vorwissen über SUDEP als auch unmittelbare sowie langfristige Auswirkungen einer SUDEP Aufklärung auf Erwachsene mit Epilepsie. Ziel ist mögliche negative Auswirkungen der Aufklärung sowie Auswirkungen auf das Verhalten aufzudecken. Aus diesem Zweck wählten wir ein prospektives, multizentrisches, longitudinales Studiendesign. Die Daten wurden in halbquantitativen Interviews vor (vor der Aufklärung), unmittelbar nach (nach der Aufklärung) und drei Monate nach (3-Monats Follow-up) der SUDEP Aufklärung erhoben. Um die direkte Vergleichbarkeit zwischen den Zeitpunkten zu ermöglichen wurden folgende validierte Instrumente verwendet: das Neurological Disorders Depression Inventory for Epilepsy (NDDI-E) zur Erfassung depressiver Symptome, der EuroQoL (EQ-5D) zur Erfassung der gesundheitsbezogenen Lebensqualität (HRQoL), eine visuelle Analogskala (VAS) zur Erfassung des allgemeinen Gesundheitszustandes, die revised Epilepsy Stigma Scale (rESS) zur Erfassung der wahrgenommenen Stigmatisierung und die Seizure Worry Scale zur Erfassung anfallsbezogener Sorgen. Insgesamt wurden 236 Teilnehmende (Durchschnittsalter: 39,3 Jahre, Spannweite: 18-77 Jahre, 51,7 % Frauen) in die Studie eingeschlossen. 205 (86,9 %) der Teilnehmenden konnten erneut im Langzeit Follow-up nach drei Monaten befragt werden. Eine der Teilnehmenden verstarb im Zeitraum des Follow-ups an SUDEP. Keines der validierten Instrumente zeigte zwischen den Zeitpunkten vor der Aufklärung und dem 3-Monats Follow-up eine Verschlechterung. Vor der Aufklärung hatten nur 27,5 % der Teilnehmenden von SUDEP gehört, und nur 9,3 % gaben an, diese Informationen von ihrer bzw. ihrem Neurolog*in erhalten zu haben. Nach der Aufklärung gaben mehr als 85 % der Teilnehmenden an, mit der SUDEP Aufklärung zufrieden oder sehr zufrieden zu sein. Drei Viertel der Teilnehmenden gaben an, durch die Aufklärung nicht oder überhaupt nicht belastet zu sein. Mehr als 80 % der Teilnehmenden befürworteten eine generelle SUDEP Aufklärung für alle Menschen mit Epilepsie. Bei dem 3-Monats Follow-up gab die Mehrheit der Teilnehmenden an, keine Verhaltensänderung vorgenommen zu haben, 24,8 % berichteten jedoch von starken Verhaltensänderungen.
Unsere Studie zeigt, dass eine SUDEP Aufklärung keine negativen Auswirkungen auf den allgemeinen Gesundheitszustand, die HRQoL, depressive Symptome, krankheitsbezogene Stigmatisierung oder Sorgen vor Anfällen hat. Insgesamt zeigte sich eine hohe Zustimmung zur SUDEP Aufklärung. Eine generelle SUDEP Aufklärung könnte sich zudem positiv auf die Compliance auswirken und das Mortalitätsrisiko senken. Eine SUDEP Aufklärung bietet allerdings keinen sicheren Schutz vor SUDEP.