Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (1490) (remove)
Has Fulltext
- yes (1490)
Is part of the Bibliography
- no (1490)
Keywords
- HIV (6)
- Brustkrebs (5)
- Kardiovaskuläre Krankheit (5)
- NMR-Tomographie (5)
- Allgemeinmedizin (4)
- Apoptosis (4)
- Glioblastom (4)
- Hepatitis C (4)
- Immunsuppression (4)
- Lymphozyt (4)
Institute
- Medizin (1490) (remove)
Das schnelle und unkontrollierte Wachstum von Tumorzellen bedingt beim Glioblastom ein heterogenes Tumormikromilieu, mit lokalem Sauerstoff- und Nährstoffmangel. Lokaler Selektionsdruck bedingt eine Evolution besonders anpassungsfähiger Klone. Die integrierte Stressantwort (integrated stress response, ISR) ist ein zelluläres Programm, das durch zahlreiche Stressoren, wie endoplasmatische Retikulum Stress (ER-Stress), durch die Akkumulation ungefalteter Proteine, Hypoxie, Glukose- oder Aminosäuremangel aktiviert wird. Ein zentraler Schritt zur Aktivierung der ISR ist die Phosphorylierung der alpha Untereinheit des eukaryotischen Translationsinitiationsfaktors 2 (eIF2α) an Serin 51. Die Phosphorylierung von eIF2α führt zur Modulation der Translation mit Induktion des Transkriptionsfaktors ATF4 (Activating Transcription Factor 4), der dann zelluläre Anpassungsvorgänge einleitet.
Unsere Hypothese lautete, dass ATF4-vermittelte molekulare Anpassungsmechanismen menschlicher Glioblastom (GB)-Zellen an die Bedingungen der Tumormikroumgebung (wie z.B. Hypoxie und Nährstoffentzug) maßgeblich zur Therapieresistenz beitragen und auch die Empfindlichkeit gegen TMZ-Chemotherapie beeinflussen. Somit könnte eine Inhibition der integrierten Stressantwort über den zentralen Mediator ATF4 zu einem gesteigerten Ansprechen auf Therapiebedingungen führen.
Um die ISR und ATF4 als mögliche therapeutische Angriffspunkte im Glioblastom zu evaluieren, wurde die ATF4 Induktion in Glioblastomzellen pharmakologisch und genetisch moduliert und im Zusammenhang mit TMZ-Behandlung sowie Glukose- und Sauerstoffentzug untersucht. Unter Glutaminentzug, Hypoxie und TMZ-Behandlung, welche Aspekte der GB-Mikroumgebung widerspiegeln, zeigten sich erhöhte ATF4 Proteinspiegel. ATF4-gensupprimierte GB-Zellen (ATF4sh) exprimierten unter gleicher Behandlung wesentlich weniger ATF4.
Im Einklang mit der Hypothese, dass ATF4 zur Therapieresistenz humaner Glioblastomzellen beiträgt, waren ATF4-gensupprimierte GB-Zellen (ATF4sh) im Vergleich zur Kontrollzelllinie empfindlicher gegen Hypoxie-induzierten Zelltod und zeigten einen erhöhten Sauerstoffverbrauch. Umgekehrt zeigten GB-Zellen nach pharmakologischer ISR Induktion einen verminderten Sauerstoffverbrauch. Auch nach Behandlung mit TMZ war die Überlebensrate in ATF4sh Zellen im Vergleich zur Kontrollgruppe geringer. Zur Hemmung der ISR wurden verschiedenen Inhibitoren der Kinase PERK (Protein kinase R-like endoplasmic reticulum kinase) entwickelt. In unseren Untersuchungen war nach der Behandlung der GB-Zelllinien eine verminderte ATF4 Expression festzustellen. Dabei kam es allerdings gleichzeitig bei der Behandlung mit höheren Inhibitorkonzentrationen zu einer Induktion von ATF4. Für den PERK-Inhibitor GSK 414 wurde in der Literatur auch die Hemmung anderer Kinasen wie KIT und RIPK1 gezeigt. Daher konnte bei den Konzentrationen, die für eine vollständige PERK-Inhibition erforderlich waren, keine selektive Hemmung von PERK mehr gewährleistet werden. Besonders aufgrund ihrer Toxizität auf die Funktion des Pankreas eignen sich diese Inhibitoren nicht für eine in vivo Erprobung. Da aber durch die Inhibition der ISR eine neuroprotektive Wirkung beschrieben ist, besteht die Notwendigkeit, weitere Inhibitoren zur Hemmung der ISR zu entwickeln. ISRIB (Integrated Stress Response Inhibitor) ist ein partieller ISR Inhibitor, der eIF2B angreift, was als Guanidin-Nukleotid-Austauschfaktor im Translationsinitiationsprozess benötigt wird. Für ISRIB wurde bereits in vitro und in vivo eine neuroprotektive, aber keine toxische Wirkung beschrieben.
Zusammenfassend lieferten unsere Untersuchungen Hinweise auf die wichtige Rolle von ATF4 für die Anpassung humaner GB-Zellen an Bedingungen der Tumormikroumgebung und für die Entstehung von TMZ-Resistenzen. Die Hemmung der ISR in GB-Zellen könnte daher ein vielversprechender Therapieansatz sein.
Hintergrund: Die Aortenklappenstenose stellt in Europa und Nordamerika das häufigste Klappenvitium dar und ist vor allem auf eine degenerative Genese zurückzuführen. Da das Auftreten erster Symptome mit einer schlechten Prognose assoziiert ist, ist die transfemorale Aortenklappenimplantation mittels Katheter (TAVI) als minimalinvasive Therapie schon seit längerem eine Alternative zum operativen Ersatz der Aortenklappe und aktuelles Thema der Forschung. Zwar existiert eine Vielzahl an Transkatheterklappen und es werden fortlaufend neue Generationen entwickelt, allerdings liegt bislang noch keine Studie vor, die einen direkten Vergleich der intraannularen Portico-Prothese (Abbott) mit der ebenfalls selbstexpandierbaren, aber supraannularen, Symetis-Prothese (Boston Scientific) präsentiert.
Methoden: Es erfolgte eine retrospektive Analyse von 142 gematchten (nach Alter, BMI, NYHA-Klasse, EuroScore, insulinpflichtiger Diabetes Mellitus, arterielle Hypertonie, COPD, KHK, präinterventionelle eGFR, cAVK, Schlaganfall, TIA in der Vorgeschichte) Patienten je Klappenmodell im medianen Alter von 83 Jahren, die sich mit einer hochgradigen symptomatischen Aortenklappenstenose im Zeitraum vom 12.10.2015 bis zum 07.01.2020 einer transfemoralen TAVI im Universitätsklinikum in Frankfurt am Main unterzogen. Untersucht wurde als primärer Endpunkt die Gesamtmortalität nach 1 Jahr. Darüber hinaus wurden mittels multivariater Cox-Regression unabhängige Risikofaktoren identifiziert. Als sekundäre Endpunkte wurden Komplikationen innerhalb von 30 Tagen gemäß den Definitionen des Valve Academic Research Consortium (VARC) 2 gewählt wie die Implantationen neuer Schrittmacher, paravalvuläre Leckage, Gefäßkomplikationen und akutes Nierenversagen. Analysiert wurden außerdem prozedurale Faktoren, die Symptomatik anhand der NYHA-Klasse sowie einige Laborparameter vor und nach der TAVI.
Ergebnisse: In dieser Arbeit konnte gezeigt werden, dass die 1-Jahres-Mortalität mit der Portico-Prothese signifikant höher ist als mit der Symetis-Prothese (25,2% vs. 12,2%; p=0,011). Dabei gelten neben der Portico-Prothese eine reduzierte linksventrikuläre Funktion und die NYHA-Klassen III/IV gemäß multivariater Cox-Regressionsanalyse als unabhängige Risikofaktoren. Postinterventionell war in der Portico-Kohorte ein neuer Linksschenkelblock (34,5% vs. 23,2%; p=0,036), die Implantation neuer Schrittmacher (22,6% vs. 11,8%; p=0,011) sowie ein akutes Nierenversagen (25,5% vs. 12,8%; p=0,006) signifikant häufiger. Hinsichtlich prozedurbezogener Faktoren hat sich herausgestellt, dass mit der Symetis-Prothese häufiger nachdilatiert (41,5% vs. 25,3%; p=0,004), mit der Portico-Prothese hingegen häufiger vordilatiert (92,2% vs. 82,3%; p=0,012) wurde. Außerdem wurde in der Portico-Kohorte signifikant mehr Kontrastmittel eingesetzt und das Verfahren mit der Durchleuchtung dauerte signifikant länger. Echokardiographisch resultierte post TAVI mit der Symetis-Prothese eine signifikant andere bzw. günstigere Verteilung der Aortenklappeninsuffizienzgrade. Laborchemisch war der Wert für NT-proBNP als biochemischer Marker für eine Herzinsuffizienz signifikant höher als in der Symetis-Gruppe.
Schlussfolgerung: Diese Arbeit zeigte eine signifikant höhere Mortalität nach 1 Jahr mit der Portico-Prothese im direkten Vergleich mit der Symetis-Prothese. Außerdem ergab der Vergleich signifikant höhere Komplikationsraten in der Portico-Kohorte hinsichtlich Schrittmacherimplantationen, neuem Linksschenkelblock und akutem Nierenversagen. Weitere Studien sollten die beiden Prothesen im längerfristigen Verlauf vergleichend analysieren. Die Ergebnisse dieser Studie können zur Optimierung neuer Klappengenerationen beitragen, indem sie auf potenziell prognosebestimmende Aspekte des Designs und der Implantationstechnik aufmerksam machen. Außerdem sensibilisert die Studie für eine individuell für jeden Patienten angepasste Prothesenauswahl. Möglicherweise sollte bei Vorerkrankungen der Niere oder bei vorbekannten Herzleitungsstörungen die Symetis- gegenüber der Portico-Prothese vorgezogen werden.
Resistenzen gegenüber Carbapenemen sind eine Bedrohung für die globale Gesundheit mit wenigen verbleibenden Therapieoptionen. Ceftazidim/Avibavtam (CZA) ist die Kombination aus einem Cephalosporin und einem Diazabicyclooctan, mit der Eigenschaft eine Vielzahl von Carbapenemasen der Ambler Klasse A und D zu inhibieren. Resistenzen gegenüber Carbapenemen in gramnegativen Bakterien sind in Kolumbien und anderen Ländern Lateinamerikas weit verbreitet. In den hier vorgestellten Arbeiten wurden 2.235 Enterobakterien und 492 P. aeruginosa Isolate aus fünf Lateinamerikanischen Ländern auf ihre Empfindlichkeit gegenüber CZA und anderen klinisch verfügbaren Antibiotika untersucht. Die CZA-resistenten Isolate wurden mittels PCR und Genomsequenzierung auf die zugrundeliegenden Resistenzmechanismen hin analysiert. CZA zeigte Aktivitäten gegenüber 99,2% (2.217/2.235) aller untersuchten Enterobacterales und 77,8% (383/492) aller P. aeruginosa Isolate. Als plausible Erklärung für die Resistenz gegen CZA konnte mittels qPCR bei allen Enterobakterien und bei 38,5% (42/109) der P. aeruginosa Isolate ein Metallo-β-Laktamase (MBL)-kodierendes Gen nachgewiesen werden. Die verbleibenden P. aeruginosa Isolate wurden einer Genomsequenzierung unterzogen, dabei zeigten sich Mutationen in Genen, die zuvor mit einer verringerten Empfindlichkeit gegen CZA assoziiert wurden, wie z.B. Genen die mit der Überexpression von MexAB-OprM und AmpC (PDC) in Verbindung stehen, sowie Genen, die PoxB (blaOXA-50-like), FtsI (PBP3), DacB (PBP4) und OprD kodieren. Unsere Ergebnisse unterstreichen die Notwendigkeit von Therapieoptionen gegenüber MBL-produzierenden und anderen Carbapenem-resistenten Mikroorganismen. Des Weiteren sind diese Studien eine Momentaufnahme der Empfindlichkeit gegen CZA vor dessen Verfügbarkeit in Lateinamerika und dienen deswegen als Ausgangspunkt um die Entwicklung von Resistenzen in dieser Region zu verfolgen.
Hintergrund: Der Hypoparathyreoidismus (Hypopara) ist neben der Recurrensparese eine typische postoperative Komplikation nach Thyreoidektomie. Ziel dieser Arbeit soll die Prozessoptimierung des postoperativen Managements sein, um einen p.o. Hypopara frühzeitig zu erkennen und zu therapieren und somit die klinischen Symptome zu lindern oder zu vermeiden.
Methoden: Es wurden alle Patienten mit einer beidseitigen Schilddrüsenresektion eingeschlossen. Ausschlusskriterien waren simultane Nebenschilddrüsen- erkrankungen sowie fortgeschrittene Schilddrüsenmalignome mit geplantem Tumordebulking und/oder langem ITS-Aufenthalt. Postoperativ wurden Parathormon (EDTA) sowie Kalzium (Serum) bestimmt. Bei einem Parathormon (PTH) - Wert unter dem Referenzbereich (15,0-68,3 pg/ml) und/oder einer ausgeprägten Hypokalzämie mit einem Kalziumwert < 1,9 (Ref. 2,20-2,65 mmol/l) und/oder klinischen Zeichen wie Kribbelparästhesien oder Tetanie wurde Kalzium und Vitamin D mittels festem Schema verordnet. Die Symptombesserung wurde klinisch dokumentiert.
Ergebnisse: Am AGAPLESION Elisabethenstift gGmbH in Darmstadt wurden im Zeitraum zwischen Januar 2019 und Juni 2022 Schilddrüseneingriffe bei insgesamt 465 Patienten durchgeführt. Nach Berücksichtigung der Ein- und Ausschlusskriterien wurden 193 Patienten mit Thyreoidektomie in die Auswertung einbezogen. Ein p.o. Hypopara wurde bei 51 Patienten (26,4 %) festgestellt. Bei 40 Patienten (20,7 %) traten Symptome auf (39x Kribbelparästhesie, 1xTetanie). Von den 51 Patienten lag bei 26 (51 %) ein nur leicht erniedrigter Kalziumwert am 1. p.o. Tag vor (zwischen 2,00 und 2,20 mmol/l), bei 10 Patienten (19,6 %) war der Kalziumwert im Normbereich (2,20-2,65 mmol/l). Im Vergleich dazu lag bei 6 von 51 Patienten (11,8 %) ein normwertiger PTH-Wert vor. Bei 20 Patienten (10,4 %) erfolgte intraoperativ eine Nebenschilddrüsen-Replantation in den ipsilateralen M. sternocleidomastoideus. Davon trat bei 8 Patienten (40 %) ein Hypopara auf. Bei 29 Patienten (15 %) wurde in der Histologie ein akzidentiell mitentferntes Epithelkörperchen nachgewiesen. Davon trat bei 13 Patienten (44,8 %) ein Hypopara auf. Die mittlere Zeit nach OP zur PTH-Bestimmung lag bei 2,41 Tagen. Die mittlere Aufenthaltsdauer der Patienten mit Hypopara betrug 3,86 Tage (± 2,272), die der restlichen Patienten betrug 2,69 Tage (± 1,759), p < 0,001.
Schlussfolgerungen: Die PTH-Bestimmung ist neben der klinischen Visite essentiell zur Früherkennung eines p.o. Hypopara. Eine mehrtägige Kalziumbestimmung ist damit nicht zwingend erforderlich, sodass die Verweildauer verkürzt werden kann. Das verordnete Schema zur oralen Substitution von Kalzium und Vitamin D ist auch ambulant fortführbar. Die Replantation einer nicht erhaltbaren NSD hat bei 60 % einen Hypopara verhindert. Die gezielte Darstellung und Erhalt der NSD sollte bei jedem Eingriff eingehalten werden. Insgesamt zeigt diese Arbeit den höheren Stellenwert des postoperativen PTH-Wertes sowie der klinischen Zeichen als das Serumkalzium zur Erkennung und Therapie des Hypopara nach Thyreoidektomie.
Die kathetergestützte Thrombektomie ist, spätestens seitdem 2015 verschiedene Studien ihre Überlegenheit zur alleinigen medikamentösen Behandlung gezeigt haben, die bevorzugte Therapie bei Patienten mit akutem ischämi-schem Schlaganfall und embolischen Verschluss einer großen intrakraniellen Arterie. Obwohl die mechanische Thrombektomie mittlerweile zur Standardthe-rapie zählt, ist der Zusammenhang zwischen Lokalisation des Infarktareals und klinischem Behandlungsergebnis nach Thrombektomie bisher nicht gut untersucht. Die dieser Studie zugrunde liegende Hypothese war, dass Infarktdemar-kationen in der zentralen Corona radiata, Capsula interna und/oder den Ba-salganglien aufgrund einer potenziellen Schädigung der Fasern des Tractus corticospinalis mit einem schlechten Behandlungsergebnis (mRS 3 bis 6) nach mechanischer Thrombektomie assoziiert sind. Ziel dieser Studie war es somit, den Behandlungserfolg nach Thrombektomie bei Patienten mit entsprechender Infarktlokalisation zu untersuchen.
Hierfür wurden die Daten von 70 erwachsenen Patienten analysiert, die im Zeitraum von April 2016 bis Januar 2020 im Institut für Neuroradiologie des Universitätsklinikums Frankfurt aufgrund eines ischämischen Infarktes mit entsprechender Infarktdemarkation eine mechanische Thrombektomie erhalten haben. Alle erhobenen Daten stammen aus der elektronischen Krankenakte, dem Radiologie-Informations-System oder einem prospektiven Register zur internen Qualitätssicherung. Es erfolgte außerdem eine Unterteilung der Studi-enkohorte anhand des zusätzlichen kortikalen Infarktausmaßes bzw. der kortikalen Infarktlokalisation, um den Einfluss kortikaler Infarkte auf das Behandlungsergebnis beurteilen zu können. Die wichtigsten Endpunkte der Studie waren das klinische Behandlungsergebnis gemessen anhand der mRS nach 90 Tagen sowie die Ergebnisse der Subgruppenanalyse.
51,4 % der Studienpopulation erzielten nach 90 Tagen ein gutes klinische Be-handlungsergebnis (mRS 0 bis 2), 32,9 % der Patienten erreichten sogar ein exzellentes Ergebnis (mRS 0 bis 1). Insgesamt verstarben innerhalb von 90 Tagen nach dem Schlaganfallereignis 15,7 % aller Patienten und 32,9 % konn-ten nur ein schlechtes Behandlungsergebnis (mRS 3 bis 5) erzielen. Die Ergebnisse zeigen, dass die in der routinemäßig angefertigten Bildgebung nachgewiesenen Infarktdemarkationen im Verlauf der langen Bahnen nicht zwingend ein schlechtes Behandlungsergebnis bedingen. Bei Patienten mit ausge-dehnter Beteiligung des Kortex und Infarkten in definierten eloquenten Arealen waren die klinischen Behandlungsergebnisse allerdings schlechter als in der Vergleichsgruppe mit isolierten Läsionen der langen Bahnen.
Um künftig ein besseres Verständnis darüber zu erlangen, welche Patienten mit bestimmter Infarktlokalisation von einer mechanischen Thrombektomie langfristig profitieren können, sind weitere prospektive Studien mit exakt definierten Vergleichsgruppen und höherwertiger MRT-basierter Bildgebung erforderlich.
Im Rahmen der Versorgung von polytraumatisierten (schwerstverletzten) Patienten ist insbesondere die systemische Inflammation zu beachten. Durch das initiale Trauma (“first hit“) kommt es zu einer systemischen Dysregulation der inflammatorischen Kaskaden, wobei sowohl eine überschießende (SIRS/Sepsis) wie auch unterschießende Reaktion (CARS) zu schweren Komplikationen wie Multiorganversagen bis hin zum Tod führen kann. Die notfallmässige chirurgische Versorgung fügt durch multiple Faktoren wie Weichteilverletzung, Blutverlust und Intubation dem Patienten einen “second hit“ zu, welcher sich auf den “first hit“ aufsummieren und besagte Komplikationen induzieren kann. Aufgrund dessen wurden verschiedene Therapiekonzepte entwickelt wie beispielsweise die “Damage control surgery“, welche durch minimalinvasive Techniken die notfallmässig versorgungsbedürftigen Verletzungen temporär stabilisiert/versorgt, bis der Patient sich physiologisch stabilisiert und definitiv versorgt werden kann. Eine weitere Strategie stellt die „Safe Definitive Surgery“ dar, welche eine Synopsis bildet aus zu einen frühzeitiger definitiver Versorgung gepaart mit minimalinvasiven Techniken, um während der Operation multipler Frakturen intraoperativ anhand der Physiologie des Patienten regelmäßig zu reevaluieren und daran zu adjustieren.
Bei der definitiven Versorgung von langen Röhrenknochen im Schaftbereich werden klinisch standardmässig Marknägel verwendet. Hierbei eröffnet man den langen Röhrenkochen am proximalen Eintrittspunkt, bohrt den Knochen intramedullär mittels “Reamer“ auf und führt den Nagel ein, welchen man mittels Schrauben multidimensional in der Corticalis verriegelt. Hierbei stellt die intramedulläre Aufbohrung den kritischsten Schritt dar, da hierbei zum einen Knochenmark austritt und durch den Bohrer Thermonekrosen im Knochen auftreten können sowie auch Knochenpartikel austreten. Um diese Nachteile zu beheben, wurde der “Reamer-Irrigator-Aspirator“ (RIA) entwickelt, welcher nebst der klassischen Bohrfunktion noch eine Spül-Saugfunktion innehat und somit parallel intramedullär eine Kühlung herbeiführt, wie auch das Knochenmark nebst Knochenpartikeln absaugt. Hiervon gibt es eine ältere (RIA 1) und eine neuere (RIA 2) Version, wobei sich diese geringfügig in Grösse des Bohrkopfes und der Saugfunktion wie auch im Handling unterscheiden. Wenig ist jedoch zum aktuellen Zeitpunkt bekannt, welche Auswirkungen diese unterschiedlichen Versionen verglichen mit dem konventionellen “Reamer haben“. Um dies näher zu evaluieren, wurde ein standardisiertes Polytrauma-Modell an 30 Schweinen (Sus scrofa) durchgeführt. Unter konstanter Analgesie wurde nach Erreichen einer standardisierten Baseline an 24 der Tiere ein Polytrauma, bestehend aus unilateraler Femurfraktur, stumpfem Thoraxtrauma inklusive Leberlazeration und hämorrhagischem Schock ausgeübt. Sechs Tiere fungierten als Kontrollgruppe (sham), welche kein Trauma sowie Therapie erhielten, aber sonst gleich behandelt wurden. Die polytraumatisierten Tiere erhielten Therapie nach Schockraum- und ATLS Versorgung nach dem Trauma. Bestehend aus “Abdominal Packing“, Kreislaufstabilisierung und Versorgung der Femurfraktur mittels intramedullärer Nagelung. Die 24 polytraumtisierten Versuchstiere wurden bezüglich der Versorgung der Femurfraktur in drei Gruppen aufgeteilt: 1) Konventionelles Reaming, 2) RIA 1 und 3) RIA 2. An sechs Zeitpunkte (t1 (-1.5h) - t6 (6h)) über 7.5 Stunden erfolgten regelmäßige Blut- wie Urinentnahmen und eine bronchoalveoläre Lavage vor fachgerechtem Exitus am letzen Zeitpunkt. Anschließend wurde mittels ELISA in besagten Proben das Interleukin-6, Interleukin-8, Interleukin-10 und Tumornekrosefaktor-alpha bestimmt und statistische Unterschiede zwischen den Gruppen ermittelt.
Die Ergebnisse legen nahe, dass die Verwendung des Reamer-Irrigator-Aspirator Typ 2 aufgrund spezifischer Modifikationen verglichen mit seinem Vorgänger (RIA Typ 1) eine geringere inflammatorische Immunantwort aufweist. Verglichen mit dem konventionellen Reaming konnte in unserer Versuchsreihe in Hinblick auf entzündliche Mediatoren systemisch wie lokal kein Unterschied zu der Versorgung mittels RIA aufgezeigt werden. Jedoch präsentierte sich bei der Benutzung des konventionellen Reamers auch in unserer Versuchsreihe das Auftreten einer Fett/Lungenembolie, was bereits in der Literatur als eine gängige Komplikation dieses Instrumentariums beschrieben wird. Zusammenfassend ist der Reaming-Irrigator-Aspirator eine modernisierte Version des konventionellem Reamers, welcher multiple Vorteile aufweist, jedoch im Rahmen der Kostensenkung wahrscheinlich erst im weiteren zeitlichen Verlauf regelmäßige Anwendung in der Klinik finden wird.
Einleitung: Frailty (engl. für Gebrechlichkeit) bezeichnet eine mit hohem Alter zunehmende Verschlechterung des körperlichen und kognitiven Zustandes von Individuen, woraufhin der Körper nicht mehr in der Lage ist, adäquat auf äußere und innere Stressoren zu reagieren. Frailty ist mit einer erhöhten Morbiditäts- und Mortalitätsrate sowie längerer Krankenhausverweildauer und erhöhter postoperativer Komplikationsrate verbunden und stellt folglich einen chirurgischen Risikofaktor dar.
Problemstellung: Die Relevanz eines strukturierten Frailty Assessments in der präoperativen Risikostratifizierung führte zur Indikationsstellung, diverse validierte Risk Assessment Tools auf ihre prädiktive Vorhersagekraft bezüglich des Auftretens von postoperativen Komplikationen und postoperativer Sterbewahrscheinlichkeit zu untersuchen.
Methoden: In die vorliegende Studie wurden Patienten, die in dem Zeitraum vom 01.09.2018 und 31.01.2019 in der allgemeinchirurgischen Ambulanz vorstellig waren und einen allgemeinchirurgischen Eingriff erhielten, aufgenommen. Mittels Fragebögen wurden die Scores „Risk Analysis Index“, „Edmonton Frail Scale“ sowie „Charlson Comorbidity Index“ präoperativ erhoben und retrospektiv mit Daten aus der digitalen Patientenakte zusammengeführt. Endpunkte waren die 90-Tages- Mortalität sowie das Auftreten von schweren postoperativen Komplikationen ab Clavien Dindo Grad 3b. Die Analyse erfolgte in SPSS mittels Chi-Quadrat Test, t- Test und ROC-Kurven Analysen.
Ergebnisse: Das durchschnittliche Alter der Studienkohorte lag bei 56 ± 15.9 Jahren und der Anteil männlicher Patienten überwog mit 59.2% (n=282).
Die Fragebögen wurden 739 Patienten vorlegt und 476 Patienten konnten in die Datenanalyse eingeschlossen werden. Die 90-Tages-Mortalität lag bei 2.7% (n=13) und 9% (n=43) erlitten schwere postoperative Komplikationen ab Clavien-Dindo Grad IIIb. Die Einteilung nach der ASA-Klassifikation (p=0.024), maligne Diagnosen -7-(p<0.001) und Majorkomplikationen (p<0.001) stellten präoperative Risikofaktoren für postoperative 90-Tage-Mortalität dar. Von den Risk Assessment Scores zeigte lediglich der Risk Analysis Index eine signifikante Korrelation auf (p=0.013). Ein mittels ROC-Analyse ermittelter Cut-Off Wert von 23 klassifizierte 166 (34.9%) Patienten als frail, die mit 69% Sensitivität und 66% Spezifität (AUC=0.735) ein erhöhtes Risiko für postoperatives Versterben innerhalb von 90 Tagen aufwiesen (p=0.008). Risikofaktoren für das Auftreten schwerer postoperativer Komplikationen waren die ASA-Klassifikation (p=0.041), längere Krankenhausverweildauer (p<0.001) und maligne Diagnosen (p<0.001). Der Charlson Comorbidity Index (p=0.031) und RAI-C Werte ≥ 23 (p<0.001) korrelierten signifikant mit Majorkomplikationen. Das Alter ab 65 Jahren stellte mit 77 % Spezifität und 69 % Sensitivität ebenfalls einen prädiktiven Risikofaktor für postoperative Mortalität dar (AUC=0,787).
Schlussfolgerung: Mithilfe validierter Risk Assessment Tools ist es möglich Patienten, die ein erhöhtes Risiko für postoperative negative Ereignisse aufweisen, bereits präoperativ zu erkennen. Dies ermöglicht eine bessere Beurteilung der chirurgischen Indikationsstellung sowie das rechtzeitige Ergreifen von risikominimierenden Maßnahmen. Es ist notwendig die Ergebnisse dieser Arbeit künftig mit risikominimierenden Maßnahmen zu verknüpfen und zu untersuchen, ob die Implementierung der Risk Assessment Tools zu verbesserten postoperativen Ergebnissen führt, wenn modifizierbare Faktoren verbessert werden.
In den letzten Jahren haben sich die Therapiemöglichkeiten des Mammakarzinoms deutlich verbessert. Durch die Analyse von genetischen Veränderungen in den Tumorzellen oder in der Keimbahn ist eine zielgerichtete Tumortherapie bei einigen Subgruppen möglich; z.B. mit PARP- und PIK3CA-Inhibitoren.
In einer retrospektiven Analyse wurde in dieser Arbeit untersucht, wie genetische Mutationsanalysen in einer onkologischen Schwerpunktpraxis eingesetzt werden. Es sollte untersucht werden, wie häufig PatientInnen in einer onkologischen Praxis mit metastasiertem Mammakarzinom eine Mutationsanalyse brustkrebsassoziierter Gene erhalten haben, und welche Konsequenzen daraus gezogen wurden. Dabei wurde der Zeitraum von 2019 – 2022 betrachtet. Mithilfe der Software Albis wurden Daten von 49 PatientInnen identifiziert. 40 PatientInnen haben eine Keimbahndiagnostik der Gene BRCA1/2 erhalten. Von den PatientInnen, die die BRCA1/2-Analyse bekommen haben, konnten in 20% der PatientInnen eine Mutation in BRCA1 oder 2 detektiert werden. Bei den meisten dieser PatientInnen wurde der PARP Inhibitor Olaparib therapeutisch eingesetzt. 10 PatientInnen erhielten eine PIK3CA-Analyse, 9 von ihnen mittels PCR und eine mittels NGS. In dieser Gruppe wurde bei einer Patientin eine Mutation im PIK3CA-Gen ermittelt. 15 PatientInnen haben eine Multigenpanel-Diagnostik erhalten. Dabei ist eine Reihe weiterer genetischer Veränderungen nachgewiesen worden. Für einige dieser Veränderungen stehen therapeutische Möglichkeiten zur Verfügung, die zwar nicht für das Mammakarzinom, aber für andere Tumorentitäten bereits zugelassen sind.
Das periinterventionelle Management von antikoagulierten Patienten stellt eine große Herausforderung im klinischen Alltag dar. Die genaue Abwägung von Blutungs- und Thromboembolierisiko ist essentieller Bestandteil der Frage, ob und wann die blutgerinnungshemmende Medikation pausiert werden soll. Ist das Zeitintervall zur geplanten Intervention zu kurz gewählt und daher die antikoagulierende Wirkung der Arzneimittel noch ausgeprägt, kann es leichter zu intra- und postoperativen Blutungen kommen. Umgekehrt kann es bei einer zu langen Unterbrechung der Antikoagulation zur Entwicklung von Thromboembolien kommen. Um diese Risiken zu minimieren und die Patientensicherheit zu verbessern ist ein leitliniengerechtes Handeln von großer Bedeutung. Durch den Einfluss des demographischen Wandels und die steigende Inzidenz der Erkrankungen, die eine Antikoagulation notwendig machen, erhöht sich ebenso die Anzahl der antikoagulierten Patienten, die sich einer elektiven Operation unterziehen müssen, wodurch das Thema schon seit Jahren an Bedeutung gewinnt. Trotz diverser Leitlinien, die in den letzten Jahren publiziert wurden, findet man im klinischen Alltag oftmals nicht auf Anhieb die passende Empfehlung, da diese von dem Einfluss etlicher Risikofaktoren, wie Alter, Geschlecht, Nierenfunktion u.a. bestimmt werden sollte. Der Einsatz eines Clinic Decision Support Systems (CDSS) kann ein leitliniengerechtes Handeln möglicherweise verbessern, indem patientenspezifische Risikokonstellationen anhand europäischer Leitlinien geprüft werden und dem Nutzer eine optimale Vorgehensweise unterbreitet wird.
Zielsetzung: In dieser Arbeit, soll die Eignung eines klinischen Entscheidungs-Unterstützungssystems (CDSS) anhand eines Multiple Choice (MC) Tests mit 11 kliniknahen Fallbeispielen, bezüglich evidenzbasierten perioperativen Managements von antikoagulierten Patienten untersucht werden.
Methoden: Im Rahmen einer klinischen prospektiven randomisierten multizentrischen Simulationsstudie beantworteten Ärztinnen und Ärzte einen Multiple Choice Test bestehend aus 11 Fallbeispielen zum Thema periinterventionelles Management von antikoagulierten Patienten. Dabei sollte zu - 5 - jedem Beispiel zwei möglichst leitliniengerechte Empfehlung ausgewählt werden.
Die Ärztinnen und Ärzte wurden vorab in zwei Gruppen randomisiert. Der PERI-KOAG Gruppe wurde das CDSS zur Beantwortung der Fragen zur Verfügung gestellt. Die Kontroll-Gruppe hatte hingegen keinen Zugriff auf die Applikation und sollte den Test mit frei zugänglichen Hilfsmitteln, zum Beispiel Leitlinien oder anderen allgemein verfügbaren Apps beantworten. Die beiden Gruppen wurden anschließend in Bezug auf die Gesamtergebnisse, die Bearbeitungszeit und Berufserfahrung verglichen.
Ergebnisse: Insgesamt wurden 168 Teilnehmer in die beiden Gruppen randomisiert, wovon 76 Teilnehmer, 42 Teilnehmer der PERI-KOAG Gruppe und 34 Teilnehmer der Kontroll-Gruppe den MC-Test vollständig beendeten und in die weitere Auswertung eingeschlossen wurden. Der MC-Test konnte mit maximal 22 Punkten (=100%) abgeschlossen werden. Die PERI-KOAG Gruppe erreichte dabei im Durchschnitt signifikant bessere Ergebnisse als die Kontroll-Gruppe (82 ±15% vs. 70 ±10%; 18 ±3 vs. 15 ±2 Punkte; P =0,0003). Unter Berücksichtigung der Bearbeitungszeit erzielten Teilnehmer mit längerer Bearbeitung durchschnittlich höhere Ergebnisse, als Kollegen welche den Test schneller abschlossen. Dieser Effekt zeigte sich in beiden Gruppen. Ein signifikanter Unterschied konnte hierbei nur in der PERI-KOAG Gruppe gezeigt werden (PERI-KOAG Gruppe ≥33 min. 89 ±10% (20 ±2 Punkte) vs. <33 min. 73 ±15% (16 ±3 Punkte), P =0,0005). Innerhalb der PERI-KOAG Gruppe zeigten sich tendenziell höhere Ergebnisse innerhalb der erfahreneren Gruppe (>5 Jahre Berufserfahrung), aber keinen signifikanten Unterschied zu weniger (≤5 Jahre Berufserfahrung) erfahrenen Kollegen (87 ±10% (19 ±2 Punkte) vs. 78 ±17% (17 ±4 Punkte), P =0,08). Dagegen konnte in der Kontroll-Gruppe kein Unterschied zwischen den Testresultaten von mehr und weniger erfahrenen Teilnehmern gezeigt werden (>5 Jahre: 71 ±8% (16 ±2 Punkte) vs. ≤5 Jahre: 70 ±13% (15 ±3 Punkte) P =0,66).
Diskussion: Diese Arbeit zeigt, dass im Rahmen eines MC-Tests mit Hilfe des CDSS ein leitliniengerechtes perioperatives Management von antikoagulierten Patienten signifikant verbessert werden kann. Eine fachgerechte Anwendung des Tools ist essentiell, um schwerwiegende Folgen, wie Blutungen oder Thromboembolien zu vermeiden. Eine längere Bearbeitungszeit und mutmaßlich intensivere Nutzung des CDSS, geht mit besseren Ergebnissen einher als eine schnelle Testbearbeitung. Ein insgesamt verbessertes leitliniengerechtes Management zeigt, unabhängig von der Berufserfahrung der Teilnehmer, das große Potential des CDSS.
Hintergrund: Amblyopie ist nach Fehlsichtigkeit die häufigste Sehstörung bei Kindern. Sie ist eine wesentliche Ursache für eine lebenslange Minderung der bestkorrigierten Sehschärfe und ist meist unilateral. Eine Asymmetrie in der Qualität des visuellen Eindrucks während der sensiblen Phase führt in der Regel zu einer unzureichenden Entwicklung des binokularen Sehsystems. Die Standardtherapie der Amblyopie besteht aus optimaler optischer Korrektur vorhandener Brechungsfehler und der direkten Okklusion, wobei das funktionsbessere Auge zeitweise mit einem Augenpflaster abgedeckt wird. Bisherige Studien haben gezeigt, dass besonders bei Patienten mit tiefer Amblyopie, die Therapietreue oft mäßig ist. In einigen Fällen kann das amblyope Auge nicht mit der Foveola fixieren. Diese exzentrische Fixation beeinflusst den Therapieerfolg negativ. Unser Ziel war, bei dieser speziellen Patientengruppe die Okklusionsdauer objektiv zu registrieren und deren Auswirkung auf die Visusentwicklung und die Fixationsänderung in Abhängigkeit vom Alter über einen langen Zeitraum zu untersuchen.
Methoden: In unserer prospektiven multizentrischen Pilotstudie untersuchten wir amblyope Kinder mit exzentrischer Fixation im Alter von 3-16 Jahren während 12-monatiger Okklusionsbehandlung. Der Nahvisus wurde mittels Landoltringen und Lea-Symbolen (jeweils Reihenoptotypen) bestimmt. Die Okklusionsdauer wurde kontinuierlich mit einem TheraMon®-Mikrosensor aufgezeichnet, der am Augenpflaster angebracht wurde. Der Fixationsort am Augenhintergrund wurde mit einem direkten Ophthalmoskop bestimmt. Unsere Ziele waren: Evaluierung der Sehfunktion, Therapieadhärenz und Beurteilung des Fixationsortes des amblyopen Auges. Der Anteil des korrigierten Visusdefizits, die Dosis-Wirkungs-Beziehung und die Therapieeffizienz wurden berechnet.
Ergebnisse: In unserer Studie wurden 12 Patienten mit Schiel- und kombinierter Schiel- und Anisometropieamblyopie im Alter von 2,9-12,4 Jahren (im Mittel 6,5 ± 3,4 Jahre) untersucht. Der Anfangsvisus der amblyopen Augen nach 3 Monaten refraktiver Adaptationsphase lag im Mittel bei 1,4 ± 0,4 logMAR (Spannweite 0,9-2,0), und der 5 Führungsaugen bei 0,3 ± 0,3 logMAR (Spannweite -0,1-0,8). Die mittlere interokuläre Visusdifferenz (IOVAD, Visusunterschied zwischen dem amblyopen Auge und dem Führungsauge) zu Beginn betrug im Mittel 1,1 ± 0,4 log Einheiten (Spannweite 0,5-1,8). Die verschriebene Okklusionsdauer lag im Median bei 7,7 Stunden/Tag (Spannweite 6,6-9,9), die tatsächlich erreichte bei 5,2 Stunden/Tag (Spannweite 0,7-9,7). Nach 12 Monaten betrug die mediane Visusbesserung der amblyopen Augen 0,6 log Einheiten (Spannweite 0-1,6), die mediane IOVAD 0,3 log Einheiten (Spannweite 0-1,8). Multiple Regressionsanalyse mit Rückwärtselimination zeigte, dass sowohl das Alter (p=0,0002) als auch die Okklusionsdosis (p=0,046) signifikante Einflussfaktoren für den Visusanstieg waren. Kinder unter 4 Jahren zeigten das beste Ansprechen mit der niedrigsten Rest-IOVAD (Median 0,1 log Einheiten, Spannweite 0-0,3). Die Effizienzberechnung ergab eine Visusbesserung von etwa einer log Visusstufe pro 100 Stunden Okklusion in den ersten zwei Monaten und einer halben log Visusstufe nach 6 Monaten. Die Therapieeffizienz nahm mit zunehmendem Alter ab (p = 0,01). Trotz einer gewissen Visusbesserung auch bei Patienten im Alter von ≥8 Jahren (Median 0,4 log Einheiten), zeigten diese eine geringere Therapieadhärenz sowie -effizienz (mediane Rest-IOVAD 0,8 log Einheiten). Zentrale Fixation wurde von 9 Patienten nach im Median 3 Monaten erreicht (Spannweite 1-4 Monate). Drei Patienten (>6 Jahre) erreichten keine zentrale Fixation.
Schlussfolgerung: Amblyopie mit exzentrischer Fixation stellt auch bei guter Adhärenz eine Herausforderung für den Therapieerfolg dar. Unsere Studie zeigte erstmals prospektive quantitative Daten basierend auf elektronischer Erfassung der Okklusion bei dieser seltenen Patientengruppe. Es konnte die deutliche Abnahme der Therapieeffizienz mit zunehmendem Alter gezeigt werden. Die Visusbesserung wurde viel stärker vom Alter als von der Okklusionsdosis beeinflusst. Nur Kinder, die zum Okklusionsbeginn jünger als 4 Jahre waren, konnten im Studienzeitraum in ihren amblyopen Augen eine für ihr Alter annähernd normale Sehschärfe und eine IOVAD <0,2 log Einheiten erreichen. Demzufolge sind, trotz möglicher geringer Visusbesserung auch bei älteren Patienten, eine frühzeitige Diagnose und Therapie dieser Patientengruppe unerlässlich für den Therapieerfolg.
Förderung: bereitgestellt durch den Forschungspreis des Vereins „Augenstern e.V.“
In Deutschland existieren nur wenige Ergebnisse aus der klinischen Forschung, die im Kontext der allgemeinmedizinischen Versorgung gewonnen wurden. Dies ist u.a. damit zu begründen, dass Forschung in der Allgemeinmedizin in den Praxisalltag eingebunden sein muss, worauf die gegenwärtige Versorgungsstruktur nicht ausgelegt ist. Damit für Hausärztinnen und Hausärzte Forschung im Praxisalltag möglich ist, müssen also Strukturen geschaffen werden, die Forschung ermöglichen. Eine solche Struktur bieten Forschungspraxennetze (FPN) wie beispielsweise das Forschungspraxennetz „ForN“. ForN wurde vom Institut für Allgemeinmedizin der Goethe-Universität Frankfurt am Main im Jahr 2011 initiiert. In ForN tätige Forschungspraxen können sich mit einer Gültigkeit von fünf Jahren als „akademische Forschungspraxis“ akkreditieren lassen, wenn sie bestimmte Anforderungen erfüllen. Dazu gehört die Teilnahme an für Forschungsprojekte qualifizierenden Fortbildungen oder an Netz-begleitenden Treffen für Ärztinnen, Ärzte und Medizinische Fachangestellte (MFA) sowie die regelmäßige Teilnahme an Forschungsprojekten. Eine Verlängerung der Akkreditierung nach fünf Jahren ist möglich. Bisherige Publikationen über Forschung zu FPN bieten insbesondere Einblicke in Faktoren, welche den Beitritt in ein FPN fördern oder eher behindern. Forschung, die Faktoren der längerfristigen Mitwirkung der Praxen an FPN (wie Austrittsgründe, aber auch Motivation, eine Re-Akkreditierung anzustreben) untersucht, ist im Gegensatz dazu rar.
Diese Dissertation untersucht diese Faktoren anhand der folgenden Fragen: warum traten Forschungspraxen im Laufe der Zeit aus dem FPN ForN aus (ehemalige Mitglieder) und warum strebten andere eine Re-Akkreditierung an (aktive Mitglieder)? Weitere Unterfragen dieser Arbeit sind: welche Faktoren motivierten oder erschwerten hausärztlichen Teams eine Mitwirkung als Forschungspraxis? Wie wurde die bisherige Zusammenarbeit gesehen und als wie gut machbar wurden die Anforderungen zur Erlangung der Bezeichnung „akademische Forschungspraxis“ eingeschätzt?
Es wurde ein Fragebogen für ehemalige ärztliche ForN-Mitglieder entworfen und eingesetzt. Des Weiteren wurden Daten aus Fragebogenerhebungen von aktiven ForN-Mitgliedern (Hausärztinnen, Hausärzte, MFA) aufbereitetet. Die Daten wurden mithilfe der Datenanalysesoftware SPSS deskriptiv unter Angabe der Häufigkeiten, Mittelwerte, Standardabweichungen und Spannweiten ausgewertet.
Es konnten 14 Fragebögen von ehemaligen ärztlichen ForN-Mitgliedern aus 13 Praxen analysiert werden. Von den aktiven ForN-Mitgliedern wurden Fragebögen von 48 Ärztinnen und Ärzten sowie 57 MFA aus 41 Praxen ausgewertet. Als Gründe für den Austritt wurde von ehemaligen Mitgliedern insbesondere Zeitmangel und eine hohe Arbeitsbelastung angegeben. Weitere erschwerende Umstände waren ein Mangel an MFA, eine große Entfernung zum Standort des Instituts für Allgemeinmedizin und persönliche Gründe. Bis auf letztere Angabe waren dies auch die größten Hürden während der Teilnahme, die von aktiven Mitgliedern beschrieben wurden. Einen Beitrag für die Allgemeinmedizin zu leisten, persönliche Kompetenzen und Kompetenzen des Praxisteams zu erweitern sowie Abwechslung im Praxisalltag zu erleben, waren die wichtigsten motivierenden Faktoren einer Teilnahme im Forschungspraxennetz ForN, sowohl für aktive als auch für ehemalige Mitglieder. Die Anforderungen des FPN ForN an die Akkreditierung als Forschungspraxis wurden aus Perspektive der aktiven Mitglieder überwiegend als machbar empfunden. Nur die Umsetzung zusätzlicher, nicht verpflichtender Aktivitäten wurde als schwieriger erfüllbar bewertet. Bezüglich der Zusammenarbeit mit dem Institut für Allgemeinmedizin gaben ehemalige ärztliche ForN-Mitglieder an, eine gute Vorbereitung auf Forschungsaufgaben erfahren zu haben, dem ForN-Team des Instituts für Allgemeinmedizin vertrauen zu können und dass die Kommunikation allgemein gut war.
Gründe für den Austritt aus dem FPN und Hindernisse während der Teilnahme in ForN waren überwiegend externe Faktoren wie Zeitmangel, eine hohe Arbeitsbelastung oder ein Mangel an MFA. Auf diese Faktoren hat das Institut für Allgemeinmedizin keinen direkten Einfluss, es kann lediglich die administrativen Aufgaben innerhalb eines Forschungsprojektes für das Team einer Forschungspraxis so vorstrukturieren, dass sie möglichst gut im Praxisalltag bewältigt werden können. Ein Vergleich mit Publikationen, die sich mit förderlichen und hinderlichen Faktoren eines Beitritts in ein FPN auseinandersetzen, zeigt, dass ähnliche Gründe auch die längerfristige Mitwirkung beeinflussen.
Molecular oxygen (O2) is essential for numerous metabolic processes. Not surprisingly, hypoxia and the resulting adaptations play a pivotal role in pathophysiology, e.g., in cancer or in inflammatory diseases. Of note, myeloid cells are known to accumulate in hypoxic regions such as tumor cores or rheumatoid arthritis joints and may contribute to disease progression. While most studies so far concentrated on transcriptional adaptation by the hypoxia-inducible factors (HIF) 1 and 2 under short term hypoxia, prolonged oxygen deprivation and alternative post-transcriptional regulation are rather poorly investigated.
Consequently, the aim of the study was to generate a comprehensive overview of mRNA de novo synthesis and degradation and its contribution to total mRNA changes in monocytic cells in the course of hypoxia.
To this end, I used thiol-linked alkylation for the metabolic sequencing of RNA (SLAM-Seq) to characterize RNA dynamics under hypoxia. Specifically, I labeled monocytic THP-1 cells under normoxia (N), acute hypoxia (AH; 8 h 1% O2), or chronic hypoxia (CH; 72 h 1% O2) with 4-thiouridine (4sU), which allows for transcriptome-wide identification of de novo synthesized mRNAs and estimation of their half-lives. Total mRNA expression analyses revealed that most changes occurred under CH. Considering that HIF accumulation and resulting transcriptional regulation was shown to decline again under CH, I further analyzed the impact of RNA stability on gene expression. I observed a global reduction in RNA half-lives under hypoxia, indicative for the attenuation of energy-consuming protein synthesis upon oxygen deprivation. Moreover, I observed a subgroup of hypoxic destabilized transcripts with resulting decreased mRNA expression under CH, which consisted of 59 nuclear-encoded mitochondrial mRNAs. This might prevent futile production of new mitochondria under conditions, where mitochondria are even actively degraded to prevent production of detrimental reactive oxygen species.
While stability-regulated transcripts were mainly destabilized under hypoxia, the vast majority of differentially de novo synthesized transcripts were upregulated.
Functional analyses revealed not only hypoxia, but also cholesterol homeostasis and inflammatory response as top enriched terms, corroborating findings on total mRNA level. Focusing on hypoxia-altered cholesterol metabolism, I observed an 9 accumulation of early and a decrease in late cholesterol precursors, which are separated by several oxygen-dependent enzymatic steps. Although total cholesterol levels were only slightly reduced, my data indicate locally lowered endoplasmic reticulum (ER) cholesterol levels under hypoxia, which cause feedback activation of the ER cholesterol-sensing transcription factor sterol regulatory element-binding protein 2 (SREBP2) and induction of cholesterol biosynthesis enzymes. Interestingly, a broad range of interferon-stimulated genes (ISGs), mainly known for their antiviral function, was also induced under hypoxia with similar kinetics as SREBP2 targets, suggesting an immunometabolic crosstalk. While the availability of certain cholesterol biosynthesis intermediates as well as a direct involvement of SREBP2 seemed rather unlikely to cause hypoxic ISG induction, changes in intracellular cholesterol distribution appeared crucial for the hypoxic induction of chemokine-ISGs. Mechanistically, I found that MyD88-dependent toll-like receptor 4 (TLR4) signaling contributes to enhanced hypoxic ISG induction, likely sensitized by changes in cholesterol dynamics. Importantly, hypoxia amplified induction of chemokine-ISGs in monocytes upon treatment with severe acute respiratory syndrome coronavirus type 2 (SARS-CoV-2) spike protein via TLR4 similarly as after addition of infectious virus, which might contribute to systemic inflammation in hypoxemic patients with severe coronavirus disease-2019 (COVID-19).
Taken together, I comprehensively analyzed RNA dynamics in hypoxic monocytes. Specifically, I identified RNA stability as a modulating mechanism to limit production of mitochondria under oxygen-restricted conditions. Moreover, I characterized the immunometabolic crosstalk between disturbed cholesterol homeostasis and spontaneous induction of interferon (IFN)-signaling in hypoxic monocytes, which might contribute to systemic inflammation in severe cases of COVID-19.
Aim: The cytochrome P450 reductase (POR) along with the cytochrome P450 enzymes (CYP) are responsible for the metabolism of a multitude of metabolites important for the maintenance of tissue function. Defects in this system have been associated with cardiovascular diseases. These enzymes are known to produce vasoactive lipids that modulate vascular tone. The aim of this study was to identify the consequence of a loss in endothelial POR for vascular function.
Methods and Results: To identify the endothelial contribution of the POR/CYP450 system to vascular function, we generated an endothelial-specific, tamoxifen-inducible POR knockout mouse (ecPOR-/-). Under basal condition ecPOR-/- already exhibited endothelial dysfunction in aorta and mesenteric vessels (acetylcholine-dependent relaxation, LogEC50 -7.6M for CTR vs. -7.2M for ecPOR-/- in aorta) and lower nitric oxide levels in the plasma (CTR: 236.8 ±77.4; ecPOR-/- 182.8 ±34.1 nmol/L). This dysfunction was coupled to attenuated eNOS function detected by the heavy arginine assay and decreased eNOS phosphorylation on S1177. Furthermore, insulin-induced phosphorylation of the eNOS activator, AKT, was also attenuated in the aorta from ecPOR-/- mice as compared to control mice. CYP450-dependent EET production was lower in plasma, lung and aorta of ecPOR-/- mice and this was accompanied with increased levels of vasoconstriction prostanoids (lipidomics of aorta, plasma and lung freshly isolated from CTR and ecPOR-/- mice). MACE-RNAseq from these aortas also showed a significant increase in genes annotated to eicosanoid production. In an in vivo angiotensin II model, acute deletion of POR increased the blood pressure as measured by telemetry and tail cuff (137.4 ± 15.9 mmHg in WT; 152.1 ± 7.154 mmHg in ecPOR-/-). In a rescue experiment using the NSAID naproxen, the increase in blood pressure induced by deletion of endothelial POR was abolished.
Conclusion: Collectively, in endothelial cells POR regulates eNOS activity and orchestrates the metabolic fate of arachidonic acid towards the vessel dilating EETs and away from deleterious prostanoids. In the absence of POR this endothelial regulation is compromised leading to vascular dysfunction.
Zielsetzung der vorliegenden Dissertation war die Validierung einer deutschsprachigen Version, der bereits für andere Sprachen validierten Repetitiven Verhaltensskala – Revidiert (RBS-R) für Kinder- und Jugendliche im Alter zwischen 4-17 Jahren. Die RBS-R ist ein aus 43 Items bestehendes, gut untersuchtes Screeninginstrument, welches restriktives, repetitives Verhalten (RRV) erfasst. RRV stellen einen heterogenen Symptomkomplex dar, welcher durch stereotype motorische, sprachliche und kognitive Verhaltensmuster gekennzeichnet ist.
RRV sind neben Abweichungen sozialer Interaktion und Kommunikation eines der Hauptkriterien für eine Autismus-Spektrum-Störung (ASS). RRV sind jedoch nicht nur Teil des Symptomspektrums einer ASS, sondern treten häufig auch bei anderen psychiatrischen Erkrankungen (PE), einer Intelligenzminderung (IM) oder bei altersentsprechend entwickelten Kindern (AE), beispielsweise in bestimmten Phasen des Heranwachsens auf. Bisher wurde die RBS-R fast ausschließlich an ASS untersucht. Es besteht die Notwendigkeit für ein valides und zuverlässiges Messinstrument für den deutschen Sprachraum, welches RRV hinsichtlich ihrer Heterogenität transdiagnostisch erfassen und den Schweregrad der Ausprägung ermitteln kann. Das Ziel dieser Arbeit war, dies durch eine möglichst große und heterogene Stichprobe (n= 948) mit Inklusion von Probanden mit einer ASS (n= 218), IM (n= 120), PE (n= 166) und AE (n = 444) zu gewährleisten. Zur Überprüfung der psychometrischen Eignung erfolgte nach der Adaptation der RBS-R für den deutschen Sprachraum eine Evaluation gemäß den Prinzipien der klassischen Testtheorie, insbesondere hinsichtlich Validität und Reliabilität. Darüber hinaus erfolgte unter Einbeziehung der vier Stichproben eine explorative Faktoranalyse (EFA) um eine geeignete Faktorlösung zu finden. Diese sollte sowohl den Anspruch Klinisch-Tätiger als auch Forschender erfüllen und eine Anwendung der RBS-R auch außerhalb von ASS ermöglichen. Zudem sollten RRV in den unterschiedlichen Kohorten, sowie in Bezug auf Alters- und Geschlechtseffekte bei ASS untersucht werden.
Die Bedeutung der Ergebnisse dieser Arbeit ist, ob der schon breit erforschten Eigenschaften der RBS-R, vor allem im Kontext mit den vorliegenden Studien zu betrachten. Einzigartig für diese deutschsprachige Validierung der RBS-R ist die Diversität und große Anzahl der teilnehmenden Probanden.
Die vorliegende Validierung der RBS-R erbrachte gute Ergebnisse für die Reliabilität und konvergente Validität der Skalen, vergleichbar mit den Ergebnissen vorheriger Studien. Die untersuchte Itemschwierigkeit war relativ gering, was durch die geringe Antwortvarianz in der großen Kohorte der AE erklärbar ist. Die Itemgesamtkorrelation zeigte gute Werte. Auch Items mit niedrigen Ergebnissen für die Itemzustimmung wurden nicht exkludiert. Dies geschah konkordant zum Vorgehen vorheriger Studien und hatte den Hintergrund, eine internationale Vergleichbarkeit des RBS-R beizubehalten. Die EFA bestätigte die gute Anwendbarkeit einer Vielzahl von Faktorlösungen. Wir legten eine 4-Faktorlösung für die deutschsprachige Version der RBS-R fest. Grundlage hierfür war das Bestreben die ursprünglichen Subskalen für eine internationale Vergleichbarkeit so getreu wie möglich beizubehalten. Die 4 Faktoren bildeten treffend RRV niedriger und hoher Ordnung ab. Gegen eine 5- oder 6-Faktorlösung sprach hierbei, dass dies zu Subskalen mit wenig Items und schwachen psychometrischen Eigenschaften führte (Lam et al, kritisiert durch Georgiades et al). Gegen eine 2- oder 3-Faktorlösung sprach die eingeschränkte klinische Interpretierbarkeit durch Subskalen mit vielen kumulierten Items. Hinsichtlich der Kohortenzugehörigkeit kann der RBS-R übereinstimmend mit Fulceri et al valide zwischen RRV in ASS und AE unterscheiden. Eine valide Unterscheidung zwischen ASS, PE und IM konnten wir nicht verifizieren. Betreffend der untersuchten Alterseffekts bestätigte sich, dass RRV bei ASS mit dem Alter abnehmen. Im Gegensatz zu einigen vorherigen Studien, welche keinen Geschlechtsunterschied bezüglich RRV bei ASS fanden, zeigten die männlichen Probanden der ASS Kohorte bei uns häufiger und ausgeprägter RRV.
Untersuchung der Expression von Wachstumsfaktoren in reseziertem Hirngewebe von Epilepsiepatienten
(2023)
Hintergrund: Die Epilepsie gehört zu den häufigsten chronischen neurologischen Erkrankungen beim Menschen. Bei Patienten mit mesialer TLE und Hippocampussklerose besteht die höchste Wahrscheinlichkeit, eine medikamentöse Therapierefraktärität zu entwickeln. Die Ursache der Hippocampussklerose sowie die ursächlichen Mechanismen sind nicht bekannt. Allerdings kann eine initiale Schädigung, wie etwa komplizierte Fieberkrämpfe im Kindesalter, Schädel-Hirn-Traumata, Schlaganfälle, entzündliche Prozesse oder Ähnliches, für die Entwicklung einer Hippocampussklerose prädisponieren. Diese kann anschließend nach einer klinisch stummen Latenzperiode zur Entwicklung spontaner epileptischer Anfälle und der Diagnose einer Epilepsie führen. Im Rahmen der Epileptogenese, also der Entstehung und Progression der Epilepsie kommt es zu Wachstumsprozessen, weshalb eine Beteiligung von neurotrophen Wachstumsfaktoren naheliegend war. Das Ziel dieser Arbeit war die vergleichende Untersuchung resezierter Hippocampi auf Wachstumsfaktoren, um semiquantitative Daten zu deren Verteilung bei Epilepsiepatienten zu erhalten. Des Weiteren war die Korrelation mit den klinischen Daten der Patienten von besonderem Interesse, da so Hinweise auf mögliche Zusammenhänge zwischen dem klinischen Erscheinungsbild und der Expression der Wachstumsfaktoren gewonnen werden konnten.
Methoden: Bei dem in der vorliegenden Arbeit untersuchten Gewebe handelt es sich um Hippocampi von 21 Patienten mit TLE, die epilepsiechirurgisch therapiert wurden. Die Schnitte der paraffinierten Hippocampi wurden mittels Immunhistochemie auf die Wachstumsfaktoren BDNF, FGF2, GDNF, GMFB und PDGF-B untersucht. Im Anschluss wurden die Schnitte gescannt und die Zellen mittels eines Algorithmus identifiziert und ausgewertet. Diese experimentellen Daten wurden anschließend mit den klinischen Daten der Patienten korreliert.
Ergebnisse: Es fand sich eine signifikante Korrelation zwischen der Expression von GMFB und dem postoperativen Outcome der Patienten. Des Weiteren fanden sich auch Korrelationen zwischen der präoperativen Anfallsfrequenz und der Expression von BDNF sowie GDNF. Auch die Epilepsiedauer korrelierte mit der Expression von BDNF. Zudem fanden sich Korrelationen zwischen den Ergebnissen der neuropsychologischen Testungen und der Expression von BDNF, sowie PDGF-B.
Diskussion: Die vorliegende Arbeit liefert einige Daten, die Hinweise für nachfolgende Untersuchungen geben können. Sowohl für die Anfallsfrequenz, als auch für die Epilepsiedauer fanden sich signifikante Korrelationen mit BDNF. Beides ist passend zu den vermuteten und zum Teil in der Literatur beschriebenen Mechanismen im Rahmen der Epilepsie, also einer postiktalen Hochregulation von Wachstumsfaktoren beziehungswiese des Zugrundegehens von Zellen im Verlauf der Erkrankung und damit zu einer reduzierten Expression von Wachstumsfaktoren. Geschlechterabhängige Unterschiede in der Expression der Wachstumsfaktoren fanden sich, passend zu der vorhandenen Literatur, nicht. Interessant ist, dass sowohl Geschlechtshormone als auch anfallssuppressive Medikamente einen Einfluss auf die Expression der Wachstumsfaktoren haben können.
Bis heute ist kein Biomarker bekannt, der eine Vorhersage über den Erfolg einer operativen Therapie bei therapierefraktären TLE treffen kann. Da meine Daten eine Korrelation von GMFB und dem postoperativen Outcome zeigen, bietet es sich für weitere Untersuchungen an, GMFB als präoperativen Biomarker zu nutzen. zu können, wäre eine einfachere Probengewinnung beispielsweise aus Blut, Liquor, Urin oder Speichel notwendig. Im Sinne einer „Liquid Biopsy“ könnte so der Erfolg einer chirurgischen Therapie weiter objektiviert werden, was die Entscheidungsfindung einfacher und risikoärmer gestalten würde.
Ein intaktes Arbeitsgedächtnis ermöglicht es, Informationen, z.B. visuellen oder auditorischen Ursprungs temporär zu speichern, zu manipulieren und weiterzuverarbeiten. Es bildet die Grundlage zum Lernen, zum Begreifen und zum Verstehen von Sprache und somit die Grundlage zum tagtäglichen Funktionieren.
Beeinträchtigungen des Arbeitsgedächtnisses sind mit schlechten (Arbeits-) Leistungen, eingeschränkter zwischenmenschlicher Kommunikation, niedrigerem gesellschaftlichem Funktionsniveau und Arbeitslosigkeit vergesellschaftet und somit folgenschwer.
Psychiatrische Erkrankungen aus dem schizophrenen Spektrum, die unipolare Depression oder das Aufmerksamkeitsdefizit-Hyperaktivitätssyndrom (ADHS) gehen gehäuft mit kognitiven Beeinträchtigungen einher. Auch die bipolare affektive Störung zählt zu den psychiatrischen Erkrankungen, die mit kognitiver Beeinträchtigung assoziiert ist.
Das Ziel der Studie war es, darzustellen, dass kognitive Einschränkungen von Patienten, die an einer bipolaren affektiven Störung leiden, unter den exekutiven Funktionen insbesondere das Arbeitsgedächtnis betreffen und diese auch in euthymer Stimmungslage zu erfassen sind.
Hierzu wurde mittels einer Aufgabe zur Farbveränderung vier verschiedener Kreise, die um ein zentral platziertes, schwarzes Kreuz angeordnet waren, das visuelle Arbeitsgedächtnis anhand der Merkfähigkeit der Patienten, deren euthyme Stimmungslage mit den Ratingskalen MADRS und YMRS bestätigt wurde, im Vergleich zu einer Gruppe gesunder Kontrollprobanden, die mit der Patientengruppe in den Faktoren Alter, Geschlechterverteilung, prämorbide Intelligenz, Schulbildung und Händigkeit vergleichbar war, überprüft.
Anhand der erzielten Ergebnisse wurde die Arbeitsgedächtniskapazität K nach Pashler bestimmt. Es ergab sich eine bei mittlerer Effektstärke signifikant geringere Arbeitsgedächtniskapazität in der Gruppe der remittierten Patienten mit bipolarer affektiver Störung im Vergleich zur Kontrollgruppe gesunder Probanden.
Ein Einfluss der zum Zeitpunkt der Testung in der Patientengruppe angewandten Psychopharmaka auf die Arbeitsgedächtniskapazität konnte ausgeschlossen werden, sodass die ermittelten Defizite nicht als eine Form von Medikamentennebenwirkungen erklärt werden konnten. Interessanterweise betrug die mediane Erkrankungsdauer in der Patientengruppe drei Jahre, sodass davon auszugehen ist, dass die Ausprägung von Defiziten des Arbeitsgedächtnisses keinen langen Krankheitsverlauf bedingt, sondern bereits zu Beginn der Erkrankung vorhanden sein könnte.
Somit konnte die Studie darlegen, dass kognitive Defizite, insbesondere Störungen des Arbeitsgedächtnisses mit daraus resultierender signifikant erniedrigter Arbeitsgedächtniskapazität, bei Patienten mit bipolarer affektiver Störung in euthymer Stimmungslage bereits zu einem frühen Zeitpunkt des Krankheitsverlaufs bestehen, die eine Folge der Erkrankung selbst sind und keine Nebenwirkung von psychopharmazeutischer Medikation darstellen. Den Grund für das Auftreten kognitiver Defizite bei Patienten mit bipolarer affektiver Störung liefert diese Studie nicht, sie impliziert dennoch, dass das Verständnis und die Berücksichtigung kognitiver Störungen bei der bipolaren affektiven Störung zukünftig ein wichtiges Therapieziel darstellen sollte um das funktionelle Outcome von Patienten, die an dieser Störung leiden, entscheidend zu verbessern und somit eine Teilnahme am tagtäglichen Funktionieren weiterhin ermöglicht wird.
In die Zukunft blickend sollten unsere Ergebnisse mithilfe weiterer Untersuchungen validiert werden, insbesondere in Bezug auf genetische Komponenten, die die Arbeitsgedächtniskapazität regulieren. Es sollten Faktoren identifiziert werden, die eine reduzierte Arbeitsgedächtniskapazität bei Patienten mit bipolarer affektiver Störung bedingen. Die vorliegende Studie beantwortet nämlich nicht die Frage, wie genetische Faktoren und Umweltfaktoren die Arbeitsgedächtniskapazität auf kognitiver und neurophysiologischer Ebene beeinflussen könnten.
Angesichts der erwähnten Relevanz eines intakten Arbeitsgedächtnisses für die Funktionsfähigkeit der Patienten sollten zukünftige Studien prüfen, ob prokognitive Interventionen wie die kognitive Remediation oder sogar medikamentöse Therapieoptionen diese Defizite verbessern könnten.
Die chronische myeloische Leukämie (CML) ist eine klonale myeloproliferative Neoplasie und hat ihren Ursprung in transformierten pluripotenten Stammzellen im Knochenmark. Der Krankheitsentstehung liegt eine reziproke chromosomale Translokation zugrunde, in deren Folge ein neues Fusionsgen, das sogenannte Philadelphia-Chromosom, entsteht. Das hiervon codierte Genprodukt ist eine Tyrosinkinase mit konstitutiver Aktivität mit resultierender unkontrollierter Signaltransduktion. Gegen diese Tyrosinkinase existiert eine molekular zielgerichtete Therapie, die Tyrosinkinase-Inhibitoren (TKI).
Den Therapiestandard stellt die Behandlung mit einem TKI dar. Seit einigen Jahren existiert jedoch das Therapieziel der therapiefreien Remission (TFR), bei dem CML-Patienten mit einem guten molekularen Ansprechen den TKI nach einiger Zeit absetzen und unter engmaschigen Kontrollen therapiefrei bleiben. Ungefähr die Hälfte dieser Patienten erleidet kein molekulares Rezidiv und bleibt langfristig in TFR. Zu der Thematik der TFR existieren zahlreiche klinische Studien, die die Umsetzbarkeit und die Sicherheit eines Absetzversuchs belegen und Kriterien definiert haben, die für einen Absetzversuch erfüllt sein sollten. In dieser Dissertation wird die Umsetzung der TFR im klinischen Alltag onkologischer Praxen untersucht. Es wird untersucht, ob die Studienergebnisse mit den TFR-Raten und den identifizierten Einflussfaktoren auf den Praxisalltag übertragbar sind und ob das Therapieziel TFR in den klinischen Alltag integrierbar ist. Hierfür werden die Daten von 61 CML-Patienten mit einem Absetzversuch aus fünf onkologischen Praxen retrospektiv ausgewertet. Erhoben werden Parameter der Routineversorgung und die Ergebnisse der Kontrolluntersuchungen während der TFR werden dokumentiert und ausgewertet. Die TFR-Raten von ca. 50%, die in den Absetz-Studien beobachtet wurden, finden sich im hier untersuchten Patientenkollektiv wieder. Mithilfe der binären logistischen Regression wird getestet, ob bestimmte Faktoren, wie die Therapiedauer und das verwendete Medikament vor dem Absetzen, einen signifikanten Einfluss auf den Verlauf der TFR haben. Hier kann kein signifikanter Einflussfaktor identifiziert werden. Es lässt sich eine signifikant längere therapiefreie Überlebensdauer bei den Patienten zeigen, die mit einem TKI der zweiten Generation vor dem Absetzen behandelt wurden.
Zusammenfassend lässt sich sagen, dass die TFR bei geeigneten CML-Patienten in der Praxis umsetzbar und sicher ist und fest im klinischen Alltag onkologischer Praxen verankert sein sollte.
Lebensqualität, kognitive Leistung und multisensorische Integrationsleistung bei NMOSD Patienten
(2023)
Die Neuromyelitis-optica-Spektrum-Erkrankung (NMOSD) ist eine entzündliche Autoimmunerkrankung des zentralen Nervensystems (ZNS), die schubweise auftritt und meist in den Anfängen aufgrund der symptomatischen Ähnlichkeit mit der Multiplen Sklerose (MS) verwechselt wird. Primär manifestiert sich die NMOSD in Form von Sehstörungen und sensomotorische Lähmungserscheinungen. Im Krankheitsverlauf treten aber auch bei einem Großteil der Patienten kognitive Defizite auf, wobei vorwiegend das Gedächtnis, die Informationsverarbeitung und die Aufmerksamkeit betroffen sind, die nicht in Routineuntersuchungen erfasst werden. Kognitive Beeinträchtigungen wurden bereits bei der MS beschrieben. Ebenso spielt eine verminderte Lebensqualität bei beiden Erkrankungen eine große Rolle. Analog zu Untersuchungen bei MS Patienten, die gezeigt haben, dass kognitive Beeinträchtigungen mitunter ursächlich für die niedrige Lebensqualität sind, wird in dieser Arbeit postuliert, dass auch bei NMOSD Patienten das Ausmaß an kognitiven Dysfunktionen mit dem Grad an Einbußen in der Lebensqualität zusammenhängt. Ferner sollen weitere Prädiktoren ermittelt werden, welche einen Einfluss auf die Lebensqualität haben, wie bereits bestätigt körperliche Einschränkungen. Es wird erwartet, dass NMOSD Patienten von einer verminderten Lebensqualität berichten, die von den schlechteren Ergebnissen in den neuropsychologischen Tests vorhergesagt werden kann.
Zur Untersuchung der Kognition wurde in der vorliegenden Arbeit neben etablierten neuropsychologischen Tests auch die multisensorische Integrationsleistung mithilfe des SiFI Paradigmas angewandt, welche bereits bei MS Patienten und Patienten mit leichten kognitiven Defiziten (mild cognitive impairment; MCI) auffällige Daten lieferte und für eine Testung der globalen Kognitionsleistung genutzt werden konnte. Der Grund für den Einsatz der SiFI waren die nachgewiesenen Hirnkorrelate bei multisensorischer Integration, welche ebenfalls bereits bei kognitiver Dysfunktion festgestellt wurden, wie Atrophien, Konnektivitätsstörungen und Auffälligkeiten in der Transmission bestimmter Neurotransmitter. Ziel dieser Anwendung ist eine Implementierung der SiFI in den Klinikalltag zur erleichterten Erfassung kognitiver Defizite. Viele bekannte neuropsychologischen Tests sind entweder zu teuer, zu lang, abhängig von der sprachlichen Fähigkeit oder für die Patienten zu anstrengend. Die SiFI wäre daher eine gute Alternative als Marker kognitiver Defizite.
20 NMOSD Patienten wurden zu ihrer Lebensqualität (EQ-5D) sowie ihrem psychopathologischen Zustand (SCL-90-R) befragt und es wurde eine umfassende neuropsychologische Testung durchgeführt. Zur Diagnostik der multisensorischen Integrationsleistung wurde die SiFI Aufgabe herangezogen. Die Ergebnisse deuten auf eine verminderte kognitive Leistung mit mittelhohen Werten in den Fragebögen zur Lebensqualität. NMOSD Patienten nahmen die Illusion in der SiFI Aufgabe bei längeren Intervallen wahr, vergleichbar mit MS und MCI Patienten. Dies deutet auf eine verzögerte Integration sensorischer Informationen.
Angefangen mit einem Einblick über die Erkrankung und Darstellung des bisherigen Wissenschaftsstands zu den einzelnen Konstrukten und ihrer Zusammenhänge wird das Studiendesign vorgestellt und die Ergebnisse angegeben und interpretiert. Abschließend folgen eine kritische Beurteilung und Zusammenfassung der vorliegenden Daten mit Ausblick auf weitere Forschungsziele.
Abdominal aortic aneurysm (AAA) is the most common type of aortic aneurysm, which is defined as a dilation of the abdominal aorta over 3.0 cm or more. Surgical repair is the golden standard for the treatment of AAA, in which open surgical repair (OSR) and endovascular aneurysm repair (EVAR) are the main approaches. Technically speaking, the lesion segment of aueurysm is completely replaced by a graft during OSR, while in EVAR, the lesion is insulated by a stentgraft. EVAR is a less invasive treatment than OSR and shows a lower early mortality rate, although the long-term advantages of EVAR over OSR remain inconclusive.
Endoleak, especially the type II endoleak (T2EL), is a common complication after EVAR. According to research, 16-28% of the patients develop a T2EL after EVAR, and it accounts for nearly three in four of all types of endoleaks. Around 30-50% of the T2EL resolved spontaneously during the follow-up, however, it still causes a secondary intervention in many patients. Therefore, it is critical to monitor endoleaks after repair.
Patent aortic branches in the stent-overlapped area and vasa vasorum have been identified as potential sources of blood flow in T2EL. However, the mechanisms of biological changes or remodeling of the aneurysm sac after the repair are still not clear, but they have been considered to play an important role in the development of endoleaks. Unfortunately, it is impossible to obtain a tissue sample of the aortic wall in patients who underwent EVAR.
MicroRNAs (miRNAs) are a class of small single-stranded non-coding RNAs that inhibit the expression of target message RNA (mRNA). miR-29b/29c, miR-155, and miR-15a are miRNAs associated with regulating extracellular matrix (ECM) components, inflammation, and proliferation, respectively. All four miRNAs have been identified as biomarkers of AAA, not only in aneurysm tissue but also extracellular as circulating miRNAs. However, it is still unknown whether they can reflect the biological changes after AAA repair. Thus, we conducted a prospective study to investigate the changes in expression of circulating miR-29b, miR-29c, miR-155, and miR-15a before (T0), 3 days (T1), and 3 months (T2) after AAA repair.
A total of 39 patients were recruited for this study, 17 of whom were repaired by OSR and 22 of whom were repaired by EVAR. Four patients failed the T2 follow-up due to the Covid-19 pandemic. No significant changes were found in the expression of miR-29b, miR-29c, miR-155, and miR-15a. There were also no obvious differences between OSR and EVAR. However, the T1 expression of miR-15a was significantly lower in patients without endoleak after EVAR than in those who developed endoleak after EVAR and those who were repaired by OSR. Unfortunately, these differences did not persist to the T2 follow-up, and no other differences were found among these patients.
In summary, miR-15a is a miRNA that significantly changes in AAA patients. This study demonstrates that the expression of circulating miR-15a is lower in patients without endoleak three days after EVAR, compared to those who had endoleak after EVAR and those who underwent OSR. The results suggest that miR-15a might be involved in the early aortic remodeling after EVAR as an indicator of endoleak.
Type 1 diabetes (T1D) is precipitated by the autoimmune destruction of the insulin-producing beta-cells in the pancreatic islets of Langerhans. Chemokines have been identified as major conductors of the islet infiltration by autoaggressive leukocytes, including antigen-presenting cells and islet autoantigen-specific T cells. We have previously generated a roadmap of the gene expression in the islet microenvironment during T1D in a mouse model and found that most of the chemokine axes are chronically upregulated during T1D. We focused our attention on CXCL10/CXCR3, CCL5/CCR5, CXCL16/CCR6, CX3CL1/CX3CR1, and XCL1/XCR1. First, we found that the absence of CCR6 and of CX3CR1 diminished T1D incidence in a mouse model for T1D. Further, the XCL1/XCR1 chemokine axis is of particular interest, since XCR1 is exclusively expressed on convention dendritic cells type 1 (cDC1) that excel by their high capacity for T cell activation. Here we demonstrate that cDC1 expressing XCR1 are present in and around the islets of patients with T1D and of islet-autoantibody positive individuals. Further, in an inducible mouse model for T1D, we show that XCL1 plays an important role in the attraction of highly potent dendritic cells expressing XCR1 to the islets. XCL1-deficient mice display a diminished infiltration of XCR1+ cDC1 and subsequently also a reduced magnitude and activity of islet autoantigen-specific T cells. XCR1-deficient mice display a reduced magnitude and activity of islet autoantigen-specific T cells. A 3D-visualization of the entire pancreas reveals that both XCL1-deficient mice and XCR1-deficient mice indeed maintain most of their functional islets after induction of the disease. Thus, the absence of XCL1 results in a profound decrease in T1D incidence. The XCR1-deficiency also reduces T1D incidence, even if in a less drastic way compared to XCL1-deficiency. An interference with the XCL1/XCR1 chemokine axis might constitute a novel target for the therapy for T1D.
In der vorliegenden Arbeit wurden die Proteine Vlp15/16 und GlpQ aus B. miyamotoi hinsichtlich ihrer Eigenschaft, mit Plasminogen zu interagieren, charakterisiert.
Da einige Fälle von ZNS-Beteiligungen bei B. miyamotoi-Infektionen berichtet wurden, ist anzunehmen, dass diese Borrelienspezies über molekulare Mechanismen zur Überwindung der Blut-Hirn-Schranke verfügt. Eine solche Strategie könnte die Bindung wirtseigener Proteasen wie z.B. Plasminogen sein, um Komponenten der extrazellulären Matrix zu degradieren und dadurch die Dissemination des Erregers zu erleichtern.
Während Vmps, zu welchen auch Vlp15/16 gehört, als membranständige Proteine durch Variation der antigenen Oberflächenmatrix zur Immunevasion des Erregers beitragen, ist GlpQ bei der Hydrolyse von Phospholipiden in den Zellstoffwechsel eingebunden. Trotz dieser unterschiedlichen Funktionen, die den beiden Proteinen zukommen, binden beide Moleküle Plasminogen. Die Eigenschaften dieser Interaktion wurden in dieser Arbeit im Detail untersucht. Die Ergebnisse zeigen, dass Vlp15/16 und GlpQ Plasminogen konzentrationsabhängig binden und die Dissoziationskonstanten (Vlp15/16:Kd = 354 nM ± 62 nM; GlpQ: Kd = 413 nM ± 72 nM) für beide Proteine im Bereich der Serumkonzentration von 2 µM liegen. Darüber hinaus konnte gezeigt werden, dass den beiden Proteinen unterschiedliche Mechanismen zugrunde liegen, Plasminogen zu binden. Während die erhobenen Daten für Vlp15/16 darauf hindeuten, dass Lysin-Reste essenziell für die Interaktion sind, scheinen bei GlpQ ionische Wechselwirkungen von Bedeutung zu sein.
Um die Beteiligung von C-terminal lokalisierten Lysin-Resten für die PlasminogenBindung von GlpQ nachzuweisen, wurden Varianten mit einzelnen Lysin-Substitutionen an zwei unterschiedlichen Positionen (333 und 334) sowie eine Variante mit einer Zweifach-Substitution (GlpQ-K333A-K334A) generiert. Die Bindungsanalysen ergaben, dass insbesondere der Lysin-Rest an Position 334 bei der Interaktion mit Plasminogen beteiligt ist.
Die funktionellen Analysen zeigten, dass das an Vlp15/16 beziehungsweise GlpQ gebundene Plasminogen zu Plasmin aktiviert werden konnte und darüber hinaus dazu in der Lage war, das physiologische Substrat Fibrinogen zu degradieren.
Abschließend wurde die Plasminogen-Bindung an nativen B. miyamotoi-Zellen mittels Immunfluoreszenz-Mikroskopie nachgewiesen.
Die Ergebnisse dieser Arbeit weisen Vlp15/16 und GlpQ als Plasminogen-bindende Proteine aus, mit deren Hilfe B. miyamotoi befähigt ist, Komponenten der extrazellulären Matrix zu degradieren und somit prinzipiell zur Dissemination des Erregers beizutragen.
Chronisch-entzündliche Dermatosen sind in Deutschland weit verbreitet und haben einen enormen Einfluss auf die Lebensqualität der Erkrankten. Das umfassende Verständnis der molekularen Prozesse und Signalwege bildet die Basis, um mögliche Beziehungen zwischen den Hauterkrankungen aufzudecken. Der Nachweis von Ähnlichkeit und Übereinstimmung in den Signalwegen bietet die Aussicht, dass etablierte Therapien auch bei anderen Erkrankungen helfen können.
Der Zweck dieser Arbeit ist der Nachweis der Expression von IL-1β, IL-17A, IL-22, IL-23 und TNF-α in drei chronisch-entzündlichen Dermatosen: Acne inversa (AI), Sinus pilondalis (SP) und Perifolliculitis capitis abscedens et suffodiens (PCAS). Bei allen untersuchten Diagnosen handelt es sich um potentiell verwandte Erkrankungen der Haarfollikel, die durch Verlegung der Ausführungsgänge zu ausgedehnten Entzündungsreaktionen mit Bildung von Knoten, Abszessen und Fisteln führen. Bereits nachgewiesen ist, dass IL-1β, IL-17A, IL-22, IL-23 und TNF-α eine wichtige Rolle in der Pathogenese von Acne inversa spielen und Antikörpertherapien an einigen dieser Zielproteine spezifisch angreifen, um den Verlauf der Erkrankung zu verbessern.
Die Expression der Proteine wurde in Läsionen von Patienten mit den drei Indikationen immunhistochemisch an paraffiniertem Gewebe untersucht. Wie erwartet, zeigten sich in der überwiegenden Anzahl der Proben große entzündliche Infiltrate und hier wurde die Expression aller untersuchten Zytokine in unterschiedlicher Intensität nachgewiesen. Vielversprechend war insbesondere die Expression von IL-17A und IL-23 in SP und PCAS. Die Expression von IL-1β war insgesamt eher gering ausgeprägt; bei AI noch etwas höher als in SP und PCAS. Die Färbungen auf IL-22 zeigten sich kräftig in allen untersuchten Dermatosen. Allerdings gibt es bisher keine zugelassene Therapie zur Modulation dieses speziellen Zytokins. IL-22 scheint eine zentrale Rolle in
der Pathogenese der AI zu spielen. Mit TNF-α-Blockern wurden schon gute therapeutische Ergebnisse bei AI und PCAS erzielt. Deshalb ist der Nachweis von TNF-α in den entzündlichen Läsionen zu erwarten gewesen. Auch bei den SP-Proben fanden sich deutlich erhöhte Protein-Level, sodass auch hier eine gezielte Therapie von Vorteil sein könnte. Wegen des geringen Probenumfangs und der Methodik sind weitere gezielte Untersuchungen notwendig. Dennoch konnten viele Gemeinsamkeiten der Zytokinexpression ausgemacht werden, was vielversprechende Hinweise auf mögliche Behandlungsansätze bei AI, SP und PCAS zulässt. Diese Arbeit bietet einen ersten Blick auf den immunologischen Phänotyp der verwandten Dermatosen.
Gastroschisis und Omphalozele zählen zu den häufigsten angeborenen Bauchwanddefekten. Dabei wird zwischen einfacher (ohne sekundäre Darmveränderungen) und komplexer (mit sekundären Darmveränderungen) Gastroschisis unterschieden. Bei der Omphalozele ist es wichtig, ob eine Protrusion der Leber vorliegt. Die Therapie beider Fehlbildungen besteht aus der Reposition der Bauchorgane in den Bauchraum und einem operativen Bauchdeckenverschluss in den ersten Lebenstagen.
Daten zu Langzeitverläufen nach dem operativen Bauchdeckenverschluss, insbesondere in Hinblick auf gastrointestinale Komplikationen mit erneutem chirurgischen Interventionsbedarf, sind in der Literatur rar.
Ziel dieser Studie ist es daher, die Inzidenz und die Art von operativen Eingriffen nach dem Bauchdeckenverschluss bei Patienten mit einer Gastroschisis und einer Omphalozele nach einem Bauchdeckenverschluss am eigenen Patientenkollektiv zu untersuchen. Hierzu wurden die Akten aller Patienten mit Gastroschisis und Omphalozele, die in der Klinik für Kinderchirurgie und Kinderurologie des Universitätsklinikums Frankfurt von 2010 bis 2019 behandelt wurden, retrospektiv ausgewertet. Die Inzidenz von Operationen nach Bauchdeckenverschluss wurde anhand der mittleren kumulativen Ein-Jahres-Anzahl an Operationen pro Patienten und der kumulativen Ein-Jahres-Inzidenz der Operationen ermittelt.
Insgesamt wurden 61 Patienten identifiziert. Nach Ausschluss von vier Patienten (Krankenhausverlegung (ein Patient) und Versterben (drei Patienten)) konnten die Verläufe von 33 Patienten mit Gastroschisis (18 mit einfacher und 15 mit komplexer Gastroschisis) und 24 Patienten mit Omphalozele (je zwölf mit und ohne Leberprotrusion) ausgewertet werden.
Bei 23 Patienten mit Gastroschisis und bei 20 Patienten mit Omphalozele kam es innerhalb des ersten Jahres nach Bauchdeckenverschluss zu erneuten Operationen. Das Risiko sich einer erneuten Operation unterziehen zu müssen, war bei Patienten mit komplexer Gastroschisis signifikant höher als bei Patienten mit einfacher Gastroschisis (kumulative Ein-Jahres-Inzidenz: 64,3% vs. 24,4%; p= 0,05). Zwischen den beiden 6 Formen der Omphalozele bestand kein Unterschied in der Inzidenz chirurgischer Eingriffe. Im Median kam es bei Patienten mit Gastroschisis nach 84 Tagen und bei Patienten mit Omphalozele nach 114,5 Tagen zu einer erneuten Operation.
74% der Patienten mit Gastroschisis und 30% der Patienten mit Omphalozele wurden aufgrund einer gastrointestinalen Komplikation operiert. Die Patienten mit komplexer Gastroschisis hatten im Vergleich zu Patienten mit einfacher Gastroschisis ein signifikant erhöhtes Risiko für eine Operation zur Behandlung einer gastrointestinalen Komplikation (kumulative Ein-Jahres-Inzidenz 64,3% vs. 11,1%; p= 0,015). In Bezug auf die Anzahl der Operationen pro Patienten und Jahr hatten die Patienten mit komplexer Gastroschisis und Patienten mit Omphalozele und Leberprotrusion die meisten operativen Eingriffe (kumulative Ein-Jahres-Anzahl 1,664 und 1,417 vs. einfache Gastroschisis (0,326) und Omphalozele ohne Leberprotrusion (0,333)). Dieses Verhältnis spiegelt sich auch in der kumulativen Ein-Jahres-Anzahl an Operationen mit gastrointestinalen Indikationen wider (komplexe Gastroschisis: 1,462 Operationen; Omphalozele mit Leberprotrusion: 0,500 Operationen; einfache Gastroschisis: 0,111 Operationen; Omphalozele ohne Leberprotrusion: keine Operation)
Nach dem Bauchdeckenverschluss kam es zu zwei Todesfällen bei Patienten mit komplexer Gastroschisis und zu drei Todesfällen bei den Patienten mit Omphalozele und Leberprotrusion. Bei den beiden Patienten mit komplexer Gastroschisis lag eine gastrointestinale Ursache vor (Leberversagen, Dünndarmvolvulus). Die Patienten mit der Omphalozele verstarben aufgrund assoziierter kardialer und pulmonaler Erkrankungen. Die Daten zeigen, dass Patienten mit Gastroschisis und Omphalozele im ersten Lebensjahr nach dem Bauchdeckenverschluss ein hohes Risiko für weitere Operationen haben. Patienten mit komplexer Gastroschisis und mit einer Omphalozele und Leberprotrusion haben das größte Risiko für eine erneute Operation nach Bauchdeckenverschluss. Bei Patienten mit einfacher Gastroschisis und Omphalozele ohne Leberprotrusion ist dieses Risiko gering. Die Mehrzahl der Operationen erfolgt aufgrund von gastrointestinalen Ursachen. Nur bei Patienten mit komplexer Gastroschisis tragen gastrointestinale Komplikationen zu einer erhöhten Mortalitätsrate bei. Die Ergebnisse dieser Arbeit können für Aufklärungs- und Beratungsgespräche von Eltern von Kindern mit Gastroschisis und Omphalozele herangezogen werden.
Das Verständnis von Tumorerkrankungen wurde durch neue technologische und ökonomische Verbesserungen für die Next-Generation-Sequencing Analyse (NGS) gefördert. Die Komplexität der Interpretation genomischer Daten erschwert jedoch die Anwendung von NGS-Analysen im klinischen Kontext. Die Herausforderung besteht darin bei stetig wachsendem medizinischem Wissen dieses im klinischen Kontext zu interpretieren und eine personalisierte Therapieempfehlung abzugeben. Einen ressourcensparenden Ansatz können KI-unterstützende Software-Programme bieten, welche die genomischen Varianten mit der aktuellen Literatur vergleichen, eine Bewertung der Therapieoptionen geben und klinische Studien empfehlen können. In dieser retrospektiven Arbeit wurden Patient:innen mit metastasiertem Brustkrebs (n=77) mittels gezielter NGS-Analyse anhand von sogenannten Genpanels mit 126 bzw. 540 krebsrelevanten Genen im Zeitraum von 01/2019-02/2022 untersucht. Mit Hilfe von bioinformatischen Methoden wurden patientenspezifische genomische Veränderungen mit Behandlungsoptionen abgeglichen. Diese Methoden stützen sich vollständig auf öffentliche Datenbanken über somatische Varianten mit prädiktiver Evidenz für das Ansprechen auf bestimmte Medikamente. Diese Versorgungsforschung einer repräsentativen Kohorte des Universitätsklinikums Frankfurt in Kooperation mit Regionalverbund OncoNet Rhein-Main wurden systematisch ausgewertet inklusive der Bedeutung genomischer Varianten. Das OncoNet Rhein-Main ist eine Kooperation aus führenden onkologischen Zentren und Praxen im Rhein-Main-Gebiet, welche sich als Netzwerk der Aufgabe angenommen haben Patient:innen optimal therapeutisch zu versorgen. Für 51% (39/77) der Patient:innen konnte mindestens eine gezielte Therapieoption mit einem effektivem Biomarker im gleichen Tumortyp gemäß Zulassung der Europäischen Arzneimittelbehörde (EMA) gefunden werden.
Bei 12/77 (16%) wurde mindestens eine Alteration mit einem effektivem Biomarker und einer OFF-Label Therapieoption gefunden. Bei 30% der Patient:innen wurden Veränderungen in optionalen Biomarkern gefunden, welche Resistenzmechanismen erklären. Die umfassende molekulare Analyse von Patient:innen mit fortgeschrittenem Brustkrebs erlaubt die Behandlungsoption zu verbessern und ermöglicht durch die Analyse von bekannten Resistenzmarkern auch den klinischen Verlauf besser zu verstehen. Die interdisziplinäre Besprechung der Befunde im molekularem Tumorboard ist im Hinblick auf kontinuierliches Lernen aller Beteiligten sowie zur Qualitätssicherung eine entscheidende obligate Maßnahme.
ADHS im Erwachsenenalter ist eine komplexe Erkrankung, die durch verschiedene diagnostische Instrumente erfasst wird. Aktuell spielen dabei vor allem die klinische Exploration, Interview- und Fragebogendaten eine Rolle.
Obwohl bei Patient*innen vielfältige kognitive Einschränkungen bestehen, wird die Verwendung neuropsychologischer Daueraufmerksamkeitstests (CPTs) in den klinischen Leitlinien nur ergänzend erwähnt. Validität und Nützlichkeit von CPTs bei ADHS Patient*innen wird aufgrund der mangelnden Sensitivität und
Spezifität immer wieder kritisch diskutiert. Multidimensionale Ansätze, in denen verschiedene neuropsychologische Beurteilungen mit klinischen Parametern kombiniert werden, sollen das Aufstellen einer ADHS Diagnose im Erwachsenenalter verbessern. Die vorliegende Studie untersucht zwei verschiedene CPTs bezüglich deren Vergleichbarkeit und deren Verknüpfung mit klinischen Parametern. Ein direkter Vergleich innerhalb derselben Stichprobe ist bisher nicht durchgeführt worden, könnte jedoch wichtige Implikationen für die Testauswahl und darauffolgende klinische Interventionen haben. Die klinische Stichprobe besteht aus zufällig ausgewählten erwachsenen Patient*innen, die sich in der ADHS Ambulanz der Klinik für Psychiatrie, Psychosomatik und Psychotherapie des Universitätsklinikums Frankfurt zur diagnostischen ADHS Beurteilung zwischen Mai und November 2019 vorstellten. Die Patient*innen wurden von erfahrenen Ärzt*innen mithilfe des strukturierten diagnostischen Interviews für ADHS bei Erwachsenen (DIVA 2.0) befragt. Au§erdem wurden Schulzeugnisse bewertet und die medizinische Vorgeschichte erhoben. Anschließend wurden die Patient*innen mit dem Wender-Reimherr Interview (WRI) von einer unabhängigen Interviewerin befragt und füllten die folgenden Selbstbeurteilungsfragebögen aus: Kurzform der Wender-Utah Rating Scale (WURS-k), Impulsive Behavior Scale (UPPS) und General Health Questionnaire (GHQ-28). Alle Patient*innen nahmen anschließend an der Testung mit zwei CPTs teil: dem Quantified Behavior Test (Qb-Test) und Nesplora Aquarium [9]. Der Qb-Test misst neben Unaufmerksamkeit und Impulsivität auch Hyperaktivität mithilfe einer Infrarot Kamera und eines Reflektors, welche das Bewegungsmuster während der Testung aufzeichnen. In Nesplora Aquarium wird virtuelle Realität genutzt, um das Bewegungsmuster mithilfe eines optischen Gerätes, das mit Sensoren und Lautsprechern ausgestattet ist, aufzuzeichnen. Es zeigte sich, dass die übergreifende Vergleichbarkeit beider Tests begrenzt ist. Trotz der kongruenten Messung von Unaufmerksamkeit in beiden Tests konnten keine Korrelationen mit den klinischen Parametern festgestellt werden. Hyperaktivität ist in beiden Tests positiv mit aktuellen ADHS Symptomen assoziiert, wobei der Qb-Test darüber hinaus noch Korrelationen mit ADHS Symptomen aus der Kindheit aufweist. Impulsivität stellte sich als ein unabhängiges Konstrukt heraus, sowohl die Korrelation zwischen beiden Tests als auch die Assoziation mit klinischen Parametern betreffend. Dies stellt in Frage, ob ein homogenes mpulsivitätskonstrukt existiert, welches sich in neuropsychologischen Tests und klinischen Symptomen abbildet. Insgesamt ermöglicht die Studie einen guten Vergleich beider CPTs und zeigt detaillierte Informationen über die
Kompatibilität mit klinischen Symptomen auf. Unaufmerksamkeit stellte sich als ein basaler Faktor heraus, der zwischen beiden Tests über alle Patient*innen hinweg überlappt. Da dieser Faktor jedoch nicht mit klinischen Parametern korreliert, unterstreicht dies die Problematik, subjektive mit objektiven Methoden in der ADHS Diagnostik zu verbinden. Die aktuellen Ergebnisse bezweifeln die einfache Anwendung sogenannter objektiver Messverfahren in der klinischen ADHS Diagnostik aufgrund ihrer fragwürdigen Validität. Die Ergebnisse der Studie verdeutlichen die Notwendigkeit eines neuen diagnostischen Ansatzes im Sinne der Präzisionsmedizin, welcher über die konventionellen Klassifikationssysteme hinaus passende individuelle Lösungen für Diagnostik und Behandlung ermöglicht.
In der vorliegenden Dissertation wird auf diesen Ergebnissen basierend der Goldstandard der aktuellen ADHS-Diagnostik unter Beachtung der Leitlinien diskutiert. Die untersuchten CPTs werden unter Berücksichtigung der Gütekriterien guter diagnostischer Verfahren überprüft. Das Potenzial neuropsychologischer Testverfahren im Hinblick auf die Steigerung von Objektivität, Validität und Differenziertheit der Diagnosen wird untersucht und Empfehlungen für die klinische Anwendung formuliert.
Refraktives und visuelles Ergebnis nach Neuausrichtung von rotierten torischen Intraokularlinsen
(2023)
Hintergrund und Ziel der Studie
Das Ziel der Studie ist die Beurteilung des refraktiven und visuellen Ergebnisses von Patienten mit fehlausgerichteten torischen IOLs nach operativer Neuausrichtung, mit und ohne Rückberechnung der torischen Achse nach Implantation der IOL.
Methoden
Dies ist eine retrospektive Analyse von 39 Patienten, die sich von August 2013 bis Dezember 2019 an der Klinik für Augenheilkunde der Goethe-Universität Frankfurt am Main einer zweiten Operation zur Neuausrichtung einer fehlausgerichteten torischen IOL unterzogen haben. Die zweite Operaton zur Korrektur der Achsenlage wurde auf zwei Weisen durchgeführt: In der ersten Gruppe wurde auf die primär berechnete Achse rotiert und in der zweiten Gruppe wurde die Rotation auf eine neu berechnete Achse mit dem Rückrechner von astigmatisfix.com vorgenommen.
Ergebnisse
In dieser retrospektiven Studie wurden 39 Augen von 39 Patienten eingeschlossen. Die Ergebnisse nach der ersten Operation (die Linsenoperation) zeigte eine Besserung der (BCVA) von 0,28 ± 0,22 logMAR (20/40) auf 0,15 ± 0,14 logMAR (20/32). Nach der Linsenoperation zeigten die torischen IOLs durchschnittlich eine postoperative Fehlstellung von 25,69° ± 26,06°. Verglichen vor und nach der Rotation der torischen IOL blieb der BCVA unverändert bei 0,14 ± 0,14 logMAR (20/32), während sich der UDVA signifikant von 0,39 ± 0,29 logMAR (20/50) auf 0,27 ± 0,18 logMAR (20/40) verbesserte. Das refraktive Ergebnis zeigte eine Reduktion sowohl in der Restsphäre sowie in dem Zylinder. Die Ergebnisse der Gruppenanalyse demonstrierte für die erste Gruppe (Neuausrichtung auf die präoperativ berechnete Achse) eine postoperative UDVA 0,24 ± 0,16 logMAR mit einem Zylinder von 0,90 ± 0,90 D. In der zweiten Gruppe (Ausrichtung auf eine zurückberechnete Achse) betrug die UDVA 0,32 ± 0,20 logMAR mit einem Zylinder von 0,76 ± 0,72 D. Die IOLs mit hoher Zylinderstärke (≥ 2 D) zeigten bei der Rückberechnung eine stärkere Abnahme des Restzylinders als IOL mit niedriger Zylinderstärke (< 2 D) (27 % vs. 9 %). Der mittlere sphärische Äquivalent-Vorhersagefehler der Rückberechnung betrug 0,54 ± 0,55 D.
Schlussfolgerung
Die Neuausrichtung von fehlausgerichteten torischen IOLs verbessert die Sehschärfe und reduziert verbleibende Brechungsfehler. Insbesondere bei IOL mit hoher Zylinderstärke kann ein besseres refraktives Ergebnis erzielt werden, wenn vor der Neuausrichtung eine Rückberechnung durchgeführt wird.
Die vorliegende Studie widmete sich der Untersuchung von mikrostrukturellen Eigenschaften im Gehirn von Patienten mit Epilepsie, bei denen im herkömmlichen Magnetresonanztomografie (MRT) keine strukturellen Anomalien festgestellt wurden. Epilepsie ist eine komplexe neurologische Störung, die durch wiederkehrende epileptische Anfälle gekennzeichnet ist. I Bisher wurde die Beeinträchtigung der Hirnmikrostruktur in dieser Gruppe kaum erforscht, obwohl aufgrund pathologischer Umstrukturierungen zerebraler Netzwerke, neuronaler Hyperaktivität und Hypersynchronisation ähnliche Schäden wie bei Patienten mit sichtbaren Läsionen angenommen werden könnten. Zur Untersuchung der zerebralen Mikrostruktur wurden in dieser Studie hochauflösende quantitative Tl-, T2- und Protonendichte (PD)-Verfahren in Kombination mit einer Gewebesegmentierung auf Basis synthetischer Anatomien verwendet.
Es wurden insgesamt 27 Epilepsiepatienten rekrutiert, bei denen mittels herkömmlicher MRT keine strukturellen Läsionen im Gehirn festgestellt wurden. Die MRT-Daten wurden mit einem 3-Tesla-MAGNETOM-TRlO-MR-Scanner erfasst, der mit einer 8-Kanal-Kopfspule ausgestattet war. Die quantitative MRTTechnik ermöglichte die Messung von Tl-, T2- und PD Werten, um die mikrostrukturellen Eigenschaften des kortikalen Gewebes zu analysieren. Die kortikale graue Substanz wurde analysiert, indem zur Vermeidung von Partialvolumeneffekten Tl-, T2- und PD-Werte aus den zentralen 20% des Kortex ausgelesen und in Oberflächendatensätzen gespeichert wurden. Die Gruppenvergleiche wurden dann mittels statistischer Analysen (allgemeines lineares Modell) und Permutationssimulationen durchgeführt, um Cluster zu identifizieren, die auf mögliche Gruppenunterschiede hinweisen. Für die weiße und tiefe graue Substanz erfolgte eine „region of interest"-basierte Analyse und eine Voxel-weise Analyse.
Die beschriebenen Analysen der quantitativen MRT-Daten zeigten keine signifikanten Unterschiede der Tl-, T2- oder PD-Werte zwischen den Gruppen. Weder in der grauen noch weißen Substanz ergaben sich demnach Hinweise auf mikrostrukturelle Veränderungen bei Patienten mit MRT-negativer Epilepsie.
Die Ergebnisse zeigen, dass zukünftige wissenschaftliche Untersuchungen erforderlich sein werden, um die maßgeblichen Faktoren und Mechanismen zu ermitteln, die zur mikrostrukturellen Schädigung von Gehirngewebe in unterschiedlichen Untergruppen von Epilepsiepatienten beitragen.
The impact of the Covid-19 pandemic called for rapid responses in face of unprecedented challenges. In this context, earning more about the causative agent SARS-CoV-2 becomes imperative. Therefore, clinical virus isolates were studied with focus on infectivity, replication kinetic, and caspase activity.
Firstly, clinical specimens collected from patients were tested for infectivity in cell culture. Combined with polymerase chain reaction results, a formula predicting infectivity in cell culture based on abundance of viral RNA was developed. Additionally, analysis of different specimen types, sources, and material, elucidate the question of infectivity. Here, infectivity was demonstrated in specimens derived from different parts of the respiratory tract, including specimens collected from deceased persons. A protocol for virus isolation on human airway epithelium in air-liquid interface culture was established.
Secondly, replication kinetics of 20 clinical isolates were compared, including a subset of seven sequenced isolates. All isolates replicated in the colon epithelial cell culture model. Within the subset, differences between isolates carrying the D614G amino acid exchange and with original spike protein were observed.
Lastly, elevated caspase activity was demonstrated in two cell culture models including human airway epithelium in air-liquid interface culture.
Subsequently, caspase inhibition by small-molecule compound Emricasan and its effects on the cytopathic effect observed in cell culture were studied. Here, increased cell survival in a colon epithelial cell line was shown with unimpaired virus replication. Elevated caspase activity was identified as early marker of infection and validated by testing across 20 clinical virus isolates.
This study offers information on infectivity that can help shape the understanding of transmission risk. As such, parts of the data collected here were used for validation of rapid antigen tests. The insights gained by studying caspase activity contributed in part to the development of a drug screening method by Bojkova et al.,41 thus aiding routine laboratory workflow. It was demonstrated that Emricasan exhibits no antiviral effect, while the finding of increased cell survival in cell culture could give rise to further research on prevention of tissue damage.
Untersuchung zur Sicherheit bei der simultan bilateralen Cochlea-Implantation bei Erwachsenen
(2023)
Schwerhörigkeit ist sowohl für die betroffenen Patienten als auch sozioökonomisch eine relevante Erkrankung. Sie stellt ein Hindernis für die soziale Teilhabe dar, reduziert die Lebensqualität und führt zu direkten und indirekten Gesundheitskosten.
Cochlea-Implantate sind vielkanalige Neuroprothesen, die über einen chirurgisch in die Hörschnecke eingebrachten Elektrodenträger das erste Neuron der Hörbahn direkt elektrisch stimulieren und so eine Hörwahrnehmung induzieren.
Dadurch kann ein Funktionsverlust der Haarzellen, welcher die häufigste Ursache für eine Schwerhörigkeit ist, ersetzt werden. Cochlea-Implantate stellen den Goldstandard der Hörrehabilitation bei hochgradig schwerhörigen oder postlingual ertaubten erwachsenen Patienten sowie in der Versorgung prälingual ertaubter Kinder dar.
Bei vielen schwerhörigen Patienten besteht die Indikation zur beidseitigen Versorgung mit einem Cochlea-Implantat. Prinzipiell besteht die Möglichkeit, diese chirurgische Versorgung beidseits einzeitig (simultan) oder zweizeitig (sequenziell) durchzuführen. Während die Sicherheit der bilateral-simultanen Operation für Kinder durch mehrere Studien belegt wurde, liegen für Erwachsene erst wenige Daten vor.
Die vorliegende Studie untersucht, ob die bilaterale simultane Implantation mit höheren Komplikationsraten als die sequenzielle Operation assoziiert ist und leistet damit einen Beitrag zur Entscheidungsfindung von Patienten und Behandlern.
Es konnten 169 zwischen 2008 und 2017 bilateral implantierte Patienten eingeschlossen werden. Davon wurden 34 simultan (Gruppe 1) und 135 (Gruppe 2) sequenziell versorgt. Es wurde die Dauer der Operation, das Auftreten von Minor- und Major-Komplikationen sowie die Dauer des stationären Aufenthalts erfasst und zwischen beiden Gruppen verglichen.
Die Ergebnisse zeigten, dass die Gesamtzeit der Patienten im Operationssaal in der simultan implantierten Gruppe deutlich kürzer war. Die Häufigkeit chirurgischer Major- und Minor-Komplikationen unterschied sich hingegen nicht signifikant. Bezüglich einer letalen nicht-chirurgischen Komplikation in der simultan implantierten Gruppe erfolgte eine umfangreiche Aufarbeitung, ohne dass ein kausaler Zusammenhang mit der gewählten Behandlungsmethode nachgewiesen werden konnte. Die Dauer des Krankenhausaufenthalts war in der simultanen Gruppe 0,7 Tage länger als bei unilateraler Implantation, aber 2,8 Tage kürzer als bei beiden sequenziellen Operation zusammen.
In der Zusammenschau aller berücksichtigten Komplikationen und der komplikationsrelevanten Faktoren ist die Sicherheit der simultan bilateralen Operation gegenüber dem sequenziellen Vorgehen als gleichwertig zu bewerten.
Jedoch muss individuell auf mögliche Risikokonstellationen des Patienten eingegangen werden, die bei der längeren Operationszeit der simultanen Implantation relevant sein kann. Daher ist eine sorgfältige Auswahl der Patienten
unter besonderer Berücksichtigung bestehender Komorbiditäten unerlässlich.
Menschen mit Epilepsie (engl. PWE) haben im Vergleich zur Allgemeinbevölkerung ein erhöhtes Risiko, vorzeitig zu versterben. Der plötzliche, unerwartete Tod bei Epilepsie (engl. Sudden Unexpected Death in Epilepsy, kurz SUDEP) stellt die häufigste epilepsiebedingte Todesursache dar. Obwohl das Thema in Fachkreisen zunehmende Aufmerksamkeit erfährt, die Empfehlung zur SUDEP Aufklärung zunehmend in nationalen Leitlinien aufgenommen wird, und der Patientenwunsch nach einer generellen SUDEP Aufklärung in verschiedenen Studien gezeigt werden konnte, besteht weiterhin ein Informationsdefizit unter PWE. Ursache hierfür scheint insbesondere die Sorge der behandelnden Neurolog*innen zu sein, Menschen mit Epilepsie übermäßig emotional zu belasten und ihre Lebensqualität zu mindern. Diese Studie untersucht sowohl das Vorwissen über SUDEP als auch unmittelbare sowie langfristige Auswirkungen einer SUDEP Aufklärung auf Erwachsene mit Epilepsie. Ziel ist mögliche negative Auswirkungen der Aufklärung sowie Auswirkungen auf das Verhalten aufzudecken. Aus diesem Zweck wählten wir ein prospektives, multizentrisches, longitudinales Studiendesign. Die Daten wurden in halbquantitativen Interviews vor (vor der Aufklärung), unmittelbar nach (nach der Aufklärung) und drei Monate nach (3-Monats Follow-up) der SUDEP Aufklärung erhoben. Um die direkte Vergleichbarkeit zwischen den Zeitpunkten zu ermöglichen wurden folgende validierte Instrumente verwendet: das Neurological Disorders Depression Inventory for Epilepsy (NDDI-E) zur Erfassung depressiver Symptome, der EuroQoL (EQ-5D) zur Erfassung der gesundheitsbezogenen Lebensqualität (HRQoL), eine visuelle Analogskala (VAS) zur Erfassung des allgemeinen Gesundheitszustandes, die revised Epilepsy Stigma Scale (rESS) zur Erfassung der wahrgenommenen Stigmatisierung und die Seizure Worry Scale zur Erfassung anfallsbezogener Sorgen. Insgesamt wurden 236 Teilnehmende (Durchschnittsalter: 39,3 Jahre, Spannweite: 18-77 Jahre, 51,7 % Frauen) in die Studie eingeschlossen. 205 (86,9 %) der Teilnehmenden konnten erneut im Langzeit Follow-up nach drei Monaten befragt werden. Eine der Teilnehmenden verstarb im Zeitraum des Follow-ups an SUDEP. Keines der validierten Instrumente zeigte zwischen den Zeitpunkten vor der Aufklärung und dem 3-Monats Follow-up eine Verschlechterung. Vor der Aufklärung hatten nur 27,5 % der Teilnehmenden von SUDEP gehört, und nur 9,3 % gaben an, diese Informationen von ihrer bzw. ihrem Neurolog*in erhalten zu haben. Nach der Aufklärung gaben mehr als 85 % der Teilnehmenden an, mit der SUDEP Aufklärung zufrieden oder sehr zufrieden zu sein. Drei Viertel der Teilnehmenden gaben an, durch die Aufklärung nicht oder überhaupt nicht belastet zu sein. Mehr als 80 % der Teilnehmenden befürworteten eine generelle SUDEP Aufklärung für alle Menschen mit Epilepsie. Bei dem 3-Monats Follow-up gab die Mehrheit der Teilnehmenden an, keine Verhaltensänderung vorgenommen zu haben, 24,8 % berichteten jedoch von starken Verhaltensänderungen.
Unsere Studie zeigt, dass eine SUDEP Aufklärung keine negativen Auswirkungen auf den allgemeinen Gesundheitszustand, die HRQoL, depressive Symptome, krankheitsbezogene Stigmatisierung oder Sorgen vor Anfällen hat. Insgesamt zeigte sich eine hohe Zustimmung zur SUDEP Aufklärung. Eine generelle SUDEP Aufklärung könnte sich zudem positiv auf die Compliance auswirken und das Mortalitätsrisiko senken. Eine SUDEP Aufklärung bietet allerdings keinen sicheren Schutz vor SUDEP.
Hintergrund und Ziele: Die Hämodialyse ist das am weitesten verbreitete Nierenersatztherapieverfahren und wird auch in den nächsten Jahren von immer mehr Patienten mit akutem und terminalen Nierenversagen beansprucht werden. Ein großlumiger, sicherer und komplikationsarmer Gefäßzugang ist essenziell für die Durchführung einer effizienten Hämodialyse. Während arterio-venöse Zugänge der klar präferierte Gefäßzugang zur chronischen Hämodialyse sind, eignen sie sich aufgrund ihrer Reifungsdauer nicht für Patienten mit akuter Dialysepflichtigkeit oder für Patienten mit untauglichen Gefäßeigenschaften. Für diese Patienten kann die Hämodialyse über einen Vorhofkatheter erfolgen. Die KDOQI Richtlinien (2019) empfehlen die präferierte Punktion der rechten Vena jugularis interna, jedoch muss für Patienten mit thrombosiertem oder obliteriertem Gefäßstatus die Verwendung neuer, unkonventionellerer Zugangswege erwogen werden, um die überlebenswichtige Hämodialyse zu ermöglichen. Ein solcher unkonventioneller Zugangsweg ist der erstmals 2006 von Betz et al. beschriebene Iliakalvenenkatheter, der während seines Beobachtungszeitraums von 1.500 Kathetertagen initial die Sicherheit und Effektivität des Verfahrens vermuten ließ.
Die vorliegende Arbeit stellt eine retrospektive Analyse des Langzeitverlaufs von 95 Iliakalvenenkathetern zur Hämodialyse dar, die in den Jahren 2004 bis 2022 im Universitätsklinikum Frankfurt implantiert wurden. Der nun deutlich längere kumulative Beobachtungszeitraum von 20.252 Tagen soll beurteilen, ob sich die ursprünglich durch Betz et al. beschriebenen Ergebnisse auch im Langzeitverlauf bestätigen und soll weiterführend einordnen, inwieweit der Iliakalvenenkatheter als Option des Zugangsweges zur chronischen Hämodialyse für Patienten mit schwierigem Gefäßstatus in Betracht gezogen werden kann.
Patienten und Methoden: Das Patientenkollektiv bestand aus 79 Patienten (49 Männer und 30 Frauen) eines breiten Altersspektrums zum Zeitpunkt der Implantation (27 bis 84 Jahre), die während des Beobachtungszeitraums einen oder im Verlauf mehrere Dialysekatheter über eine der Iliakalvenen implantiert bekamen. Insgesamt wurden 95 Iliakalvenenkatheter erfasst und im Hinblick auf ihre Liegedauer, Komplikationsraten und Dialyse-Effektivität evaluiert.
Die Datenerhebung erfolgte aus den archivierten Patientenakten und Dialyseprotokollen des Universitätsklinikums Frankfurt und ergänzend mittels Datenanforderung von weiterbehandelnden Zentren, Praxen und Kliniken.
Ergebnisse: Der Iliakalvenenkatheter kam bei einem speziellen Patientenkollektiv zum Einsatz, welches oftmals bereits eine lange nephrologische Krankheitsgeschichte (im Durchschnitt erfolgte die Implantation 895,5 Tage nach der primären Andialyse), mehrere gescheiterte Gefäßzugänge 3,01(±2,97) und keine Alternativen eines sicheren konventionellen Gefäßzugangs zur Hämodialyse aufwiesen. Die Katheter-Anlage verlief bei 98,96% der Implantationsversuche erfolgreich. Alle erfolgreichen Anlagen verliefen komplikationslos. Die durchschnittliche Katheter-Liegedauer betrug 853,7 (± 162,87) Kathetertage und die primary patency der Katheter lag im Mittelwert bei 507,60 (±58,33) Tagen. Die Gesamt-Infektionsrate der Iliakalvenenkatheter lag bei 0,69/1.000 Kathetertage und eine Katheter-Dysfunktion war in acht Fällen der Grund der Katheter- Entfernung (8,4%). Die durchschnittliche Urea Reduction Rate betrug 68,9% (± 7,1). Es bestand kein statistisch signifikanter Zusammenhang zwischen Alter (p=0.37), Geschlecht (p=0,61), BMI (p=0.97) oder Seitenlage des Katheters (p=0.22) und der Katheter-Liegedauer. Im Verlauf erfolgte bei drei Patienten eine erfolgreiche Nierentransplantation.
Schlussfolgerungen: Die Implantation des Iliakalvenenkatheters hat eine hohe Erfolgsrate, ein niedriges Komplikationsrisiko, ist technisch leicht zu erlernen und bedarf keiner aufwendigen interventionellen Rahmenbedingungen. Auch im Verlauf zeigt sich ein Komplikationsprofil, das in Bezug auf Katheter-Infektionen, Katheter-Dysfunktion, Katheter-Thrombosen und Komplikations-bedingten Explantationen den etablierten Zugangswegen mindestens gleichwertig ist. Außerdem konnte gezeigt werden, dass der Iliakalvenenkatheter eine lange Komplikations-freie Liegedauer hat und in Einzelfällen auch über mehrere Jahre hinweg eine suffiziente Hämodialyse gewährleisten kann. Geäußerte Bedenken, nach welchen eine spätere Nierentransplantation nicht möglich sei, konnten ausgeräumt werden. Des Weiteren beschreibt die vorliegende Studie erstmalig den Langzeitverlauf des Iliakalvenenkatheters bei einem Patientenkollektiv eines breiten Altersspektrums und zeigte auch die altersunabhängige Eignung des Zugangsweges.
Bei über der Hälfte der Patienten mit einer operationsbedürftigen MI liegt gleichzeitig eine Insuffizienz der TK vor. In den meisten Fällen handelt es sich hierbei um eine funktionelle Insuffizienz welche aus einer RV-Pathologie, bedingt durch eine Volumen- oder Druckbelastung resultiert. In der Vergangenheit bestand die Überzeugung eine konservative Behandlung der TI sei ausreichend und nach Beheben der ursächlichen Grunderkrankung sei diese selbstlimitierend. Neuere Studien konnten jedoch belegen, dass eine bestehende TI auch nach operativer Versorgung einer ursächlichen LV-pathologie keine ausreichende Rückbildungstendenz aufweist, sondern im Verlauf sogar noch progredient ist. Die persistierende TI führt zu einer deutlich erhöhten Morbidität und Mortalität. Ist eine zweizeitige Operation an der TK im Verlauf erforderlich, so ist die Früh- und Spätmortalität deutlich erhöht und die Langzeitergebnisse sind schlecht. Diese Ergebnisse haben dazu geführt, dass die Indikation zur operativen Versorgung der TI ≥ 2 zu einem früheren Zeitpunkt und weniger restriktiv gestellt wird. Jedoch weisen die aktuellen ESC/EACTS-Guidelines insbesondere hinsichtlich der Versorgung einer TI < 2 nur einen niedrigen Evidenz-Grad auf, der richtige Operationszeitpunkt bleibt weiterhin umstritten. Der Grund für eine eher zurückhaltende Einstellung ist vor allem die Angst vor einer erhöhten Morbidität und Mortalität durch den additiven Eingriff. Zudem sind kaum Studien zu einer operativen Versorgung einer TI < 2 vorhanden. Ziel der vorliegenden Arbeit war daher der Gewinn weiterer Erkenntnisse, dieses bis dato kaum untersuchten Patientengutes, insbesondere hinsichtlich der peri- und postoperativen Mortalität, sowie der Auswirkungen der prophylaktischen TKR im Langzeitverlauf. Im Rahmen dieser monozentrischen, prospektiven Studie wurden 264 Patienten eingeschlossen, welche sich im Zeitraum von 2009 bis 2015 einer TKR im Rahmen einer MKR an der Klinik für Thorax- Herz- und thorakaler Gefäßchirurgie des Universitätsklinikums Frankfurt am Main unterzogen. Das Patientenkollektiv wurde nachfolgend in zwei Gruppen unterteilt, nach dem Schweregrad der präoperativ bestehenden TI in eine „prophylaktische” pTKR-Gruppe bei einer TI < 2 und eine „therapeutische” tTKR-Gruppe bei einer TI ≥ 2. Primärer Endpunkt war die Erfassung der Früh- und Spätmortalität. Sekundäres Endziel war die Untersuchung des postoperativen Verlaufes der TI, sowie der Verlauf der kardialen Funktion. Die 30-Tages-Mortalität betrug 12% in der pTKR-Gruppe und 17% in der tTKR-Gruppe. Der wichtigste Einflussfaktor war die EKZ-Dauer. Der Unterschied zwischen den beiden Gruppen war statistisch nicht signifikant. Im Vergleich zu anderen Studien zeigte sich eine höhere 30-Tages-Mortalität, jedoch handelte es sich bei diesen zumeist um einen isolierten Eingriff an der Mitralklappe, mit einer deutlich kürzeren EKZ. Hinsichtlich der Gesamtmortalität zeigte sich ein 1-, 5- und 7-Jahres-Überleben in der pTKR-Gruppe von 81%, 66% und 56%, sowie 65%, 52% und 41% in der tTKR-Gruppe. Die höhere Gesamtmortalität dieser Studie im Vergleich zu anderen Arbeiten ist durch das deutlich ältere und multimorbide Patientenkollektiv erklärt. Bei dem Vergleich von Patienten, welche im Rahmen dieser Studie eine prophylaktische TKR erhielten gegenüber den Patienten, bei welchen im Rahmen von Vergleichsarbeiten bewusst auf eine TKR verzichtet wurde (NTKR-Gruppe), zeigte sich ein verbessertes Langzeitüberleben der pTKR-Gruppe. Bei den Arbeiten, bei welchen kein Überlebensvorteil unserer pTKR-Gruppe, gegenüber deren NTKR-Gruppe gezeigt werden konnte, zeigten sich dennoch positive Effekte der begleitenden Klappenoperation. Die erhöhte Frühsterblichkeit dieser Arbeit ist dem Umstand geschuldet, dass durch die zur Indikationsstellung herangezogenen Risikofaktoren ein Hochrisikokollektiv selektioniert wurde, mit einer konsekutiv erhöhten Sterblichkeit auch abhängig vom Ausmass der TI. Bereits in der Vergangenheit konnte eine Verbesserung des Langzeitüberlebens durch die Durchführung einer TKR bei einer TI ≥ 2, gegenüber dem Verzicht auf diese nachgewiesen werden. Anhand des Vergleiches von anderen Arbeiten mit der vorliegenden Arbeit konnte dieser Überlebensvorteil auch für die Durchführung einer pTKR bei einer TI < 2 gezeigt werden. Zudem konnte dargelegt werden, dass es sich bei der begleitenden pTKR um eine effektive und dauerhafte Methode zur Vermeidung einer Klappeninsuffizienz handelt. Somit konnte gezeigt werden, dass auch bei Patienten mit einer TI < 2 eine additiven TKR die Entwicklung einer späten TI verhindert.
Hintergrund: Bei steigender Lebenserwartung ergibt sich in Zukunft eine steigende Prävalenz der degenerativen Aortenklappenstenose (AS). Die Transkathether-Aortenklappenimplantation (TAVI) erfährt immer größere Bedeutung in der Behandlung der symptomatischen, hochgradigen AS. Eine paravalvuläre Leckage (PVL) ist ein anerkannter Risikofaktor für eine erhöhte Mortalität und sollte periinterventionell adäquat erkannt und behandelt werden. Eine Postdilatation als typische korrigierende Intervention (CI) kann allerdings zu schwerwiegenden Komplikationen führen. Weitere Instrumente zur Entscheidung über die Notwendigkeit einer CI sind erstrebenswert. Für die Aortenregurgitationsindex-Ratio (ARI-Ratio) und für die präprozedurale Kalklast, gemessen mit der Mehrschicht-Computertomografie (MSCT), wurde gezeigt, dass beide prädiktiv sind für die Notwendigkeit einer periinterventionellen CI.
Ziele: Die ARI-Ratio und der Kalkstatus wurde in Hinblick auf ihren prädiktiven Wert für die Notwendigkeit einer CI miteinander verglichen.
Methoden: Von 199 Patienten nach TAVI erhielten 38,9 % eine Portico™, 29,5 % eine Symetis Acurate™, 21,5 % eine Sapien 3™ und 10,1 % eine Evolut™. Es wurde retrospektiv der postinterventionell erhobene systolische (SB), diastolische (DB) und linksventrikuläre enddiastolische Blutdruck (LVEDP) im ARI zusammengefasst: [(DBP - LVEDP) / SBP] × 100. Die ARI-Ratio wurde berechnet als Quotient zwischen ARI nach und vor dem Eingriff. Des Weiteren wurden die MSCTs mittels „3mensio Structural Heart“ analysiert insbesondere in Hinblick auf die Verkalkung des linksventrikulären Ausflusstrakts, der Aortenklappe (gesamt sowie der einzelnen Taschen) und des sinotubulären Übergang. Dabei wurde der Kalzium-Volumen-Score auf Basis drei verschiedener Thresholds benutzt (500 Hounsfield Einheiten (HU), 800 HU und visuell-individuell). Im Folgenden wurden ROC-Kurven für den ARI-Ratio und für die verschiedenen Kalklastparameter erstellt um die Notwendigkeit einer CI zu beurteilen. Schließlich wurde die Area under the curve (AUC) der ARI-Ratio mit denen der Kalklastsurrogatparameter verglichen.
Ergebnisse: Die ARI-Ratio zeigte mit einer AUC von 0,747 das beste Ergebnis. Bei den Verkalkungsparametern zeigte die Verkalkung der noncoronaren Aortenklappentasche die beste AUC, nachfolgend die der gesamten Aortenklappe. Der 800-HU-Threshold zeigte bessere AUCs als 500 HU. Von 19 Verkalkungssurrogatparametern zeigten elf einen statistisch signifikanten Vorhersagewert auf. Die ARI-Ratio zeigte eine signifikante Überlegenheit gegenüber sechs dieser Parameter. Für die fünf Verbliebenen konnte kein signifikanter Unterschied nachgewiesen werden.
Schlussfolgerung: Die ARI-Ratio ist ein besserer Prädiktor für die Notwendigkeit einer CI als die Kalzifikationsparameter. Auch diverse Kalzifikationsparameter haben diesbezüglich eine Aussagekraft. Die Kalzifikationsparameter können bereits präinterventionell beurteilt werden können, die ARI-Ratio nur periinterventionell. Es sollte neben der Anschauung von bereits etablierten Methoden ein integrativer Ansatz gewählt werden, der Kalklast und ARI-Ratio für die Entscheidung zur Notwendigkeit einer CI miteinschließt. Weitere Studien zur Standardisierung der Verkalkungsparameter sind notwendig für eine weitere Einordnung deren Vorhersagekraft. Es bestanden teils erhebliche Unterschiede zwischen den verwendeten Klappenprothesentypen. Weitere Studien mit einer größeren Anzahl an verschiedenen Prothesentypen könnten richtungsweisende Subgruppenanalysen möglich machen.
Neuroendokrine Tumoren (NET) sind eine seltene Krankheit mit einem breitgefächerten heterogenen Erscheinungsbild, wodurch sich die Diagnose der Tumoren aus einer Vielzahl aus Gründen häufig um Jahre verzögert (1). In dieser Arbeit analysierten wir einen großen Datensatz in einem tertiären Referenzzentrum (UKF) von 1984-2019, um die Symptomatik vor der Diagnose des Tumors sowie den Zeitraum von der Tumormanifestation bis zur Diagnose weiter zu klären. Für die deskriptiven Analysen kamen SPSS, Cox-Regression und Log-Rank-Test zur Anwendung.
Insgesamt schloss die retrospektive Studie 488 gastroenteropankreastische (GEP)-NET mit 486 Patienten ≥ 18 Jahren ein, wovon knapp mehr als die Hälfte männlich (52,9%) waren. Das mittlere Alter bei Erstdiagnose (ED) betrug 58 Jahre (477/486, 9 unbekannt). Die häufigsten Primärtumorlokalisationen stellten Pankreas (143/488 Patienten) und Dünndarm (145/488 Patienten) dar. Die Mehrheit der NET waren langsam wachsende G1-Tumoren mit einem Ki67 < 3% (155/330). Die Hälfte der Patienten entwickelten im Verlauf Fernmetastasen, wobei die meisten bereits bei der ED vorlagen und insbesondere die Leber als Metastasierungsorgan dominierte. Bei mehr als 60% der Patienten konnten Angaben zur klinischen Symptomatik vor der ED detektiert werden, wovon wiederum mehr als die Hälfte symptomatisch waren. 42% der symptomatischen Patienten zeigten NET-spezifische Symptome (Bauchschmerzen 77/128; 60,2%, Durchfall 51/128; 39,8%, Flush 19/128; 14,8%, Karzinoidsyndrom 8/128; 6,3% Tachykardie 6/128; 4,7%). In der primären bildgebenden Diagnostik dominierten konventionelle Bildgebungen wie Sonographie und Computertomographie (CT), wobei nuklearmedizinische Diagnostik eine Seltenheit darstellte. Mehr als 30% der Tumoren wurden als Zufallsbefunde im Rahmen einer bildgebenden Diagnostik oder Operation diagnostiziert. Die Mehrheit der Patienten stellte sich initial außerhalb unserer Klinik vor, nur etwa 15% wurden innerhalb unserer Klinik insbesondere in der Gastroenterologie vorstellig, wo der NET diagnostiziert wurde.
Die Phase von der Tumormanifestation bis zur ED aller NET betrug im Median 17 Tage. Das Vorhandensein von Fernmetastasen sowie Symptomen führte zu keiner signifikanten Kürzung der Phase und einer schnelleren ED des NET (Median 65,5 vs. 90 Tage, p = 0,4).
Hintergrund: Der Rettungsdienst versorgt täglich viele Patient/-innen in unterschiedlichen Umgebungen und ist damit auch potentieller Überträger nosokomialer Infektionen. Zur Händehygiene, als entscheidende Säule der Infektionsprophylaxe, liegen bislang nur wenige Daten aus dem Rettungsdienst vor.
Methoden: Prospektive multizentrische Studie mit Fragebogen zur Selbst- und Fremdeinschätzung der Compliance und beeinflussender Faktoren (abgeleitet von der WHO Perception Survey for Health-Care Workers) sowie direkte Compliance-Beobachtung nach WHO-Standard bei Rettungsdienstpersonal zweier Berufsfeuerwehren in Deutschland.
Ergebnisse: Es wurden 207 Fragebögen eingereicht und während ca. 66h Beobachtungszeit wurden 674 Händedesinfektionsgelegenheiten protokolliert. Der präventive Effekt der HH wurde allgemein von den Mitarbeitenden anerkannt. Die Selbsteinschätzung (MW: 80%) und beobachtete Compliance-Rate (38%) zeigten eine deutliche Diskrepanz und die Compliance variierte zwischen den verschiedenen Indikationen. Besonders niedrig zeigte sich die Compliance rund um die Durchführung aseptischer Tätigkeiten. Hier zeichnete sich ein geringes Risikobewusstsein für nicht sichtbare Verunreinigungen ab. Hürden für die Umsetzung der Händehygiene stellten vor allem die Vorrangigkeit anderer Maßnahmen, Unterbrechung des Arbeitsablaufes und Zeitmangel dar.
Schlussfolgerungen: Die beobachtete Compliance-Rate im Rettungsdienst lag unterhalb der innerklinischen Durchschnittswerte. Insbesondere die Compliance im Rahmen aseptischer Tätigkeiten muss dringend gesteigert werden. Dies erfordert einen multimodalen Lösungsansatz, der die Optimierung der Ausbildung, Algorithmen, Materialverfügbarkeit und Praktikabilität der Händedesinfektion im Rettungsdienst beinhaltet.
Diese Versuchsreihe beschäftigte sich mit der Fragestellung, ob günstige Handelsmarken- Zigaretten mehr Feinstaub als teure Markenzigaretten emittieren. Dabei wurde der Passivrauch untersucht, welcher durch das Verrauchen verschiedener Zigarettenmarken entstand. Feinstaub stellt heutzutage den wichtigsten einzelnen gesundheitsschädlichen Faktor in Innenräumen dar. Das Augenmerk liegt dabei hauptsächlich auf den feinen Partikeln (PM2,5, PM1). Tumore, chronische Atemwegserkrankungen und eine erhöhte Mortalität stellen nur einen Teil der massiven gesundheitlichen Folgen durch Feinstaub dar. Vulnerable Bevölkerungsgruppen wie Kinder und alte Personen sind besonders durch Passivrauch gefährdet. Die Ergebnisse der Versuchsreihe dienen als Grundlage, um den gesundheitsschädlichen Einfluss des Passivrauchs zu interpretieren. Günstige Handelsmarken-Zigaretten weisen, unter anderem wegen des beständig ansteigenden Zigarettenpreises als auch der anhaltenden Inflation in Deutschland, einen wachsenden Marktanteil auf. Daher müssen sie auch weiterhin in wissenschaftlichen Untersuchungen mit einbezogen werden.
Drei teure sowie drei günstige Zigarettenmarken wurden miteinander und mit der Referenzzigarette 3R4F der Universität Kentucky verglichen. Zu den teuren Marken zählten Marlboro, Camel und Nil. Die günstigeren Handelsmarken-Zigaretten waren Giants, Goldfield und Jakordia. Die Rauchpumpe „Automatic environmental tobacco smoke emitter“ (AETSE) ermöglichte in einem definierten Raum der abgeschlossenen Rauchkammer, Passivrauch zu erzeugen, ohne die menschliche Gesundheit zu gefährden. Ein standardisiertes Rauchprotokoll garantierte dabei reproduzierbare und vergleichbare Ergebnisse. Das Laser Aerosolspektrometer (LAS) Modell 1.109 der Firma Grimm wies eine Messspanne von 0,25 μm bis 32 μm auf. So konnte der Feinstaub gemessen und gruppiert werden. Obwohl der Versuchsaufbau nicht vollkommen realitätsgetreu war, entstand ein adäquater Vergleich der Feinstaubemissionen von (Handels-)Markenzigaretten.
PM10 und PM2,5 wurden erhoben, weil sie die von der EU und WHO standardisierten Messwerte für die Luftverschmutzung durch Feinstaub sind. Die Messung von PM1 rechtfertigt sich durch die stärker gesundheitsschädigende Komponente von Partikeln dieser Größenordnung. Für diese drei Größenfraktionen wurden die mittlere Konzentration Cmean sowie die Area Under The Curve (AUC) ermittelt. Die AUC stellt dabei die Höhe der Gesamtexposition durch Feinstaub dar.
Die Ergebnisse dieser Versuchsreihe zeigen, dass PM1 den größten Anteil der Feinstaubemission der getesteten Zigaretten ausmachte. Alle Zigarettenmarken haben in einem abgeschlossenen Raum Feinstaubmengen in gesundheitsgefährdender Menge produziert. Die Handelsmarke Jakordia emittierte beim Verrauchen generell weniger Feinstaub als alle anderen Zigarettenmarken. Im Allgemeinen konnte kein Unterschied zwischen den günstigen Handels- und den teuren Markenzigaretten festgestellt werden. Es ist wissenschaftlich belegt, dass sich jede Feinstaubkonzentration negativ auf die Gesundheit auswirkt. Die Ergebnisse können dementsprechend in Gänze unter dem Gesichtspunkt der Gesundheitsschädlichkeit eingestuft werden.
Aufgrund veralteter und unspezifischer, beziehungsweise fehlender Angaben zu den Inhaltsstoffen der einzelnen Zigarettensorten, konnte die Ursache der Unterschiede zwischen Jakordia und den anderen Marken nicht geklärt werden. Die Zigarettenhersteller müssen verpflichtet werden, die detaillierten Zusammensetzungen der Tabakprodukte den Behörden wie dem BMEL oder dem Bundesgesundheitsministerium zugänglich zu machen. Dies wäre ein wichtiger Bestandteil für die zukünftige Forschung und Risikobewertung der verschiedenen Inhalts- und Zusatzstoffe.
Resilienz als Schutzfaktor vor der Entwicklung psychischer Erkrankungen ist angesichts der zunehmenden gesellschaftlichen Belastung durch chronischen Stress und stressassoziierte Folgeerkrankungen ein hochaktuelles Forschungsthema. Obwohl bereits zahlreiche Erhebungen zur Resilienz existieren, herrscht kein Konsens über die konkrete Operationalisierung des Konzepts. In der Folge differieren vorliegende Studienergebnisse stark voneinander, sind nur schwer miteinander vergleichbar und fraglich auf die Gesellschaft zu übertragen. Die vorliegende Arbeit untersucht daher, ob Haarcortisol einen geeigneten Biomarker in der Resilienzforschung darstellt und einen Beitrag zur Vereinheitlichung und Objektivierung dieses Forschungsgebietes leisten kann.
Zur Beantwortung dieser Frage wurde auf die Daten des aktuell laufenden Langzeitforschungsprojekts „Longitudinal Resilience Assessment“ der Universitätskliniken Frankfurt und Mainz aus den Jahren 2017 bis 2019 zurückgegriffen. Alle Proband*innen der psychisch gesunden Stichprobe (N= 192, 18-50 Jahre) füllten zu insgesamt drei Erhebungszeitpunkten nach Studieneinschluss und im Abstand von je drei Monaten Onlinefragebögen zur Ermittlung der aktuell vorherrschenden Stressexposition, der allgemeinen psychischen Gesundheit sowie des subjektiven Stresserlebens aus. Gleichzeitig fand die Entnahme von Haarproben für die Analyse der Haarcortisolkonzentration statt. Zum Studieneinschluss erfolgte ergänzend die Erhebung der Traumatisierung und negativen Erfahrungen im Kindesalter.
Mittels linearer multivariater Regression wurde ein Effekt möglicher anthropometrischer und soziodemographischer Einflussfaktoren auf die Cortisolkonzentration im Haar ausgeschlossen. Ferner wurde die Auswirkung der Lagerungszeit auf die Höhe der Cortisolwerte im Haar untersucht. Es zeigte sich, dass Haarproben mit einer kürzeren Lagerungszeit signifikant höhere Cortisolwerte aufwiesen als solche mit einer längeren Lagerungszeit. Die Stabilität der Cortisolkonzentrationen über die einzelnen Messzeitpunkte hinweg erwies sich dabei insgesamt nur als mäßig hoch. Zur Untersuchung des Zusammenhangs zwischen subjektivem und objektivem Stress, Traumatisierung und negativen kindlichen Erfahrungen, allgemeiner psychischer Gesundheit, Resilienz und HCC wurden Spearman-Rang-Korrelationen angewandt. Auch hier ließen sich keine statistisch signifikanten Zusammenhänge feststellen. Dennoch konnten bei Personen mit einer Veränderung des Stressniveaus während des Beobachtungszeitraumes eine insgesamt deskriptiv erhöhte Stressexposition sowie statistisch signifikant höhere Mengen an Haarcortisol beobachtet werden. Bei weiteren explorativen Datenanalysen innerhalb einer kleinen Subpopulation der Studienstichprobe konnten während des Einwirkens eines intensiven spezifischen Stressors erhöhte HCC-Werte in Verbindung mit schlechteren psychischen Gesundheitsergebnissen gebracht werden.
Auf Grundlage dieser Arbeit lässt sich kein relevanter Einfluss verschiedener Stressvariablen auf die Cortisolkonzentration im Haar ableiten. Auch die individuelle Resilienz steht in keinem Zusammenhang zum HCC. Die Ergebnisse der explorativen Untersuchungen deuten in Zusammenschau mit einer mäßig hohen Stabilität des HCC jedoch darauf hin, dass Haarcortisol ein veränderungssensitiver Biomarker sein kann. Bei intensiver spezifischer Stresseinwirkung steht es in Zusammenhang mit schlechteren Gesundheitsergebnissen und damit indirekt mit der individuellen Resilienz. In zukünftigen Arbeiten sollte untersucht werden, auf welche Weise die Höhe des Haarcortisols Hinweise auf die Auswirkungen einer spezifischen Stressexposition und damit auf den psychischen Gesundheitszustand eines Individuums liefern kann, um so Risikogruppen identifizieren und diese durch frühzeitige Interventionen vor der Entwicklung psychischer Erkrankungen schützen zu können.
In dieser retrospektiven Studie wurden 47 Patienten mit einem histologisch nachgewiesenen Analkarzinom und im Anschluss aufgetretenen Rezidiv nach Beendigung der Radiochemotherapie und hinsichtlich der Risikofaktoren für das tumorfreie, sowie das Gesamtüberleben ausgewertet.
Auffällig in dieser Patientenkohorte war der hohe Anteil an männlichen Patienten (68,1 %), an HIV-positiven (36,2 %) sowie an Patienten mit nachgewiesenem Lymphknotenbefall bei Erstdiagnose (72,3 %).
Als signifikante Risikofaktoren für das tumorfreie Überleben wurden ein Primärtumor ab ≥ T3-Kategorie (Hazard-Ratio 1,87), ein Karnofsky-Performance-Status ≤ 80 % vor Beginn der Radiochemotherapie (Hazard-Ratio 3,25), sowie das initiale fehlende therapeutische Ansprechen der Radiochemotherapie (Hazard-Ratio 5,9) festgestellt. Auffällig war, dass kein signifikanter Einfluss bzgl. des biologischen Geschlechts, des Gradings, der N Kategorie oder des Alters ermittelt werden konnte.
In Bezug auf das Gesamtüberleben der Patienten ergaben sich folgende signifikante Risikofaktoren: eine T-Kategorie ≥ T3 (Hazard-Ratio 4,091), ein hohes UICC-Stadium (Hazard Ratio 2,89 für Stadium IIIC), das fehlende initiale therapeutische Ansprechen der Radiochemotherapie (Hazard-Ratio 9,59), ein Karnofsky-Performance-Status ≤ 80 % (Hazard-Ratio 12,23). Ein protektiver Faktor stellte ein längeres tumorfreies Überleben (Hazard-Ratio 0,935) dar.
Die Auswertung des gesamten und des tumorfreien Überlebens hinsichtlich des Befallsmusters der Rezidive ergab, dass mit zusätzlich zum lokalen Rezidiv nachgewiesenem lokoregionären Rezidiv und Fernmetastasen sich sowohl das tumorfreie Überleben (Ein-Jahres-tumorfreies Überleben 52,9 ± 12,1 % vs. 15,0 ± 8,0 %) als auch das Gesamtüberleben (5-Jahres-Gesamtüberleben 75,0 ± 12,5 % vs. 0,0 %) signifikant verringerten.
Im Vergleich der Merkmale der Patienten mit und ohne nachgewiesenen Fernmetastasen ergab sich ein signifikanter Unterschied in Bezug auf den Anteil der Tumore ≥ T3 (75 %).
In der Untergruppe, die mittels abdominoperinealer Rektumexstirpation therapiert wurde, konnte kein signifikanter Unterschied in Bezug auf die rpT-Kategorie, R-Klassikfikation, Pn-, V- und L-Klassifikation festgestellt werden.
Background: Hepatectomy is a complex procedure with high morbidity and mortality.
Early prediction/prevention of major complications is highly valuable for patient care.
Surgical APGAR score (SAS) has been validated to predict post-surgical complications (PCs).
Goal: We aimed to define a simple complications classification following hepatectomy based on a therapy-oriented severity Clavien-Dindo classification (CDC).
Methods: 119 patients undergoing liver resection were included. PCs were determined at follow-up based on CDC. Clinicopathological factors were used to calculate SAS. A receiver-operator characteristic (ROC) curve analysis estimated the predictive value of SAS for PCs. Circulating markers levels of liver injury were analyzed as critical elements on PCs.
Results: SAS (P=0.008), estimated blood-loss (P=0.018) and operation time (P=0.0008) were associated with PCs. SAS was reduced in patients with (+) compared to those without (-) complications (6.64±1.84 vs 5.70±1.79, P=0.0079). The area-under-the-curve was 0.646 by ROC, indicating an acceptable discrimination with 65% possibility to distinguish (-) and (+) groups (P=0.004).
Best cutoff value for SAS was ≤6/≥7, at which sensitivity and specificity were maximal.
ALT/ASL levels were significantly different within the group with 9-10 SAS points (P=0.01 and 0.02).
Conclusion: SAS provides accurate risk stratification for major PCs after hepatectomy, and might help improving the overall patient outcome.
Lungensonographie bei Patienten mit HIV und AIDS
Ziele und Methoden: Vor dem Hintergrund mehrerer retrospektiven Studien und Fallserien zur Anwendung des Lungenultraschalls zur Diagnose HIV-assoziierter Lungenerkrankungen führten wir eine prospektive Studie in der Abteilung für Infektiologie am Klinikum der Goethe-Universität Frankfurt durch. Wir schlossen hierbei Patientinnen und Patienten ein, bei denen durch konventionelle Diagnostik eine Lungenerkrankung nachzuweisen oder auszuschließen war, und führten zeitnah zur konventionellen Diagnostik verblindete Ultraschalluntersuchungen durch. Diese wurden zudem verblindet von zwei weiteren Ultraschalluntersuchern reevaluiert, basierend darauf wurde die Interrater-Reliabilität zwischen den drei Befunden errechnet. Die konventionell-radiologischen Untersuchungen wurden verblindet von einem weiteren Radiologen befundet.
Ergebnisse: Wir untersuchten 80 HIV-positive Patienten, von denen 54 nachweislich eine pulmonale Erkrankung hatten. Die häufigsten Diagnosen waren Pneumocystis jirovecii-Pneumonien (21 Fälle), bakterielle Pneumonien (17 Fälle) und andere Diagnosen (16 Fälle). Die Lungenultraschalluntersuchungen zeigten bei 90.7% der Patienten mit pulmonaler Diagnose und bei 34.5% der lungengesunden Patienten Auffälligkeiten. Die CT-Untersuchungen fanden Pathologien in 97.5% der Erkrankten und 27.3% der Gesunden. Röntgenuntersuchungen zeigten bei 78.1% der Erkrankten und bei 25% der Gesunden pathologische Befunde. Die häufigsten Pathologien in allen Modalitäten waren interstitielle Veränderungen. Diese zeigten in der Lungenultraschalluntersuchung keinen signifikanten Unterschied zwischen den verschiedenen Lungenerkrankungen, waren jedoch signifikant häufiger als bei Patienten ohne Lungenerkrankung. Konsolidierungen und Pleuraergüsse waren im Lungenultraschall zwar häufiger bei Erkrankten, aber nicht signifikant gegenüber den Gesunden. Die Interrater-Reliabilität des Lungenultraschalls war hoch für interstitielle Pathologien (ICC=0.82) ohne nennenswerte Änderungen im Studienverlauf (r=-0.11), und niedriger bei Konsolidierungen und Ergüssen (jeweils κ=0.12) mit positivem Zusammenhang zur Studiendauer (r=0.88 für Konsolidierungen, r=0.37 für Ergüsse).
Diskussion: Lungenerkrankungen sind bei HIV-Patienten im Ultraschall am häufigsten durch interstitielle Pathologien nachzuweisen, diese allein erlauben allerdings keine Unterscheidung zwischen verschiedenen Erkrankungen. Die Sensitivität der Ultraschalluntersuchung ist geringer als die der Computertomographie, jedoch höher als die Sensitivität des Röntgens. Interstitielle Pathologien werden bereits nach kurzer Lernphase reliabel identifiziert. Konsolidierungen und Ergüsse waren seltenere Befunde, und scheinen eine längere Lernphase zu benötigen, da die Interrater-Reliabilität im Verlauf der Studie ansteigt. In allen Modalitäten zeigten auch gesunde Patienten bildgebend Auffälligkeiten, was den positiv prädiktiven Wert bei niedrigerer Prävalenz negativ beeinflussen kann.
Lungensonographie bei Patienten mit COVID-19
Ziele und Methoden: Im Rahmen der seit Ende 2019 andauernden COVID-19 Pandemie boten sich die erlernten Sonographiekenntnisse für die bettseitige Diagnostik dieser neuen Lungenerkrankung an. Aufgrund der Pathogenität des neuartigen Erregers wandten wir die Lungensonographie zur Diagnostik unter Isolationsbedingungen an, um Transporte für konventionelle Bildgebung zu reduzieren. Bettseitig durchgeführte Lungensonographien bei SARS-CoV-2-positiven Patientinnen und Patienten wurden mit durchgeführter konventioneller Bildgebung im Rahmen dieser retrospektiven Fallserie verglichen.
Ergebnisse: Die Ultraschalluntersuchungen von 17 Patientinnen und Patienten wurden ausgewertet, hiervon zeigten 14 Untersuchungen Pathologien. In neun Fällen wurden interstitielle Pathologien beobachtet, fünf dieser Fälle zeigten zusätzlich Konsolidierungen.
Drei Patienten hatten außer Konsolidierungen keine weiteren Pathologien. Pleuraergüsse wurden in drei Fällen beobachtet, Pleuraplaques bei einem Patienten. In 5 von 7 Fällen mit auffälligem Thorax-CT zeigte die Lungensonographie Pathologien. Die Lungensonographie zeigte in jedem Fall Pathologien, in dem auch das Röntgen auffällig war.
Diskussion: Diese Fallserie zeigt die Anwendung der Sonographie als bettseitige Lungendiagnostik unter Isolationsbedingungen. Interstitielle Pathologien und Konsolidierungen scheinen die relevantesten Hinweise auf eine pulmonale Beteiligung im Rahmen der COVID-19-Erkrankung zu sein. Wegen der geringen Fallzahl und des retrospektiven Designs ist die Aussagekraft dieser Substudie gering, jedoch zeigt sie die Umsetzbarkeit der Sonographie als bildgebendes Verfahren, wenn aufgrund notwendiger Isolationsmaßnahmen und hoher Fallzahlen konventionelle Bildgebung erschwert ist.
Das Ziel in der vorliegenden systematischen Literaturrecherche ist es, den aktuellen Stand des Wissens über die Erfolgsfaktoren von Einzelzahnimplantaten, bei denen eine Sofortbelastung auf den provisorischen Implantatkronen zum Antagonisten erfolgt, wiederzugeben. In diesem Rahmen wurden Zusammenhänge zwischen der Implantatüberlebensrate, der Primärstabilität, der Implantatregion, des Implantatdesigns und des Implantationszeitpunktes getrennt nach okklusalem Belastungsprotokoll (mit versus ohne antagonistische Okklusionskontakte auf den provisorischen Implantatkronen) und der postoperativen Verhaltensweisen der Patienten analysiert. Der Prozess der systematischen Literaturrecherche wurde nach den PRISMA-Guidelines für den Suchzeitraum von 2012 bis 2022 durchgeführt.
Um die Forschungsfrage zu beantworten, wurde eine qualitative Analyse in deskriptiver Form durchgeführt.
In den analysierten Studien, wurde am häufigsten ein Eindrehmoment von ≥ 35 Ncm als Kriterium für eine Sofortbelastung gewählt. Die meisten Implantate wurden in der Oberkieferregion 15 bis 25 inseriert. Bei den Implantatkronen mit antagonistischen Okklusionskontakten fielen die Überlebensraten insgesamt niedriger aus als in den Studien, in denen die Implantatkronen ohne antagonistische Okklusionskontakte eingegliedert wurden. Die Überlebensraten waren weitestgehend vergleichbar mit den Ergebnissen konventioneller Belastungsprotokolle. Die Datenlage anhand dieser Recherche spricht zurzeit für die Realisierung der Sofortbelastung von provisorischen Implantatkronen ohne antagonistische Okklusionskontakte in Verbindung mit postoperativen Verhaltensmaßnahmen.
Aktivierende Mutationen der Fms-like tyrosine kinase (FLT3) treten bei 25 % der Patienten mit akuter myeloischer Leukämie (AML) auf und begünstigen die unkontrollierte Proliferation maligner Blasten. Autophagie ist ein intrazellulärer Prozess, durch den zytoplasmatische Bestandteile lysosomal abgebaut werden und fungiert als intrazellulärer Homöostase-Mechanismus unter Stress-Bedingungen.
Ziel dieser Arbeit war es, herauszufinden, ob FLT3-ITD+-AML-Zellen vulnerabel gegenüber Autophagie-Hemmung sind.
Hierzu wurde zunächst untersucht, wie sich FLT3-ITD-Signaling und Autophagie unter basalen Wachstumsbedingungen gegenseitig beeinflussen. In einem genetischen Modell zeigte sich, dass FLT3-ITD-transformierte wachstumsfaktorunabhängige Zellen während ihrer fortgesetzten Proliferation vermehrt Autophagie betreiben. Lysosomale Autophagie-Inhibitoren zeigten jedoch unter diesen Bedingungen keine erhöhte Wirksamkeit gegenüber FLT3-ITD-positiven Zellen. Humane FLT3-ITD-positive AML-Zellen zeigten nach genetischer Deletion von ULK1 ebenfalls nur transiente und milde Proliferationsdefizite. Unter basalen Wachstumsbedingungen zeigte sich also keine erhöhte Vulnerabilität FLT3-ITD-exprimierender Zellen gegenüber Autophagie-Inhibition.
Daraufhin wurde die Bedeutung von Autophagie während pharmakologischer Hemmung von FLT3 untersucht. FLT3-Inhibition mittels AC220, einem FLT3-spezifischer Tyrosinkinase-Inhibitor, induzierte bzw. steigerte die autophagische Aktivität ähnlich stark wie eine direkte mTOR-Inhibition. Dies ließ sich im Zellmodell therapeutisch ausnutzen: eine Kombinationsbehandlung mit AC220 und einem lysosomalen Autophagie-Inhibitor zeigte eine synergistische antiproliferative Wirkung. Dies stellt möglicherweise einen neuen rationalen Kombinationsbehandlungsansatz für die Therapie FLT3-ITD-positiver AML-Patienten dar.
Die vorliegende Arbeit stellt eine auf datenwissenschaftlichen Methoden beruhende Analyse des aktuellen Wissens über mögliche kausale Zusammenhänge zwischen therapeutischen Morphinapplikationen mit Todesfällen dar, welche auf computergestützter Extraktion von Information aus frei verfügbaren Wissensdatenbanken und der Analyse der darin enthaltenen numerischen Information besteht. Die Relevanz der vorliegenden Analyse ergibt sich aus dem weltweit breiten Einsatz von Morphin zur Behandlung starker Schmerzen und der immer wieder vorkommenden Todesfälle während einer Morphintherapie, die regelmäßig zu Gerichtsverfahren mit den verschreibenden Ärzten als Angeklagte führen.
Morphin ist ein Opioid und zählt zu den starken Analgetika der WHO Stufe III. Bei der Applikation von Morphin kann es neben der gewünschten Analgesie auch zur Abflachung der Ventilation bis hin zum fatalen Atemstillstand kommen. In der Literatur wird die Inzidenz von Morphin-assoziierten Todesfällen mit 0,3 bis 4% angegeben. So kommt es in einigen Fällen auch zu strafrechtlichen Ermittlungen und Gerichtsverfahren mit dem Verdacht der vorsätzlichen Tötung oder sogar des Mordes. Die Frage, ob eine Morphinapplikation Ursache für den Tod eines Patienten war, ist nicht einfach zu beantworten, was mit einigen Besonderheiten von Opioid-Analgetika im Allgemeinen und von Morphin im Besonderen zusammenhängt. Für Morphin existieren z.B. keine genau definierten maximalen Dosen. Es wurden bisher lediglich Empfehlungen ausgesprochen, abhängig auch davon, ob ein Patient noch „opioid-naiv“ ist oder bereits Opioide einnimmt und damit ein Gewöhnungseffekt eingetreten ist, welcher neben der Analgesie die Gefahr des Atemstillstandes verringert. Grundsätzlich gilt immer, die Dosis so gering wie möglich und so hoch wie nötig zu halten. Die Dosis wird an die Schmerzintensität adaptiert, wobei nach keine maximal erlaubte Dosis existiert. Besonders bei terminal kranken Patienten ist die Kausalität zwischen therapeutischer Morphinapplikation und dem Tode oft fraglich, und es werden regelmäßig Gutachten eingeholt, die meistens von Rechtsmedizinern, Anästhesisten und klinischen Pharmakologen erstellt werden.
In diesen Gutachten müssen viele Faktoren, die die Wirkungen von Morphin bis hin zum letalen Ausgang beeinflussen können, diskutiert wurden, und die daher Hauptinhalt der vorliegenden Arbeit sind. Dazu gehören die verabreichten Morphindosen und die Konzentrationen von Morphin und seiner Metabolite im Blut, aber auch Charakteristika des Patienten, wie Alter, Vorerkrankungen wie z.B. Leber- oder Niereninsuffizienz, Komedikationen, oder pharmakogenetische Faktoren. Darüber hinaus spielt für die zeitliche Zuordnung einer Morphingabe mit dem Tode die verzögerte Verteilung Morphins an seinen Wirkort (das zentrale Nervensystem) eine wichtige Rolle.
Eine weitere Schwierigkeit, die sich bei Morphin-assoziierten Toden darstellt, ist die oft zur Debatte stehende verabreichte Morphindosis, die nachträglich aus den gemessenen Konzentrationen im Blut des Verstorbenen rekonstruiert werden soll, was oft nicht sicher möglich ist. Die postmortal gemessenen Konzentrationen von Morphin unterliegen relevanten Veränderungen aufgrund postmortaler Flüssigkeitsumverteilung oder des Zerfalls von Morphin, aber auch als Folge von Veränderungen während der Lagerung der Proben.
In unserer Analyse und Auswertung der vorhandenen Literatur zu diesen Themen kamen wir zu dem Ergebnis, dass es gegenwärtig praktisch sehr schwer ist, eine Morphindosis oder -konzentration sicher mit dem Tod eines Patienten in Verbindung zu bringen. Somit bleibt jeder Todesfall individuell und kontext-abhängig und erfordert die Berücksichtigung weiterer Aspekte bei der der strafrechtlichen Aufarbeitung. Zudem kamen wir zu dem Entschluss, dass angesichts dieser bereits seit langen bekannten Problemen mit Morphin und aber auch anderen Opioiden (siehe “opioid crisis” in den USA), die Entwicklung von sichereren stark wirksamen Analgetika als Ersatz für Opioide dringlich ist.
Das Prostatakarzinom ist in Europa die häufigste Krebserkrankung des Mannes. Im metastasierten, kastrationsresistenten Zustand gibt es wenige Therapieoptionen. Als neuere Therapiemöglichkeit hat sich in den letzten Jahren die Radioligandentherapie (RLT) mit 177Lu-PSMA-617 hervorgetan. Die Myelosuppression ist allerdings ein potentiell dosis-limitierender Faktor bei der Radioligandentherapie.
Ziel der vorliegenden Arbeit war es, das Auftreten, den Schweregrad und die Reversibilität von hämatotoxischen Nebenwirkungen in einer großen Patientenkohorte zu unter-suchen, die sich einer RLT mit 177Lu-PSMA-617 bei metastasiertem kastrationsresistentem Prostatakarzinom (mCRPC) unterzogen. Nach deskriptiver Analyse des behandelten Patientenkollektivs erfolgte die Identifikation von prädisponierenden Faktoren für das Eintreten von hämatologischen Nebenwirkungen. Dabei wurden insbesondere der Beitrag von Vortherapien, Behandlungsaktivität, Ausmaß der Knochentumorlast sowie eine prätherapeutisch bestehende Zytopenie berücksichtigt.
Die RLT wurde bei 140 Patienten durchgeführt, die insgesamt 497 Zyklen erhielten. Eine mittlere Aktivität von 6.9±1.3 GBq 177Lu-PSMA-617 pro Zyklus wurde in einem Median von 3 Behandlungszyklen verabreicht. Die mittlere kumulative Aktivität betrug 24.6±15.9 GBq. Hämatologische Parameter wurden bei Studienbeginn, vor jeder Behandlung, 2 bis 4 Wochen danach und während der gesamten Nachbeobachtung gemessen. Die Toxizität wurde anhand der Common Terminology Criteria for Adverse Events v5.0 eingestuft.
Dabei zeigten sich signifikante (Grad ≥3) hämatologische unerwünschte Ereignisse bei 13 Patienten (9.3%). Davon 10 mit Anämie (7.1%), 5 mit Leukopenie (3.6%) und 6 mit Thrombozytopenie (4.3%). Die Hämatotoxizität war bis zu einem medianen Follow-up von 8 Monaten bei allen bis auf zwei Patienten, die innerhalb von weniger als 3 Monaten nach der RLT an einer Krankheitsprogression starben, reversibel auf Grad ≤2. Die Myelosuppression war signifikant häufiger bei Patienten mit vorbestehender Zytopenie Grad ≥2 oder hoher Knochentumorlast (disseminiert oder diffus). Eine vorangegangene taxan-basierte Chemotherapie war ebenfalls mit einer erhöhten Inzidenz signifikanter Hämatotoxizität assoziiert, während die Behandlung mit 223Ra-Dichlorid, die kumulative RLT-Behandlungsaktivität und die Aktivität pro Zyklus nicht signifikant korreliert waren.
Die vorliegenden Ergebnisse zeigen somit, dass hämatologische Nebenwirkungen nach RLT eine akzeptable Gesamtinzidenz besitzen und häufig reversibel sind. Eine hohe Knochentumorlast, eine vorangegangene taxan-basierte Chemotherapie und eine Zyto-penie vor der Behandlung vom Grad ≥2 können als Risikofaktoren für die Entwicklung einer klinisch relevanten Myelosuppression angesehen werden, während die kumulative RLT-Aktivität und eine vorangegangene 223Ra-Dichlorid-Behandlung keinen signifikanten Beitrag zur Inzidenzrate zeigen. Die Fragestellung ist von unmittelbarer Relevanz, da die Erkenntnisse entscheidend für die individuelle Risikoeinschätzung von Patienten mit mCRPC bezüglich der 177Lu-PSMA-617 beitragen.
Ziel der Arbeit ist es die Eigenschaften und die Häufigkeit von Rezidiven der primär und sekundär therapierten Basalzellkarzinome der MKPG, insbesondere in Abhängigkeit der Lokalisation und des Resektionsstatus zu evaluieren und mit den Ergebnissen der Literatur zu vergleichen, um ein optimiertes chirurgisches Vorgehen zu sichern.
Herzkreislauferkrankungen führen weltweit weiterhin die Liste der häufigsten Todesursachen an. Dem frühzeitigen Erkennen kardialer Veränderungen kommt daher eine besondere Bedeutung zu. Das Erkennen subklinischer Veränderungen des Myokards mit Hilfe des myokardialen T1 Mappings und der Strain Analyse in der kardialen MRT mit der Bestimmung der Korrelation von T1 Mapping und Veränderung des myokardialen Strains war das primäre Ziel der vorliegenden Arbeit. Das native T1 Mapping sollte dabei diffuse kardiale Fibrose erkennen, während die Strainparameter zur Analyse der subtilen kardialen Funktion dienten. Wenn eine vermehrte diffuse Fibrose eine Einschränkung der myokardialen Funktion bedeutet, so müssten sich das native T1 Mapping und die Strainparameter gleichsinnig verändern.
Eingeschlossen in die Untersuchung wurden Patienten, die im Rahmen ihres Klinikaufenthaltes an der Kerckhoff-Klinik Bad Nauheim ein kardiales MRT erhielten und ihre Zustimmung zur Aufnahme in das geführte Register gaben. Alle durchgeführten MRT-Untersuchungen besaßen dabei eine medizinische Indikation. Die Untersuchung umfasste eine Blutentnahme sowie die Bildakquisition und das Ausfüllen eines Fragebogens. In der anschließenden Bildauswertung wurden das native T1 Mapping, eine Featuretrackinganalyse, sowie die reguläre diagnostische Beurteilung durch einen Facharzt durchgeführt. Die Patienten wurden anschließend nach ihren Diagnosen in Gruppen eingeteilt. Ein Jahr nach ihrer Untersuchung wurden die Patienten kontaktiert und erneut befragt, um den Anteil an „major adverse cerebro- and cardiovasculare events“ (MACCE) und der Gesamtsterblichkeit am Gesamtkollektiv festzustellen.
Es zeigten sich signifikante Zusammenhänge zwischen nativem T1 Mapping und den Strainparametern, ebenso wie signifikante Zusammenhänge von schwächerer Effektstärke zwischen ECV und den Strainparametern. Das erhöhte native T1 Mapping ging mit verringerten Strainparametern einher, was auf eine vermehrte Fibrose schließen lässt. In der Überlebensanalyse bezüglich des allgemeinen Überlebens zeigte sich nur das native T1 Mapping als unabhängiger Prädiktor, während bei den MACCE zusätzlich auch die Anzahl der betroffenen Segmente im „late gardolinium enhancement“ (LGE) einen unabhängigen Prädiktor darstellten. Der globale longitudinale Strain (GLS) verfehlte bezüglich der MACCE knapp das Signifikanzniveau, zeigte aber eine Tendenz zur Signifikanz.
Natives T1 Mapping und, in begrenztem Maße, möglicherweise auch der Strain haben eine besondere Rolle in der Diagnostik und können bereits früh kardiale Veränderungen detektieren. Da die erhöhten T1 Zeiten als Marker für morphologische Veränderungen mit den Strains als funktionelle Parameter korrelierten, lässt sich spekulieren, dass Fibrose eine Einschränkung der Funktion bedingt.
Zur bisherigen Basisdiagnostik bei klinischem Verdacht eines PCa wird den aktuellen Leitlinien zufolge, neben einer fundierten Anamnese und körperlicher Untersuchung, die Bestimmung des PSA-Wertes gezählt. Seit nun mehr als zwei Jahrzehnten hat sich die PSA-Bestimmung zur Früherkennung, aber auch der Überwachung von Patienten mit bereits diagnostiziertem PCa bewährt. Ob die Bestimmung des PSA-Wertes die PCa-spezifische Mortalität adäquat widerspiegelt, wird allerdings in zahlreichen Expertenkreisen weiterhin kontrovers diskutiert. Anlässlich dessen soll die Erforschung neuer Biomarker dazu dienen, das Risiko eines aggressiven PCa gezielter zu erfassen und behandeln zu können. Die Arbeitsgruppe von Tsaur et al. hat in vorausgegangenen Studien auf das vielversprechende Potential von sE-Cadherin als möglichen Biomarker beim PCa hingewiesen [92]. Basierend darauf wurde in der vorliegenden Arbeit untersucht, wie sich das Serumprotein sE-Cadherin auf PCa-Zelllinien vor allem in Hinblick auf die Metastasierung des PCa am in vitro Modell auswirkt. Die Experimente erfolgten an den beiden Androgen-resistenten Zellen PC3 und DU145 sowie der Androgen-sensitiven Zelllinie LNCaP nach Behandlung mit sE-Cadherin. Unbehandelte Zellen dienten jeweils als Kontrolle. Die ersten Versuche beschäftigten sich damit, eine Arbeitskonzentration des sE-Cadherins zu etablieren, welche nachfolgend für alle weiteren Versuche genutzt werden konnte. Die Arbeitskonzentration von sE-Cadherin wurde auf 5 µg/ml festgelegt. Mithilfe des MTT-Assays wurde nachfolgend das Zellwachstum untersucht. Auswirkungen von sE-Cadherin auf den Zellzyklus der genannten PCa-Zelllinien wurden mithilfe der fluoreszenzaktivierten Zellanalyse (FACS) nach erfolgter Zell-Synchronisation evaluiert. Der Einfluss von sE-Cadherin auf die einzelnen Schritte der Metastasierung wurde durch Migrations- und Invasions- sowie Adhäsions-Versuchen an Zellmatrixproteinen (immobilisiertes Kollagen und Fibronektin) untersucht. Mithilfe der Durchflusszytometrie konnte die Beeinflussung von sE-Cadherin auf die Integrinoberflächenprofile analysiert werden. Zur Evaluation relevanter Signalwege erfolgten Western-Blot-Versuche, in denen der Expressionsstatus von Integrin-assoziierten Signalproteinen untersucht wurde. Blockade-Studien dienten der Überprüfung der funktionellen Relevanz einzelner Integrine. Die Behandlung der PCa-Zellen mit sE-Cadherin in der Konzentration von 5 µg/ml führte zur signifikanten Abnahme des Tumorwachstums. Die Zellzyklus-Analyse zeigte einen vermehrten Zell-Arrest in der G0/G1-Phase sowie Abnahme der S-Phase. Des Weiteren führte die sE-Cadherin-Applikation bei allen drei PCa-Zelllinien zur Abnahme der Adhäsionsfähigkeit an Kollagen und Fibronektin. Im Gegensatz dazu konnte gleichzeitig eine Erhöhung der chemotaktischen Bewegung beobachtet werden. Unter der sE-Cadherin-Behandlung kam es zur signifikanten Veränderung der Oberflächenprofile der Integrin-Subtypen α3 und β1. Dessen physiologische Relevanz konnte in Blockadestudien überprüft werden. Es zeigte sich, dass beide Subtypen, jedoch insbesondere β1, in die Adhäsion und Chemotaxis involviert sind. Abschließend kann in Zusammenschau der Experimente und dessen Resultate geschlussfolgert werden, dass sE-Cadherin maßgeblich das Metastasierungspotenzial der verschiedenen Prostatakarzinomzellen steigert, indem es das Zellwachstum stagnieren lässt und gleichzeitig das Herablösen der Tumorzellen von der extrazellulären Matrix sowie den Anschluss an das Blut-/Lymphabflusssystem erleichtert.
IL-38 is the latest discovered cytokine of the IL-1 family and has been added to the IL-36 subfamily. Since its discovery in 2001, increasing evidence suggests predominantly anti-inflammatory properties of IL-38, which are most likely exerted through three potential receptors, the IL-1 Receptor 1 (IL-1R1), IL-36 Receptor (IL-36R) and the IL-1 Receptor Accessory Protein Like 1 (IL-1RAPL1). However, to this date detailed knowledge of IL-38 functioning remains to be examined. Importantly, how IL-38 is processed, secreted from cells and the exact mechanisms of target receptor binding and intracellular signaling are not fully understood. Further, IL-38 has been associated with regulatory functions in autoimmune diseases like systemic lupus erythematosus (SLE) and psoriasis. At the same time however, connections between B cells as indispensable part of immunity and IL-38 remain rare.
In this study we examined the influence of IL-38 in peripheral human blood B cells differentiating into antibody secreting cells using a three-step in vitro differentiation process. We first show that all potential IL-38 binding receptors are present on peripheral blood B cells on a gene expression level and remain detectable throughout B cell differentiation. Next, while B cells treated with exogenous IL-38 depict no differences in early B cell activation markers, the process of B cell differentiation revealed significant alterations in B cell phenotype created by IL-38 treatment. Predominantly on day 7 of the differentiation process, IL-38 treated B cells showed significantly reduced CD38 expression which depicts an important step in development towards plasma cells. We hypothesize that IL-38 acts antagonistically on the IL-1R1 pathway reducing Nuclear factor kappa B (NFκB) expression and consequently decreasing CD38 expression. Further IL-38 reduced early antibody production while increasing IgM secretion at the end stages of differentiation. Next, we repeated the differentiation assays under the influence of additional IL-21 stimulation to further enhance plasma cell development. In these experiments, the impact of IL-38 on B cell differentiation and immunoglobulin production were reduced, indicating a comparatively moderate relevance of IL-38 for B cell differentiation. We then examined how proliferation and cell death were impacted by exogenous IL-38 during B cell differentiation. IL-38 treatment alone significantly reduced B cell survival which was further augmented by IL-21 stimulation. We conclude that IL-38 and IL-21 act synergistically in promoting B cell apoptosis, also depicting an anti-inflammatory property of IL-38. Finally, using a siRNA we successfully performed an IL-38 knockdown experiment of human blood B cells reducing IL-38 expression to 44% measured on day 4 of B cell differentiation. In these experiments we observed reversed tendencies of CD38 expression compared to exogenous IL-38 treatment. Here, IL-38 knockdown cells showed increased CD38 expression indicating endogenous regulatory properties of IL-38 in B cell differentiation.
Our project, for the first time proves direct effects of IL-38 on human B cells. The results support previous research of IL-38 to act anti-inflammatory as it seems to modulate B cell differentiation, survival, and immunoglobulin production in a down-regulatory manner. These findings pave way for more detailed research on the connection between B cell homoeostasis and IL-38 function.