Refine
Year of publication
Document Type
- Doctoral Thesis (1390)
- Article (419)
- Part of Periodical (199)
- Conference Proceeding (106)
- Book (78)
- Contribution to a Periodical (69)
- Review (46)
- Working Paper (19)
- Part of a Book (9)
- Habilitation (6)
Language
- German (2346) (remove)
Has Fulltext
- yes (2346) (remove)
Is part of the Bibliography
- no (2346) (remove)
Keywords
- Deutschland (11)
- Diagnostik (11)
- Kongress (9)
- Medizinische Ausbildung (9)
- Epilepsie (8)
- Diagnostics (7)
- Immunological methods (7)
- Immunologische Methoden (7)
- Mammakarzinom (7)
- Prävention (7)
Institute
- Medizin (2346) (remove)
Die vorliegende Übersicht über den Biomarker adrenokortikotropes Hormon (ACTH) wird im Rahmen der Serie „Tumormarker“ des Zentralblatt für Arbeitsmedizin, Arbeitsschutz und Ergonomie publiziert, die sich mit dem immer häufigeren Gebrauch der Bestimmung von spezifischen Markern bei sog. Manager-Vorsorgen und Check-up-Untersuchungen beschäftigt. ACTH eignet sich grundsätzlich nicht für solch eine Vorsorgeuntersuchung, sondern ist ein Marker zur Therapie‑, Verlaufs- und Rezidivkontrolle von Störungen der kortikotropen Achse. Hier zeigt dieser eine hohe Sensitivität und Spezifität, wobei der Marker aber auf keinen Fall als Screening-Parameter zur Frühdiagnostik aufgrund der zirkadianen Rhythmik und Abhängigkeit von Stressoren eingesetzt werden soll.
Diese S2k-Leitlinie (LL) zum Status epilepticus (SE) im Erwachsenenalter schreibt die letzte DGN-LL zum SE von 2012 fort. Neue Definitionen und Evidenz wurden bei der Erstellung der LL und des Clinical Pathway berücksichtigt. Jeder epileptische Anfall, der länger als 5 Minuten anhält (oder ≥ 2 Anfälle über einen Zeitraum von mehr als 5 Minuten ohne Wiedererlangen des neurologischen Ausgangsstatus), soll als SE behandelt werden.
In der Diagnostik sollte initial eine CCT oder, wenn möglich, eine MRT erfolgen. Das EEG spielt bei der Diagnosestellung und beim Therapiemonitoring von non-konvulsiven SE und zum Ausschluss bzw. Nachweis psychogener nichtepileptischer Anfälle eine wesentliche Rolle. Der prognostische Einfluss von insbesondere entzündlichen Begleiterkrankungen (z. B. Pneumonie) wurde besser belegt, weshalb entsprechende Laborparameter auch im Verlauf kontrolliert werden sollten und ggf. frühzeitig eine antibiotische Therapie initiiert werden sollte.
Die Therapie erfolgt in 4 Stufen: 1. Initialer SE: Gabe eines ausreichend hoch dosierten Benzodiazepins i. m., i. v. oder i. n.; 2. Benzodiazepin-refraktärer SE: 1. Wahl ist die i.v. Gabe von Levetiracetam oder Valproat; 3. Refraktärer SE (RSE) und 4. Superrefraktärer SE (SRSE): I.v. Propofol oder Midazolam alleine oder in Kombination oder Thiopental in anästhetischen Dosen. Beim fokalen non-konvulsiven RSE kann unter Umständen auf die Einleitung eines therapeutischen Komas verzichtet werden. Bei SRSE sollte die ketogene Diät zum Einsatz kommen. I.v. Ketamin oder inhalatives Isofluran kann erwogen werden. In Einzelfällen kann die elektrokonvulsive Therapie und, bei resektabler epileptogener Zone, ein Epilepsie chirurgischer Eingriff erwogen werden. I.v. Allopregnanolon oder die Hyperthermie sollen nicht eingesetzt werden.
Der Tumormarker Sialinsäure
(2020)
Die vorliegende Übersicht zum Tumormarker Sialinsäure wird im Rahmen der Serie „Tumormarker“ des Zentralblatts für Arbeitsmedizin, Arbeitsschutz und Ergonomie publiziert, die sich mit dem immer häufigeren Gebrauch der Bestimmung von spezifischen Markern bei sog. Manager-Vorsorgen und Check-up-Untersuchungen beschäftigt. Sialinsäure eignet sich grundsätzlich nicht für solche Vorsorgen, sondern ist ein Marker zur Therapie‑, Verlaufs- und Rezidivkontrolle von Mundhöhlenkarzinomen. Hier zeigt dieser eine hohe Sensitivität und Spezifität, wobei der Marker aber auf keinen Fall als Screeningparameter zur Frühdiagnostik eingesetzt werden soll.
Hintergrund: Die Analyse krankheitsspezifischer Kosten gewinnt in einem zunehmend ökonomisch ausgerichteten Gesundheitssystem an Relevanz, wobei vor allem chronische Erkrankungen aufgrund der langen Krankheitsdauer sowie häufiger Hospitalisierung und Arztbesuche von besonderem Interesse sind. Epilepsien stellen eine häufige neurologische Erkrankung dar, welche mit paroxysmal auftretenden epileptischen Anfällen und häufig hiermit assoziierten Verletzungen einhergeht und alle Altersgruppen betrifft.
Ziel: Ziel der Arbeit ist die Aufarbeitung der stationären Behandlungskosten anfallsbedingter Verletzungen sowie die Analyse hinsichtlich relevanter kostenverursachender Faktoren. Mittels alternativer Kalkulation der Versorgungskosten soll zusätzlich der Frage nach potenziellen Vergütungsproblemen im aktuellen DRG-System („diagnosis related groups“) nachgegangen werden.
Methoden: Grundlage dieser monozentrischen, retrospektiven Analyse ist der tatsächliche Erlös der stationären Behandlung von 62 Patienten, die zwischen 01/2010 und 01/2018 im Universitätsklinikum Frankfurt aufgrund von Verletzungen im Rahmen epileptischer Anfälle erfolgte. Die Analyse potenzieller kostenverursachender Faktoren bezog sich auf relevante soziodemographische und klinische Aspekte, die alternative Kalkulation der Versorgungskosten wurde mit gängigen gesundheitsökonomischen Methoden durchgeführt.
Ergebnisse: Der mittlere DRG-Erlös betrug 7408 € (±8993 €, Median 5086 €, Spanne 563–44.519 €), die mittleren kalkulierten Kosten 9423 € (±11.113 €, 5626 €, Spanne 587–49.830 €). Als signifikant kostenverursachender Faktor konnte eine Liegedauer ≥7 Tage (p = 0,014) identifiziert werden. Aufgrund des signifikanten Unterschieds (p < 0,001) zwischen Erlös und kalkulierten Kosten erfolgte eine Analyse nach Faktoren für potenzielle Vergütungsprobleme, welche für eine Aufenthaltsdauer von ≥7 Tagen (p = 0,014) sowie für eine Behandlung auf Intensivstation (p = 0,019) signifikant verblieb.
Schlussfolgerung: Die stationären Versorgungskosten von Patienten mit Frakturen aufgrund epileptischer Anfälle sind hoch und daher gesundheitsökonomisch relevant. Generell scheint die auf Fallpauschalen basierende Vergütung nach G‑DRG die tatsächlichen Kosten zu decken, bei Patienten mit einer langen Liegedauer oder einen Aufenthalt auf Intensivstation können jedoch Vergütungsprobleme bestehen.
Der Biomarker TRACP5b (tartratresistente saure Phosphatase 5b) : ein Marker des Knochenstoffwechsels
(2021)
Die vorliegende Übersicht zum Biomarker TRACP5b wird im Rahmen der Serie „Tumormarker“ des Zentralblatts für Arbeitsmedizin, Arbeitsschutz und Ergonomie publiziert, die sich mit dem immer häufigeren Gebrauch der Bestimmung von spezifischen Markern bei sog. Manager-Vorsorgen und Check-up-Untersuchungen beschäftigt. TRACP5b eignet sich grundsätzlich nicht für solche Vorsorgen, sondern ist ein Marker zur Therapie‑, Verlaufs- und Rezidivkontrolle von Osteoporose und der ossären Metastasen. Hier zeigt dieser eine hohe Sensitivität und Spezifität, wobei der Marker aber auf keinen Fall als Screeningparameter zur Frühdiagnostik eingesetzt werden soll.
Multiple Sklerose (MS) ist die häufigste entzündliche Erkrankung des zentralen Nervensystems (ZNS) im jungen Erwachsenenalter. Weltweit sind mehr als 2,3 Mio. Menschen betroffen – Frauen doppelt so häufig wie Männer. Die Erkrankung ist gekennzeichnet durch eine autoimmunvermittelte Demyelinisierung im ZNS einhergehend mit motorischen, sensorischen und neuropsychiatrischen Defiziten.
Bereits Charcot beschrieb im 19. Jahrhundert auch psychiatrische Syndrome als Teil der Erkrankung. Am häufigsten treten Depressionen und Angststörungen auf [1]. Im Krankheitsverlauf können auch kognitive Defizite und organische Persönlichkeitsveränderungen hinzukommen [8]. Psychotische Symptome sind selten und spielen eher eine Rolle als Nebenwirkung der MS-Therapie mit Kortikosteroiden und seltener β‑Interferonen [5].
Bei unserer Patientin trat die akute psychotische Störung als erste klinische Manifestation der MS auf und führte zur Diagnosestellung.
Bei Vorliegen eines metastasierten kastrationsresistenten Prostatakarzinoms ist die Radioligandentherapie mit 177Lu-PSMA-617 bzw. 177Lu-PSMA-I&T (hier abgekürzt 177Lu-PSMA) eine mögliche Therapieoption. Sie setzt eine ausreichende Expression von prostataspezifischem Membranantigen (PSMA) auf dem Tumorgewebe des Prostatakarzinoms voraus. Da PSMA auch auf physiologischem Gewebe exprimiert wird, sind bestimmte Organe einer erhöhten Dosis ausgesetzt. Die Niere ist aufgrund der PSMA-Expression und der renalen Eliminierung des Radionuklids eines dieser Risikoorgane.
Eine generelle Leitlinie zur Überwachung der Nierendosis unter Therapie mit 177Lu-PSMA existiert noch nicht, jedoch wird empfohlen, bei Durchführung mehrerer Therapiezyklen eine Dosimetrie der Risikoorgane durchzuführen. Meist erfolgt die Nierendosimetrie mittels SPECT/CT. Dieses Verfahren wird als Goldstandard angesehen, da es eine Korrektur der Schwächung, Streuung und des Hintergrundes zulässt.
Die Dosimetrie durch eine SPECT/CT-Bildgebung ist jedoch nicht immer möglich. Dementsprechend gibt es in Studien mehrere Ansätze der Nierendosimetrie ohne SPECT/CT.
In dieser Arbeit werden zwei unterschiedliche Verfahren zur Nierendosimetrie vorgestellt, die einzig mit konventionellen nuklearmedizinischen Modalitäten durchgeführt werden. Diese werden an einem großen Patientenkollektiv angewendet und anhand bereits in der Literatur bestehenden Studien und Ergebnissen evaluiert und mit diesen verglichen. Die Nierendosis in der Literatur bewegt sich dabei meist zwischen 0,4 und 0,8 Gy pro GBq applizierter Aktivität (Gy/GBq).
Die hier vorgestellte Methode 1 arbeitet mit Messwerten aus der Gammasonde, Ganzkörperszintigraphie und abdominalem SPECT. Messwerte werden an der Gammasonde 0 und 48 Stunden nach Applikation von 177Lu-PSMA erhoben, die Szintigraphie wird 48 Stunden und die SPECT 24, 48 und 72 Stunden post iniectionem angefertigt.
Methode 2 der Nierendosimetrie dagegen benötigt nur die 24, 48 und 72 Stunden nach Applikation durchgeführte SPECT sowie die durch eine CT-Bildgebung messbaren Abstände der Nieren zur Körperoberfläche. Durch zuvor durchgeführte Messungen mit einem Torso-Phantom ist die Bestimmung einer patientenindividuellen Effektivität möglich, die die Bestimmung der Nierendosis in Abhängigkeit zur Lage der Nieren möglich macht.
Die gemittelte Nierendosis von 196 Patienten, die eine Therapie mit 177Lu-PSMA erhielten, betrugt 0,29 ± 0,14 Gy/GBq bei Methode 1 und 0,54 ± 0,2g Gy/GBq bei Methode 2. Im Schnitt wurden 3,54 ± 2,63 Therapiezyklen je Patient durchgeführt.
Da bisher nur Studien mit einer kleinen Patientenkohorte vorliegen, besteht die Notwendigkeit zur Durchführung von Arbeiten mit mehr Patienten. Die vorliegende Arbeit schließt 196 Patienten mit 926 durchgeführten Therapiezyklen ein, wodurch Ergebnisse erzielt wurden, die valide Aussagen treffen lassen.
Nach Vergleich der Ergebnisse mit bereits vorliegenden Studien sollte Methode 1 der Nierendosimetrie angesichts der fehlenden Möglichkeit zur Schwächungskorrektur verworfen werden, da dies die Gefahr der Unterschätzung der Nierendosis mit sich bringt. Stattdessen sollte Methode 2 präferiert werden, deren Ergebnisse sich mit den anderen zum Vergleich herangezogenen Studien decken.
Eine Durchführung mit Methode 2 ist dementsprechend sicher und ist in Betracht zu ziehen, sollte die Nierendosimetrie mit einem SPECT/CT nicht möglich sein.
Einführung: In den letzten Jahren wurden mobile Endgeräte in zunehmenden Maße zur Messung biometrischer Daten wie z.B. Herzfrequenz, Blutdruck, Sauerstoffsättigung und EKG Messungen wie z.B. Rhythmusstörungen verwendet. In den meisten Fällen kann bezüglich eines EKG hierbei nur eine einzige Ableitung gemessen werden. Mit Ausnahme von EKG-Brustgürteln sind Messungen nur in Ruhe möglich. Letztere sind häufig nicht als Medizinprodukte zugelassen. Veränderungen in einem vektoriell, aus einer reduzierten Elektrodenzahl, errechneten EKG unter Belastung, welche mit einem mobilen Endgerät gemessen wurden, sind bisher nicht evaluiert worden. Einige Pathologien werden nur unter Stressbedingungen demaskiert, so dass mit den aktuellen Systemen eine diagnostische Lücke im häuslichen Umfeld existiert. Es wurde ein mit einem mobilen Endgerät (Smartphone/Tablet) vektoriell abgeleitetes 4 Elektroden EKG System mit dem aktuellen Goldstandard 12-Kanal EKG sowohl in Ruhe als auch unter Belastung verglichen.
Methoden und Ergebnisse: 428 Patienten wurden während einer fahrradergometrischen Untersuchung simultan mit beiden EKG Systemen untersucht. Das vektorielle EKG wurde als errechnetes 12-Kanal EKG dargestellt und bezüglich EKG-Qualität und diagnostischer Genauigkeit mit dem Standard EKG verglichen. Alle EKGs wurden unabhängig durch 2 verblindete und in der EKG Interpretation versierten Ärzte untersucht. Die EKG Qualität in beiden Verfahren war gut. In Ruhe gab es eine ausgezeichnete Übereinstimmung zwischen beiden EKG Technologien in Hinsicht auf Rhythmus (98%), AV-Überleitung (97%), Wellendauer (90%) und elektrischer Achse (88-97%). Während der Belastung gab es eine Übereinstimmung in 90% der Fälle. Der positiv prädiktive Wert lag bei 48.5% und der negativ prädiktive Wert bei 94%. ST-Deviationen >0.2 mV zeigten eine 97% Übereinstimmung während des Stresstests. Rhythmusstörungen und intraventrikuläre Leitungsstörungen (Links- und Rechtsschenkelblock) konnten in jeweils >90% der Fälle übereinstimmend identifiziert werden.
Schlussfolgerung: Ein mobiles Endgerät kann benutzt werden, um vektoriell errechnete 12-Kanal EKGs unter Alltagsbedingungen zuverlässig darzustellen. Die diagnostische Aussagekraft dieser EKGs in Ruhe und unter Belastung ist gut.
Der Zusammenhang zwischen kognitiver Emotionsregulation, positivem Aufmerksamkeitsbias und Resilienz
(2022)
Das Verständnis von Faktoren, die die Widerstandsfähigkeit gegen Stress fördern, ist entscheidend für die Entwicklung von Stresspräventionsprogrammen und für die Verbesserung der Behandlung stressbedingter Störungen. Zum einen war es Ziel der vorliegenden Forschungsarbeit, den Einfluss der kognitiven Emotionsregulation (ER) auf die psychische Gesundheit zu untersuchen und bereits vorhandene Ergebnisse zum Einfluss der Emotionsregulation auf die Resilienz zu replizieren. Es wird zunehmend anerkannt, dass die meisten psychiatrischen Erkrankungen mit Emotionsdysregulation einhergehen und dass klinische Interventionen davon profitieren, wenn sie auf einem empirischen Verständnis der Emotionsprozesse beruhen.
Der Hauptfokus lag zudem darauf, zu untersuchen, ob es einen Zusammenhang zwischen Resilienz und einem Aufmerksamkeitsbias auf positive Informationen, einen Positivitätsbias, gibt.
In der vorliegenden Studie wurde eine Stichprobe psychisch gesunder Teilnehmer (n=229) im Alter von 18 bis 55 Jahren herangezogen, denen Bilder aus dem „International Affective Picture System“ präsentiert wurden. Dabei bekamen sie die Anweisung, negative Emotionen zu Fotos durch kognitives Umbewerten oder Distanzieren herunterzuregulieren. Die Reaktionszeiten sowie die Erregungsbewertungen wurden für die Bedingungen Neubewertung, Distanzieren, negatives passives Betrachten sowie neutrales passives Betrachten erhoben. Zudem wurde die Aufmerksamkeitsverzerrung gegenüber positiven und negativen Reizen mithilfe einer Visual Dot-Probe Aufgabe untersucht. Gemessen wurden die Reaktionszeiten der Studienteilnehmer bei Reaktionen auf einen Stimulus, der auf die Präsentation emotionaler Gesichter folgt, im Vergleich zu Reaktionen auf einen Stimulus, der an die Stelle von neutralen Gesichtern rückt. Hieraus wurden Aufmerksamkeitsverzerrungen abgeleitet.
Die anschließende Datenanalyse und statistische Auswertung konnten zeigen, dass die Neubewertung im Vergleich zum passiven Betrachten der negativen Bilder eine längere Reaktionszeit aufweist, was darauf hinweist, dass die kognitive Emotionsregulation möglicherweise anstrengendere kognitive Kontrollprozesse aktiviert. Hinsichtlich des Zusammenhangs mit der Resilienz konnte eine signifikante positive Korrelation der Reaktionszeitdifferenzen der Emotionsregulationsstrategien Distanzieren und Neubewerten mit dem Resilienz-Score beobachtet werden.
Bei den Erregungsbewertungen der Emotionsregulation zeigte sich weder ein signifikanter Effekt der Bedingung noch ein Zusammenhang mit dem Resilienz-Score.
Die Ergebnisse der Visual Dot-Probe zeigten, dass es keine Unterschiede in den Reaktionszeiten nach der Präsentation des neutralen sowie des emotionalen Stimulus gab. Auch zeigten sich keine Zusammenhänge mit der Resilienz.
Der erwartete Zusammenhang zwischen Resilienz und einem Aufmerksamkeitsbias auf positive Informationen konnte in den Ergebnissen nicht gefunden werden. In den vorliegenden Daten zeigte sich hingegen eine signifikante negative Korrelation der Fähigkeit der kognitiven Neubewertung mit der Höhe des negativen Aufmerksamkeits Bias-Scores.
Somit liefert die vorliegende Arbeit einen Hinweis darauf, dass Personen mit einem hohen Maß an Emotionsregulationskapazitäten eine höhere Aufmerksamkeitslenkung weg von emotional negativen Stimuli aufweisen.
Bezüglich der Anwendung auf klinische Stichproben besteht noch Raum zu
analysieren, ob es sich um ein stabiles Phänomen handelt, das auf diese übertragen werden kann.
Integraseinhibitoren sind bereits seit Jahren in der Initialtherapie HIV-positiver Erwachsener empfohlen, in der Schwangerschaft aber bisher aber meist nur unter besonderen Voraussetzungen (z.B. bei hoher maternaler Viruslast kurz vor Entbindung) eingesetzt.
Ziel dieser retrospektiven Studie ist es, die Effektivität und Verträglichkeit integraseinhibitorhaltiger ART bei schwangeren Patientinnen zu untersuchen und diese mit integraseinhibitorfreien Regimen zu vergleichen.
Die quantitative Viruslast bzw. die Suppression der Viruslast zum Zeitpunkt der Entbindung stellte die primäre Zielgröße der Studie dar, Indikationen für einen INSTI als Intensivierung der ART oder Gründe für einen Therapiewechsel sowie unerwünschte Wirkungen bei Mutter und Kind waren sekundäre Zielgrößen.
Hierzu wurden retrospektive Daten aus der Epidem-Datenbank des HIVCENTERs und aus den Patientinnenakten der teilnehmenden Frankfurter Schwerpunktpraxen extrahiert und in die Auswertung einbezogen.
Im Beobachtungzeitraum vom 1. Januar 2008 bis zum 01. Juni 2018 wurden n=274 Schwangerschaften erfasst, diese resultierten in n=281 Kindern (fünf Zwillinge und einmal Drillinge). INSTI-haltige Therapieregime wurden bei 52 (19%) der Schwangerschaften eingesetzt, darunter zumeist Raltegravir (92%).
Die maternale Viruslast zum Zeitpunkt der Geburt unterschied sich in beiden Therapiegruppen nicht signifikant, in beiden Subgruppen konnte eine signifikante Reduktion der Viruslast zum Zeitpunkt der Entbindung erreicht werden.
Parodontitis ist eine chronisch entzündliche nichtübertragbare Erkrankung, die alle Anteile des Zahnhalteapparates (Parodonts) betrifft und dort weitgehend irreversible Schäden verursacht. Schätzungen legen nahe, dass in Deutschland ca. 10 Mio. Menschen an einer schweren Parodontitis erkrankt sind. Parodontitis zeigt über viele Jahre zumeist wenige oder nur milde Symptome, die von den Patienten oft nicht wahrgenommen oder richtig eingeordnet werden. Fehlendes Bewusstsein kann dazu führen, dass zahnärztliche Behandlung erst in einem fortgeschrittenen Erkrankungsverlauf in Anspruch genommen wird, wenn umfangreiche Therapiemaßnahmen notwendig geworden sind und sich die Prognose für den Erhalt der Zähne verschlechtert hat. Der parodontale Screeningindex (PSI) ist ein einfaches und schnelles Instrument, mit dem die Notwendigkeit weiterführender diagnostischer Maßnahmen beurteilt werden kann. Der Index wird mittlerweile bei vielen Patienten durchgeführt. Trotzdem bleiben die Versorgungszahlen niedrig und hinter dem zurück, was für das Absenken der bestehenden Parodontitislast notwendig wäre. Jede Zahnarztpraxis muss in der Lage sein, Parodontitistherapie umzusetzen. Fachzahnärzte oder Spezialisten können die allgemeinzahnärztlichen Kollegen wesentlich bei der Behandlung von schweren Formen von Parodontitis unterstützen. Dazu ist eine Aufwertung des Faches in der universitären Ausbildung erforderlich, aber auch die zunehmende postgraduale Ausdifferenzierung von Spezialisten oder Fachzahnärzten für Parodontologie. Die neuen Behandlungsrichtlinien für die Parodontaltherapie (PAR-Therapie) erlauben die Versorgung der parodontal erkrankten Patienten auf Basis international anerkannter wissenschaftlicher Standards und verbessern damit die Rahmenbedingungen für die Parodontitistherapie in der zahnärztlichen Praxis.
hintergrund: Männer in Deutschland sterben früher als Frauen und nehmen weniger häufig Krebsvorsorgeuntersuchungen wahr.
Fragestellung: Ziel war die prospektive Evaluation einer „Movember-Gesundheitsinitiative“ am Universitätsklinikum Frankfurt (UKF) im November 2019.
Methoden: Im Rahmen der „Movember-Gesundheitsinitiative“ wurde allen männlichen Mitarbeitern des UKF ab dem 45. Lebensjahr und bei erstgradiger familiärer Vorbelastung eines Prostatakarzinoms ab dem 40. Lebensjahr im November 2019 gemäß S3-Leitlinien der Deutschen Gesellschaft für Urologie (DGU) eine Prostatakarzinom-Vorsorgeuntersuchung angeboten.
Ergebnisse: Insgesamt nahmen 14,4 % der Mitarbeiter teil. Eine familiäre Vorbelastung gaben insgesamt 14,0 % Teilnehmer an. Das mediane Alter betrug 54 Jahre. Der mediane PSA(prostataspezifisches Antigen)-Wert lag bei 0,9 ng/ml, der mediane PSA-Quotient bei 30 %. Bei 5 % (n = 6) zeigte sich ein suspekter Tastbefund in der DRU (digital-rektale Untersuchung). Nach Altersstratifizierung (≤ 50 vs. > 50 Lebensjahre) zeigten sich signifikante Unterschiede im medianen PSA-Wert (0,7 ng/ml vs. 1,0 ng/ml, p < 0,01) und der bereits zuvor durchgeführten urologischen Vorsorge (12,1 vs. 42,0 %, p < 0,01). Vier Teilnehmer (3,3 %) zeigten erhöhte Gesamt-PSA-Werte. Bei 32,2 % der Teilnehmer zeigte sich mindestens ein kontrollbedürftiger Befund. Insgesamt wurden 6 Prostatabiopsien durchgeführt. Hierbei zeigte sich in einem Fall ein intermediate-risk Prostatakarzinom (Gleason 3 + 4, pT3a, pPn1, pNx, R0).
Schlussfolgerungung: Im Rahmen der UKF-Movember-Gesundheitsinitiative 2019 konnten durch ein Vorsorgeangebot 121 Männer für eine Prostatakrebs-Vorsorge inklusive PSA-Testung gewonnen werden. Auffällige/kontrollbedürftige Befunde zeigten sich bei 32,2 %. Bei einem Mitarbeiter wurde ein therapiebedürftiges Prostatakarzinom entdeckt und therapiert.
Astrozyten sind außerordentlich vielseitige Zellen, die im Gefüge des zentralen Nervensystems wichtige Rollen in der synaptischen Signalübertragung, im Neurotransmitterstoffwechsel sowie unter anderem in der Regulation der Energiesubstrataufnahme und der lokalen Durchblutung spielen. Die genannten Prozesse weisen eine ausgeprägte Abhängigkeit von lokal verfügbaren Energieäquivalenten auf. Astrozyten können als Reaktion auf verstärkte, umliegende synaptische Aktivität nicht nur anaerobe Stoffwechselwege wie z.B. Glykolyse hochregulieren, sondern weisen auch eine enorme oxidative Verstoffwechselungskapazität auf. Die Mechanismen zur Regulation des oxidativen Stoffwechsels sind z.B. in Hepatozyten oder Muskelzellen genauer beschrieben, wie vieles andere jedoch in Glia untererforscht. Einer der Signalwege zur Aktivierung des obligat aeroben Citratzyklus über das Schlüsselenzym Pyruvatdehydrogenase-Komplex (PDC) führt in Hepatozyten über die Proteinkinase Cδ (PKCδ). Diese bewerkstelligt die Aktivierung der PDC über eine Dephosphorylierung der Pyruvatdehydrogenase (PDH) durch die PDH-Phosphatase 1 (PDP1).
Die selbst in peripheren Astrozytenforsätzen zahlreich vorhandenen Mitochondrien sind bislang in ihrer Funktion und Regulation nur unzureichend untersucht worden. Daher stellte sich die Frage, ob ein solcher PKCδ-vermittelter Signalweg auch in Astrozyten (über die Aktivierung der PDH) zur Aktivierung des mitochondrialen Stoffwechsels führen könnte, insbesondere um auf einen höheren Energiebedarf reagieren zu können.
Nach zahlreichen Versuchen zum Nachweis des Vorliegens der beteiligten Enzyme in der postulierten Signalkaskade wurden primäre Astrozyten mit Glutamat stimuliert, wodurch eine erhöhte synaptische Aktivität in unmittelbarer Umgebung simuliert wurde. Mithilfe von anti-PKCδ-, anti-PDC- und phosphospezifischen anti-phospho-PDC-Antikörpern sowie der Nutzung Objekt-orientierter Bildverarbeitungsmethoden konnte eine Glutamat-induzierte, mitochondriale Translokation der PKCδ mit nachfolgender Dephosphorylierung des PDC (und damit dessen Aktivierung) gezeigt werden. Beide Prozesse, PKCδ-Translokation und PDH-Dephosphorylierung, werden durch den metabotropen Glutamatrezeptor 5 (mGluR5) vermittelt, wie sich durch dessen pharmakologische Inhibition zeigen lässt. Die mitochondriale Translokation der PKCδ und ihre Kinaseaktivität tragen dabei maßgeblich zur Aktivierung des PDC bei, sodass durch das Einwirken von Glutamat eine lokale Modulation des glialen oxidativen Stoffwechsels und der damit verbundenen Produktion von Adenosintriphosphat (ATP) ermöglicht wird. Da Astrozyten (v.a. mit ihren feinen peripheren Fortsätzen) besonders in der Nähe von Synapsen für die Funktionalität von Neuronen essentielle, ATP-verbrauchende Prozesse wie z.B. Glutamattransport aufrechterhalten müssen, ist eine solche Regulation durch Glutamat selbst als Indikator vermehrter synaptischer Aktivität naheliegend. Dabei scheint Glutamat in dualer Funktion sowohl signalgebend die Aktivität des Citratzyklus zu beeinflussen als auch nach Aufnahme in die Zelle selbst als Substrat zum anaplerotischen Einschleusen in den Citratzyklus zur Verfügung zu stehen. Mithilfe von luminometrischen ATP-Assays sowie mGluR- und isoformspezifischen PKC-Inhibitoren konnte gezeigt werden, dass einem durch Glutamat verursachten Abfall der intrazellulären ATP-Spiegel (aufgrund der damit einhergehenden Mehrbelastung der Zelle für Transportprozesse und z.B. Ionenhomöostase) durch die mGluR5/PKCδ-vermittelte Aktivierung der PDH entgegengewirkt werden könnte.
In Zusammenschau könnte der mGluR5/PKCδ/PDH-vermittelte Signalweg gewissermaßen eine Bereitschaft bieten, um für gliale Stoffwechselprozesse die Deckung des Energiebedarfs in Astrozytenfortsätzen bei Aktivität angrenzender Synapsen (im Rahmen des Modells der dreiteiligen Synapse) zu ermöglichen. Eine mögliche pathophysiologische Rolle dieses Mechanismus bei zahlreichen neurodegenerativen Erkrankungen (bei denen häufig ein gestörter Energiestoffwechsel und/oder gliale Dysfunktion vermutet wird) müsste in weiterführenden Studien untersucht werden.
Epilepsie gehört weltweit zu den häufigsten neurologischen Erkrankungen. Sie geht mit wiederholten und in unterschiedlichsten Situationen auftretenden epileptischen Anfällen einher, wodurch Betroffene deutlich in ihrer Lebensqualität eingeschränkt sind. Umfassende Patientenaufklärungen und Patientenschulungen zählen demnach zu den zentralen Bestandteilen der Behandlung. Je besser die Patienten über ihre Erkrankung informiert sind, desto höher ist das Selbstmanagement und die Compliance und demnach auch die Lebensqualität. Vor allem im Hinblick auf den plötzlichen Epilepsietod, englische Abkürzung SUDEP, zählt die Anfallsprävention und die Aufklärung zu den wichtigsten Präventionsstrategien. Das Ziel dieser Studie war es, sowohl den Wissensstand als auch die Wissenslücken der Epilepsiepatienten bezüglich Epilepsie-spezifischer Risikofaktoren sowie Morbidität und Mortalität aufzuzeigen.
Volljährigen Patienten mit diagnostizierter Epilepsie, die sich zwischen Februar 2018 und Mai 2020 an den Epilepsiezentren der Universitätskliniken in Frankfurt am Main, Greifswald und Marburg in Behandlung befanden, wurden eingeladen, an der Studie teilzunehmen. Insgesamt nahmen 238 Patienten (52% Frauen) mit einem mittleren Alter von 39,2 Jahren (Spannweite: 18-77 Jahre) an der Studie teil. Anhand von standardisierten Fragebögen und einem persönlichen Gespräch ermittelten wir die den Patienten bekannten Risiken für und durch Anfälle und erhoben den Wissensstand bezüglich frühzeitiger Mortalität. Hinsichtlich Risiken, die mit Anfällen und einer Epilepsie einhergehen, nannte die Mehrheit der Patienten (51,3%) Autofahren und Verkehrsunfälle. 23,9% der Patienten gaben weitere Gründe für einen frühzeitigen Tod an, wie z.B. Ersticken, Ertrinken oder Atem- und Herzstillstand als Folge eines Anfalls. Zudem wurden Stürze (19,7%) und allgemeine Verletzungen (17,6%) als Gründe für erhöhte Morbidität und Mortalität erwähnt. Ein Großteil der Patienten wusste, dass Alkohol (87,4%) und Schlafentzug (86,6%) Anfälle triggern können. Betrachtet man die Sterblichkeit insgesamt, gaben 52,1% der Patienten an, dass Epilepsiepatienten ein höheres Risiko haben, frühzeitig zu versterben, was hingegen von 46,2% der Patienten verneint wurde. Nur 29,4% der Patienten kannten den Status epilepticus, gerade einmal 27,3% der Patienten hatten bereits von SUDEP gehört. Etwa ein Viertel der Patienten (26,9%) gab an, von ihrem behandelnden Arzt nicht über Risikofaktoren oder Ursachen frühzeitiger Sterblichkeit informiert worden zu sein. Zudem beleuchteten wir mittels Vier-Punkt-Likert-Skala die Themenbereiche, die den Epilepsiepatienten Sorgen bereiten und sie im Alltag einschränken. Die meisten Sorgen machten sich die Patienten über die eingeschränkte Fahrtauglichkeit und Arbeitsfähigkeit, die frühzeitige Sterblichkeit dagegen zählte nicht zu den größten Sorgen.
Insgesamt stellten wir fest, dass die Patienten über ein gutes Allgemeinwissen zu ihrer Erkrankung verfügen. Allerdings konnten wir zeigen, dass Epilepsiepatienten in Bezug auf die frühzeitige Sterblichkeit, SUDEP und den Status epilepticus deutliche Wissenslücken aufweisen. Ein Großteil der Patienten gab hierbei an, von ihrem behandelnden Arzt nicht ausreichend informiert worden zu sein und wünschte sich eine bessere Aufklärung.
Bartonella henselae (B. henselae) ist ein zoonotischer humanpathogener Erreger, der die Katzenkratzkrankheit sowie andere Infektionskrankheiten verursacht. Trotz des globalen Auftretens sind epidemiologische Daten rar oder beruhen auf geringen Fallzahlen. Die aktuelle Forschung zu Bartonellen zielt mehr und mehr auf einen interdisziplinären Ansatz, der als one-health-Konzept zusammengefasst werden kann und als solcher zunehmend Daten zur Seroprävalenz mit hohen Fallzahlen benötigt.
Die Detektion von anti-B. henselae IgG-Antikörpern mittels indirektem Immunfluoreszenztest (IFT) ist die Diagnostik der Wahl für Bartonella-Infektionen. Dabei handelt es sich um ein objektträgerbasiertes Verfahren, wodurch dessen Handhabung ungeeignet für die Verarbeitung im Hochdurchsatz wird.
Im Rahmen der vorliegenden Arbeit wurde der high-throughput IFT (hpIFT) zum Nachweis von anti-B. henselae IgG-Antikörpern im 96-Well-Platten-Format entwickelt, welcher es zum ersten Mal ermöglicht, seroepidemiologische Daten mit hohen Fallzahlen zu generieren.
Für die Antigenpräparation im 96-Well-Platten-Format wurden HeLa 229-Zellen mit B. henselae [Houston-1 RSE 247 (BadA-)-Stamm] infiziert, fixiert, blockiert und permeabilisiert. Humane Seren wurden 1:320 verdünnt. Nach Inkubation der Seren folgte die Zugabe von Sekundärantikörpern. Für die genannten Schritte wurde ein einfacher, ökonomischer Workflow unter Zuhilfenahme des Pipettierroboters VIAOFLO 96/384 von Integra erstellt.
Mit dem entwickelten hpIFT wurden insgesamt 5.215 Proben verarbeitet. Alle Seren wurden bei einem cut-off-Wert von 1:320 bewertet, dabei galten Werte von ≥ 1:320 als positiv. Um die diagnostische Validität zu überprüfen, wurden zunächst 20 bekannte Seren in unterschiedlichen Titerstufen und anschließend 238 zufällig ausgewählte Blutspendeseren mit der kommerziellen objektträger-basierten IFT-Methode von Euroimmun (Produktcode: FK-219b-1010-1G) verglichen. Zur Überprüfung der Intraspezies-Kreuzreaktivität wurden verschiedene B. henselae-Stämme [Houston-1 RSE 247 (BadA-), Marseille (BadA+), Houston-1 MFE341 (BadA+), Marseille (BadA-)] und B. quintana-Stämme [JK31 (Vomp+) und 2D70(Vomp-)] als Antigen mit unterschiedlichen, in der Antikörperkonstellation bekannten Seren untereinander verglichen. Um die Interspezies-Kreuzreaktivitäten abzuklären, wurden Seren mit hohen IgG-Antikörpern gegen andere Pathogene (Anaplasma phagocytophilum, Leptospira spp., Brucella spp., Coxiella burnetii, Rickettsia typhi, Treponema pallidum, Mycoplasma pneumoniae, Epstein-Barr-Virus und B. quintana) überprüft.
Es zeigte sich, (I) dass der modifizierte hpIFT mit beinahe gleichwertiger Sensitivität (86,2 %) und Spezifität (80,6 %) verglichen mit dem kommerziell erhältlichen IFT von Euroimmun bei umfangreichen Probenmengen ein ökonomisches, vergleichsweise einfach zu bedienendes, zuverlässiges und präzises Verfahren zur Detektion von anti-B. henselae IgG-Antikörpern in humanen Seren darstellt und (II), dass die ermittelte anti-B. henselae IgG-Prävalenz von 22,3 % unter 5.215 Blutspenderinnen und Blutspendern verglichen mit weltweit publizierten Studien vergleichbarer Kohorten der letzten Jahre höher ausfällt als angenommen.
Der hier etablierte hpIFT stellt damit ein vielversprechendes Tool für die Hochdurchsatz-Serologie zum Nachweis von anti-B. henselae-Antikörpern in Prävalenzstudien dar. Eine weitere Modifizierung beispielsweise für den veterinären Bereich könnte im Sinne des one-health Ansatzes neue Möglichkeiten für epidemiologische Forschungsaspekte eröffnen.
Hintergrund und Ziel der Studie: Der größte Nachteil von Plastikstents ist ihre im Vergleich mit Metallstents hohe Verschlussrate. Das übliche Wechselintervall für biliäre Plastikstents beträgt drei Monate. Im Universitätsklinikum Frankfurt wurde das Intervall für den elektiven Austausch von Plastikstents auf sechs bis acht Wochen festgelegt.
In dieser Studie sollte untersucht werden, ob sich ein kürzeres Intervall von sechs bis acht Wochen auf die mediane vorzeitige Wechselrate (mPER) auswirkt. Hierfür wurden sowohl benigne als auch maligne Gallengangsstenosen untersucht.
Methoden: An die Anwendung verschiedener Ein- und Ausschlusskriterien auf alle seit 2007 im Universitätsklinikum Frankfurt durchgeführten ERCPs inklusive der Implantation mindestens eines Plastikstents, schloss sich die retrospektive Analyse der geeigneten Fälle und die Berechnung der jeweiligen mPER an. Hierfür wurden sowohl verschiedene Stentparameter wie die verwendete Stentgröße, -länge und -anzahl als auch patientenbezogene Parameter wie die indikationsgebende Diagnose erfasst.
Ergebnisse: Insgesamt wurden 3979 ERCPs analysiert, welche sich auf 1199 Patienten verteilen. Eine gutartige Stenose lag in 2717 (68,3 %) Fällen vor. In 1262 (31,7 %) Fällen wurde die Indikation einer Stentimplantation aufgrund einer bösartigen Stenose gestellt.
Die mediane Stentliegedauer (mSP) betrug 41 Tage (Spanne: 14–120) bei planmäßigen Stentwechseln, während sie bei vorzeitig gewechselten Stents bei 17 Tagen (Spanne: 1–75) lag.
Die mPER war bei malignen (28,1 %, Spanne: 35–50 %) im Vergleich zu benignen Strikturen (15,2 %, Spanne: 10–28 %) signifikant höher (p < 0,0001).
Das mSP war in Fällen von einem singulären Stent (34 Tage, Spanne: 1–87) im Vergleich mit Fällen multipler Stentimplantation (41 Tage, Spanne: 1–120) signifikant kürzer (p < 0,0001). Eine signifikant kürzere mSP wurde außerdem in Fällen von nur einem 7 Fr Stent (28 Tage, Spanne: 2–79) im Vergleich zu größeren Stents (34 Tage, Spanne: 1–87, p = 0,001) festgestellt.
Entsprechend war die mPER in Fällen mit einem singulären Stent (23 %) verglichen mit Fällen multiplen Stentings (16,2 %) signifikant höher (p < 0,0001). Beim Vergleich der Implantationen eines einzelnen 7-Fr-Stents (31,3 %) mit jenen größerer Stents (22,4 %) wurde ebenfalls eine signifikant erhöhte mPER der 7-Fr-Stents festgestellt (p = 0,007).
Konklusion: Diese Studie liefert erstmals umfassende Daten von Patienten, welche mit Plastikstents und kürzeren Wechselintervallen behandelt wurden.
Im direkten Vergleich der Stentparameter war bei der Implantation größerer oder multipler Stents die Einliegedauer verlängert. Dies lässt auf ein geringeres Komplikationsrisiko bei der Verwendung multipler oder größerer Stents schließen, welches am ehesten auf die dadurch optimierte Überbrückung der Stenosen und daraus resultierende Drainage zurückzuführen ist.
Weiter lassen die Ergebnisse vermuten, dass ein verkürztes Wechselintervall unter drei Monaten bei benignen biliären Stenosen nicht zu einer klinisch relevanten Reduktion der Komplikationsrate führt.
Zudem war die bei malignen Stenosen beobachtete Rate vorzeitiger Stentwechsel deutlich größer als die der benignen Stenosen. Sollte in diesem Setting ein Wechsel von einem Plastikstent auf einen SEMS geplant sein, ist ein verkürztes Wechselintervall von drei bis vier Wochen in Erwägung zu ziehen. Bei fehlender Möglichkeit der Implantation eines SEMS, ist die Verwendung multipler und größerer Stents das Mittel der Wahl.
Abschließend lässt sich Folgendes festhalten. Ein kürzeres Austauschintervall scheint bei benignen und malignen Stenosen nicht zu einer klinisch bedeutsamen Verringerung der mPER zu führen. Sofern es die Untersuchungsbedingungen zulassen, sollten große und multiple Stents für die Behandlung von Gallengangsstenosen bevorzugt werden.
Der Nutzen von DJ-Kathetern ist unverzichtbar für die moderne Urologie. Sie sind essenziell, um bei einer Vielzahl von Erkrankungen einen adäquaten Harnabfluss und dementsprechend eine gute Nierenfunktion gewährleisten zu können. Dabei können sie für eine temporäre oder dauerhafte Schienung genutzt werden. Als einliegende Fremdkörper können sie, insbesondere bei langfristiger Nutzung, leicht durch Bakterien und Pilze kolonisiert werden und beherbergen somit ein erhöhtes Risiko für Harnwegsinfekte.
Das Hauptziel dieser Arbeit ist folglich, durch das Auffinden von protektiven oder prädisponierenden Faktoren für die Entwicklung von fieberhaften Harnwegsinfekten in der Zukunft Mortalität, Resistenzbildung und Kosten sowohl bei DJ-Katheter-Dauerversorgung als auch generell senken zu können. Zusätzlich soll untersucht werden, ob verschiedene Antibiotika-Regime einen Einfluss auf die Entwicklung postoperativer, fieberhafter Harnwegsinfekte haben.
Um dies feststellen zu können, wurden in dieser Studie 100 Patientinnen und Patienten eingeschlossen, die von 2013 bis 2018 in der Klinik für Urologie des Universitätsklinikums Frankfurt zum DJ-Wechsel bei DJ-Katheter-Dauerversorgung vorstellig wurden. Anschließend wurden verschiedene Faktoren untersucht, die das Risiko für das Auftreten von fieberhaften Harnwegsinfekten oder die Entwicklung von Resistenzen in Krankheitserregern erhöhen oder reduzieren könnten.
Hierzu wurden insgesamt 950 DJ-Katheter-assoziierte Eingriffe (Einlage, Wechsel, Entfernung) analysiert. Der individuelle Beobachtungszeitraum betrug durchschnittlich 2,9 Jahre mit durchschnittlich 7 DJ-Katheter-Wechsel.
Gegenüber der Normalbevölkerung wies die Studienpopulation, am ehesten durch die einliegenden DJ-Katheter, eine deutlich erhöhte Prävalenz von Harnwegsinfekten auf (18,53% vs. 2,5%). Darüber hinaus konnte gezeigt werden, dass ein höheres Patientenalter mit einem gering erhöhten Risiko für die Ausbildung von resistenten Keimen im Urin korreliert (p=0,0121; OR 1,0395; KI 1,0096-1,0731 (univariate Analyse), p=0,0030; OR 1,0618 KI 1,0226-1,1077 (multivariate Analyse)). Dies korrelierte jedoch nicht mit einem erhöhten Risiko für fieberhafte Harnwegsinfekte. Darüber hinaus konnte festgestellt werden, dass die operative Manipulation unter empirischer oder testgerechter, antibiotischer Therapie nicht mit einem hohen Risiko für die Entstehung fieberhafter Harnwegsinfekte einhergeht. In den analysierten Daten fanden sich insgesamt zu wenige fieberhafte Infekte (n=72; 7,58%), um das Ziel begünstigender oder protektiver Faktoren für die Entstehung von fieberhaften Harnwegsinfekten adäquat zu untersuchen. Aus dem gleichen Grund konnten aus den Daten auch keine Hinweise für das optimale Antibiotika-Regime abgeleitet werden. In fast 70% der untersuchten Fälle wurde eine periinterventionelle single-shot Antibiose angewendet, weswegen diese als Infektionsprophylaxe einen adäquaten Schutz darzustellen scheint.
Generell kann davon ausgegangen werden, dass die DJ-Katheter-Dauerversorgung, trotz der möglichen mikrobiellen Besiedlung mit eventuellen Komplikationen wie Bakteriurie oder systemischen Infektionen, ein sicheres Verfahren ist. Manipulationen oder operativer Wechsel der DJ-Katheter stellen, trotz Präsenz der Keime, keine riskanten Manöver dar, sofern diese adäquat und unter entsprechender, antibiotischer Therapie durchgeführt werden.
Weitere, noch größere und insbesondere prospektive, randomisierte Studien sind zu empfehlen und könnten die Ergebnisse weiter bestätigen und erweitern, vor allem in Bezug auf die Überlegenheit verschiedener antibiotischer Regime in der Vermeidung einer Resistenzbildung.
Hintergrund: Depressionen sind häufige, schwere und oft lebensbedrohliche Erkrankungen, bei denen es – trotz sehr guter Behandlungsmethoden – Versorgungslücken gibt. Hierzu tragen Vorbehalte gegen eine leitlinienkonforme pharmako- und/oder psychotherapeutische Behandlung bei. Ziel der Arbeit ist es zu ermitteln, in welchen soziodemographischen Bevölkerungssegmenten diese Vorbehalte besonders ausgeprägt sind.
Methodik: Die Untersuchung basiert auf Online-Befragungen der deutschen Bevölkerung aus den Jahren 2021, 2020 und 2019, darunter 1656 Personen (2021), 1775 Personen (2020) und 1729 Personen (2019) ohne Depressionserfahrungen. Mit einer CHAID-Analyse wurde geprüft, in welchen Bevölkerungssegmenten die Vorbehalte gegen eine leitliniengerechte Behandlung besonders groß sind.
Ergebnisse: Vorbehalte gegen Pharmakotherapie hatten insgesamt 69,8 % der Befragten ohne Depressionserfahrungen. Am größten waren die Vorbehalte unter jüngeren Personen (< 40 Jahre); hier lag der Anteil bei 74,2 %. Vorbehalte gegen Psychotherapie äußerten 31,4 % ohne Depressionserfahrungen; unter Frauen mit geringerer Schulbildung hatten 40,5 % Vorbehalte gegen eine Psychotherapie; unter Männern mit geringerer Schulbildung waren es 39,1 %. Vorbehalte gegen beide Behandlungsformen zeigten 27,7 %. Am größten waren die Vorbehalte unter Männern mit Schulbildung unterhalb der Hochschulreife (34,1 %). Die Ergebnisse sind signifikant (χ2-Test, p < 0,05).
Diskussion: Eine allgemeine Informationsstrategie wäre geeignet, Vorbehalten gegen Pharmakotherapie und Psychotherapie gleichermaßen zu verringern. Für eine spezifische Informationsstrategie müssen die Botschaften hinsichtlich Inhalt und Kommunikationskanälen so gestaltet werden, dass die jüngere Zielgruppe zuverlässig erreicht wird.
Ein persistierender Ductus arteriosus (PDA) stellt bei Frühgeborenen mit <1500g Geburtsgewicht einen relevanten Faktor für eine Erhöhung der Morbidität und Mortalität dar. Aufgrund fehlender Evidenz konnte bisher keine allgemeine Therapieempfehlung nach frustranem medikamentösem Verschlussversuch erarbeitet werden, sowohl eine Ligatur im Rahmen eines operativen Eingriffs, als auch eine Katheterintervention sind möglich. In der vorliegenden Arbeit wurde retrospektiv die Auswirkung dieser verschiedenen Therapiemethoden auf die Morbidität und Mortalität bei Frühgeborenen <1500g Geburtsgewicht mit hämodynamisch signifikantem persistierendem Ductus arteriosus untersucht. Insbesondere wurde geprüft, ob eine Katheterintervention das Risiko einer Bronchopulmonalen Dysplasie (BPD) oder des Versterbens der Kinder, sowie andere häufige Folgeerkrankungen des Frühgeborenen erhöht. Analysiert wurden dafür alle 469 stationär behandelten Kinder des Schwerpunktes Neonatologie, die zwischen dem 01.01.2013 und dem 31.12.2019 in der Uniklinik Frankfurt am Main mit einem Geburtsgewicht von <1500g geboren oder innerhalb der ersten 13 Lebenstage aus einem anderen Krankenhaus übernommen wurden. Diese wurden in 4 Gruppen eingeteilt: Kinder ohne hämodynamisch signifikanten PDA (n=341), Kinder die erfolgreich medikamentös therapiert wurden (n=92), solche, die eine Ligatur erhielten (n=16) und zuletzt solche, die interventionell behandelt wurden (n=12). Die Daten der medikamentös behandelten Kinder wurden in dieser Untersuchung nicht berücksichtigt. Es wurden sowohl verschiedene Geburtsparameter um eine Vergleichbarkeit der Gruppen zu untersuchen, als auch relevante Parameter des Outcomes ausgewertet. Es zeigte sich, dass Kinder ohne PDA zum Zeitpunkt der Geburt ein höheres Gestationsalter hatten als solche mit PDA und daraus resultierend eine geringere Intensivmedizinische Betreuung und geringere Morbidität aufwiesen. Im Vergleich der Interventionskinder mit einer Matched-pair Gruppe aus 24 Kindern der Kontrollgruppe ohne PDA (± 8 Schwangerschaftstage bei Geburt und ± 410 g Geburtsgewicht) konnten keine Unterschiede in Mortalität oder Morbidität festgestellt werden. Kinder nach Intervention zeigten kein signifikant schlechteres Outcome (Bronchopulmonale Dysplasie, Intraventrikuläre Hämorrhagie, operativ versorgte nekrotisierende Enterokolitis, therapiebedürftige Retinopathia praematurorum, Periventrikuläre Leukomalazie) im Vergleich zu Kindern nach Ligatur. Eine schwere Bronchopulmonale Dysplasie trat mit einem Relativen Risiko von 2,25 seltener auf. Diese Ergebnisse lassen den Schluss zu, dass die Interventionelle Therapie des hsPDA ein ähnlich gutes Outcome im Vergleich zur Ligatur aufweist und sogar einen Vorteil für die Kinder bringt. Aufgrund der geringen Fallzahlen muss die Relevanz diese Ergebnisse kritisch hinterfragt werden. Eine mögliche randomisierte kontrollierte Studie könnte diese bestätigen.
Die Heparininduzierte Thrombozytopenie (HIT) ist eine lebensbedrohliche Komplikation der Heparintherapie. Diese wird verursacht durch die Bildung von Antikörpern gegen einen Komplex aus Plättchenfaktor 4 (PF4) und Heparin. Orthopädische und herzchirurgische Patienten weisen deutlich höhere Serokonversionsraten auf (15-75 %) als andere Patientenkohorten, z.B. internistische Patienten (<1 %), ohne dabei in allen Fällen mit den klinischen Zeichen einer HIT, d.h. Thrombozytopenie sowie arteriellen und venösen thromboembolischen Komplikationen, einherzugehen. Der Grund für diese Beobachtung ist unklar. Es ist bekannt, dass Glykosaminoglykane und sulfatierte Polysaccaride ein Epitop auf dem Plättchenfaktor 4 induzieren können, gegen das eine Sensibilisierung erfolgen kann. Es wird vermutet, dass Glykosaminoglykane, d.h. Chondroitinsulfate, die bei großen orthopädischen Eingriffen freigesetzt werden, die hohen Serokonversionsraten bei orthopädischen Patienten erklären könnten.
Das Ziel der vorliegenden Studie war es, die Inzidenz von HIT-Antikörpern bei Patienten mit orthopädischen Eingriffen zu untersuchen, bei denen perioperativ keine Heparinexposition erfolgte. Die Antikoagulation zur Thromboseprophylaxe im untersuchten Patientenkollektiv wurde postoperativ mit dem zur orthopädischen Thromboseprophylaxe zugelassenen, direkten oralen Faktor Xa Inhibitor Rivaroxaban und nicht mit niedermolekularem Heparin durchgeführt, welches eine HIT-Antikörperbildung hätte induzieren können.
Material und Methoden: Zur HIT Diagnostik wurde jeweils präoperativ und mindestens 5 Tage postoperativ ein immunologischer Chemilumineszenztest (HemosIL® AcuStar HIT-IgG(PF4-H)) und ein funktioneller Heparin-induzierter Plättchenaktivierungstest (HIPA) durchgeführt, um eine Serokonversion zu detektieren. Ausschlusskriterium war eine Heparinexposition innerhalb der letzten 3 Monate sowie während und nach der Operation.
Ergebnisse: 107 konsekutive Patienten, 65 (60,7 %) weibliche und 42 (39,3 %) männliche Patienten, bei denen eine operative totale Hüftgelenk- (n= 66; 61,6 %) oder Kniegelenkendoprothese (n= 41; 38,3 %) durchgeführt wurde, wurden in die Studie eingeschlossen. Vor und auch nach der Operation konnte weder im durchgeführten Immunoassay noch im funktionellen HIPA eine Serokonversion mit der Bildung von anti-PF-4/Heparin Antikörpern festgestellt werden.
Diskussion: Große orthopädische Operationen allein nicht auszureichen, um die hohen HIT-Antikörper Serokonversionsraten in Abwesenheit von Heparin bei diesen Patienten zu erklären. Heparin scheint für eine Sensibilisierung unerlässlich zu sein. Aber auch andere Risikofaktoren für die Bildung von HIT-Antikörpern gegen den Komplex aus PF4 und Heparin bzw. Polyanionen, wie z.B. bakterielle Infektionen, Ausmaß des Gewebetraumas, Freisetzung von Nukleinsäuren, könnten eine Rolle spielen. Da das antigene Epitop nur bei optimalen stöchiometrischen Ratios von PF4 und Heparin/Glykosaminoglykanen induziert wird, ist es vorstellbar, dass einige der genannten Faktoren zusammenwirken könnten, um die Immunreaktion zu ermöglichen. Auf der Basis unserer Studie kann zwar das Konzept der ‘‘spontanen’’ HIT nicht erklärt werden. Auf Basis der bestehenden Daten kann es aber auch nicht verworfen werden.
Hintergrund: Ein adäquates Gerinnungsmanagement ist für antikoagulierte Patient*innen von zentraler Bedeutung. Gleichzeitig stellt dies sowohl für die Hausarztpraxis als auch für die Patient*innen eine große Herausforderung dar. Orale Antikoagulantien (OAK) werden zur Primär- und Sekundärprophylaxe von thromboembolischen Erkrankungen eingesetzt. Häufigste Nebenwirkungen sind Blutungskomplikationen, von einer harmlosen Bagatellblutung bis hin zur gefürchteten vital bedrohlichen intrazerebralen Blutung reichend. Zur Optimierung des Gerinnungsmanagements in der hausärztlichen Versorgung und Reduktion gerinnungsassoziierter Komplikationen bei Betroffenen wurde im Rahmen der PICANT-Studie (Primary Care Management for Optimized Antithrombotic Treatment) ein hausarztpraxisbasiertes Case Management mit einem engmaschigen Monitoring von Patient*innen durch das Praxisteam – bestehend aus Medizinischer Fachangestellten (MFA) und Hausärzt*innen – untersucht. Die stärke Einbindung der MFA in die Betreuung von Patient*innen mit einer Langzeitindikation für eine gerinnungshemmende Medikation stellt eine Weiterentwicklung des Gerinnungsmanagements in der hausärztlichen Versorgung dar. Diese Arbeit beschreibt die Sichtweise und Erfahrungen von MFA in ihrer neuen Rolle als Case Manager*innen (CM) für ein hausärztliches Gerinnungsmanagement. Zudem soll durch die zusätzliche Befragung beteiligter Hausärzt*innen und Patient*innen die Rolle der MFA aus den drei unterschiedlichen Perspektiven beleuchtet und miteinander verglichen werden. Durch die Erfahrungsberichte von MFA, Hausärzt*innen und Patient*innen zum hausarztpraxisbasiertem Case Management soll diese Arbeit einen wertvollen Beitrag zu den Diskussionen um neue Versorgungs- und Delegationskonzepte im Gerinnungsmanagement leisten.
Methoden: Im Anschluss an die cluster-randomisierte PICANT-Studie wurden leitfadengestützte Telefoninterviews mit 15 MFA, 15 Hausärzt*innen und 25 Patient*innen der Interventionsgruppe geführt. Nach Datenerhebung und wörtlicher Transkription erfolgte die Auswertung nach der Methode der inhaltlich strukturierenden Inhaltsanalyse nach Kuckartz mithilfe der Auswertungssoftware MAXQDA 12.
Ergebnisse: Die Mehrheit der MFA empfand die Erweiterung ihres Verantwortungsbereiches und die damit einhergehende stärkere Einbindung in die Patientenbetreuung als persönliche Bereicherung. Sie gaben an, dass sie neben vertieften Kenntnissen zum Gerinnungsmanagement v.a. auch an Selbstsicherheit im Umgang mit antikoagulierten Patient*innen dazugewinnen konnten. In der Rolle der CM betrachteten sie sich als federführende Studienorganisatorinnen, Vertrauenspersonen für Erkrankte, kompetente Ansprechpartnerinnen und Vermittlerinnen zwischen Hausärzt*innen und Patient*innen. Auch die beteiligten Hausärzt*innen sahen die MFA als treibende Kräfte der Studienorganisation und erkannten, dass sie einen Wissenszuwachs erzielen und damit die Rolle einer kompetenten Ansprechpartnerin für Patient*innen einnehmen konnten. Demgegenüber waren die MFA aus Patientensicht vorwiegend für die Studienorganisation verantwortlich und wurden eher weniger als kompetente Ansprechpartnerinnen bei Fragen zum Gerinnungsmanagement gesehen.
Schlussfolgerung: Unter den Befragten zeigte sich ein unterschiedliches Rollenverständnis. Während MFA bereit waren, ihren Kompetenzbereich zu erweitern und eine Aufwertung ihrer beruflichen Funktion beschrieben, wurden die neuen Rollen von der Ärzteschaft und den Patient*innen nur bedingt wahrgenommen. Insbesondere für den Großteil der Erkrankten blieb der Hausarzt / die Hausärztin die einzige Anlaufstelle bei wichtigen medizinischen Themen. Damit besteht weiterer Forschungsbedarf hinsichtlich teambasierter Interventionen, einschließlich der Frage, wie der Kompetenzgewinn der MFA und die damit verbundene Aufwertung ihrer beruflichen Rolle noch stärker ins Bewusstsein der Ärzteschaft und Patient*innen gelangen kann. Schließlich erfordert die erfolgreiche Implementierung eines Case Managements mit stärkerem Einbezug von MFA die Umgestaltung vorhandener Handlungs- und Rollenmuster und die enge Zusammenarbeit aller Beteiligten.
Hintergrund: Das Dravet-Syndrom (DS) ist ein seltenes, in der frühen Kindheit beginnendes, therapierefraktäres Epilepsiesyndrom, das mit einer hohen Morbidität und Mortalität verbunden ist.
Fragestellung: Ziele der Querschnittsstudie „Dravet syndrome caregiver survey“ (DISCUSS) sind die Identifizierung und Beschreibung der Faktoren, die einen Einfluss auf die Krankheitslast von Patienten mit DS und ihre Betreuer haben können. Die Ergebnisse der deutschen Kohorte werden vorgestellt.
Material und Methoden: Die Datenerhebung erfolgte durch eine anonyme Befragung von Eltern. Die Ergebnisse wurden für die verschiedenen Altersgruppen statistisch ausgewertet.
Ergebnisse: Der Fragebogen wurde von 68 Eltern der DS-Patienten mit einem durchschnittlichen Alter von 10 Jahren (Median: 9, Spanne: 1–26) ausgefüllt. Nur 3 Patienten (4,4 %) waren in den letzten 3 Monaten anfallsfrei. Insgesamt hatten 97 % der Patienten, die älter als 5 Jahre waren (n = 45), mindestens eine Komorbidität. Die zum Befragungszeitpunkt am häufigsten eingenommenen Antiepileptika waren Valproat, Kaliumbromid, Stiripentol, Clobazam und Topiramat. In der Vergangenheit wurden Natriumkanalblocker, Phenobarbital und Levetiracetam eingesetzt, aktuell fanden diese Antiepileptika nur selten Verwendung. Die Lebensqualität der Patienten war niedriger als die der Allgemeinbevölkerung. Die Erkrankung eines Familienmitglieds mit DS beeinflusst Eltern und Geschwister in hohem Maße.
Diskussion: Trotz individueller Kombinationstherapien sind die meisten Patienten mit DS nicht anfallsfrei. Insgesamt hat sich der Einsatz von beim DS wenig wirksamer Medikamente und der kontraindizierten Natriumkanalblocker zugunsten von wirksameren Medikamenten verschoben. Neue Therapie- und Versorgungskonzepte sind notwendig, um die Versorgung der Patienten mit DS zu verbessern und Eltern und Geschwister zu entlasten.
Patienten mit akuter Dekompensation einer Leberzirrhose (AD) oder einem akut-auf-chronischen-Leberversagen (ACLF) stellen ein vulnerables Kollektiv für den Erhalt eines Erythrozytenkonzentrates (EK) dar. Zu den Ursachen zählen das häufige Auftreten einer gastrointestinalen Blutung, die Koagulopathie oder das Vorliegen einer chronischen Anämie. Während für viele andere Patientenkollektive das richtige Transfusionsmanagement bereits erforscht worden ist, fehlen diese Studien für Patienten mit Leberzirrhose, insbesondere für die neue Entität ACLF. Die vorliegende Studie soll die Auswirkung einer EK-Transfusion auf Morbidität und Mortalität dieser Patienten untersuchen.
Insgesamt wurden 498 Patienten mit der Diagnose einer Leberzirrhose, die zwischen den Jahren 2015 und 2019 auf eine Intensivstation der Universitätsklinik Frankfurt aufgenommen worden sind, retrospektiv analysiert. Für die statistische Auswertung wurde ein Prospensity-Score-Matching nach EK-Transfusion mit Adjustierung für mögliche Konfundierungseffekte durchgeführt. Der Einfluss der Transfusion auf die Mortalität wurde mithilfe von Kaplan-Meier-Kurven und multivariater Cox-Regression untersucht. Für die ACLF-Kohorte wurden ROC-Kurven zum Versuch der Identifizierung eines Transfusionstriggers und eines Zielhämoglobinwertes nach Transfusion angefertigt.
In der Gesamtkohorte wiesen transfundierte Patienten eine signifikant höhere Mortalitätsrate als Nicht-Transfundierte auf (28-Tages-Mortalität: 39,6% vs. 19,5%, p<0,001). Dabei wirkte sich die Transfusion primär bei Patienten mit ACLF negativ auf das Überleben aus. Nach Matching der Patienten nach Erhalt eines EKs und Adjustierung für potentielle Konfundierungseffekte blieb die Kurzzeitmortalität bei transfundierten Patienten mit ACLF weiterhin signifikant erhöht (28-Tages-Mortalität: 72,7% vs. 45,5%, p=0,03). Bei AD Patienten zeigte die Transfusion keinen signifikanten Einfluss auf das Überleben. Die multivariate Cox-Regression identifizierte die EK-Transfusion als unabhängigen Risikofaktor der Kurzzeitmortalität im ACLF (HR: 2,55; 95% KI 1,26 – 5,15, p=0,009). Die Identifizierung eines Transfusionstriggers oder eines Zielhämoglobinwertes war nicht möglich.
Die vorliegende Studie konnte zeigen, dass die EK-Transfusion einen Risikofaktor der Kurzzeitmortalität im ACLF, aber nicht für AD Patienten darstellt. Dieses Ergebnis macht fortführende Untersuchungen zur Ursachenforschung und zur Evaluierung des richtigen Transfusionsmanagements für Patienten mit ACLF notwendig.
Langzeitergebnisse nach 10 Jahren unterstützender Parodontitistherapie: Zahnbezogene Parameter
(2022)
Ziel: Die Einschätzung der Prognose eines parodontal erkrankten Zahnes zu Beginn der unterstützenden Parodontaltherapie (UPT) ist Teil der Behandlungsplanung. Ziel dieser Studie war es, Zahnverlust bei parodontal kompromittierten Patienten über einen Zeitraum von 10 Jahren zu evaluieren und einflussnehmende zahnbezogene Risikofaktoren zu identifizieren.
Material und Methoden: Die Patienten wurden 120 ± 12 Monate nach aktiver Parodontaltherapie nachuntersucht. Zahnverlust während der UPT wurde als Hauptzielkriterium definiert. Zahnbezogene Faktoren [Pfeilerstatus, Furkationsbeteiligung (FB), Lockerungsgrad (LG), mittlere Sondierungstiefe (ST) und Attachmentlevel (AL) zu Beginn der UPT, initialer Knochenabbau (KA)] wurden mittels adjustierter logistischer Multilevel-Regressionsanalyse analysiert.
Ergebnisse: Siebenundneunzig Patienten (51 weiblich, Ø Alter 65,3 ± 11 Jahre) verloren 119 von initial 2323 Zähnen [Gesamtzahnverlust (GZV): 0,12 Zähne/Patient/Jahr] während 10 Jahren UPT, hiervon 40 aus parodontalen Gründen [parodontal bedingter Zahnverlust (PZV); 0,04 Zähne/Patient/Jahr]. Signifikant mehr Zähne wurden aus anderen Gründen extrahiert (p <0,0001). PZV (GZV) trat nur bei 5,9 % (14,7 %) der Zähne mit KA ≥ 80 % auf. Nutzung als Pfeilerzahn, FB III, LG I und II sowie mittlere ST und AL korrelierten positiv mit dem GZV. Bezüglich des PZV konnten ein FB III sowie ein LG III und mittlere AL als zahnbezogene Risikofaktoren identifiziert werden (p <0,05).
Schlussfolgerungen: Nach 10 Jahren UPT konnte ein Großteil (96,4 %) der parodontal vorerkrankten Zähne erhalten werden. Dies unterstreicht den positiven Effekt eines etablierten Behandlungskonzepts. Bereits bekannte zahnbezogene Risikofaktoren für Zahnverlust konnten bestätigt werden.
Die vorliegende Studie wurde durch die Stiftung Carolinum (Frankfurt am Main) finanziell unterstützt.
Hintergrund: Das Vestibularisschwannom ist der dritthäufigste gutartige intrakranielle Tumor. Besonders die Entität des KOOS Grad IV Vestibularisschwannoms stellt auch in der heutigen Zeit eine große Herausforderung für die behandelnden Chirurgen dar. Hierbei gilt es, die Problematik zwischen hochgradiger Tumorresektion und gleichzeitig optimalem Funktionserhalt der beeinträchtigten Nerven zu erkennen und zu bewältigen. Unter diesen Aspekten haben wir in dieser Arbeit versucht, die aktuellen operativen Prinzipien zu bewerten, einzuordnen und eine ideale Grenze für das Resektionsausmaß zu definieren, bei dem sowohl das funktionelle Ergebnis als auch das residuale Tumorwachstum berücksichtigt werden und in einer guten Balance zueinanderstehen.
Methodik: Alle Patienten, die zwischen 2000 und 2019 in der Klinik für Neurochirurgie am Universitätsklinikum Frankfurt mit einem KOOS Grad IV Vestibularisschwannom operativ behandelt wurden, sind in die Studie eingeschlossen worden. Alle Patienten wurden über einen retrosigmoidalen Zugang und unter intraoperativem Neuromonitoring, mit dem Ziel der sub- bis annähernd totalen Tumorresektion und Funktionserhalt des N. facialis, operiert. Die zu untersuchenden Parameter umfassten, neben standardmäßigen Patienten- und Tumormerkmalen, das Resektionsausmaß, das funktionelle Ergebnis des N. facialis, N. trigeminus und der kaudalen Hirnnerven sowie die Hörfunktion. Weiterhin wurden Daten zum operativen Verlauf und zu Komplikationen erhoben und in der Nachsorge wurde regelmäßig das funktionelle Ergebnis anhand klinischer Untersuchungen, sowie das residuale Tumorwachstum durch eine Bildgebung mittels MRT bewertet.
Ergebnisse: In die finale Analyse konnten 58 Patienten eingeschlossen werden. Das mittlere Tumorvolumen betrug 17,1 ± 9,2cm3 und es konnte ein durchschnittliches Resektionsausmaß von 81,6 ± 16,8 % erreicht werden. In die Analyse der Nachsorge konnten aufgrund von fehlenden Daten nur noch 51 Patienten eingeschlossen werden. Die durchschnittliche Nachsorgezeit betrug circa 3 Jahre. In Bezug auf das residuale Tumorwachstum konnte bei 11 Patienten (21,6 %) eine Progression und bei 12 Patienten (23,5 %) eine Regression festgestellt werden. Bei 15 Patienten (29,4 %) wurde postoperativ eine adjuvante Behandlung durchgeführt, entweder durch stereotaktische Bestrahlung oder erneute Operation. Die funktionellen Ergebnisse bei Entlassung zeigten bei 38 Patienten (74,5 %) einen Erhalt der Hörfunktion und bei 34 Patienten (66,7 %) eine gute Funktion des N. facialis. Im Verlauf der Nachsorge verbesserte sich das funktionelle Ergebnis signifikant und stieg bezüglich einer guten Funktion des N. facialis auf 82,4 % an. Außerdem konnte ein ideales Resektionsausmaß von ≤ 87 % (OR 11,1) als unabhängiger Prädiktor für ein residuales Tumorwachstum definiert werden. Dagegen zeigte sich bei einem Resektionsausmaß von > 87 % nur in 7,1 % der Fälle eine Resttumorprogression in der Nachsorge (p = 0,008).
Schlussfolgerung: Die sub- bis annähernd totale Resektion stellt ein angemessenes therapeutisches Verfahren für das KOOS Grad IV Vestibularisschwannom dar und ist besonders bei jeglicher Art von Hirnstammkompressionen die Methode der Wahl. Dieses Verfahren zeigt gute Ergebnisse, vor allem in Bezug auf den Erhalt der Hörfunktion und den Funktionserhalt des N. facialis bei gleichzeitig geringen Raten an Progression des Resttumors. Bei der operativen Versorgung sollte auf ein Resektionsausmaß von > 87 % geachtet werden, um die Wahrscheinlichkeit für einen Tumorprogress möglichst zu reduzieren.
Fallzahlaufkommen und Qualitätsindikatoren bei der Versorgung des abdominellen Bauchaortenaneurysmas
(2021)
Hintergrund: Der MTL30 ist ein Surrogatparameter, der bisher in visceralchirurgischen Registern verwendet wird, um eine Prognose über die Qualität verschiedener komplikationsträchtiger Eingriffe abzugeben. Der Marker wird als positiv gewertet, wenn ein Patient am 30. postoperativen Tag verstorben (mortality) ist, in ein anderes Akutkrankenhaus verlegt (transfer) werden musste oder weiterhin im Krankenhaus verweilen muss (length of stay >30 days).
Zielsetzung: In dieser Arbeit sollte untersucht werden, ob der MTL30 eine Aussage über die Qualität der operativen Versorgung des Bauchaortenaneurysmas (AAA) abgeben kann. Dazu sollten Kliniken mit unterschiedlichem Fallaufkommen hinsichtlich Letalität und MTL30 miteinander verglichen werden. Zusätzlich sollten Literaturempfehlungen zu Mindestmengen des Fallaufkommens überprüft werden.
Methodik: Insgesamt wurden 18.205 elektive Eingriffe aus dem AAA- Register des Deutschen Instituts für Gefäßmedizinische Gesundheitsforschung (DIGG) der Deutschen Gesellschaft für Gefäßchirurgie und Gefäßmedizin (DGG) analysiert. 14.282 Patienten wurden mittels endovaskulärer Aortenaneurysmaversorgung (EVAR) und 3.923 Patienten mittels offener Versorgung (OAR) behandelt. Die Ergebnisse wurden zum Fallaufkommen der Kliniken in Beziehung gesetzt.
Ergebnisse: Weder für die Letalität noch für den MTL30-Wert konnten Volumen- Ergebnisbeziehungen gefunden werden. Bei EVAR lag die Sterblichkeit im Quintil 1 des Fallaufkommens bei 1,0% und im Quintil 5 bei 1,3%. Auch beim MTL30 ergaben sich keine signifikanten Unterschiede zwischen Quintil 1 und 5, der MTL30 belief sich jeweils auf 5,3%. Bei OAR war die Klinikletalität in dem Quintil mit dem geringsten Fallaufkommen (Quintil 1) mit 5,8% verglichen mit Quintil 5 (höchstes Fallaufkommen, Klinikletalität 3,5%) im Trend höher, aber nicht signifikant unterschiedlich (p= 0,505). Auch bei OAR korrelierte der MTL30 nicht mit dem Fallaufkommen (Quintil 1: 16,4% vs. Quintil 5:12,2%, p=0,110). Jedoch korrelierte die Liegedauer bei EVAR und OAR sowohl mit der Letalität (EVAR: Quintil 1 der Liegezeit 1,69% vs. Quintil 5 1,02%, p= 0,042; OAR: Quintil 1: 6,78% vs. Quintil 5: 2,16%, p= 0,000) als auch mit dem MTL30 (EVAR: Quintil 1 der Liegezeit 7,35% vs. Quintil 5 2,85%, p=0,000; OAR: Quintil 1 26,28% vs. Quintil 5 5,19%, p= 0,000).
Folgerung: Es konnte weder bei EVAR noch bei OAR ein Zusammenhang zwischen dem jährlichen Fallaufkommen und der Letalität bzw. dem MTL30 gefunden werden. Ob der MTL30 gegenüber der alleinigen Erfassung der Klinikletalität als Qualitätsparameter einen Zusatznutzen bietet, muss offenbleiben. Ein vielversprechenderer Marker scheint die stationäre Liegedauer zu sein, die zusätzlich zur Letalität als Qualitätsparameter verwendet werden könnte.
Hintergrund. Patienten mit Gliomen, die das Corpus callosum miteinbeziehen, befinden sich häufig in einem schlechten neurologischen Zustand und werden aufgrund der Antizipation postoperativer neurologischer und neurokognitiver Defizite nur selten einer Tumorresektion unterzogen.
Ziel der Arbeit. Zielsetzung dieser Arbeit war die Untersuchung eines möglichen Vorteils der Resektion von Gliomen im Corpus callosum, unter der Annahme, dass neurokognitive Defizite vor allem durch den Tumor selbst verursacht werden.
Material & Methoden. In diese prospektive Studie wurden zwischen 01/2017 und 01/2020 21 Patienten eingeschlossen, die eine Gliomresektion im Corpus callosum erfuhren. Klinische Routinedaten als auch die neurokognitiven Funktionen der Patienten wurden prä- und postoperative sowie nach 6 Monaten erhoben.
Ergebnisse. In 15 Patienten konnte eine Komplettresektion, in 6 Patienten eine subtotale Resektion mit einem Resektionsausmaß von 97,7% erzielt werden. Während der medianen Beobachtungszeit von 12,6 (2,0 – 30,9) Monaten starben 8 Patienten mit einem Glioblastom ZNS WHO Grad 4 und 1 Patient mit einem Astrozytom ZNS WHO Grad 4 nach im Median von 17 (3,8 – 20,6) Monaten, während 12 Patienten nach im Median 9,4 (2,0 – 30,9) Monaten noch am Leben waren.
Präoperativ wiesen bis zu zwei Drittel aller Patienten Beeinträchtigungen in allen kognitiven Domänen auf, trotz eines medianen Karnofsky Performance Scores von 100% (Spanne 60-100%). Postoperativ wurde in allen neurokognitiven Domänen ein zunehmender Anteil an Patienten mit Einschränkungen beobachtet. Nach 6 Monaten zeigte sich jedoch, dass signifikant weniger Patienten Beeinträchtigungen in den Domänen Aufmerksamkeit, Exekutivfunktionen, Gedächtnis und Depression aufwiesen – Funktionen, die für den Alltag der Patienten von höchster Bedeutung sind.
Fazit. Die Resultate dieser Studie unterstützen unsere Hypothese, dass für Patienten mit Gliomen, die das Corpus callosum miteinbeziehen, der Vorteil einer Tumorresektion das Risiko neuer Defizite überwiegt.
Die Niere ist das in Deutschland am häufigsten transplantierte Organ. Patienten nach Nierentransplantation haben aufgrund der notwendigen Immunsuppression ein erhöhtes Risiko für Infektionen. Die häufigste Infektion nach einer Nierentransplantation ist die Harnwegsinfektion, eine lebensbedrohliche Verlaufsform mit Entwicklung von Organdysfunktionen bezeichnet man als Urosepsis. Durch die Immunsuppression kann die Erkennung des septischen Krankheitsbildes erheblich erschwert sein, da typische körperliche Reaktionen auf eine Infektion unter Immunsuppression (z.B. Fieber, Tachykardie) verändert ablaufen.
Im Rahmen einer Sepsis laufen parallel pro- und antiinflammatorische Prozesse ab. Ein Überwiegen der antiinflammatorischen Prozesse kann zur Entwicklung einer „Sepsis-induzierten Immunsuppression“ führen, welche ein deutliches Mortalitätsrisiko darstellt, da sie zur fehlenden Sanierung des Infektionsfokus sowie zur Entwicklung sekundärer (z.T. opportunistischer) Infektionen führen kann. Ein zentraler antiinflammatorischer Prozess ist die Apoptose von CD4 und CD8 Lymphozyten. Die Möglichkeit der therapeutischen Beeinflussung dieses immunsupprimierten Zustandes ist aktuell Gegenstand zahlreicher Studien. Ziele der vorliegenden Arbeit waren die Überprüfung, ob sich der Abfall der Lymphoyztenzahl/eine Lymphopenie im Rahmen einer Infektionsepsiode auch in der immunsupprimierten Patientenklientel nach Nierentranplantation darstel-len lässt. Des Weiteren sollte diskutiert werden, ob der Nachweis einer reduzierten CD4/8 Lymphozytenzahl geeignet sein kann, diagnostisch die Infektionssituation einzuschätzen und ggf. die immunsuppressive Therapie anzupassen.
In dieser retrospektiven Kohortenanalyse wurden die Daten von nierentransplantierten Patienten ausgewertet, welche in den Jahren 2010 und 2011 im Universitätsklinikum der Goethe-Universität Frankfurt am Main aufgrund einer Harnwegsinfektion (n=47) oder Urosepsis (n=75) behandelt wurden. Es erfolgte ein Ver-gleich der CD4/CD8 Lymphozytenzahl vor, während und nach einer Infektions-episode. Ergänzend wurden die Häufigkeit einer CMV-Reaktivierung/-Infektion sowie das ursächliche bakterielle Erregerspektrum mit zugehörigem Antibiotika-resistenzmuster erhoben.
Sowohl Patienten mit Urosepsis als auch mit Harnwegsinfektion zeigten einen signifikanten Abfall der CD4 Lymphozyten im Rahmen der Infektionsepisode (p<0,01; p<0,05). Patienten mit Urosepsis zeigten zudem einen signifikanten Abfall der CD8 Lymphozyten (p<0,01). Patienten mit Erregernachweis in der Blutkultur zeigten signifikant niedrigere CD4/8 Lymphozyten während der Infek-tionsepisode (p<0,05) als Patienten mit negativer Blutkultur. Eine niedrige CD4/8 Lymphozytenzahl korrelierte besser mit einem Erregernachweis mittels Blutkultur als das Erfüllen der SIRS Kriterien. Mit Behandlung der Infektionsepi-sode zeigte sich ein Wiederanstieg der CD4/8 Lymphozytenzahlen. Unter Re-duktion/Pausieren der immunsuppressiven Therapie kam es zu keiner Abstoßungsreaktion/keinem Versterben eines Patienten im Rahmen der Infektionsepisode. Zu einem CMV-DNA Nachweis kam es bei 15 Patienten (20%) der Gruppe Urosepsis sowie 8 Patienten (17%) der Gruppe Harnwegsinfektion während der Infektionsepisode. Sowohl in Urin- als auch Blutkulturen waren E.coli gefolgt von Enterokokken die häufigsten nachgewiesenen Erreger. E.coli fanden sich signifikant häufiger in Urin- und Blutkulturen bei Urosepsis, Enterokokken signifikant häufiger in Urinkulturen bei Harnwegsinfektionen. Es zeigten sich hohe Antibiotikaresistenzraten insbesondere gegenüber Cotrimoxazol (59% der E.coli) und Fluorchinolonen (45% der E.coli, 82% der Enterokokken). 11% der E.coli und 62% der Klebsiellen waren als 3MRGN Erreger zu klassifizieren, 15% der Klebsiellen als 4MRGN mit Carbapenemresistenz.
Zusammenfassend lässt sich auch bei immunsupprimier-ten/nierentransplantierten Patienten im Rahmen einer Infektionsepisode ein signifikanter Abfall der CD4/8 Lymphozyten nachweisen. Das Reduzieren/Pausieren der immunsupressiven Therapie erscheint anhand der vorgelegten Daten sinnvoll, ein Monitoring der CD4/8 Lymphozytenzahl könnte zur Therapiesteuerung geeignet sein. Im Rahmen weiterer prospektiver Studien könnte eine Erarbeitung eines festen Schemas der Anpassung der immunsuppressiven Therapie an eine bestimmte CD4/8 Lymphozytenzahl sinnvoll sein. Passend zur Vergleichsliteratur waren E.coli und Enterokokken die am häufigsten nachgewiesenen Erreger. Die hohen Antibiotikaresistenzmuster unterstreichen die Notwendigkeit, das lokale Erregermilieu zu kennen, um möglichst passend kalkuliert antibiotisch behandeln zu können.
Acne inversa ist eine chronisch entzündliche Hauterkrankung der Terminalhaarfollikel und Talgdrüsen, die sich zu schmerzhaften tiefsitzenden Knoten entwickelt, welche in Abszessen und Fistelgängen resultieren können und mit starken Schmerzen und psychischen Belastungen für die Patienten einhergehen. Die Pathophysiologie der AI ist bisher nur unzureichend verstanden. Es wird angenommen, dass die IL-23-TH17-IL-17-Achse eine wichtige Rolle in der Pathogenese der AI spielt. Neben der Hyperkeratose im Bereich des Terminalhaarfollikels scheinen die entzündlichen Infiltrate im Bereich der Epidermis eine psoriasiforme Hyperplasie zu induzieren. In vorangegangenen Arbeiten konnte gezeigt werden, dass der mTORC1-Signalweg (mammalian target of rapamycin complex 1), welcher durch Zytokine wie IL-1β, TNF-α und IL-17A aktiviert wird, in der Pathogenese der Psoriasis vulgaris von großer Bedeutung ist. Aufgrund immunologischer und histologischer Gemeinsamkeiten beider Erkrankungen ist es denkbar, dass der mTORC1-Signalweg ebenfalls bei der Pathogenese und Progression der AI eine Rolle spielt, was im Rahmen dieser Arbeit untersucht werden sollte. Immunhistochemische Färbungen für phosphorylierte Komponenten des Signalwegs zeigten eine stark erhöhte mTORC1-Aktivität in den AI-Läsionen. Diese war abhängig vom Schweregrad der AI-Läsion sogar teilweise höher als in der Psoriasis vulgaris. Die starke Aktivierung der mTORC1-Kaskade korrelierte mit Stellen, die eine aberrante Expression von Differenzierungs-, Proliferations- und Entzündungsmarkern aufwiesen. Auffällig war ebenfalls die starke STAT3-Aktivierung, welche durch erhöhte Phosphorylierung an Y705 und S727 gemessen werden konnte und auch auf eine Beteiligung dieses Signalwegs an der Pathogenese hindeutet. Da es Hinweise auf Überschneidungen zwischen dem mTORC1-Signalweg und der ebenfalls in der Psoriasispathogenese involvierten STAT3- Kaskade gibt, wurde dieser Zusammenhang untersucht. Es konnte in vitro gezeigt werden, dass psoriasis-typische Zytokine eine Phosphorylierung von STAT3 an S727 induzieren, was durch die Behandlung mit dem mTOR-Inhibitor Rapamycin gehemmt werden konnte.
Zusammenfassend deuten die hier gewonnenen Daten darauf hin, dass der PI3-K/Akt/mTOR-Signalweg, aber auch die JAK/STAT3-Kaskade eine entscheidende Rolle in der Acne inversa-Pathogenese spielen und damit potenziell neue Angriffspunkte für die Entwicklung neuer Therapien darstellen können. Damit geben die gezeigten Ergebnisse vielversprechende Ansatzpunkte um pharmakologisch gut etablierte Medikamente wie z.B. Sirolimus oder Tofacitinib als neue Ansätze für die AI-Therapie weiter zu untersuchen.
Aufgrund einer Vielzahl an Patienten mit sekundären Lebertumoren sind aus medizinischen oder technischen Gründen nicht operabel sind, erfahren alternative lokalablative Behandlungsformen in den letzten beiden Jahrzehnten zunehmende Verbreitung.
Das Ziel der hier vorliegenden Studie ist es, das Therapieansprechen und die Sicherheit von Mikrowellen- (MWA) und Radiofrequenzablation (RFA) von Lebermetastasen in einer randomisierten Studie zu bestimmen und prospektiv zu vergleichen.
Es unterzogen sich 50 Patienten (27 Frauen, 23 Männer, mittleres Alter 62,8 Jahre) einer CT-gesteuerten perkutanen thermischen Ablation von 50 Lebermetastasen. Davon erhielten 26 Patienten eine MWA und 24 Patienten eine Behandlung mit RFA. Das kolorektale Karzinom war in 54 % der Fälle ein Primärtumor, das Mammakarzinom in 20 %, das Pankreaskarzinom und das Gallenblasenkarzinom jeweils in 6 %, der Ovarialtumor in 4 %, das Ösophaguskarzinom und andere Tumorentitäten jeweils in 2 % der Fälle. Die Lage der Lebermetastasen und die morphologische Veränderung der Läsionen in Größe, Volumen, nekrotischem Bereich, Diffusion und ADC-Wert wurden durch Magnetresonanztomo-graphie (MRT) bewertet. Die erste MRT-Kontrolle erfolgte vor der Behandlung mit thermischer Ablation. Das Follow-up beinhaltet MRT-Kontrollen 24 Stunden nach der Ablation und 4 Kontrolluntersuchungen im Abstand von 3 Monaten innerhalb von einem Jahr.
50 Läsionen mit einem mittleren Durchmesser von 1,63 cm (Range: 0,6 - 3,7 cm; MWA 1,72 cm, RFA 1,53 cm) wurden mit thermischer Ablation behandelt. Die lokale Rezidivrate innerhalb eines Jahres betrug für beide Versuchsarme 4 % (2/50), 0 % (0/26) in der MWA-Gruppe und 8,3 % (2/24) in der RFA-Gruppe. Die Rate für neu entstandene maligne Formationen, die sich an einem anderen Ort als die behandelte Läsion befanden, betrug in beiden Gruppen etwa 38 % (19/50), in der MWA-Gruppe 38,4 % und in der RFA-Gruppe 37,5 %. Die Sterblichkeitsrate für diese Studie betrug 14,0 %. 15,4 % der Patienten im Behandlungsarm der MWA-Gruppe und 12,5 % im RFA-Behandlungsarm verstarben im Rahmen dieser Studie. Es konnten keine größeren Komplikationen festgestellt werden.
Zusammenfassend zeigt die MIRA-Studie zur thermischen Ablation von Lebermetastasen keine signifikanten Unterschiede in der Mortalität, malignen Neubildungen oder Komplikationsraten zwischen MWA und RFA. Die Studie stellt fest, dass die thermische Behandlung mit MWA im Rahmen des 1-Jahres-Follow-ups größere Volumina im Ablationsgebiet und eine gering höhere Mortalität hervorruft, wobei man die höhere Pankreaskarzinomrate in diesem Studienzweig berücksichtigen sollte. Im RFA-Studienarm wurden hingegen 2 Lokalrezidive erfasst.
Vor dem Hintergrund der hier vorliegenden Ergebnisse und in Zusammenschau mit der aktuellen Literatur sind beide thermischen Verfahren mehrheitlich sicher durchführbare und effektive Methoden zur Behandlung von Patienten mit nicht operablen sekundären Lebermalignomen. Unterschiede zeigen sich in den physikalischen, technischen Voraussetzungen und damit in der Größe der erzeugten Ablations- und Nekrosezonen. Diese spielen vorrangig in der Behandlung von großen und gefäß- sowie gallengangsnahen Läsionen eine differenzierte Rolle. Die Größe und die Heterogenität des Patientenkollektivs in Bezug auf Tumorentität, die unterschiedlichen Vorbehandlungen sowie der Nachbeobachtungszeit-raum von nur 12 Monaten mindern die Aussagekraft der Studie. Um die vorliegenden Ergebnisse zu stützen, sollten weitere Untersuchungen mit einem größe-ren Patientenkollektiv folgen, beispielsweise in Form einer multizentrischen Studie, in welcher differenzierter bezüglich Tumorentität und Vorbehandlungen unterteilt wird.
In der vorliegenden randomisiert-kontrollierten Cross-Over-Studie wurde erstmals die Wirksamkeit einer Manuellen Lymphdrainage (MLD) bei 14 männlichen Hämophilie A/B-Patienten (Durchschnittsalter 37,2 Jahre) untersucht.
Die Patienten erhielten im achtwöchigen Behandlungszeitraum zweimal pro Woche eine 30-minütige Lymphdrainagebehandlung (Periode 1). Nach vierwöchiger Wash-Out-Phase folgte ein weiterer achtwöchiger Nicht- Behandlungszeitraum (Periode 2). Je nach Gruppenzuweisung starteten die Patienten mit Periode 1/Wash-Out/Periode 2 oder in umgekehrter Reihenfolge Periode 2/Wash-Out/Periode 1.
Folgende Untersuchungsparameter wurden an vier zeitlichen Messpunkten erhoben: Schmerz (VAS), Gelenkbeweglichkeit (ROM), Hemophilia Joint Health Score 2.1 (HJHS) und Oberflächentemperatur (Infrarotthermografie).
In der Cross-Over-Analyse zeigte der Parameter „Schmerz“ eine signifikante Wirksamkeit der MLD (p=0,003): 66,7% der Patienten gaben eine deutliche Schmerzreduktion an, 33,3% der Patienten gaben eine leichte Schmerzreduktion an. Im HJHS reduzierte sich im Median die Punktzahl um 2,8 Punkte (p= 0,017). Insbesondere im Item „Gelenkschmerzen“ zeigte sich eine Reduktion des Scores um mindestens einen Punktwert bei 58,3 % der Patienten. Der erhobene HJHS- Score weist eine hohe interne Validität auf, da der Test ausschließlich von einem Expertentherapeuten durchgeführt wurde.
Die MLD hatte keinen klinisch relevanten Einfluss auf die Gelenkbeweglichkeit bei Extensions-/Flexionsbewegungen (p=0,3025/p=0,1082).
Die Infrarotthermografie (IRT) zeigte durchschnittliche Änderungen der Oberflächentemperatur eines Zielgelenks um insgesamt + 0,38°C (p=0,639). Zusammenfassend lässt sich sagen, dass die MLD einen signifikanten schmerzlindernden Effekt bei Patienten mit hämophiler Arthropathie besitzt. Dies geht mit einem insgesamt verbesserten HJHS-Score einher. Im Kontext der Gelenkbeweglichkeit zeigte die MLD keine klinisch relevante Verbesserung des artikulären Bewegungsausmaßes. Die veränderte Oberflächentemperatur im
Bereich der behandelten Target Joints lässt am ehesten eine lokale Stoffwechselanregung durch MLD vermuten. Ein Placebo-Effekt kann nicht ausgeschlossen werden, da durch die körperliche Zuwendung im Rahmen der MLD eine positive Auswirkung auf das subjektive Schmerzempfinden eine Rolle spielen könnte.
Für eine weitere Objektivierung und eine Empfehlung für eine klinische Anwendung der MLD bei Patienten mit hämophiler Arthropathie sind multizentrische, randomisierte Kontrollstudien mit höheren Fallzahlen erforderlich.
Hintergrund: Der eigene Körper ist das zentrale Arbeitsinstrument eines*einer Tanzpädagog*in (TP) innerhalb der Bewegungsvermittlung. Bisher fehlen Erkenntnisse über die subjektive Wahrnehmung der eigenen berufsassoziierten Gesundheit und Zufriedenheit sowie die Identifizierung gesundheitsbelastender Berufsmerkmale.
Methodik: Im Rahmen einer fragebogenbasierten Querschnittserhebung wurde eine Kohorte von TP in Deutschland zur eigenen Gesundheit und generellen Berufszufriedenheit und belastenden Aspekten im Zusammenhang mit ihrer Berufsausübung untersucht. Zusätzlich wurden allgemeine anthropometrische und soziodemographische Merkmale erfasst. Neben der Betrachtung der Gesamtkohorte wurde auf geschlechtsspezifische Unterschiede getestet. In die statistische Analyse wurden n = 232 TP (m: 51/w: 181) im Alter von 43,1 ± 11,0 Jahren eingeschlossen.
Ergebnisse: Der allgemeine Gesundheitszustand wurde von 85,3 % der Befragten mit „befriedigend“ (26,1 %) bis „sehr gut“ (14,7 %) beurteilt. 59,2 % der Tanzpädagog*innen schätzten ihre Gesundheit „gut“ (35,3 %) bis „sehr gut“ ein. Es herrschte eine hohe Zufriedenheit mit der eigenen Berufsausübung für 80 % der Teilnehmenden. Die TP fühlten sich überwiegend in der Lage (trifft „voll & ganz“ bzw. „eher zu“), mit den physischen (75,7 %) und psychischen Berufsanforderungen (70,3 %) umzugehen. Als belastende Berufsmerkmale in der Eigenwahrnehmung können neben Zukunftsängsten (51,5 %) vor allem arbeitsorganisatorische (fehlende Zeit für Familie und Freunde bei 28,4 %) und ökonomische Aspekte (Einkommensunsicherheit bei 61,0 % und fehlende Altersabsicherung bei 65,7 %) herausgestellt werden.
Diskussion: Die Berufsausübung als TP geht mit einer hohen generellen Zufriedenheit und einem positiven Empfinden des eigenen Gesundheitszustandes einher. Eine Bestätigung dieser positiven Ergebnisse durch Verletzungs- und Erkrankungsstatistiken steht noch aus. Darüber hinaus wäre eine Verbesserung arbeitsorganisatorischer und ökonomischer Aspekte wünschenswert.
Hintergrund: Ab Frühjahr 2020 kam es zur weltweiten Verbreitung von SARS-CoV‑2 mit der heute als erste Welle der Pandemie bezeichneten Phase ab März 2020. Diese resultierte an vielen Kliniken in Umstrukturierungen und Ressourcenverschiebungen. Ziel unserer Arbeit war die Erfassung der Auswirkungen der Pandemie auf die universitäre Hals-Nasen-Ohren(HNO)-Heilkunde für die Forschung, Lehre und Weiterbildung. Material und Methoden: Die Direktorinnen und Direktoren der 39 Universitäts-HNO-Kliniken in Deutschland wurden mithilfe einer strukturierten Online-Befragung zu den Auswirkungen der Pandemie im Zeitraum von März bis April 2020 auf die Forschung, Lehre und die Weiterbildung befragt. Ergebnisse: Alle 39 Direktorinnen und Direktoren beteiligten sich an der Umfrage. Hiervon gaben 74,4 % (29/39) an, dass es zu einer Verschlechterung ihrer Forschungstätigkeit infolge der Pandemie gekommen sei. Von 61,5 % (24/39) wurde berichtet, dass pandemiebezogene Forschungsaspekte aufgegriffen wurden. Von allen Kliniken wurde eine Einschränkung der Präsenzlehre berichtet und 97,5 % (38/39) führten neue digitale Lehrformate ein. Im Beobachtungszeitraum sahen 74,4 % der Klinikdirektoren die Weiterbildung der Assistenten nicht gefährdet. Schlussfolgerung: Die Ergebnisse geben einen Einblick in die heterogenen Auswirkungen der Pandemie. Die kurzfristige Bearbeitung pandemiebezogener Forschungsthemen und die Einführung innovativer digitaler Konzepte für die studentische Lehre belegt eindrücklich das große innovative Potenzial und die schnelle Reaktionsfähigkeit der HNO-Universitätskliniken, um auch während der Pandemie ihre Aufgaben in der Forschung, Lehre und Weiterbildung bestmöglich zu erfüllen.
Der Anspruch in der Implantatprothetik, ein hohes Maß an Qualität bei der Funktionalität und Ästhetik zu erreichen, hat zur Entwicklung verschiedener Implantatsysteme geführt. Deren Komponenten sollten nicht nur belastbar, sondern zugleich möglichst gewebeverträglich sein. Große Bedeutung kommt hier dem Bindeglied zwischen enossalem Implantat und der implantatgetragenen Krone, dem Abutment, zu. Dieses macht zumeist lediglich ein kleines Segment des transmukosalen Übergangs aus, zeigt sich jedoch für multiple Risikofaktoren, die den Langzeiterfolg der Implantatversorgung bedingen, verantwortlich.
Zirkonoxidabutments bestechen durch ihre Ästhetik und sehr gute Gewebeverträglichkeit. Titanabutments sind solchen aus Zirkonoxid mechanisch vor allem durch ihr charakteristisches Verhalten im Bereich der IAV überlegen. Um deren Vorteile zu vereinen, werden Standardabutments aus Titan mit einer individualisierten Zirkonoxidsuprakonstruktion adhäsiv zu einer funktionellen Einheit verbunden. Zur Verklebung dieser Hybridabutments eignen sich moderne Befestigungskomposite. Die Belastbarkeit dieser Verbindung kann durch verschiedene In-vitro-Untersuchungen bestätigt werden. Die Verbundfestigkeit kann durch Parameter wie den Zementspalt oder die Höhe des Titanabutments divergieren. Der Prozess der Verklebung muss einen hydrolysestabilen adhäsiven Verbund im feuchten Milieu der Mundhöhle gewährleisten, ohne die physikalischen Eigenschaften der eingesetzten Komponenten zu verändern.
Die Vermeidung bakterieller Kontamination der Hybridabutments erfolgt durch die Sterilisation im Autoklav. Da die Hybridabutments der semikritischen Risikogruppe der MP zugeordnet werden konnten, wurden diese häufig vor dem klinischen Einsatz jedoch nicht sterilisiert. Die Anwendung eines Sterilisationsverfahrens begünstigt sowohl den Zustand des periimplantären Weichgewebes, als auch die Stabilität der IAV bei Hybridabutments, geht allerdings mit einer thermischen Belastung einher. Verfahren zum Lösen von Klebeverbindungen nutzen die Eigenschaft von Klebstoffen, bei kritischem Wärmeeintrag mit einer Schädigung der Polymermatrix zu reagieren. Daher wurde die Hypothese formuliert, dass die Sterilisation im Autoklav den adhäsiven Verbund schwächen und zu niedrigeren Haftwerten führen könnte.
Zur Beurteilung eines möglichen Einflusses der Sterilisation auf die mechanische Widerstandsfähigkeit der verklebten Hybridabutments wurden mehrere Befestigungskomposite in die Untersuchung miteinbezogen. Es wurden 80 Titanbasen angefertigt und adhäsiv mit Zirkonoxidsuprakonstruktionen befestigt. Bei den fünf Befestigungskompositen handelte es sich um den DTK Kleber (Bredent), G-CEM LinkAce (GC Germany), RelyX Unicem2 (3M Espe AG), Multilink Hybridabutment (Ivoclar Vivadent GmbH) und Panavia F2.0 (Kuraray Medical). Von den fünf Gruppen mit je 16 Prüfkörpern durchlief jeweils die Hälfte eine Sterilisation im Autoklav während die Kontrollgruppe bei Raumtemperatur gelagert wurde. Abschließend wurden die Prüfkörper mit einer Universalprüfmaschine in uniaxialer Richtung bis zum Versagen der Verbindung belastet. Die dabei auftretende Abzugskraft wurde aufgezeichnet und die jeweiligen Werte miteinander verglichen.
Bei der Auswertung lagen statistisch signifikante Unterschiede der Haftwerte zwischen einer Test- und Kontrollgruppe, sowie unter den Befestigungskompositen selbst vor. Die Ergebnisse zeigen eine große Varianz, entkräften aber die formulierte Hypothese, dass eine abschließende Sterilisation im Autoklav zu einer Reduktion der Haftkraft innerhalb der Hybridabutments führen könnte. Die Ergebnisse können im Gegenteil dahingehend interpretiert werden, dass die Widerstandsfähigkeit durch die Sterilisation sogar verstärkt wird. Dies stellt vor dem Hintergrund, dass die Sterilisation neben der Beseitigung einer bakteriellen Kontamination auch Debris reduziert und somit die Passung der Komponenten erhöht, eindeutige Vorteile gegenüber weniger effektiven Aufbereitungsmethoden dar. Die positiven Effekte der Sterilisation auf den Knochenerhalt und das periimplantäre Gewebe überwiegen die potentiellen Nachteile nach derzeitigem Kenntnisstand bei weitem.
Da in der vorliegenden Versuchsreihe jedoch nur die Abzugskräfte in axialer Richtung verglichen wurden und keine künstliche Alterung simuliert wurde, bedarf es weiterer Untersuchungen um die mechanische Belastbarkeit in vivo zu verifizieren.
Hintergrund: Für die Langzeitbehandlung vieler chronischen Erkrankungen im Kindesalter ist ein dauerhafter zentralvenöser Zugang notwendig, der die Applikation von Medikamenten und eine parenterale Ernährung sichert. Häufig werden hierfür sogenannte tunnelierte zentralvenöse Katheter wie Hickman-/Broviac- Katheter verwendet. Diese Kathetersysteme weisen spezifische postoperative Komplikationen auf. Katheterassoziierte Komplikationen sind von großer klinischer Relevanz, da es hierdurch zu einer verfrühten Explanation des Katheters kommen kann und die Applikation von Medikamenten nicht mehr gewährleistet ist. Es ist daher entscheidend, die Risiken postoperativer Komplikationen zu identifizieren, um entsprechende Präventions- und Verhaltensregeln zu entwickeln und die Verweildauer des tunnelierten Katheters möglichst langfristig sicherzustellen.
Ziel der vorliegenden retrospektiven Studie war neben der Untersuchung postoperativer Komplikationen tunnelierter Hickman-/Broviac- Katheter im Kindesalter die Identifikation von prädisponierenden Risikofaktoren.
Material und Methoden: In einer retrospektiven Kohortenstudie wurden in dem Zeitraum von Januar 2013 bis Juni 2017 Daten von pädiatrischen Patient:innen bis 21 Jahre mit einliegenden Hickmann-/Broviac Kathethersystemen eingeschlossen. Mögliche Risikofaktoren bezüglich katheterassoziierter Komplikationen wurden analysiert: Alter, Geschlecht, Grunderkrankung, Behandlungsindikation, das zur Implantation verwendete Gefäß, Anzahl der Lumen und die Kathetertage in situ. Die Daten wurden aus Papierakten, digitalen Krankenakten, Operationsberichten und Röntgenaufnahmen der Klinik für Kinderheilkunde und der Klinik für Kinderchirurgie und Kinderurologie des Universitätsklinikums Frankfurt in Excel (Version 2016) anonymisiert erfasst und deskriptiv und explorativ ausgewertet. Signifikante Unterschiede wurden mit Hilfe des X2-Test, des exakten Fisher-Tests, sowie des Mann- Whitney-U-Tests ermittelt. Die Durchführung der Studie wurde vom Ethikkomitee des Universitätsklinikums Frankfurt am Main genehmigt (Nummer 172-18).
Ergebnisse: Insgesamt wurden 333 Patient:innen mit 386 implantierten Kathetern (BARD Hickman-/Broviac- zentralvenöser Katheter; Bard Access Systems, Salt Lake City, UT), in die Studie eingeschlossen. Der Altersmedian der Patient:innen zum Zeitpunkt der Implantation lag bei 6.34 Jahren. Die meisten Katheter wurden wegen einer malignen Erkrankungen implantiert, die entsprechend mit einer Chemotherapie, Stammzelltransplantation und/oder Radiotherapie behandelt wurden. Die Explantation der Katheter erfolgte in der Regel mit der Beendigung der Therapie. In 22% (85 von 386 tunnelierten Kathetern) traten postoperative Komplikationen auf, mit einer kumulativen Ein-Jahres-Inzidenz von 21 % und 0.93 Komplikationen pro 1000 Kathetertagen. Am häufigsten waren Katherinfektionen (0.56 pro 1000 Kathetertagen) gefolgt von Dislokationen (0.29 pro 1000 Kathetertagen). Folgende Risikofaktoren für postoperative Komplikationen wurden identifiziert: Ein Patient:innenenalter von unter einem Lebensjahr, eine parenterale Ernährung, eine Stammzelltransplantation bei nicht malignen Grunderkrankungen, eine hämatologische Erkrankung und Tumore des Zentralen Nervensystems, eine offen chirurgische Implantation des Katheters, die V. jugularis interna als Zielgefäß und die Anwendung einlumiger Katheter. Tunnelierte Katheter, die für die Behandlung von einer Leukämie, einem Lymphom, oder eines soliden Tumors implantiert wurden, wiesen am wenigsten Komplikationen auf.
Schlussfolgerung/Ausblick: Insgesamt zeigt die vorliegende Studie eine mit der internationalen Literatur vergleichbare hohe Rate an postoperativen Komplikationen auf. Katheterinfektionen und Katheterdislokationen sind dabei die häufigsten Komplikationen und sollten daher besondere Beachtung im klinischen Alltag finden. Ferner konnten spezifische, risikobehaftete Patient:innengruppen identifiziert werden. Insbesondere Patient:innen, welche eine parenterale Ernährung erhielten, wiesen Katheterinfektionen auf. Daraus ist abzuleiten, dass insbesondere diesen Patient:innen eine engmaschige Überwachung zu kommen sollte, um frühzeitig Komplikationen zu detektieren und diesen entgegenzuwirken.
Die Gesamtzahl der untersuchten Katheter ist groß, einzelne Subgruppen fallen aber klein aus. Sie beeinflussen sich teilweise gegenseitig. In Zukunft sollten multivariate Studien für eine genauere Extrahierung einzelner Risikofaktoren erfolgen.
Bei fehlender Milz nach einer totalen Splenektomie kann es unter anderem zum lebensgefährlichen Postsplenektomie-Syndrom (overwhelming postplenectomy infection, OPSI) kommen, weshalb die partielle Splenektomie (PS) zunehmend in den Fokus rückt. Die Reduktion perioperativer Komplikationen erscheint zudem wünschenswert, weswegen der laparoskopische Operationsansatz zunehmende medizinische Resonanz genießt. Letzteren verbinden Chirurgen häufig mit geringeren postoperativen Schmerzen für den Patienten, besseren kosmetischen Ergebnissen und einer Reduktion chirurgischer Komplikationen.
Ziel dieser Studie war es, anhand verschiedener Parameter die perioperativen Ergebnisse zwischen der laparoskopischen partiellen Splenektomie (LPS) und der offenen partiellen Splenektomie (OPS) bei Kindern und Jugendlichen zu vergleichen. Betrachtet wurde ein Zeitraum von etwa zehn Jahren (2008-2018), wobei insgesamt 26 Patienten die Einschlusskriterien erfüllten. 10 Patienten unterzogen sich der LPS, während bei 16 Patienten eine OPS durchgeführt wurde. Anhand der digitalen Patientenakten wurden verschiedene perioperative Parameter erhoben, welche unter anderem die postoperative Schmerzstärke, den Analgetikabedarf, verschiedene hämatologische Variablen sowie die perioperativen Komplikationen umfassten.
Zwischen den beiden Gruppen unterschieden sich das postoperative Schmerzbefinden mit entsprechend analgetischer Therapie, der zeitliche Beginn des oralen Kostaufbaus und der postoperativen Mobilisation sowie die Dauer des stationären Aufenthalts nicht signifikant. Ferner wurden die chirurgischen Komplikationen anhand der Clavien-Dindo-Klassifikation (CDC) in verschiedene Grade eingeteilt und konnten sowohl in der laparoskopischen als auch in der offen-chirurgisch operierten Gruppe zeigen, dass hauptsächlich leichte Komplikationen vorlagen, bei denen ein Großteil der Patienten lediglich eine medikamentöse Therapie (80.8%) für die aufgetretenen Komplikationen (CDC ≤ II) benötigte. Lediglich bei 13% der offen operierten Patienten bedurfte es einer chirurgischen bzw. endoskopischen Intervention (CDC ≥ III).
Die Operationsdauer zwischen den beiden Gruppen unterschied sich jedoch signifikant. Bei der partiellen Splenektomie nahm der laparoskopische Zugangsweg signifikant mehr Zeit in Anspruch als bei der offen-chirurgisch operierten Gruppe. Darüber hinaus wurde der perioperative Blutverlust anhand der Mercuriali-Formel berechnet und zeigte bei der LPS-Gruppe einen signifikant höheren perioperativen Blutverlust als bei der OPS.
Die durch diese Studie erzielten Resultate zeigen anhand verschiedener perioperativer Parameter, dass die LPS im Vergleich zur etablierten OPS trotz signifikanter Unterschiede in der Operationszeit und dem perioperativen Blutverlust beide sichere und praktikable Operationsverfahren sind. Zusammenfassend stellten sich hinsichtlich der weiteren perioperativen Ergebnisse keine signifikanten Unterschiede zwischen beiden Gruppen dar.
Im Rahmen unserer Untersuchung konnte zudem dargestellt werden, dass die postoperativen Rekonvaleszenzvariablen sowie die Scores zur Erfassung der chirurgischen Komplikationen keinen signifikanten Unterschied ergaben. Ebenso wies die postoperativ dokumentierte Schmerzstärke der Patienten und der daraus resultierende Analgetikabedarf keine signifikanten Unterschiede auf.
Der Forschung von Kardiologen wie etwa Joseph C. Wu, Professor an der kalifornischen Stanford-Universität, ist es zu verdanken, dass die Sterblichkeit nach einem Herzinfarkt von ehemals 15 Prozent auf nur noch 2 bis 3 Prozent gesunken ist. Auf Einladung der Friedrich-Merz-Stiftungsgastprofessur besuchte Wu, Präsident der »American Heart Association« und derzeit einer der prominentesten Herz-Forscher, für eine Woche die Goethe-Universität, um sich sowohl mit Forschenden als auch mit Studierenden auszutauschen. In einem Bürgergespräch stellte er sich außerdem den Fragen der Frankfurter Bevölkerung, unter anderem zusammen mit Stefanie Dimmeler, Sprecherin des »Deutschen Zentrums für Herz-Kreislauf-Erkrankungen« und Leiterin des Exzellenzclusters »Cardio-Pulmonary Institute«.
Ziel unserer retrospektiven Studie war es, die refraktiven und kornealen Veränderungen nach DMEK bei pseudophaken Patienten, die sich auf Grund einer endothelialen Hornhauterkrankung behandeln ließen, zu untersuchen. Durch unsere einheitlich pseudophake Patientenkohorte wollten wir untersuchen, ob sich die refraktiven Veränderungen nach DMEK von den bereits bekannten Änderungen bei einer simultan durchgeführten Katarakt- und DMEK-Operation sogenannte „Triple“-DMEK unterscheiden. Primärer Endpunkt der Studie war die Veränderung der Refraktion unter besonderer Berücksichtigung des sphärischen Äquivalents (SEQ) des jeweiligen pseudophaken Auges nach DMEK. Sekundäre Endpunkte umfassten die Entwicklung des Visus, der CCT, der ECD und verschiedener kornealer Parameter, die mittels Scheimpflug- Tomographie ermittelt wurden.
In der vorliegenden Arbeit erfolgte hierzu die retrospektive Analyse von Daten, die in den Patientenakten dokumentiert und digital gespeichert waren (Pentacam® HR). Es wurden 109 Augen von 95 Patienten, die sich im Zeitraum von Februar 2015 bis Dezember 2018 mittels DMEK in unserem Zentrum behandeln ließen, in die Studie eingeschlossen. Davon stammten 66 Augen (61%) von weiblichen und 43 Augen (39%) von männlichen Patienten. Es handelte sich bei 61 Augen (56%) um ein linkes und bei 48 Augen (44 %) um ein rechtes Auge. Die Patienten waren 20 bis 91 Jahre alt. Das mittlere Alter zum Zeitpunkt der DMEK-Operation betrug 71,9 Jahre (SD ±10,23). Der Altersmittelwert der Männer lag bei 70,4 Jahren (SD 11,23, Spannweite: 20-84) und der der Frauen bei 72,9 Jahren (SD 9,49, Spannweite: 47-91). Der mittlere Nachbeobachtungszeitraum betrug 10,47 Monate (SD 6,78, Spannweite: 1-28 Monate).
Für das SEQ konnte bei Betrachtung aller ausgewerteten Daten eine leichte Tendenz in Richtung eines „hyperopen shifts“ mit einer mittleren Veränderung des SEQ von + 0,1 D gezeigt werden, die jedoch nicht statistisch signifikant war. Zwischenzeitlich kam es im Nachbeobachtungszeitraum zu einer klaren Tendenz hinsichtlich einer Myopisierung bei Betrachtung aller ausgewerteten Daten. Der „hyperope shift“ konnte erst am Ende, möglicherweise infolge einer deutlich reduzierten Patientenzahl, beobachtet werden. In der Subgruppe „vollständige Kontrollen“ für das SEQ zeigte sich eine Tendenz hinsichtlich einer leichten Abnahme des SEQ, die jedoch ebenfalls nicht statistisch signifikant war und aufgrund der geringen Gruppengröße (n=32) kritisch betrachtet werden sollte. In unserer Kohorte konnte somit keine eindeutige Aussage über eine postoperative Änderung des SEQ in Richtung eines „hyperopen shifts“ oder „myopen shifts“ gemacht werden. Die Refraktion verhielt sich in unserem Patientenkollektiv nach DMEK insgesamt weitestgehend stabil. Insofern sind refraktive "Überraschungen", wie sie weiterhin häufig nach "Triple"-DMEK zu beobachten sind, bei zuvor pseudophakisierten Patienten in einem weitaus geringeren Maße zu erwarten. Unter den mittels Scheimpflug-Technologie untersuchten kornealen Parametern wies lediglich der posteriore Astigmatismus signifikante Veränderungen im Sinne einer Reduktion der kornealen Krümmung auf. Indirekt heben unsere Ergebnisse damit die Bedeutung des posterioren Hornhautprofils auf die postoperative Refraktionsentwicklung und somit auch auf die IOL-Kalkulation bei "Triple"-DMEK-Prozeduren hervor. Außerdem scheint der postoperative Anstieg der Sehschärfe mit den gleichfalls signifikanten Änderungen der kornealen Densitometrie in der 2-6 mm Zone, des Hornhautvolumens und der zentralen Hornhautdicke umgekehrt korreliert zu sein.
Darüber hinaus lässt sich festhalten, dass auch unsere Untersuchung in einem gewissen Maße die Überlegenheit der DMEK gegenüber etablierten Techniken, wie beispielsweise der PK verdeutlicht. Sowohl anhand der refraktiven Stabilität als auch der Visusergebnisse konnten wir belegen, dass das DMEK-Verfahren nach der anfänglichen Lernkurve die wohl besten funktionellen Ergebnisse in der Behandlung von Patienten mit endothelialen Hornhauterkrankungen liefert. Besonders bei bereits pseudophaken Patienten weist die DMEK durch die zu erwartende hohe postoperative refraktive Stabilität viele Vorteile auf
und erscheint insbesondere hinsichtlich der Vorhersagbarkeit des postoperativen refraktiven Ergebnisses der „Triple“- DMEK überlegen.
Untersuchung von long non-coding RNA im Entzündungsmodell mit mesenchymalen Stamm-/Stromazellen
(2022)
Entzündungsprozesse sind essentiell zur Abwehr exogener und endogener Pathogene sowie bei der Geweberegeneration. Ihre Dysregulation ist an unzähligen Krankheitsprozessen beteiligt. Die Auslösung einer Entzündung ist besonders gut untersucht bei Toll-like Rezeptoren, die Strukturen von Mikroorganismen erkennen können und durch Signalkaskaden beispielsweise ΝF-κB aktivieren. LncRNAs regulieren die Genexpression und wurden dabei bereits im Rahmen von Entwicklung, Proliferation, Karzinogenese und Entzündung nachgewiesen. ASC sind für die regenerative Medizin aufgrund ihrer einfachen Gewinnung und ihrer Differenzierbarkeit höchst interessant. Zudem haben sie einen Einfluss auf inflammatorische Prozesse. Daher könnte es relevant sein, welche Rolle lncRNAs während Entzündungsprozessen bei ASC spielen. Daraus könnten sich auch potentielle Ansätze für Diagnostik und Therapie entwickeln.
Es wurde ein Entzündungsmodell mit ASC etabliert, welche mit Bakterientoxinen stimuliert wurden. Das Modell wurde mit einem im nephrologischen Labor etablierten Modell mit renalen Epithelzellen hinsichtlich der Entzündungsantwort verglichen. Diese Entzündungsantwort wurde anhand der Zytokinproduktion auf mRNA- und Proteinebene quantifiziert. Anschließend erfolgte eine RNA-Sequenzierung und Vergleich der RNA bei stimulierten und nicht-stimulierten ASC. Die detektierten veränderten lncRNAs wurden mittels qPCR validiert. Zuletzt wurde durch knockdown einer ausgewählten lncRNA versucht, Einfluss auf die Entzündungsprozesse zu nehmen.
Die vorgelegte Arbeit zeigt deutlich, dass ASC eine stärkere Entzündungsantwort als renale Epithelzellen zeigen. Als Mittelweg aus maximaler Entzündungsantwort und realistischen Stimulationsbedingungen wurde eine Stimulation mit 10 ng/ml LPS für 4 h gewählt. Nach der RNA-Sequenzierung zeigte die funktionelle Analyse der veränderten codierenden RNA Hinweise auf Entzündungsprozesse, Zellmigration, Chemotaxis, Differenzierung, Proliferation sowie Alkoholismus, Atherosklerose, Diabetes mellitus und Insulinresistenz. Diese Ergebnisse lassen sich mit dem aktuellen Stand der Forschung in Einklang bringen und legen die Bedeutung von Entzündung und ASC in diesen Bereichen dar. Bei den lncRNAs ergab die Sequenzierung insgesamt 48 expressionsveränderte Transkripte, H19 konnte hierbei erfolgreich validiert werden. Diese lncRNA war im Rahmen der LPS-induzierten Entzündung expressionsvermindert. Aufgrund donorspezifischer Einflussfaktoren auf die Genexpression bei ASC wie Körpergewicht und Morbidität sowie allgemeiner interindividueller Schwankung der Expression von lncRNA sind aber weitere Untersuchungen zur Detektion relevanter lncRNAs erforderlich. Die Transfektionsversuche zeigten Hinweise darauf, dass der H19-knockdown möglicherweise die LPS-vermittelte Entzündungsantwort bei ASC verstärkt.
Zusammenfassend wurde ein Modell zur Untersuchung von lncRNA bei LPS-induzierter Inflammation in ASC etabliert sowie im Rahmen dessen H19 als relevante lncRNA detektiert, die den Ausgangspunkt für weitere Forschung darstellt.
Erhöht die Gabe intravenöser Tranexamsäure die Wahrscheinlichkeit für thromboembolische Ereignisse?
(2022)
Hintergrund: Tranexamsäure (TXA) ist ein Antifibrinolytikum, welches Blutungen effizient reduzieren kann. Auf Grund des Wirkmechanismus bestehen jedoch Bedenken, dass TXA zu einem erhöhten Risiko für thromboembolische Ereignisse (TE) führen könnte.
Zielsetzung: Ziel dieser Arbeit ist die Untersuchung eines möglichen Zusammenhanges zwischen der Applikation intravenöser (iv) TXA und dem Auftreten von TE sowie der Mortalität. Ebenfalls soll ein möglicher Dosis-abhängiger Effekt untersucht werden.
Methoden: Es erfolgte eine systematische Suche der MEDLINE Datenbank und des Cochrane Central Register of Controlled Trials. Berücksichtigt wurden alle randomisiert kontrollierten Studien bis inklusive 2020, welche iv TXA mit Placebo oder einer Kontrollgruppe ohne Intervention verglichen. Die eingeschlossenen Studien sind in englischer, deutscher, spanischer oder französischer Sprache publiziert. Übergeordnete Endpunkte waren die Summe aller TE sowie die
Gesamtmortalität. Zusätzlich wurden die Endpunkte venöse Thrombosen, Lungenembolien, venöse thromboembolische Ereignisse (VTE), Myokardinfarkte, Schlaganfälle oder transitorische ischämische Attacken, Mesenterialischämien, arterielle Verschlüsse, blutungsassoziierte Mortalität sowie nicht-blutungsassoziierte Mortalität untersucht. Anhand der „Preferred Reporting Items for Systematic Reviews and Meta-Analyses“ (PRISMA) wurden die vorliegende Metaanalyse, Subgruppen- und Sensitivitätsanalyse erstellt. Als Effektstärkemaß wurde die Risikodifferenz (RD) berechnet. Für den primären Endpunkt der Summe aller TE erfolgten zusätzliche Sensitivitätsanalysen zur Berechnung des Risikoquotienten (RR). Eine Metaregressionsanalyse wurde zur Untersuchung eines dosisabhängigen Effektes durchgeführt. Das Bias-Risiko der eingeschlossenen Studien wurde anhand des Cochrane Risk of Bias Tool bewertet.
Ergebnisse:
Insgesamt wurden 216 Studien in die vorliegende Metaanalyse eingeschlossen. Die Summe aller TE betrug 1020 (2,1%) in der TXA-Gruppe und 900 (2,0%) in der Kontrollgruppe. Es fand sich kein Zusammenhang zwischen iv TXA und dem Risiko für die Summe aller TE (RD = 0,001; 95%-Konfidenzintervall (CI): -0,001 bis 0,002; P = 0,49) sowie für venöse Thrombosen, Lungenembolien, VTE, Myokardinfarkte oder -ischämien und Schlaganfälle oder transitorische ischämische Attacken. Die Sensitivitätsanalyse für die Summe aller TE zur Berechnung des RR zeigte keine Assoziation mit iv TXA, weder unter Ausschlussder Studien ohne TE (RR = 1,03; 95%CI: 0,95 bis 1,12; P = 0,52) noch unter Einschluss dieser Studien (RR = 1,02; 95%CI: 0,94 bis 1,11; P = 0,56). Die Sensitivitätsanalyse der Studien mit einem geringen Selektionsbias zeigte ein vergleichbares Ergebnis. Die Sensitivitätsanalyse mit Patienten mit einem erhöhten Thromboembolie-Risiko fand keine Assoziation zwischen iv TXA und TE (RD = 0,000; 95%CI: -0,008 bis 0,009; P = 0,95). Die Subgruppenanalyse von Studien mit bis zu 99 Patienten, 100 bis 999 Patienten und 1.000 oder mehr Patienten zeigte keine Assoziation zwischen iv TXA und der Summe aller TE. Die Gabe von iv TXA war mit einer signifikanten Reduktion der Gesamtmortalität (RD = -0,007; 95%CI: -0,012 bis -0,004; P < 0,001) und der blutungsassoziierten Mortalität verbunden. Für die nicht-blutungsassoziierte Mortalität zeigte sich kein signifikanter Zusammenhang. Eine Metaregression mit 143 Interventionsgruppen fand keinen Zusammenhang zwischen der TXA-Dosierung und dem Risiko für VTE.
Diskussion: Die vorliegende Arbeit konnte zeigen, dass keine Assoziation zwischen iv TXA und TE besteht. Die Sensitivitätsanalysen konnten dieses Ergebnis bestätigen. Die Metaregressionsanalyse fand keinen dosisabhängigen Zusammenhang zwischen iv TXA und VTE. Gleichzeitig wird die Gesamtmortalität durch TXA signifikant reduziert. Die vorliegende Analyse unterstützt die sichere Anwendung von iv TXA und legt einen wahrscheinlichen Überlebensvorteil nahe. Die Subgruppenanalysen der neurologischen Patienten lieferten uneindeutige Ergebnisse, weshalb der Nutzen von iv TXA für dieses Patientenkollektiv unklar bleibt.
Der Artikel „Longitudinal changes in cortical thickness in adolescents with autism spectrum disorder and their association with restricted and repetitive behaviors“ von Bieneck et al. (2021), veröffentlicht in „Genes“, beschäftigt sich mit der Frage nach einem Zusammenhang zwischen der intra-individuellen Entwicklung der Kortexdicke von Adoleszent*innen mit Autismus-Spektrum-Störung (ASS) und der Schwere restriktiver und repetitiver Verhaltensweisen (restricted and repetitive behaviors = RRB) im Verlauf dieser Lebensphase. Darüber hinaus untersuchen wir potentielle Anreicherungen von Genen, bei denen eine Assoziation mit ASS bekannt ist, in entsprechenden Hirnregionen mit abweichender Entwicklung der Kortikalen Dicke (Cortical Thickness = CT). Ziel der Studie ist es mikroskopische und makroskopische Ätiologien der ASS miteinander zu verknüpfen und diese entsprechenden klinischen Phänotypen zuzuordnen.
Die Basis dieser Forschungsarbeit bilden Daten, die im Rahmen einer longitudinalen Studie zur Gehirnentwicklung bei ASS während der Adoleszenz an der Kinder- und Jugendpsychiatrie des Universitätsklinikums in Frankfurt erhoben worden sind. Die Stichprobe setzt sich zusammen aus insgesamt 70 Proband*innen im Alter zwischen 11 und 18 Jahren zum ersten Testzeitpunkt (T1), davon N=33 mit diagnostizierter ASS und N=37 neurotypische Kontrollen. Alle Proband*innen erhalten im ersten Jahr (T1) einen strukturellen Magnetresonanztomographie-Scan (sMRT), der im Abstand von zwei Jahren (T2) wiederholt wird. Die Quantifizierung der Symptomschwere erfolgt in beiden Gruppen mittels eines klinischen Fragebogens zu restriktivem und repetitivem Verhalten an beiden Messzeitpunkten (T1, T2).
Die sMRT-Scans durchlaufen für die Auswertung ein Softwarepaket, um eine virtuelle Rekonstruktion der kortikalen Oberfläche von jedem T1-gewichteten Bild abzuleiten. Die Software gibt die intraindividuelle Veränderung der CT an jedem Vertex an. Mittels statistischer Analysen unter Verwendung eines generalisierten linearen Modells (GLM) werden Vertex-weise Unterschiede in der Veränderung der CT zwischen beiden Gruppen herausgearbeitet und mit der Änderung der Symptomschwere von RRBs korreliert.
Der dritte Schritt der Analyse umfasst die Auswertung potentieller genetischer Korrelate atypischer CT-Entwicklung der Adoleszent*innen mit ASS. Hierfür wird ein Hirnatlas (Allen Human Brain Atlas) hinzugezogen, der Informationen zur räumlichen Verteilung der Expression von Genen im menschlichen Cortex enthält. Dieser wird mit den Hirnregionen, die eine abweichende Veränderung der CT in Autist*innen zeigen, abgeglichen, und eine entsprechende Liste an Genen wird abgeleitet. Es folgt eine Analyse dieser Genliste im Hinblick auf Anreicherungen von Genen, die in Verbindung mit ASS stehen. Dieser Vorgang wird mit den Hirnregionen wiederholt, die eine Korrelation der abweichenden CT-Entwicklung mit der Veränderung der Symptomschwere von RRBs in den autistischen Teilnehmenden zeigen. Die daraus gewonnene Genliste wird auf eine vermehrte Anreicherung (i.e. Enrichment) von Genen untersucht, die in Verbindung mit restriktivem und repetitivem Verhalten stehen.
Die Ergebnisse dieser Studie zeigen eine signifikant verminderte Abnahme der CT in verschiedenen Hirnregionen von Personen mit ASS, die funktionell mit autistischen Symptomen und Verhaltensweisen gekoppelt sind. Eben diese Regionen zeigen zudem eine vermehrte Anreicherung von Genen, die ebenfalls eine Assoziation mit ASS aufweisen. Eine Verbindung von strukturellen und klinischen Parametern zeigt sich durch die Korrelation abnehmender CT in bestimmten Hirnregionen mit einer verminderten Schwere restriktiver und repetitiver Verhaltensweisen im Verlauf.
Diese Untersuchungen weisen auf Verbindungen des neuroanatomischen Parameters CT mit genetischen Grundlagen der ASS hin und zeigen einen Zusammenhang dieser Korrelationen mit unterschiedlichen Ausprägungen des klinischen autistischen Phänotyps.
Knochendefekte sind ein häufig anzutreffendes Krankheitsbild mit multiplen Ursachen wie zum Beispiel Trauma, Infektion und Tumore. Besondere Aufmerksamkeit bedürfen dabei Knochendefekte kritischer Größe (CSD). Diese sind definiert als ein Knochendefekt, der trotz adäquater Stabilisierung in der Lebzeit des Patienten nicht abheilen wird. Gerade diese sind in der Versorgung sehr zeit- und geldintensiv und stellen eine große Belastung für den Patienten dar. Trotz deren Häufigkeit finden sich nur Behandlungsverfahren, die mit signifikanten Nachteilen einhergehen. Daher ist gerade in der Behandlung von CSD weitere Forschung und die Entwicklung neuer Behandlungsmöglichkeiten nötig. Ein gut belegtes und klinisch erfolgreich angewandtes Verfahren stellt die Masquelet-Technik dar, welche ein zweizeitiges Verfahren ist, bei dem zunächst in einer ersten OP der Defekt ausgiebig durch Debridieren und die Zugabe von Antibiotika vorbereitet wird und anschließend mit einem Spacer aus Knochenzement und einem geeigneten Osteosyntheseverfahren stabilisiert wird. Über mehrere Wochen bildet sich nun eine Biomembran, die Masquelet-Membran, um den Spacer, welche in einer zweiten OP eröffnet wird. Daraufhin wird der Spacer entfernt und zum Beispiel mit autologem Knochen aus dem Beckenkamm gefüllt. Dann wird die Membran wieder verschlossen und der Defekt kann abheilen. Mit diesem Verfahren können auch große Defekte versorgt werden und in der Literatur finden sich Erfolge bei bis zu 25cm langen Defekten. Limitierungen finden sich hier in der Verfügbarkeit von autologem Knochenmaterial. Hier kann mit synthetischen Knochenersatzstoffen, wie zum Beispiel β-TCP, oder xenogenen Materialen zum Beispiel vom Rind gearbeitet werden. Einen weiteren großen Nachteil sahen wir jedoch in der Notwendigkeit einer zweiten OP. Dies setzt den Patienten erneut dem Operations- und Narkoserisiko aus, ist mit erneuten Schmerzen verbunden und führt zu verlängerten Krankenhausaufenthalten mit gesteigerten Kosten. Um dies zu umgehen, wurde in dieser Arbeit die Masquelet-Membran durch eine Membran aus dezellularisierter humaner Dermis (Epiflex) ersetzt, welche bereits erfolgreich bei der Behandlung größerer Bauchwanddefekte eingesetzt wird. So könnte man in einer einzigen OP den Defekt mit der Dermis umhüllen und direkt mit dem gewünschten Knochenersatzmaterial füllen. Hypothese war, dass eine Defektumhüllung mit Epiflex die Defektheilung vergleichbar zur induzierten Membran unterstützt. Eine weitere Fragestellung dieser Arbeit war, ob durch den Einsatz von mononukleären Zellen des Knochenmarks (BMC) die Knochenheilung zusätzlich verbessert werden kann. Zu diesem Zweck wurden sechs Gruppen aus männlichen Sprague-Dawley-Ratten gebildet, welche einen 1 cm starken Defekt im Femur gesetzt bekamen. Die Gruppen 1 und 2 wurden mit dem Masquelet-Verfahren, Gruppe 1 ohne und Gruppe 2 mit Zugabe von BMC, behandelt. Die Gruppen 3 bis 6 wurden mit dem einzeitigen Verfahren unter Verwendung der Dermis als Defektumhüllung und verschiedenen Kombinationen von BMC in einer einzigen OP behandelt. Nach 8 Wochen wurden die operierten Femora, inklusive jeweils eines nicht operierten Referenzfemur pro Gruppe explantiert und histologisch aufgearbeitet. Mittels der MOVAT Färbung wurde die Knochenneubildung im Defekt und die histologische Transformation der Membran in knöchernes Gewebe beurteilt. Es konnte ein signifikanter knöcherner Umbau der Epiflex-Membran beobachtet werden. Da mit der Epiflex-Membran ein Fremdkörper in den Organismus eingebracht wurde, wurde auch das Inflammationsgeschehen anhand histologischer Färbungen für Monozyten/Makrophagen (CD68) sowie für Granulozyten (CAE) beurteilt. Dabei zeigten sich keine signifikanten Unterschiede zwischen den Verfahren. Allerdings konnte eine unterschiedliche Verteilung der Immunzellen nachgewiesen werden. Abschließend wurde anhand von immunhistologischen α-SMA und vWF-Färbungen die Vaskularisierung im Defekt beurteilt. Die Epiflex-Membran wurde in gleichem Maße wie die induzierte Membran von Gefäßen durchdrungen. Dabei wuchsen häufig Gefäße aus dem umliegenden Muskelgewebe in den Defekt ein. Die zusätzliche Transplantation von BMC, welche eine zusätzliche Variable in dieser Arbeit darstellten, beeinflusste die Knochenheilung positiv. In Gruppen mit zusätzlichen BMC wurde geringere Inflammation und eine verbesserte Verknöcherung im Defektbereich beobachtet. Die Gefäßdichte wurde durch zusätzliche BMC jedoch nicht erhöht. Abschließend lässt sich aus den Ergebnissen schließen, dass der Ersatz der Masquelet-Membran durch die einzeitige Versorgung mit einer humanen dezellularisierten Dermis zu mindestens gleichwertigen Ergebnissen im Vergleich zur zweizeitigen induzierten Membrantechnik nach Masquelet führt.
Hintergrund und Fragestellung: Für Menschen mit Depression gestaltet sich der Zugang zu adäquater Versorgung oft schwierig. Sie müssen sich in einer äußerst komplexen Versorgungslandschaft mit vielen Behandlungsoptionen und verschiedenen Anlaufstellen orientieren, sind aber aufgrund der Depressionssymptome teilweise nicht in der Lage, sich selbst aktiv um ihre Behandlung zu kümmern. Für Frauen der ersten Einwanderergeneration konnte gezeigt werden, dass diese zwar mindestens ebenso häufig an Depression erkranken wie Menschen ohne Migrationshintergrund, aber nicht im gleichen Maße an Versorgungsangeboten teilhaben wie die restliche Bevölkerung. Ziel ist es daher, mehr darüber zu erfahren, wie Migrantinnen den Zugang zu Versorgung bei Depression erleben und welche Schwierigkeiten und Verbesserungswünsche sie haben. Es sollen konkrete Ansatzpunkte zur Verbesserung der Versorgung aufgezeigt werden.
Methodisches Vorgehen: Es wurden zwölf teilstrukturierte qualitative Einzelinterviews mit Migrantinnen der ersten Einwanderergeneration geführt, die aufgrund von Depression in Deutschland behandelt wurden. Die Auswertung der Interviews erfolgte mittels qualitativer Inhaltsanalyse.
Ergebnisse: Die Teilnehmerinnen beschreiben zahlreiche Unsicherheiten und Ängste beim Versorgungszugang, den sie als zu schwierig, kompliziert und langwierig erleben. Konkrete Schwierigkeiten sind fehlendes Wissen zu Depressionssymptomen und Behandlungsoptionen, der Umgang mit Stigmatisierung und Vorurteilen, mangelnde Behandlungskoordination und Beratung insbesondere beim Zugang zu ambulanter Psychotherapie, lange Wartezeiten sowie Verständigungsschwierigkeiten. Die Teilnehmerinnen wünschen sich bessere Beratung und Informationsmöglichkeiten zu geeigneten Behandlungsoptionen, niedrigschwelligere Behandlungsangebote, sprachliche Unterstützung insbesondere zu Beginn der Behandlung sowie Aufklärungskampagnen zum Thema Depression für die breite Öffentlichkeit.
Diskussion: Beim Versorgungszugang von Migrantinnen mit Depression besteht Verbesserungsbedarf. Die beschriebenen Schwierigkeiten und Wünsche sollten bei der Planung von Versorgungsangeboten und bei der Behandlung stärker berücksichtigt werden. Konkrete Ansatzpunkte für eine bessere Versorgung sind entstigmatisierende, öffentlichkeitswirksame Informationskampagnen zu den Symptomen und der Behandlung von Depression sowie muttersprachliche Informationsmaterialien für Patientinnen und Patienten zu Depression, den Versorgungsangeboten und den relevanten Grundlagen des Gesundheits- und Sozialsystems. Auch sprachliche Unterstützung im Einzelfall, etwa durch professionelle Sprachmittlerdienste, sollte bei Bedarf ermöglicht werden. Darüberhinaus sind individuelle Unterstützungsangebote bei der Behandlungskoordination und beim Zugang zu ambulanter Psychotherapie nötig sowie mehr Aufmerksamkeit und Einfühlungsvermögen der Behandlerinnen und Behandler für individuell bestehende Vorbehalte und Ängste von Personen mit Migrationshintergrund.
Hintergrund: Die Endometriose und die Infertilität sind beide Erkrankungsbilder, die häufig miteinander assoziiert sind. So werden Literaturen zur Folge bei mindestens 30% der Endometriose Patientinnen eine Sterilität diagnostiziert, während wiederum bei etwa 25 - 50% der Patientinnen eine Endometriose als Hauptursache des unerfüllten Kinderwunsches erkannt wird. Die Laparoskopie dient bei Patientinnen mit Endometriose als wichtiger invasiver Eingriff, der entweder zu diagnostischen Zwecken im Sinne einer Ursachenabklärung dient und / oder zu therapeutischen Zwecken bei bereits bestätigter Endometriose assoziierter Infertilität durchgeführt wird.
Problemstellung und Zielsetzung: Anhand des laparoskopischen Befundes, z.B. durch das Erfassen des rASRM Scores bei Endometriose, kann Patientinnen im Voraus keine zuverlässige Aussage über die Chance auf eine postoperative Schwangerschaft geäußert werden. Das Ziel der hier vorliegenden Arbeit ist es, den Erfolg der laparoskopischen Behandlung bei Endometriose assoziierter Infertilität unter Einbezug von Patientencharakteristika, des intraoperativen Befundes, operativer Verfahren sowie der postoperativen Fertilitätsbehandlung zu beurteilen. Auf diese Weise soll den Frauen geholfen werden, im Voraus bzw. nach laparoskopischer Behandlung der Endometriose die Chance auf eine postoperative Schwangerschaft besser abzuschätzen. Es sollen somit Faktoren ermittelt werden, die die postoperative Fertilität protektiv oder ungünstig beeinflussen.
Material und Methoden: In die Studie aufgenommen wurden alle Patientinnen (n=102), die im Zeitraum von 2007 bis 2017 an der Universitätsklinik Frankfurt am Main einen laparoskopischen Eingriff mit der Diagnose einer Endometriose erhalten haben und einen unerfüllten Kinderwunsch von mehr gleich einem Jahr äußerten. Die Datenerhebung erfolgte über die elektronische Patientenakte sowie die telefonische Befragung der Studienteilnehmerinnen zur Patientencharakteristika und der postoperativen Fertilitätsbehandlung. Die statistische Auswertung wurde durch die Nutzung des Log Rank Tests / der Kaplan Meier Methode sowie uni- und multivariater Analysen mittels
Cox Regression durchgeführt.
Ergebnisse: Von den 102 Patientinnen konnten nach einer mittleren postoperativen Nachbeobachtungszeit von 70 Monaten 71 Patientinnen (69,6%) eine Schwangerschaft verwirklichen. Dabei wurden 21,6% der Frauen durch die alleinige Laparoskopie schwanger, während bei 48% der Frauen die Schwangerschaft durch die zusätzliche Nutzung reproduktionsmedizinischer Verfahren erreicht wurde. Die meisten Schwangerschaften ereigneten sich in den ersten 6 bis 12 Monaten nach der Operation. Die mittlere Dauer bis zur Schwangerschaft betrug 10 Monate. Der Log Rank Test zeigte keine statistisch signifikanten Unterschiede in den verschiedenen rASRM Stadien bei der Betrachtung der kumulativen Schwangerschaftsrate (rASRM 1: 83,3%; rASRM 2: 66,7%; rASRM 3: 93,8%; rASRM 4: 37,9%). Die uni- und multivariaten Analysen zeigten, dass die Dauer der Infertilität (Hazard Ratio: 0,85), das Vorkommen von intestinaler Endometriose (Hazard Ratio: 0,26) und ausgeprägten Adhäsionen (Hazard Ratio: 0,45), die Anzahl der Endometriose Lokalisationen (Hazard Ratio:0,82), die Anzahl der laparoskopischen Eingriffe für Endometriose (Hazard Ratio: 0,66) sowie der Voroperationen (Hazard Ratio: 0,75) und das Vorkommen von Endometriose Rezidiven (Hazard Ratio: 0,4) die Chance auf eine Konzeption signifikant ungünstig beeinträchtigen (p< 0,05). Ein protektiver Einfluss auf die Schwangerschaft zeigte sich nur für die Koagulation am Ovar (p= 0,02; Hazard Ratio: 7,74).
Schlussfolgerung: Die laparoskopische Behandlung scheint die Erfüllung des Kinderwunsches positiv zu beeinflussen, zumal fast ¾ der Patientinnen postoperativ schwanger wurden. Höhere Schwangerschaftsraten wurden durch die zusätzliche Nutzung der assistierten Reproduktionstherapie (ART) erreicht. Aus diesem Grund sollten Frauen für eine zusätzliche postoperative ART motiviert werden. Die Patientinnen sollten darauf aufmerksam gemacht werden, dass sie sich bei einem unerfüllten Kinderwunsch früher bei ihrem Arzt vorstellen sollten. Denn je länger die Zeit bis zur Operation einer Endometriose assoziierten Infertilität beträgt, desto schlechter ist die Chance auf eine postoperative Schwangerschaft (p= 0,02). Endometriosezysten am Ovar sowie deren Entfernung schränken die klinische Fertilität nicht signifikant ein. Die Anzahl der laparoskopischen Eingriffe sowie der abdominellen Voroperationen scheinen ein wichtigerer, ungünstiger Faktor in Hinblick auf die Schwangerschaft zu sein (p = 0,04). Außerdem könnte die Koagulation am Ovar eine wichtige Behandlungsmethode bei Endometriose assoziierter Infertilität sein. Diese Operationsmethode sollte durch weitere Studien und eine größere Stichprobe untersucht werden...
Hintergrund: In den vergangenen 10 Jahren wurden an verschiedenen Epilepsiezentren in Deutschland (Bochum, Erlangen, Greifswald, Berlin Brandenburg, Frankfurt Rhein-Main) Projekte entwickelt, die sich mit telemedizinischen Arzt-zu-Arzt-Anwendungen im Bereich der Epilepsieversorgung beschäftigen.
Ziel der Arbeit: Im Folgenden wird ein Überblick über die aktuell laufenden telemedizinischen Projekte in der Epilepsieversorgung in Deutschland gegeben.
Material und Methoden: Die Verantwortlichen der einzelnen Projekte stellen ihr Projekt anhand einer vorgegebenen Struktur dar.
Ergebnisse und Diskussion: In allen Projekten konnte gezeigt werden, dass eine technische Lösung für die telemedizinische Arzt-zu-Arzt Anwendung im Bereich Epileptologie geschaffen werden kann. Die dargestellten Projekte unterscheiden sich zum Teil hinsichtlich des Zieles und der Umsetzung, zum Teil zeigen sich Übereinstimmungen. Perspektivisches Ziel ist es, aus den Erfahrungen der einzelnen Projekte eine gemeinsame Strategie zur Förderung epileptologischer Telemedizin und ihrer Überführung in die Regelversorgung zu entwickeln.
Telemedizinische Arzt-zu-Arzt-Anwendungen in der Epilepsieversorgung können helfen, die spezielle Expertise von neurologischen oder pädiatrischen EpileptologInnen flächendeckend vorzuhalten, da sie es ermöglichen, medizinische Leistung über Distanzen hinweg zu erbringen. Sowohl national als auch international werden hierzu verschiedene Lösungsansätze entwickelt. Herausforderungen begegnet man auf organisatorischer, technischer, rechtlicher und ökonomischer Ebene, sodass die langfristige Perspektive der einzelnen aktuellen Lösungsansätze noch unklar ist. Letztendlich bedarf es der Entwicklung von Betriebsmodellen, bei denen alle Akteure (Konsilgeber, Konsilanforderer, Patient, Kostenträger, Betreiber der telemedizinischen Plattform und ggf. auch die jeweilige Fachgesellschaft) jeweils den spezifischen Nutzen und die Risiken abwägen.
In dieser Arbeit wurden zur Funktionsanalyse gelagerter ThZ zwei ex vivo Messverfahren verwendet, die unterschiedliche Qualitäten der ThZ-Funktion quantifizieren. Die in vitro Aggregationsfunktion der ThZ wurde mittels Multiplate® Analyzer untersucht, die Mitochondrienfunktion mittels Oxyraph-2k.
Der Multiplate® Analyzer ist eine wohl etablierte und gut zugängliche POC-Methode, die zeitnah verlässliche Daten zur ThZ-Aggregationsfähigkeit in Vollblutproben liefert. Von Interesse war zunächst die Frage nach der Durchführbarkeit valider Multiplate®-Messungen an POOL-TK. Das für Vollblutproben konzipierte Multiplate® kann unseren Ergebnissen zufolge zur in vitro Testung von POOL-TK herangezogen werden. Die Kombination der verwendeten Mischungsverhältnisse, Suspensionsmedien und Reagenzien eignen sich zur ThZ-Stimulation außerhalb der physiologischen Umgebung des Vollbluts. In zukünftigen Studien mit höheren Fallzahlen sollte jedoch die Messgenauigkeit des Multiplate® an TK durch Anpassungen der Suspensionsmedien, sowie der ThZ- und Reagenzienkonzentration überprüft und optimiert werden. Die Entwicklung der ThZ-Funktion im Verlauf der viertägigen TK-Haltbarkeit wurde hinsichtlich der thrombozytären Aggregations- und Mitochondrienfunktion beurteilt. Weiterhin wurde der Einfluss einer kontinuierlichen Agitation durch Vergleich mit der TK-Lagerung ohne Agitation untersucht. Während die Aggregationsfähigkeit der ThZ über den viertägigen Beobachtungszeitraum überwiegend erhalten blieb, verzeichnet die mitochondriale Funktion einen signifikanten Rückgang. Unter kontinuierlicher Agitation der TK verzeichnete sich keine signifikante Abnahme der thrombozytären Aggregationsfähigkeit im Laufe der TK-Haltbarkeit. Wurden die TK ohne Agitation gelagert zeigte das Aggregationsausmaß in den ersten Tagen gegenüber den richtlinienkonform gelagerten TK keine signifikante Verschlechterung. Am vierten Tag resultierte lediglich die ThZ-Stimulation mit TRAP in einer signifikant verminderten Plättchenaggregation in der Gruppe der nicht agitierten TK. Eine Toleranz der TK bezüglich temporären Agitationspausen von ein bis zwei Tagen ist demnach anzunehmen. Nach längeren Agitationspausen ist mit signifikanten Beeinträchtigungen der Aggregationsfunktion zu rechnen.
Der Oxygraph-2k ist ein anerkanntes Messgerät zur Analyse der mitochondrialen Leistungsfähigkeit mittels hochauflösender Respirometrie. Die Daten dieser Arbeit demonstrieren eine signifikante Abnahme der mitochondrialen Leistungsfähigkeit mit - 116 -zunehmendem Alter der TK. Es zeigten sich keine Unterschiede zwischen kontinuierlich agitierten und ruhenden TK am Ende der Lagerungsperiode. Auch an den restlichen Lagerungstagen waren ruhende TK nicht verstärkt in ihrer mitochondrialen Leistung eingeschränkt, als stetig agitierte TK. Dies impliziert, dass sich die mitochondriale Leistungsfähigkeit im Laufe der TK-Alterung reduziert, ungeachtet dessen, ob die Lagerung unter der empfohlenen kontinuierlichen oder unterlassenen Agitation erfolgt. Aus den Multiplate®- und Oxygraph-Ergebnissen lässt sich schlussfolgern, dass ein TK den für die Transfusion erforderlichen Qualitätsanspruch nicht durch kurzzeitige Agitationspausen verliert. Im Klinikalltag kann es, irrtümlich sowie durch Organisationsversagen bedingt, zu unterbrochener oder gar unterlassener Agitation vor TK-Transfusion kommen. Gemäß den Ergebnissen dieser Arbeit zufolge, wird darunter jedoch die TKQualität nicht nennenswert negativ beeinflusst.
Ein weiterer Teil dieser Arbeit befasste sich mit der Untersuchung des Einflusses von Extrembedingungen, wie Kälte von 4°C oder Be- und Entschleunigungen sowie Turbulenzen beim Transport durch Rohrpostsysteme. Die Mehrzahl der Testergebnisse verzeichnete keine signifikante Beeinträchtigung der ThZ-Aggregationsfunktion. Die vorübergehende, fehlerhafte Deposition eines TK im Kühlschrank und der Rohrpostversand können somit als unbedenklich für die mittels Multiplate® und Oxygraph gemessenen TK-Qualitätsparameter angesehen werden.
Die Gesamtheit der Ergebnisse zeigt, dass kurzfristige Abweichungen von der richtlinienkonformen TK-Lagerung keine negativen Auswirkungen auf die thrombozytäre Aggregationsfähigkeit und Mitochondrienfunktion ausüben. Die Berücksichtigung dieser Erkenntnisse könnte verhindern, dass kurzzeitig fehlgelagerte TK verworfen werden, was sich positiv auf die Nutzung dieser begrenzten Ressource auswirken würde. Als Einschränkung ist zu erwähnen, dass die dargebotenen Veränderungen lediglich ex vivo ermittelt wurden. Aufgrund der Nutzung etablierter Verfahren kann angenommen werden, dass sich unsere Ergebnisse gleichsinnig auf die tatsächliche in vivo ThZ-Funktion auswirken. Der Effekt auf die in vivo ThZ-Funktion muss in zukünftigen Studien verifiziert werden. Insbesondere bleibt die Frage offen, inwiefern ein Zusammenhang zwischen einer eingeschränkten mitochondrialen Respirationsleistung und der Aggregationsfunktion besteht.