Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (723)
- Article (341)
- Part of Periodical (167)
- Conference Proceeding (73)
- Book (72)
- Contribution to a Periodical (69)
- Review (36)
- Part of a Book (8)
- Working Paper (7)
- Periodical (5)
Language
- German (1509) (remove)
Is part of the Bibliography
- no (1509)
Keywords
- Diagnostik (10)
- Medizinische Ausbildung (9)
- Epilepsie (8)
- Kongress (8)
- Diagnostics (7)
- Immunological methods (7)
- Immunologische Methoden (7)
- Mammakarzinom (7)
- Prävention (7)
- breast cancer (7)
Institute
- Medizin (1509) (remove)
In lebende Körper zu sehen, ohne das Messer anzusetzen, das war lange ein Traum von Wissenschaftlern und Ärzten. Was vor mehr als 120 Jahren mit Conrad Röntgens Entdeckung der X-Strahlen begann, hat sich mit Magnetenzephalographie und Magnetresonanztomographie zu gängigen Instrumenten der Hightech-Medizin entwickelt.
Einleitung: Der Schlauchmagen (Sleeve Gastrectomy) wurde zunächst als erster Teil der biliopankreatischen Diversion mit Duodealswitch eingeführt, um das operative Risiko durch eine Zweischritt-Therapie zu senken. Zunehmend wird das Verfahren nun auch als eigeneständige Operation zur Gewichtsreduktion eingesetzt, obwohl noch keine Langzeitergebnisse vorliegen.
Material und Methoden: Im Zeitraum von 03/2001 bis 03/2007 wurden 120 Patienten (mittleres Alter: 40,3 Jahre; Geschlecht : 86 Frauen, 34 Männer ; Mittelwerte für Gewicht (179,8 kg), Körperlänge (1,72 m), BMI (60,7 kg/m2)Übergewicht (117,1 kg)mit einem laparoskopischen Schlauchmagenbildung behandelt. Die Ausgangssituation war zwischen den Gruppen nicht verschieden (Pearson). Bei 106 der Patienten war ein BPD-DS geplant, der in zwei Schritten erfolgen sollte. 6 Patienten hatten bereits vorher ein Magenband. In der Gruppe A (n=25) erfolgte keine Kalibration des Schlauches mit Hilfe einer Sonde. In Gruppe B (n=32) wurde eine 44 French und in Gruppe C (n=63) eine 33 French im Durchmesser starke Sonde zur Kalibration eingesetzt.
Ergebnisse: Intraoperativ wurden durch Volumenmessung über die Sonde die Schlauchvolumina mit einer hohen Varianz gemessen (A: 149,0 ml, SD: 15,2; B:117,4 ml, SD:34,8; C: 78,3 ml,SD: 17,9). Die Unterschiede waren statistisch signifikant (p<0,01; eta2=0,61). Besonders deutlich waren die Unterschiede im resezierten Magenvolumen (A:490,2 ml; B 732,7 ml; C:1156,1 ml). Da statistisch keine Abhängigkeit zwischen BMI und Magenvolumen nachgewiesen w erden konnte, zeigt sich die Ungenauigkeit der Schlauchmagenmessung gegenüber der Messung des resezierten Magenvolumens. Ergebnisse der Gewichtsreduktion zeigen eine Abhängigkeit von der Kalibration des Magenschlauches und des resezierten Magen-Volumens. Der Gewichtsverlust beträgt im Gesamtpatientengut und zeigt ab dem 3. Postoperativen Jahr eine Tendenz zum Wiederanstieg des Gewichtes. Eine unterlassene Kalibration und ein Volumen von weniger als 500 cm3 für den entfernten Magen sind mit einem Gewichtsanstieg spätestens nach 2- 3 Jahre verbunden. Der Verlust von 20 BMI-Punkten wird nach 2 Jahren erreicht.
Schlussfolgerung: Die Schlauchmagenbildung ist ein restriktives Verfahren, dass bei einer Kalibration eines engen Magenschlauches (32 French) und einem resezierten Magenvolumen von mindestens 500 eine sehr gute Gewichtsreduktion erzielt, die sich bei dem EWL zwischen de Ergebnissen des Magenbandes und des Magenbypass bewegt. Durch Anpassung der Ernährungsgewohnheiten kann es wie bei allen pur restriktiven Verfahren zu einem Wiederanstieg des Körpergewichtes.
Schlangengifte enthalten einen ganzen Arzneischrank voller hochwirksamer Stoffe, die binnen kurzer Zeit zu Schock, Lähmung oder unstillbaren Blutungen führen können. Forscher interessieren sich vor allem für Verbindungen, welche die Blutgerinnung hemmen, denn sie könnten pharmakologisch interessante Leitstrukturen für neue Wirkstoffe sein, die das Risiko eines Herzinfarkts, Gehirnschlags und anderer Thrombosen mindern.
Neueren Schätzungen zufolge leiden bis zu 15 Prozent der bundesdeutschen Bevölkerung unter klinisch bedeutsamen Schlafstörungen. Die "Internationale Klassifikation der Schlafstörungen" (ICSD-R) umfasst insgesamt 88 Störungen, die sich vier Oberkategorien zuordnen lassen: "Dyssomnien" (Schlafstörungen, die entweder durch Ein- oder Durchschlafstörungen oder übermäßige Schläfrigkeit gekennzeichnet sind), "Parasomnien" (zum Beispiel Schlafwandeln oder Sprechen im Schlaf), "Schlafstörungen bei körperlichen oder psychiatrischen Erkrankungen" sowie "Vorgeschlagene Schlafstörungen" (diagnostische Kategorien, die derzeit noch näher erforscht werden).
Die Schilddrüsenfunktion spielt eine wichtige Rolle nicht nur in der Entwicklung des Fetus, sondern bereits präkonzeptionell. Eine Kontrolle des TSH-Werts vor Schwangerschaftsbeginn ist insbesondere bei unerfülltem Kinderwunsch sowie bekannter Schilddrüsenhormonsubstitution sinnvoll, um einen möglicherweise bestehenden Substitutionsbedarf zu erkennen und entsprechend auszugleichen. Bei erfolgreicher Konzeption lässt sich ein typischer, trimenonspezifischer Verlauf der Schilddrüsenaktivität beobachten, welcher beeinflusst ist durch schwangerschaftsbedingte Hormonveränderungen. Physiologisch sind ein TSH-Abfall im 1. Trimenon, der selten in eine transiente Gestationshyperthyreose übergehen kann, sowie ein geringgradiger Abfall der fT4-Konzentration im 3. Trimenon. Abzugrenzen von physiologischen Veränderungen der Schilddrüsenhormonkonstellation in der Schwangerschaft sind die eine Behandlung erforderlich machende Hypo- und Hyperthyreose. Sowohl eine Schilddrüsenüber- als auch eine Schilddrüsenunterfunktion hat potenziell schädigende Auswirkungen auf das Ungeborene. Eine therapiebedürftige Hypothyreose in der Schwangerschaft ist mit abhängig vom vorliegenden Antikörperstatus und sollte in Abhängigkeit vom TSH-Wert über die Schwangerschaft hinweg kontrolliert und angepasst werden. Eine weitere besondere Herausforderung besteht bei Notwendigkeit einer thyreostatischen Therapie, beispielsweise im Rahmen eines Morbus Basedow. Hier gilt es, aufgrund der Nebenwirkungsprofile zur Verfügung stehender Thyreostatika trimenonspezifische Medikamentenwechsel zu vollziehen. Der folgende Artikel soll anhand aktueller Daten einen Überblick über aktuelle schilddrüsenbezogene Therapie- und Diagnostikempfehlungen in der Schwangerschaft geben.
Diese S2k-Leitlinie (LL) zum Status epilepticus (SE) im Erwachsenenalter schreibt die letzte DGN-LL zum SE von 2012 fort. Neue Definitionen und Evidenz wurden bei der Erstellung der LL und des Clinical Pathway berücksichtigt. Jeder epileptische Anfall, der länger als 5 Minuten anhält (oder ≥ 2 Anfälle über einen Zeitraum von mehr als 5 Minuten ohne Wiedererlangen des neurologischen Ausgangsstatus), soll als SE behandelt werden.
In der Diagnostik sollte initial eine CCT oder, wenn möglich, eine MRT erfolgen. Das EEG spielt bei der Diagnosestellung und beim Therapiemonitoring von non-konvulsiven SE und zum Ausschluss bzw. Nachweis psychogener nichtepileptischer Anfälle eine wesentliche Rolle. Der prognostische Einfluss von insbesondere entzündlichen Begleiterkrankungen (z. B. Pneumonie) wurde besser belegt, weshalb entsprechende Laborparameter auch im Verlauf kontrolliert werden sollten und ggf. frühzeitig eine antibiotische Therapie initiiert werden sollte.
Die Therapie erfolgt in 4 Stufen: 1. Initialer SE: Gabe eines ausreichend hoch dosierten Benzodiazepins i. m., i. v. oder i. n.; 2. Benzodiazepin-refraktärer SE: 1. Wahl ist die i.v. Gabe von Levetiracetam oder Valproat; 3. Refraktärer SE (RSE) und 4. Superrefraktärer SE (SRSE): I.v. Propofol oder Midazolam alleine oder in Kombination oder Thiopental in anästhetischen Dosen. Beim fokalen non-konvulsiven RSE kann unter Umständen auf die Einleitung eines therapeutischen Komas verzichtet werden. Bei SRSE sollte die ketogene Diät zum Einsatz kommen. I.v. Ketamin oder inhalatives Isofluran kann erwogen werden. In Einzelfällen kann die elektrokonvulsive Therapie und, bei resektabler epileptogener Zone, ein Epilepsie chirurgischer Eingriff erwogen werden. I.v. Allopregnanolon oder die Hyperthermie sollen nicht eingesetzt werden.
Im Bereich der Neonatologie kommen die Patient*innen oft multimorbide zu Welt oder sind für bestimmte Komplikationen gefährdet, die sich aus ihrer Unreife ergeben. Dabei spielen sowohl bei reifen kranken Neugeborenen und erst recht bei Frühgeborenen Erkrankungen der Atemwege eine Hauptrolle. Nach wie vor ist das konventionelle Röntgen in diesem Bereich der Medizin ein wichtiges Instrument. Die diagnostische Strahlenexposition bietet jedoch immer wieder Raum zur Diskussion. Die Patient*innen sind nur wenige Tage alt und besitzen somit über eine hohe Proliferationsrate und ein Maß an undifferenzierten Zellen, sie erhalten in Summe teilweise viele Aufnahmen und haben auf der anderen Seite eine hohe Lebenserwartung, wenn sie die Neugeborenenzeit ohne Komplikationen überleben. Haupteffekte ionisierender Strahlen sind für die Früh- und kranken Neugeborenen Malignome, vor allem die Leukämien. Es soll herausgefunden werden, inwieweit die Strahlenbelastung ein gesundheitliches Risiko für die Früh- und Neugeborenen darstellt.
Hintergrund: Gegenstand der wissenschaftlichen und klinischen Diskussion ist immer wieder das eventuell bestehende Risiko der einfallenden ionisierenden Röntgenstrahlung auf das Früh- oder Neugeborene, dennoch ist das Röntgen als diagnostisches Mittel notwendig. Es soll untersucht werden, wie hoch das gesundheitliche Risiko durch diagnostische Röntgenaufnahmen in der Praxis für die Früh- und Neugeborenen ist.
Material und Methoden: Alle Patient*innen des Schwerpunktes Neonatologie in der Klinik für Kinder- und Jugendmedizin aus dem Zeitraum vom 01.01.2013 bis 31.12.2018 im Universitätsklinikum Frankfurt wurden retrospektiv untersucht. Es wurden die Anzahl der Röntgenaufnahmen pro Patient*in, die zugrunde liegende Indikation, das Dosisflächenprodukt (DFP), die Effektive Dosis (ED) und das geschätzte Risiko dokumentiert, bzw. errechnet. Die ED ist eine Schätzgröße, welche mittels Konversionskoeffizienten aus den Eingangsgrößen des DFP, der Eintrittsdosis oder dem Air Kerma (Kai) berechnet wird. Im ICRP Bericht Nr. 60 finden sich Faktoren zur Risikoabschätzung von 2,8 bis 13*10-2 Sv-1. Diese Risikoeinschätzung nähert das durch Strahlung induzierte Risiko für Krebs in der ersten Lebensdekade an – vor allem für Leukämien, aber auch andere Krebsarten.
Ergebnisse: Von den insgesamt 3843 stationär in der Neonatologie behandelten Patient*innen (2013-2018) erhielten 1307 (34%) mindestens eine Röntgenaufnahme. Pro Jahr wurden in einer Abteilung für Neonatologie ca. 700 Röntgenaufnahmen angefertigt. Die mittlere Anzahl an Röntgenaufnahmen pro Patient*in betrug 3,19 Aufnahmen und korrelierte gegensinnig mit Geburtsgewicht und Gestationsalter. Am häufigsten wurden sehr kleine Frühgeborene untersucht, meistens in den ersten drei Lebenstagen. Im Laufe des Beobachtungszeitraums wurden weniger Röntgenaufnahmen angefertigt. Die häufigsten Gründe für Röntgenaufnahmen waren Kontrollen von Tubus oder ZVK-Lage. Je reifer und schwerer die Neugeborenen waren, desto seltener wurde ein pathologischer Befund erhoben. Bei niedrigem Geburtsgewicht war die Thoraxabdomenaufnahme die bevorzugte Röntgenart, bei reiferen Patient*innen die Thoraxaufnahme. Das kumulative DFP betrug im Mittel 5,95 mGy*cm² und die kumulative ED betrug im Mittel 23,7 µSv pro Aufenthalt. Damit errechnete sich ein Risiko von 3,1*10-6, das bedeutet 3,1 von 1.000.000 Patient*innen entwickeln nach dieser kumulativen Strahlendosis in der ersten Lebensdekade womöglich Krebs. Das kumulative DFP und die ED pro Aufenthalt und somit auch das Risiko, nach einer gewissen Strahlenexposition Krebs zu entwickeln, sinken mit zunehmendem Geburtsgewicht und zeigen einen Höhepunkt bei einem Geburtsgewicht von <500 g. Die maximale kumulative Strahlendosis betrug 342 µSv mit einem daraus resultierenden Risiko von 44*10-6 und ist damit selbst bei diesem Patienten nach Martin et al. als „minimal“ zu werten.
Schlussfolgerung: Die Strahlenbelastung der Früh- und Neugeborenen konnte evaluiert werden und der Zusammenhang zwischen Unreife und Strahlenbelastung konnte bestätigt werden. Die Strahlenbelastung fiel im internationalen Vergleich minimal aus und es ist nicht von einem gesundheitlichen Risiko durch diagnostische Bildgebung auszugehen. Dies lässt sich vor allem durch moderne Technik mit kurzer Belichtungszeit und hoher Aufnahmespannungen und durch die relativ niedrige Anzahl an gemachten Röntgenbildern erklären. Da bei weiterer Minimierung der eingesetzten Dosis von einem Qualitätsverlust der Bilder auszugehen ist, ist die Einsparung von Röntgenuntersuchungen und die vermehrte Nutzung von Alternativen anzuraten. Die Indikationen müssen vor allem bei Patient*innen <500 g genauestens überprüft werden. Weiterhin sollte nach Alternativen (Sonographie, Kernspintomographie) gesucht werden.
Die Krebsstammzellforschung gelangte in den letzten Jahren vermehrt in den Fokus der Tumorforschung. Im Tumor bilden Krebsstammzellen eine kleine Population an Zellen mit Stammzelleigenschaften, wodurch sie eine große Rolle bei der Entstehung von Rezidiven, Metastasen, sowie der Entwicklung von Chemotherapieresistenzen spielen. Um eine gezielte Bekämpfung von Krebsstammzellen zu ermöglichen, müssen diese im
Tumor zunächst zuverlässig durch Krebsstammzellmarker detektiert werden können.
Gerade bei soliden pädiatrischen Tumoren, wie dem Hepatoblastom, ergeben sich hierbei Schwierigkeiten dadurch, dass im sehr heterogenen Tumorgewebe viele Zellen aufgrund der embryonalen Natur des Tumors bereits Stammzellmarker exprimieren, ohne dass es sich bei diesen Zellen um Krebsstammzellen handelt. Das Hepatoblastom ist mit 2/3 der Lebertumore des Kindes die häufigste maligne Leberneoplasie im Kindesalter.
Auch wenn es bereits Hinweise auf das Vorliegen von Krebsstammzellen im Hepatoblastom gibt, so konnten diese bisher nicht genauer durch fest definierte Krebsstammzellmarker identifiziert werden.
Um dies zu erreichen, wurden in dieser Arbeit die beiden Hepatoblastomzelllinien HuH6 und HepG2 auf die Expression der bereits bekannten Krebsstammzellmarker CD90, CD34 und CXCR4 überprüft. Zusätzlich wurde auf eine Bindung des „oval cell“ Antikörpers, OV-6, untersucht. Mittels Durchflusszytometrie-Analysen konnte eine Zellpopulation gefunden werden, welche die Oberflächenmarker CD34 und CD90 koexprimiert und gleichzeitig den OV-6 Antikörper bindet. Im nächsten Schritt wurden die Zellen auf einige Krebsstammzelleigenschaften überprüft. Zur weiteren Untersuchung dieser Subpopulation erfolgte mittels MACS (magnetic activated cell sorting) eine Anreicherung der CD90 exprimierenden Zellen. Diese wurde mittels qPCR auf die Expression der Pluripotenzmarker Oct4 und Nanog, sowie der Zytidindeaminase AID untersucht. Es konnte eine signifikant erhöhte Expression von AID und Oct4 detektiert werden. Im Gegensatz hierzu zeigte sich die Expression von EpCAM, c-myc und Albumin, welche als Kontrollgene untersucht wurden, nicht signifikant erhöht. Um auf das Metastasierungspotential der CD90 angereicherten Zellen rückzuschließen, wurde ein Migrationsassay mit angereicherten und depletierten Zellen durchgeführt. Hier wiesen die CD90 angereicherten Zellen, im Vergleich zu den depletierten Zellen eine erhöhte Migration auf. Im Tumorsphäroid-Assay war die HepG2 Zelllinie in der Lage Tumor-61 -sphäroide auszubilden. Nach der Passagierung zeigten diese eine erhöhte Expression der Krebsstammzellmarker CD90 und CD34, sowie der Pluripotenzmarker Oct4 und Nanog.
Zusammengefasst kann mit den Krebsstammzellmarkern CD90, CD34 und OV-6 eine Subpopulation im Hepatoblastom identifiziert werden, die nach unseren Analysen Krebsstammzelleigenschaften aufweisen. Mithilfe dieses Markersets können nun neue Therapieansätze auf ihre Effektivität, Krebsstammzellen gezielt zu eliminieren, getestet werden.
Selektive COX-2-Inhibitoren wie Rofecoxib und Celecoxib haben sich im klinischen Alltag bewährt, da sie im Gegensatz zu den herkömmlichen NSAIDs wie ASS oder Ibuprofen weniger gastrointestinale Komplikationen verursachen. Jedoch wurde in klinischen Studien ein erhöhtes Risiko für das Entstehen kardiovaskulärer Ereignisse nachgewiesen, was zur Stigmatisierung der selektiven COX-2 Inhibitoren und zu einer strengenIndikationstellung von Celecoxib führte. Verschiedene Studien, welche den - 765G>C SNP des PTGS2-Promotorgens untersuchten, kamen zu konträren Ergebnissen. Einerseits wurde bei Trägern des SNP eine verminderte COX-2- Proteinexpression und im Rahmen dieser Studie ein protektiver Effekt für das Entstehen kardiovaskulärer Ereignisse atherosklerotischer Genese beschrieben. Andererseits gab es Ergebnisse klinischer Studien, die bei Trägern des SNP eine erhöhte COX-2-Expression zeigten. Das Ziel der Studie war es herauszufinden, ob bei Trägern der Mutation nach COX-2-Inhibition durch Celecoxib verglichen mit Trägern der Wildtypvariante ein erhöhter, verminderter oder kein Effekt auf Prostaglandinsynthese, COX-2-Proteinexpression und COX-2-mRNA-Expression zu beobachten ist. Je 10 gesunde homozygote Träger des PTGS2 -765GG-Genotyps sowie des PTGS2 -765CC-Genotyps erhielten 200 mg Celecoxib per os, nachdem Einflüsse der COX-1 auf die Prostaglandinsynthese 24 Stunden zuvor mit der Einnahme von 500 mg ASS ausgeschlossen wurden. Blutproben wurden vor der Applikation (Referenzwert) sowie 1,3,6,9 und 24 Stunden nach der Applikation entnommen. Mittels LC-MS/MS wurden die Plasmakonzentrationen von Celecoxib sowie die ex vivo PGE2-Produktion von LPS-stimulierten Monozyten des peripheren Blutes gemessen. m-RNA Expression des COX-2-Gens wurde mit real-time quantitativer PCR gemessen. Mithilfe von Western Blot-Analysen wurde die COX-2-Expression dargestellt. Ex vivo Stimulation der Blutproben führte zu einem statistisch signifikantem Anstieg der PGE2-Produktion (P<0,001) ohne Inhibition durch Celecoxib. In Anwesenheit von Celecoxib kam es zu einer reduzierten PGE2-Produktion (von 19,3±7,2 ng/ml vor Applikation [Referenzwert] zu 7,4±4,8 ng/ml nach 1 Stunde; P<0,001), welche bis 9 Stunden nach Applikation statistisch signifikant bestehen blieb (P 0,001). Celecoxib inhibierte die PGE2-Produktion (EC 50%) bei einer Konzentration von 155,1 ng/ml bei Trägern der homozygoten Wildtypvariante sowie bei einer Konzentration von 186,6 ng/ml bei Trägern der homozygoten Allelvariante, was statistisch nicht signifikant war (P=0,36). Die Referenzwerte der PGE2-Produktion sowie die AUCs der PGE2-Konzentration in Bezug zur Zeit, ähnelten sich zwischen den Genotypen (P>0,28). LPS führte zu einer Hochregulation der COX-2 mRNAExpression (P=0,016), was jedoch unabhängig vom Genotyp war. Die COX-2-Proteinexpression zeigte bei beiden Genotypen keinen Unterschied (P=0,63). Ein Unterschied zwischen den Genotypen konnte weder auf Ebene der Prostaglandinproduktion ex vivo, noch auf Ebene der COX-2-Proteinexpression und mRNA-Expression nachgewiesen werden. Das Resultat dieser Studie steht weder zu den Ergebnissen der einen, noch zu den Ergebnissen der anderen Seite in komplettem Kontrast. Dass zur Zeit ungenügende Wissen über die Rolle der PTGS2-Mutationen ist vielmehr Ausdruck dieser konträren Studienergebnisse.
Einleitung: Die Bronchiolitis obliterans ist eine seltene Lungenerkrankung unterschiedlicher Ätiologie, die mit einer chronischen Entzündung der kleinen Atemwege einhergeht. Mit der Identifizierung von Kandidaten-miRNA sollen Biomarker evaluiert werden, die in der Diagnostik der postinfektiösen Bronchiolitis obliterans (PIBO) herangezogen werden sowie in Zukunft eine mögliche Therapieoption darstellen können.
Material und Methoden: 19 Patientinnen und Patienten mit PIBO sowie 18 gesunde Kontrollen wurden in die Studie eingeschlossen. Nach Komplettsequenzierung wurden die miRNA-Profile der Patienten mit den Profilen der alters- und geschlechtsadaptierten gesunden Kontrollgruppe verglichen. Als Nebenzielgrößen wurden die Lungenfunktion und Sputum-Biomarker erfasst.
Ergebnisse: Die Patientenkohorte wies signifikant niedrigere Werte in der Lungenfunktionsdiagnostik (Patienten, Median: FVC (%) 76,3***, FEV1 (%) 59,8***, FEV1/FVC 0,68***, FEF75 (%) 25,1***, *p<0,05, **p<0,01, ***p<0,001) sowie eine signifikante Erhöhung der neutrophilen Granulozyten und der proinflammatorischen Zytokine IL-1β, IL-6 und IL-8 in der Sputumanalyse auf (Patienten, Median: Neutrophile (%) 82,5***, IL-1β (pg/ml) 1453,0**, IL-6 (pg/ml) 825,6**, IL-8 (pg/ml) 35368,0***). Die Analyse der miRNA-Expression ergab insgesamt 40 unterschiedlich regulierte miRNAs (padj ≤ 0,05). 22 miRNAs waren in der Patientenkohorte vermehrt exprimiert, 18 miRNAs waren vermindert exprimiert. Die vier miRNAs mit pbonf < 0,05 wurden in der weiteren Analyse berücksichtigt. Die miRNAs hsa-let-7b-3p und hsa-miR-146a-3p waren signifikant vermehrt exprimiert, wohingegen die miRNAs hsa-miR-1287-5p und hsa-miR-27b-3p signifikant vermindert exprimiert waren. Die identifizierten miRNAs spielen unter anderem eine Rolle im TGF-β- und Hippo-Signalweg.
Schlussfolgerung: Die Ergebnisse zeigen, dass das miRNA-Expressionsmuster bei Patienten, die an postinfektiöser Bronchiolitis obliterans erkrankt sind, alteriert ist. Die identifizierten miRNAs sind relevante Biomarker und können als potentielle Ziele von miRNA-Therapeutika in Betracht gezogen werden.
Radon ist ein ubiquitär im Erdmantel sowie in der Luft und im Wasser vorkommendes radioaktives Edelgas. Obwohl die mit der Exposition assoziierten Erkrankungen seit dem Mittelalter bekannt waren, ist eine kausale Zuordnung von Agens und Krankheit erst in der Mitte des letzten Jahrhunderts gelungen. Durch die physikalischen Eigenschaften des Gases ist die Prävention darauf ausgerichtet, die Exposition zu minimieren. Eine koordinierte Bemühung der EU, durch einheitliche Regeln die Bevölkerung zu schützen, stellt die Richtlinie 2013/59/EURATOM vom 5. Dezember 2013 dar. Umgesetzt in nationales Recht, sah die deutsche Strahlenschutzgesetzgebung vor, dass am 01.01.2021 die verantwortlichen Bundesländer basierend auf einer Expositionskarte die Gebiete festlegen, in denen der Grenzwert der Aktivitätskonzentration von Radon in der Luft im Jahresmittel 300 Bq/m3 überschreitet. In dieser Arbeit sollen die Fortschritte auf dem Weg zu einem umfassenderen Schutz vor den Gefahren durch Radon für die Bevölkerung in Deutschland dargestellt werden.
Stereotaktische Biospien gehören seit vielen Jahren zu den Standardoperationen zahlreicher neurochirurgischer Kliniken. Hierbei werden Proben von Hirnläsionen entnommen, um diese histopathologisch zu untersuchen.
Die histopathologische Diagnose unklarer Hirnläsionen ist zwingend erforderlich, um eine adäquate Therapie durchzuführen. Eine weitere Therapie kann aus Bestrahlung, Chemotherapie, Kombination beider oder Resektion bestehen. In wenigen Fällen wird eine zweite oder dritte Biopsie benötigt, um eine endgültige Diagnose zu erhalten. Das Ziel dieser Studie war es, jene Patienten genauer zu untersuchen, bei denen die erste Biopsie kein definitives Ergebnis erbracht hatte. Die meisten dieser Patienten mussten sich einer zweiten Biopsie unterziehen. Wir haben eine umfassende Recherche der letzten 10 Jahre durchgeführt und eine Datenbank mit den Patienten erstellt, bei denen die erste Biopsie kein Ergebnis erbracht hatte.
Hierbei wurden klinische Parameter, welche einen Einfluss auf die nicht zielführenden Biopsie haben können, erhoben, beschrieben und diskutiert. Die Parameter umfassten die entnommene Probenanzahl, Kontrastmittelaufnahme der Läsion, Lokalisation der Läsion, Erfahrung des Operateurs, neuroradiologische Verdachtsdiagnose und Vorbehandlung.
Wir haben in dieser retrospektiven Arbeit unser Augenmerk auf die klinischen Aspekte der einzelnen Patienten, bei denen die erste Biopsie kein definitives Ergebnis erbrachte, gelegt.
Hier zeigten sich keinerlei Auffälligkeiten, welche positiv mit einer nichtzielführenden Biopsie einhergehen könnten.
Wir folgern, dass in den meisten Fällen eine definitive Diagnose zu erwarten ist. Unklar bleibt, bei welchen Patienten keine zielführende Biopsie erfolgen wird, so dass sie einer erneuten Biopsie unterzogen werden müssen.
Hintergrund: Für die Langzeitbehandlung vieler chronischen Erkrankungen im Kindesalter ist ein dauerhafter zentralvenöser Zugang notwendig, der die Applikation von Medikamenten und eine parenterale Ernährung sichert. Häufig werden hierfür sogenannte tunnelierte zentralvenöse Katheter wie Hickman-/Broviac- Katheter verwendet. Diese Kathetersysteme weisen spezifische postoperative Komplikationen auf. Katheterassoziierte Komplikationen sind von großer klinischer Relevanz, da es hierdurch zu einer verfrühten Explanation des Katheters kommen kann und die Applikation von Medikamenten nicht mehr gewährleistet ist. Es ist daher entscheidend, die Risiken postoperativer Komplikationen zu identifizieren, um entsprechende Präventions- und Verhaltensregeln zu entwickeln und die Verweildauer des tunnelierten Katheters möglichst langfristig sicherzustellen.
Ziel der vorliegenden retrospektiven Studie war neben der Untersuchung postoperativer Komplikationen tunnelierter Hickman-/Broviac- Katheter im Kindesalter die Identifikation von prädisponierenden Risikofaktoren.
Material und Methoden: In einer retrospektiven Kohortenstudie wurden in dem Zeitraum von Januar 2013 bis Juni 2017 Daten von pädiatrischen Patient:innen bis 21 Jahre mit einliegenden Hickmann-/Broviac Kathethersystemen eingeschlossen. Mögliche Risikofaktoren bezüglich katheterassoziierter Komplikationen wurden analysiert: Alter, Geschlecht, Grunderkrankung, Behandlungsindikation, das zur Implantation verwendete Gefäß, Anzahl der Lumen und die Kathetertage in situ. Die Daten wurden aus Papierakten, digitalen Krankenakten, Operationsberichten und Röntgenaufnahmen der Klinik für Kinderheilkunde und der Klinik für Kinderchirurgie und Kinderurologie des Universitätsklinikums Frankfurt in Excel (Version 2016) anonymisiert erfasst und deskriptiv und explorativ ausgewertet. Signifikante Unterschiede wurden mit Hilfe des X2-Test, des exakten Fisher-Tests, sowie des Mann- Whitney-U-Tests ermittelt. Die Durchführung der Studie wurde vom Ethikkomitee des Universitätsklinikums Frankfurt am Main genehmigt (Nummer 172-18).
Ergebnisse: Insgesamt wurden 333 Patient:innen mit 386 implantierten Kathetern (BARD Hickman-/Broviac- zentralvenöser Katheter; Bard Access Systems, Salt Lake City, UT), in die Studie eingeschlossen. Der Altersmedian der Patient:innen zum Zeitpunkt der Implantation lag bei 6.34 Jahren. Die meisten Katheter wurden wegen einer malignen Erkrankungen implantiert, die entsprechend mit einer Chemotherapie, Stammzelltransplantation und/oder Radiotherapie behandelt wurden. Die Explantation der Katheter erfolgte in der Regel mit der Beendigung der Therapie. In 22% (85 von 386 tunnelierten Kathetern) traten postoperative Komplikationen auf, mit einer kumulativen Ein-Jahres-Inzidenz von 21 % und 0.93 Komplikationen pro 1000 Kathetertagen. Am häufigsten waren Katherinfektionen (0.56 pro 1000 Kathetertagen) gefolgt von Dislokationen (0.29 pro 1000 Kathetertagen). Folgende Risikofaktoren für postoperative Komplikationen wurden identifiziert: Ein Patient:innenenalter von unter einem Lebensjahr, eine parenterale Ernährung, eine Stammzelltransplantation bei nicht malignen Grunderkrankungen, eine hämatologische Erkrankung und Tumore des Zentralen Nervensystems, eine offen chirurgische Implantation des Katheters, die V. jugularis interna als Zielgefäß und die Anwendung einlumiger Katheter. Tunnelierte Katheter, die für die Behandlung von einer Leukämie, einem Lymphom, oder eines soliden Tumors implantiert wurden, wiesen am wenigsten Komplikationen auf.
Schlussfolgerung/Ausblick: Insgesamt zeigt die vorliegende Studie eine mit der internationalen Literatur vergleichbare hohe Rate an postoperativen Komplikationen auf. Katheterinfektionen und Katheterdislokationen sind dabei die häufigsten Komplikationen und sollten daher besondere Beachtung im klinischen Alltag finden. Ferner konnten spezifische, risikobehaftete Patient:innengruppen identifiziert werden. Insbesondere Patient:innen, welche eine parenterale Ernährung erhielten, wiesen Katheterinfektionen auf. Daraus ist abzuleiten, dass insbesondere diesen Patient:innen eine engmaschige Überwachung zu kommen sollte, um frühzeitig Komplikationen zu detektieren und diesen entgegenzuwirken.
Die Gesamtzahl der untersuchten Katheter ist groß, einzelne Subgruppen fallen aber klein aus. Sie beeinflussen sich teilweise gegenseitig. In Zukunft sollten multivariate Studien für eine genauere Extrahierung einzelner Risikofaktoren erfolgen.
Akute Hochrisiko-Leukämien oder deren Rezidive, chronische Leukämien, Myelodysplastische Syndrome und Hodgkin- und Non-Hodgkin-Lymphome sind Indikationen für hämatopoetische Stammzelltransplantationen. Das Verfahren ist mit einer hohen Therapie-assoziierten Morbidität und Mortalität (TRM), die bei 5-40% liegt, assoziiert. Hauptprobleme sind dabei neben Infektionen die akute und chronische Transplantatreaktion (Graft-versus-Host-Erkrankung, GvHD). Die TRM variiert je nach Grunderkrankung, Spender und Allgemeinzustand des Patienten. Um Risikofaktoren für die TRM zu identifizieren, analysierten wir in einer retrospektiven Studie 205 allogene pädiatrische SZT in 4 Kliniken, von denen jeweils 2 Kliniken ein hohes bzw. niedriges Risikoprofil hinsichtlich der TRM hatten. Wir überprüften die Anwendbarkeit und Validität des von Matthes-Martin et al. entwickelten Risikoscores (TRMScore), der aus drei Risiko-Punkten Patienten-spezifische (Alter, Grunderkrankung) und Therapie-spezifische (Spender) Charakteristika miteinander kombiniert. Dieser Score teilt die Patienten in 4 TRM–Risikogruppen ein mit einem Score von 0 Punkten (Patient unter 10 Jahren mit HLA-identischen Geschwister als Donor) bis zu 3 Punkten (Patient über 10 Jahren, CR3 und HLA-nicht passenden Spender). Wir modifizierten den TRM-Score von Matthes-Martin et al., indem wir die Patienten mit einem TRM-Score von 0 und 1 in eine erste Gruppe (TRM-Score I) und die Patienten mit dem TRM-Score von 2 und 3 in eine zweite Gruppe zusammen (TRM-Score II) zusammenfassten, und entwickelten den mTRM-Score (modifizierter TRM-Score). Die Indikationen zur SZT waren ALL, AML, CML, Non-Hodgkin-Lymphome, Hodgkin-Lymphome und MDS. Es gab 88 KMT und 115 PBSZT und in 2 Fällen war die Stammzellquelle eine Kombination aus Knochenmark und peripherem Blut. Das Patientenalter lag zwischen 0 und 23 Jahren. Spender waren MSD (26,8%), MRD (1%), MUD (53,2), MMUD (10,2%) und MMRD (8,8). Am LFU lebten 61% der Patienten. Von den 39% der verstorbenen Patienten sind 40% aufgrund eines Rezidivs verstorben und 60% transplantationsassoziiert. Die Gesamt-TRM lag bei 22,4%. Wir teilten transplantationsassoziierte Faktoren in folgende Gruppen ein: Patienten-assoziierte Variablen, Spender-assoziierte, Krankheits-assoziierte, Therapie-assoziierte Variablen und sonstige Variablen. Die logistische Regression zeigte signifikant prognostische Faktoren, die die TRM beeinflussen. Das waren die Klinik (P=0,0045), in der die SZT durchgeführt wurde, das Jahr der SZT (P=0,0457, ab 2001) und der Spendertyp (P=0,0083, kein MSD). Die Diagnose, der Remissionsstatus bei SZT und der TRM-Score waren keine prognostischen Risikofaktoren für die TRM. Bei Anwendung des mTRM-Scores kristallisierte sich dieser als ein Prädiktor für die TRM (P=0,0447) heraus. Ein TRM-Score von I ging mit einer niedrigen TRM-Rate einher. Der mTRM-Score kann aufgrund der Ergebnisse zur Therapieentscheidung herangezogen werden, da er eine Einschätzung der tatsächlichen Überlebenswahrscheinlichkeit für die Patienten möglich macht. Die Klinik als Risikofaktor für die TRM ist nicht alleine durch das Patientenkollektiv und durch die Auswahl des Spendertyps zu erklären. Anhand der 1-Jahres-TRM (23%) von Matthes-Martin et al. errechneten wir die zu erwartende TRM-Rate für unsere Kliniken. Die erwartete TRM wich in Klinik C und Klinik D stark von der beobachteten TRM ab, in Klinik A und Klinik B waren sie annähernd gleich. Ein signifikanter Unterschied bestand nur bei Klinik C mit einem p-Wert von 0,05 bei dem TRM-Score und 0,02 bei dem mTRM-Score. Die Ergebnisse lassen darauf schließen, dass das Outcome der SZT von den Kliniken an sich bzw. deren Therapiemodalitäten beeinflusst wurde.
Risikoabschätzung für das Auftreten Thrombolyse-assoziierter intrazerebraler Blutungen mittels MRT
(2009)
Symptomatische intrazerebrale Blutungen (sICH) stellen die wichtigste Komplikation der Thrombolyse akuter ischämischer Schlaganfälle dar. Sie sind mit einer erhöhten Mortalität und sehr schlechten Langzeitergebnissen verbunden. Die Identifikation von Patienten mit einem erhöhten Blutungsrisiko stellt daher ein wesentliches Ziel aktueller Forschungsbemühungen dar.
In der vorliegenden Studie wurde die Bedeutung ausgewählter MR-Parameter (Leukoaraiosis, Mikroblutungen, Ausmaß der DWI-Läsion) als mögliche Prädiktoren für Thrombolyse-assoziierte sICH untersucht.
In die retrospektive, multizentrische Studie wurden prospektiv erhobene Daten von 475 Patienten aus sechs deutschen und zwei internationalen anerkannten Schlaganfallzentren eingeschlossen, die im Zeitfenster von <6 Stunden mit einem akuten ischämischen Schlaganfallereignis im Bereich der vorderen Zirkulation mit einer i.v. (n=367; 77%), i.a. (n=74; 16%) oder i.v./i.a. (n=34; 7%) Thrombolyse behandelt worden.
Alle Patienten wurden mit einem Schlaganfall-MR-Protokoll untersucht, welches neben Diffusions- und FLAIR-Sequenzen auch T2*-gewichtete Sequenzen enthielt.
Für die Analyse wurden die Patienten jeweils in eine Gruppe ohne und eine Gruppe mit schwerer LA (Fazekas 0-1 vs. 2-3) und je eine Gruppe mit kleinem (<1/3 des A. cerebri media-Stromgebietes (MCA)) und großem (>1/3 MCA) DWI-Läsionsausmaß dichotomisiert. T2*-Wichtungen wurden auf das Vorliegen und die Anzahl von zerebralen Mikroblutungen (CMB) untersucht und Patienten in eine Gruppe mit ≥1 CMB und ohne CMB dichotomisiert.
Eine sICH wurde als eine in der Verlaufsbildgebung (cCT oder MRT) dokumentierte (≥10 ml) Blutung definiert, die innerhalb von 36 Stunden nach Thrombolysebeginn mit einer klinischen Verschlechterung des Patienten (≥1 Punkt auf der NIHSS-Skale) einherging.
Insgesamt entwickelten 28 (5,9%) Patienten eine sICH. SICH waren signifikant häufiger in der Gruppe mit LA (Fazekas 2-3) (n=12/114; 10,5%) als in der Gruppe ohne LA (Fazekas 0-1) (n=13/335; 3,5%) zu finden. In einer logistischen Regressionsanalyse (Alter, National Institutes of Health Stroke Scale (NIHSS) bei Aufnahme, Art der Thrombolyse) blieb LA ein unabhängiger Risikofaktor (Odds ratio 2,7 (95% KI, 1,29-6,59), p=0,015).
Die Anzahl der sICH konnte auch in der Gruppe mit großen (>1/3 MCA) (n=6/32; 18,8%) signifikant häufiger als in der Gruppe mit kleinen DWI-Läsionen (<1/3 MCA) (n=12/319; 3,8%) erhoben werden, was umgerechnet einem 5,9 fachen Risiko (Odds ratio 5,9 (95% KI, 2,048-17,017, p=0,003) einer sICH für Patienten mit großen DWI-Läsionen im Vergleich zu Patienten mit kleinen DWI-Läsionen entspricht. Das Ausmaß der DWI-Läsion bleibt in einer multivariaten Regressionsanalyse (s.o.) ein unabhängiger Risikofaktor für sICH.
Die Ergebnisse einer großen Subgruppenanalyse der i.v.-behandelten Patienten (n=367/376, 77%) waren hinsichtlich der Bedeutung für LA und Ausmaß der DWI-Läsion vergleichbar mit den Ergebnisse der Gesamtmenge.
Die Anzahl der sICH unterschied sich nicht signifikant zwischen der Gruppe mit ≥1 CMB (n=7/79, 9%) und der Gruppe ohne CMB (n=20/367, 5%, p=0,295).
Zusammenfassend konnte die vorliegende Arbeit die MR-Parameter Leukoaraiose und das Ausmaß der initialen DWI-Läsion als unabhängige Risikofaktoren hinsichtlich der Enwicklung Thrombolyse-assoziierter sICH nachweisen. Hiermit kann einerseits die Sicherheit der Thrombolyse im 3h-Zeitfenster erhöht und der Behandlungzeitraum hoffentlich zukünftig erweitert werden. Der potentielle Behandlungsgewinn einer Thrombolyse sollte bei Einschluss in Betracht kommender Schlaganfallpatienten sorgfältig gegen das mit zunehmender LA und DWI-Läsionlast ansteigende Blutungsrisiko abgewogen werden. Eine unabhängige Assoziation zwischen sICH und CMB konnte nicht gezeigt werden, so dass das Blutungsrisiko bei Patienten mit CMB’s den Behandlungsvorteil wahrscheinlich nicht übersteigt.
Ziel der Arbeit ist es die Eigenschaften und die Häufigkeit von Rezidiven der primär und sekundär therapierten Basalzellkarzinome der MKPG, insbesondere in Abhängigkeit der Lokalisation und des Resektionsstatus zu evaluieren und mit den Ergebnissen der Literatur zu vergleichen, um ein optimiertes chirurgisches Vorgehen zu sichern.
Therapierefraktärer Schmerz ist ein weit verbreitetes, äußerst belastendes Leitsymptom rheumatischer Erkrankungen. Viele Betroffene weichen daher bei Versagen der Standardmedikation selbstständig auf Cannabis oder die strukturell verwandte Substanz Palmitoylethanolamid (PEA) als Add-On- oder Alternativtherapie aus, obwohl dies in Deutschland bisher nur eingeschränkt zulässig ist. Die deutsche Gesetzgebung ist diesbezüglich nicht eindeutig, weshalb Ärzt:innen in ihrer Entscheidung, Cannabis zu verschreiben, auf Leitlinien, Fallberichte und Expert:innenmeinungen zurückgreifen müssen. Dies führt zu schwierigen Einzelfallentscheidungen, da sich die derzeitige Datenlage zu Cannabis-based Medicine (CBM) bzw. PEA und Rheuma als mangelhaft darstellt und die Leitlinien dementsprechend keine klaren Empfehlungen enthalten. Ziel der vorliegenden Arbeit ist es, die vorhandene Evidenz zusammenzufassen, zu ordnen und anhand der Hill-Kriterien den möglichen kausalen Zusammenhang zwischen der Einnahme von CBM bzw. PEA und der analgetischen Wirkung bei Rheumaschmerzen zu prüfen.
Ein persistierender Ductus arteriosus (PDA) stellt bei Frühgeborenen mit <1500g Geburtsgewicht einen relevanten Faktor für eine Erhöhung der Morbidität und Mortalität dar. Aufgrund fehlender Evidenz konnte bisher keine allgemeine Therapieempfehlung nach frustranem medikamentösem Verschlussversuch erarbeitet werden, sowohl eine Ligatur im Rahmen eines operativen Eingriffs, als auch eine Katheterintervention sind möglich. In der vorliegenden Arbeit wurde retrospektiv die Auswirkung dieser verschiedenen Therapiemethoden auf die Morbidität und Mortalität bei Frühgeborenen <1500g Geburtsgewicht mit hämodynamisch signifikantem persistierendem Ductus arteriosus untersucht. Insbesondere wurde geprüft, ob eine Katheterintervention das Risiko einer Bronchopulmonalen Dysplasie (BPD) oder des Versterbens der Kinder, sowie andere häufige Folgeerkrankungen des Frühgeborenen erhöht. Analysiert wurden dafür alle 469 stationär behandelten Kinder des Schwerpunktes Neonatologie, die zwischen dem 01.01.2013 und dem 31.12.2019 in der Uniklinik Frankfurt am Main mit einem Geburtsgewicht von <1500g geboren oder innerhalb der ersten 13 Lebenstage aus einem anderen Krankenhaus übernommen wurden. Diese wurden in 4 Gruppen eingeteilt: Kinder ohne hämodynamisch signifikanten PDA (n=341), Kinder die erfolgreich medikamentös therapiert wurden (n=92), solche, die eine Ligatur erhielten (n=16) und zuletzt solche, die interventionell behandelt wurden (n=12). Die Daten der medikamentös behandelten Kinder wurden in dieser Untersuchung nicht berücksichtigt. Es wurden sowohl verschiedene Geburtsparameter um eine Vergleichbarkeit der Gruppen zu untersuchen, als auch relevante Parameter des Outcomes ausgewertet. Es zeigte sich, dass Kinder ohne PDA zum Zeitpunkt der Geburt ein höheres Gestationsalter hatten als solche mit PDA und daraus resultierend eine geringere Intensivmedizinische Betreuung und geringere Morbidität aufwiesen. Im Vergleich der Interventionskinder mit einer Matched-pair Gruppe aus 24 Kindern der Kontrollgruppe ohne PDA (± 8 Schwangerschaftstage bei Geburt und ± 410 g Geburtsgewicht) konnten keine Unterschiede in Mortalität oder Morbidität festgestellt werden. Kinder nach Intervention zeigten kein signifikant schlechteres Outcome (Bronchopulmonale Dysplasie, Intraventrikuläre Hämorrhagie, operativ versorgte nekrotisierende Enterokolitis, therapiebedürftige Retinopathia praematurorum, Periventrikuläre Leukomalazie) im Vergleich zu Kindern nach Ligatur. Eine schwere Bronchopulmonale Dysplasie trat mit einem Relativen Risiko von 2,25 seltener auf. Diese Ergebnisse lassen den Schluss zu, dass die Interventionelle Therapie des hsPDA ein ähnlich gutes Outcome im Vergleich zur Ligatur aufweist und sogar einen Vorteil für die Kinder bringt. Aufgrund der geringen Fallzahlen muss die Relevanz diese Ergebnisse kritisch hinterfragt werden. Eine mögliche randomisierte kontrollierte Studie könnte diese bestätigen.
In der vorliegenden Arbeit wurden 494 endodontisch behandelte Zähne aus der studentischen Ausbildung des Zentrums der Zahn-, Mund- und Kieferheilkunde der Universität Frankfurt am Main retrospektiv ausgewertet und eine Langzeitprognose erhoben. Die Überlebenszeit der Zähne wurde bezüglich des Einflusses der Behandlungsparameter auf die Prognose analysiert. Die Auswahl der Patientenfälle erfolgte nach dem Zufallsprinzip. Jede begonnene Wurzelkanalbehandlung kam unabhängig von der Ausgangssituation zur Auswertung, sofern ein vorgegebenes standardisiertes Behandlungsprotokoll zur Anwendung kam. Im Unterschied zu vielen Studien wurde die Extraktion als Misserfolg gewertet und als finales Ereignis definiert. Vom Patientenpool in dieser Arbeit wurden die Parameter Alter, Geschlecht, behandelter Zahn, radiologische und klinische Ausgangssituation, Ausgangsbefunde und Diagnose, Kofferdamverwendung, Sitzungen, provisorische Füllungen, Stiftinsertion und prothetische Versorgungen erfasst und der Überlebensanalyse nach Kaplan-Meier zugeführt. Die Irrtumswahrscheinlichkeit wurde mit dem Log-Rang-Test ermittelt und ausgewertet. Bei 449 Patienten wurde die Wurzelkanalbehandlung nach vorgegebener standardisierter Therapie mit manueller Aufbereitung und lateraler Kondensation unter Verwendung des Sealers AH Plus® oder AH 26® (Dentsply DeTrey, Konstanz) durch unterschiedliche Behandler abgeschlossen. In 55 Fällen wurde eine Revisionsbehandlung durchgeführt. 45 Zähne wurden aus unterschiedlichen Gründen vor Beendigung der Therapie extrahiert. Diese Gruppe wurde mit den übrigen Zähnen bezüglich der Parameter der Therapie verglichen, um Gründe für die vorzeitige Zahnentfernung offen zulegen. Der Nachuntersuchungszeitraum umfasste bis zu 21 Jahren. Die Recall-Rate erreichte 58,1% bei einer Nachkontrollzeit von 5 Jahren und 25,6% bei 10 Jahren und liegt damit auf hohem Niveau. Die durchschnittliche Überlebenswahrscheinlichkeit der Zähne lag bei 76% nach 5 Jahren und 44% nach 20 Jahren. Statistisch signifikant mehr Extraktionen vor Beendigung der Wurzelkanalbehandlung fanden sich bei Molaren, bei Perkussionsempfindlichkeit vor Trepanation, bei symptomatischen Zähnen mit LEO, bei Therapie ohne Kofferdamverwendung, bei mehr als 10 Sitzungen mit anschließendem provisorischem Verschluss sowie bei Frauen. Hinsichtlich der Unterschiede in der Überlebenserwartung erwiesen sich nur die Parameter Altersstruktur und Stift- beziehungsweise Einzelkronenversorgung als signifikant. Die Zähne in der Gruppe der 41 bis 60-Jährigen zeigten eine deutlich bessere Überlebenswahrscheinlichkeit als die Zähne der Patientengruppe der 61 bis 80-Jährigen. Mit Einzelkrone versorgte Zähne zeigten einen signifikant besseren Langzeiterfolg unabhängig von einer Versorgung mit Wurzelkanalstift. Alle übrigen ausgewerteten Parameter des Ausgangszustandes, der Wurzelkanalbehandlung sowie die Diagnose der einzelnen Zähne waren hinsichtlich des Unterschiedes der Überlebenswahrscheinlichkeit nicht signifikant. Diese Studie ermittelte die Überlebenswahrscheinlichkeit von endodontisch behandelten Zähnen aus der studentischen Ausbildung. Für die angewandte Standardtherapie wurde eine Erfolgsangabe ermittelt, welche zukünftige Vergleiche mit Therapiealternativen zulässt. Die Ergebnisse dieser Studie ermitteln die postendodontische Versorgung als den wesentlichen Parameter für den Langzeiterfolg wurzelkanalbehandelter Zähne. Auf diesem Gebiet sollte deshalb weiter Forschung betrieben werden.
Hintergrund und Ziel der Arbeit: Aufgrund des demografischen Wandels ist mit einer Änderung des Altersspektrums bei den Obduktionen zu rechnen. Ziel der Arbeit war die Untersuchung der nichtnatürlichen Todesfälle, bei denen die Verstorbenen ein Mindestalter von 65 Jahren erreicht hatten, da dieser Populationsgruppe zukünftig eine wachsende Bedeutung zukommen wird. Material und Methoden: In dieser retrospektiven Mortalitätsstudie wurden alle nichtnatürlichen Todesfälle mit einem Sterbealter ≥ 65 Jahren analysiert, die in den Jahren 2000–2002 (Zeitraum I) und 2013–2015 (Zeitraum II) im Institut für Rechtsmedizin des Universitätsklinikums der Goethe-Universität in Frankfurt am Main obduziert wurden. Für die Analyse der suizidal Verstorbenen wurden zudem Daten nichtobduzierter Selbsttötungen (n = 100) aus Besichtigungen aufgenommen. Ergebnisse: Aus den 1206 Obduktionen resultierten 669 natürliche (55,5 %) und 404 nichtnatürliche (33,5 %) Todesfälle. Darunter ergaben sich 221 Unfälle (Zeitraum I n = 105; Zeitraum II n = 116), 82 Suizide (Zeitraum I n = 55; Zeitraum II n = 27), 41 Todesfälle im Zusammenhang mit medizinischen Interventionen (Zeitraum I n = 7; Zeitraum II n = 34) und 40 Tötungsdelikte (Zeitraum I n = 23; Zeitraum II n = 17). Verkehrsunfälle und Stürze bilden die größten Subgruppen bei den Unfällen. Erhängen und Erschießen sind die am meisten angewandten Suizidarten. Vergleicht man Zeitraum I mit II, so fällt die signifikante Zunahme von Todesfällen im Zusammenhang mit ärztlichen Maßnahmen auf. Eine signifikante Abnahme von Suizidenten ist durch die abnehmende Obduktionsrate in dieser Gruppe zu begründen. Die relative und absolute Fallzahl an Tötungsdelikten im Obduktionsgut weisen keine wesentliche Veränderung auf. Diskussion/Schlussfolgerung: Die Ergebnisse dieser Studie stimmen großteils mit der Literatur überein. Im Zeitvergleich zeigt sich eine relative Zunahme nichtnatürlicher Todesfälle im gerontologischen Obduktionsgut. Dies wird durch den Anstieg von Obduktionen nach iatrogenen Komplikationen wesentlich mitgeprägt.
Die vorliegende Promotionsarbeit befasst sich mit der retrospektiven Untersuchung von dentalen Implantaten, die nach Augmentation mit einem synthetischen Knochenersatzmaterial Nanobone® (Artoss, Rostock, Germany) inseriert wurden.
Ziel der vorangegangenen Studie war die Untersuchung, ob durch die Verkürzung der Einheilzeit von 6 auf 3 Monaten ein vergleichbares Ergebnis an Knochenneubildung erreicht werden kann. Es konnte gezeigt werden, dass eine Sinusbodenaugmentation mit dem synthetischen Knochenersatzmaterial Nanobone® schon nach einer Einheilzeit von 3 Monaten ein suffizientes Implantatbett vorweist und somit eine langzeitstabile Implantatrestauration (3-Jahres Follow up) ermöglicht.
Im Rahmen des 10-Jahres Follow-up konnten 12 der insgesamt 14 Patienten klinisch nachuntersucht werden.
Somit standen für die durchgeführte Nachuntersuchung noch 24 der insgesamt 27 Implantate zur Verfügung.
Hiervon wurden 17 Implantate nach 3 Monaten und 7 Implantate nach 6 Monaten inseriert.
Zehn Jahre nach der primären Augmentation und zweizeitigen Implantation zeigten sich bei der Nachuntersuchung 22 der 24 Implantate stabil und reizfrei in situ.
Die Parameter, die in der klinischen Untersuchung erhoben wurden waren, neben der festen und stabilen in situ Insertion der Implantate, eine Periotest-Messung (Medizintechnik Gulden, Modautal, Deutschland), das Bluten auf Sondieren (Bleeding on probing, BOP), die Bestimmung des Plaqueindex sowie die Untersuchung des Weichgewebes auf Rezessionen und Weichgewebsdehiszenzen.
Zwei der 24 Implantate mussten explantiert werden, eines davon bereits ein Jahr nach Implantation aufgrund von progredienten Entzündungszeichen und Lockerung.
Dies entspricht einer mittleren Implantatüberlebensrate von 91,66% oder einer Verlustrate von 8,34%.
Anders als im 3 Jahres Follow-up zeigte sich im Gruppenvergleich 3- zu 6 Monaten ein deutlicher Unterschied mit einer Implantatüberlebensrate in der 6- Monatsgruppe von 100% (7 von 7 Implantaten in situ) zu einer Implantatüberlebensrate der 3-Monatsgruppe von 88,24% (15 von 17 Implantaten in situ).
Somit ergibt sich ein deutlich besseres Outcome 10 Jahre post implantationem im Sinne einer erhöhten Implantatüberlebensrate und einer niedrigeren Komplikationsrate für die 6-Monatskontrollgruppe im Vergleich zu den Patienten, bei denen bereits 3 Monate post augmentationem implantiert wurde.
Die vorliegenden Untersuchungen zeigen, dass die Langzeitergebnisse nach Verwendung von alloplastischen KEM NanoBone®, auch nach 10 Jahren, mit vergleichbaren Langzeitergebnissen zu autologen Knochenersatz zur Knochenaugmentation im Oberkieferbereich mit gegebenenfalls kombinierter Sinusbodenaugmentation und zweizeitiger Implantatversorgung einhergehen.
Der Morbus Basedow zählt zu den häufigsten Ursachen einer Hyperthyreose. Zur Behandlung stehen neben der medikamentösen thyreostatischen Therapie auch ein operatives sowie ein nuklearmedizinisches Verfahren zur Verfügung.
Die beiden zuletzt genannten Behandlungsmöglichkeiten stellen aufgrund ihrer Wirkungsweise ein definitives Verfahren dar, bei dem Schilddrüsengewebe entfernt bzw. zerstört wird. Dadurch ist in der Regel eine dauerhafte Substitution der lebensnotwendigen Schilddrüsenhormone erforderlich. Im Gegensatz dazu bleibt bei der medikamentösen Therapie mit Thyreostatika die gesamte Schilddrüse erhalten und funktionsfähig. Der Nachteil besteht in der hohen Rezidivrate von über 50 % im Vergleich zur definitiven Therapie. Damit mehr Patienten von den Vorteilen der thyreostatischen Therapie profitieren, ist eine Optimierung dieser zur Reduktion der Rezidivrate notwendig.
Ziel dieser Arbeit war es, mittels einer retrospektiven Analyse zu ermitteln, welche anamnestischen, klinischen, sonographischen und laborchemischen Parameter mit einem Rezidiv des Morbus Basedow bei Patienten mit thyreostatischer Therapie in Zusammenhang stehen. Weiterhin erfolgte eine Analyse von sonographischen und laborchemischen Werten im Krankheitsverlauf, um daraus Indikatoren für eine optimale Dauer der thyreostatischen Therapie abzuleiten. Hierzu wurden die Daten von 260 Patienten bezüglich der folgenden Faktoren zwischen Remissions- und Rezidivgruppe verglichen: Erkrankungsalter, Geschlecht, Dauer der Thyreostatikagabe, Vitamin D-Spiegel, Nikotinkonsum, endokrine Orbitopathie, fam. Autoimmunerkrankung, fam. Schilddrüsenerkrankung und Veränderungen im Hormonhaushalt anderer Hormonachsen. Zudem erfolgte eine Zeitreihenanalyse Schilddrüsen-spezifischer Laborwerte (fT3, fT4, TSH, TRAK, anti-TPO-Ak, TgAk) und des sonographisch bestimmten Schilddrüsenvolumens jeweils zu den Zeitpunkten Diagnosestellung sowie sechs und zwölf Monate darauf. Die Rezidivrate im untersuchten Patientenkollektiv betrug 68,8 %.
Für das Erkrankungsalter, die Therapiedauer, das Schilddrüsenvolumen, die Schilddrüsenfunktionsparameter und die TSH-Rezeptor-Antikörper ließen sich signifikante Unterschiede zwischen Remissions- und Rezidivkohorte nachweisen. Patienten, die bei Diagnose das 35. Lebensjahr noch nicht vollendet hatten, erlitten signifikant häufiger ein Rezidiv als ältere Patienten. In der Remissionsgruppe war die Therapiedauer mit zwölf Monaten zudem signifikant länger als in der Rezidivgruppe. Patienten, deren Schilddrüse zum Zeitpunkt der Diagnose oder zwölf Monate darauf in der sonographischen Messung über die Norm vergrößert war, erlitten signifikant häufiger ein Rezidiv des Morbus Basedow, ebenso wie Patienten mit anhaltend pathologischen Schilddrüsenfunktionsparametern sechs und zwölf Monate nach Diagnose. Die Werte der TSH-Rezeptor-Antikörper fielen in der Rezidivgruppe zu allen Erhebungszeitpunkten signifikant höher aus als in der Remissionsgruppe. Diese Ergebnisse lassen für die medikamentöse Behandlung des Morbus Basedow den Schluss zu, dass die Dauer der thyreostatischen Therapie dem Krankheitsverlauf, der sich in den Schilddrüsenfunktionswerten und den Leveln der TSH-Rezeptor-Antikörper widerspiegelt, angepasst werden sollte, um deren Erfolgsrate zu steigern. Weiterhin lässt sich folgern, dass bei jüngeren Patienten und Patienten mit vergrößerter Schilddrüse ein erhöhtes Rezidivrisiko besteht und diese Patienten möglicherweise von einem verlängerten Therapieintervall profitieren.
Während in der aktuellen europäischen Leitlinie zur Behandlung der Immunhyperthyreose eine feste Spanne von zwölf bis achtzehn Monaten für die Gabe der Thyreostatika empfohlen wird, lautet die Empfehlung der amerikanischen Hyperthyreose-Leitlinie die thyreostatische Therapie bis zur Normalisierung der TSH-Rezeptor-Antikörper fortzuführen. Die Ergebnisse der vorliegenden Arbeit sprechen dafür, die europäische Leitlinie dahingehend der amerikanischen Leitlinie anzupassen.
Die Vasektomie stellt eine der einfachsten und effektivsten Methoden der permanenten Empfängnisverhütung dar. Trotzdem bevorzugen mehr Paare die Tubenligatur der Frau, die verglichen mit der Vasektomie sowohl größere Kosten als auch größere Risiken mit sich bringt. Durch mangelnde Informationen haben immer noch viele Männer Angst, dass sich eine Vasektomie negativ auf ihr Sexualleben auswirken könnte. Mit dieser Studie sollten diese Auswirkungen näher untersucht werden, um Männern und auch ihren Partnerinnen die Angst vor möglichen negativen Konsequenzen zu nehmen.
Hierfür wurden 294 vasektomierten Männern und ihren Partnerinnen drei Fragebögen zugeschickt. 95 Männer beantwortete den allgemeinen Fragebogen, 90 den IIEF und 74 Frauen den FSFI Fragebogen. Die Ergebnisse wurden mit Kontrollgruppen aus der Literatur verglichen.
Im IIEF-Fragebogen erreichten die vasektomierten Männer in allen fünf Domänen signifikant höhere Scores als das Vergleichskollektiv mit einer erektilen Dysfunktion aus der Literatur. In vier der fünf Domänen erreichten sie signifikant höhere Scores als die gesunde Kontrollgruppe aus der Literatur. Nur in der Domäne „generelle Zufriedenheit“ gab es keinen signifikanten Unterschied.
Die Partnerinnen der vasektomierten Männer erreichten in allen 19 Fragen des FSFI-Fragebogens sowie in allen sechs Domänen signifikant höhere Scores als Patientinnen mit einer sexuellen Dysfunktion aus der Literatur. In allen 19 Fragen und fünf der sechs Domänen gab es keinen signifikanten Unterschied zu der gesunden Kontrollgruppe aus der Literatur. Lediglich in der Domäne „Erregung“ hatten die Partnerinnen vasektomierter Männer signifikant bessere Ergebnisse.
Die Vasektomie hat keine negativen Auswirkungen auf das Sexualleben des Paares. Die Zufriedenheit der Partnerinnen wird nicht negativ beeinflusst. Die vasektomierten Männer sind mit ihrem Sexualleben sogar zufriedener und erzielen signifikant bessere Werte im IIEF-Fragebogen als eine nicht-vasektomierte Kontrollgruppe.
Synthetische Cannabinoide sind strukturell variable Substanzen, die an die gleichen CB1- und CB2-Rezeptoren binden wie ∆9-THC und bei Konsumenten vergleichbare Symptome auslösen. Die psychoaktiven Substanzen werden Kräutermischungen beigemengt und gelten unter Konsumenten vermeintlich als ungefährlich. Aufgrund erhöhter Bindungsaffinitäten zu den Cannabinoidrezeptoren sind viele synthetische Cannabinoide potenter als ∆9-THC und lösen daher stärkere Symptome aus als der Konsum von ∆9-THC. Der Konsum von synthetischen Cannabinoiden führt zu zentraler Sedierung und Beeinträchtigungen in der Feinmotorik; dies ist nicht mit dem sicheren Führen eines Fahrzeugs kompatibel. Durch die strukturelle Varianz von synthetischen Cannabinoiden und ein stetig wechselndes Spektrum aktuell auf dem Drogenmarkt erhältlicher Substanzen ist der generelle Nachweis des Konsums von synthetischen Cannabinoiden limitiert. Bislang sind synthetische Cannabinoide in Blut oder Urin nur bei bekannter Struktur und vorhandenen Referenzmaterialien mit Sicherheit nachweisbar. Studien zur Prävalenz von synthetischen Cannabinoiden sind rar und basieren häufig auf Umfragen, da auf Probenanalysen basierende Studien meist nicht alle aktuellen synthetischen Cannabinoiden erfassen. In der vorliegenden Arbeit wurde die Prävalenz von synthetischen Cannabinoiden unter Fällen aus Verkehrs- und Kriminaldelikten des Jahres 2010 in Hessen bestimmt, um zu zeigen wie häufig synthetische Cannabinoide in forensischen Analysen unentdeckt bleiben. Die analytische Methode wurde entwickelt sowie validiert und war für alle 31 synthetischen Cannabinoide, die bis 2011 auf dem Drogenmarkt erhältlich waren, sensitiv. Eine repräsentative Stichprobe bestehen aus 20% aller Blutproben (422 aus 2201) des Jahres 2010 wurde nachuntersucht. Weitere Auswertungen wurden auf Basis von Fallakten durchgeführt. Unter den analysierten Blutproben enthielten 12 Proben synthetische Cannabinoide, woraus für das Jahr 2010 eine Prävalenz von synthetischen Cannabinoiden unter Fällen aus Verkehrs- und Kriminaldelikten von 2,8% ermittelt wurde. Das am häufigsten detektierte synthetische Cannabinoid war JWH-122. Die Konzentrationen lagen überwiegend im niedrigen Bereich (unter 1 ng/ml bis 3 ng/ml). In einem Fall wurde eine vergleichsweise hohe Konzentration des JWH-122 mit circa 73 ng/ml gemessen, wobei neben Apathie keine weiteren Symptome dokumentiert wurden. Alle Konsumenten waren männlich; das Alter lag in 11 Fällen zwischen 18 und 38 Jahren (median 22 Jahre) und die Konsumenten waren Verdächtige von Verkehrsdelikten. Eine weitere positiv getestete Blutprobe stammte aus einem Kriminaldelikt; der Verdächtige war 46 Jahre alt. Die Auswertung der Konsummuster zeigte in 10 von 12 Fällen (83,3%) einen Mischkonsum. Nur in zwei Fällen lag ausschließlicher Konsum von synthetischen Cannabinoiden vor. Die Kombination von synthetischen Cannabinoiden mit ∆9-THC oder Alkohol war mit je vier Fällen häufig. In sechs Fällen wurde eine Vielfalt anderer psychoaktiver Drogen oder Medikamente in den Blutproben nachgewiesen. Die dokumentierten Ausfallserscheinungen waren meist moderat und ließen sich durch die Effekte von Cannabinoiden, Alkohol oder anderen gefundenen Drogen oder Medikamenten erklären. Im Fall eines Konsumenten hat sich nach den Angaben in ärztlichen und polizeilichen Berichten durch den nachgewiesenen Konsum von synthetischen Cannabinoiden eine vorbestehende Psychose verschlimmert. Fazit: Durch die geringe Prävalenz synthetischer Cannabinoide, fehlende routinemäßige Erfassbarkeit sowie Häufigkeit des Mischkonsums müssen Träger von rechtsmedizinischen Instituten in Ausstattung und Personal investieren, um den modernen Ansprüche an die Leistungsfähigkeit gerecht zu werden.
Einleitung: Im Rahmen dieser retrospektiven Studie wurde die Auswirkung der frühen reduzierten Belastung auf Festigkeit der Implantatverankerung untersucht. Zusätzlich wurde geprüft, welchen Einfluss die Faktoren Implantatlänge, Knochenqualität, Augmentationsart und Implantatlokalisation auf die Festigkeit der Implantatverankerung nach der frühen reduzierten Belastung haben.
Material und Methoden: In die Studie wurden Patienten einbezogen, die sich einer Implantationstherapie in Poliklinik für Zahnärztliche Chirurgie und Implantologie in ZZMK (Carolinum) der J. W. Goethe-Universität in dem Zeitraum von Januar 2001 bis Februar 2010 unterzogen haben. Alle teilnehmenden Patienten wurden von einem Behandler betreut. Es wurden ausschließlich Ankylos Implantate (Dentsply, Mannheim, Deutschland) verwendet. Die Festigkeit der Implantatverankerung wurde mit Periotets gemessen. Die Implantationstherapie lief grundsätzlich nach den Rahmenbedingungen der frühen reduzierten Implantatbelastung ab. Nach einer mindestens sechswöchigen geschlossen Einheilung (statische Phase) wurden die Implantate freigelegt und mit Standardabutment versorgt, anschließend wurde der erste Periotestwert erhoben. Die statische Phase nach externem Sinuslift betrug im Schnitt 5 Monate. Für weitere vier bis acht Wochen (dynamische Phase) wurden die Implantate mit Provisorien in Infraokklusion versorgt, bei zahnlosen Patienten wurden die Implantate durch die provisorische Versorgung grundsätzlich verblockt. Patienten wurden unterwiesen, nur weiche Kost zu sich zu nehmen. Nach vier bis acht Wochen im Anschluss an die dynamische Phase wurde der zweite Periotestwert erhoben. Definitiver Zahnersatz mit korrekt eingestellter Okklusion wurde eingegliedert. Die Periotestwerte vor und nach der frühen reduzierten Implantatbelastung wurden zusammengetragen und statistisch ausgewertet.
Ergebnisse: Bei 247 Patienten wurden im Zeitraum von 01.01.2001 bis 01.03.2010 634 Ankylos Implantate inseriert. In der statischen Phase gingen sieben Implantate verloren, restliche 627 Implantate wurden früh reduziert belastet. Kein Implantat ging in der dynamischen Phase verloren. Innerhalb des ersten Jahres unter voller funktioneller Belastung ging kein Implantat aufgrund von knöcherner Überbelastung verloren. Lediglich ein Implantat musste aufgrund von Abutmentfraktur ein Jahr nach der Eingliederung des definitiven Zahnersatzes entfernt werden. Die Periotestwerte nahmen bei 556 Implantaten um mindestens eine Einheit der Periotestwertskala ab. Diese Veränderung der Periotestwerte war statistisch signifikant (p = 0,0001). Der Einfluss der Faktoren Implantatlänge, Knochenqualität, Implantatlokalisation, Augmentationsverfahren auf die Reduktion der Periotestwerte um eine Einheit war statistisch nicht signifikant. Die Reduktion der Periotestwerte um mindestens zwei Einheiten trat bei 409 von insgesamt 627 Implantaten auf und war statistisch signifikant in den Gruppen „weiche Knochenqualität“, „Implantatlänge 8mm, 9,5mm“, „externer Sinuslift“, „Oberkiefer“ (p = 0,001). In zwei Gruppen, nämlich „11mm und 14mm“ sowie „Standardverfahren, laterale Augmentation, interner Sinuslift“ trat eine Abnahme der Periotestwerte statistisch signifikant seltener auf (p = 0,045 bei „11 und 14 mm“ und p = 0,033 bei „Standardverfahren, laterale Augmentation und interner Sinuslift“).
Schlussfolgerung:Die frühe reduzierte Implantatbelastung hat keinen negativen Einfluss auf den Implantaterfolg. Beim Vorliegen von ungünstigen Voraussetzungen, wie unzureichendem Knochenangebot und Knochenqualität sowie Implantation im Oberkiefer, verbessert sich die Festigkeit der Implantatverankerung besonders deutlich. Das Konzept zeichnet sich durch das breite Indikationsspektrum und die hohe Überlebensrate trotz der verkürzten Therapiezeit aus.
Ziel: Ziel dieser Arbeit war es, das Vorhandensein von Normvarianten der arteriellen Leberversorgung in der Lebertransplantationsevaluation zu beurteilen. Anschließend wurde untersucht, ob das Vorliegen einer Normvariante bei Durchführung einer Lebertransplantation mit einer verlängerten Operations- oder Implantationszeit und einem erhöhten Risiko für postoperative Komplikationen und Versterben korreliert.
Material und Methoden: In dieser retrospektiven Studie wurden die Daten von 210 Patienten ausgewertet, bei denen eine Evaluation zur Lebertransplantation im Zeitraum Januar 2011 bis September 2016 durchgeführt wurde. Zunächst wurden die MR-Angiographien der Patienten auf das Vorhandensein von Normvarianten der arteriellen Leberversorgung untersucht. Anschließend wurde bei durchgeführter Transplantation der operative und postoperative Verlauf in einem Follow-Up von 6 Monaten anhand von Dokumentationen aus dem Krankenhaus-Management-System ORBIS ausgewertet. Bei dieser Evaluation wurde das transplantierte Patientenkollektiv (54 Patienten) in eine Gruppe mit Normtypanatomie (41 Patienten) und eine Gruppe mit Normvarianten (13 Patienten) geteilt und miteinander verglichen.
Ergebnisse: Im Gesamtkollektiv wurde bei 20,73% der Patienten eine Normvariante festgestellt und bei 79,86% eine Normtypanatomie. Im Kollektiv der transplantierten Patienten hatten 24,07% der Patienten eine Normvariante und 75,93% keine arterielle Gefäßanomalie.
Die häufigsten Normvarianten im Evaluations- und Transplantationskollektiv waren eine ersetzende oder akzessorische A. hepatica dextra von der A. mesenterica superior (Hiatt Typ III/Abdullah G2II), eine A. hepatica communis aus der A. mesenterica superior (Hiatt Typ V/Abdullah G1II), eine ersetzende oder akzessorische A. hepatica sinistra von der A. gastrica sinistra (Hiatt Typ II/Abdullah G2I) und eine akzessorische oder ersetzende A. hepatica sinistra vom Truncus coeliacus und/oder eine akzessorische oder ersetzende A. hepatica dextra vom Truncus coeliacus (Abdullah G2V).
Bei Betrachtung des transplantierten Kollektivs ergaben sich keine signifikanten Unterschiede zwischen der Gruppe mit Normtypanatomie und mit Normvarianten in der OP-Dauer (Normtypanatomie: 259,34 ± 57,96 min vs. Normvarianten: 285,15 ± 69,19 min; P=0,172).), der Warmen Ischämie Zeit (Normtypanatomie: 48,31 ± 9,91 min vs. Normvarianten: 51,17 ± 13,58 min; P=0,586), dem Auftreten von primären Transplantatversagen (Normtypanatomie: 7,32% vs. Normvarianten: 0,0%; P=0,316) und Perfusionsstörungen (Normtypanatomie 24,39% vs. Normvarianten: 23,07%; P=0,923), den Retransplantationszahlen (Normtypanatomie: 17,07% vs. Normvarianten 15,38%; P=0,887), sowie der 3-Monats-Mortalität (Normtypanatomie: 24,39% vs. Normvarianten 7,69%; P=0,193). und der 6-Monats-Mortalität (Normtypanatomie: 26,82% vs. Normvarianten 15,38%; P=0,40).
Fazit: Ein ubiquitäres Vorhandensein von Normvarianten konnte in den Versuchsgruppen bestätigt werden. Es gibt keinen Hinweis darauf, dass Patienten mit Anomalien der arteriellen Leberversorgung bei Lebertransplantationen ein höheres Risiko für eine verlängerte Operations- oder Implantationszeit und für postoperative Komplikationen und Versterben haben.
Die Durchführungen einer präoperativen Gefäßdarstellung arterieller Lebergefäße bleibt weiterhin empfohlen.
Die CMV-Infektion ist die häufigste opportunistische Infektion nach Nierentransplantation und wird mit einem erhöhten Risiko für Mortalität und Transplantatverlust assoziiert. Das Risiko an einer CMV-Infektion zu erkranken, wird vom Serostatus des Spenders und Empfängers beeinflusst. Dabei sind besonders Patienten mit Hochrisikokonstellation (D+/R–) betroffen. Bei seropositiven Transplantatempfängern (D+/R+, D–/R+) wird ebenfalls ein erhöhtes Risiko durch Reaktivierung des latent vorkommenden Virus oder Sekundärinfektion mit einem exogenen Virusstamm vermutet. Mithilfe von präventiven Maßnahmen wie der präemptiven und prophylaktischen Therapie kann die Rate an Infektionen gesenkt werden.
In dieser Studie wurden 441 Patienten, die in dem Zeitraum von 2006-2013 am Universitätsklinikum Frankfurt eine Nierentransplantation erhielten, retrospektiv untersucht. Ziel der Studie war es, den Einfluss des CMV-Serostatus, der Infektionsprophylaxe sowie der CMV-Infektion auf die Mortalität, das Transplantatüberleben und die Rejektion zu untersuchen. Da CMV-Infektionen meist in den ersten drei Monaten nach Transplantation oder nach Absetzen einer antiviralen Medikation auftreten, wählten wir eine zweijährige Verlaufsbeobachtung. Unsere Hypothese war, dass der Serostatus trotz regelhafter präventiver Maßnahmen mit einer Verschlechterung der Nierenfunktion assoziiert ist. Aufgrund neuer Empfehlungen wurde ab 2010 bei der Mehrheit der Transplantatempfänger eine Prophylaxe mit (Val)Ganciclovir durchgeführt. Folglich wurden die Zeiträume von 2006-2009 sowie von 2010-2013 miteinander verglichen.
In den Jahren von 2010-2013 konnten wir die höchste Infektionsinzidenz für die Hochrisikogruppe, gefolgt von der intermediären Risikogruppe (D+/R+, D–/R+), nachweisen. Beide Gruppen dokumentierten vermehrt CMV-Erkrankungen und Viruslasten im oberen Bereich (> 10.000 Kopien/ml). Diese zeigten jedoch keinen statistisch signifikanten Unterschied zu den anderen Serostatus-Konstellationen auf. Die Infektionsinzidenz in diesem Zeitraum war wiederum mit einem erhöhten Transplantatverlust assoziiert. Durch den prophylaktischen Einsatz von (Val)Ganciclovir konnte das Transplantatüberleben signifikant verlängert werden.
Im Vergleich der Zeiträume vor und nach 2010 stellte sich die D+/R+ Gruppe mit einem verbesserten Transplantatüberleben, die D–/R+ Gruppe mit verbessertem Patientenüberleben dar. Diese Gruppen konnten vermutlich von einer Ausweitung der Prophylaxe profitieren. Bezüglich der Rejektionen empfehlen wir für eine aussagekräftige Auswertung die Beachtung potenzieller Einflussgrößen wie die Immunsuppression und HLA-Merkmale. Rein deskriptiv lag das Auftreten von Rejektionen zeitlich vor den Infektionsereignissen. Die Niedrigrisikogruppe zeigte das geringste Abstoßungsrisiko.
Der Serostatus alleinig erscheint in unserer Studie keinen ausreichenden Hinweis auf das Outcome nach Transplantation zu geben. Allerdings waren CMV-Infektionen in den verschiedenen Zeiträumen maßgeblich mit einem verringerten Transplantat- oder Patientenüberleben assoziiert und sollten deshalb vermieden werden. Die Prophylaxe mit (Val)Ganciclovir stellte sich im gesamten untersuchten Zeitraum als effektive Therapie für ein verbessertes Transplantatüberleben dar.
Ein limitierender Faktor war die Vergleichbarkeit der Gruppen durch die unterschiedliche Patientenanzahl. Daten zur Infektion lagen uns erst ab dem Jahr 2009 vor. Bezüglich der Mortalität schätzen wir die Nachbeobachtungszeit von zwei Jahren zu gering ein, um signifikante Ergebnisse zu erzielen. Hervorzuheben ist, dass durch die Umstellung der Therapiemaßnahmen zwei interessante Patientenkollektive geschaffen wurden, an welchen die Auswirkungen der Prophylaxe dargestellt werden konnten. Mithilfe unserer Daten aus insgesamt acht Jahren mit zweijähriger Verlaufsbeobachtung, schätzen wir das am Universitätsklinikum Frankfurt durchgeführte Therapieregime nach 2010 als wirksame CMV-Prophylaxe ein. Um die Infektionsrate künftig weiterhin zu reduzieren, sind weitere Studien nötig, mit deren Hilfe Risikopatienten identifiziert, die Diagnostik erweitert und Therapien verbessert werden. Ansätze hierfür gibt es beispielsweise beim Einsatz des mTOR-Inhibitors Everolimus, der mit einer niedrigen Rate an CMV-Infektionen assoziiert wird. Auch die Anwendung neuerer Testmethoden, wie z. B. die Messung CMV-spezifischer T-Zellen, sollen dazu beitragen, Patienten mit erhöhtem Infektionsrisiko frühzeitig zu erkennen.
Retrospektive Analyse der RSV Bronchiolitis bei hospitalisierten Kindern im ersten Lebensjahr
(2021)
Einleitung: RSV ist der häufigste Erreger einer Bronchiolitis bei Säuglingen und Kleinkindern. Besonders oft betroffen sind Säuglinge in den ersten vier Lebensmonaten. RSV-Infektionen führen saisonal gehäuft weltweit zu zahlreichen Hospitalisierungen. Dennoch gibt es in Deutschland keine aktuellen Daten über die Krankheitslast.
Methoden: Es erfolgte eine retrospektive Analyse der elektronischen Krankenakten an der Klinik für Kinder- und Jugendmedizin des Universitätsklinikums Frankfurt am Main. Erfasst wurden alle von 2007 bis 2017 stationär aufgenommenen Patienten mit positivem RSV-Nachweis. Die Daten wurden aus dem elektronischen Patientenverwaltungsprogramm ORBIS in Exceltabellen übertragen.
Ergebnisse: Insgesamt wurden in den letzten zehn Jahren 800 Kinder mit RSV-Infektion stationär aufgenommen. Die Mehrzahl der Kinder befand sich in den ersten 12 Lebensmonaten, n = 564 (70,5 %) und der Hauptteil bestand aus Patienten in den ersten vier Lebensmonaten, n = 341 (60,4 %). In diesem Patientenkollektiv stand bei 289 Kindern eine elektronische Krankenakte zur Datenauswertung zur Verfügung. Von den 289 Patienten handelte es sich bei 35 (12,1 %) um FG und 25 Patienten mussten intensivmedizinisch betreut werden. Von den intensivmedizinisch betreuten Kindern waren 15 Patienten (60 %) FG. Klassischerweise unterschied sich das Gewicht der FG von dem der RG (Frühgeborene: Median 3,43 kg vs Reifgeborene: 5 kg). Unter den FG zeigte sich folgende Verteilung nach Schwangerschaftswochen bei insgesamt 289 analysierten Patienten: < 28. SSW (extremely preterm): n = 4 (1,38 %) der Patienten; < 32. SSW (very preterm): n = 8 (2,76 %) der Patienten und 32 + 1 bis 36 + 6 SSW (late preterms): n = 23 (7,95 %) der Patienten. Die geringe Anzahl an RSV-Infektionen bei FG < 28. SSW hängt vermutlich mit einer erfolgreichen Palivizumab Prophylaxe zusammen. Dafür spricht auch, dass sich der Anteil der späten FG (late 43 preterms), die keine Prophylaxe erhielten, in unserer Untersuchung ähnlich wie in frühere Studien darstellte.
Von den 254 RG mussten 10 (3,9 %) Kinder auf Intensivstation (Schwergrad 3 der WHO-Klassifikation), während 102 (40,2 %) Patienten eine Bronchiolitis (Grad 2 der WHO-Klassifikation) aufwiesen und 142 (55,9 %) Patienten hatten eine RSV-Infektion mit Sättigungswerten > 95 %.
Schlussfolgerung: Die Krankheitslast der RSV-Bronchiolitis in Deutschland ist sehr hoch, vor allem in den ersten vier Lebensmonaten. Typischerweise ging die RSV-Saison von Dezember bis März, sodass eine Immunprophylaxe bei Risikokindern in dieser Zeit verabreicht werden sollte.
Hintergrund und Ziel der Studie: Der größte Nachteil von Plastikstents ist ihre im Vergleich mit Metallstents hohe Verschlussrate. Das übliche Wechselintervall für biliäre Plastikstents beträgt drei Monate. Im Universitätsklinikum Frankfurt wurde das Intervall für den elektiven Austausch von Plastikstents auf sechs bis acht Wochen festgelegt.
In dieser Studie sollte untersucht werden, ob sich ein kürzeres Intervall von sechs bis acht Wochen auf die mediane vorzeitige Wechselrate (mPER) auswirkt. Hierfür wurden sowohl benigne als auch maligne Gallengangsstenosen untersucht.
Methoden: An die Anwendung verschiedener Ein- und Ausschlusskriterien auf alle seit 2007 im Universitätsklinikum Frankfurt durchgeführten ERCPs inklusive der Implantation mindestens eines Plastikstents, schloss sich die retrospektive Analyse der geeigneten Fälle und die Berechnung der jeweiligen mPER an. Hierfür wurden sowohl verschiedene Stentparameter wie die verwendete Stentgröße, -länge und -anzahl als auch patientenbezogene Parameter wie die indikationsgebende Diagnose erfasst.
Ergebnisse: Insgesamt wurden 3979 ERCPs analysiert, welche sich auf 1199 Patienten verteilen. Eine gutartige Stenose lag in 2717 (68,3 %) Fällen vor. In 1262 (31,7 %) Fällen wurde die Indikation einer Stentimplantation aufgrund einer bösartigen Stenose gestellt.
Die mediane Stentliegedauer (mSP) betrug 41 Tage (Spanne: 14–120) bei planmäßigen Stentwechseln, während sie bei vorzeitig gewechselten Stents bei 17 Tagen (Spanne: 1–75) lag.
Die mPER war bei malignen (28,1 %, Spanne: 35–50 %) im Vergleich zu benignen Strikturen (15,2 %, Spanne: 10–28 %) signifikant höher (p < 0,0001).
Das mSP war in Fällen von einem singulären Stent (34 Tage, Spanne: 1–87) im Vergleich mit Fällen multipler Stentimplantation (41 Tage, Spanne: 1–120) signifikant kürzer (p < 0,0001). Eine signifikant kürzere mSP wurde außerdem in Fällen von nur einem 7 Fr Stent (28 Tage, Spanne: 2–79) im Vergleich zu größeren Stents (34 Tage, Spanne: 1–87, p = 0,001) festgestellt.
Entsprechend war die mPER in Fällen mit einem singulären Stent (23 %) verglichen mit Fällen multiplen Stentings (16,2 %) signifikant höher (p < 0,0001). Beim Vergleich der Implantationen eines einzelnen 7-Fr-Stents (31,3 %) mit jenen größerer Stents (22,4 %) wurde ebenfalls eine signifikant erhöhte mPER der 7-Fr-Stents festgestellt (p = 0,007).
Konklusion: Diese Studie liefert erstmals umfassende Daten von Patienten, welche mit Plastikstents und kürzeren Wechselintervallen behandelt wurden.
Im direkten Vergleich der Stentparameter war bei der Implantation größerer oder multipler Stents die Einliegedauer verlängert. Dies lässt auf ein geringeres Komplikationsrisiko bei der Verwendung multipler oder größerer Stents schließen, welches am ehesten auf die dadurch optimierte Überbrückung der Stenosen und daraus resultierende Drainage zurückzuführen ist.
Weiter lassen die Ergebnisse vermuten, dass ein verkürztes Wechselintervall unter drei Monaten bei benignen biliären Stenosen nicht zu einer klinisch relevanten Reduktion der Komplikationsrate führt.
Zudem war die bei malignen Stenosen beobachtete Rate vorzeitiger Stentwechsel deutlich größer als die der benignen Stenosen. Sollte in diesem Setting ein Wechsel von einem Plastikstent auf einen SEMS geplant sein, ist ein verkürztes Wechselintervall von drei bis vier Wochen in Erwägung zu ziehen. Bei fehlender Möglichkeit der Implantation eines SEMS, ist die Verwendung multipler und größerer Stents das Mittel der Wahl.
Abschließend lässt sich Folgendes festhalten. Ein kürzeres Austauschintervall scheint bei benignen und malignen Stenosen nicht zu einer klinisch bedeutsamen Verringerung der mPER zu führen. Sofern es die Untersuchungsbedingungen zulassen, sollten große und multiple Stents für die Behandlung von Gallengangsstenosen bevorzugt werden.
Hintergrund: Die Endometriose und die Infertilität sind beide Erkrankungsbilder, die häufig miteinander assoziiert sind. So werden Literaturen zur Folge bei mindestens 30% der Endometriose Patientinnen eine Sterilität diagnostiziert, während wiederum bei etwa 25 - 50% der Patientinnen eine Endometriose als Hauptursache des unerfüllten Kinderwunsches erkannt wird. Die Laparoskopie dient bei Patientinnen mit Endometriose als wichtiger invasiver Eingriff, der entweder zu diagnostischen Zwecken im Sinne einer Ursachenabklärung dient und / oder zu therapeutischen Zwecken bei bereits bestätigter Endometriose assoziierter Infertilität durchgeführt wird.
Problemstellung und Zielsetzung: Anhand des laparoskopischen Befundes, z.B. durch das Erfassen des rASRM Scores bei Endometriose, kann Patientinnen im Voraus keine zuverlässige Aussage über die Chance auf eine postoperative Schwangerschaft geäußert werden. Das Ziel der hier vorliegenden Arbeit ist es, den Erfolg der laparoskopischen Behandlung bei Endometriose assoziierter Infertilität unter Einbezug von Patientencharakteristika, des intraoperativen Befundes, operativer Verfahren sowie der postoperativen Fertilitätsbehandlung zu beurteilen. Auf diese Weise soll den Frauen geholfen werden, im Voraus bzw. nach laparoskopischer Behandlung der Endometriose die Chance auf eine postoperative Schwangerschaft besser abzuschätzen. Es sollen somit Faktoren ermittelt werden, die die postoperative Fertilität protektiv oder ungünstig beeinflussen.
Material und Methoden: In die Studie aufgenommen wurden alle Patientinnen (n=102), die im Zeitraum von 2007 bis 2017 an der Universitätsklinik Frankfurt am Main einen laparoskopischen Eingriff mit der Diagnose einer Endometriose erhalten haben und einen unerfüllten Kinderwunsch von mehr gleich einem Jahr äußerten. Die Datenerhebung erfolgte über die elektronische Patientenakte sowie die telefonische Befragung der Studienteilnehmerinnen zur Patientencharakteristika und der postoperativen Fertilitätsbehandlung. Die statistische Auswertung wurde durch die Nutzung des Log Rank Tests / der Kaplan Meier Methode sowie uni- und multivariater Analysen mittels
Cox Regression durchgeführt.
Ergebnisse: Von den 102 Patientinnen konnten nach einer mittleren postoperativen Nachbeobachtungszeit von 70 Monaten 71 Patientinnen (69,6%) eine Schwangerschaft verwirklichen. Dabei wurden 21,6% der Frauen durch die alleinige Laparoskopie schwanger, während bei 48% der Frauen die Schwangerschaft durch die zusätzliche Nutzung reproduktionsmedizinischer Verfahren erreicht wurde. Die meisten Schwangerschaften ereigneten sich in den ersten 6 bis 12 Monaten nach der Operation. Die mittlere Dauer bis zur Schwangerschaft betrug 10 Monate. Der Log Rank Test zeigte keine statistisch signifikanten Unterschiede in den verschiedenen rASRM Stadien bei der Betrachtung der kumulativen Schwangerschaftsrate (rASRM 1: 83,3%; rASRM 2: 66,7%; rASRM 3: 93,8%; rASRM 4: 37,9%). Die uni- und multivariaten Analysen zeigten, dass die Dauer der Infertilität (Hazard Ratio: 0,85), das Vorkommen von intestinaler Endometriose (Hazard Ratio: 0,26) und ausgeprägten Adhäsionen (Hazard Ratio: 0,45), die Anzahl der Endometriose Lokalisationen (Hazard Ratio:0,82), die Anzahl der laparoskopischen Eingriffe für Endometriose (Hazard Ratio: 0,66) sowie der Voroperationen (Hazard Ratio: 0,75) und das Vorkommen von Endometriose Rezidiven (Hazard Ratio: 0,4) die Chance auf eine Konzeption signifikant ungünstig beeinträchtigen (p< 0,05). Ein protektiver Einfluss auf die Schwangerschaft zeigte sich nur für die Koagulation am Ovar (p= 0,02; Hazard Ratio: 7,74).
Schlussfolgerung: Die laparoskopische Behandlung scheint die Erfüllung des Kinderwunsches positiv zu beeinflussen, zumal fast ¾ der Patientinnen postoperativ schwanger wurden. Höhere Schwangerschaftsraten wurden durch die zusätzliche Nutzung der assistierten Reproduktionstherapie (ART) erreicht. Aus diesem Grund sollten Frauen für eine zusätzliche postoperative ART motiviert werden. Die Patientinnen sollten darauf aufmerksam gemacht werden, dass sie sich bei einem unerfüllten Kinderwunsch früher bei ihrem Arzt vorstellen sollten. Denn je länger die Zeit bis zur Operation einer Endometriose assoziierten Infertilität beträgt, desto schlechter ist die Chance auf eine postoperative Schwangerschaft (p= 0,02). Endometriosezysten am Ovar sowie deren Entfernung schränken die klinische Fertilität nicht signifikant ein. Die Anzahl der laparoskopischen Eingriffe sowie der abdominellen Voroperationen scheinen ein wichtigerer, ungünstiger Faktor in Hinblick auf die Schwangerschaft zu sein (p = 0,04). Außerdem könnte die Koagulation am Ovar eine wichtige Behandlungsmethode bei Endometriose assoziierter Infertilität sein. Diese Operationsmethode sollte durch weitere Studien und eine größere Stichprobe untersucht werden...
Dieser Arbeit lag die Fragestellung zugrunde, welchen Einfluss die jeweilige Transfusionsstrategie auf AML-Patienten unter intensiver Induktionschemotherapie hat.
Dafür wurde ein am Universitätsklinikum Frankfurt zwischen 2007 und 2018 behandeltes Kollektiv von 352 Patienten untersucht. So erfolgte hier bis ins Jahr 2015 hinein die Transfusion eines EK ab einem Hb-Wert <8g/dl und nach Änderung des Transfusionstriggers ab einem Hb <7g/dl. AML-Patienten aus dem Jahr 2015 – dem Jahr der Änderung der Transfusionsregel – wurden von weiterer Untersuchung ausgeschlossen, um zwei klar abgrenzbare Kohorten erhalten zu können.
Es zeigte sich, dass die weniger restriktive Transfusionskohorte unter Induktionschemotherapie einen durchschnittlich um 1g/dl höheren Hb-Wert aufwies und früher als die restriktive Kohorte transfundiert wurde. Die Anzahl an Fiebertagen, CRP-Werte, Aufenthalte auf Intensivstation sowie die Dauer des Krankenhausaufenthaltes betrachtend, zeigte sich hingegen kein signifikanter Unterscheid zwischen beiden Kohorten.
Basierend auf unserer Arbeit ergeben sich keine Hinweise dafür, dass die restriktive Transfusionspraxis einer weniger restriktiven für AML-Patienten unterlegen ist. Limitierend auf die Aussagekraft der Ergebnisse wirken sich dabei die retrospektive Natur der Arbeit sowie die zeitliche Verschiebung der Behandlungszeiträume beider Kohorten aus.
Ergebnisse der bislang ausstehenden randomisierten Studien, die den Einfluss unterschiedlicher Transfusionsregimes auf Patienten mit hämatologischen Krankheiten untersuchen, sind in Bälde zu erwarten. Die bereits vorliegenden Pilotstudien und Ergebnisse der TRIST-Studie decken sich mit der von uns beobachteten Nicht-Unterlegenheit der restriktiven Transfusionspraxis für ein hämatoonkologisches Patientenkollektiv, sodass es abzuwarten gilt, ob sich dies auch in weiteren größeren randomisierten und kontrollierten Studien beweisen kann.
Infektionen durch multiresistente Erreger führen jährlich zum Tod von ca. 33.000 Menschen in Europa.192 Insbesondere ist eine weltweite Zunahme von multiresistenten Gram-negativen Bakterien zu verzeichnen.193 Im Rahmen dieser Arbeit wurden zwei Projekte bezüglich der Resistenzmechanismen gegenüber Beta-Laktam-Antibiotika bei Gram-negativen Bakterien bearbeitet.
Das Gammaproteobakterium Psychrobacter sanguinis PS2578 wurde im März 2015 von einem Neonaten isoliert und verursachte eine early onset Neugeboreneninfektion. Aufgrund der insuffizienten Datenlage bezüglich Diagnostik, Antibiotikaresistenz und Pathogenität von Psychrobacter spp. wurden diese Aspekte weiter evaluiert. P. sanguinis zeigte geringes Wachstum auf Blutagar und keinerlei Wachstum in Standardnährmedien. Als optimales Nährmedium erwies sich das Spezialmedium BHI mit 10% Fetalem Kälberserum, wobei eine Abhängigkeit des Wachstums von FCS beobachtet wurde. Die Virulenz des klinischen Isolats sowie des Referenzstamms P. sanguinis DSM 23635 war in einem in vivo Infektionsmodell vergleichbar mit klinischen Escherichia coli und Klebsiella pneumoniae Isolaten sowie dem phylogenetisch nahe verwandten Acinetobacter calcoaceticus DSM 30006. Demnach ist die Spezies P. sanguinis moderat virulent und als humanpathogen anzusehen. Als molekulares Äquivalent der phänotypischen Penicillinresistenz wurde die Carbenicillinase CARB-8 (RTG-3) identifiziert, wodurch die These gestützt wird, dass der Genus Psychrobacter spp. ein mögliches Genreservoir von Carbenicillinasen darstellt.3 Im Rahmen dieser Arbeit konnte das Genom der Spezies erstmals komplett sequenziert werden. Es beinhaltete ein Chromosom von 2.946.289 bp, ein größeres Plasmid von 49.981 bp und ein kleineres Plasmid von 11.576 bp, welches blaCARB-8 kodierte.
Der Nachweis von Carbapenem-resistenten Gammaproteobacteria hat sich von 2010 zu 2017 in Deutschland mehr als verzehnfacht. Dabei ist OXA-48 die häufigste Carbapenemase in Europa und tritt vor allem bei den Spezies K. pneumoniae und E. coli auf.75 In dieser Arbeit wurden 62 klinische Stämme hinsichtlich ihres Plasmidtyps und ihres Verwandtschaftsgrads untersucht.
In der Klonalitätsanalyse gehörten 25 (n=44) K. pneumoniae derselben klonalen Linie an. Hiervon wurden 22 (n=25) Isolate in den Jahren 2010 und 2011 isoliert, was einen klonalen Ausbruch vermuten lässt.158 Bei der Spezies E. coli (n=8) waren lediglich zwei Stämme klonal verwandt. Insgesamt indizierten diese Ergebnisse eine hohe Diversität der klinischen Isolate. Die Plasmidtypisierung hingegen zeigte, dass 95% der Stämme (n=62) ein IncL Plasmid aufwiesen. Basierend auf den Selektionskriterien Klonalität und Plasmidtyp wurden 21 Stämme für weitere Analysen mittels Multilocus-Sequenz-Typisierung und Transkonjugation ausgewählt. Es konnten sehr hohe Konjugationsfrequenzen von 7,51 x 10-1 im Intraspezies- und von 8,15 x 10-1 im Intergenus- HGT für das blaOXA-48 IncL Plasmid in vitro ermittelt werden. Unter Verwendung von Galleria mellonella Larven als in vivo Transkonjugationsmodell wurde eine Transkonjugationsfrequenz von nahezu 100% detektiert. Daher lässt sich vermuten, dass der HGT von Antibiotikaresistenzgenen im Darm eines Patienten eine sehr viel höhere Effizienz aufweisen könnte, als bisher basierend auf in vitro generierten Daten angenommen. Dies impliziert, dass die globale Verbreitung von OXA-48 auf dem effizienten horizontalen Gentransfers eines einzigen IncL Plasmids beruht und nicht auf der Expansion einer bestimmten klonalen Linie.
Zielsetzung der vorliegenden Dissertation war die Validierung einer deutschsprachigen Version, der bereits für andere Sprachen validierten Repetitiven Verhaltensskala – Revidiert (RBS-R) für Kinder- und Jugendliche im Alter zwischen 4-17 Jahren. Die RBS-R ist ein aus 43 Items bestehendes, gut untersuchtes Screeninginstrument, welches restriktives, repetitives Verhalten (RRV) erfasst. RRV stellen einen heterogenen Symptomkomplex dar, welcher durch stereotype motorische, sprachliche und kognitive Verhaltensmuster gekennzeichnet ist.
RRV sind neben Abweichungen sozialer Interaktion und Kommunikation eines der Hauptkriterien für eine Autismus-Spektrum-Störung (ASS). RRV sind jedoch nicht nur Teil des Symptomspektrums einer ASS, sondern treten häufig auch bei anderen psychiatrischen Erkrankungen (PE), einer Intelligenzminderung (IM) oder bei altersentsprechend entwickelten Kindern (AE), beispielsweise in bestimmten Phasen des Heranwachsens auf. Bisher wurde die RBS-R fast ausschließlich an ASS untersucht. Es besteht die Notwendigkeit für ein valides und zuverlässiges Messinstrument für den deutschen Sprachraum, welches RRV hinsichtlich ihrer Heterogenität transdiagnostisch erfassen und den Schweregrad der Ausprägung ermitteln kann. Das Ziel dieser Arbeit war, dies durch eine möglichst große und heterogene Stichprobe (n= 948) mit Inklusion von Probanden mit einer ASS (n= 218), IM (n= 120), PE (n= 166) und AE (n = 444) zu gewährleisten. Zur Überprüfung der psychometrischen Eignung erfolgte nach der Adaptation der RBS-R für den deutschen Sprachraum eine Evaluation gemäß den Prinzipien der klassischen Testtheorie, insbesondere hinsichtlich Validität und Reliabilität. Darüber hinaus erfolgte unter Einbeziehung der vier Stichproben eine explorative Faktoranalyse (EFA) um eine geeignete Faktorlösung zu finden. Diese sollte sowohl den Anspruch Klinisch-Tätiger als auch Forschender erfüllen und eine Anwendung der RBS-R auch außerhalb von ASS ermöglichen. Zudem sollten RRV in den unterschiedlichen Kohorten, sowie in Bezug auf Alters- und Geschlechtseffekte bei ASS untersucht werden.
Die Bedeutung der Ergebnisse dieser Arbeit ist, ob der schon breit erforschten Eigenschaften der RBS-R, vor allem im Kontext mit den vorliegenden Studien zu betrachten. Einzigartig für diese deutschsprachige Validierung der RBS-R ist die Diversität und große Anzahl der teilnehmenden Probanden.
Die vorliegende Validierung der RBS-R erbrachte gute Ergebnisse für die Reliabilität und konvergente Validität der Skalen, vergleichbar mit den Ergebnissen vorheriger Studien. Die untersuchte Itemschwierigkeit war relativ gering, was durch die geringe Antwortvarianz in der großen Kohorte der AE erklärbar ist. Die Itemgesamtkorrelation zeigte gute Werte. Auch Items mit niedrigen Ergebnissen für die Itemzustimmung wurden nicht exkludiert. Dies geschah konkordant zum Vorgehen vorheriger Studien und hatte den Hintergrund, eine internationale Vergleichbarkeit des RBS-R beizubehalten. Die EFA bestätigte die gute Anwendbarkeit einer Vielzahl von Faktorlösungen. Wir legten eine 4-Faktorlösung für die deutschsprachige Version der RBS-R fest. Grundlage hierfür war das Bestreben die ursprünglichen Subskalen für eine internationale Vergleichbarkeit so getreu wie möglich beizubehalten. Die 4 Faktoren bildeten treffend RRV niedriger und hoher Ordnung ab. Gegen eine 5- oder 6-Faktorlösung sprach hierbei, dass dies zu Subskalen mit wenig Items und schwachen psychometrischen Eigenschaften führte (Lam et al, kritisiert durch Georgiades et al). Gegen eine 2- oder 3-Faktorlösung sprach die eingeschränkte klinische Interpretierbarkeit durch Subskalen mit vielen kumulierten Items. Hinsichtlich der Kohortenzugehörigkeit kann der RBS-R übereinstimmend mit Fulceri et al valide zwischen RRV in ASS und AE unterscheiden. Eine valide Unterscheidung zwischen ASS, PE und IM konnten wir nicht verifizieren. Betreffend der untersuchten Alterseffekts bestätigte sich, dass RRV bei ASS mit dem Alter abnehmen. Im Gegensatz zu einigen vorherigen Studien, welche keinen Geschlechtsunterschied bezüglich RRV bei ASS fanden, zeigten die männlichen Probanden der ASS Kohorte bei uns häufiger und ausgeprägter RRV.
Einleitung: Die Intention dieser Arbeit war es zu evaluieren, ob das Prüfungsformat eines OSPE (Objective Structured Practical Examination), durchgeführt im Fach Zahnerhaltungskunde (6. Fachsemester), Aussagen über den Studienerfolg im praktischen Teil des Staatsexamens (11. Fachsemester) im selben Fach zu treffen erlaubt. Ferner sollte unter Berücksichtigung allgemeiner Angaben der StudienteilnehmerInnen (Abitursnote, Physikumsnote, Studiendauer, Kohorte und Geschlecht) analysiert werden, ob bezüglich der Gesamt- sowie Teilnoten des OSPE und der Staatsexamensprüfung im Fach Zahnerhaltungskunde Zusammenhänge oder Unterschiede bestehen.
Methoden: Im Rahmen dieser longitudinalen, retrospektiven Studie wurden über einen Zeitraum von 11 Semestern prüfungsbezogene Daten von Studierenden (N = 223) des Fachbereichs Zahnmedizin in Frankfurt am Main erhoben und untersucht. Ferner wurden persönliche Angaben der Studienteilnehmer zu Alter, Geschlecht, Abitursnote, Physikumsnote und Studiendauer evaluiert sowie eine Zuordnung zu Kohorten vorgenommen. Für die statistische Auswertung der Daten wurden Spearman Rangkorrelationen, Partialkorrelationen, Korrelationskoeffizienten nach Pearson, und Multiple Regressionen (SPSS Statistics 21, IBM Corporation, New York) berechnet.
Ergebnisse: Die Ergebnisse zeigen, dass die Durchführung einer OSPE (Cronbachs α = .87) mit dem Erfolg im praktischen Teil des Staatsexamens im Fach Zahnerhaltungskunde korreliert (p = .01, r = .17). Als eine weitere signifikante Korrelation mit der Examensleistung erwies sich die Dauer des Studiums (p = .001, r = .23). Gemeinsam vermögen diese beiden Variablen einen signifikanten Beitrag zur Vorhersage der Examensnote (p = .001, R2 = .076) zu leisten. Das zeigte sich im größeren Umfang bei weiblichen Studierenden. Zudem wurde festgestellt, dass diese bessere Abitursnoten als männliche Studierende aufweisen (F = 6.09, p = .01, η² = .027) und dass es nur bei männlichen Studierenden eine signifikante Korrelation zwischen der Physikumsnote (Zahnärztliche Vorprüfung) und der OSPE-Benotung gab (r = .17, p = .01).
Schlussfolgerung: In der vorliegenden Untersuchung konnte der prädiktive Effekt eines durchgeführten klinischen OSPE auf die Prüfungsleistung im Staatsexamen nachgewiesen werden. Unter Berücksichtigung der Limitation der Studie empfiehlt sich aus unserer Sicht die Durchführung eines solchen Prüfungsformats im Rahmen des klinischen Studienabschnitts im 6. Semester im Fach Zahnmedizin.
Einleitung: Ziel dieser Studie war es zu evaluieren, ob das Prüfungsformat einer OSPE (Objective Structured Practical Examination) durchgeführt im Fach Zahnerhaltungskunde (6. Fachsemester) den Studienerfolg im praktischen Teil des Staatsexamens (11. Fachsemester) im selben Fach prädiziert. Ferner sollte unter Berücksichtigung allgemeiner Angaben der StudienteilnehmerInnen (Abitursnote, Physikumsnote, Studiendauer, Kohorte und Geschlecht) analysiert werden, ob bezüglich der Gesamt- sowie Teilnoten der OSPE und der adäquaten Staatsexamensprüfung Zusammenhänge oder Unterschiede bestehen.
Methoden: Im Rahmen dieser longitudinalen, retrospektiven Studie wurden für einen Zeitraum von 11 Semestern prüfungsbezogene Daten von Studierenden (N=223) des Fachbereichs Zahnmedizin in Frankfurt am Main erhoben und untersucht. Für die statistische Auswertung der Daten wurden Spearman Rangkorrelationen, Partialkorrelationen, Korrelationskoeffizienten nach Pearson, und Multiple Regressionen (SPSS Statistics 21, IBM Corporation, New York) berechnet.
Ergebnisse: Die Ergebnisse zeigen, dass OSPE (Cronbachs α=.87) mit dem Erfolg im praktischen Teil des Staatsexamens im Fach Zahnerhaltungskunde korreliert (p=.01, r=.17). Als eine weitere signifikante Korrelation mit der Examensleistung erwies sich die Dauer des Studiums (p=.001, r=.23). Gemeinsam leisten diese beiden Variablen einen signifikanten Beitrag zur Vorhersage der Examensnote (p=.001, R2=.076). Das zeigte sich im größeren Umfang bei weiblichen Studierenden. Zudem wurde festgestellt, dass diese bessere Abiturnoten als männliche Studierende aufweisen (F=6.09, p=.01, η2=.027) und dass es lediglich bei männlichen Studierenden eine signifikante Korrelation zwischen der Physikumsnote (Zahnärztliche Vorprüfung) und der OSPE-Benotung gab (r=.17, p=.01).
Schlussfolgerung: In der vorliegenden Untersuchung konnte der prädiktive Effekt einer klinischen OSPE auf die Prüfungsleistung im Staatsexamen gezeigt werden. Unter Berücksichtigung der Limitation der Studie empfiehlt sich aus unserer Sicht die Durchführung eines solchen Prüfungsformats im Rahmen des klinischen Studienabschnitts im 6. Semester im Fach Zahnmedizin.
Die Erythropoese wird durch das Hormon Erythropoetin (EPO), welches nach Geburt größtenteils in der Niere gebildet wird, aktiviert. Die Bildung von EPO erfolgt sauerstoffabhängig über eine vermehrte Aktivität des hypoxieinduzierbaren Faktors (HIF-1), welcher die Transkription der EPO Gene reguliert. HIF-1 besteht aus zwei Untereinheiten, der HIF-1α- und der HIF-1β-Untereinheit. Das Vorhandensein von HIF-1 wird über die veränderte Stabilität der HIF-1α-Untereinheit reguliert.
Mycophenolate mofetil (MMF) ist ein Immunsuppressivum, welches eine wichtige Rolle in der Transplantationsmedizin einnimmt. Es ist ein nicht kompetitiver, reversibler Hemmer der Inosinmonophosphatdehydrogenase (IMPDH), welche für die de novo Purinsynthese notwendig ist. Lymphozyten, welche im Gegensatz zu anderen Zellen keine Möglichkeit haben Purine über einen Wiederverwertungsmechanismus bereitzustellen, sind von der IMPDH abhängig. Dieser Mechanismus ermöglicht MMF eine selektive Wirkung auf Lymphozyten ohne andere Zellen zu schädigen. Trotzdem haben einige Multicenter Studien gezeigt, dass unter MMF Therapie nach Nierentransplantation in bis zu 15% der Fälle Anämien auftreten.
Wir haben in früheren Versuchen gezeigt, dass es nach einer Behandlung der HepG2 Zellen mit 5 μM MMF über 24 Stunden zu einer spezifische Minderung der EPO Sekretion kam. Es konnte so ein Zusammenhang zwischen der vermindert EPO Sekretion unter MMF und Anämien unter immunsuppressiver Therapie mit MMF angenommen werden.
Ziel dieser Arbeit war es, mögliche Ansätze für einen Regulationsmechanismus zu untersuchen, der für die reduzierte EPO Sekretion unter MMF verantwortlich ist. Es zeigte sich, mittels PCR und Western Blot Versuchen, eine zeitabhängige Verminderung der EPO mRNA parallel zu einer reduzierten EPO Sekretion, was auf eine Regulation auf RNA Ebene hindeutet. MMF depletiert den intrazellulären Guanosinpool durch Hemmung der IMPDH. Nach Zugabe von exogenem Guanosin zu den HepG2 Zellen war die MMF induzierte Reduktion der EPO mRNA vollständig reversibel. Dies zeigt, dass der beobachtete Effekt IMPDH abhängig und somit spezifisch für die MMF Wirkung ist. Des weiteren konnten wir zeigen, dass die Stabilität des EPOs und der EPO mRNA durch MMF nicht verändert war. Allerdings zeigte sich eine Verminderung der HIF-1α-Untereinheit unter MMF nach 14 und 16 Stunden. Da keine eindeutige Abnahme der HIF-1α mRNA beobachtet werden konnte, gehen wir hier von einer Regulation auf Proteinebene aus.
Im Hinblick auf diese Ergebnisse scheint eine Substitution von EPO eine gute Möglichkeit zur Behandlung von MMF induzierten Anämien. Die Ergebnisse weisen außerdem auf eine Beteiligung des HIF-1 in der Entstehung von MMF induzierten Anämien hin und sollten Grundlage für weitere Forschungsansätze zur Klärung der Mechanismen sein. Hier ist es von Interesse, ob andere Zielgene von HIF-1 (z.B. Transferrin und dessen Rezeptor, VEGF, induzierbare NO-Synthetase und Glukose Transporter 1) ebenfalls eine verminderte Expression unter MMF Stimulation erfahren. Dies würde unsere These unterstützen, dass MMF über HIF-1 die EPO Transkription beeinflusst. Außerdem könnten genauere Untersuchungen bezüglich der Stabilität der HIF-1-alpha Untereinheit unter MMF Einfluss und Forschungen bezüglich der möglichen Beteiligung von anderen Transkriptionsfaktoren (z.B. GATA-2 und NFкB) in Zukunft wegweisend sein, um den Regulationsmechanismus von MMF induzierten Anämien weiter zu erforschen. Hier könnten weitere Erkenntnisse in Zukunft neue Möglichkeiten für medikamentöse Angriffspunkte der MMF induzierten Anämien eröffnen.
Der ubiquitäre Redoxregulator Thioredoxin-1 (Trx-1) hat wichtige Funktionen für den zellulären Redoxstatus, Zellwachstum und Apoptose. Reaktive Sauerstoffspezies (ROS) sind beteiligt an der Pathogenese kardiovaskulärer Erkrankungen wie der Atherosklerose und werden zunehmend in ihrer Rolle als intra- und extrazelluläre Signalmoleküle charakterisiert. Ein Ungleichgewicht zwischen der Entstehung von ROS und ihrem Abbau durch antioxidative Systeme führt zu oxidativem Stress, zur Oxidation von Proteinen und letztlich zum Zelltod. Daher wurde in dieser Doktorarbeit untersucht, wie reaktive Sauerstoffspezies Trx-1 in Endothelzellen regulieren, welchen Einfluss dies für die Endothelzellapoptose hat und welche Bedeutung Antioxidantien, Stickstoffmonoxid (NO) und Schubspannung haben. In dieser Arbeit wurde gezeigt, dass H2O2 konzentrationsabhängig die Expression von Trx-1 beeinflusst. Geringe Konzentrationen H2O2 wie 10 und 50 µM induzierten Trx-1-mRNA nach 3 Stunden. Auf Proteinebene fand sich dann nach 6 Stunden eine transiente Hochregulation von Trx-1. Diese geringen Konzentrationen von H2O2 wirkten antiapoptotisch. Dieser antiapoptotische Effekt war von der Trx-1 Proteinexpression abhängig. Im Gegensatz dazu kam es bei hohen Konzentrationen H2O2 zu einer Degradierung von Trx-1. Durch das Antioxidans NAC und NO konnte der Abbau von Trx-1 unter höheren H2O2-Konzentrationen verhindert werden. Untersuchungen zum Mechanismus des Degradierungsprozesses ergaben, dass Trx-1 durch die Aspartatprotease Cathepsin D abgebaut wird. Der protektive Effekt von NO auf die Trx-1 Expression konnte auch im Gewebe eNOS-defizienter Mäuse gezeigt werden, da bereits eNOS-defiziente Mäuse in den Nieren weniger Trx-1 Protein aufwiesen im Vergleich zu Wildtyp-Kontrollmäusen. Bei der Entstehung endothelialer Läsionen und der Stabilität atheromatöser Plaques spielt die Endothelzellapoptose vermutlich eine wichtige Rolle. Trx-1 schützt Endothelzellen vor Apoptose, wird jedoch unter oxidativem Stress abgebaut. Faktoren, die Trx-1 unter oxidativem Stress stabilisieren wie NAC und NO, kommt daher eine besondere Bedeutung für die Endothelzellhomöostase zu.
Die Endothelzellmigration ist ein wesentlicher Prozess für die Angiogenese, Neovaskularisierung und Reendothelialisierung. Im ersten Teil der Arbeit wurde der Effekt von Schubspannung auf die Endothelzellmigration, die Beteiligung der Integrine und der Integrin-abhängigen Signaltransduktionswege mittels "scratched wound assay" untersucht. Die Schubspannungs-induzierte Endothelzellmigration war signifikant durch Integrin-blockierende RGD-Peptide oder neutralisierende Antikörper gegen die Integrin-Untereinheiten α5β1 reduziert, wohingegen Antikörper gegen αvβ3 oder α2β1 keinen Effekt hatten. Die Integrin-Expression von α5 und β1 war besonders in der migrierenden Zellfront der Wunde erhöht. Passend zu der wichtigen Rolle der Integrine in der Schubspannungs-induzierten Endothelzellmigration hemmte eine Blockade des Integrin-assoziierten Adapterproteins Shc durch eine dominant negative Mutante die Schubspannungs-induzierte Zellmigration. Zusätzlich konnte gezeigt werden, dass die pharmakologische Hemmung der MAP Kinase ERK1/2 oder der PI3K die Schubspannungs-induzierte Endothelzellmigration verhinderte. Im Gegensatz dazu hatte die Hemmung der NO-Synthase keinen Effekt.
Im zweiten Teil der Arbeit wurde die VEGF-vermittelte Endothelzellmigration untersucht. Im Gegensatz zu den Befunden, dass laminare Schubspannung NO-unabhängig die Endothelzellmigration stimuliert, konnte die VEGF-vermittelte Endothelzellmigration durch NOS-Inhibitoren blockiert werden. Des weiteren wurde die Beteiligung der Akt-mediierten eNOS Phosphorylierung in der VEGF- induzierten Endothelzellmigration ebenfalls mittels "scratched wound assay" untersucht, da bekannt ist, dass Akt die eNOS über eine Phosphorylierung an Serin 1177 aktivieren kann. Die Überexpression einer dominant-negativen Akt-Mutante verhindert die VEGF-induzierte Zellmigration. Im Gegensatz dazu stimulierte die Überexpression einer konstitutiv-aktiven Akt-Mutante die Endothelzellmigration, auch in Abwesenheit von VEGF. Die Überexpression eines phosphomimetischen eNOS-Konstruktes (S1177D) führte ebenfalls zu einer verstärkten Zellmigration, wohingegen die nicht mehr phosphorylierbare und somit nicht mehr aktivierbare eNOS-Mutante (S1177A) die VEGF-induzierte Endothelzellmigration komplett hemmte.
Zusammengefasst zeigen diese Daten, dass die VEGF- und Schubspannungsinduzierte Endothelzellmigration wesentlich zu der beschleunigten Reendothelialisierung von verletztem Endothel beiträgt, wie es beispielsweise nach einer Ballondilatation der Fall ist. Es konnte gezeigt werden, dass laminarer Blutfluss über die Integrine α5β1 NO-unabhängig die Migration mediiert und dass der Wachstumsfaktor VEGF über die Protein Kinase Akt NO-abhängig die Endothelzellmigration stimuliert.
Refraktives und visuelles Ergebnis nach Neuausrichtung von rotierten torischen Intraokularlinsen
(2023)
Hintergrund und Ziel der Studie
Das Ziel der Studie ist die Beurteilung des refraktiven und visuellen Ergebnisses von Patienten mit fehlausgerichteten torischen IOLs nach operativer Neuausrichtung, mit und ohne Rückberechnung der torischen Achse nach Implantation der IOL.
Methoden
Dies ist eine retrospektive Analyse von 39 Patienten, die sich von August 2013 bis Dezember 2019 an der Klinik für Augenheilkunde der Goethe-Universität Frankfurt am Main einer zweiten Operation zur Neuausrichtung einer fehlausgerichteten torischen IOL unterzogen haben. Die zweite Operaton zur Korrektur der Achsenlage wurde auf zwei Weisen durchgeführt: In der ersten Gruppe wurde auf die primär berechnete Achse rotiert und in der zweiten Gruppe wurde die Rotation auf eine neu berechnete Achse mit dem Rückrechner von astigmatisfix.com vorgenommen.
Ergebnisse
In dieser retrospektiven Studie wurden 39 Augen von 39 Patienten eingeschlossen. Die Ergebnisse nach der ersten Operation (die Linsenoperation) zeigte eine Besserung der (BCVA) von 0,28 ± 0,22 logMAR (20/40) auf 0,15 ± 0,14 logMAR (20/32). Nach der Linsenoperation zeigten die torischen IOLs durchschnittlich eine postoperative Fehlstellung von 25,69° ± 26,06°. Verglichen vor und nach der Rotation der torischen IOL blieb der BCVA unverändert bei 0,14 ± 0,14 logMAR (20/32), während sich der UDVA signifikant von 0,39 ± 0,29 logMAR (20/50) auf 0,27 ± 0,18 logMAR (20/40) verbesserte. Das refraktive Ergebnis zeigte eine Reduktion sowohl in der Restsphäre sowie in dem Zylinder. Die Ergebnisse der Gruppenanalyse demonstrierte für die erste Gruppe (Neuausrichtung auf die präoperativ berechnete Achse) eine postoperative UDVA 0,24 ± 0,16 logMAR mit einem Zylinder von 0,90 ± 0,90 D. In der zweiten Gruppe (Ausrichtung auf eine zurückberechnete Achse) betrug die UDVA 0,32 ± 0,20 logMAR mit einem Zylinder von 0,76 ± 0,72 D. Die IOLs mit hoher Zylinderstärke (≥ 2 D) zeigten bei der Rückberechnung eine stärkere Abnahme des Restzylinders als IOL mit niedriger Zylinderstärke (< 2 D) (27 % vs. 9 %). Der mittlere sphärische Äquivalent-Vorhersagefehler der Rückberechnung betrug 0,54 ± 0,55 D.
Schlussfolgerung
Die Neuausrichtung von fehlausgerichteten torischen IOLs verbessert die Sehschärfe und reduziert verbleibende Brechungsfehler. Insbesondere bei IOL mit hoher Zylinderstärke kann ein besseres refraktives Ergebnis erzielt werden, wenn vor der Neuausrichtung eine Rückberechnung durchgeführt wird.
Ziel unserer retrospektiven Studie war es, die refraktiven und kornealen Veränderungen nach DMEK bei pseudophaken Patienten, die sich auf Grund einer endothelialen Hornhauterkrankung behandeln ließen, zu untersuchen. Durch unsere einheitlich pseudophake Patientenkohorte wollten wir untersuchen, ob sich die refraktiven Veränderungen nach DMEK von den bereits bekannten Änderungen bei einer simultan durchgeführten Katarakt- und DMEK-Operation sogenannte „Triple“-DMEK unterscheiden. Primärer Endpunkt der Studie war die Veränderung der Refraktion unter besonderer Berücksichtigung des sphärischen Äquivalents (SEQ) des jeweiligen pseudophaken Auges nach DMEK. Sekundäre Endpunkte umfassten die Entwicklung des Visus, der CCT, der ECD und verschiedener kornealer Parameter, die mittels Scheimpflug- Tomographie ermittelt wurden.
In der vorliegenden Arbeit erfolgte hierzu die retrospektive Analyse von Daten, die in den Patientenakten dokumentiert und digital gespeichert waren (Pentacam® HR). Es wurden 109 Augen von 95 Patienten, die sich im Zeitraum von Februar 2015 bis Dezember 2018 mittels DMEK in unserem Zentrum behandeln ließen, in die Studie eingeschlossen. Davon stammten 66 Augen (61%) von weiblichen und 43 Augen (39%) von männlichen Patienten. Es handelte sich bei 61 Augen (56%) um ein linkes und bei 48 Augen (44 %) um ein rechtes Auge. Die Patienten waren 20 bis 91 Jahre alt. Das mittlere Alter zum Zeitpunkt der DMEK-Operation betrug 71,9 Jahre (SD ±10,23). Der Altersmittelwert der Männer lag bei 70,4 Jahren (SD 11,23, Spannweite: 20-84) und der der Frauen bei 72,9 Jahren (SD 9,49, Spannweite: 47-91). Der mittlere Nachbeobachtungszeitraum betrug 10,47 Monate (SD 6,78, Spannweite: 1-28 Monate).
Für das SEQ konnte bei Betrachtung aller ausgewerteten Daten eine leichte Tendenz in Richtung eines „hyperopen shifts“ mit einer mittleren Veränderung des SEQ von + 0,1 D gezeigt werden, die jedoch nicht statistisch signifikant war. Zwischenzeitlich kam es im Nachbeobachtungszeitraum zu einer klaren Tendenz hinsichtlich einer Myopisierung bei Betrachtung aller ausgewerteten Daten. Der „hyperope shift“ konnte erst am Ende, möglicherweise infolge einer deutlich reduzierten Patientenzahl, beobachtet werden. In der Subgruppe „vollständige Kontrollen“ für das SEQ zeigte sich eine Tendenz hinsichtlich einer leichten Abnahme des SEQ, die jedoch ebenfalls nicht statistisch signifikant war und aufgrund der geringen Gruppengröße (n=32) kritisch betrachtet werden sollte. In unserer Kohorte konnte somit keine eindeutige Aussage über eine postoperative Änderung des SEQ in Richtung eines „hyperopen shifts“ oder „myopen shifts“ gemacht werden. Die Refraktion verhielt sich in unserem Patientenkollektiv nach DMEK insgesamt weitestgehend stabil. Insofern sind refraktive "Überraschungen", wie sie weiterhin häufig nach "Triple"-DMEK zu beobachten sind, bei zuvor pseudophakisierten Patienten in einem weitaus geringeren Maße zu erwarten. Unter den mittels Scheimpflug-Technologie untersuchten kornealen Parametern wies lediglich der posteriore Astigmatismus signifikante Veränderungen im Sinne einer Reduktion der kornealen Krümmung auf. Indirekt heben unsere Ergebnisse damit die Bedeutung des posterioren Hornhautprofils auf die postoperative Refraktionsentwicklung und somit auch auf die IOL-Kalkulation bei "Triple"-DMEK-Prozeduren hervor. Außerdem scheint der postoperative Anstieg der Sehschärfe mit den gleichfalls signifikanten Änderungen der kornealen Densitometrie in der 2-6 mm Zone, des Hornhautvolumens und der zentralen Hornhautdicke umgekehrt korreliert zu sein.
Darüber hinaus lässt sich festhalten, dass auch unsere Untersuchung in einem gewissen Maße die Überlegenheit der DMEK gegenüber etablierten Techniken, wie beispielsweise der PK verdeutlicht. Sowohl anhand der refraktiven Stabilität als auch der Visusergebnisse konnten wir belegen, dass das DMEK-Verfahren nach der anfänglichen Lernkurve die wohl besten funktionellen Ergebnisse in der Behandlung von Patienten mit endothelialen Hornhauterkrankungen liefert. Besonders bei bereits pseudophaken Patienten weist die DMEK durch die zu erwartende hohe postoperative refraktive Stabilität viele Vorteile auf
und erscheint insbesondere hinsichtlich der Vorhersagbarkeit des postoperativen refraktiven Ergebnisses der „Triple“- DMEK überlegen.
Ziel: Obwohl es eine Fülle an Literatur zur Messung der Jodaufnahme mittels Dual-Energy-CT bei unterschiedlichen Pathologien gibt, wurden bisher noch keine zuverlässigen physiologischen Referenzwerte für diese Messtechnik bestimmt. Aus diesem Grund wurde die Jodaufnahme von morphologisch gesunden abdominellen Organen sowie Organen des Beckens in einer großen Studienkohorte untersucht.
Material und Methoden: Aufeinanderfolgende portalvenöse abdominelle DECT-Aufnahmen wurden überprüft und morphologisch gesunde Untersuchungsunterlagen wurden eingeschlossen (n=599; weiß/asiatisch=574, durchschnittliches Alter=58 ± 16,6Jahre; 263w/ 336m). ROI-Messungen wurden in den folgenden anatomischen Regionen durchgeführt (Anzahl der ROIs): Leber (9), Pankreas (3), Milz (3), Nebenniere (2), Nieren (6), Prostata (4), Uterus (2), Blasenwand (1) und Lymphknoten (3). Die Jodaufnahme wurde zwischen unterschiedlichen Organen verglichen und eine Subgruppenanalyse fand statt (jung vs alt/ männlich vs weiblich/niedriger BMI vs. hoher BMI).
Ergebnisse: Die gesamte Jodaufnahme war wie folgt (mg/ml): Leber=1,96 ± 0,59, Pankreas=2,07 ± 0,58, Milz=2,45 ± 0,66, Nebenniere=1,61 ± 0,43, Nieren=6,1 ± 1,32, Prostata=1,1 ± 0,53, Uterus=1,01 ± 0,68, Blasenwand=0,69 ± 0,26 und Lymphknoten=0,71 ± 0,28.
Bei Frauen kommt es zu einer höheren Jodaufnahme in der Leber (2,12 ± 0,54 vs 1,84 ± 0,43 mg/ml), Pankreas (2,27 ± 0,54 vs 1,91±0,46 mg/ml), Milz (2,7 ± 0,64 vs 2,3 ± 0,51 mg/ml), Nebenniere (1,72 ± 0,47 vs 1,52 ± 0,39 mg/ml) und Niere (6,6 ± 1,31 vs 5,65 ± 1,1 mg/ml) als bei Männern (P < 0,001). In älteren Patienten nimmt die Jodaufnahme in der Leber (1,80 ± 0,45 vs 2,04 ± 0,52 mg/ml), im Pankreas (1,87 ± 0,46 vs. 2,21 ± 0,52 mg/ml) und der Milz (2,21 ± 0,46 vs 2,64 ± 0,65 mg/ml) verglichen mit jüngeren Studienteilnehmern zu (P ≤ 0.040). Einzig im Uterus präsentierten sich niedrigere Werte in älteren Frauen (01,31 ± 0,72 vs 0,75 ± 0,46 mg/ml, P < 0,001). Bei Patienten mit einem hohen BMI kommt es in der Leber (2,32 ± 0,54 vs. 1,84 ± 0,45 mg/ml), im Pankreas (2,54 ± 0,67 vs. 1,95 ± 0,48 mg/ml), in der Milz (2,85 ± 0,66 vs. 2,32 ± 0,55 mg/ml) und in den Nebennieren (1,79 ± 0,38 vs. 1,56 ±0,44 mg/ml) zu einer signifikanten Abnahme der Jodaufnahme (P < 0,001).
Fazit: Die physiologische Jodaufnahme zeigt alters-, geschlechts- und BMI-abhängige Unterschiede für Leber, Pankreas und Milz. Pankreas und Nebennieren zeigen einen höheren Jod Durchfluss in Frauen. Während die Perfusion des Prostataparenchyms sich unverändert über die gesamte Altersspanne zeigt, nimmt die Jodaufnahme des Uterus bei Frauen im Laufe des Lebens ab. Lymphknoten als auch die Blase zeigen sich unbeeinflusst von demographischen Faktoren sowie von der Veränderung des BMI.
Klinische Relevanz: Wir definierten physiologische Referenzwerte für den statischen Durchfluss der abdominellen Organe wie angegeben mittels DECT-Jodaufnahme-Messungen in einer großen Studienkohorte und beschrieben die zusammenhängenden Unterschiede in Bezug auf Alter und Geschlecht. Dies soll die zuverlässige klinische Anwendung erleichtern und zu einer potentiellen Implementierung in zukünftige Richtlinien führen.
Für die Funktion und das Überleben von Zellen ist die Aufrechterhaltung und Regulation der Redoxhomöostase durch Produktion und Elimination von radikalen Sauerstoffspezies (ROS) von entscheidender Bedeutung. In Tumorzellen finden sich höhere basale ROS-Level als in gesunden Zellen, was jedoch trotz des vermehrten oxidativen Stresses nicht zur Zelltodinduktion führt, da kompensatorisch antioxidative Mechanismen ebenfalls gesteigert sind. Vor allem zwei antioxidative Systeme sind hauptsächlich bei der Elimination von ROS involviert: das Glutathion (GSH)-System und das Thioredoxin (TRX)-System. Hierbei spielt eine beständige Regeneration von GSH, als auch von TRX, eine wichtige Rolle, da diese bei der Reduktion von Sauerstoffradikalen verbraucht werden. Im hepatozellulären Karzinom (HCC) ist die gestörte Redoxhomöostase mit gesteigerten ROS Leveln ein wichtiger Faktor in der Karzinogenese. Das HCC wird oft erst im fortgeschrittenen, nicht mehr kurativen Stadium diagnostiziert und ist resistent gegenüber nahezu allen Formen von Chemotherapien. Dies verdeutlich die immense Bedeutung der Erforschung der teilweise unverstandenen Tumorgenese, aber auch die Notwendigkeit für die Entwicklung von neuen Therapien.
In der hier dargestellten experimentellen Arbeit gingen wir deshalb der Frage nach, ob die alleinige Inhibierung der antioxidativen Schutzmechanismen durch sog. ROS Modulatoren ausreicht, um eine Zelltodinduktion in humanen HCC-Zelllinien herbeizuführen und damit eine potenzielle neue Therapiestrategie aufzuzeigen.
Wir konnten zeigen, dass die simultane Inhibierung dieser zwei antioxidativen Hauptmechanismen im HCC durch die Kombination von Auranofin (TXR-Inhibitor) mit Buthionine-Sulfoximin (BSO, Glutathion-Inhibitor) und Erastin (indirekter Glutathion-Inhibitor) mit BSO zur ROS-abhängigen Zelltodinduktion im HCC in vitro führt. Interessant ist, dass die gesteigerten ROS-Level jedoch nicht den Zelltod im HCC induzierten, wenn nur eines der beiden antioxidativen Systeme inhibiert wurde. Offenbar ist die Tumorzelle in der Lage durch Hochregulierung anderer antioxidativer Systeme das induzierte ROS zu neutralisieren. Unsere Untersuchungen zum Wirkmechanismus der Zelltodinduktion durch die Kombinationsbehandlungen Auranofin + BSO bzw. Erastin + BSO identifizierten unerwarteterweise eine Caspasen-unabhängige, nicht-apoptotische Zelltodform, die sog Ferroptose, welche durch ROS-Produktion und Lipidperoxidierung charakterisiert ist.
Weitere Experimente konnten untermauern, dass mit der Induktion der Ferroptose durch die selektive ROS-Modulation die Apoptoseresistenz der HCC Zellen umgangen werden kann.
Mechanistisch kann diese erstmals 2012 beschriebene eisenabhängige Zelltodform, Ferroptose, durch zwei verschiedene Signalwege induziert werden: Erstens durch den kanonischen Pfad, bei welchem die Inhibierung der Glutathionperoxidase 4 (GPX4), einem Protein, welches die Zellmembran vor Lipidperoxidation schützt, eine zentrale Rolle spielt, und zweitens durch den nicht-kanonischen Pfad, welcher durch eine Anhäufung von zweiwertigem Eisen u. a. durch Aktivierung von Hämoxygenasen (HO), vermittelt durch den Transkriptionsfaktor Nuclear factor erythroid 2-related factor 2 (Nrf2), gekennzeichnet ist. Wir konnten feststellen, dass in unseren Kombinationsbehandlungen beide Pfade involviert sind und eine Herunterregulierung von GPX4 als auch eine Akkumulation von Nrf2 und Hämoxygenase-1 (HO-1) besteht.
Zusammenfassend konnte unsere Arbeit zeigen, dass mittels pharmakologischer Adressierung zweier antioxidativer Systeme die Therapieresistenz der HCC-Zellen umgangen werden kann, und dass die Induktion der Ferroptose zukünftig eine vielversprechende Therapieoption im HCC darstellen könnte.
Real time 3D - Ultraschallsimulation in der Akutmedizin : Entwicklung einer neuen Technologie
(2011)
In der vorliegenden Arbeit wurde die real time 3D - Ultraschallsimulation für den Einsatz in der Akutmedizin untersucht und weiterentwickelt.
Hintergrund: Die Ultraschallsimulation stellt eine neue Lernmethode für die Ultraschalluntersuchung dar. Es kann die korrekte Anlotung, die Interpretation und die Durchführung der Untersuchung patientenunabhängig trainiert werden. Damit eignet sich die Ultraschallsimulation besonders für den Bereich der Notfallsonographie, da hier aufgrund der akuten Erkrankungen nur eingeschränkte Lehrmöglichkeiten zur Verfügung stehen. Dieses Projekt setzt sich aus vier Teilen zusammen. Es sollten Module zum Training des fokussierten Assessments mit Sonographie bei Traumapatienten (FAST) und der Sonographie peripherer Nerven und Gefäße entwickelt werden. Der dritte Bereich bestand aus der technischen Integration des Ultraschallsimulators in eine herkömmliche ALS-Trainingspuppe, um dann im vierten Abschnitt die Auswirkungen der fokussierten echokardiographischen Evaluation während der Reanimation auf deren Qualität mit dem kombinierten Ultraschall-ALS-Simulator zu überprüfen.
Methodik: Zur Entwicklung der Module für die fokussierte abdominelle Sonographie bei Traumapatienten wurde das Freihandaufnahmesystem des Ultraschallsimulators mit einem high-end Ultraschallgerät gekoppelt. Die 3D-Ultraschallvolumen wurden durch Transversalanlotungen an gesunden Probanden und Patienten mit kontinuierlicher Peritonealdialyse aufgenommen und Multivolumina in einen Schaumstofftorso mithilfe eines elektromagnetischen Trackingsystems positioniert. Die Anwendbarkeit des Ultraschallsimulators wurde jeweils während eines studentischen Ultraschallseminares und eines Ultraschallkurses für Postgraduierte überprüft. Für die Module zum Training der Sonographie peripherer Nerven und Gefäße wurde mit dem oben genannten System Volumen von verschiedenen Körperregionen gesunder Patienten aufgenommen, innerhalb des Torsos positioniert und durch einen erfahrenen Ultraschallanwender mit Originalultraschallaufnahmen verglichen. Zur Integration des Ultraschallsimulators in einen ALS-Simulator musste die elektromagnetische Lokalisationseinheit des Ultraschallsimulators innerhalb des ALS Simulators so positioniert werden, dass Thoraxkompressionen weiterhin problemlos möglich sind und die Funktion des Ultraschallsimulators nicht gestört wird. Für die Überprüfung der Auswirkungen einer fokussierten Echokardiographie auf die Qualität der Reanimation führten in der Studie Rettungsassistenten, Rettungssanitäter und Studenten in 2er Teams jeweils zwei Reanimationsabläufe durch. Der FEEL Algorithmus wurde von einem in FEEL eingewiesenen Notarzt unangekündigt während der CPR angewendet. Die Variablen Eindringtiefe der Thoraxkompressionen, Frequenz der Thoraxkompressionen und das Volumen pro Maskenbeatmung wurden als Güte der CPR angesehen und ausgewertet.
Ergebnisse: Für das Training der FAST Untersuchung konnten mehrere Module mit pathologischen und normalen Sonographiebefunden des Abdomens erstellt und von Studenten sowie Ärzten am Simulator richtig interpretiert werden. Die Entwicklung von nahezu originalgetreuen Aufnahmen peripherer Nerven und Gefäße stellt eine vollkommen neue Methode zum Training der ultraschallgestützten Regionalanästhesie dar. Erstmals wurde ein Ultraschallsimulator in einen ALS-Simulator integriert und evaluiert. Beide Geräte können als Einheit komplikationslos genutzt werden. Bei der Untersuchung der Auswirkungen des FEEL Algorithmus auf die Qualität der Reanimation zeigten sich keine Unterschiede bei den analysierten Variablen.
Schlussfolgerung: Durch das Projekt konnte der Ultraschallsimulator als neue Lernmethode im Bereich der Notfallsonographie weiterentwickelt und etabliert werden. Der Simulator wird nun regelmäßig in Ultraschallkursen für Studenten und Ärzte eingesetzt, ohne das Training am realen Patienten zu ersetzen. Neben der Ausbildung kann der Ultraschallsimulator auch zur Überprüfung der Kenntnisse von Notfallsonographieanwendern im Sinne einer Qualitätssicherung und Re-Zertifizierung genutzt werden. Die Kombination aus ALS- und Ultraschallsimulator eignet sich, um eine ALS-konforme Echokardiographie zu trainieren.
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
In der vorliegenden Arbeit wurde der tageszeitkorrelierte Serotonin-Gehalt des SCO, sowie die Expression der 5-HT1A- und 5-HT2A-Rezeptoren und die Synthese- bzw. Sekretionsleistung des SCO bei Goldhamstern untersucht. Serotonin entfaltet im SCO des Goldhamsters eine inhibitorische Wirkung und hemmt die Sezernierungsrate von Glykoproteinen, die den RF formen. Dies bestätigt die Tatsache, dass mit steigender Rezeptorausprägung die Immunreaktivität für AFRU abnimmt. Ob Serotonin beim Hamster auch auf die Synthese von Glykoproteinen wirkt, muss nachfolgend geklärt werden, da in unserem Versuchsaufbau lediglich die Glykoprotein-Sezernierung untersucht wurde. Aussagen bezüglich der Auswirkung von Serotonin auf die Synthese und Sezernierung von löslichen Komponenten des SCO konnten bei dem von uns verwendeten Versuchsaufbau nicht gemacht werden. Deren mögliche Funktionen bleiben noch fraglich und eröffnen neue Optionen. Geklärt ist nun auch die quantitative Relation von 5-HT1A- und 5-HT2A-Rezeptoren im SCO. Es sind deutlich mehr 5-HT1A-Rezeptoren exprimiert. Dies lässt darauf schließen, dass Serotonin im SCO einen entscheidenden Einfluss auf die Glykoprotein-Synthese oder -Sekretion hat. Die tageszeitkorrelierte Rezeptorausprägung muss diskutiert werden. Sie ist tageszeitkorreliert relativ konstant, fraglich bleibt jedoch, wieso die Rezeptorausprägung im zweiten Abschnitt der Tiefschlafphase der Tiere abnimmt, obwohl hier der serotonerge Input weiterhin hoch sein müsste, um in der Aktivitätsphase wieder abzunehmen. Wahrscheinlich ist die Erklärung hierfür in den Expressionsmechanismen der G-Protein-gekoppelten Rezeptoren selbst zu finden. Welche Proteine die geschwindigkeitsbestimmenden Faktoren der 5-HT1A- und 5-HT2A-Rezeptorexpression sind, bleibt zu klären und auch ob sich der Verdacht bestätigt, dass die 5-HT1A-Rezeptorausprägung deutlich schneller voran geht als die der 5-HT2A-Rezeptoren und damit mehr 5-HT1A--Rezeptoren zur Prezeption von Serotonin zur Verfügung stehen. Mit dieser tageszeitkorrelierten Ausprägung schützt sich das SCO unter Umständen vor einer völligen Entleerung der Glykoprotein-Speicher unter erheblichem Serotonin-Einfluss während der Schlafphase. Dieser Aspekt und dessen mögliche Folgen müssen weiter untersucht werden. Weiterhin bleibt fraglich, wie die relative Konstanz in der Glykoprotein-Ausschüttung am Tag und in der Nacht etabliert werden kann, da die Serotonin-Ausschüttung der Raphe-Kerne am SCO nachweislich einer periodischen Rhythmik unterworfen ist. Neben dem Nucleus raphe dorsalis und dem Nucleus raphe medianus ist der Einfluss weiterer Aktivitätszentren auf das SCO denkbar. Auch eine Co-Stimulation der ependymalen und hypendymalen SCO-Zellen mit anderen Transmitterklassen ist möglich und teilweise auch bewiesen. Beide genannten Aspekte könnten Teil eines Feedback-Mechanismus sein, der das SCO vor vollständiger Entspeicherung schützt.
Die vorliegende Arbeit befasst sich mit periprothetischen Frakturen nach endoprotheti-schen Gelenkersatz von Schultergelenk, Hüftgelenk und Kniegelenk.
Über einen Zeitraum von 6 Jahren konnten 64 operative Frakturversorgungen bei 59 Patienten identifiziert werden.
Diese unterteilten sich in 8 Frakturen des Humerus, sowie 44 Frakturen des Femur nach Hüftgelenkersatz und 12 femorale Frakturen nach Kniegelenkersatz.
Die epidemiologischen Daten unseres Kollektivs mit PPF nach Hüft- und Kniegelenker-satz decken sich mit denen der aktuellen Fachliteratur. So wiesen unsere Patienten einen Altersdurchschnitt von 77,7 +/- 11,0 Jahre auf. Ein Großteil (77% der Patienten) war weiblich. Das follow up erfolgte durchschnittlich nach 27,2 +/- 16,8 Monaten.
Im Falle einer zementfreien primären Endoprothetik erfolgte die Fraktur früher, nach durchschnittlich 64,6 Monaten, gegenüber 103,4 Monate bei zementierter Prothese (p=0,11).
Der Zeitpunkt der PPF lag bei Hüftendoprothesen nach durchschnittlich 96 Monaten und bei Kniegelenkendoprothesen nach durchschnittlich 56 Monaten.
Hinsichtlich der Krankenhausliegezeit zeigten sich keine signifikanten Unterschiede. Ebenso war die Mobilisation gemessen am timed „up and go― Test in Abhängigkeit von der Prothesenlokalisation und Versorgungsart nicht signifikant unterschiedlich (Range 22-32 Sekunden).
Bei der gezielten Nachuntersuchung von periprothetischen Femurfrakturen nach Hüft-gelenkersatz mit festem Prothesensitz zeigte sich bei der plattenosteosynthetischen Versorgung eine signifikant höhere verfahrensbezogene Komplikationsrate (66,7% gegenüber 18,8 %), p= 0,01. Die beiden Patientenkollektive unterschieden sich hin-sichtlich epidemiologischer Daten (Alter, Geschlecht, Rate an primär zementierten Pro-thesen, follow up) nicht.
In der Gesamtzusammenschau bleiben PPF Verletzungen, die eine große Herausfor-derung an die behandelnden Chirurgen stellen.
Aufgrund des multimorbiden Patientenkollektivs im hohen Lebensalter mit einer hohen lost to follow up Rate sind retrospektive Analysen meist von geringer Fallzahl.
Die Effizienz der jeweiligen Versorgungsart in Abhängigkeit von Prothesentyp, Fraktur-klassifikation und Verwendung von Zement bei der Primärendoprothetik sollte in mulit-zentrischen, randomisiert kontrollierten Studien geprüft werden.
Astrozyten erfüllen verschiedene Funktionen im Zentralnervensystem, welche sich in die Bereiche Entwicklung, Durchblutung, Metabolismus, Strukturerhalt und Gliotransmission unterteilen lassen. Astrozyten sind an der synaptischen Informationsverarbeitung beteiligt und wirken an zahlreichen höheren Hirnfunktionen mit. Durch Regulation der synaptischen Transmission und Plastizität sind Astrozyten am Lernverhalten und Erinnerungsvermögen, sowie an der Verhaltensmodulation und Verarbeitung emotionaler Reize involviert. Im Zuge dieser zahlreichen Funktionen können Astrozyten auf externe Stimuli mit der gezielten Freisetzung von Gliotransmittern reagieren.
In kultivierten Astrozyten konnte Keil143 das TGN, bestehend aus Zisternen und Vesikeln, darstellen und mit anti-Rab6 identifizieren. Rab6 mit seinen Subtypen A und B gehört der Superfamilie der monomeren Ras-GTPasen an, die den intrazellulären Membran- und Vesikelverkehr regulieren. Rab6 spielt in HeLa-Zellen beim Transport vesikulärer Organellen vom TGN zur Zellmembran eine wichtige Rolle. Assoziationsanalysen von Rab6A mit vesikulären Glutamattransportern, Serinracemase und Markern der regulierten Exozytose in kultivierten Astrozyten143 deuten darauf hin, dass dieses Rab6A-Organellsystem die ultrastrukturelle Grundlage für die Freisetzung von Gliotransmittern wie D-Serin und Glutamat bildet.
Zur Untersuchung, ob Rab6A tatsächlich ein System der Glia-Neuron-Kommunikation im Gehirn darstellt, war es zunächst unabdingbar das Vorkommen von Rab6A in situ zu untersuchen. Die durchgeführten immunzytochemischen Färbungen an Hirnschnitten der Maus zeigen das gleichmäßige und ubiquitäre Vorkommen von Rab6A in allen untersuchten Hirnregionen. Durch verblindet durchgeführte Kolokalisationsanalysen von Rab6A mit den etablierten astrozytären Markern Glutaminsynthetase (GS), Glial fibrillary acidic protein (GFAP), Aldh1L1 und Sox9 konnte eine Lokalisation von Rab6A in allen Astrozyten gezeigt werden. Weitere Analysen schließen die Lokalisation von Rab6A in Mikroglia (Iba1), NG2-Zellen (NG2) und Oligodendrozyten (CNPase) aus. Die Astrozyten unterscheiden sich in Größe und subzellulärem Verteilungsmuster der Rab6A+ Strukturen, wonach eine Kategorisierung in vier Typen vorgenommen wurde. Anhand der Einteilung kann vermutet werden, dass größere Rab6A+ TGN-Zisternen bis weit in die Zellperipherie transportiert werden und kleine Rab6A+ Vesikel erst dort ausknospen und der Exozytose zugeführt werden. Zur Frage der möglichen astrozytären Subpopulationen konnte gezeigt werden, dass alle untersuchten Astrozyten GS+, Aldh1L1+, Sox9+ und Rab6A+ sind, jedoch nicht GFAP+.
Um die prinzipielle Übertragbarkeit der gewonnenen Befunde auf den Menschen zu überprüfen, wurde reseziertes Cortex-Gewebe von drei Patienten mit unterschiedlicher pathologischer Genese untersucht. Rab6A ist im massiven Ausmaß in humanen Astrozyten lokalisiert, was nahelegt, dass die zuvor an der Maus gewonnenen Ergebnisse auf den Menschen übertragbar sind.
Die mögliche funktionelle Bedeutung von astrozytärem Rab6A im Gehirn wurde an HFS-Schnitten untersucht. Die Untersuchung zeigt einen signifikanten Anstieg der Rab6A+ Intensität in der gesamten Molekularschicht der Fascia dentata der stimulierten im Vergleich zur unstimulierten Seite. Da die HFS ein etabliertes LTP-Modell darstellt, könnte es infolge dieser zu einer strukturellen, intrazellulären Veränderung der Astrozyten mit erhöhter Freisetzung von D-Serin oder Glutamat aus Rab6A+ Vesikeln kommen, was das Lernverhalten beeinflussen könnte. Die dargestellten Ergebnisse legen eine Auswirkung der HFS auf Rab6A nahe.
Zur Bestätigung der immunzytochemischen Untersuchungen wurde die mRNA-Expression von Rab6A in Astrozyten bereits publizierter Transkriptomanalysen untersucht. Die in den Publikationen verwendeten Genom-Chips treffen allenfalls indirekt eine Aussage zu Rab6A, da Rab6 allgemein und nur Rab6B spezifisch untersucht wurde, jedoch keine spezifische Rab6A Sonde erwähnt wird.
Zusammenfassend kann Rab6A als spezifisches und selektiv in Astrozyten vorkommendes Protein dargestellt und als neuer astrozytärer Marker etabliert werden, der auch Astrozyten des humanen Gewebes markiert. Durch die gewonnenen Befunde kann in nachfolgenden Studien die mögliche Bedeutung von Rab6A in neuropathologischen und neurophysiologischen Prozessen untersucht werden.
Zur quantitativen Plasmaproteinbestimmung sind die Immunnephelometrie und die Immunturbidimetrie häufig eingesetzte Bestimmungstechniken. Aufgrund der kürzeren Analysenzeit bei vergleichbarer oder besserer Präzision und Empfindlichkeit haben diese Techniken die radiale Immundiffusion in vielen Laboratorien ersetzt.
Die mechanisierte Plasmaproteinbestimmung erfolgt als Antigen-Antikörper-Reaktion entweder mit Proteinanalyzern oder mit klinisch-chemischen Analysensystemen, an denen normalerweise Enzyme und Substrate bestimmt werden.
Zwischen den verschiedenen Plasmaproteinen im Serum besteht ein bis zu 10.OOOfacher Konzentrationsunterschied und die biologische Varianz des einzelnen Plasmaproteins ist breit Damit die Plasmaproteine mit hoher analytischer Sensitivität über einen weiten Konzentrationsbereich, mit guter Präzision und der erforderlichen Richtigkeit mechanisiert bestimmt werden können, ist eine gute Adaption des Immunreagenzes auf das mechanisierte Analysensystem erforderlich. Diese Übersicht soll dazu Grundlagen vermitteln.
UV-mikrospektrophotometrische Messungen der Nucleinsäuren- und Eiweißkörper-Konzentration sowie der Kern- und Nukleolengröße nach Virusinfektion und unspezifischer Reizung der Chorion-Allantoismembran zeigen, daß es in beiden Fällen zu einer gleich starken Stimulierung des nucleinsäuren- und eiweißkörperbildenden Systems der Zelle kommt. Bei der Infektion mit Vaccinevirus auf das Ektoderm setzt die Reaktion der Membranzellen in der Eklipse ein, nach Infektion mit Newcastle-Disease-Virus fällt der Titeranstieg mit der Zellreaktion zeitlich zusammen.
Gegenstand dieser Arbeit ist die Untersuchung der Genexpression der axonalen wachstumsassoziierten Proteine NAP-22, GAP-43 und CAP-23 in den dopaminergen Neuronen der Substantia nigra pars compacta (SNc), einer im Mesencephalon gelegenen Zellregion, relativ zu der Genexpression eines Referenzgens. Als Versuchstiere dienten sechs Monate alte, männliche CB6F1 Wildtypmäuse sowie sechs Monate alte, männliche CAP-23 transgene (CAP-23tg) Tiere, die das wachstumsassoziierte Protein CAP-23 überexprimieren. Die dopaminergen Zellen der SNc wurden zunächst morphologisch charakterisiert und ihre Ausdehnung im Mittelhirn durch alternierende Immunfärbungen der Tyrosinhydroxylase, einem Schlüsselenzym der Dopaminsynthese, sowie Toluidinblaufärbungen ermittelt. Anschließend wurden die Neurone durch die Methode der Lasermikrodissektion (LMD) im Zellverband isoliert. Hierfür war die Optimierung der Toluidinblaufärbung erforderlich, mit dem Ziel, sowohl eine gute Färbung der Neurone als auch eine hohe RNA-Nativität zu erzielen. Die RNA wurde isoliert und nach Integritätsprüfung in cDNA umgeschrieben. Daraufhin erfolgte die Analyse der Genexpression der beschriebenen Gene durch die quantitative Echtzeit-Polymerase-Kettenreaktion (qRT-PCR). Dabei war feststellbar, dass das Transgen Cap-23 in den transgenen Tieren stärker exprimiert wird als das Endogen Nap-22. Es zeigte sich jedoch kein signifikanter Unterschied der Expression von endogenem Nap-22 und endogenem Gap-43 in den CAP-23tg Tieren im Vergleich zu der Expression in den Wildtypmäusen. Das bedeutet, dass die Überexpression von Cap-23 in den transgenen Tieren die Expression der mRNA der beiden endogenen wachstumsassoziierten Proteine NAP-22 und GAP-43 nicht beeinflusst. Auf Grundlage der in dieser Arbeit vorgelegten Ergebnisse soll in Folgeexperimenten untersucht werden, inwieweit die Überexpression von CAP-23 die Reorganisationsfähigkeit dopaminerger Neuronen der SNc nach einer Schädigung beeinflusst, wie sie zum Beispiel beim Menschen im Verlauf des Morbus Parkinson beobachtet wird.
Die HIV-Infizierung von Zellkulturen in vitro ist essentiell für das Verstehen der Kinetik der Virusreplikation, für die Aufdeckung von Resistenzentwicklungen gegenüber antiretroviraler Medikamente und für die Entwicklung neuer antiretroviraler Therapiestrategien. Voraussetzung hierfür ist ein geeignetes Monitoring der HIV-Infektion von in vitro infizierten Zellen. Die vorliegende Arbeit beschäftigt sich mit dem Monitoring der HIV-Replikation von in vitro infizierten Zellen mittels der Real-Time TaqMan™ PCR. Die Ergebnisse der Real-Time TaqMan™ PCR wurden mit denen eines p24 ELISAs verglichen. Der p24 ELISA diente als etablierte Standardmethode zum Monitoring einer in vitro HIV-Infektion. HUT 78-Zellen wurden in vitro mit vier unterschiedlichen HIV-1 IIIb Infektionsdosen (MOI 0,05; MOI 0,01; MOI 0,002; MOI 0,0005) infiziert. Mittels der Real-Time TaqMan™ PCR wurde die HIV-1 gag cDNA quantifiziert. Mittels ELISA erfolgte die Quantifizierung des HIV-p24. Zusätzlich dazu wurde die Anzahl an proviralen HIV-1 Transkripten in den Zellkulturen mittels der TaqMan™ PCR quantifiziert. Die Quantifizierung der HIV-1 gag cDNA und des p24 ergaben nahezu identische Kurvenverläufe der Infektionskinetiken. Beide Nachweismethoden zeigten vergleichbare Daten bezüglich des exponentiellen Ansteigens und der sich daran anschließenden Plateauphase der HIV-Replikation. Die Sensitivität beider Nachweismethoden war ebenfalls vergleichbar. Ein großer Unterschied lag in den Messbereichen beider Methoden. Bei der Real-Time TaqMan™ PCR konnte eine Linearität über 7 log-Stufen
demonstriert werden. Dies hatte den Vorteil, dass die Zellkulturproben vor der Quantifizierung der HIV-1 gag cDNA nicht verdünnt werden mussten. Im Gegensatz dazu war der Messbereich des HIV-p24 ELISAs sehr eng und erforderte in den meisten Fällen eine Verdünnung der Messproben. Bezüglich des Arbeitsaufwandes und der aufkommenden Kosten ergaben sich für die Quantifizierung der HIV-1 gag cDNA mittels der Real-Time TaqMan ™ und für die Quantifizierung des p24 mittels ELISA nahezu identische Werte. Der Verlauf der Werte an proviralen HIV-1 Transkripten ähnelt dem der HIV-1 gag cDNA Kinetik. Mittels der Quantifizierung der proviralen HIV-1 Kopien kann jedoch keine Aussage über die HIV-Replikation getroffen werden. Abschließend ist zu sagen, dass die Real-Time TaqMan™ PCR eine zuverlässige und sensitive Methode ist, eine HIV-1 Replikation von in vitro infizierten Zellen zu quantifizieren und den Replikationsverlauf zu beschreiben. Die Real-Time TaqMan™ PCR stellt eine alternative Methode zum HIV-p24 ELISA dar, um eine in vitro HIV-Replikation zu dokumentieren.
Die Neuregelung der Qualitätssicherung für Hormone und Pharmaka gemäß den Qualitätssicherungsrichtlinien der Bundesärztekammer (Rili-BÄK) unterliegt einer intensiven Diskussion, besonders in Hinsicht auf die Praktikabilität Für die ärztlichen Laboratorien und die Diagnostikahersteller ergeben sich erhebliche Veränderungen, die aufgezeigt werden.
Einleitung: Der Wissenschaftsrat empfahl 2008 den Universitäten innerhalb der nächsten 5 Jahre, d. h. bis spätestens 2014, ein Qualitätsmanagementsystem (QMS), das internationalen Maßstäben entspricht, zu etablieren. Ziel der vorliegenden Studie war es, zu evaluieren, ob es derzeit ein geeignetes QMS für das elektronische Lernen (eLearning) gibt, das speziell im Fach Humanmedizin deutschlandweit eingesetzt werden kann.
Methoden: Im Rahmen einer Umfrage wurden mittels eines anonymisierten Fragebogens (8 Domänen, 50 Items) alle Universitäten (n=35) des Fachbereichs Medizin in Deutschland evaluiert.
Ergebnisse: Die Ergebnisse (46,3% Rücklaufquote) zeigen einen nur zögerlichen Einsatz von QMS für eLearning und dass vor Ort ein großes Informationsdefizit herrscht.
Schlussfolgerung: Unter Berücksichtigung der Limitationen dieser Studie kann zusammenfassend festgehalten werden, dass erheblicher Bedarf zu bestehen scheint, das existierende Informationsdefizit für QMS eLearning zu mindern, sowie zukünftig genaue Richtlinien und Standards zur Umsetzung zu definieren.
Ziel der vorliegenden Arbeit war es, Qualität und Struktur der notärztlichen Versorgung von Patienten mit akutem Koronarsyndrom im Rahmen des „Netzwerks Herzinfarkt“ im Zeitraum vom 01.04. – 31.12. 2003 zu beurteilen. Hierzu wurden aus den von der Rettungsleitstelle zur Verfügung gestellten Daten 1588 Notarzteinsätze ausgewählt, die dem Notruf nach einem akuten Koronarsyndrom entsprechen könnten. Aus diesen 1588 Einsatzprotokollen wurden 506 herausgefiltert, bei denen die notärztliche Diagnose tatsächlich einem akuten Koronarsyndrom entsprach; diese wurden der definitiven Bearbeitung zugeführt. Zunächst wurde die gesamte Dokumentation im DIVI-Einsatzprotokoll auf Vollständigkeit und Schlüssigkeit überprüft, in einem zweiten Schritt dann die Qualität der medikamentösen und Basisversorgung der Patienten beurteilt. In diesen Bereichen waren die wesentlichen Ergebnisse die ausgesprochen ungenaue Dokumentation der Einsatzzeiten sowie der Anamnese und die in 37,5% aller Fälle fehlende Anfertigung eines 12-Ableitungs-EKG´s. Bei der Therapie fiel ein allgemein sehr zurückhaltender Einsatz von Betablockern, ASS und Heparin auf. Ein Vergleich der präklinisch als akuter Myokardinfarkt diagnostizierten Patientengruppe mit der restlichen Stichprobe erbrachte keine signifikanten Unterschiede bezüglich der untersuchten Parameter. Die Sensitivität der notärztlichen Infarktdiagnostik betrug 98,4%, die Spezifität 78,6%. Die benötigten prästationären und innerklinischen Zeiten (Arztkontakt bis zur Einlieferung, contact-balloon, door-balloon-Zeit) blieben im Rahmen bzw. deutlich unter den von den Leitlinien der Deutschen Gesellschaft für Kardiologie geforderten Zeiten. Im Follow-Up-Beobachtungszeitraum (6 Monate) wiesen 97,6% der Rettungsdienstpatienten ein komplikationsloses Überleben auf. Signifikante Ergebnisse konnten bei der Evaluation der Bedeutung der notärztlichen Fachrichtung für die Behandlungsqualität gezeigt werden. So schnitten die Einsatzprotokolle von Chirurgen und Allgemeinmedizinern in der durchgeführten allgemeinen Beurteilung deutlich schlechter ab als die der Internisten und Anästhesisten. Dieser Trend bestätigte sich auch in der konkreten Analyse der medikamentösen Therapie, jeweils gemessen an den gültigen Leitlinien. Insgesamt war die Qualität der notärztlichen Behandlung der Patienten mit akutem Koronarsyndrom als in den genannten Punkten verbesserungsbedürftig, in den übrigen Parametern jedoch als gut anzusehen. Insbesondere im Hinblick auf die notärztliche Fachrichtung scheint eine strukturiertere Weiterbildung zum Erwerb der Zusatzbezeichnung „Notfallmedizin“ empfehlenswert. Die niedrige Komplikationsrate der präklinisch als akuter Myokardinfarkt diagnostizierten und direkt ins Interventionszentrum verbrachten Patienten im Follow-Up-Zeitraum und der deutliche Unterschied zu den Transferpatienten illustriert den Behandlungsbenefit, der aus einer verzögerungsfreien interventionellen Therapie des akuten Myokardinfarkts resultiert.
Die positive Wirkung einer psychoonkologischen Versorgung onkologischer Patienten, die über ein kritisches Maß hinaus belastet sind, ist heute unbestritten. Krebspatienten sind sowohl mit der Krebsdiagnose selbst, als auch mit der medizinischen Behandlung hohen Belastungen ausgesetzt. Unbehandelte psychosoziale Belastungen wirken sich negativ auf die Lebensqualität der Patienten aus, erschweren die Krankheitsverarbeitung, beeinflussen medizinische Behandlungsergebnisse und können chronifizieren. Die psychoonkologische Behandlung in der akutstationären Versorgung weist jedoch große Lücken auf. Ausgangspunkt dieser Untersuchung war deshalb der Blick auf zwei Desiderate der Psychoonkologie: Zum einen besteht der Wunsch nach empirischen Untersuchungen zum psychoonkologischen Behandlungsbedarf an Akutkrankenhäusern. Zum anderen mangelt es am Einsatz valider, praktikabler und krebsspezifischer Messinstrumente. Diese Studie untersuchte deshalb den psychoonkologischen Behandlungsbedarf von Krebspatienten in der akutstationären Versorgung mit krebsspezifischen diagnostischen Instrumenten. Insgesamt 478 stationäre Krebspatienten wurden über einen Zeitraum von sechs Monaten an den Frankfurter Diakoniekliniken (Markus-Krankenhaus) in Frankfurt am Main mit Hilfe der neuen Kurzform der „Psychoonkologischen Basisdokumentation“ (Po-Bado-KF) sowie der spezifischen Version für Brustkrebspatienten (PO-Bado-BK) im Rahmen eines psychoonkologischen Anamnesegespräches (Fremdeinschätzung) untersucht. Da Fremd- und Selbsteinschätzung der Patienten häufig nicht übereinstimmen, wurde darüber hinaus die revidierte Fassung des Fragebogens zur Belastung von Krebspatienten (FBK-R23) als Selbsteinschätzungsinstrument eingesetzt. Des Weiteren wurde der mögliche Einfluss soziodemografischer und krankheitsbezogener Variablen auf den psychoonkologischen Behandlungsbedarf überprüft. Die Ergebnisse der Studie belegen, dass ein Routine-Screening der psychosozialen Belastung von Krebspatienten – vorausgesetzt, es wird ein entsprechendes Behandlungsangebot bereit gehalten – sehr sinnvoll ist: Über die Hälfte (56%) der 478 Patienten in der vorliegenden Studie waren psychoonkologisch behandlungsbedürftig. In der Selbsteinschätzung durch den FBK-R23 lagen 31% der Patienten über einem kritischen Wert. Fremd- und Selbsteinschätzung stimmten in dieser Untersuchung signifikant überein. Für die psychoonkologische Behandlungsindikation waren ein fortgeschrittener Krankheitsstatus, der körperliche Funktionsstatus, psychische Probleme vor Ausbruch der Erkrankung, die Einnahme von psychotropen Substanzen (Antidepressiva, Anxiolytica, Schlafmittel) sowie krankheitsunabhängige Belastungen wie Probleme im familiären, sozialen oder finanziellen Bereich entscheidend. Die PO-Bado-KF hat sich in dieser Untersuchung als ein praktikables und ökonomisches Fremdeinschätzungsinstrument bewährt und kann, nach entsprechender Schulung, unproblematisch in die medizinische Anamnese integriert werden. Ist dies aus verschiedenen Gründen nicht möglich, können die in dieser Studie extrahierten Parameter, die signifikant mit dem Behandlungsbedarf in Zusammenhang standen, als Indikatoren für Interventionen herangezogen werden. Auch die Selbsteinschätzung der Patienten lieferte in dieser Studie valide Daten des psychoonkologischen Betreuungsbedarfs. Das Erfassen der Daten, die Auswertung des Fragebogens und die Weiterleitung an die Psychoonkologie scheint jedoch weniger praktikabel und ökonomisch als die Erfassung mit der PO-Bado-KF. Wie in jeder Untersuchung bleiben auch nach Abschluss dieser Studie Fragen offen. Insbesondere wird genauer zu erforschen sein, inwieweit die psychosoziale Belastung der Patienten mit dem Zeitpunkt des psychoonkologischen Interviews zusammenhängt. Die Hypothese liegt nahe, dass Patienten, die auf eine Operation oder auf die Mitteilung der histologischen Befunde warten, höher belastet sind als Patienten, die diese spezifische Belastung zum Zeitpunkt des Interviews nicht haben. In der vorliegenden Untersuchung wurde dieser Frage nicht nachgegangen. Ferner bleibt zu untersuchen, ob sich Patienten, die sich selbst als nicht belastet wahrnehmen, vom Interviewer hingegen als belastet eingestuft werden, voneinander unterscheiden und ob Patienten mit einer psychoonkologischen Behandlungsindikation eine entsprechende Behandlung möchten bzw. diese in Anspruch nehmen. Auch die Überprüfung von Interventionseffekten durch die psychoonkologische Anamnese mittels PO-Bado-KF könnte wertvolle Hinweise liefern, ob dieses neu vorgelegte Screeninginstrument über ein größeres Potenzial verfügt, als bisher angenommen.
Hintergrund: Die Einnahme vieler Antidepressiva und Antipsychotika in der frühen Schwangerschaft kann nach aktuellem Forschungsstand als sicher bezüglich des Risikos für Fehlbildungen erachtet werden. Daten hinsichtlich der Sicherheit einer Psychopharmakotherapie während der Stillperiode sind hingegen rar. Die meisten Betroffenen würden einerseits gerne ihre Kinder stillen, andererseits wollen sie aber auch sicher sein, dass sie ihrem Nachwuchs dadurch nicht schaden.
Ziele: Unser Ziel war es herauszufinden ob eine Korrelation zwischen der Tagesdosis der Psychopharmaka und der Medikamentenkonzentration im Serum sowie in der Muttermilch (MM) besteht. Weiterhin untersuchten wir, ob es eine allgemeingültige Regeln gibt, wie sich Muttermilchmedikamentenkonzentrationen im Tagesverlauf verhalten. Außerdem wollten wir herausfinden ob die Medikamentenexposition in der Schwangerschaft und/oder Stillperiode einen Einfluss auf die Entwicklung des Kindes in den ersten zwölf Lebensmonaten hat.
Methoden: Wir untersuchten therapeutische Medikamentenspiegel parallel in Serum und MM zu verschiedenen Zeitpunkten um herauszufinden wann die höchsten/niedrigsten Konzentrationen ermittelt werden konnten. Neben dem Talspiegel, nach 12 h oder 24 h (T1), sammelten wir Proben 4 h (T5) und 8 h (T6) nach der Medikamenteneinnahme sowie direkt nach der Medikamenteneinnahme (T2), 1 h nach T2 (T3) und direkt beim nächsten Stillen (T4). Die Messungen wurden im TDM Labor im Zentrum für psychsiche Gesundheit, Universitätsklinikum Würzburg mittels isokratischer reversed-phase high performance liquid Chromatographie durchgeführt. Wir rekrutierten 25 Patientinnen, die in der ambulanten Spezialsprechstunde für psychiatrische Erkrankungen in Schwangerschaft und Stillzeit behandelt wurden. 68% der Patientinnen nahmen in der Schwangerschaft schon ein Psychopharmakon ein. Die Patientinnen litten an unipolaren Depressionen (n = 15), bipolaren Störungen (n = 2), schizoaffektiven Störungen (n = 2) sowie Angst- (n = 4) und Zwangsstörungen (n = 2). Das Spektrum von Antidepressiva und Antipsychotika erstreckte sich von Amitriptylin/Nortriptylin, Clomipramin/N-Desmethyl-Clomipramin, Mirtazapin, Escitalopram, Citalopram, Sertralin, Venlafaxin/ O-Desmethyl-Venlafaxin bis hin zu Lamotrigin und Quetiapin. Weiterhin erfassten wir ob es postnatale Auffälligkeiten sowie im Verlauf Entwicklungsauffälligkeiten bei den exponierten Kinder gab (Daten aus den routinemäßigen U-Untersuchungen der ersten 12 Lebensmonate). Um mehr Daten zur Kindesentwicklung zu sammeln, interviewten wir in einem retrospektiven Unterprojekt 14 weitere Patientinnen, die in der Vergangenheit von der Thematik betroffen waren.
Ergebnisse: Die parallel bestimmten Talspiegel in Serum und MM korrelierten nicht signifikant bei der Analyse aller Medikamente zusammen oder bei der Analyse der einzelnen Medikamente (Spearman Rho Korrelation, p > 0,05). Die Talspiegel im Serum korrelierten weder signifikant mit den Muttermilchkonzentration nach 4 h (T5), noch mit denen nach 8 h (T6) (Spearman Rho Korrelation, p = 0,46; p = 0,08). Die Tagesdosis korrelierte signifikant mit dem Talspiegel im Serum (p = 0,001), jedoch nicht mit den gleichzeitig bestimmten Muttermilchkonzentrationen (p = 0,88). Die Konzentrationen von Venlafaxin in der MM fielen relativ hoch aus. Es zeigte sich eine große interindividuelle Variation der Konzentrationen der unterschiedlichen Medikamente zu verschiedenen Zeitpunkten. Clomipramin und Quetiapin konnten gar nicht oder nur in sehr niedrigen Konzentrationen in der MM gemessen werden (n = 2, n = 4) wie auch Sertralin (ohne Ausreißer-Werte) und Escitalopram. Auch konnte Quetiapin nicht im Serum eines gestillten Kindes nachgewiesen werden, bei dem wir Blutproben gewinnen konnten (n = 1). Keines der gestillten Kinder zeigte negative Auswirkungen aufgrund der Medikation. Die höchste „concentration-bydose-ratio“ (C/D) in der MM wurden für Venlafaxin (n = 4, C/D MM = 5,11) und Lamotrigin (n = 1, C/D MM = 10,0) errechnet, während Clomipramin (n = 2, C/D MM = 0,0), Quetiapin (n = 4, C/D MM = 0,02) und Sertralin (n = 3, C/D MM = 0,03) die niedrigsten Quotienten zeigten. Wir kalkulierten die höchste „milk-to-plasma-ratio“ (M/P) für Mirtazapin (n = 3, M/P = 3,92) und Venlafaxin (n = 2, M/P = 2,4) sowie die niedrigsten für Clomipramin (n = 2, M/P = 0), Quetiapin (n = 3, M/P = 0,03) und Sertralin (n = 3, M/P = 0,08), was für ein niedriges Eindringungsvermögen vom Serum in die MM spricht.
Einleitung: Seit der Entschlüsselung des menschlichen Genoms ist die Bedeutung genetischer Forschung im Bereich der Prävention und Therapie chronischer Erkrankungen, zum Beispiel des Typ-1-Diabetes, stark gestiegen. Großangelegte multizentrische Forschungsarbeiten wie die Projekte des International Type 1 Diabetes Genetics Consortium (T1DGC) arbeiten an der Aufdeckung noch unbekannter genetischer Prädispositionen zur Entwicklung eines Typ-1-Diabetes und benötigen dafür die Hilfe von Multiplex-Familien. Die Rekrutierung dieser Familien ist schwierig, da in nur 15% der Familien mit Typ-1-Diabetes mehrere Familienangehörige betroffen sind. Um die Motivation zur Studienteilnahme eines solch kleinen Kollektivs besser zu verstehen, wurde die Einstellung zu genetischer Forschung aus Teilnehmersicht untersucht. Hintergrund sind hier die bei vielen Forschern vorhandenen ethischen Bedenken hinsichtlich der psychischen Belastung bei genetischen Untersuchungen für die Teilnehmer. So besteht ein – bisher kaum untersuchter - allgemeiner Konsens, dass die Konsequenzen von Genanalysen für die Betroffenen nicht einzuschätzen sind. Somit stehen die Forscher vor dem Dilemma, welches in der Notwendigkeit, Genanalysen durchzuführen, und in der Furcht vor einer zu hohen psychischen Belastung der teilnehmenden Personen besteht. Dies hat derzeit zur Folge, dass den Teilnehmern die Ergebnismitteilung in der Regel verwehrt wird. Ergebnisse: Von 180 angeschriebenen füllten 140 Teilnehmer des T1DGC-Projektes einen Fragebogen hinsichtlich ihrer Meinung zu genetischer Forschung und ethischen Fragestellungen anonym aus: 88,6% der Teilnehmer äußerten, dass sie generell genetische Forschung als sehr wichtig ansehen. Es gaben 60% der Befragten an, dass sie nicht genügend Informationen über das Projekt erhalten hatten. 95% der Teilnehmer wünschten ein vollständiges Verständnis der wichtigsten Studiendetails. Als bevorzugte Informationswege gaben die Teilnehmer schriftliche Informationen per Post oder durch eine Internet-Website an. 83,2% der Befragten möchten über das Vorliegen einer erblichen Hochrisiko-Konstellation für das Auftreten von Komplikationen informiert werden. Im Falle des Nachweises eines Hochrisikogens für Typ-1-Diabetes möchten 87,6% darüber aufgeklärt werden. 96,4% der Teilnehmer sind generell an einer Ergebnismitteilung interessiert. Es zeigten sich keine signifikanten Unterschiede im Antwortverhalten in Abhängigkeit von Betroffenenstatus, Alter, Geschlecht, Staatsangehörigkeit, Familienstand sowie Schul- bzw. Berufsabschluss. Schlussfolgerung: Für die Teilnehmer genetischer Studien zum Thema Typ-1-Diabetes ist der Wunsch nach ausführlicher, individuell angepasster Information grundlegend. Es muss festgestellt werden, dass die Teilnehmer am International Type 1 Diabetes Genetics Consortium (T1DGC) sich gut betreut, doch letztlich nicht ausreichend informiert gefühlt haben. Daraus lässt sich ableiten, dass neben dem individuellen Beratungsgespräch auch schriftliche Informationen mit klar konzipierter Wissensaufbereitung in Form von Websites, Broschüren und Rundbriefen (in elektronischer und/oder gedruckter Form) empfehlenswert sind. Ein wichtiges Ergebnis ist ferner, dass die Befragten die Sorge vieler Wissenschaftler und Ärzte nicht teilen, die Mitteilung eines erhöhten Erkrankungs- bzw. Komplikationsrisikos für einen Typ-1-Diabetes würde als zusätzliche Belastung empfunden werden. Im speziellen Fall der Multiplexfamilien bestanden allerdings bereits Erfahrungen mit der untersuchten Erkrankung des Typ-1-Diabetes. Eine Mitteilung, ob nun negativ oder positiv, wird im Vergleich zum Wissen um das Risiko keineswegs als psychische Bürde, sondern vielmehr als Chance zur Einflussnahme wahrgenommen. Es muss allerdings festgehalten werden, dass die Ergebnisse dieser Untersuchung sich mit dem Typ-1-Diabetes auf eine chronische, jedoch gut therapierbare und nicht generell lebenszeitverkürzende Erkrankung beziehen. Für die Übertragbarkeit der Ergebnisse auf andere genetisch-bedingte Erkrankungen ist weitere Forschung notwendig. Der bisher bestehende Konsens, im Rahmen genetischer Studien keine Ergebnismitteilung bezüglich chronischer, unheilbarer Krankheiten durchzuführen, muss überdacht werden. Den Studienteilnehmern ist das Recht auf Selbstbestimmung ein grundlegender Wert. Diese Selbstbestimmung beinhaltet, dass das Pro und Contra einer Ergebnismitteilung selbst eingeschätzt werden kann. Möchte ein Studienteilnehmer das Ergebnis der Auswertung seiner biologischen Proben erhalten, sollte ihm dies nicht verwehrt werden.
Mittels fragebogenbasierendem Screeningverfahren konnte bei 15,3% der
Patienten der pädiatrisch gastroenterologischen Ambulanz der
Darmstädter Kinderkliniken Prinzessin Margaret ein psychologischer bzw.
psychosomatischer Beratungs- und Behandlungsbedarf ermittelt werden.
Bei 40,3% der Patienten wurden grenzwertige Befunde erhoben, 44,4 %
blieben unauffällig. Im Vergleich zwischen einer Klinik der I. bis II.
Versorgungsstufe und einer universitären Klinik der III. Versorgungsstufe
besteht ein gering signifikanter Unterschied, dabei ist der Anteil
unauffälliger Ergebnisse mit 45,8% etwa gleich, es sind mit 21,4% jedoch
wesentlich mehr Auffälligkeiten und mit 32,8% weniger grenzwertige
Befunde zu verzeichnen. Begründet ist diese Differenz in der
Stichprobenstruktur und den unterschiedlichen Versorgungsspektrum der
Kliniken. Im Vergleich analoger Gruppen von Patienten mit chronisch
entzündlichen Darmerkrankungen und chronischen Bauchschmerzen
konnten keine signifikanten Unterschiede gemessen werden. Der größten
Beratungsbedarf konnte in der Gruppe Patienten mit Adipositas ermittelt
werden, in der universitären Klinik liegt der bei den Patienten mit
Lebererkrankungen. Einen überdurchschnittlich hohen Beratungsbedarf
findet man bei chronisch entzündlichen Darmerkrankungen und bei
Kindern- und Jugendlichen mit chronischen Bauchschmerzen mit und
ohne Nachweis einer Kohlenhydratmalabsorption.
Signifikante Unterschiede bestehen zwischen der Fremdbeurteilung durch
die Eltern und Selbstbeurteilung der Jugendlichen im Strengths and
Difficulties Questionnaire. In der Selbstbeurteilung finden sich 88,8%
unauffällige, 6,4% grenzwertige und 4,8% auffällige Ergebnisse. In der
Elternbeurteilung werden jeweils 14,4% der Kinder- und Jugendlichen als
auffällig und grenzwertig bezüglich des Verhaltens bewertet, 71,2%
erreichen Normwerte. Hinweise auf emotionale und
Verhaltensauffälligkeiten fanden sich insbesondere bei adipösen
Patienten, bei Kohlenhydratmalabsorptionen und bei chronisch entzündlichen Darmerkrankungen. In der Gruppe der adipösen
Jugendlichen fällt eine ausgesprochen negative Selbstbewertung auf.
Die gesundheitsbezogenen Lebensqualität wird durch die Eltern in 50,7%
der Fälle als eingeschränkt beurteilt. Nur 13,9% der Jugendlichen geben
eine Einschränkung der subjektiven Gesundheit an. Führend in Fremdund
Selbstbeurteilung sind Erkrankungen die eine spezifische Diät
notwendig machen wie Nahrungsmittelunverträglichkeiten und Zöliakie. In
der Selbstbeurteilung geben Patientin mit Adipositas und chronisch
entzündlichen Darmerkrankungen Einschränkung der subjektiven
Gesundheit an, auffällig ist die wesentlich positivere Einschätzung der
Situation durch die Eltern in diesen Gruppen. Schmerzen,
Krankheitsaktivität, jugendliches Alter und später Zeitpunkt der
Diagnosestellung beeinflussen die subjektive Gesundheit negativ.
In der Behandlung chronisch kranker Kinder- und Jugendlicher in der
pädiatrischen Gastroenterologie ist nicht nur bei Patienten mit
funktionellen Bauchschmerzen oder Ausscheidungsstörung die
interdisziplinäre Zusammenarbeit zwischen Kindergastroenterologie und
Psychosomatik bzw. Kinder- und Jugendpsychologie notwendig. Ein
besonderes Augenmerk muss, neben den Patienten die stark durch
Krankheitsaktivität oder Therapiemaßnahmen eingeschränkt sind, den
übergewichtigen Jugendlichen gelten. Bei Fragebögen müssen Elternund
Selbstbeurteilung beachtet werden, weitere Fremdbeurteilung durch
die behandelnden Ärzte oder Lehrer können hilfreich sein. Neben dem
kurativen Ziel bzw. der Remission muss die Therapie das Ziel haben, eine
möglichst uneingeschränktes alltägliches Leben zu gewährleisen, das
dem gleichaltriger, gesunder Kinder und Jugendlichen entspricht.
Chronische pulmonale Infektionen mit Pseudomonas aeruginosa (PA) betreffen die überwiegende Mehrheit der erwachsenen Mukoviszidose (Cystische Fibrose, CF) Patienten.
Diese Infektionen führen gesichert zu einer Abnahme der Lungenfunktion und Zunahme der Mortalität der Patienten. Atemwegsviren stehen im Verdacht pulmonale Exazerbationen bei CF-Patienten auszulösen. Unklar ist jedoch, welchen Einfluss eine chronische Infektion mit PA auf die Anfälligkeit und Reaktion des Atemwegsepithels auf virale Infektionen hat.
Das Ziel dieser Arbeit war es daher, die Interaktionen zwischen PA, humanen Rhinoviren (HRV) und primären bronchialen Epithelzellen zu untersuchen. Hierfür wurden Zellen von jeweils drei Patienten mit CF und mit Lungenemphysem aus Lungenexplantaten isoliert und in einem speziellen Air- Liquid-Interface Zellkulturmodell zu einem mukoziliär differenzierten mehrreihigen Flimmerepithel kultiviert. Chronische Infektionen wurden mit klinischen PA Isolaten für einen Gesamtzeitraum von 16 Tagen durchgeführt. Anschließend wurden die Zellen mit HRV infiziert. Schlüsselzytokine, Interferone und virale RNA wurden mittels Cytometric bead array, ELISA und qPCR bestimmt.
Rein virale Infektionen mit HRV führten zu einem Anstieg von IL-1, -6, -8, TNF- α, IP10 und IFN-b, IFN-l1 sowie ISGs und in ähnlichem Ausmaß konnte dies auch bei Coinfektionen mit einem mukoiden PA-Isolat beobachtet werden. Coinfektionen mit einem nicht-mukoiden PA-Isolat führten im Vergleich zu rein viralen Infektionen zu vermehrter Expression von IL-1β und IL-6 mRNA. Während es unter diesen Bedingungen auch auf Proteinebene zu einem Anstieg der IL-1β Konzentration kam, lag die Konzentration von freiem IL-6 Protein in nahezu allen Proben unter der Nachweisgrenze. Zellkulturmedium aus Coinfektionen mit diesem nicht-mukoiden PA-Isolat führten zudem zu einem Abbau oder einer Bindung von extern zugegebenen rekombinantem IL-6.
IL-8, IP-10, TNF-α Protein und mRNA von IFN-β, -λ1 und ISGs, sowie die Viruslast waren vergleichbar zwischen rein viralen Infektionen und bakteriell- viralen Coinfektionen. Ebenfalls keine Unterschiede wurden zwischen Zellen von Emphysem und CF-Spendern gefunden. Insgesamt zeigen diese Daten, dass eine PA-Infektion die Antwort differenzierter bronchialer Epithelzellen auf eine Virusinfektion verändern kann. Die hierdurch veränderte Immunantwort und möglicherweise eingeschränkten epithelialen Reparaturmechanismen könnten eine Ursache aggravierter viraler Infektionen in P. aeruginosa-infizierten Atemwegen darstellen.
Ein besseres Verständnis der Interaktionen zwischen chronisch-bakteriellen und viralen Atemwegsinfektionen könnte potenziell die Behandlung virus-induzierter Exazerbationen bei PA-infizierten CF-Patienten verbessern.
Zur ergonomischen Beurteilung von Arbeitsplätzen werden „ergonomic risk assessment tools“ (ERAT) verwendet. Mithilfe dieser kann die körperliche Belastung evaluiert und hinsichtlich eines biomechanischen Überlastungsrisikos bewertet werden. Dazu gehören neben Eigenangaben auch observatorische Methoden, deren Ergebnisse in Punktwerten („Scores“) zusammengefasst werden, wie z. B. die RULAMethode („rapid upper limb assessment“). Durch die technische Weiterentwicklung direkter Messmethoden können inertiale Motion-Capture-Systeme im 21. Jahrhundert präzise und kontinuierliche objektive Daten liefern. In einem neuen Ansatz wurde die observatorische Scoring-Methode RULA modifiziert und auf die digital erhobenen Daten angewendet, was differenzierte ergonomische Betrachtungen ganzer Arbeitsabläufe ermöglicht.
Trotz der Spenderauswahl, des serologischen Screenings der Blutspenden auf antiHIV-1, anti-HIV-2, anti-HCV und HBsAg, Inaktivierungs- und Eliminierungsverfahren bleibt ein Restrisiko für hämatogen übertragbare Viren bei Plasmapools und den daraus hergestellten Präparaten. Als zusätzliche Screeningmethode zur Erhöhung der Virussicherheit wird inzwischen die Testung der Einzelspende bzw. von Minipools auf HCV-RNA verlangt. In der vorliegenden Arbeit wurden 142 HBsAg, anti-HCV- und anti-HIV-11-2 negative Plasmapools, sowie Plasmapräparate (Immunglobulinpräparat und F IX Präparat), welche zum Teil aus für HGV-RNA PCR-positiven Ausgangspools hergestellt worden waren, mittels PCR auf das Vorhandensein von HGV-Nukleinsäure untersucht. Alle untersuchten Pools bzw. Plasmapräparate stammten von Spenden zwischen 1994 und 1996, also vor der Einführung der genannten Pflichttestung auf HCV-RNA. HGV-RNA wurde in 117 der 142 Plasmapools (82,4%) amplifiziert. Allerdings war HGV-RNA nur in einer (6,3%) von 16 IgG-Chargen aus für HGV-Nukleinsäure positiven Kryoüberständen nachweisbar. In 2 (6,5%) von 31 unselektierten Immunglobulinpräparaten war eine HGV- Kontamination vorhanden. Eine routinemäßige Anwendung der PCR ist zur Zeit aus technischen sowie Kosten-Nutzen-Überlegungen für HGV nicht zu empfehlen, solange die klinische Relevanz nicht gesichert ist. Die Ergebnisse unterstreichen die Wichtigkeit der im Herstellungsprozeß integrierten Viruseliminierungsverfahren, denn bei der vorliegenden Studie konnte nur in einem geringen Anteil der Endproduktchargen HGV-Nukleinsäure nachgewiesen werden.
Die traditionellen Behandlungspositionen der Zahnärzt/innen hinter, neben und vor dem/r Patienten/in führen zur asymmetrischen Neigung und Verdrehung des Kopfes sowie des Rumpfes. Die Folge können Fehlhaltungen sein, die Muskel-Skelett-Erkrankungen verursachen. Das erklärt wahrscheinlich die hohe Prävalenz bei Zahnärzt/innen und zahnmedizinischen Fachangestellten. Daher werden in dieser Übersicht mögliche Ursachen und Konsequenzen der Prävalenz sowie ergonomische Maßnahmen für diese Berufsgruppen aufgeführt. Zudem erläutern wir ergonomische Empfehlungen für die Sitzhaltung von Zahnärzt/innen auf Basis der vorhandenen Literatur.
Hintergrund und Problemstellung: Viele vermeidbare Medikamentennebenwirkungen bei älteren Patienten haben ihre Ursache in der fehlenden Dosisanpassung bei Niereninsuffizienz. Beim Patienten über 65 Jahre liegen die Serumkreatininwerte oft noch im Normbereich, während die tatsächliche Nierenfunktion schon deutlich beeinträchtigt ist. Eine genauere Beurteilung der Nierenfunktion ist mit der Berechnung der glomerulären Filtrationsrate möglich. In der vorliegenden Untersuchung wurde in einer Praxisgemeinschaft einer hausärztlich tätigen Internistin und einer Fachärztin für Allgemeinmedizin in Frankfurt retrospektiv exploriert, ob niereninsuffiziente Patienten als solche erkannt wurden und wenn ja, ob sie dosisadaptiert mit Medikamenten versorgt wurden, bzw. in wie vielen Fällen sie fehlerhafte Verordnungen erhielten. Methode: Eine Zielpopulation von 100 Patienten mit moderater bis schwerer Nierenfunktionseinschränkung (Kreatinin-Clearance von 60 oder kleiner) wurde retrospektiv hinsichtlich der verordneten Medikation untersucht. Dabei wurde die glomeruläre Filtrationsrate mittels Cockroft-Gault-Formel errechnet. Bei nierensensiblen Substanzen wurde die in der Fachinformation empfohlene Dosis mit der tatsächlich verordneten Dosis verglichen. Ergebnisse: Die Ergebnisse dieser Untersuchung zeigen, dass von 232 auswertbaren Patienten 102 eine errechnete Kreatinin-Clearance von weniger als 60 ml/min aufwiesen, obwohl bei 48 Patienten der Serumkreatininlevel noch im Normbereich lag. Eine Dosisanpassung wegen Niereninsuffizienz war bei 261 von 613 Verordnungen erforderlich und wurde in 189 Fällen wie empfohlen umgesetzt. In 72 Fällen (27%) wurde sie nicht korrekt durchgeführt. Hier wurde die Dosis 32 mal nicht angepasst, 40 mal wurde trotz Kontraindikation verordnet. Das Risiko einer Fehlverordnung war signifikant assoziiert mit dem Vorliegen einer schweren Nierenfunktionsstörung (GFR < 30ml/min). Mit dem Vorliegen eines normalen Serumkreatininwerts waren keine signifikanten Assoziationen nachweisbar. Die Substanzen Metformin, Ramipril, Enalapril, HCT, Spironolacton und Simvastatin machten den Hauptanteil der Fehlverordnungen im Bereich der Dauermedikation aus. Bei den temporären Verordnungen waren im Schwerpunkt Antibiotika (Cefuroxim, Cefpodoxim, Levofloxacin) und Antiphlogistika (Diclofenac, Ibuprofen) betroffen. Schlussfolgerung: In einer durchschnittlichen Hausarztpraxis kommen in signifikanten Maße Fehlverordnungen vor. Die Gründe hierfür sind vielfältig. Insbesondere das Verschreibungsverhalten von Hausärzten hat eine zentrale Bedeutung für die Patientensicherheit bei Medikamentenverordnung und sollte unbedingt Gegenstand weiterer Untersuchungen sein.
Es wurde die Seroprävalenz von Erregern mit und ohne Tropismus zu Gefäßendothelzellen, wie Chlamydia (C.) pneumoniae, C. trachomatis, C. psittaci, verschiedene Herpesviren (Cytomegalie-Virus (CMV), Epstein-Barr-Virus (EBV), Herpes simplex Typ l und 2-Virus, Varizella Zoster-Virus (VZV)) sowie Masern- und Mumpsviren, bei Patienten mit koronarer Herzerkrankung (KHK) (n=167) und zwei Kontrollkollektiven ohne Herzerkrankung (n=400, n=108) ermittelt. Die IgG-Antikörperprävalenzen betrugen im KHK-Kollektiv für C. pneumoniae 79,6% bzw. in den Kontrollkollektiven 72,5% und 66,7%, für C. trachomatis 4,8% bzw. 6,8% und 2,8%, für C. psittaci 3% bzw. 3,5% und 6,5%, für CMV 72,9% bzw. 74,3% und 79,2%, für EBV 95,1% bzw. 93.1% und 94%, für Herpes simplex 1/2 91,8% bzw. 87,4% und 91,3%, für Masern 99,2% bzw. 100% und für Mumps 93,4% bzw. 86,5% und 84,8%. Die Prävalenzen der VZV-IgA waren 60,3% bzw. 57,3% und 54%. Bei dieser Untersuchung zeigten sich somit keine signifikanten Unterschiede in den Antikörperprävalenzen zwischen den einzelnen Kollektiven. Wurden kranke, stationäre Patienten aus dem Kontrollkollektiv ausgeschlossen, so fand sich in diesem zweiten Kontrollkollektiv mittels Chi2-Test eine signifikant niedrigere Prävalenz (66,7%) der C. pneumoniae-IgG-Antikörper im Vergleich zu Patienten mit KHK (79,6%), (p=0,02). Die Untersuchung der geschlechtsspezifischen Prävalenzen zeigte für Männer (82,6% bzw. 78,5% und 73,2%) eine höhere Durchseuchung als für Frauen (55,6% bzw. 63% und 59,6%). Beim Vergleich gleichgeschlechtlicher Gruppen fanden sich keine signifikanten Unterschiede. Eine Assoziation von C. pneumoniae oder CMV mit der atherosklerotischen, koronaren Herzerkrankung konnte somit durch unsere* Untersuchung nicht bestätigt werden. Die Wahl der Kontroll-Gruppen kann möglicherweise die Ergebnisse der Metaanalyse früherer Assoziationsstudien beeinflußt haben.
Kardiovaskuläre Erkrankungen stellen in Deutschland die häufigste Todesursache dar [1]. Eine Schlüsselrolle wird hierbei der koronaren Herzkrankheit (KHK) auf dem Boden einer Atherosklerose zuteil. Die Prävalenz der koronaren Herzkrankheit in Deutschland lag 2012 laut Zahlen des Robert Koch-Instituts bei 8,3 %; dies entspricht 6,64 Millionen Menschen. Die Spitzengruppe bilden die über 65-Jährigen mit einer Erkrankungshäufigkeit von 18,3 % bei Frauen und 27,8 % bei Männern. Oberstes Therapieziel bei der Behandlung der KHK ist die Prävention von Myokardinfarkten und Herzinsuffizienz. Wegweisend für das therapeutische Procedere sind die klinische Situation des Patienten und die Ergebnisse der kardialen Diagnostik. Sind mehrere Koronargefäße betroffen oder bestehen komplizierte Gefäßverengungen ist die Indikation zur operativen Myokardrevaskularisierung gegeben. Im Jahr 2015 unterzogen sich in Deutschland 51.941 Patienten einem solchen Eingriff [2]; weltweit erhalten jährlich fast eine Millionen Patienten eine Bypass-Operation [3]. Für den Therapieerfolg ist postoperativ eine suffiziente Thrombozytenaggregationshemmung von essentieller Bedeutung. Daher wird zur Sekundärprophylaxe eine lebenslange antiaggregatorische Medikation empfohlen; das am häufigsten hierfür genutzte Medikament ist Acetylsalicylsäure (ASS) [4]....
Ziel der vorliegenden Studie war, mittels MEA, die Prävalenz und mögliche Prädiktoren einer ASS-Nonresponse in einer Kohorte kardiochirurgischer Patienten zu analysieren.
Es wurden folgende Nullhypothesen aufgestellt:
- Die tägliche Einnahme von 100 mg ASS ist ausreichend, um bei allen Patienten eine therapeutische Thrombozytenaggregationshemmung zu erreichen.
- Es existieren keine Prädiktoren für die mittels MEA detektierte ASSNonresponse.
Die spontan bakterielle Peritonitis (SBP) ist eine spontan auftretende, bakterielle Infektion des Peritoneums und gilt als eine der schwerwiegendsten Akutkomplikationen der dekompensierten Leberzirrhose. Die Diagnosestellung der SBP erfolgt aufgrund der okkulten klinischen Symptome häufig verspätet, was mit einer deutlich verkürzten Lebenserwartung einhergeht. Auch im Falle einer Kolonisation oder Infektion durch multiresistente Erreger (MRE) ist die Prognose bei Patienten mit dekompensierter Leberzirrhose deutlich vermindert. Der pathophysiologische Zusammenhang sowie die prognostische Relevanz von MRE als Auslöser einer SBP sind bislang nicht bekannt. Die Prävalenz der MRE bei Patienten mit Leberzirrhose ist jedoch steigend. Die Identifizierung von Patienten mit hohem Risiko für eine Infektion mit MRE ist unerlässlich für eine frühzeitige Anpassung der Antibiotikatherapie bei diesen Patienten. In einem Ansatz, die Wahrscheinlichkeit einer durch MRE ausgelösten SBP (MRE-SBP) zu beurteilen, wurde untersucht, ob in Asziteskulturen nachgewiesene MRE auch durch nicht-invasive Screening-Verfahren ermittelt werden können.
Die vorliegende Arbeit wurde am Leberzentrum des Universitätsklinikums Frankfurt am Main durchgeführt. In einer retrospektiven Studie untersuchten wir Patienten aus den Jahren 2011 bis 2016 mit Diagnose einer SBP, bei denen aerobe und anaerobe Asziteskulturen entnommen worden sind und ein vollständiges MRE-Screening (multiresistente gram-negative Bakterien, Vancomycin-resistente Enterokokken (VRE) oder Methicillin-resistenter Staphylokokkus aureus (MRSA)) durchgeführt worden ist. Ziel der Studie war letztlich die Charakterisierung von Patienten mit SBP und MRE-Nachweis (MRE- SBP), die Untersuchung des Überlebens dieser Patienten und die Definition von Risikofaktoren für eine MRE-SBP.
133 Patienten erfüllten die Einschlusskriterien. Unter diesen hatten 75/133 Patienten (56%) positive Asziteskulturen und 22/133 (17%) eine SBP mit kulturellem MRE-Nachweis im Aszites (MRE-SBP). Von den Patienten mit positiven Asziteskulturen hatten 29/75 (39%) gram-positive, 25/75 (33%) gram- negative und 21/75 (28%) sowohl gram-positive als auch gram-negative Erreger
im Aszites. Multiresistente Erreger (multiresistente gram-negative Erreger, VRE oder MRSA) wurden insgesamt bei 72/133 Patienten (54%) ermittelt. Unter den Patienten mit MRE-SBP dominierten der multiresistente Escherichia coli (E.coli) (10/22; 46%) und VRE (7/22; 31%). Rektalabstriche identifizierten MRE bei 17/22 Patienten (77%), die eine MRE-SBP mit einer zeitabhängigen Sensitivität von 77% und 87% innerhalb von 30 bzw. 90 Tagen nach dem Screening entwickelten; der negativ prädiktive Wert betrug 83% bzw. 76%. Es bestand kein relevanter Unterschied des MELD-, CLIF-AD- und ALBI-Scores bei Patienten mit und ohne MRE-SBP. Eine Sepsis war auch bei Patienten mit MRE-SBP die Haupttodesursache (8/22; 36%; p<0.001) verglichen mit anderen Todesursachen in 7/22 Fällen (32%). Eine Umstellung der initialen antiinfektiven Therapie ging mit einem erhöhten Sterblichkeitsrisiko bei Patienten mit (p=0.002) und ohne MRE-SBP (p=0.014) einher.
Wir konnten zeigen, dass unabhängig von der Leberfunktion das Überleben bei Patienten mit MRE-SBP stärker beeinträchtigt ist als bei anderen Patienten mit SBP. Das Auftreten von multiresistenten Organismen ist eine schwerwiegende Komplikation bei Patienten mit dekompensierter Leberzirrhose und Ansätze zur Verbesserung des Überlebens dieser Patienten sind erforderlich. Unter Berücksichtigung der Hospitalisierungsdauer, MRE-Historie und ggfs. des zu erwartenden Erregerspektrums der hiesigen Stationen muss daher bereits initial eine individuelle, empirische antiinfektive Therapie gewählt werden. Eine entsprechende Anpassung nach Erhalt des Antibiogramms kann erforderlich sein. Weiterhin untersuchten wir den Nutzen eines nicht-invasiven Screenings (rektales, nasopharyngeales und kutanes MRE-Screening), um Patienten mit Risiko für eine MRE-SBP zu identifizieren. Das MRE-Screening kann als nicht- invasives diagnostisches Instrument hierfür dienen. Patienten mit dekompensierter Leberzirrhose sollten vom ersten Tag der stationären Behandlung auf Kolonisierung mit MRE untersucht werden.
Die vorliegende Promotionsarbeit fokussiert auf das transfusionsbedingte Infektionsrisiko bezüglich Hepatitis B-Virus Infektionen. Da das Restinfektionsrisiko bezüglich Hepatitis B deutlich höher als das Restinfektionsrisiko bezüglich Hepatitis C oder HIV-Virus Infektionen anzusehen ist, konzentriert sich die vorliegende Arbeit auf den Stellenwert von Anti-HBc Antikörper für das Blutspenderscreening. In der vorliegenden Arbeit wurden zunächst unterschiedliche Anti-HBs Screening Assays synoptisch bezüglich der Sensitivität und Spezifität sowie anderer Test-Parameter miteinander verglichen und die Prävalenz und Infektiosität Anti-HBc-Ak positiver Blutspenden des Blutspendedienstes Hessen / Baden-Württemberg untersucht. Anschließend erfolgte eine Screening an fünf unterschiedlichen Standorten in Deutschland zur Prävalenz von Anti-HBc sowie zum Prozentsatz von chronisch infizierten Hepatitis B positiven Spendern. Anhand von Lookback Untersuchungen von chronisch infizierten Anti-HBc positiven und HBV DNA positiven Spendern konnte untersucht werden, inwieweit die Transfusion dieser niedrig virämischen Spender zu einer Übertragung von Hepatitis B in der Vergangenheit geführt hat. Darüber hinaus wurde eine Fall-Kontroll-Studie durchgeführt, mit der Fragestellung, inwieweit allein das Vorhandensein von Hepatitis B Antikörper (Anti-HBc Antikörper und Anti-HBe Antikörper) ohne Nachweis von HBV DNA, bereits ein erhöhtes Transfusionsrisiko darstellt. Zusätzlich wurden Daten bezüglich der heutigen Relevanz der HBs-Ag Testung im Blutspendewesen erhoben. Anschließend wurden alle drei für die Doktorarbeit relevanten Screeningparameter bezüglich Hepatitis B für das Blutspenderscreening (HBV Minipool PCR, HBs-Ag Test und Anti-HBc Test) bezüglich der Kosten pro gewonnenen QALY (Quality Adjusted Life Years) berechnet und wieder synoptisch miteinander verglichen. In der abschließenden Diskussion wurden unterschiedliche Screening Szenarien auf ihre Wertigkeit bezüglich der Sicherheit der Blutprodukte sowie auf ihre Kosten-Nutzen-Analyse hin betrachtet. Festgestellt wurde, dass durch die Anti-HBc-Ak Diagnostik im Blutspendewesen eine erhöhte Sicherheit bezüglich einer transfusionsbedingten HBV Transmission erzielt werden kann. Unter ca. 1,4 Millionen untersuchten Spendern konnten 21 HBV DNA positive Spender (alle niedrige HBV DNA Konzentrationen) ermittelt werden. Bei keinem der jeweiligen Empfänger konnte eine Infektion bestätigt werden, bei einem wäre sie möglich gewesen. Dabei konnte gezeigt werden, dass sich das PRISM® HBcore™ Testsystem wegen guter Sensitivität aber auch gleichzeitig guter Spezifität (signifikant besser als PRISM® HBc™) am besten zur Anti-HBc-Ak Routinetestung im Blutspendedienst eignet und selbst bei sehr hohem Probenaufkommen bewährt hat. Im Vergleich unterschiedlicher Testsysteme hatte der AxSym® CORE™ die höchste analytische Sensitivität, im weiteren Vergleich schnitten die untersuchten Assays annähernd gleich ab, zwischen dem PRISM® HBcore™ und PRISM® HBc™ konnte kein weiterer signifikanter Unterschied festgestellt werden. Des weiteren konnte gezeigt werden, dass Anti-HBc-Ak einen guten und sinnvollen Parameter zur HBV Diagnostik darstellt, der, in Verbindung mit der Pool-PCR, eventuell sogar die HBs-Ag Testung abzulösen in der Lage ist. Anhand der im Rahmen dieser Studie erhobenen Daten wären alle HBs-Ag positiven Blutprodukte auch mittels der Pool-PCR und Anti-HBc-Ak Diagnostik identifiziert worden. Darüber hinaus wurden einige HBV positive Blutprodukte mit diesen Verfahren erkannt, die mittels der klassischen HBs-Ag Testung übersehen worden wären. Bestätigt Anti-HBc-Ak positive Spender lassen sich anhand zusätzlicher serologischer Parameter (Anti-HBe-Ak und Anti-HBs-Ak) und wiederholter Testung bestimmen und so auch bestätigen; Die gemessenen S/CO-Werte der einzelnen untersuchten Testsysteme sind in der Lage einen Hinweis auf eine mögliche unspezifische Anti-HBc-Ak Reaktivität geben, so dass in Verbindung mit zusätzlichen HBV Parametern (z.B. Anti-HBe-Ak), die Richtigkeit des Ergebnisses besser eingeschätzt werden kann. Mittels Testung auf weitere HBV Marker (Einzelproben-PCR, Anti-HBs-Ak) können, wie es bereits gesetzlich geregelt wurde, Anti-HBc-Ak positive Blutprodukte durch ein „Re-Entry“ Verfahren wieder der Patientenverwendung zugeführt werden, ohne das HBV Transmissionsrisiko zu erhöhen. Die vorliegende Studie bestätigt diese Annnahme: Es konnte keine einzige HBV Transmission durch Anti-HBc-Ak positives Blut bewiesen werden, welches HBV PCR negativ (Sens. < 5,6 IU/ml) war. Die Prävalenz der Anti-HBc-Ak positiven Blutspender betrug vor Einführung der Anti-HBc-Ak Testung ca. 1,61%, im Spenderkollektiv wird sie aber wegen Selektionierung in den nächsten Jahren stark rückläufig sein.
Mit S-303 pathogenreduzierten Erythrozytenkonzentraten können sowohl infektiöse also auch nicht-infektiöse Risiken einer Transfusionen möglicherweise weiter reduziert werden. Frühere Studien mussten abgebrochen werden, da Antikörper gegen S-303-behandelte Erythrozyten festgestellt wurden. S-303 reagiert als unerwünschten Nebeneffekt auch mit Oberflächenmolekülen der roten Blutkörperchen. Dabei wird die Acridin-Komponente von S-303 auf der Oberfläche der roten Blutkörperchen gebunden. Gegen diese Acridin-Komponente können nach Transfusion von pathogenreduzierten EK immuninduzierte AK gebildet werden. Es existieren aber auch natürlich präformierte AK gegen S-303-behandelte Erythrozytenkonzentrate. Das Verfahren wurde modifiziert, indem der Anteil von GSH erhöht wurde. Dadurch wird vermehrt S-303 im Extrazellulärraum abgefangen und weniger Acridin auf der Oberfläche der Erythrozyten gebunden.
In dieser Studie wurden 9671 potentiell transfusionsbedürftigen Patienten auf einen natürlich präformierten Antikörper gegen S-303-behandelte Erythrozytenkonzentrate untersucht. Diese Patienten hatten zuvor noch keine S-303-behandelten Erythrozytenkonzentrate erhalten. Es wurden Testzellen von Blutspendern der Blutgruppe 0 hergestellt. Aus jedem EK wurden drei unterschiedliche Testzellen hergestellt (Erstgenerationszellen, Zweitgenerationszellen, Kontrollzellen). Das Screening erfolgte mittels IAT in Gelkartentechnik mit einer Testzelle der ersten und zweiten Generation. Die Antikörper wurden weiter charakterisiert bezüglich Spezifität, Titer, Antikörperklasse und –subklasse, Affinität und Temperaturreaktivität.
Bei zwölf Patienten konnte ein AK gegen S-303 pathogenreduzierte Erythrozy-tenkonzentrate nachgewiesen werden und somit konnte gezeigt werden, dass die Prävalenz eines solchen Antikörpers gering ist. Bei elf Patienten handelt es sich um einen Anti-Acridin-AK. Alle elf Patienten hatten immer einen positiven AKS mit der Erstgenerationszelle, jedoch nicht mit der Zweitgenerationszelle. Die Sensitivität, einen AK gegen Acridin mit der Erstgenerationszelle zu finden, ist höher als mit der Zweitgenerationszelle. Die Erstgenerationszelle hat auf ihrer Oberfläche mehr Acridin gebunden als die Zweitgenerationszelle. Bei einem Patienten konnte ein AK unbekannter Spezifität nachgewiesen werden, welcher jedoch ausschließlich mit der Zweitgenerationszelle reagierte. Vor einer möglichen Transfusion von S-303 pathogenreduzierten Erythrozytenkonzentraten wird empfohlen immer eine Testung auf Antikörper gegen Testzellen der ersten und der zweiten Generation durchzuführen. Eine Transfusion sollte grundsätzlich nur erfolgen, wenn weder ein AK gegen die Erstgenerationszelle noch gegen die Zweitgenerationszelle nachgewiesen wurde. Insgesamt handelt es sich überwiegend um niedrigtitrige IgG-AK der Subklasse 2 oder 4. Es lässt sich daher vermuten, dass natürlich präformierten AK gegen S-303-behandelte Erythrozytenkonzentrate nur eine geringe klinische Relevanz haben.
Eine klinischen Studie mit 51 kardiochirurgischen Patienten zeigte, dass nach Transfusion von pathogenreduzierten Erythrozytenkonzentraten der zweiten Generation keine immuninduzierten Antikörper gebildet wurden. Somit ist davon auszugehen, dass die Zweitgenerationszelle wegen der geringen Expression von Acridin auf der Zelloberfläche weniger immunogen ist als die Erstgenerationszelle. Klinische Studien mit einer größeren Anzahl an Patienten können nun grundsätzlich geplant werden.
Generell sollten Patienten mit natürlich präformierten Antikörpern gegen S-303-behandelte Erythrozytenkonzentrate keine pathogenreduzierten Erythrozytenkonzentrate erhalten. Patienten, welche nach Transfusion von S-303-behandelten Erythrozytenkonzentraten AK gegen die pathogenreduzierten Erythrozyten gebildet haben, sollten regelmäßig nachuntersucht werden, um eine Hämolyse frühzeitig zu entdecken.
Neben einer guten Tanztechnik spielt die Körperform von professionellen Tänzer*innen eine entscheidende Rolle. Im klassischen Tanz gilt eine leptosom-grazile Form mit langen Gliedmaßen bei Frauen als ideal. Dementsprechend ist die Prävalenz von Untergewicht hoch. Dabei ist es nicht ausgeschlossen, dass dieses physische Erscheinungsbild mittels Diäten erreicht wird. Auffällig ist eine höhere Prävalenz von Störungen des Essverhaltens und Essstörungen vor allem bei Tänzerinnen im Vergleich zu nicht tanzenden Vergleichsgruppen. Im Zusammenhang mit dem Untergewicht können hormonelle Störungen, wie Amenorrhoe, Osteoporose oder Leistungseinschränkungen auftreten. Daher ist es wichtig, Tänzer*innen regelmäßig zu untersuchen und präventive Maßnahmen zu ergreifen. Ziel der vorliegenden Übersicht ist die Darstellung der Literatur zu diesem Thema.
Hintergrund: Anämie gehört zu den häufigsten Erkrankungen weltweit und stellt daher ein zentrales globales Gesundheitsproblem dar. Etwa ein Drittel aller chirurgischen Patienten weisen präoperativ eine Anämie auf. Dies wird als unabhängiger Risikofaktor für eine erhöhte Morbidität und Mortalität sowie für das vermehrte Auftreten postoperativer Komplikationen angesehen. Vor diesem Hintergrund wurde von der Weltgesundheitsorganisation (World Health Organization, WHO) ein patientenzentriertes Behandlungskonzept namens Patient Blood Management (PBM) gefordert, um unter anderem Anämien frühzeitig zu diagnostizieren und einen rationalen Einsatz von Fremdblutprodukten zu fördern. Trotz der Tatsache, dass PBM vor etwa 10 Jahren eingeführt wurde, scheint Deutschland im internationalen Vergleich eine überdurchschnittlich hohe Menge an Erythrozytenkonzentrat-(EK)Einheiten pro Kopf zu transfundieren. Die Ursachen dafür sind bislang unklar und könnten möglicherweise durch eine erhöhte Anämie- Prävalenz bei chirurgischen Patienten und dem damit verbundenen erhöhten Bedarf an Transfusionen einhergehen.
Zielsetzung: Ziel dieser Arbeit ist die multizentrische Erfassung der präoperativen Anämie-Prävalenz innerhalb des Zeitraums 2007-2019 in Deutschland.
Methoden: In dieser retrospektiven, multizentrischen Beobachtungsstudie wurden alle Patienten jeden Alters, die im Monat März der Jahre 2007, 2012, 2015, 2017 und 2019 in acht teilnehmenden Krankenhäusern operiert wurden, erfasst. Patientencharakteristika und klinische Daten wurden aus den Krankenhausinformationssystemen der teilnehmenden Krankenhäuser entnommen. Primäres Ziel war die Prävalenz der Anämie bei Krankenhausaufnahme. Sekundäre Endpunkte waren der Zusammenhang zwischen Anämie und Anzahl der transfundierten EKs, Dauer des Krankenhausaufenthalts und Sterblichkeit im Krankenhaus.
Ergebnisse: Von insgesamt 30.763 Patienten konnten 23.836 Patienten aus acht Krankenhäusern in die Analyse eingeschlossen werden. Im untersuchten Zeitraum zeigte sich eine Reduktion der präoperativen Anämie-Prävalenz erwachsener Patienten von 37% auf 32,2%. Die Zahl, der mit Erythrozytenkonzentraten -5- transfundierten Patienten, ging signifikant von 16,5 % im Jahr 2007 auf 7,8 % im Jahr 2019 zurück, wobei Patienten mit präoperativer Anämie im Vergleich zu Patienten ohne Anämie sechsmal mehr EKs erhielten. Insgesamt verkürzte sich die Krankenhausverweildauer seit 2007 deutlich, zeigte jedoch eine signifikante Verlängerung bei Vorliegen einer präoperativen Anämie. Die Sterblichkeitsrate war über die Jahre hinweg konstant, dennoch signifikant höher bei anämischen Patienten. Eine multivariate Regressionsanalyse mit festen Effekten ergab, dass präoperative Anämie und EK-Transfusion Prädiktoren für die Sterblichkeitsrate waren.
Diskussion: Die Prävalenz der präoperativen Anämie lag in unserer Studienpopulation im Jahr 2019 bei 32,2 %, was der weltweiten Prävalenz entspricht. Das Implementieren von PBM-Strategien, um präoperative Anämien frühzeitig zu identifizieren und zu therapieren sowie Blutprodukte rational einzusetzen, nimmt daher weiterhin einen großen Stellenwert ein. Diese perioperativen Maßnahmen sind für alle chirurgischen Patienten von zentraler Bedeutung, da eine präoperative Anämie den Bedarf an EK-Transfusionen erhöhen, die Liegezeit verlängern und mit einer erhöhten Sterblichkeitsrate assoziiert sein kann.
Nierensteine sind eine häufige Diagnose, welche Patient und Gesundheitssystem gleichermaßen belasten. In dieser Arbeit sollten deshalb bekannte präoperative und intraoperative Faktoren bestätigt und neue identifiziert werden, welche das Ergebnis bei der endourologischen Steintherapie durch rigide oder flexible Ureterorenoskopie vorhersagen können. Die untersuchten Outcome-Variablen waren die Steinfreiheit, die postoperative Schmerzfreiheit, sowie die ökonomischen Faktoren OP-Zeit und Verweildauer. Ist eine Prädiktion dieser Variablen möglich, so wird der Krankenhausaufenthalt für Patient und Kliniken besser planbar, zudem kann anhand der ökonomischen Faktoren abgeschätzt werden, wie rentabel die Behandlung sein wird. Zu diesem Zweck sollten aus den Prüfvariablen Scores erstellt werden, welche die Steinfreiheit möglichst zuverlässig vorhersagen und bei gleicher Prädiktionskraft einfacher anzuwenden sind als der bekannte S.T.O.N.E. Score zur Abschätzung der Steinfreiheit nach starrer und flexibler URS. Zudem sollten erstmals auch Outcome-Scores für die OP-Zeit, die Verweildauer und die postoperative Schmerzfreiheit erstellt werden.
Hierfür wurden zunächst Patientendaten, sowie radiologische und intraoperative Ergebnisse zusammengetragen und mittels statistischer univariater Analyse auf einen Zusammenhang mit den Outcome-Faktoren überprüft. Hierbei wurden die starre und die flexible URS getrennt analysiert. Im nächsten Schritt wurden in multivariater Analyse die unabhängigen Faktoren identifiziert, welche das Outcome beeinflussen. Aus diesen Variablen wurden schließlich Scores errechnet und deren Prädiktionskraft im Hinblick auf das klinische und ökonomische Outcome nach URS mittels ROC-Analyse untersucht und verglichen. Für die Vorhersage der Steinfreiheit konnte zu jedem Eingriff ein Score erstellt werden, der bei gleicher oder besserer Prädiktionskraft mit weniger Variablen auskommt, als der bisher bekannteste publizierte S.T.O.N.E. Score und somit leichter anzuwenden ist. Der Renewal-Score für die starre URS umfasst die Parameter Steinlänge, Steinlokalisation, Steinanzahl und initiale Notfallvorstellung der Patienten, der Flexfree-Score für die flexible URS beinhaltet hingegen die Steinlänge, eine präinterventionelle DJ-Kathetereinlage und die Erfahrung des Urologen. Auch für die ökonomischen Parameter Operations- und Verweildauer konnten erstmals spezifische Outcome-Scores erstellt werden, lediglich die Schmerzfreiheit ließ sich mit den gesammelten Daten nicht vorhersagen. Bei der flexiblen URS konnte der zur gemeinsamen Prädiktion von OP- und Verweildauer geeignete Fleconomy-Score aus den Variablen Steinbreite und Steinvorgeschichte errechnet werden. Bei der starren URS mussten getrennte Scores erstellt werden. Für die OP-Dauer wurde der Ritime-Score aus den Parametern Steinlänge, Steinbreite, Steinlokalisation und Notfallvorstellung errechnet. Auch der Renewal-Score zur Vorhersage der Steinfreiheit nach rigider URS eignete sich zur Prädiktion der Operationszeit. Der Ristay-Score zur Vorhersage der Verweildauer nach starrer URS umfasst hingegen die Faktoren präoperative DJ-Kathetereinlage, den präinterventionellen Kreatininwert und die OP-Zeit. Auch die ökonomischen Tests sind klinisch einfach zu bestimmen und kommen bei hoher Vorhersagegüte mit wenigen Variablen aus. Alle erstellten Scores sind praxistauglich und stellen eine Weiterentwicklung der bisher zur Verfügung stehenden Tools oder komplette Neuerungen zur Vorhersage des Outcomes nach endourologischer Steintherapie dar. Dies ist nicht nur für den Patienten von Bedeutung, sondern hilft auch den Kliniken OP- und Verweiltage besser zu planen und somit den Behandlungsertrag zu kalkulieren.
Einleitung: Frailty (engl. für Gebrechlichkeit) bezeichnet eine mit hohem Alter zunehmende Verschlechterung des körperlichen und kognitiven Zustandes von Individuen, woraufhin der Körper nicht mehr in der Lage ist, adäquat auf äußere und innere Stressoren zu reagieren. Frailty ist mit einer erhöhten Morbiditäts- und Mortalitätsrate sowie längerer Krankenhausverweildauer und erhöhter postoperativer Komplikationsrate verbunden und stellt folglich einen chirurgischen Risikofaktor dar.
Problemstellung: Die Relevanz eines strukturierten Frailty Assessments in der präoperativen Risikostratifizierung führte zur Indikationsstellung, diverse validierte Risk Assessment Tools auf ihre prädiktive Vorhersagekraft bezüglich des Auftretens von postoperativen Komplikationen und postoperativer Sterbewahrscheinlichkeit zu untersuchen.
Methoden: In die vorliegende Studie wurden Patienten, die in dem Zeitraum vom 01.09.2018 und 31.01.2019 in der allgemeinchirurgischen Ambulanz vorstellig waren und einen allgemeinchirurgischen Eingriff erhielten, aufgenommen. Mittels Fragebögen wurden die Scores „Risk Analysis Index“, „Edmonton Frail Scale“ sowie „Charlson Comorbidity Index“ präoperativ erhoben und retrospektiv mit Daten aus der digitalen Patientenakte zusammengeführt. Endpunkte waren die 90-Tages- Mortalität sowie das Auftreten von schweren postoperativen Komplikationen ab Clavien Dindo Grad 3b. Die Analyse erfolgte in SPSS mittels Chi-Quadrat Test, t- Test und ROC-Kurven Analysen.
Ergebnisse: Das durchschnittliche Alter der Studienkohorte lag bei 56 ± 15.9 Jahren und der Anteil männlicher Patienten überwog mit 59.2% (n=282).
Die Fragebögen wurden 739 Patienten vorlegt und 476 Patienten konnten in die Datenanalyse eingeschlossen werden. Die 90-Tages-Mortalität lag bei 2.7% (n=13) und 9% (n=43) erlitten schwere postoperative Komplikationen ab Clavien-Dindo Grad IIIb. Die Einteilung nach der ASA-Klassifikation (p=0.024), maligne Diagnosen -7-(p<0.001) und Majorkomplikationen (p<0.001) stellten präoperative Risikofaktoren für postoperative 90-Tage-Mortalität dar. Von den Risk Assessment Scores zeigte lediglich der Risk Analysis Index eine signifikante Korrelation auf (p=0.013). Ein mittels ROC-Analyse ermittelter Cut-Off Wert von 23 klassifizierte 166 (34.9%) Patienten als frail, die mit 69% Sensitivität und 66% Spezifität (AUC=0.735) ein erhöhtes Risiko für postoperatives Versterben innerhalb von 90 Tagen aufwiesen (p=0.008). Risikofaktoren für das Auftreten schwerer postoperativer Komplikationen waren die ASA-Klassifikation (p=0.041), längere Krankenhausverweildauer (p<0.001) und maligne Diagnosen (p<0.001). Der Charlson Comorbidity Index (p=0.031) und RAI-C Werte ≥ 23 (p<0.001) korrelierten signifikant mit Majorkomplikationen. Das Alter ab 65 Jahren stellte mit 77 % Spezifität und 69 % Sensitivität ebenfalls einen prädiktiven Risikofaktor für postoperative Mortalität dar (AUC=0,787).
Schlussfolgerung: Mithilfe validierter Risk Assessment Tools ist es möglich Patienten, die ein erhöhtes Risiko für postoperative negative Ereignisse aufweisen, bereits präoperativ zu erkennen. Dies ermöglicht eine bessere Beurteilung der chirurgischen Indikationsstellung sowie das rechtzeitige Ergreifen von risikominimierenden Maßnahmen. Es ist notwendig die Ergebnisse dieser Arbeit künftig mit risikominimierenden Maßnahmen zu verknüpfen und zu untersuchen, ob die Implementierung der Risk Assessment Tools zu verbesserten postoperativen Ergebnissen führt, wenn modifizierbare Faktoren verbessert werden.
In der präoperativen Diagnostik fokaler maligner Leberläsionen nimmt die MRT mit Resovist® einen zunehmend höheren Stellenwert ein.
T2 gewichtete TSE- und FS-Sequenzen der Resovist® unterstützten MRT sind dabei sensitiver als die in der präoperativen Diagnostik etablierte CTAP mit Ultravist® 370, einem nichtionischen jodhaltigen Kontrastmittel.
Die visuelle Differenzierung und Charakterisierung fokaler maligner Leberläsionen und deren Abgrenzung vom Leberparenchym in der Resovist® unterstützten MRT kann durch die Analyse der Signalintensitätskurven optimiert werden. Eine effektivere Charakterisierung der fokalen Leberläsionen wirkt sich damit positiv auf die Sensitivität und Spezifität der SPIO verstärkten MRT aus.
Es bleibt daher offen, die Signalintensitäten der primären und sekundären Leberläsionen der hier nicht untersuchten Gewebearten in weiteren Studien zu analysieren.
Desweiteren könnten nachfolgende Untersuchungen das Ziel haben, die Sensitivität und Spezifität der Resovist® unterstützten MRT durch eine Verminderung der Schichtdicke zu verbessern, womit sich die Detektion von Läsionen < 1 cm effektiver gestalten würde.
Das prämenstruelle Syndrom (PMS) ist ein häufiges Krankheitsbild, das bei 20–30 % der gebärfähigen Frauen auftritt. Es wird durch zyklusabhängige psychische und somatische Symptome definiert.
Die prämenstruelle dysphorische Störung (PMDS) ist eine schwere Form des PMS mit vor allem psychischen Auffälligkeiten, die bei 2–8 % der gebärfähigen Frauen vorkommt. Die Ätiologie von PMS und PMDS bleibt unklar. Eine PMDS geht oft mit anderen psychischen Erkrankungen einher.
Die Symptome treten in der zweiten Zyklushälfte auf und lassen mit Beginn der Periode nach. Zur Diagnosestellung hilft die Führung eines Zykluskalenders.
Ein gesunder Lebensstil (Sport, ausgeglichene Ernährung etc.) stellt die Basis für alle Therapieoptionen dar. Zahlreiche Studien konnten die Effektivität der Behandlung mit Antidepressiva (aus der SSRI- oder SNRI-Gruppe) sowie Ovulationshemmern darlegen.
Beide Medikamentengruppen werden in Deutschland im „off label use“ zur Behandlung von PMS/PMDS-Beschwerden angewendet. Für die Therapieempfehlung sind die Grunderkrankungen der Patientin zu berücksichtigen.
Zwangsmaßnahmen stellen in der psychiatrischen Versorgung ein umstrittenes Thema dar. Obwohl soweit wie möglich eine zwangsfreie Psychiatrie angestrebt wird, können psychiatrische Erkrankungen in einzelnen Fällen die Selbstbestimmungsfähigkeit der Patienten einschränken und Zwangsmaßnahmen notwendig machen. Diese können eine erhebliche Belastung für die betroffenen Patienten darstellen und bringen das medizinische Personal unter Umständen in ein ethisches Dilemma zwischen Fürsorgepflicht für erkrankte Patienten und deren Autonomiewahrung. Da sowohl national als auch international noch kein einheitlicher Konsens bezüglich möglicher Prädiktoren einer Zwangseinweisung und deren Auswirkung auf den Therapieverlauf erreicht wurde, besteht dazu noch weiterer Forschungsbedarf.
Um diese Lücke zu verkleinern, wurde eine aktuelle, retrospektive Studie auf der Grundlage der besonderen rechtlichen Situation in Hessen bezüglich des Hessischen Freiheitsentzugsgesetzes (HFEG) durchgeführt. Hierfür wurden die Patientenakten aller volljährigen Patienten, die freiwillig oder unfreiwillig (nach §10 HFEG, §1906 BGB und §1 HFEG) auf eine der drei geschützten Stationen der Psychiatrie des Universitätsklinikums Frankfurt am Main während der Quartale I/2015 und II/2015 aufgenommen wurden, ausgewertet. Dabei wurden die Unterschiede der freiwillig und der unfreiwillig aufgenommenen Patienten in soziodemographischen Prädiktoren und die Auswirkung des Aufnahmemodus auf den Therapieverlauf durch Signifikanzprüfungen und dem Verfahren der logistischen Regression betrachtet. Analysiert wurden 543 Patienten, von denen ca. 70% freiwillig und 30% unfreiwillig aufgenommen wurden.
Es konnten vier mögliche Prädiktoren einer unfreiwilligen Aufnahme identifiziert werden: Initiierung der Aufnahme, Aufnahmezeitpunkt, Hauptdiagnose und somatische Nebendiagnosen. Eine unfreiwillige Aufnahme wurde eher durch Passanten, den Betreuer/die Einrichtung oder Nachbarn/Freunde initiiert, während freiwillige Aufnahmen eher durch die Familie oder Eigeninitiative motiviert waren. Die Betrachtung der Initiierung einer Aufnahme erfolgte in der Literatur bisher selten. Übereinstimmend mit anderen Studien wurden zwangseingewiesene Patienten eher wochentags außerhalb der Kernarbeitszeiten oder am Wochenende/Feiertag aufgenommen, während freiwillige Aufnahmen vermehrt in der Kernarbeitszeit stattfanden. Die Diagnosen F0 und F4 erwiesen sich in der Regressionsanalyse als Risikofaktoren für eine Zwangseinweisung, wodurch der in der Literatur bestehende Kenntnisstand eines Zusammenhangs zwischen der Diagnose und dem Aufnahmemodus bestätigt wurde. Unfreiwillig aufgenommene Patienten wiesen zudem signifikant weniger somatische Nebendiagnosen auf. Der Einfluss der Nebendiagnosen ist in der Literatur noch nicht ausreichend untersucht, auch wenn die Ergebnisse der vorhandenen Studien größtenteils mit der vorliegenden Studie übereinstimmen.
Hinsichtlich des Therapieverlaufs unterschieden sich die beiden Gruppen in den Variablen Aufenthaltsdauer, Unterbringung im Verlauf, Zwangsfixierung, Zwangsmedikation, medikamentöse Einstellung, Antidepressiva und andere Medikamente. Zwangseingewiesene Patienten zeigten eine kürzere Aufenthaltsdauer, was möglicherweise der besonderen rechtlichen Situation in Hessen geschuldet ist. Sie wurden zudem häufiger im Verlauf des Aufenthalts untergebracht, waren öfter von Zwangsmaßnahmen wie Fixierungen oder Zwangsmedikationen betroffen und erhielten generell weniger Medikamente. Möglicherweise wurde dies durch eine fehlende Behandlungsmotivation oder eine kürzere Aufenthaltsdauer bedingt. In zusätzlichen Analysen zeigte sich, dass sich einfach und mehrfach aufgenommene Patienten in Baseline-Parametern nicht signifikant unterschieden.
Auch wenn Limitierungen wie das Vorliegen einer unizentrischen Studie oder einem Auswertungszeitraum von einem halben Jahr vorliegen, geben die in dieser Studie gefundenen Zusammenhänge wichtige Hinweise, um das Zustandekommen und die Auswirkungen von Zwangseinweisungen besser zu verstehen. Mit dieser Studie als Vergleichsgrundlage kann in Zukunft eine erstmalige Evaluierung der PsychKHG-Einführung in Hessen durchgeführt werden.
Hintergrund: Das Benigne Prostatasyndrom (BPS) stellt die klinische Ausprägung der Benignen Prostatahyperplasie (BPH), eine Volkskrankheit der männlichen Bevölkerung, dar. Die Prostataarterienembolisation (PAE) ist ein junges, minimal-invasives Therapieverfahren, bei dem die Gefäße, welche die Prostata versorgen, mittels Embolisaten blockiert werden. Die Blutversorgung des embolisierten Gewebes wird dadurch unterbunden und nekrotisiert in der Folge. Dieser Infarkt lässt sich über eine Diffusionsminderung in der Magnetresonanztomographie (MRT) nachweisen. Aufgrund des technisch anspruchsvollen Verfahrens und der Komplexität der prostatischen Gefäße findet die Magnetresonanzangiographie (MRA) immer mehr Beachtung zur strahlenfreien Visualisierung des Gefäßverlaufs. Das Ziel dieser Doktorarbeit bestand darin, mögliche prädiktive Faktoren für den Therapierfolg der PAE aufzudecken und dabei die Interventionsplanung, unter Anwendung und Nichtanwendung einer MRA, zu vergleichen.
Material und Methodik: In diese retrospektive Arbeit wurden 259 Patienten, die an dem Institut für Diagnostische und Interventionelle Radiologie der Universitätsklinik Frankfurt am Main eine PAE erhielten, eingeschlossen. Das Kollektiv wurde in zwei Gruppen, abhängig vom Vorhandensein einer präinterventionellen MRA, eingeteilt. Bei 137 Patienten wurde die PAE mit einer präinterventionellen MRA Rekonstruktion ausgeführt (= Gruppe A). Bei 122 Patienten erfolgte die PAE ohne vorangehende MRA Rekonstruktion (= Gruppe B). Mit Hilfe der Fragebögen International Prostate Symptom Score (IPSS), International Index of Erectile Function (IIEF) und Quality of Life (QoL) sowie MRT-Messungen (Diffusionskoeffizient, Prostatavolumen) wurden die Daten vor und nach der PAE evaluiert. Als statistische Methoden wurden die deskriptive Datenanalyse, der gepaarte Wilcoxon-Test, der Wilcoxon-Mann-Whitney-U-Test für nicht-parametrische Variablen sowie die Korrelationsmatrix nach Spearman verwendet.
Ergebnisse: In Gruppe A konnte eine signifikant höhere mediane Prostatavolumenreduktion (rho = 0,1827, p = 0,032448) und eine Reduktion der Strahlendosis (p = 0,000000) im Vergleich zu Gruppe B erreicht werden. In Gruppe A wurde im Verlauf eine signifikant höhere Abnahme des Diffusionskoeffizienten festgestellt als in Gruppe B (p = 0,036303). Ein infarziertes Areal nach der PAE wurde zu 59,3% (n = 67) von Patienten der Gruppe A erreicht, zu 40,7% (n = 46) erreichten dies Patienten der Gruppe B. Innerhalb der Gruppe A korrelierte der initial gemessene Diffusionskoeffizient mit dem präinterventionellen IPSS (rho = 0,3259, p = 0,0213). Weiterhin korrelierten bei Einsatz einer MRA der vor der Behandlung gemessene Diffusionskoeffizient sowie der IPSS mit der Abnahme der Beschwerden (rho = 0,3138, p = 0,0285; rho = 0,6723, p = 0,0000) und der Volumenreduktion (rho = 0,3690, p = 0,0024; rho = 0,4681, p = 0,0020). Die Reduktion des Diffusionskoeffizienten korrelierte mit der Höhe der initialen Symptomatik (rho = 0,3703, p = 0,0127) und mit der Verbesserung der Beschwerden (rho = 0,3830, p = 0,0107).
Schlussfolgerung: In Zusammenschau aller Ergebnisse sind die präinterventionelle Messung des Diffusionskoeffizienten, IPSS Erhebung sowie die Prostatavolumetrie in Verbindung mit der MRA prognostisch sinnvoll. Was die vorliegende Studie leistet, sind erste Erkenntnisse auf einem bisher kaum am Menschen untersuchten Gebiet. Dieser strahlensparende, prognostische Ansatz könnte zu einer besseren Patientenselektion beitragen und weitere Ansätze für den Einsatz von Künstlicher Intelligenz schaffen. Damit könnten Strahlendosis, Kosten und Risiken minimiert werden.
Die kongenitale HCMV-Infektion ist der wichtigste Auslöser geistiger Retardierung viraler Genese und ist für die meisten neurosensorischen Hörstörungen nicht genetischen Ursprunges verantwortlich. Die Entwicklung neuer Strategien zur Prävention der HCMV-Infektion bei Neugeborenen ist also von höchster Dringlichkeit. Die Einführung von universellen Screeningprogrammen bei Neugeborenen könnte die frühzeitige Erkennung einer Infektion und somit einen frühen therapeutischen Einsatz ermöglichen. Um dies in die Praxis umsetzen zu können, wird jedoch eine Vereinfachung der Probengewinnung und die Entwicklung einer schnellen und sensitiven Nachweismethode benötigt. Die Anwendbarkeit von verschiedenen im Handel für DNA-Analysen angebotenen Filterpapieren zur Sammlung von Urinproben für die HCMV-Diagnostik mittels PCR wurde untersucht und mit Referenzmethoden verglichen. Es wurden zwei mit Reagenzien behandelten Papiere, das Indicating FTA® Classic Card (Ind FTA Filterpapier) und das FTA® Elute (FTA Elute Filterpapier) und ein unbeschichtetes Papier, das 903® Specimen Collection Paper (903-Filterpapier) eingesetzt. Insgesamt waren alle Papiere leicht einzusetzen, gut verträglich und die Gewinnung von Proben gestaltete sich problemlos. Dilutionsreihen aus Zellkulturüberstand aus einer mit dem HCMV-Laborstamm AD169 infizierten Fibroblastenkultur wurden zur Sensitivitätsbestimmung der Methode eingesetzt. Während bei der Anwendung der Indicating FTA® Classic Cards die Nachweisgrenze der Methode bei 4.000 Kopien/ml lag, wurden beim FTA® Elute- und 903® Specimen Collection-Paper noch Proben mit 400 Kopien/ml erfasst. Ferner wurden 70 klinische Proben mittels Ind. FTA-Papier getestet und 10 mittels FTA Elute- und 903-Filterpapier. Die Sensitivität der Methode betrug im Vergleich zum "Shell Vial Assay" 43,2% beim Einsatz des Ind. FTA-, 60% beim 903- und 70% beim FTA Elute-Filterpapiers. Im Vergleich zur PCR aus mit Qiagen isoliertem Urin erreichte die Methode eine Sensitivität von jeweils 58,3% mit Ind. FTA-, 50% mit dem 903-, und 83,3% mit FTA Elute-Filterpapier. Eine Korrelation zwischen Viruslast in der Filterpapier-Probe und in der mit Qiagen isolierten Urinprobe bestand nur beim FTA Elute Filterpapier. Der Nachweis von HCMV-DNA aus auf FTA Elute-Filterpapier getrockneten Urinproben scheint ein vielversprechender Ansatz in der HCMV-Diagnostik zu sein. Um diese Methode für epidemiologische und/oder diagnostische Zwecke empfehlen zu können, müssten noch umfangreichere klinische Studien durchgeführt werden.
Prothesenallergie : Diagnostik und Risikobewertung bei 172 Patienten mit Gelenk- oder Zahnersatz
(2014)
Komplikationen nach prothetischer Versorgung wirken sich häufig gravierend auf die Lebensqualität der betroffenen Patienten aus. Welche Rolle eine Prothesenallergie als Ursache der Beschwerden spielt, ist bisher nicht hinreichend geklärt. In dieser Arbeit werden 172 Patienten auf die Häufigkeiten prothesenrelevanter Sensibilisierungen sowie deren Korrelation mit der klinischen Symptomatik und allergischer Vorgeschichte untersucht. Das Kollektiv gliedert sich in orthopädische und zahnärztliche Patienten, die entweder vor einer Prothesenimplantation oder nach erfolgter Behandlung getestet wurden. Alle Patienten erhalten einen Epikutantest, der neben häufigen Kontaktallergenen auch die jeweils prothesenspezifischen Stoffe enthält. Die statistische Auswertung erfolgt zunächst mit der Einteilung der Patienten in übergeordnete Kohorten, innerhalb derer die Korrelation jeweils eines speziellen Merkmals mit der Häufigkeit von Sensibilisierungen untersucht wird. Die untersuchten Merkmale sind: Orthopädische gegenüber zahnärztlichen Patienten, präoperative gegenüber postoperativen Beschwerden, Patienten mit gegenüber Patienten ohne atopische Diathese, das Geschlecht und Patienten mit beziehungsweise ohne Typ IV-Allergie. Eine weitere Aufarbeitung erfolgt nach Einteilung in sechs Patientengruppen. Die untersuchten Patientengruppen umfassen die Eigenschaften Prothesenträger, bekannte Typ IV-Allergie, bekannte atopische Diathese, aktuelle prothesenassoziierte Beschwerden beziehungsweise das Fehlen dieser Eigenschaften.
Frühere Studien haben gezeigt, dass während des hämorrhagischen Schocks freie Radikale gebildet werden. Diese reaktiven Sauerstoffverbindungen und reaktiven Stickstoffverbindungen spielen eine ursächliche Rolle beim Multiorganversagen. ZIEL: Es sollte die Hypothese überprüft werden, ob die enterale Applikation eines polyphenolhaltigen Extraktes des chinesischen Grünen Tees (Camellia sinensis/GTE) die Bildung freier Radikale verringert, die Organschäden und die Mortalität bei Ratten nach hämorrhagischen Schock und Reperfusion beeinflusst. METHODE: Gruppen von weiblichen Sprague Dawley Ratten wurden entweder mit 100 mg GTE/kg Körpergewicht oder Placebo zwei Stunden vor dem hämorrhagischen Schock gavagiert. Die Hypothese wurde anhand zweier Schockmodelle überprüft: 1.) Nicht-Überlebensmodell: Entnahme von Blut bis ein mittlerer arterieller Blutdruck von 40 mmHg erreicht war, gefolgt von zunehmender Entnahme über eine Stunde bis dann ein mittlerer arterieller Druck von 28 mmHg erreicht war (schwerer hämorrhagischer Schock), 2.) Überlebensmodell: Entnahme von Blut bis ein mittlerer arterieller Blutdruck von 40 mmHg erreicht war, welcher dann für eine Stunde konstant gehalten wurde (moderater hämorrhagischer Schock). Alle Ratten wurden dann über eine Stunde mit 60% des bis dahin entnommenen Blutes plus das doppelte Volumen hiervon als Ringerlaktat- Lösung reperfundiert. 10 Minuten und zwei Stunden nach Ende der Reperfusion wurden Blutproben entnommen. 18 Stunden nach Reperfusion wurden die Lebern zur Zytokinmessung und Bestimmung von 3-Nitrotyrosin mittels ELISA sowie zur immunhistochemischen Darstellung von 4-Hydroxynonenal entnommen. ERGEBNISSE: Im schweren hämorrhagischen Schock stieg die Überlebensrate im Beobachtungszeitraum von 18 Stunden von 20% (2 von 10) bei placebobehandelten Ratten und auf 70% (7 von 10) bei mit GTE behandelten Ratten (p < 0.02). Im moderaten hämorrhagischen Schock war die Überlebensrate höher (80%) und es bestand kein Unterschied zwischen mit GTE und placebobehandelten Gruppen. Im moderaten hämorrhagischen Schock stieg jeweils die Alaninaminotransferase (ALT) 10 Minuten und zwei Stunden nach Reperfusion auf 345 ± 12 und 545 ± 13 IU/l. Die Behandlung mit GTE verringerte die ALT-Freisetzung auf 153 ± 9 und 252 ± 12 IU/l 10 Minuten und zwei Stunden nach Reperfusion (p < 0,01). TNF-α im Lebergewebe war in placebobehandelten Ratten höher (5,76 ± 0,62 pg/mg) im Vergleich zu GTE gavagierten Ratten (4,02 ± 0,26 pg/mg, p < 0,05). IL-1β im Lebergewebe war ebenfalls bei placebobehandelten Ratten höher (0,8 ± 0,18 pg/mg) im Vergleich zu GTE behandelten Ratten (0,37 ± 0,07 pg/mg, p < 0,05). Analoges galt für IL-6 (6,93 ± 0,48 vs. 5,15 ± 0,58 pg/mg, p < 0,04). Auch 3-Nitrotyrosin war in den Lebergeweben der placebobehandelten Ratten höher (1,88 ± 0,51 pg/mg) als in den GTE behandelten Ratten (0,63 ± 0,23 pg/mg, p < 0,04). Immunhistochemische Färbung von Lebergewebe, welches 18 Stunden nach Reperfusion zur Darstellung von 4-Hydroxynonenal entnommen wurde und welches als Maß für die Lipidperoxidation gilt, sank von 4,81 ± 0,99 % in placebobehandelten Ratten auf 1,46 ± 0,42 % in GTE behandelten Ratten (p < 0,02). SCHLUSSFOLGERUNG: Enterale Applikation von GTE Polyphenolen erscheint im hämorrhagischen Schock und Reperfusion von Vorteil.
Protein S-100B als Serummarker der zerebralen Schädigung bei pädiatrischen Schädel-Hirn-Verletzungen
(2009)
Protein S-100 ist ein Calcium-bindendes Protein, das die Aktivität seiner Zielproteine moduliert. Der Aufgabenbereich umfasst die Regulation von Zellwachstum und Zellstrukturbildung. Entdeckt wurde es im Jahre 1965 von B.W. Moore, der es erstmals aus Rinderhirn isolierte. Seinen Namen erhielt es aufgrund seiner Löslichkeit in 100% gesättigtem Ammoniumsulfat bei neutralem ph-Wert. Protein S-100 besteht aus mehreren Untereinheiten, von denen S-100B nur im Hirngewebe vorkommt, hauptsächlich im Zytosol von Gliazellen. Bei astroglialer Zerstörung und konsekutiver Störung der Blut-Hirn-Schranke können erhöhte Konzentrationen von Protein S-100B im Serum gemessen werden. Durch seine spezifische Herkunft besitzt Protein S-100B einen potentiellen Wert als biochemischer Marker einer strukturellen Hirnschädigung. Ziel dieser Studie ist die Überprüfung des posttraumatischen Protein S-100B Serumspiegels bezüglich seiner Korrelation mit dem Schweregrad kindlicher Schädel-Hirn-Verletzungen und deren Prognose. In Form einer prospektiven Studie wurden insgesamt 45 Kinder (23 Jungen und 22 Mädchen) zwischen 4 Monaten und 17 Jahren (Mittelwert 7,64 Jahre) mit Hirnverletzungen unterschiedlicher Schweregrade untersucht, bei denen innerhalb der ersten 20 posttraumatischen Stunden mittels eines immunoluminometrischen Assays die Protein S-100B Serumkonzentration bestimmt wurde. Der Normalbereich für Protein S-100B liegt bei < 0,15 µg/l. Werte zwischen 0,15 und 0,5 µg/l gelten als leichtgradig erhöht, Werte über 0,5 µg/l als deutlich erhöht. Die S-100B-Werte wurden mit den klinischen Daten und dem posttraumatischen Outcome (Nachbeobachtungszeit mindestens 6 Monate) korreliert. Die statistischen Signifikanzberechnungen erfolgten mittels des Fisher-Exact-Tests.Die gemessenen S-100B Werte lagen zwischen 0,05 und 3,05 µg/l (Mittelwert 0,46 µg/l). Die mittlere Latenzzeit der posttraumatischen Protein S-100B Bestimmung betrug 5 Stunden. 38 % der Kinder zeigten leichtgradige Erhöhungen (>= 0,2-0,5 µg/l), 29 % deutliche Erhöhungen (> 0,5 µg/l). Niedrige Punktwerte in der initialen Glasgow-Coma-Scale (GCS) bedeuteten im Mittel höhere Werte für Protein S-100B. Ein initialer GCS-Wert von unter 8 ging in allen Fällen mit S-100B Werten über 0,5 µg/l einher (p=0,005). In Fällen ohne Verlust des Bewusstseins, bzw. maximal einer leichten Eintrübung des Bewusstseins (Lange-Cosack I-II) lagen die S-100B Werte im Mittel niedriger als bei Vorliegen eines Bewusstseinsverlustes (III-IV). Ein Bewusstseinsverlust ging immer mit einem S-100B Wert von mindestens 0,2 µg/l einher (p=0,04), meist lag der Wert über 0,5 µg/l (p=0,015). 25 Kinder erhielten eine Computer- und /oder Magnetresonanztomographie. Hier zeigten sich erhöhte S-100B Werte vor allem bei schweren Kontusionen und Subduralblutungen. Den höchsten Wert (3,05 µg/l) wies ein Kind mit ausgedehnten diffusen axonalen Verletzungen auf. Bei 38 der 45 Patienten konnte nach einer durchschnittlichen Nachbeobachtungszeit von 27,5 Monaten das neurologische Outcome (Glasgow Outcome Scale, GOS) erhoben werden. 8 Kinder (21 %) wiesen neurologische Residuen auf, vor allem Koordinationsstörungen und Verlangsamungen im Sinne eines Psychosyndroms, 1 Kind verstarb im Akutverlauf an einem malignen Hirnödem. Die Kinder mit posttraumatischen Residuen / Behinderungen wiesen im Mittel tendenziell höhere Werte für Protein S-100B auf. Die unterschiedlichen Beschwerdebilder und Residualzustände nach leichten und schweren Schädel-Hirn-Verletzungen lassen sich anhand der etablierten klinischen, neurophysiologischen und neuroradiologischen Prognosemarker bislang nur bedingt vorhersagen. Die Ergebnisse dieser Untersuchung zeigen gute Korrelation des Serum S-100B Wertes mit der Schwere und Dauer der initialen Bewusstseinsstörung sowie dem Ausmaß der hirnparenchymatösen Läsionen. Die Aussagekraft bezüglich des posttraumatischen Outcomes ist aufgrund der Fallzahl und der zu einem großen Teil einbezogenen leichten Schädel-Hirn-Verletzungen begrenzt. Die Untersuchungsergebnisse unterstützen die bei Erwachsenen erhobenen Daten und zeigen, dass Protein S-100B auch im Kindesalter einen viel versprechenden Parameter zur Objektivierung einer akuten Hirnschädigung darstellt und bereits zu einem frühen posttraumatischen Zeitpunkt einen Beitrag zur Beurteilung des Schweregrades und der Prognose von Schädel-Hirn-Verletzungen leisten kann. Der posttraumatische Protein S-100B Serumwert bringt hier als biochemischer Marker eine zusätzliche Information und kann so bei der Einschätzung und Initiierung von diagnostischen, therapeutischen, rehabilitativen und Follow-up-Maßnahmen hilfreich sein.
Aufgrund wachsender Evidenz zu guten Langzeitergebnissen und geringen Komplikationsraten gewinnt die Prostataarterienembolisation (PAE) in der Therapie des Benignen Prostatasyndroms an Bedeutung. Durch ihren hohen technischen Anspruch bedarf es im Vorfeld einer umfassenden Untersuchung der Beckengefäßanatomie. Das Vorliegen eines zum Teil jungen Patientenkollektivs rückt zudem das Einsparen von Strahlung in den Fokus. In diesem Rahmen gewinnt die Magnet-Resonanz-Angiografie (MRA) an Aufmerksamkeit. Obwohl bereits erste Studien Erfolg versprechen, wird die MRA zur PAE-Planung zum Teil kritisch betrachtet, da sie aufwändiger und in der Auflösung unterlegen sei. In dieser Arbeit wurde untersucht, welche Vorteile die MRA im Zuge der PAE-Planung bietet und ob die klinische Effektivität der PAE unbeeinträchtigt bleibt. Weiterhin wurde untersucht, ob eine erfolgreiche MRA-geführte Planung die benötigte Strahlendosis reduziert.
In diese retrospektive Analyse wurden 56 Patienten, die zwischen Januar 2017 und April 2018 im Frankfurter Institut für Diagnostische und Interventionelle Radiologie eine PAE erhielten und bei denen ein vollständiger, die Interventionszeit und Strahlungsparameter umfassender Datensatz sowie eine MRA vor der PAE vorlagen, eingeschlossen. Zusätzlich wurden mittels International Prostate Symptom Score (IPSS), Quality of Life (QoL) und International Index of Erectile Function (IIEF) klinische Daten vor und nach der PAE erhoben. In der Magnet-Resonanz-Tomografie (MRT) vor der PAE wurden das Prostatavolumen, die Intravesical Prostatic Protrusion (IPP) und der Prostatic Urethral Angle (PUA) untersucht. Zur Analyse der Prostataarterie wurden Maximum Intensity Projection (MIP) und ein dreidimensionales Modell verwendet. Um die Auswirkungen einer erfolgreichen Urspungsanalyse auf Interventionszeit und Strahlungsparameter zu untersuchen, wurden diese Faktoren zwischen zwei Gruppen verglichen. In der ersten Gruppe konnte die Prostataarterie mittels MRA ermittelt werden, in der zweiten Gruppe war dies v.a. aufgrund von technischen Mängeln der Bildakquisition nicht möglich.
Der Nachweis des Ursprungs gelang bei 84,73% (111 von 131) der Prostataarterien, davon entsprangen 52,25% der A. pudenda interna, 18,92% zusammen mit der A. vesicalis superior, 13,51% seltenen Ursprüngen, 10,81% der A. obturatoria und 4,51% der vorderen Division der A. iliaca interna unterhalb der A. vesicalis inferior. Die Gruppe mit erfolgreicher Ursprungsanalyse mittels MRA zeigte signifikant geringere Werte in Fluoroskopiezeit (-26,96%, p = 0,0282), Dosisflächenprodukt (-38,04%, p = 0,0025) und Eingangsdosis (-37,10%, p = 0,0020). Die PAE bedingte eine signifikante Verbesserung in IPSS (p < 0,0001), Lebensqualität (p < 0,0001) und IIEF (p = 0,0016), dabei konnte der von den Patienten angegebene IPSS-Wert um durchschnittlich 9,42 Punkte (-43,37%) und der QoL-Wert um 2 Punkte (-50,00%) reduziert werden. Das Prostatavolumen (p < 0,0001), IPP (p = 0,0004) und PUA (p < 0,0001) zeigten sich ebenfalls signifikant reduziert. Das Volumen der Prostata schrumpfte um 4,92 ml (-8,35%), die IPP um 1,2 mm (-9,2%) und der PUA um 5,5° (-8,10%). Signifikante Zusammenhänge konnten zwischen IPSS- und QoL-Reduktion (p < 0,0001, r = 0,7555), sowie zwischen Höhe des IPSS vor der PAE und der absoluten IPSS-Reduktion (p = 0,0041, r = -0,4434) nachgewiesen werden.
Die MRA ermöglicht eine strahlungsfreie Analyse des Abgangs der Prostataarterie. Durch diese Auswertung konnte die benötigte Strahlendosis signifikant reduziert werden. Die MRA-geplante PAE erzielte eine deutliche Verbesserung der Symptomatik und der Lebensqualität. Die erektile Funktion konnte signifikant verbessert werden. Prostatavolumen, IPP und PUA zeigten zwar signifikante Veränderungen, wiesen jedoch keinen Zusammenhang zu klinischen Entwicklungen auf. Zwischen dem Ausgangsvolumen der Prostata und dem klinischen Ergebnis konnte ebenfalls keine signifikante Korrelation festgestellt werden, jedoch scheint der Ausgangswert des IPSS eine prädiktive Funktion zu haben.
Die MRA-geplante PAE ist klinisch effektiv und ermöglicht durch die Analyse der Prostataarterie eine Reduktion der benötigten Strahlung. Zusammen mit der MRT unterstützt sie die Indikationsstellung und Planung der PAE.
Menschen mit Epilepsie (engl. PWE) haben im Vergleich zur Allgemeinbevölkerung ein erhöhtes Risiko, vorzeitig zu versterben. Der plötzliche, unerwartete Tod bei Epilepsie (engl. Sudden Unexpected Death in Epilepsy, kurz SUDEP) stellt die häufigste epilepsiebedingte Todesursache dar. Obwohl das Thema in Fachkreisen zunehmende Aufmerksamkeit erfährt, die Empfehlung zur SUDEP Aufklärung zunehmend in nationalen Leitlinien aufgenommen wird, und der Patientenwunsch nach einer generellen SUDEP Aufklärung in verschiedenen Studien gezeigt werden konnte, besteht weiterhin ein Informationsdefizit unter PWE. Ursache hierfür scheint insbesondere die Sorge der behandelnden Neurolog*innen zu sein, Menschen mit Epilepsie übermäßig emotional zu belasten und ihre Lebensqualität zu mindern. Diese Studie untersucht sowohl das Vorwissen über SUDEP als auch unmittelbare sowie langfristige Auswirkungen einer SUDEP Aufklärung auf Erwachsene mit Epilepsie. Ziel ist mögliche negative Auswirkungen der Aufklärung sowie Auswirkungen auf das Verhalten aufzudecken. Aus diesem Zweck wählten wir ein prospektives, multizentrisches, longitudinales Studiendesign. Die Daten wurden in halbquantitativen Interviews vor (vor der Aufklärung), unmittelbar nach (nach der Aufklärung) und drei Monate nach (3-Monats Follow-up) der SUDEP Aufklärung erhoben. Um die direkte Vergleichbarkeit zwischen den Zeitpunkten zu ermöglichen wurden folgende validierte Instrumente verwendet: das Neurological Disorders Depression Inventory for Epilepsy (NDDI-E) zur Erfassung depressiver Symptome, der EuroQoL (EQ-5D) zur Erfassung der gesundheitsbezogenen Lebensqualität (HRQoL), eine visuelle Analogskala (VAS) zur Erfassung des allgemeinen Gesundheitszustandes, die revised Epilepsy Stigma Scale (rESS) zur Erfassung der wahrgenommenen Stigmatisierung und die Seizure Worry Scale zur Erfassung anfallsbezogener Sorgen. Insgesamt wurden 236 Teilnehmende (Durchschnittsalter: 39,3 Jahre, Spannweite: 18-77 Jahre, 51,7 % Frauen) in die Studie eingeschlossen. 205 (86,9 %) der Teilnehmenden konnten erneut im Langzeit Follow-up nach drei Monaten befragt werden. Eine der Teilnehmenden verstarb im Zeitraum des Follow-ups an SUDEP. Keines der validierten Instrumente zeigte zwischen den Zeitpunkten vor der Aufklärung und dem 3-Monats Follow-up eine Verschlechterung. Vor der Aufklärung hatten nur 27,5 % der Teilnehmenden von SUDEP gehört, und nur 9,3 % gaben an, diese Informationen von ihrer bzw. ihrem Neurolog*in erhalten zu haben. Nach der Aufklärung gaben mehr als 85 % der Teilnehmenden an, mit der SUDEP Aufklärung zufrieden oder sehr zufrieden zu sein. Drei Viertel der Teilnehmenden gaben an, durch die Aufklärung nicht oder überhaupt nicht belastet zu sein. Mehr als 80 % der Teilnehmenden befürworteten eine generelle SUDEP Aufklärung für alle Menschen mit Epilepsie. Bei dem 3-Monats Follow-up gab die Mehrheit der Teilnehmenden an, keine Verhaltensänderung vorgenommen zu haben, 24,8 % berichteten jedoch von starken Verhaltensänderungen.
Unsere Studie zeigt, dass eine SUDEP Aufklärung keine negativen Auswirkungen auf den allgemeinen Gesundheitszustand, die HRQoL, depressive Symptome, krankheitsbezogene Stigmatisierung oder Sorgen vor Anfällen hat. Insgesamt zeigte sich eine hohe Zustimmung zur SUDEP Aufklärung. Eine generelle SUDEP Aufklärung könnte sich zudem positiv auf die Compliance auswirken und das Mortalitätsrisiko senken. Eine SUDEP Aufklärung bietet allerdings keinen sicheren Schutz vor SUDEP.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Hintergrund: Seit mehr als 50 Jahren werden in Deutschland Herzschrittmacher-Implantationen durchgeführt, mittlerweile mit mehr als 100.000 Implantationen pro Jahr. Obwohl es sich um einen gängigen Eingriff handelt, existieren wenig prospektiv randomisierte Studien zu technischen Aspekten der Implantation, insbesondere dem Wundverschluss am Ende der Operation. Ziel der vorliegenden Arbeit war es, an einem Kollektiv von Patienten unerwünschte Ereignisse und kosmetische Ergebnisse, in Abhängigkeit des beim Hautverschluss verwendeten Nahtmaterials (resorbierbarer bzw. nicht-resorbierbarer Faden), miteinander zu vergleichen.
Methoden: In einem Zeitraum von Juli 2018 bis April 2019 wurden Patienten mit geplanter de novo Herzschrittmacher-Implantation ohne Defibrillationstherapie prospektiv in die Studie eingeschlossen und anhand einer Randomisierungliste in zwei Probandengruppen eingeteilt: nicht-resorbierbares Nahtmaterial (Gruppe Prolene®) bzw. resorbierbares Nahtmaterial (Gruppe Monocryl®).
Ein Tag (Beobachtungszeitpunkt 1), sechs Wochen (Beobachtungszeitpunkt 2) und ein Jahr post-OP (Beobachtungszeitpunkt 3) erfolgte die Beurteilung der Narbe bezüglich des kosmetischen Ergebnisses und klinisch relevanter, unerwünschter Ereignisse. Zur kosmetischen Beurteilung diente die Wundbreite in mm, eine auftretende Kelloidbildung und die „Patient and Observer Scar Assessment Scale“ (POSA-Score). Dieser wurde zu Beobachtungszeitpunkt 1 seitens des Patienten auf zwei Fragen (Schmerzhaftigkeit, Juckreiz) reduziert. Die erhobenen klinisch relevanten Parameter waren Nachblutungen, Infektionen, Insuffizienz der Naht und Revisions-OP aufgrund eines Lokalbefundes.
Ergebnisse: Es konnten 114 Patienten in die Studie eingeschlossen werden. Zu Beobachtungszeitpunkt 2 und Beobachtungszeitpunkt 3 belief sich die Anzahl auf jeweils 92 Probanden. Zu allen drei Beobachtungszeitpunkten konnte zwischen beiden Gruppen weder ein signifikanter Unterschied im kosmetischen Ergebnis noch im Auftreten klinisch relevanter Ereignisse festgestellt werden.
Schlussfolgerung: Anhand der vorliegenden Studie scheint das verwendete Nahtmaterial keinen großen Einfluss auf das kosmetische Ergebnis der Narbe, sowie auf das Auftreten von unerwünschten Ereignissen zu haben. Eine multizentrische prospektiv randomisierte Studie mit größerer Patientenanzahl ist notwendig, um die hier erhobenen Daten zu verifizieren.
Konuskronen verankerter Zahnersatz hat sich seit mehreren Jahrzehnten als hervorragende Therapieform zur Versorgung des reduzierten Restgebisses bewährt und verbindet zahlreiche Vorteile des festsitzenden mit denjenigen des herausnehmbaren Zahnersatzes. Vor dem Hintergrund einer steigenden Relevanz ästhetischer Versorgungen sowie einer größer werdenden Ablehnung der Patienten hinsichtlich der Verwendung metallischer Werkstoffe, gewann das Ziel, auch kombiniert festsitzend-herausnehmbaren Zahnersatz metallfrei zu fertigen, zunehmend an Bedeutung. Ziel der vorliegenden prospektiven klinischen Studie war die Evaluation des klinischen Langzeitverhaltens von keramischen Primärkronen aus IPS Empress 2® kombiniert mit Sekundärkronen und Prothesengerüsten aus faserverstärktem Kunststoff (Vectris®) sowie die Untersuchung der Patientenzufriedenheit. Als Kontrollgruppe dienten keramische Primärkronen mit Sekundärkronen aus Galvanogold und metallischen Gerüsten. Dazu wurden 29 Patienten mit insgesamt 37 Konusprothesen auf 165 keramischen Primärkronen versorgt, 27 (73%) Prothesen entfielen auf die Kontrollgruppe und 10 (27%) Prothesen auf die Testgruppe. Eingebunden in ein Recall-System, wurden die Patienten in halbjährigen Abständen über einen Zeitraum von 5 Jahren nachuntersucht. Zur Evaluation der Patientenzufriedenheit erhielten die Studienteilnehmer jeweils vor Therapiebeginn, nach Fertigstellung der Konusprothesen und im einjährigen Abstand einen Fragebogen. Die Zeit unter Risiko betrug durchschnittlich 59 ± 22 Monate (min. 16, max. 96 Monate), Befragungen hinsichtlich der Patientenzufriedenheit wurden über 46 ± 18 Monate durchgeführt (min. 15, max. 66 Monate). Beide Gruppen zeigten eine vergleichbar hohe Reparaturanfälligkeit. 88,9% der Restaurationen in der Kontrollgruppe, sowie 90% der Restaurationen in der Testgruppe mussten mindestens einmal instand gesetzt werden (Mann-Whitney-U-Test, p = 0,121). Auch das Schadensrisiko der vollkeramischen Primärkronen zeigte keine statistischen Unterschiede (Testgruppe: 10,81%; Kontrollgruppe: 10,16%; exakter Fisher-Test, p > 0,05). Die Häufigkeit einer Neuanfertigung der Konusprothese war bei der Test-Gruppe (40%) höher als bei der Kontroll-Gruppe (14,8%), ein statistisch signifikanter Unterschied war zwischen beiden Gruppen nicht nachzuweisen (exakter Fisher-Test, p = 0,16). Die Erfolgsrate zeigte in Abhängigkeit der Zeit unter Risiko jedoch ab 2,5 Jahren schlechtere Werte bei metallfreien Prothesen als bei der Kontrollgruppe, nach etwa 5 Jahren nahm dieser Unterschied deutlich zu (Kontrollgruppe: 86%, Testgruppe: 24%) und unterschied sich statistisch signifikant (Log-Rank-Test, p=0,041). Bei drei der 128 Galvano-Matrizen kam es zu einer Beschädigung an den Sekundärstrukturen, bei 9 von 37 Matrizen aus glasfaserverstärktem Kunststoff trat ein Schaden auf. Dieser Unterschied war statistisch hochsignifikant und belegt, dass Vectris®-Mesostrukturen eher zum Versagen neigen als Galvano-Sekundärkronen (exakter Fisher-Test, p = 0,00008). Im Gegensatz zu den durchaus unterschiedlichen klinischen Ergebnissen und den unbefriedigend hohen Reparaturzahlen war die Patientenzufriedenheit mit den jeweiligen Studienprothesen für beide Gruppen vergleichbar gut. Zu keinem Zeitpunkt zeigte sich eine relevante Personenzahl in einer der Gruppen mit dem erhaltenen Zahnersatz unzufrieden. So war in der Testgruppe initial lediglich eine Person unzufrieden, änderte diese Einstellung jedoch im Rahmen der weiteren Kontrollen. Eine weitere Person war anfangs zufrieden, dann vorübergehend unzufrieden, um im Weiteren erneut ihre Zufriedenheit zu äußern. Für die Metallgruppe ergab sich lediglich in der letzten Nachkontrolle eine Person, die unzufrieden mit dem Zahnersatz war. Statistisch signifikante Unterschiede zwischen den Gruppen waren somit zu keinem Zeitpunkt nachzuweisen (exakter Fisher-Test, alle p > 0,05). Die vorliegende Untersuchung bestätigt, dass sich die Verwendung keramischer Primärkronen in Doppelkronenrestaurationen prinzipiell bewährt und die Anforderungen an die gestellten Parameter wie Haftkraftstabilität, Biokompatibilität und Ästhetik erfüllt. Jedoch weist die Lithiumdisilikat-Glaskeramik IPS Empress 2® eine unzureichende Stabilität auf, für diesen Indikationsbereich sind daher ausschließlich hochfeste Zirkoniumdioxid-Keramiken zu empfehlen. Mit diesem Material ist ein wesentlich geringeres Reparaturrisiko zu erwarten. Als Matrizenwerkstoff zeigten galvanogeformte Sekundärkappen sehr gute klinische Ergebnisse. Die hohe Passungspräzision, welches durch die intraorale Fügung erreicht wird, gewährleistet eine ideale Lagerung des Zahnersatzes und reduziert kinetikbedingte Schäden auf ein Minimum. Das Ziel der Untersuchung, die dauerhafte klinische Bewährung metallfreier Konusprothesen aus dem Glasfaserverbundmaterial Vectris® nachzuweisen, konnte nicht erreicht werden. Die Ergebnisse dieser prospektiven klinischen Studie belegen eine Überlegenheit der metallischen Konusprothese. Somit bedarf die Realisation einer klinisch verlässlichen metallfreien Konusprothese noch erheblichen Forschungs- und Entwicklungsbedarf. Insbesondere die Substitution von galvanogeformten Feingoldmatrizen stellt eine große Herausforderung dar.
Die Appendizitis stellt mit einer Inzidenz von 115 pro 100000 Einwohnern in Deutschland eine der häufigsten Ursachen für ein akutes Abdomen dar. Bakterielle Infektionen sind ein wesentlicher Faktor für die postoperative Morbidität nach Appendektomie.
Ziel dieser prospektiven Studie war es, das Keimspektrum und insbesondere die Prävalenz resistenter Keime bei der akuten Appendizitis zu bestimmen und die Auswirkungen resistenter Keime auf das Auftreten infektiöser Komplikationen zu analysieren. Alle erwachsenen Patient*innen mit akuter Appendizitis, die zwischen April 2022 und Juli 2023 am Universitätsklinikum Frankfurt operativ behandelt wurden, wurden prospektiv eingeschlossen. Das Keimspektrum der Appendix und die Häufigkeit von MRE in Rektalabstrichen wurden analysiert. Die klinischen Daten wurden extrahiert, um die Korrelation des Keimspektrums mit dem Auftreten von postoperativen Komplikationen, Dauer und Art der Antibiotikatherapie und dem postoperativen Verlauf zu evaluieren. 30 Tage nach der Operation wurde ein Follow-up durchgeführt. Insgesamt wurden 105 Patient*innen in die Studie eingeschlossen.
In den Appendixabstrichen gelang ein Erregernachweis bei 67,6 % aller Fälle. Hierbei betrug die Prävalenz von Keimen mit Antibiotikaresistenz 43,8 %, Multipler-Antibiotikaresistenz (MAR) 27,6 % und bei 5,7 % der Fälle gelang ein MRE-Nachweis nach CDC im Appendixabstrich. Beim MRE-Screening konnten im Rektalabstrich bei 11,4 % der Patient*innen ein MRE nachgewiesen werden. In vier Fällen zeigte sich eine Übereinstimmung zwischen rektalen und appendikulären Abstrich, somit betrug die Sensitivität des MRE-Screenings für einen Nachweis multiresistenter Keime in der Appendix lediglich 33,3 % bei einer Spezifität von 86,7 %. In einer univariaten Analyse konnte das Vorliegen eines Diabetes mellitus als Risikofaktor für das Auftreten von Keimen mit Cefuroxim- Resistenz, Multipler-Antibiotikaresistenz (MAR) und MRE identifiziert werden.
Insgesamt erhielten 47,6 % aller Patient*innen postoperativ eine Antibiotikatherapie, von denen erfolgte bei 46 % eine Umstellung der empirischen Antibiose auf eine antibiogramm-gerechte Therapie nach Erhalt des mikrobiologischen Befundes. Insbesondere Patient*innen mit komplizierter Appendizitis erhielten postoperativ eine Antibiotikatherapie, wobei 28 % eine Antibiotikaeskalation benötigten.
Patient*innen, deren Appendixabstriche eine Resistenz gegen maximal ein Antibiotikum aufwiesen, wurden als nicht multiple Resistenz (Nicht-MAR) definiert und mit Patient*innen verglichen, deren Keime mit multipler Antibiotikaresistenz (MAR) waren. Die MAR-Gruppe zeigte im Vergleich zur Nicht-MAR-Gruppe eine höhere Inzidenz postoperativer Komplikationen, insbesondere eine erhöhte Inzidenz von Clavien-Dindo Grad 3 Komplikationen sowie von tiefen postoperativen Wundinfektionen (CDC Grad A3). Weiterhin benötigten Patient*innen der MAR-Gruppe häufiger eine postoperative Antibiotikatherapie und es erfolgte häufiger eine Eskalation der antibiotischen Therapie. Dies ging auch mit einem signifikant verlängerten Krankenhausaufenthalt einher.
Zusammenfassend kann festgestellt werden, dass eine bakterielle Infektion mit Multipler Antibiotikaresistenz bei der akuten Appendizitis häufig auftritt und die Morbidität nach Appendektomie beeinflusst. Die mikrobiologische Untersuchung mittels Appendixabstrich bei operativ behandelten Fällen von akuter komplizierter Appendizitis, die eine postoperative Antibiotikatherapie erfordern, könnte somit eine gezielte und kürzere Antibiotikatherapie ermöglichen. Dies könnte dazu beitragen, längere Krankenhausaufenthalte zu vermeiden, den unnötigen Einsatz unwirksamer Antibiotika zu reduzieren und die Kosten im Gesundheitswesen zu senken.
Diese Arbeit beschäftigt sich mit der Frage, ob Schmerzschwellen für unterschiedliche Stimuli voneinander unabhängige Aspekte des Schmerzes oder ein gemeinsames Phänomen messen. In ersterem Fall würden unterschiedliche Reize benötigt, um die Schmerzempfindlichkeit eines Individuums vollständig zu charakterisieren. In letzterem Fall wären verschiedene Reize hierzu überflüssig, wobei sie allerdings dafür verwendet werden könnten, Summen-Scores aus den verschiedenen Schmerzmodalitäten zu errechnen. Für diese Arbeit wurden bei 45 gesunden Männern und 32 gesunden Frauen (im Alter von 20-44 Jahren) Schmerzschwellen für mehrere Reize (Wärme, Wärme / Capsaicin, Kälte, Kälte / Menthol, stumpfer Druck, 5-Hz Wechselstrom (0-20 mA), spitzer Druck (von Frey-Haare), und von Frey-Haare / Capsaicin) gemessen. Diese Schmerzschwellen waren signifikant miteinander korreliert. Eine daraufhin durchgeführte Hauptkomponentenanalyse ergab, dass die Varianz der Schmerzschwellen mehr auf die Unterschiede zwischen den Subjekten zurückzuführen ist (variance estimate: 0,393), als auf die Unterschiede der Schmerzreize bei jeweils einem Subjekt (variance estimate: -0,008). Unter den drei wichtigsten Hauptkomponenten der Korrelationsmatrix mit Eigenwerten > 1, erklärte die größte 48% der Varianz der Schmerzschwellen, wobei sie starke Ladungen von allen Schmerzreizen erhielt, was für eine starke gemeinsame Varianzquelle spricht. Nur zwei kleinere Hauptkomponenten, die jeweils weniger als 14% der gesamten Varianz erklären, deuten auf eine weitere Differenzierung der Schmerzarten hin. Das Muster von Ähnlichkeiten und Unterschieden innerhalb dieser Komponenten stimmt jedoch mit bereits bekannten molekularen Mechanismen der Nozizeption überein. Dies führt zu dem Schluss, dass die Charakterisierung einer Person als allgemein schmerzempfindlich oder schmerzunempfindlich, zumindest auf Schmerzschwellen-Ebene, gerechtfertigt erscheint. Außerdem befasst sich diese Arbeit mit der Frage, ob Sensibilisierungsverfahren, wie sie in der experimentellen Schmerzforschung zum Einsatz kommen, zusätzliche qualitative Komponenten bei der Schmerzmessung hinzufügen, sodass eine andere Art von Schmerz entsteht, oder ob die Sensibilisierung sich auf quantitative Veränderungen beschränkt, die sich ausschließlich in einer höheren Intensität der gleichen Schmerzart äußert. Hierfür wurde das Probandenkollektiv vergrößert (insgesamt 69 Männer und 56 Frauen im Alter von 18 bis 46 Jahren), indem die o. g. Schmerzmessungen bei weiteren Testpersonen durchgeführt wurden. Für die nachfolgende Analyse wurden nur Daten von den Schmerzmodellen Hitze, Kälte und von Frey-Haare, jeweils mit und ohne Capsaicin- bzw. Menthol-Sensibilisierung verwendet. Die Ergebnisse zeigen, dass die Sensibilisierung den Anteil derjenigen Werte in den Daten verringert, an denen die Schmerzschwelle das technische Limit des Modellversuchs von 52,5°C bzw. 0°C bzw. 300 g von Frey, erreicht. Die Anzahl der Probanden, die diese Werte erreichten, wurde von 38 auf 21 Patienten beim von Frey-Haar-Versuch und von 30 auf 19 Patienten mit Kälte-Versuch (χ exp 2 -Tests: P < 0,001) verringert, während die Schmerzschwellen beim Hitze-Versuch nie das technische Maximum erreichten. Bei den 75 Patienten ohne Werte am technischen Limit senkte die Capsaicin-Sensibilisierung die Hitze-Schmerzschwelle von 44,7 ± 2,1°C auf 36,8 ± 3,3°C und die von Frey-Schmerzschwelle von 78,2 ± 74g auf 33,9 ± 37,8g. Die Menthol-Sensibilisierung senkte die Kälte-Schmerzschwelle von 13 ± 8,4°C auf 19,3 ± 9,2°C (Paarvergleiche: alle P < 0,001). Für jedes Schmerzmodell konnte durch eine Hauptkomponentenanalyse nur je eine einzige Hauptkomponente mit einem Eigenwert > 1 identifiziert werden, die jeweils 64,8%, 84,8% und 94,4% der gesamten Varianz für Hitzeschmerz, von Frey-Haar-Schmerz bzw. Kälteschmerz erklärt, was darauf hinweist, dass die Schwellen für nicht sensibilisierten und sensibilisierten Schmerz eine gemeinsame Varianzquelle haben. Daraus kann geschlossen werden, dass die Hauptwirkung der Sensibilisierung in einer quantitativen Abnahme der thermischen und mechanischen Schmerzschwelle besteht, wodurch die technisch mögliche maximale Reizintensität weniger oft erreicht wird. In der vorliegenden statistischen Analyse findet sich kein Anhalt für eine qualitative Änderung des Schmerzes durch die Sensibilisierung auf Ebene der primären Hyperalgesie.
Die traumatische anteriore Schulterluxation ist bei jungen Männern ein häufiges Trauma, bei einer jährlichen Inzidenz von 1,7% bis 2%. Die häufigste schulterinstabilitätsspezifische Pathologie ist die Bankart Läsion. Diese kann zu einer chronisch rezidivierenden Instabilität, Schmerzen und Bewegungseinschränkungen führen. Operativ kann dieses Verletzungsmuster mit einem arthroskopischen Bankart-Repair versorgt werden. Der Goldstandard zur operativen Versorgung der weichteiligen Bankart Läsion ist die Rekonstruktion des Kapsel-Labrum-Komplexes mittels Fadenankern. Nur wenige Studien haben die propriozeptiven Eigenschaften der Gelenkkapsel und des Kapsel-Labrum-Komplexes untersucht. Eine prospektive propriozeptive Nachuntersuchung mittels Winkelreproduktionstests nach arthroskopischem Bankart Repair ist bisher nicht in der Literatur beschrieben. Die 32 Patienten, hauptsächlich junge (circa 25 Jahre alte) gesunde Männer (94%), wurden propriozeptiv und klinisch zu verschiedenen Zeitpunkten vor und nach dem arthroskopischen Bankart-Repair untersucht. Die Diagnose der anterioren primär traumatischen Schulterluxation mit Bankart-Läsion wurde mit einer MRT-Bildgebung verifiziert. Die Follow-Ups erfolgten präoperativ sowie nach 7, 14 und 31 Monaten postoperativ. Pro Patient wurden 3,7 Untersuchungen durchgeführt. Hierbei wurden klinische Scores erhoben sowie Außenrotationsdefizite mithilfe aktiver Winkelreproduktionstests mit Vicon Kameras und dem Cybex Gerät gemessen. Die Abweichung der Winkel wurde als Maß für die propriozeptiven Fähigkeiten verwendet.
Beim Vergleich der Winkelabweichungen der verletzten Schulter zu verschiedenen Zeitpunkten zeigt sich keine signifikante Differenz (p=0,424).
Auch in der Gegenüberstellung der gesunden und verletzten Schulter mithilfe einer Varianzanalyse besteht kein signifikanter Unterschied (p=0,065).
Als möglicher Einflussfaktor wurden die dominante Schulterseite und die Anzahl der implantierten Fadenanker (2 versus 3) definiert. Aufgrund der sehr geringen Probandenanzahl in den Subgruppen erfolgte eine graphische Tendenzanalyse, bei der sich bei beiden Subgruppenvergleichen ähnliche Entwicklungen darstellen ließen.
Beim Methodenvergleich wurden die Messwerte zum Zeitpunkt FU0 (präoperativ) gegenübergestellt. Dabei kann keine signifikante Differenz nachgewiesen werden (p=0,073).
Für die klinische Beurteilung wurden der Walch-Duplay-, Constant- und Rowe-Score verwendet, diese zeigten alle eine deutliche Verbesserung über die Messzeitpunkte: der Walch-Duplay-Score mit 94,78 Punkten (FU0: 41,20), der Constant-Score mit 95,83 (FU0: 75,10) und der Rowe-Score mit 91,96 (FU0: 42,5). Die erreichten Punktzahlen geben Auskunft über die Stabilität, Schulterfunktion und Beweglichkeit und liegen im ausgezeichneten Bereich.
Die Studie zeigt, dass das untersuchte Patientenkollektiv mit der gewählten Therapiemethode, dem arthroskopisch-durchgeführten Bankart-Repair, geringe propriozeptive Defizite, gute klinische Ergebnisse und eine hohe Patientenzufriedenheit erzielen konnte. Die Winkelabweichungen zeigten sich im Studienvergleich im oberen Mittelfeld. Es scheint weder durch die Bankart-Läsion noch dem arthroskopischen Bankart-Repair zu einer signifikanten Veränderung der propriozeptiven Wahrnehmung der Schulter zu kommen. Dieses Ergebnis spricht für die gute Therapie mittels dem arthroskopischen Bankart-Repair sowie die geringe Relevanz der Propriozeptoren des Kapsel-Labrum-Ligament-Komplexes.
Weiterführende Studien in längsschnittigem Studiendesign sowie die Etablierung weiterer Methoden zur standardmäßigen propriozeptiven Untersuchung wären wünschenswert und könnten zur Vergleichbarkeit und Untersuchung größerer Probandenmengen führen.