Refine
Year of publication
Document Type
- Doctoral Thesis (1390)
- Article (419)
- Part of Periodical (199)
- Conference Proceeding (106)
- Book (78)
- Contribution to a Periodical (69)
- Review (46)
- Working Paper (19)
- Part of a Book (9)
- Habilitation (6)
Language
- German (2346) (remove)
Has Fulltext
- yes (2346) (remove)
Is part of the Bibliography
- no (2346) (remove)
Keywords
- Deutschland (11)
- Diagnostik (11)
- Kongress (9)
- Medizinische Ausbildung (9)
- Epilepsie (8)
- Diagnostics (7)
- Immunological methods (7)
- Immunologische Methoden (7)
- Mammakarzinom (7)
- Prävention (7)
Institute
- Medizin (2346) (remove)
Synthetische Cannabinoide sind strukturell variable Substanzen, die an die gleichen CB1- und CB2-Rezeptoren binden wie ∆9-THC und bei Konsumenten vergleichbare Symptome auslösen. Die psychoaktiven Substanzen werden Kräutermischungen beigemengt und gelten unter Konsumenten vermeintlich als ungefährlich. Aufgrund erhöhter Bindungsaffinitäten zu den Cannabinoidrezeptoren sind viele synthetische Cannabinoide potenter als ∆9-THC und lösen daher stärkere Symptome aus als der Konsum von ∆9-THC. Der Konsum von synthetischen Cannabinoiden führt zu zentraler Sedierung und Beeinträchtigungen in der Feinmotorik; dies ist nicht mit dem sicheren Führen eines Fahrzeugs kompatibel. Durch die strukturelle Varianz von synthetischen Cannabinoiden und ein stetig wechselndes Spektrum aktuell auf dem Drogenmarkt erhältlicher Substanzen ist der generelle Nachweis des Konsums von synthetischen Cannabinoiden limitiert. Bislang sind synthetische Cannabinoide in Blut oder Urin nur bei bekannter Struktur und vorhandenen Referenzmaterialien mit Sicherheit nachweisbar. Studien zur Prävalenz von synthetischen Cannabinoiden sind rar und basieren häufig auf Umfragen, da auf Probenanalysen basierende Studien meist nicht alle aktuellen synthetischen Cannabinoiden erfassen. In der vorliegenden Arbeit wurde die Prävalenz von synthetischen Cannabinoiden unter Fällen aus Verkehrs- und Kriminaldelikten des Jahres 2010 in Hessen bestimmt, um zu zeigen wie häufig synthetische Cannabinoide in forensischen Analysen unentdeckt bleiben. Die analytische Methode wurde entwickelt sowie validiert und war für alle 31 synthetischen Cannabinoide, die bis 2011 auf dem Drogenmarkt erhältlich waren, sensitiv. Eine repräsentative Stichprobe bestehen aus 20% aller Blutproben (422 aus 2201) des Jahres 2010 wurde nachuntersucht. Weitere Auswertungen wurden auf Basis von Fallakten durchgeführt. Unter den analysierten Blutproben enthielten 12 Proben synthetische Cannabinoide, woraus für das Jahr 2010 eine Prävalenz von synthetischen Cannabinoiden unter Fällen aus Verkehrs- und Kriminaldelikten von 2,8% ermittelt wurde. Das am häufigsten detektierte synthetische Cannabinoid war JWH-122. Die Konzentrationen lagen überwiegend im niedrigen Bereich (unter 1 ng/ml bis 3 ng/ml). In einem Fall wurde eine vergleichsweise hohe Konzentration des JWH-122 mit circa 73 ng/ml gemessen, wobei neben Apathie keine weiteren Symptome dokumentiert wurden. Alle Konsumenten waren männlich; das Alter lag in 11 Fällen zwischen 18 und 38 Jahren (median 22 Jahre) und die Konsumenten waren Verdächtige von Verkehrsdelikten. Eine weitere positiv getestete Blutprobe stammte aus einem Kriminaldelikt; der Verdächtige war 46 Jahre alt. Die Auswertung der Konsummuster zeigte in 10 von 12 Fällen (83,3%) einen Mischkonsum. Nur in zwei Fällen lag ausschließlicher Konsum von synthetischen Cannabinoiden vor. Die Kombination von synthetischen Cannabinoiden mit ∆9-THC oder Alkohol war mit je vier Fällen häufig. In sechs Fällen wurde eine Vielfalt anderer psychoaktiver Drogen oder Medikamente in den Blutproben nachgewiesen. Die dokumentierten Ausfallserscheinungen waren meist moderat und ließen sich durch die Effekte von Cannabinoiden, Alkohol oder anderen gefundenen Drogen oder Medikamenten erklären. Im Fall eines Konsumenten hat sich nach den Angaben in ärztlichen und polizeilichen Berichten durch den nachgewiesenen Konsum von synthetischen Cannabinoiden eine vorbestehende Psychose verschlimmert. Fazit: Durch die geringe Prävalenz synthetischer Cannabinoide, fehlende routinemäßige Erfassbarkeit sowie Häufigkeit des Mischkonsums müssen Träger von rechtsmedizinischen Instituten in Ausstattung und Personal investieren, um den modernen Ansprüche an die Leistungsfähigkeit gerecht zu werden.
Einleitung: Im Rahmen dieser retrospektiven Studie wurde die Auswirkung der frühen reduzierten Belastung auf Festigkeit der Implantatverankerung untersucht. Zusätzlich wurde geprüft, welchen Einfluss die Faktoren Implantatlänge, Knochenqualität, Augmentationsart und Implantatlokalisation auf die Festigkeit der Implantatverankerung nach der frühen reduzierten Belastung haben.
Material und Methoden: In die Studie wurden Patienten einbezogen, die sich einer Implantationstherapie in Poliklinik für Zahnärztliche Chirurgie und Implantologie in ZZMK (Carolinum) der J. W. Goethe-Universität in dem Zeitraum von Januar 2001 bis Februar 2010 unterzogen haben. Alle teilnehmenden Patienten wurden von einem Behandler betreut. Es wurden ausschließlich Ankylos Implantate (Dentsply, Mannheim, Deutschland) verwendet. Die Festigkeit der Implantatverankerung wurde mit Periotets gemessen. Die Implantationstherapie lief grundsätzlich nach den Rahmenbedingungen der frühen reduzierten Implantatbelastung ab. Nach einer mindestens sechswöchigen geschlossen Einheilung (statische Phase) wurden die Implantate freigelegt und mit Standardabutment versorgt, anschließend wurde der erste Periotestwert erhoben. Die statische Phase nach externem Sinuslift betrug im Schnitt 5 Monate. Für weitere vier bis acht Wochen (dynamische Phase) wurden die Implantate mit Provisorien in Infraokklusion versorgt, bei zahnlosen Patienten wurden die Implantate durch die provisorische Versorgung grundsätzlich verblockt. Patienten wurden unterwiesen, nur weiche Kost zu sich zu nehmen. Nach vier bis acht Wochen im Anschluss an die dynamische Phase wurde der zweite Periotestwert erhoben. Definitiver Zahnersatz mit korrekt eingestellter Okklusion wurde eingegliedert. Die Periotestwerte vor und nach der frühen reduzierten Implantatbelastung wurden zusammengetragen und statistisch ausgewertet.
Ergebnisse: Bei 247 Patienten wurden im Zeitraum von 01.01.2001 bis 01.03.2010 634 Ankylos Implantate inseriert. In der statischen Phase gingen sieben Implantate verloren, restliche 627 Implantate wurden früh reduziert belastet. Kein Implantat ging in der dynamischen Phase verloren. Innerhalb des ersten Jahres unter voller funktioneller Belastung ging kein Implantat aufgrund von knöcherner Überbelastung verloren. Lediglich ein Implantat musste aufgrund von Abutmentfraktur ein Jahr nach der Eingliederung des definitiven Zahnersatzes entfernt werden. Die Periotestwerte nahmen bei 556 Implantaten um mindestens eine Einheit der Periotestwertskala ab. Diese Veränderung der Periotestwerte war statistisch signifikant (p = 0,0001). Der Einfluss der Faktoren Implantatlänge, Knochenqualität, Implantatlokalisation, Augmentationsverfahren auf die Reduktion der Periotestwerte um eine Einheit war statistisch nicht signifikant. Die Reduktion der Periotestwerte um mindestens zwei Einheiten trat bei 409 von insgesamt 627 Implantaten auf und war statistisch signifikant in den Gruppen „weiche Knochenqualität“, „Implantatlänge 8mm, 9,5mm“, „externer Sinuslift“, „Oberkiefer“ (p = 0,001). In zwei Gruppen, nämlich „11mm und 14mm“ sowie „Standardverfahren, laterale Augmentation, interner Sinuslift“ trat eine Abnahme der Periotestwerte statistisch signifikant seltener auf (p = 0,045 bei „11 und 14 mm“ und p = 0,033 bei „Standardverfahren, laterale Augmentation und interner Sinuslift“).
Schlussfolgerung:Die frühe reduzierte Implantatbelastung hat keinen negativen Einfluss auf den Implantaterfolg. Beim Vorliegen von ungünstigen Voraussetzungen, wie unzureichendem Knochenangebot und Knochenqualität sowie Implantation im Oberkiefer, verbessert sich die Festigkeit der Implantatverankerung besonders deutlich. Das Konzept zeichnet sich durch das breite Indikationsspektrum und die hohe Überlebensrate trotz der verkürzten Therapiezeit aus.
Ziel: Ziel dieser Arbeit war es, das Vorhandensein von Normvarianten der arteriellen Leberversorgung in der Lebertransplantationsevaluation zu beurteilen. Anschließend wurde untersucht, ob das Vorliegen einer Normvariante bei Durchführung einer Lebertransplantation mit einer verlängerten Operations- oder Implantationszeit und einem erhöhten Risiko für postoperative Komplikationen und Versterben korreliert.
Material und Methoden: In dieser retrospektiven Studie wurden die Daten von 210 Patienten ausgewertet, bei denen eine Evaluation zur Lebertransplantation im Zeitraum Januar 2011 bis September 2016 durchgeführt wurde. Zunächst wurden die MR-Angiographien der Patienten auf das Vorhandensein von Normvarianten der arteriellen Leberversorgung untersucht. Anschließend wurde bei durchgeführter Transplantation der operative und postoperative Verlauf in einem Follow-Up von 6 Monaten anhand von Dokumentationen aus dem Krankenhaus-Management-System ORBIS ausgewertet. Bei dieser Evaluation wurde das transplantierte Patientenkollektiv (54 Patienten) in eine Gruppe mit Normtypanatomie (41 Patienten) und eine Gruppe mit Normvarianten (13 Patienten) geteilt und miteinander verglichen.
Ergebnisse: Im Gesamtkollektiv wurde bei 20,73% der Patienten eine Normvariante festgestellt und bei 79,86% eine Normtypanatomie. Im Kollektiv der transplantierten Patienten hatten 24,07% der Patienten eine Normvariante und 75,93% keine arterielle Gefäßanomalie.
Die häufigsten Normvarianten im Evaluations- und Transplantationskollektiv waren eine ersetzende oder akzessorische A. hepatica dextra von der A. mesenterica superior (Hiatt Typ III/Abdullah G2II), eine A. hepatica communis aus der A. mesenterica superior (Hiatt Typ V/Abdullah G1II), eine ersetzende oder akzessorische A. hepatica sinistra von der A. gastrica sinistra (Hiatt Typ II/Abdullah G2I) und eine akzessorische oder ersetzende A. hepatica sinistra vom Truncus coeliacus und/oder eine akzessorische oder ersetzende A. hepatica dextra vom Truncus coeliacus (Abdullah G2V).
Bei Betrachtung des transplantierten Kollektivs ergaben sich keine signifikanten Unterschiede zwischen der Gruppe mit Normtypanatomie und mit Normvarianten in der OP-Dauer (Normtypanatomie: 259,34 ± 57,96 min vs. Normvarianten: 285,15 ± 69,19 min; P=0,172).), der Warmen Ischämie Zeit (Normtypanatomie: 48,31 ± 9,91 min vs. Normvarianten: 51,17 ± 13,58 min; P=0,586), dem Auftreten von primären Transplantatversagen (Normtypanatomie: 7,32% vs. Normvarianten: 0,0%; P=0,316) und Perfusionsstörungen (Normtypanatomie 24,39% vs. Normvarianten: 23,07%; P=0,923), den Retransplantationszahlen (Normtypanatomie: 17,07% vs. Normvarianten 15,38%; P=0,887), sowie der 3-Monats-Mortalität (Normtypanatomie: 24,39% vs. Normvarianten 7,69%; P=0,193). und der 6-Monats-Mortalität (Normtypanatomie: 26,82% vs. Normvarianten 15,38%; P=0,40).
Fazit: Ein ubiquitäres Vorhandensein von Normvarianten konnte in den Versuchsgruppen bestätigt werden. Es gibt keinen Hinweis darauf, dass Patienten mit Anomalien der arteriellen Leberversorgung bei Lebertransplantationen ein höheres Risiko für eine verlängerte Operations- oder Implantationszeit und für postoperative Komplikationen und Versterben haben.
Die Durchführungen einer präoperativen Gefäßdarstellung arterieller Lebergefäße bleibt weiterhin empfohlen.
Die CMV-Infektion ist die häufigste opportunistische Infektion nach Nierentransplantation und wird mit einem erhöhten Risiko für Mortalität und Transplantatverlust assoziiert. Das Risiko an einer CMV-Infektion zu erkranken, wird vom Serostatus des Spenders und Empfängers beeinflusst. Dabei sind besonders Patienten mit Hochrisikokonstellation (D+/R–) betroffen. Bei seropositiven Transplantatempfängern (D+/R+, D–/R+) wird ebenfalls ein erhöhtes Risiko durch Reaktivierung des latent vorkommenden Virus oder Sekundärinfektion mit einem exogenen Virusstamm vermutet. Mithilfe von präventiven Maßnahmen wie der präemptiven und prophylaktischen Therapie kann die Rate an Infektionen gesenkt werden.
In dieser Studie wurden 441 Patienten, die in dem Zeitraum von 2006-2013 am Universitätsklinikum Frankfurt eine Nierentransplantation erhielten, retrospektiv untersucht. Ziel der Studie war es, den Einfluss des CMV-Serostatus, der Infektionsprophylaxe sowie der CMV-Infektion auf die Mortalität, das Transplantatüberleben und die Rejektion zu untersuchen. Da CMV-Infektionen meist in den ersten drei Monaten nach Transplantation oder nach Absetzen einer antiviralen Medikation auftreten, wählten wir eine zweijährige Verlaufsbeobachtung. Unsere Hypothese war, dass der Serostatus trotz regelhafter präventiver Maßnahmen mit einer Verschlechterung der Nierenfunktion assoziiert ist. Aufgrund neuer Empfehlungen wurde ab 2010 bei der Mehrheit der Transplantatempfänger eine Prophylaxe mit (Val)Ganciclovir durchgeführt. Folglich wurden die Zeiträume von 2006-2009 sowie von 2010-2013 miteinander verglichen.
In den Jahren von 2010-2013 konnten wir die höchste Infektionsinzidenz für die Hochrisikogruppe, gefolgt von der intermediären Risikogruppe (D+/R+, D–/R+), nachweisen. Beide Gruppen dokumentierten vermehrt CMV-Erkrankungen und Viruslasten im oberen Bereich (> 10.000 Kopien/ml). Diese zeigten jedoch keinen statistisch signifikanten Unterschied zu den anderen Serostatus-Konstellationen auf. Die Infektionsinzidenz in diesem Zeitraum war wiederum mit einem erhöhten Transplantatverlust assoziiert. Durch den prophylaktischen Einsatz von (Val)Ganciclovir konnte das Transplantatüberleben signifikant verlängert werden.
Im Vergleich der Zeiträume vor und nach 2010 stellte sich die D+/R+ Gruppe mit einem verbesserten Transplantatüberleben, die D–/R+ Gruppe mit verbessertem Patientenüberleben dar. Diese Gruppen konnten vermutlich von einer Ausweitung der Prophylaxe profitieren. Bezüglich der Rejektionen empfehlen wir für eine aussagekräftige Auswertung die Beachtung potenzieller Einflussgrößen wie die Immunsuppression und HLA-Merkmale. Rein deskriptiv lag das Auftreten von Rejektionen zeitlich vor den Infektionsereignissen. Die Niedrigrisikogruppe zeigte das geringste Abstoßungsrisiko.
Der Serostatus alleinig erscheint in unserer Studie keinen ausreichenden Hinweis auf das Outcome nach Transplantation zu geben. Allerdings waren CMV-Infektionen in den verschiedenen Zeiträumen maßgeblich mit einem verringerten Transplantat- oder Patientenüberleben assoziiert und sollten deshalb vermieden werden. Die Prophylaxe mit (Val)Ganciclovir stellte sich im gesamten untersuchten Zeitraum als effektive Therapie für ein verbessertes Transplantatüberleben dar.
Ein limitierender Faktor war die Vergleichbarkeit der Gruppen durch die unterschiedliche Patientenanzahl. Daten zur Infektion lagen uns erst ab dem Jahr 2009 vor. Bezüglich der Mortalität schätzen wir die Nachbeobachtungszeit von zwei Jahren zu gering ein, um signifikante Ergebnisse zu erzielen. Hervorzuheben ist, dass durch die Umstellung der Therapiemaßnahmen zwei interessante Patientenkollektive geschaffen wurden, an welchen die Auswirkungen der Prophylaxe dargestellt werden konnten. Mithilfe unserer Daten aus insgesamt acht Jahren mit zweijähriger Verlaufsbeobachtung, schätzen wir das am Universitätsklinikum Frankfurt durchgeführte Therapieregime nach 2010 als wirksame CMV-Prophylaxe ein. Um die Infektionsrate künftig weiterhin zu reduzieren, sind weitere Studien nötig, mit deren Hilfe Risikopatienten identifiziert, die Diagnostik erweitert und Therapien verbessert werden. Ansätze hierfür gibt es beispielsweise beim Einsatz des mTOR-Inhibitors Everolimus, der mit einer niedrigen Rate an CMV-Infektionen assoziiert wird. Auch die Anwendung neuerer Testmethoden, wie z. B. die Messung CMV-spezifischer T-Zellen, sollen dazu beitragen, Patienten mit erhöhtem Infektionsrisiko frühzeitig zu erkennen.
Retrospektive Analyse der RSV Bronchiolitis bei hospitalisierten Kindern im ersten Lebensjahr
(2021)
Einleitung: RSV ist der häufigste Erreger einer Bronchiolitis bei Säuglingen und Kleinkindern. Besonders oft betroffen sind Säuglinge in den ersten vier Lebensmonaten. RSV-Infektionen führen saisonal gehäuft weltweit zu zahlreichen Hospitalisierungen. Dennoch gibt es in Deutschland keine aktuellen Daten über die Krankheitslast.
Methoden: Es erfolgte eine retrospektive Analyse der elektronischen Krankenakten an der Klinik für Kinder- und Jugendmedizin des Universitätsklinikums Frankfurt am Main. Erfasst wurden alle von 2007 bis 2017 stationär aufgenommenen Patienten mit positivem RSV-Nachweis. Die Daten wurden aus dem elektronischen Patientenverwaltungsprogramm ORBIS in Exceltabellen übertragen.
Ergebnisse: Insgesamt wurden in den letzten zehn Jahren 800 Kinder mit RSV-Infektion stationär aufgenommen. Die Mehrzahl der Kinder befand sich in den ersten 12 Lebensmonaten, n = 564 (70,5 %) und der Hauptteil bestand aus Patienten in den ersten vier Lebensmonaten, n = 341 (60,4 %). In diesem Patientenkollektiv stand bei 289 Kindern eine elektronische Krankenakte zur Datenauswertung zur Verfügung. Von den 289 Patienten handelte es sich bei 35 (12,1 %) um FG und 25 Patienten mussten intensivmedizinisch betreut werden. Von den intensivmedizinisch betreuten Kindern waren 15 Patienten (60 %) FG. Klassischerweise unterschied sich das Gewicht der FG von dem der RG (Frühgeborene: Median 3,43 kg vs Reifgeborene: 5 kg). Unter den FG zeigte sich folgende Verteilung nach Schwangerschaftswochen bei insgesamt 289 analysierten Patienten: < 28. SSW (extremely preterm): n = 4 (1,38 %) der Patienten; < 32. SSW (very preterm): n = 8 (2,76 %) der Patienten und 32 + 1 bis 36 + 6 SSW (late preterms): n = 23 (7,95 %) der Patienten. Die geringe Anzahl an RSV-Infektionen bei FG < 28. SSW hängt vermutlich mit einer erfolgreichen Palivizumab Prophylaxe zusammen. Dafür spricht auch, dass sich der Anteil der späten FG (late 43 preterms), die keine Prophylaxe erhielten, in unserer Untersuchung ähnlich wie in frühere Studien darstellte.
Von den 254 RG mussten 10 (3,9 %) Kinder auf Intensivstation (Schwergrad 3 der WHO-Klassifikation), während 102 (40,2 %) Patienten eine Bronchiolitis (Grad 2 der WHO-Klassifikation) aufwiesen und 142 (55,9 %) Patienten hatten eine RSV-Infektion mit Sättigungswerten > 95 %.
Schlussfolgerung: Die Krankheitslast der RSV-Bronchiolitis in Deutschland ist sehr hoch, vor allem in den ersten vier Lebensmonaten. Typischerweise ging die RSV-Saison von Dezember bis März, sodass eine Immunprophylaxe bei Risikokindern in dieser Zeit verabreicht werden sollte.
Hintergrund und Ziel der Studie: Der größte Nachteil von Plastikstents ist ihre im Vergleich mit Metallstents hohe Verschlussrate. Das übliche Wechselintervall für biliäre Plastikstents beträgt drei Monate. Im Universitätsklinikum Frankfurt wurde das Intervall für den elektiven Austausch von Plastikstents auf sechs bis acht Wochen festgelegt.
In dieser Studie sollte untersucht werden, ob sich ein kürzeres Intervall von sechs bis acht Wochen auf die mediane vorzeitige Wechselrate (mPER) auswirkt. Hierfür wurden sowohl benigne als auch maligne Gallengangsstenosen untersucht.
Methoden: An die Anwendung verschiedener Ein- und Ausschlusskriterien auf alle seit 2007 im Universitätsklinikum Frankfurt durchgeführten ERCPs inklusive der Implantation mindestens eines Plastikstents, schloss sich die retrospektive Analyse der geeigneten Fälle und die Berechnung der jeweiligen mPER an. Hierfür wurden sowohl verschiedene Stentparameter wie die verwendete Stentgröße, -länge und -anzahl als auch patientenbezogene Parameter wie die indikationsgebende Diagnose erfasst.
Ergebnisse: Insgesamt wurden 3979 ERCPs analysiert, welche sich auf 1199 Patienten verteilen. Eine gutartige Stenose lag in 2717 (68,3 %) Fällen vor. In 1262 (31,7 %) Fällen wurde die Indikation einer Stentimplantation aufgrund einer bösartigen Stenose gestellt.
Die mediane Stentliegedauer (mSP) betrug 41 Tage (Spanne: 14–120) bei planmäßigen Stentwechseln, während sie bei vorzeitig gewechselten Stents bei 17 Tagen (Spanne: 1–75) lag.
Die mPER war bei malignen (28,1 %, Spanne: 35–50 %) im Vergleich zu benignen Strikturen (15,2 %, Spanne: 10–28 %) signifikant höher (p < 0,0001).
Das mSP war in Fällen von einem singulären Stent (34 Tage, Spanne: 1–87) im Vergleich mit Fällen multipler Stentimplantation (41 Tage, Spanne: 1–120) signifikant kürzer (p < 0,0001). Eine signifikant kürzere mSP wurde außerdem in Fällen von nur einem 7 Fr Stent (28 Tage, Spanne: 2–79) im Vergleich zu größeren Stents (34 Tage, Spanne: 1–87, p = 0,001) festgestellt.
Entsprechend war die mPER in Fällen mit einem singulären Stent (23 %) verglichen mit Fällen multiplen Stentings (16,2 %) signifikant höher (p < 0,0001). Beim Vergleich der Implantationen eines einzelnen 7-Fr-Stents (31,3 %) mit jenen größerer Stents (22,4 %) wurde ebenfalls eine signifikant erhöhte mPER der 7-Fr-Stents festgestellt (p = 0,007).
Konklusion: Diese Studie liefert erstmals umfassende Daten von Patienten, welche mit Plastikstents und kürzeren Wechselintervallen behandelt wurden.
Im direkten Vergleich der Stentparameter war bei der Implantation größerer oder multipler Stents die Einliegedauer verlängert. Dies lässt auf ein geringeres Komplikationsrisiko bei der Verwendung multipler oder größerer Stents schließen, welches am ehesten auf die dadurch optimierte Überbrückung der Stenosen und daraus resultierende Drainage zurückzuführen ist.
Weiter lassen die Ergebnisse vermuten, dass ein verkürztes Wechselintervall unter drei Monaten bei benignen biliären Stenosen nicht zu einer klinisch relevanten Reduktion der Komplikationsrate führt.
Zudem war die bei malignen Stenosen beobachtete Rate vorzeitiger Stentwechsel deutlich größer als die der benignen Stenosen. Sollte in diesem Setting ein Wechsel von einem Plastikstent auf einen SEMS geplant sein, ist ein verkürztes Wechselintervall von drei bis vier Wochen in Erwägung zu ziehen. Bei fehlender Möglichkeit der Implantation eines SEMS, ist die Verwendung multipler und größerer Stents das Mittel der Wahl.
Abschließend lässt sich Folgendes festhalten. Ein kürzeres Austauschintervall scheint bei benignen und malignen Stenosen nicht zu einer klinisch bedeutsamen Verringerung der mPER zu führen. Sofern es die Untersuchungsbedingungen zulassen, sollten große und multiple Stents für die Behandlung von Gallengangsstenosen bevorzugt werden.
Hintergrund: Die Endometriose und die Infertilität sind beide Erkrankungsbilder, die häufig miteinander assoziiert sind. So werden Literaturen zur Folge bei mindestens 30% der Endometriose Patientinnen eine Sterilität diagnostiziert, während wiederum bei etwa 25 - 50% der Patientinnen eine Endometriose als Hauptursache des unerfüllten Kinderwunsches erkannt wird. Die Laparoskopie dient bei Patientinnen mit Endometriose als wichtiger invasiver Eingriff, der entweder zu diagnostischen Zwecken im Sinne einer Ursachenabklärung dient und / oder zu therapeutischen Zwecken bei bereits bestätigter Endometriose assoziierter Infertilität durchgeführt wird.
Problemstellung und Zielsetzung: Anhand des laparoskopischen Befundes, z.B. durch das Erfassen des rASRM Scores bei Endometriose, kann Patientinnen im Voraus keine zuverlässige Aussage über die Chance auf eine postoperative Schwangerschaft geäußert werden. Das Ziel der hier vorliegenden Arbeit ist es, den Erfolg der laparoskopischen Behandlung bei Endometriose assoziierter Infertilität unter Einbezug von Patientencharakteristika, des intraoperativen Befundes, operativer Verfahren sowie der postoperativen Fertilitätsbehandlung zu beurteilen. Auf diese Weise soll den Frauen geholfen werden, im Voraus bzw. nach laparoskopischer Behandlung der Endometriose die Chance auf eine postoperative Schwangerschaft besser abzuschätzen. Es sollen somit Faktoren ermittelt werden, die die postoperative Fertilität protektiv oder ungünstig beeinflussen.
Material und Methoden: In die Studie aufgenommen wurden alle Patientinnen (n=102), die im Zeitraum von 2007 bis 2017 an der Universitätsklinik Frankfurt am Main einen laparoskopischen Eingriff mit der Diagnose einer Endometriose erhalten haben und einen unerfüllten Kinderwunsch von mehr gleich einem Jahr äußerten. Die Datenerhebung erfolgte über die elektronische Patientenakte sowie die telefonische Befragung der Studienteilnehmerinnen zur Patientencharakteristika und der postoperativen Fertilitätsbehandlung. Die statistische Auswertung wurde durch die Nutzung des Log Rank Tests / der Kaplan Meier Methode sowie uni- und multivariater Analysen mittels
Cox Regression durchgeführt.
Ergebnisse: Von den 102 Patientinnen konnten nach einer mittleren postoperativen Nachbeobachtungszeit von 70 Monaten 71 Patientinnen (69,6%) eine Schwangerschaft verwirklichen. Dabei wurden 21,6% der Frauen durch die alleinige Laparoskopie schwanger, während bei 48% der Frauen die Schwangerschaft durch die zusätzliche Nutzung reproduktionsmedizinischer Verfahren erreicht wurde. Die meisten Schwangerschaften ereigneten sich in den ersten 6 bis 12 Monaten nach der Operation. Die mittlere Dauer bis zur Schwangerschaft betrug 10 Monate. Der Log Rank Test zeigte keine statistisch signifikanten Unterschiede in den verschiedenen rASRM Stadien bei der Betrachtung der kumulativen Schwangerschaftsrate (rASRM 1: 83,3%; rASRM 2: 66,7%; rASRM 3: 93,8%; rASRM 4: 37,9%). Die uni- und multivariaten Analysen zeigten, dass die Dauer der Infertilität (Hazard Ratio: 0,85), das Vorkommen von intestinaler Endometriose (Hazard Ratio: 0,26) und ausgeprägten Adhäsionen (Hazard Ratio: 0,45), die Anzahl der Endometriose Lokalisationen (Hazard Ratio:0,82), die Anzahl der laparoskopischen Eingriffe für Endometriose (Hazard Ratio: 0,66) sowie der Voroperationen (Hazard Ratio: 0,75) und das Vorkommen von Endometriose Rezidiven (Hazard Ratio: 0,4) die Chance auf eine Konzeption signifikant ungünstig beeinträchtigen (p< 0,05). Ein protektiver Einfluss auf die Schwangerschaft zeigte sich nur für die Koagulation am Ovar (p= 0,02; Hazard Ratio: 7,74).
Schlussfolgerung: Die laparoskopische Behandlung scheint die Erfüllung des Kinderwunsches positiv zu beeinflussen, zumal fast ¾ der Patientinnen postoperativ schwanger wurden. Höhere Schwangerschaftsraten wurden durch die zusätzliche Nutzung der assistierten Reproduktionstherapie (ART) erreicht. Aus diesem Grund sollten Frauen für eine zusätzliche postoperative ART motiviert werden. Die Patientinnen sollten darauf aufmerksam gemacht werden, dass sie sich bei einem unerfüllten Kinderwunsch früher bei ihrem Arzt vorstellen sollten. Denn je länger die Zeit bis zur Operation einer Endometriose assoziierten Infertilität beträgt, desto schlechter ist die Chance auf eine postoperative Schwangerschaft (p= 0,02). Endometriosezysten am Ovar sowie deren Entfernung schränken die klinische Fertilität nicht signifikant ein. Die Anzahl der laparoskopischen Eingriffe sowie der abdominellen Voroperationen scheinen ein wichtigerer, ungünstiger Faktor in Hinblick auf die Schwangerschaft zu sein (p = 0,04). Außerdem könnte die Koagulation am Ovar eine wichtige Behandlungsmethode bei Endometriose assoziierter Infertilität sein. Diese Operationsmethode sollte durch weitere Studien und eine größere Stichprobe untersucht werden...
Dieser Arbeit lag die Fragestellung zugrunde, welchen Einfluss die jeweilige Transfusionsstrategie auf AML-Patienten unter intensiver Induktionschemotherapie hat.
Dafür wurde ein am Universitätsklinikum Frankfurt zwischen 2007 und 2018 behandeltes Kollektiv von 352 Patienten untersucht. So erfolgte hier bis ins Jahr 2015 hinein die Transfusion eines EK ab einem Hb-Wert <8g/dl und nach Änderung des Transfusionstriggers ab einem Hb <7g/dl. AML-Patienten aus dem Jahr 2015 – dem Jahr der Änderung der Transfusionsregel – wurden von weiterer Untersuchung ausgeschlossen, um zwei klar abgrenzbare Kohorten erhalten zu können.
Es zeigte sich, dass die weniger restriktive Transfusionskohorte unter Induktionschemotherapie einen durchschnittlich um 1g/dl höheren Hb-Wert aufwies und früher als die restriktive Kohorte transfundiert wurde. Die Anzahl an Fiebertagen, CRP-Werte, Aufenthalte auf Intensivstation sowie die Dauer des Krankenhausaufenthaltes betrachtend, zeigte sich hingegen kein signifikanter Unterscheid zwischen beiden Kohorten.
Basierend auf unserer Arbeit ergeben sich keine Hinweise dafür, dass die restriktive Transfusionspraxis einer weniger restriktiven für AML-Patienten unterlegen ist. Limitierend auf die Aussagekraft der Ergebnisse wirken sich dabei die retrospektive Natur der Arbeit sowie die zeitliche Verschiebung der Behandlungszeiträume beider Kohorten aus.
Ergebnisse der bislang ausstehenden randomisierten Studien, die den Einfluss unterschiedlicher Transfusionsregimes auf Patienten mit hämatologischen Krankheiten untersuchen, sind in Bälde zu erwarten. Die bereits vorliegenden Pilotstudien und Ergebnisse der TRIST-Studie decken sich mit der von uns beobachteten Nicht-Unterlegenheit der restriktiven Transfusionspraxis für ein hämatoonkologisches Patientenkollektiv, sodass es abzuwarten gilt, ob sich dies auch in weiteren größeren randomisierten und kontrollierten Studien beweisen kann.
Infektionen durch multiresistente Erreger führen jährlich zum Tod von ca. 33.000 Menschen in Europa.192 Insbesondere ist eine weltweite Zunahme von multiresistenten Gram-negativen Bakterien zu verzeichnen.193 Im Rahmen dieser Arbeit wurden zwei Projekte bezüglich der Resistenzmechanismen gegenüber Beta-Laktam-Antibiotika bei Gram-negativen Bakterien bearbeitet.
Das Gammaproteobakterium Psychrobacter sanguinis PS2578 wurde im März 2015 von einem Neonaten isoliert und verursachte eine early onset Neugeboreneninfektion. Aufgrund der insuffizienten Datenlage bezüglich Diagnostik, Antibiotikaresistenz und Pathogenität von Psychrobacter spp. wurden diese Aspekte weiter evaluiert. P. sanguinis zeigte geringes Wachstum auf Blutagar und keinerlei Wachstum in Standardnährmedien. Als optimales Nährmedium erwies sich das Spezialmedium BHI mit 10% Fetalem Kälberserum, wobei eine Abhängigkeit des Wachstums von FCS beobachtet wurde. Die Virulenz des klinischen Isolats sowie des Referenzstamms P. sanguinis DSM 23635 war in einem in vivo Infektionsmodell vergleichbar mit klinischen Escherichia coli und Klebsiella pneumoniae Isolaten sowie dem phylogenetisch nahe verwandten Acinetobacter calcoaceticus DSM 30006. Demnach ist die Spezies P. sanguinis moderat virulent und als humanpathogen anzusehen. Als molekulares Äquivalent der phänotypischen Penicillinresistenz wurde die Carbenicillinase CARB-8 (RTG-3) identifiziert, wodurch die These gestützt wird, dass der Genus Psychrobacter spp. ein mögliches Genreservoir von Carbenicillinasen darstellt.3 Im Rahmen dieser Arbeit konnte das Genom der Spezies erstmals komplett sequenziert werden. Es beinhaltete ein Chromosom von 2.946.289 bp, ein größeres Plasmid von 49.981 bp und ein kleineres Plasmid von 11.576 bp, welches blaCARB-8 kodierte.
Der Nachweis von Carbapenem-resistenten Gammaproteobacteria hat sich von 2010 zu 2017 in Deutschland mehr als verzehnfacht. Dabei ist OXA-48 die häufigste Carbapenemase in Europa und tritt vor allem bei den Spezies K. pneumoniae und E. coli auf.75 In dieser Arbeit wurden 62 klinische Stämme hinsichtlich ihres Plasmidtyps und ihres Verwandtschaftsgrads untersucht.
In der Klonalitätsanalyse gehörten 25 (n=44) K. pneumoniae derselben klonalen Linie an. Hiervon wurden 22 (n=25) Isolate in den Jahren 2010 und 2011 isoliert, was einen klonalen Ausbruch vermuten lässt.158 Bei der Spezies E. coli (n=8) waren lediglich zwei Stämme klonal verwandt. Insgesamt indizierten diese Ergebnisse eine hohe Diversität der klinischen Isolate. Die Plasmidtypisierung hingegen zeigte, dass 95% der Stämme (n=62) ein IncL Plasmid aufwiesen. Basierend auf den Selektionskriterien Klonalität und Plasmidtyp wurden 21 Stämme für weitere Analysen mittels Multilocus-Sequenz-Typisierung und Transkonjugation ausgewählt. Es konnten sehr hohe Konjugationsfrequenzen von 7,51 x 10-1 im Intraspezies- und von 8,15 x 10-1 im Intergenus- HGT für das blaOXA-48 IncL Plasmid in vitro ermittelt werden. Unter Verwendung von Galleria mellonella Larven als in vivo Transkonjugationsmodell wurde eine Transkonjugationsfrequenz von nahezu 100% detektiert. Daher lässt sich vermuten, dass der HGT von Antibiotikaresistenzgenen im Darm eines Patienten eine sehr viel höhere Effizienz aufweisen könnte, als bisher basierend auf in vitro generierten Daten angenommen. Dies impliziert, dass die globale Verbreitung von OXA-48 auf dem effizienten horizontalen Gentransfers eines einzigen IncL Plasmids beruht und nicht auf der Expansion einer bestimmten klonalen Linie.
Die Messung des T-Wellen-Alternans ist eine neue, vielversprechende Methode zur Erfassung von Patienten mit einem erhöhten Risiko für arrhythmische Ereignisse. Die gute Testeffizienz ist für unterschiedliche kardiale Krankheiten belegt; ebenfalls wurde die Überlegenheit des TWA gegenüber anderen gängigen Parameter zur Risikostratifizierung erwiesen. Schwachpunkte dieses Verfahrens sind der relativ hohe Anteil an falsch positiv Getesteten und die häufig scheiternden Messungen. Nach unserem Wissen haben wir mit dieser Studie anhand eines Patienten- kollektivs mit Myokardinfarkt erstmalig erwiesen, dass das Ergebnis einer TWA- Untersuchung unabhängig ist von dem Alter und dem Geschlecht des Patienten, sowie von verschiedenen Parameter des erlittenen Herzinfarktes, wie der Höhe der CK, der Lokalisation, der Art der Erstintervention und dem Perfusionsstatus. Im Gegensatz zu anderen Studien konnten wir keinen Einfluss der Medikation, insbesondere der antiarrhythmischen, auf den Ausgang des Alternans-Testes feststellen. Schließlich zeigt die vorliegende Untersuchung erstmalig, dass das Wiederholen der Messung zu einem späteren Zeitpunkt, nämlich nach sechs Wochen und nach einem Jahr, zu 80 % das gleiche Ergebnis liefert, und zwar unabhängig von Änderungen in der Medikation, weiteren Maßnahmen zur Reperfusion und erneuten kardialen Ereignissen. Das Ergebnis positiv zeigt sich dabei etwas weniger stabil als das Ergebnis negativ. Insgesamt kann gefolgert werden, dass die Methode eine gute Reproduzierbarkeit aufweist und bei der Mehrzahl der Patienten auch im Langzeitverlauf stabile Ergebnisse liefert.
Zielsetzung der vorliegenden Dissertation war die Validierung einer deutschsprachigen Version, der bereits für andere Sprachen validierten Repetitiven Verhaltensskala – Revidiert (RBS-R) für Kinder- und Jugendliche im Alter zwischen 4-17 Jahren. Die RBS-R ist ein aus 43 Items bestehendes, gut untersuchtes Screeninginstrument, welches restriktives, repetitives Verhalten (RRV) erfasst. RRV stellen einen heterogenen Symptomkomplex dar, welcher durch stereotype motorische, sprachliche und kognitive Verhaltensmuster gekennzeichnet ist.
RRV sind neben Abweichungen sozialer Interaktion und Kommunikation eines der Hauptkriterien für eine Autismus-Spektrum-Störung (ASS). RRV sind jedoch nicht nur Teil des Symptomspektrums einer ASS, sondern treten häufig auch bei anderen psychiatrischen Erkrankungen (PE), einer Intelligenzminderung (IM) oder bei altersentsprechend entwickelten Kindern (AE), beispielsweise in bestimmten Phasen des Heranwachsens auf. Bisher wurde die RBS-R fast ausschließlich an ASS untersucht. Es besteht die Notwendigkeit für ein valides und zuverlässiges Messinstrument für den deutschen Sprachraum, welches RRV hinsichtlich ihrer Heterogenität transdiagnostisch erfassen und den Schweregrad der Ausprägung ermitteln kann. Das Ziel dieser Arbeit war, dies durch eine möglichst große und heterogene Stichprobe (n= 948) mit Inklusion von Probanden mit einer ASS (n= 218), IM (n= 120), PE (n= 166) und AE (n = 444) zu gewährleisten. Zur Überprüfung der psychometrischen Eignung erfolgte nach der Adaptation der RBS-R für den deutschen Sprachraum eine Evaluation gemäß den Prinzipien der klassischen Testtheorie, insbesondere hinsichtlich Validität und Reliabilität. Darüber hinaus erfolgte unter Einbeziehung der vier Stichproben eine explorative Faktoranalyse (EFA) um eine geeignete Faktorlösung zu finden. Diese sollte sowohl den Anspruch Klinisch-Tätiger als auch Forschender erfüllen und eine Anwendung der RBS-R auch außerhalb von ASS ermöglichen. Zudem sollten RRV in den unterschiedlichen Kohorten, sowie in Bezug auf Alters- und Geschlechtseffekte bei ASS untersucht werden.
Die Bedeutung der Ergebnisse dieser Arbeit ist, ob der schon breit erforschten Eigenschaften der RBS-R, vor allem im Kontext mit den vorliegenden Studien zu betrachten. Einzigartig für diese deutschsprachige Validierung der RBS-R ist die Diversität und große Anzahl der teilnehmenden Probanden.
Die vorliegende Validierung der RBS-R erbrachte gute Ergebnisse für die Reliabilität und konvergente Validität der Skalen, vergleichbar mit den Ergebnissen vorheriger Studien. Die untersuchte Itemschwierigkeit war relativ gering, was durch die geringe Antwortvarianz in der großen Kohorte der AE erklärbar ist. Die Itemgesamtkorrelation zeigte gute Werte. Auch Items mit niedrigen Ergebnissen für die Itemzustimmung wurden nicht exkludiert. Dies geschah konkordant zum Vorgehen vorheriger Studien und hatte den Hintergrund, eine internationale Vergleichbarkeit des RBS-R beizubehalten. Die EFA bestätigte die gute Anwendbarkeit einer Vielzahl von Faktorlösungen. Wir legten eine 4-Faktorlösung für die deutschsprachige Version der RBS-R fest. Grundlage hierfür war das Bestreben die ursprünglichen Subskalen für eine internationale Vergleichbarkeit so getreu wie möglich beizubehalten. Die 4 Faktoren bildeten treffend RRV niedriger und hoher Ordnung ab. Gegen eine 5- oder 6-Faktorlösung sprach hierbei, dass dies zu Subskalen mit wenig Items und schwachen psychometrischen Eigenschaften führte (Lam et al, kritisiert durch Georgiades et al). Gegen eine 2- oder 3-Faktorlösung sprach die eingeschränkte klinische Interpretierbarkeit durch Subskalen mit vielen kumulierten Items. Hinsichtlich der Kohortenzugehörigkeit kann der RBS-R übereinstimmend mit Fulceri et al valide zwischen RRV in ASS und AE unterscheiden. Eine valide Unterscheidung zwischen ASS, PE und IM konnten wir nicht verifizieren. Betreffend der untersuchten Alterseffekts bestätigte sich, dass RRV bei ASS mit dem Alter abnehmen. Im Gegensatz zu einigen vorherigen Studien, welche keinen Geschlechtsunterschied bezüglich RRV bei ASS fanden, zeigten die männlichen Probanden der ASS Kohorte bei uns häufiger und ausgeprägter RRV.
Die Umstellung der Abrechnung unfallchirurgischer Patienten von der Bundespflegesatzordnung (BPflV) auf die von Diagnosis Related Groups (DRG) abhängige Vergütung stellt die Akutkrankenhäuser, die im Wesentlichen die Versorgung der Schwerstverletzten sicherstellen, vor erhebliche finanzielle Schwierigkeiten. Die Diskrepanz zwischen tatsächlichen Aufwendungen des Krankenhauses an Lohn- und Sachkosten zur Behandlung der Leicht- sowie Schwerverletzten und der Vergütung nach den German Diagnosis Related Groups (G-DRG) wird zur Existenzfrage der unfallchirurgischen Kliniken in Deutschland. Die vorliegende Arbeit will klären, wie hoch die finanziellen Aufwendungen sind, um in einem Haus der Maximalversorgung Patienten zu behandeln, die im Rahmen ihrer unfallchirurgischen Notfallbehandlung über den Schockraum aufgenommen werden. Es wurde berechnet, ob die ermittelten reellen Kosten sich durch die erhaltenen Erstattungen, bis zum 31.12. 2003 auf Grundlage des Krankenhauspflegesatzes und durch das zum 01.01.2004 eingeführte DRG-Vergütungssystem, decken lassen. Falls dies nicht der Fall ist, gilt darzustellen, in welchem Rahmen sich die Über- bzw. Unterdeckung bewegt und ob ein alternatives Vergütungssystem die entstandenen Kosten besser abbilden könnte. Für die vorliegende Arbeit wurden im Routineablauf des Schockraums der Universitätsklinik Frankfurt/Main im Zeitraum vom 01.09.2002 bis 31.08.2003 420 Erwachsene mit unterschiedlichen Verletzungsmustern prospektiv erfasst. Die Dokumentation erfolgte mittels des PC gestützten Online Dokumentationsprogramms Traumawatch ®. Aufgrund der Verletzungsmuster wurde bei allen Schockraumpatienten der Injury Severity Score (ISS) bestimmt und 5 Untergruppen gebildet (Gr.1 ISS < 9, Gr.2 ISS >= 9 < 16, Gr.3 ISS >= 16 < 25, Gr.4 ISS >= 25 < 41, Gr.5 ISS >= 41). Stichprobenartig wurden jeder Gruppe 10 Patienten entnommen und der Kostenkalkulation zugeführt. Zur Ermittlung der gesamten Personal- und Sachkosten, die durch die stationäre Behandlung der 50 Patienten entstanden, wurden Daten des Operativen Controllings der Universitätsklinik Frankfurt verwendet. Diese Berechnungen wurden den Erstattungen durch die BPflV und durch G-DRG gegenüber gestellt. Es ergab sich für die berechneten Schockraumpatienten bei einem mittleren ISS von 22,6 eine durchschnittliche Vergütung nach G-DRG von 14.557 Euro gegenüber Aufwendungen in Höhe von 19.010 Euro, welches einem Verlust von durchschnittlich 4.453 Euro pro Patient entspräche. Für die Klinik errechnete sich ein Gesamtverlust von ca. 1,5 Millionen Euro im Jahr für die Versorgung von 420 Patienten, die über den Schockraum aufgenommen wurden. Die Gegenüberstellung der Kosten und der Verletzungsschwere nach ISS-Klassifikation ergab einen Durchschnittswert von 1.300 Euro pro ISS-Punkt mit einer Korrelation von 0,98. Eine Vergütung in Abhängigkeit des ISS hätte Vorteile gegenüber der starren Einteilung in DRG-Gruppen, insbesondere der „Polytrauma DRGs“. Das bisher notwendige und zum Teil komplexe „Groupen“ der Patienten in eine Haupt- und Nebendiagnose würde entfallen. Als Grundlage der Vergütung wäre die international anerkannte, genau definierte und einfache Erfassung der Verletzungsschwere mittels ISS geeignet.
Einleitung: Die Intention dieser Arbeit war es zu evaluieren, ob das Prüfungsformat eines OSPE (Objective Structured Practical Examination), durchgeführt im Fach Zahnerhaltungskunde (6. Fachsemester), Aussagen über den Studienerfolg im praktischen Teil des Staatsexamens (11. Fachsemester) im selben Fach zu treffen erlaubt. Ferner sollte unter Berücksichtigung allgemeiner Angaben der StudienteilnehmerInnen (Abitursnote, Physikumsnote, Studiendauer, Kohorte und Geschlecht) analysiert werden, ob bezüglich der Gesamt- sowie Teilnoten des OSPE und der Staatsexamensprüfung im Fach Zahnerhaltungskunde Zusammenhänge oder Unterschiede bestehen.
Methoden: Im Rahmen dieser longitudinalen, retrospektiven Studie wurden über einen Zeitraum von 11 Semestern prüfungsbezogene Daten von Studierenden (N = 223) des Fachbereichs Zahnmedizin in Frankfurt am Main erhoben und untersucht. Ferner wurden persönliche Angaben der Studienteilnehmer zu Alter, Geschlecht, Abitursnote, Physikumsnote und Studiendauer evaluiert sowie eine Zuordnung zu Kohorten vorgenommen. Für die statistische Auswertung der Daten wurden Spearman Rangkorrelationen, Partialkorrelationen, Korrelationskoeffizienten nach Pearson, und Multiple Regressionen (SPSS Statistics 21, IBM Corporation, New York) berechnet.
Ergebnisse: Die Ergebnisse zeigen, dass die Durchführung einer OSPE (Cronbachs α = .87) mit dem Erfolg im praktischen Teil des Staatsexamens im Fach Zahnerhaltungskunde korreliert (p = .01, r = .17). Als eine weitere signifikante Korrelation mit der Examensleistung erwies sich die Dauer des Studiums (p = .001, r = .23). Gemeinsam vermögen diese beiden Variablen einen signifikanten Beitrag zur Vorhersage der Examensnote (p = .001, R2 = .076) zu leisten. Das zeigte sich im größeren Umfang bei weiblichen Studierenden. Zudem wurde festgestellt, dass diese bessere Abitursnoten als männliche Studierende aufweisen (F = 6.09, p = .01, η² = .027) und dass es nur bei männlichen Studierenden eine signifikante Korrelation zwischen der Physikumsnote (Zahnärztliche Vorprüfung) und der OSPE-Benotung gab (r = .17, p = .01).
Schlussfolgerung: In der vorliegenden Untersuchung konnte der prädiktive Effekt eines durchgeführten klinischen OSPE auf die Prüfungsleistung im Staatsexamen nachgewiesen werden. Unter Berücksichtigung der Limitation der Studie empfiehlt sich aus unserer Sicht die Durchführung eines solchen Prüfungsformats im Rahmen des klinischen Studienabschnitts im 6. Semester im Fach Zahnmedizin.
Einleitung: Ziel dieser Studie war es zu evaluieren, ob das Prüfungsformat einer OSPE (Objective Structured Practical Examination) durchgeführt im Fach Zahnerhaltungskunde (6. Fachsemester) den Studienerfolg im praktischen Teil des Staatsexamens (11. Fachsemester) im selben Fach prädiziert. Ferner sollte unter Berücksichtigung allgemeiner Angaben der StudienteilnehmerInnen (Abitursnote, Physikumsnote, Studiendauer, Kohorte und Geschlecht) analysiert werden, ob bezüglich der Gesamt- sowie Teilnoten der OSPE und der adäquaten Staatsexamensprüfung Zusammenhänge oder Unterschiede bestehen.
Methoden: Im Rahmen dieser longitudinalen, retrospektiven Studie wurden für einen Zeitraum von 11 Semestern prüfungsbezogene Daten von Studierenden (N=223) des Fachbereichs Zahnmedizin in Frankfurt am Main erhoben und untersucht. Für die statistische Auswertung der Daten wurden Spearman Rangkorrelationen, Partialkorrelationen, Korrelationskoeffizienten nach Pearson, und Multiple Regressionen (SPSS Statistics 21, IBM Corporation, New York) berechnet.
Ergebnisse: Die Ergebnisse zeigen, dass OSPE (Cronbachs α=.87) mit dem Erfolg im praktischen Teil des Staatsexamens im Fach Zahnerhaltungskunde korreliert (p=.01, r=.17). Als eine weitere signifikante Korrelation mit der Examensleistung erwies sich die Dauer des Studiums (p=.001, r=.23). Gemeinsam leisten diese beiden Variablen einen signifikanten Beitrag zur Vorhersage der Examensnote (p=.001, R2=.076). Das zeigte sich im größeren Umfang bei weiblichen Studierenden. Zudem wurde festgestellt, dass diese bessere Abiturnoten als männliche Studierende aufweisen (F=6.09, p=.01, η2=.027) und dass es lediglich bei männlichen Studierenden eine signifikante Korrelation zwischen der Physikumsnote (Zahnärztliche Vorprüfung) und der OSPE-Benotung gab (r=.17, p=.01).
Schlussfolgerung: In der vorliegenden Untersuchung konnte der prädiktive Effekt einer klinischen OSPE auf die Prüfungsleistung im Staatsexamen gezeigt werden. Unter Berücksichtigung der Limitation der Studie empfiehlt sich aus unserer Sicht die Durchführung eines solchen Prüfungsformats im Rahmen des klinischen Studienabschnitts im 6. Semester im Fach Zahnmedizin.
Vom 01.01.1985 bis 31.12.1995 wurden 144 Patienten wegen eines Rektumkarzinoms im oberen und mittleren Drittel behandelt. Bei allen Patienten wurde eine Rektumresektion durchgeführt. Ziel der Arbeit war eine kritische Qualitätskontrolle der Therapie des Rektumkarzinoms am Klinikum Offenbach mittels Langzeitergebnissen. Vergleichend wurde die chirurgische Therapie mit und ohne zusätzliche Chemo- und Strahlentherapie gegenübergestellt. In unserem Krankengut fanden sich 82 Männer (57%) und 62 Frauen (43%). Der Altersdurchschnitt betrug 66 Jahre. Die Altersgrenzen lagen bei 38 und 98 Jahren. Bei 116 (80,6%) Patienten konnte eine R0-Resektion durchgeführt werden, 18 (12,5%) erhielten eine R1-Resektion und 10 (6,9%) der Therapierten eine R2-Resektion. Die Gesamtletalität innerhalb des Kollektivs betrug bis zum 31.10.2000 58,3%. Bei 61 (42%) der Behandelten war das Versterben mit dem primären Tumorleiden in Zusammenhang zu bringen. Die 5-Jahres-Überlebensrate betrug insgesamt 49,7%. Hier konnten wir eine deutliche Stadienabhängigkeit erkennen. Die perioperative Letalität, die bezüglich einer 30-Tage-Letalitätsgrenze ermittelt wurde, verzeichnete eine Rate von 2,8%. Todesursachen waren Sepsis, Thrombosen und tumorbedingtes Herzkreislaufversagen. Eine Tumorprogression erlitten insgesamt 59 (41%) der Behandelten. Eine Fernmetastasierung wiesen nach 5 Jahren 17 (11,8%) Patienten auf, Lokalrezidive wurden bei 42 (29,1%) aus unserem Kollektiv beobachtet. Einer Chemotherapie unterzogen sich 27 (18,8%) Patienten. Auf die Stadien verteilt entsprach dies 12% der Behandelten mit Stadium II, 29,7% mit Stadium III und 41,9% mit Stadium IV. Von diesen verstarben 21 (84%) tumorassoziiert. Bei 11 (40,7%) Therapierten lag eine Fernmetastasierung vor, 10 (37,1%) litten zum Zeitpunkt des Todes an einem Lokalrezidiv. Strahlentherapeutisch wurden 21 (14,6%) Patienten des Kollektivs behandelt. Die Stadieneinteilung dieser Patienten zeigte 1,9% in Stadium I, 20% im Stadium II, 32,4% im Stadium III und 9,7% im Stadium IV. Von diesen verstarben 14 Patienten tumorassoziiert. Bei 4 Patienten lag eine Fernmetastasierung vor, 11 erlitten ein Lokalrezidiv. Unserer Ergebnisse konnten die Notwendigkeit einer adjuvanten Therapie noch nicht belegen, da sich diese zum Zeitpunkt der Studie gerade erst etablierte und somit unsere Stichproben mit einer zu geringen Anzahl von Behandelten keine Schlussfolgerungen zuließen Aufgrund des retrospektiven Studiendesigns war statistisch nur eine rein explorative Aussage möglich. Ziel folgender Studien sollte, zur Steigerung der Qualität, eine prospektive Datenerfassung sein.
In der vorliegenden Untersuchung werden 178 Kenia-Reisende vor und nach der Reise schriftlich befragt. Erfasst werden vor der Reise persönliche Daten, Vorerkrankungen, geplan-te Reisedauer, durchgeführte Impfungen und Vorhaben in Kenia. Nach der Reise wird nach gesundheitlichen Beschwerden im Zusammenhang mit der Reise, Medikamenteneinnahme, Malaria-Chemoprophylaxe und Beachtung von Ernährungsregeln gefragt. Ziel ist es, Qualität und Möglichkeiten der reisemedizinischen Beratung zu untersuchen. Fast alle Personen (98%) fahren in den Urlaub, 74% für zwei, 18% für drei Wochen. Strand-urlaub (89%) und Safaris (85%) sind die bevorzugten Beschäftigungen. 97% der Reisenden lassen sich vor der Reise medizinisch beraten. Nur 3% der Reisenden geben an, vor der Reise keine reisemedizinische Beratung vorgenommen zu haben; es handelt sich um Reisende mit Tropenerfahrung. Die Beratung erfolgt in drei Viertel der Fälle durch den Hausarzt. Nur 43% sind allen Impfempfehlungen der STIKO nachgekommen (Hepatitis A, Poliomyelitis, Tetanus und Diphtherie). Lediglich 75% der Reisenden nehmen eine für Kenia indizierte Malaria-Chemoprophylaxe ein (71% Mefloquin, 4% Atovaquon-Proquanil). 8% verzichten auf eine Chemoprophylaxe, 15% nehmen eine Prophylaxe ein, gegen die bereits Resistenzen beste-hen, zwei Personen (1%) eine homöopathische Prophylaxe. Sämtliche Personen, die auf eine Chemoprophylaxe verzichten, reisen nicht zum ersten Mal in ein tropisches Land. 44% der Reisenden leiden während der Reise an gesundheitlichen Beschwerden, wobei Durchfall mit 35% die mit Abstand häufigste Erkrankung ist. 20-29-jährige erkranken am häufigsten daran. Neben Durchfall stellen pulmonale Erkrankungen sowie Infektionen im HNO-Bereich die größte Gruppe von Erkrankungen dar. Folgende Symptome treten nur ver-einzelt auf: Sonnenbrand, Sonnenallergie, Insektenstiche, Fieber, Reizhusten, Atembeschwer-den, Schlafstörungen, Blasenentzündung, Furunkel am Unterarm, Gelenkbeschwerden, Hals-schmerzen, Herzrhythmusstörungen, Kopfschmerzen, Obstipation, Ohrgeräusche, Schüttel-frost, Sodbrennen, Übelkeit, Unruhe, Zahnentzündung, Zerrung am Fuß und geschwollene Augen. 3% benötigen wegen leichterer Beschwerden ärztliche Hilfe während der Reise. Schwerwiegende Erkrankungen oder Unfälle werden nicht genannt. Tropen-Erstreisende haben signifikant häufiger gesundheitliche Beschwerden als Reisende mit Tropenerfahrung. Keine bedeutende Rolle bei der Beschwerdehäufigkeit spielen in dieser Studie die Unterkunft am Reiseort, Organisation der Reise (durch eine Reisegesellschaft oder selbstständig), Vorerkrankungen und die Art der Malariaprophylaxe. 10% der Befragten ge-ben an, nach der Reise einen Arzt aufgesucht zu haben, 6% zur Vorsorge, 4% wegen leichter Beschwerden wie Durchfall oder Bronchitis. Während der Reise ist der Reisende zahlreichen Risiken ausgesetzt. Die Studie zeigt, dass neben impfpräventiblen Erkrankungen und Malaria auch weniger vital bedrohliche Erkran-kungen, wie Reisediarrhöe, Grippe oder ein Sonnenbrand, das Wohlbefinden der Reisenden einschränken können. Der Reisende sollte ausführlich über die bestehenden Risiken im Reise-land informiert werden, um eigenverantwortlich Risiken und Gefahren vermeiden zu können. Die reisemedizinische Beratung muss daher weit über die „klassischen“ Beratungsinhalte, wie Impfempfehlungen und Malariaprophylaxe, hinausgehen. Für die Berücksichtigung der Reisemedizin in der Aus- und Weiterbildung bestehen derzeit nur geringe Möglichkeiten, da sie als interdisziplinäres Fach weder einem Lehrgebiet noch einem Fachgebiet oder –bereich zuzuordnen ist. Durch eine Einbindung in ein Lehrgebiet wie die Allgemeinmedizin und Eingliederung in die Weiterbildungsordnung würde eine Verein-heitlichung der Aus- und Weiterbildung erreicht und damit eine Qualitätssicherung der reise-medizinischen Beratung begünstigt werden.
T-Lymphozyten spielen eine entscheidende Rolle in der Pathophysiologie der Rheumatoiden Arthritis. Sie fördern einerseits die perpetuierende Entzündung innerhalb der Membran und besitzen andererseits die Fähigkeit auf die Inflammationen regulativ bzw. suppressiv zu wirken. In der hier vorliegenden Arbeit wurde untersucht, ob entzündungsfördernde T-Zellprodukte und regulatorische T-Zellpopulationen innerhalb der Synovialmembran nachweisbar sind, und wie unstimulierte periphere TZellen auf Synovialmembranzellen "in vitro" reagieren. Innerhalb der Synovialmembran konnte eine Population von CD4(+)CD25(+) regulatorischen T-Zellen (Tregs) durchflusszytometrisch nachgewiesen werden. Immunhistochemische Analysen des Gewebes konnten eine Akkumulation dieser Zellen innerhalb von Sekundärfollikeln des Synovialmembrans nachweisen. Die ELISPOT-Analyse ausgewählter Zytokine resultierte in der Detektion immunsuppressiver (IL-10) und immunstimulatorischer Zytokine in Synovialmembranzellkultur. Hier konnte erstmalig eine autologe IFN-gamma Produktion auf Proteinebene nachgewiesen werden. Klinische Betrachtungen der IFN-gamma Produktion zeigten eine starke Assoziation mit dem Rheumafaktor. Zusätzlich findet sich eine tendenzielle Abnahme der immunstimulatorischen Kapazität mit der Dauer der Erkrankung. Eine Betrachtung der intrasynovialen IL-10 Produktion unter Berücksichtigung des klinischen Entzündungsparameter CRP, zeigt einen starken Zusammenhang zwischen den beiden Parametern. ELISPOT Analysen einer Co-Kultur zwischen autologen CD4(+) und CD8(+) PBMCs und Synovialmembranzellen ergaben eine Abnahme der autologen IFN-gamma Produktion ohne Zunahme der Interleukin- 10 Produktion. Eine Aktivierung der Zellkultur lässt diesen Effekt verschwinden. Durch Aufreinigung der PBMCs konnte der stärkste suppressive Effekt innerhalb der CD4(+)CD25(+) T-Zellfraktion nachgewiesen werden, welcher marginal durch Aktivierung der Zellkultur unterbrochen werden konnte. Regulatorische Effekte konnten auch innerhalb der CD8(+) T-Zellfraktion dokumentiert werden, welche sich aber durch spezifische anti-CD3 Ab und anti-CD28 Ab Aktivierung verliert. Die Beeinflussung der suppressiven Eigenschaften von T-Zellen bzw. ihrer spezialisierten T-Zellpopulationen könnte in Zukunft zu einer besseren Therapie der Rheumatoiden Arthritis führen.