Medizin
Refine
Year of publication
- 2009 (172) (remove)
Document Type
- Doctoral Thesis (137)
- Part of Periodical (13)
- Conference Proceeding (10)
- Article (7)
- Book (2)
- Review (2)
- Working Paper (1)
Language
- German (172) (remove)
Has Fulltext
- yes (172)
Is part of the Bibliography
- no (172)
Keywords
- Bronchialasthma (2)
- Brustkrebs (2)
- Lungenfunktion (2)
- Sepsis (2)
- Adipositas Chirurgie (1)
- Adoptivkind (1)
- Allergie (1)
- Allgemeinmedizin (1)
- Antigen CD62 (1)
- Arbeit (1)
Institute
- Medizin (172)
- Präsidium (2)
- Biowissenschaften (1)
- Sportwissenschaften (1)
Der Gestationsdiabetes steht in Zusammenhang mit einer erhöhten Morbidität für Mutter und Kind. Die maternale Hyperglykämie führt zur Erhöhung der kindlichen Blutglukose mit der Konsequenz eines fetalen Hyperinsulinismus. Die Folgen des erhöhten fetalen Insulinspiegels sind das Auftreten von prä- und postnatalen Komplikationen, wie z.B. Makrosomie, postpartalen Hypoglykämien sowie Atemstörungen. Angesichts dieser Tatsache liegt es nahe, diagnostische und therapeutische Strategien zu entwickeln, die es ermöglichen diese Stoffwechselstörung in ihrer Entstehung zu erkennen und überwachen zu können. Im Zentrum dieser Studie steht die pränatale Beurteilung der Dopplerindizes. Der Resistance-Index (RI-Wert) wird als möglicher prädiktiver Parameter für die maternale Stoffwechsellage und der Entwicklung des Kindes untersucht. In dieser Studie wurde nachgewiesen, dass bei den diätetisch eingestellten Gestationsdiabetikerinnen ein signifikant reduzierter RI-Wert, verglichen mit den Gesunden, bzw. Insulin-behandelten Gestationsdiabetikerinnen, zu verzeichnen ist. Die erhobenen Daten beziehen sich auf die letzten vorgeburtlich gemessenen RI-Werte. Bei den diätetisch eingestellten Gestationsdiabetikerinnen sinkt der RI Wert und zeigt eine statistische Signifikanz von p=0,002 zum gesunden Kollektiv. Die Indizes der mit Insulin behandelten Schwangeren unterscheiden sich hingegen nicht signifikant von denen der gesunden Frauen. Dies könnte auf bislang nicht untersuchte Insulinwirkung oder auf ein noch nicht näher charakterisiertes Kollektiv mit pathologischer Gen-Stoffwechselstörung zurückzuführen sein. Der Abfall des RI-Wertes zeigt in dieser Arbeit eine signifikante Korrelation mit der maternalen Stoffwechselsituation. Während sich ein gut eingestellter Gestationsdiabetes in der Doppler-Untersuchung nicht wesentlich von einer gesunden Schwangerschaft unterscheidet, können erniedrigte RI-Werte in Anbetracht der Ergebnisse dieser Studie als Hinweis auf eine Stoffwechselstörung gewertet werden. Die Änderung des Dopplerparameters (hier des RI-Wertes) kann im Sinne einer Prädiktion für eine Therapieeinleitung bzw. –änderung genutzt werden oder eine überwachende Funktion in der pränatalen Betreuung einnehmen. Dabei ist die Darstellung der fetalen Hämodynamik mit Hilfe der Indizes ein Bild für die Gefäßsituation des Kindes und seine Reaktion auf den mütterlichen Blutzuckerspiegel. In unserer Studie waren die Parameter der sonographischen Biometrie bei den stoffwechselerkrankten Müttern hinsichtlich der makrosomalen Tendenz deutlich verändert. Sowohl bei den diätetisch eingestellten, als auch den Insulin therapierten Schwangeren wurde eine Erhöhung des abdominalen Umfangs verzeichnet. Das postpartale Gewicht der Kinder bei diätetisch eingestellten Frauen lag signifikant höher (p=0,001) als bei den Neugeborenen der gesunden Mütter. Das Insulin-therapierte Kollektiv hingegen unterschied sich im Gewicht nicht von der Kontrollgruppe. Eine Korrelation zwischen dem RI-Wert und dem Geburtsmodus stellten wir nur bei dem Kontrollkollektiv (p=0,024) unterhalb der 40. SSW fest. Hier fanden wir eine signifikante Erhöhung der primären Sectiorate bei erhöhten RI-Werten. Die postpartale Blutzuckerkontrolle der Neugeboren brachten keine signifikanten Unterschiede zu Tage, ebenso wenig die Auswertung der 5 Minuten APGAR Werte. In dieser Studie konnten wir die Diagnostik und das Management des Gestationsdiabetes um einen möglicherweise prädiktiven Wert (RI-Index) erweitern. Desweiteren bestätigen unsere Daten bereits vorliegende Erkenntnisse wie z.B. die Tendenz zur Makrosomie. Ein neuer Aspekt dieser Arbeit ist die Korrelation des RI-Wertes mit der mütterlichen Stoffwechsellage sowie die positive Wirkung des Insulins auf das fetale Outcome. Mit den erarbeiteten Ergebnissen aus dieser Arbeit wird vorgeschlagen, dass die signifikante Senkung des RI-Wertes mit einer möglichen Störung der mütterlichen Stoffwechsellage in Zusammenhang gebracht werden kann.
Um eine kardiale Ursache für den Zustand klinisch instabiler Patienten auszuschließen, gilt der Einsatz einer fokussierten Echokardiographie als aussagekräftige orientierende Untersuchungsmaßnahme. Auch während einer kardiopulmonalen Reanimation kann eine ALS-konforme Echokardiographie eingesetzt werden. Dafür benötigt der Notfallmediziner ein standardisiertes Training, welches spezielle Schwerpunkte beinhaltet. Dabei muss neben der Vermittlung von theoretischen Kenntnissen und der praktischen Anwendung der Echokardiographie auch besonders auf das Trainieren von visuell perzeptiven Fähigkeiten geachtet werden, da ein schnelles Erkennen von spezifischen Diagnosen elementar für die Prognose klinisch instabiler Patienten ist. Diese Arbeit befasst sich mit der Entwicklung und Anwendung eines computerbasierten Testverfahrens, der dem Erfassen des Lernerfolges im Rahmen des Stufe-1-Training für Notfallechokardiographie. Dabei wird vor allem in Hinblick auf die schnelle Identifikation von Blickdiagnosen geachtet, indem eine Zeitmessung erfolgte. Bei der Entwicklung wurden, basierend auf die aktuellen Empfehlungen für den Einsatz von Echokardiographie in der Intensiv-und Notfallmedizin, die 10 wichtigsten Echokardiographiediagnosen als Filmsequenzen dargestellt. Dazu gehören Befunde wie die PEA, der Perikarderguss, Asystolie, reduzierte Pumpfunktion und Rechtsherzbelastung. Zu jeder Filmsequenz, die je nach Version 5 Sekunden oder bis zu 60 Sekunden dauern, wurde eine Freitexteingabe gefordert und eine Multiple-Choice-Aufgabe gestellt. Ergebnisse wurden im Rahmen von drei Kurskonzepten für Stufe-1-Noallechokardiographie gesammelt. Damit einhergehend wurde die Validität des Simulationstests Notfallechokardiographie bewiesen. Bei der Betrachtung der Ergebnisse zeigt sich, dass es möglich ist, mit dem Test den Wissensstand der Teilnehmer aufzuzeigen. Dabei wurde deutlich, dass Befunde wie die PEA, der Perikarderguss und die hochgradig eingeschränkte Pumpfunktion von der Mehrzahl der Teilnehmer korrekt in Freitexteingabe und Multiple-Choice-Aufgabe benannt werden konnten. Schwächen im Erkennen bestimmter Befunde, allen voran des Normalbefundes, wurden anhand der Testanwendung aufgedeckt. Somit kann der Simulationstest Notfallechokardiographie zu einer Überarbeitung der Kursinhalte beitragen. Bei einer Erfassung der Zeit, die für die Identifikation der Befunde benötigt wird, wird ersichtlich, dass definierte Diagnosen innerhalb von 10 Sekunden erkannt werden können. Vor allem der Befund der PEA wurde nach dem Kurs schnell erkannt. Andere Diagnosen, wie das normale Herz, zeigen, dass es nach einem Kursprogramm weiterhin schwierig sein kann, bestimmte Befunde innerhalb von 10 Sekunden zu stellen. Die gewonnenen Ergebnisse werden durch die erhobenen Daten bei der Anwendung des Simulationstest Notfallechokardiographie in der 5-Sekunden-Version unterstrichen. Spannend ist, dass im Rahmen eines spezialisierten Trainings kein Unterschied in den Ergebnissen festzustellen war. Es spielte dabei keine Rolle, ob die Teilnehmer die Filmsequenzen 5 Sekunden oder 60 Sekunden sehen konnten. Aus diesen Ergebnissen lässt sich der Schluss ziehen, dass nach einem achtstündigen Kurs für ALS-konforme Echokardiographie definierte Blickdiagnosen dass definierte Befunde innerhalb 5 Sekunden erkannt werden können.
Nach einer erfolgten Stammzelltransplantion im Rahmen einer Leukämie sollte in regelmäßigen Abständen der hämatopoetische Chimärismus untersucht werden, da ansteigende autologe Anteile einem Rezidiv häufig voran gehen. [33, 35-37] Es wurde in den letzten Jahren beschrieben [50, 52, 54, 55, 81], dass Sequenzpolymorphismen (SPs) als hochempfindliche Marker für die Chimärismusanalyse fungieren können. Durch sie würde eine deutlich höhere Sensitivität erzielt werden, als mit der bisher verwendeten Methode, die Short Tandem Repeats als Marker zur Diskriminierung von Spender und Empfänger benutzt. Ziel dieser Arbeit war es, die Proben von Kindern, die nach einer ALL eine Stammzelltransplantation erhalten hatten, und die bereits mit der STR-Methode untersucht worden waren, mit der RT-PCR-Methode in Hinblick auf die in der Einleitung gestellten Fragen, erneut zu analysieren. Es ist in 96 % der Empfänger-/Spenderpaare möglich unter den 29 ausgewähltenten SPs mindestens einen geeigneten Marker zu finden und sicherlich wäre es möglich noch weitere Sequenz-Polymorphismen hinzu zu nehmen, falls die Informativität der 29 verwendeten nicht ausreichend ist. Es konnte in fast allen Experimenten eine Sensitivität von 0,1 % erreicht werden, mit zunehmender experimenteller Erfahrung immer zuverlässiger, so dass man inzwischen ein Experiment, bei dem diese Sensitivität nicht erreicht wird, wiederholen würde. Durch eine Vereinfachung der Methode mit einem optimierten Primerscreening, universellen Standardreihen und dem Einsatz von einer definierten Menge DNA-Lösung, die zumindest über einen weiten Bereich unabhängig ist von der enthaltenen Konzentration, lässt sich eine Laborroutine entwickeln, die ähnlich zeitaufwändig ist, wie der jetzige Goldstandard, die STR-Methode. Allerdings ist die RT-PCR-Methode derzeit noch deutlich teurer. In dieser Arbeit zeigt sich, dass die Real-Time PCR mit Sequenz Polymorphismen als genetische Marker eine sehr sensitive Methode zur Erfassung autologer Anteile darstellt und in der praktischen Anwendbarkeit mit der bisherigen PCR-Methode mit Short Tandem Repeats zur Differenzierung vergleichbar ist. Häufig lassen sich autologe Signale früher detektieren. Dadurch werden auch mehr Patienten als gefährdet eingestuft. Vor allem Patienten, die zweimal oder öfter in Folge einen gemischten Chimärismus von größer als 0,5 % aufweisen (und sich nicht in der Phase eines abnehmenden Chimärismus befinden) müssen genau beobachtet und engmaschig kontrolliert werden. Bei einer ansteigenden Dynamik ist es häufig sinnvoll, eine Immuntherapie einzuleiten. Nur bei zwei unserer Patienten verschwanden die autologen Signale von alleine wieder. Bei 50 % der Rezidivpatienten und bei 2 der 3 Patienten, die abgestoßen haben, sieht man mit der RT-PCR-Methode früher autologe Signale. Es wäre jetzt in einem nächsten Schritt nötig, bei einem ausreichend großen Patientenkollektiv beide Methoden parallel in einer prospektiven Studie miteinander zu vergleichen.
Hintergrund und Fragestellung: Die Studie untersucht den Einfluss von Propofol im Vergleich zu Midazolam als Sedativum bei der Ösophagogastroduodenoskopie (ÖGD) im Hinblick auf die psychomotorischen Funktionen von Patienten mit Leberzirrhose und einer minimalen hepatischen Enzephalopathie (HE). Patienten und Methoden: Patienten mit einer Leberzirrhose ohne Zeichen einer klinisch manifesten HE wurden einer ÖGD in therapeutischer Absicht (Ösophagusvarizenligatur) unterzogen. Insgesamt 60 Patienten wurden randomisiert, entweder um Propofol (n = 40) oder Midazolam (n = 20) als Sedativum für die Endoskopie zu erhalten. Die beiden Gruppen waren hinsichtlich ihres Alters, Geschlechts und des Child-Stadiums der Leberzirrhose vergleichbar. Alle Patienten absolvierten zweifach eine psychometrische Testung, den sog. PSE-Syndrom-Test (der u.a. einen Zahlenverbindungstests (ZVT) beinhaltet), einmal vor und 2 Stunden nach Beendigung der Endoskopie. Die Art (diagnostisch/therapeutisch) und Dauer der Endoskopie waren ebenfalls in beiden Gruppen vergleichbar. Die zur Durchführung der Testbatterie benötigten Zeiten als auch der ermittelte PSE-Score wurden dokumentiert. Die Basisdaten vor Endoskopie wurden mit den nach der Endoskopie erzielten Ergebnissen verglichen. Die Aufwachzeit und -qualität nach der Sedierung wurden mit dem sog. Post-Anesthesia Recovery Score (PARS) ermittelt und dokumentiert. Zum Vergleich wurden die psychometrischen Tests auch bei einer „Kontroll-Gruppe“ von 20 lebergesunden Patienten erhoben, welche ebenfalls im Abstand von 2 Stunden evaluiert wurden, ohne sich jedoch einer Endoskopie oder Sedierung zu unterziehen. Ergebnisse: Sowohl die Unterschiede der Zeiten der Durchfürhung des ZVT-A vor und nach Sedierung (mediane delta-Zeit Propofol-Gruppe, -9,5 sec [95 % KI, -15,7 bis -4,6 sec] und Midazolam-Gruppe, 11 sec [95 % KI, -1,2 bis 16,1 sec], p = 0,0021), und auch der mediane delta-PSE-Score (Propofol-Gruppe, 1 [95% KI, 0,5 bis 1,5] und Midazolam-Gruppe, -1 [95 % KI, -1,5 bis 0,2], p = 0,0009) waren in der Propofol-Gruppe signifikant besser. Darüber hinaus war die Aufwachzeit und -qualität bei der Propofol-Gruppe im Vergleich zur Midazolam-Gruppe signifikant günstiger (7,8 ± 2,9 min, vs. 18,4 ± 6,7 min; PARS 6,1 ± 1,1 vs. 8,2 ± 1,3; beide p < 0,001). Folgerungen: Der Gebrauch von Propofol im Rahmen der endoskopischen Sedierung ist mit gewissen Gefahren, wie z.B. kardio-respiratorischen Nebenwirkungen, assoziiert und macht ein intensives Monitoring erforderlich. Allerdings verursacht Propofol keine akute Verschlechterung der psychomotorischen Funktionen bei Patienten mit Leberzirrhose und minimaler hepatischer Enzephalopathie. Darüber hinaus ist die Aufwachzeit verkürzt und die Qualität des Aufwachens bzw. der Erholung nach der Sedierung signifikant verbessert. Bei Patienten mit Leberzirrhose sollte Propofol daher bevorzugt gegenüber Midazolam zur Sedierung verwendet werden.
Im Jahr 2006 kam es in Deutschland lt. der Polizeilichen Kriminalstatistik zu 4584 illegalen Schusswaffeneinsätzen. Daher ist die Entwicklung verbesserter technischer Untersuchungsverfahren die zu einer Aufklärung dieser Straftaten beitragen könnten vordringlich. Mikrosensorsysteme wie der DL 1000 bieten die Möglichkeit die Abbrandgase/Schmauchgase verschiedener Munitionstypen zu analysieren und mit Hilfe eines neuronalen Netzes zu unterscheiden. Zunächst wurden 2000 Treibsätze von 10 verschiedenen Munitionstypen verbrannt und die Profile in dem neuronalen Netz gespeichert. In einem zweiten Schritt wurden mit jedem Munitionstyp je 2 relative Nahschüsse auf Schweinefüße abgegeben und das olfaktorische Profil des Waffenlaufs und der Einschusswunden analysiert. Bei Analyse der Abbrandgase unbekannter Treibsätze konnte der entsprechende Muntionstyp in ca. 84 % der Fälle identifiziert werden. Während auch die olfaktorische Analyse des Gases im Waffenlauf wenige Minuten nach der Schussabgabe noch zu sehr hohen Wiedererkennungsraten führte, sanken diese an der Einschusswunde deutlich ab. Die Ergebnisse zeigen, dass die Abbrandgase von verschiedenen Munitionstypen mit dem verwendeten Analysesystem mit hoher Sicherheit identifiziert werden können. Der Überlagerung der Abbrandgase durch Körper- oder Fäulnisgasgerüche wird vor allem durch eine Erweiterung der Datenbasis des neuronalen Netzes zu begegnen sein.
Akute Hochrisiko-Leukämien oder deren Rezidive, chronische Leukämien, Myelodysplastische Syndrome und Hodgkin- und Non-Hodgkin-Lymphome sind Indikationen für hämatopoetische Stammzelltransplantationen. Das Verfahren ist mit einer hohen Therapie-assoziierten Morbidität und Mortalität (TRM), die bei 5-40% liegt, assoziiert. Hauptprobleme sind dabei neben Infektionen die akute und chronische Transplantatreaktion (Graft-versus-Host-Erkrankung, GvHD). Die TRM variiert je nach Grunderkrankung, Spender und Allgemeinzustand des Patienten. Um Risikofaktoren für die TRM zu identifizieren, analysierten wir in einer retrospektiven Studie 205 allogene pädiatrische SZT in 4 Kliniken, von denen jeweils 2 Kliniken ein hohes bzw. niedriges Risikoprofil hinsichtlich der TRM hatten. Wir überprüften die Anwendbarkeit und Validität des von Matthes-Martin et al. entwickelten Risikoscores (TRMScore), der aus drei Risiko-Punkten Patienten-spezifische (Alter, Grunderkrankung) und Therapie-spezifische (Spender) Charakteristika miteinander kombiniert. Dieser Score teilt die Patienten in 4 TRM–Risikogruppen ein mit einem Score von 0 Punkten (Patient unter 10 Jahren mit HLA-identischen Geschwister als Donor) bis zu 3 Punkten (Patient über 10 Jahren, CR3 und HLA-nicht passenden Spender). Wir modifizierten den TRM-Score von Matthes-Martin et al., indem wir die Patienten mit einem TRM-Score von 0 und 1 in eine erste Gruppe (TRM-Score I) und die Patienten mit dem TRM-Score von 2 und 3 in eine zweite Gruppe zusammen (TRM-Score II) zusammenfassten, und entwickelten den mTRM-Score (modifizierter TRM-Score). Die Indikationen zur SZT waren ALL, AML, CML, Non-Hodgkin-Lymphome, Hodgkin-Lymphome und MDS. Es gab 88 KMT und 115 PBSZT und in 2 Fällen war die Stammzellquelle eine Kombination aus Knochenmark und peripherem Blut. Das Patientenalter lag zwischen 0 und 23 Jahren. Spender waren MSD (26,8%), MRD (1%), MUD (53,2), MMUD (10,2%) und MMRD (8,8). Am LFU lebten 61% der Patienten. Von den 39% der verstorbenen Patienten sind 40% aufgrund eines Rezidivs verstorben und 60% transplantationsassoziiert. Die Gesamt-TRM lag bei 22,4%. Wir teilten transplantationsassoziierte Faktoren in folgende Gruppen ein: Patienten-assoziierte Variablen, Spender-assoziierte, Krankheits-assoziierte, Therapie-assoziierte Variablen und sonstige Variablen. Die logistische Regression zeigte signifikant prognostische Faktoren, die die TRM beeinflussen. Das waren die Klinik (P=0,0045), in der die SZT durchgeführt wurde, das Jahr der SZT (P=0,0457, ab 2001) und der Spendertyp (P=0,0083, kein MSD). Die Diagnose, der Remissionsstatus bei SZT und der TRM-Score waren keine prognostischen Risikofaktoren für die TRM. Bei Anwendung des mTRM-Scores kristallisierte sich dieser als ein Prädiktor für die TRM (P=0,0447) heraus. Ein TRM-Score von I ging mit einer niedrigen TRM-Rate einher. Der mTRM-Score kann aufgrund der Ergebnisse zur Therapieentscheidung herangezogen werden, da er eine Einschätzung der tatsächlichen Überlebenswahrscheinlichkeit für die Patienten möglich macht. Die Klinik als Risikofaktor für die TRM ist nicht alleine durch das Patientenkollektiv und durch die Auswahl des Spendertyps zu erklären. Anhand der 1-Jahres-TRM (23%) von Matthes-Martin et al. errechneten wir die zu erwartende TRM-Rate für unsere Kliniken. Die erwartete TRM wich in Klinik C und Klinik D stark von der beobachteten TRM ab, in Klinik A und Klinik B waren sie annähernd gleich. Ein signifikanter Unterschied bestand nur bei Klinik C mit einem p-Wert von 0,05 bei dem TRM-Score und 0,02 bei dem mTRM-Score. Die Ergebnisse lassen darauf schließen, dass das Outcome der SZT von den Kliniken an sich bzw. deren Therapiemodalitäten beeinflusst wurde.
Risikoabschätzung für das Auftreten Thrombolyse-assoziierter intrazerebraler Blutungen mittels MRT
(2009)
Symptomatische intrazerebrale Blutungen (sICH) stellen die wichtigste Komplikation der Thrombolyse akuter ischämischer Schlaganfälle dar. Sie sind mit einer erhöhten Mortalität und sehr schlechten Langzeitergebnissen verbunden. Die Identifikation von Patienten mit einem erhöhten Blutungsrisiko stellt daher ein wesentliches Ziel aktueller Forschungsbemühungen dar.
In der vorliegenden Studie wurde die Bedeutung ausgewählter MR-Parameter (Leukoaraiosis, Mikroblutungen, Ausmaß der DWI-Läsion) als mögliche Prädiktoren für Thrombolyse-assoziierte sICH untersucht.
In die retrospektive, multizentrische Studie wurden prospektiv erhobene Daten von 475 Patienten aus sechs deutschen und zwei internationalen anerkannten Schlaganfallzentren eingeschlossen, die im Zeitfenster von <6 Stunden mit einem akuten ischämischen Schlaganfallereignis im Bereich der vorderen Zirkulation mit einer i.v. (n=367; 77%), i.a. (n=74; 16%) oder i.v./i.a. (n=34; 7%) Thrombolyse behandelt worden.
Alle Patienten wurden mit einem Schlaganfall-MR-Protokoll untersucht, welches neben Diffusions- und FLAIR-Sequenzen auch T2*-gewichtete Sequenzen enthielt.
Für die Analyse wurden die Patienten jeweils in eine Gruppe ohne und eine Gruppe mit schwerer LA (Fazekas 0-1 vs. 2-3) und je eine Gruppe mit kleinem (<1/3 des A. cerebri media-Stromgebietes (MCA)) und großem (>1/3 MCA) DWI-Läsionsausmaß dichotomisiert. T2*-Wichtungen wurden auf das Vorliegen und die Anzahl von zerebralen Mikroblutungen (CMB) untersucht und Patienten in eine Gruppe mit ≥1 CMB und ohne CMB dichotomisiert.
Eine sICH wurde als eine in der Verlaufsbildgebung (cCT oder MRT) dokumentierte (≥10 ml) Blutung definiert, die innerhalb von 36 Stunden nach Thrombolysebeginn mit einer klinischen Verschlechterung des Patienten (≥1 Punkt auf der NIHSS-Skale) einherging.
Insgesamt entwickelten 28 (5,9%) Patienten eine sICH. SICH waren signifikant häufiger in der Gruppe mit LA (Fazekas 2-3) (n=12/114; 10,5%) als in der Gruppe ohne LA (Fazekas 0-1) (n=13/335; 3,5%) zu finden. In einer logistischen Regressionsanalyse (Alter, National Institutes of Health Stroke Scale (NIHSS) bei Aufnahme, Art der Thrombolyse) blieb LA ein unabhängiger Risikofaktor (Odds ratio 2,7 (95% KI, 1,29-6,59), p=0,015).
Die Anzahl der sICH konnte auch in der Gruppe mit großen (>1/3 MCA) (n=6/32; 18,8%) signifikant häufiger als in der Gruppe mit kleinen DWI-Läsionen (<1/3 MCA) (n=12/319; 3,8%) erhoben werden, was umgerechnet einem 5,9 fachen Risiko (Odds ratio 5,9 (95% KI, 2,048-17,017, p=0,003) einer sICH für Patienten mit großen DWI-Läsionen im Vergleich zu Patienten mit kleinen DWI-Läsionen entspricht. Das Ausmaß der DWI-Läsion bleibt in einer multivariaten Regressionsanalyse (s.o.) ein unabhängiger Risikofaktor für sICH.
Die Ergebnisse einer großen Subgruppenanalyse der i.v.-behandelten Patienten (n=367/376, 77%) waren hinsichtlich der Bedeutung für LA und Ausmaß der DWI-Läsion vergleichbar mit den Ergebnisse der Gesamtmenge.
Die Anzahl der sICH unterschied sich nicht signifikant zwischen der Gruppe mit ≥1 CMB (n=7/79, 9%) und der Gruppe ohne CMB (n=20/367, 5%, p=0,295).
Zusammenfassend konnte die vorliegende Arbeit die MR-Parameter Leukoaraiose und das Ausmaß der initialen DWI-Läsion als unabhängige Risikofaktoren hinsichtlich der Enwicklung Thrombolyse-assoziierter sICH nachweisen. Hiermit kann einerseits die Sicherheit der Thrombolyse im 3h-Zeitfenster erhöht und der Behandlungzeitraum hoffentlich zukünftig erweitert werden. Der potentielle Behandlungsgewinn einer Thrombolyse sollte bei Einschluss in Betracht kommender Schlaganfallpatienten sorgfältig gegen das mit zunehmender LA und DWI-Läsionlast ansteigende Blutungsrisiko abgewogen werden. Eine unabhängige Assoziation zwischen sICH und CMB konnte nicht gezeigt werden, so dass das Blutungsrisiko bei Patienten mit CMB’s den Behandlungsvorteil wahrscheinlich nicht übersteigt.
Die Allgemeinanästhesie ermöglicht die zahnärztliche Sanierung bei Patienten, deren Behandlung unter konventionellen Bedingungen nicht erfolgen kann. In der vorliegenden retrospektiven Studie wurden die Daten zu 430 im Zeitraum von 1997 bis 2006 im Zahnärztlichen Universitätsinstitut Carolinum der Johann Wolfgang Goethe-Universität Frankfurt am Main bei 382 Patienten durchgeführten ambulanten zahnärztlichen Vollnarkosen (Gruppe 3G) erfasst und ausgewertet. Ziele der Arbeit waren die Untersuchung der Eingriffe in Bezug auf Organisation, Patientencharakteristika, Therapiekonzepte und therapeutische Maßnahmen sowie die Evaluation des Bedarfs nach Veränderungen. Die Sanierungen erfolgten bei Patienten aller Altersgruppen und unterschiedlicher Morbiditätsgrade. In 84,4 % der Fälle waren die Patienten älter als 6 Jahre. Der Altersdurchschnitt beim untersuchten Kollektiv betrug 25 Jahre. Die Mehrzahl der Patienten hatte schwere Allgemeinerkrankungen, geistige Behinderungen und motorische Störungen. Hauptindikation für die Behandlung in Vollnarkose war die unzureichende Kooperationsfähigkeit der Patienten für die Behandlung in Lokalanästhesie und ein hoher Sanierungsbedarf. An 10,5 % der Termine erfolgte die Therapie bei kooperationsunwilligen Kleinkindern. Gruppe 3G umfasste die chirurgischen (Gruppe 3C), konservierenden (Gruppe 3K) und kombiniert konservierenden und chirurgischen Sanierungen (Gruppe 3K + C). Es erfolgte eine gesonderte Auswertung der Behandlungen in der jeweiligen Subgruppe und die Gesamtauswertung in der Gruppe 3G. Das untersuchte Patientenkollektiv hatte einen niedrigen Sanierungsgrad und einenhohen Sanierungsbedarf. Infolgedessen wurde in allen Gruppen eine umfangreiche Therapie durchgeführt. Die häufigsten therapeutischen Maßnahmen waren die Restauration mittels plastischer Füllungsmaterialien und die Zahnextraktion. An einzelnen Terminen erfolgten prothetische und parodontologische Behandlungen. In der Gruppe 3G wurden pro Intervention durchschnittlich 5,6 Zahnflächen mittels 2,9 Füllungen restauriert und 6,5 Zähne extrahiert. Bei der Kohorte der Kinder im Alter von bis zu 6 Jahren waren 3,8 Füllungen an 7,5 Zahnflächen und 7,6 Extraktionen pro Patient festzustellen. Aus der jährlichen Verteilung der Füllungswerkstoffe werden ein Rückgang in der Anwendung des Amalgams und der Trend zur Verwendung adhäsiver Materialien deutlich. Die prä- und intraoperative Befunderhebung hat sich bei dem untersuchten Patientengut als sehr schwierig herausgestellt. Aufgrund fehlender Mitarbeit der Patienten konnte die röntgenologische Untersuchung in 35,6 % der Fälle nicht durchgeführt werden. Durch Einrichtung einer intraoperativen Röntgenmöglichkeit könnte eine genauere Diagnostik und Therapieplanung erzielt werden. Abschließend werden Therapiekonzepte für die Behandlung in Vollnarkose, die Compliance der Patienten für präventive Maßnahmen, die Inzidenz der Mehrfachbehandlungen in Allgemeinanästhesie und die Einführung eines strukturierten Recalls diskutiert.
T-Lymphozyten spielen eine entscheidende Rolle in der Pathophysiologie der Rheumatoiden Arthritis. Sie fördern einerseits die perpetuierende Entzündung innerhalb der Membran und besitzen andererseits die Fähigkeit auf die Inflammationen regulativ bzw. suppressiv zu wirken. In der hier vorliegenden Arbeit wurde untersucht, ob entzündungsfördernde T-Zellprodukte und regulatorische T-Zellpopulationen innerhalb der Synovialmembran nachweisbar sind, und wie unstimulierte periphere TZellen auf Synovialmembranzellen "in vitro" reagieren. Innerhalb der Synovialmembran konnte eine Population von CD4(+)CD25(+) regulatorischen T-Zellen (Tregs) durchflusszytometrisch nachgewiesen werden. Immunhistochemische Analysen des Gewebes konnten eine Akkumulation dieser Zellen innerhalb von Sekundärfollikeln des Synovialmembrans nachweisen. Die ELISPOT-Analyse ausgewählter Zytokine resultierte in der Detektion immunsuppressiver (IL-10) und immunstimulatorischer Zytokine in Synovialmembranzellkultur. Hier konnte erstmalig eine autologe IFN-gamma Produktion auf Proteinebene nachgewiesen werden. Klinische Betrachtungen der IFN-gamma Produktion zeigten eine starke Assoziation mit dem Rheumafaktor. Zusätzlich findet sich eine tendenzielle Abnahme der immunstimulatorischen Kapazität mit der Dauer der Erkrankung. Eine Betrachtung der intrasynovialen IL-10 Produktion unter Berücksichtigung des klinischen Entzündungsparameter CRP, zeigt einen starken Zusammenhang zwischen den beiden Parametern. ELISPOT Analysen einer Co-Kultur zwischen autologen CD4(+) und CD8(+) PBMCs und Synovialmembranzellen ergaben eine Abnahme der autologen IFN-gamma Produktion ohne Zunahme der Interleukin- 10 Produktion. Eine Aktivierung der Zellkultur lässt diesen Effekt verschwinden. Durch Aufreinigung der PBMCs konnte der stärkste suppressive Effekt innerhalb der CD4(+)CD25(+) T-Zellfraktion nachgewiesen werden, welcher marginal durch Aktivierung der Zellkultur unterbrochen werden konnte. Regulatorische Effekte konnten auch innerhalb der CD8(+) T-Zellfraktion dokumentiert werden, welche sich aber durch spezifische anti-CD3 Ab und anti-CD28 Ab Aktivierung verliert. Die Beeinflussung der suppressiven Eigenschaften von T-Zellen bzw. ihrer spezialisierten T-Zellpopulationen könnte in Zukunft zu einer besseren Therapie der Rheumatoiden Arthritis führen.
Ziel der vorliegenden, multizentrischen Studie war es, das Standardtherapieschema Mitoxantron-Chlorambucil-Prednison (MCP) mit der neueren Kombination Cladribin (2-CdA)-Mitoxantron (CdM) bezüglich Ansprechraten, Überlebensraten und Toxizität als firstline-Therapie bei Patienten mit niedrigmalignem Non-Hodgkin Lymphom zu vergleichen. Es wurden insgesamt 178 Patienten in die Studie aufgenommen, 92 wurden zu CdM randomisiert und 86 zu MCP. Es gab 15 Dropouts. Histologisch hatten 84 Patienten ein follikuläres Lymphom, 37 hatten ein Mantelzelllymphom, 28 ein Immunozytom und 14 ein Marginalzonenlymphom. Die Patienten bekamen bis zu sechs Therapiezyklen. Im Arm CdM wurden an den Tagen 1-3 5 mg/m² Cladribin als Infusion verabreicht, sowie an Tag 1+2 8 mg/m² Mitoxantron als i. v. Bolus. Die Patienten die dem Arm MCP zugeordnet waren bekamen an den Tagen 1–5 3x 3mg/m² Chlorambucil per os, sowie einmal täglich 25 mg/m² Prednison per os. An Tag 1+2 wurde außerdem 8 mg/m² Mitoxantron als i. v. Bolus verabreicht. Auf die Therapie mit MCP sprachen insgesamt 81 % der Patienten an (CR 24,1 %, PR 57 %). Die Therapie mit CdM hatte eine Remissionsrate von 85,7 % (CR 34,5 %, PR 51,2 %). Die Unterschiede waren nicht signifikant. Der Median des overall survival (OS) konnte nicht erreicht werden, in Arm CdM lag das OS nach 77 Monaten bei 64 %, im Arm MCP lag es nach 71 Monaten bei 51 %. Der Median des event-free survival lag bei MCP bei 20 Monaten und unter CdM bei 21 Monaten. Der Median des progression-free survival betrug 26 Monate bei MCP und 27 Monate bei CdM Keiner dieser Unterschiede war signifikant. Nicht-hämatologischen Nebenwirkungen gaben nur wenige Patienten an, diese waren hauptsächlich Übelkeit, Erbrechen, Durchfall und Alopezie. Häufigste hämatologische Nebenwirkung war eine Leukozytopenie. Bei CdM kam es in 81,7 % der Zyklen zu einer Leukozytopenie WHO Grad 3 oder 4, bei MCP in 64,1 % der Zyklen. Die Ergebnisse zeigen, dass CdM gegenüber MCP keine Vorteile aufweist, jedoch auch keine Nachteile hat. Die evtl. bessere Wirkung bei Mantelzelllymphomen lässt sich Aufgrund der nicht-repräsentativen Größe dieser Gruppe nur vermuten.
Die positive Wirkung einer psychoonkologischen Versorgung onkologischer Patienten, die über ein kritisches Maß hinaus belastet sind, ist heute unbestritten. Krebspatienten sind sowohl mit der Krebsdiagnose selbst, als auch mit der medizinischen Behandlung hohen Belastungen ausgesetzt. Unbehandelte psychosoziale Belastungen wirken sich negativ auf die Lebensqualität der Patienten aus, erschweren die Krankheitsverarbeitung, beeinflussen medizinische Behandlungsergebnisse und können chronifizieren. Die psychoonkologische Behandlung in der akutstationären Versorgung weist jedoch große Lücken auf. Ausgangspunkt dieser Untersuchung war deshalb der Blick auf zwei Desiderate der Psychoonkologie: Zum einen besteht der Wunsch nach empirischen Untersuchungen zum psychoonkologischen Behandlungsbedarf an Akutkrankenhäusern. Zum anderen mangelt es am Einsatz valider, praktikabler und krebsspezifischer Messinstrumente. Diese Studie untersuchte deshalb den psychoonkologischen Behandlungsbedarf von Krebspatienten in der akutstationären Versorgung mit krebsspezifischen diagnostischen Instrumenten. Insgesamt 478 stationäre Krebspatienten wurden über einen Zeitraum von sechs Monaten an den Frankfurter Diakoniekliniken (Markus-Krankenhaus) in Frankfurt am Main mit Hilfe der neuen Kurzform der „Psychoonkologischen Basisdokumentation“ (Po-Bado-KF) sowie der spezifischen Version für Brustkrebspatienten (PO-Bado-BK) im Rahmen eines psychoonkologischen Anamnesegespräches (Fremdeinschätzung) untersucht. Da Fremd- und Selbsteinschätzung der Patienten häufig nicht übereinstimmen, wurde darüber hinaus die revidierte Fassung des Fragebogens zur Belastung von Krebspatienten (FBK-R23) als Selbsteinschätzungsinstrument eingesetzt. Des Weiteren wurde der mögliche Einfluss soziodemografischer und krankheitsbezogener Variablen auf den psychoonkologischen Behandlungsbedarf überprüft. Die Ergebnisse der Studie belegen, dass ein Routine-Screening der psychosozialen Belastung von Krebspatienten – vorausgesetzt, es wird ein entsprechendes Behandlungsangebot bereit gehalten – sehr sinnvoll ist: Über die Hälfte (56%) der 478 Patienten in der vorliegenden Studie waren psychoonkologisch behandlungsbedürftig. In der Selbsteinschätzung durch den FBK-R23 lagen 31% der Patienten über einem kritischen Wert. Fremd- und Selbsteinschätzung stimmten in dieser Untersuchung signifikant überein. Für die psychoonkologische Behandlungsindikation waren ein fortgeschrittener Krankheitsstatus, der körperliche Funktionsstatus, psychische Probleme vor Ausbruch der Erkrankung, die Einnahme von psychotropen Substanzen (Antidepressiva, Anxiolytica, Schlafmittel) sowie krankheitsunabhängige Belastungen wie Probleme im familiären, sozialen oder finanziellen Bereich entscheidend. Die PO-Bado-KF hat sich in dieser Untersuchung als ein praktikables und ökonomisches Fremdeinschätzungsinstrument bewährt und kann, nach entsprechender Schulung, unproblematisch in die medizinische Anamnese integriert werden. Ist dies aus verschiedenen Gründen nicht möglich, können die in dieser Studie extrahierten Parameter, die signifikant mit dem Behandlungsbedarf in Zusammenhang standen, als Indikatoren für Interventionen herangezogen werden. Auch die Selbsteinschätzung der Patienten lieferte in dieser Studie valide Daten des psychoonkologischen Betreuungsbedarfs. Das Erfassen der Daten, die Auswertung des Fragebogens und die Weiterleitung an die Psychoonkologie scheint jedoch weniger praktikabel und ökonomisch als die Erfassung mit der PO-Bado-KF. Wie in jeder Untersuchung bleiben auch nach Abschluss dieser Studie Fragen offen. Insbesondere wird genauer zu erforschen sein, inwieweit die psychosoziale Belastung der Patienten mit dem Zeitpunkt des psychoonkologischen Interviews zusammenhängt. Die Hypothese liegt nahe, dass Patienten, die auf eine Operation oder auf die Mitteilung der histologischen Befunde warten, höher belastet sind als Patienten, die diese spezifische Belastung zum Zeitpunkt des Interviews nicht haben. In der vorliegenden Untersuchung wurde dieser Frage nicht nachgegangen. Ferner bleibt zu untersuchen, ob sich Patienten, die sich selbst als nicht belastet wahrnehmen, vom Interviewer hingegen als belastet eingestuft werden, voneinander unterscheiden und ob Patienten mit einer psychoonkologischen Behandlungsindikation eine entsprechende Behandlung möchten bzw. diese in Anspruch nehmen. Auch die Überprüfung von Interventionseffekten durch die psychoonkologische Anamnese mittels PO-Bado-KF könnte wertvolle Hinweise liefern, ob dieses neu vorgelegte Screeninginstrument über ein größeres Potenzial verfügt, als bisher angenommen.
Prädiktion der Prognose von Patienten mit ischämischer Kardiomyopathie anhand der Spiroergometrie
(2009)
Hintergrund: Es ist ein wichtiges klinisches Ziel, Hochrisikopatienten unter den Patienten mit Herzinsuffizienz herauszufinden, da sie eine besonders intensive Therapie und engmaschige Kontrollen benötigen. Das Ziel dieser Arbeit war, bei Patienten mit Herzinsuffizienz infolge eines Myokardinfarktes Zuordnungen der klinischen Herzinsuffizienzmarker und Belastungsparameter hinsichtlich ihrer prognostischen Kraft zu definieren. Die Patienten erhielten alle eine optimale medikamentöse Behandlung mit sowohl Betablockern als auch ACE-Inhibitoren. Methoden: Bei 103 Patienten mit abgelaufenem Herzinfarkt wurde eine Spiroergometrie durchgeführt. Die von der Spiroergometrie abgeleiteten Parameter beinhalteten den peak O2, VO2 an der anaeroben Schwelle, den peak O2-Puls, die minimalen CO2 - und O2 -Äquivalente, VE/VCO2 und s1, ein submaximaler Parameter, der die initiale Steigung der VO2/VCO2-Kurve repräsentiert. s1 wurde bis dahin noch nie bei Patienten mit Herzinsuffizienz beschrieben. Ergebnisse: Das mediane Follow-up betrug 668 Tage. Bei 14 Patienten trat der kombinierte Endpunkt des kardiovaskulären Todes oder der Einweisung in das Krankenhaus auf Grund einer Verschlechterung der Herzinsuffizienz auf. Patienten mit und ohne Ereignis unterschieden sich hinsichtlich ihres Alters, der NYHA-Klasse, der LVEF und der NT-proBNP Serumspiegel signifikant. Die Patienten mit Ereignis hatten signifikant niedrigere peak VO2- und niedrigere s1-Werte. Der NT-proBNP-Serumspiegel, die NYHA-Klasse und die LVEF korrelierten signifikant mit peak VO2 , aber nicht mit s1. Nur NT-proBNP, peak VO2 und s1 waren jedoch statistisch unabhängige Prädiktoren von nachteiligen Ereignissen. Bei der multivariaten Analyse war s1 eine starke und unabhängige prognostische Variable mit insgesamt guter Sensitivität und Spezifität, vergleichbar mit dem NT-proBNP-Serumspiegel. Schlussfolgerung: Zusätzlich zu peak VO2, der eine entscheidende Rolle als spiroergometrischer Parameter auch bei Patienten unter Betablockertherapie spielt, ist der submaximale Parameter s1 ein wertvoller Prädiktor bei Patienten mit Herzinsuffizienz ischämischer Genese. Da s1 unabhängig von der maximal erreichten Belastungskapazität ist, könnte es für die Evaluation von Herzinsuffizienzpatienten, die entweder nicht an ihre maximale Belastungsschwelle gehen können oder wollen, von Nutzen sein.
Protein S-100B als Serummarker der zerebralen Schädigung bei pädiatrischen Schädel-Hirn-Verletzungen
(2009)
Protein S-100 ist ein Calcium-bindendes Protein, das die Aktivität seiner Zielproteine moduliert. Der Aufgabenbereich umfasst die Regulation von Zellwachstum und Zellstrukturbildung. Entdeckt wurde es im Jahre 1965 von B.W. Moore, der es erstmals aus Rinderhirn isolierte. Seinen Namen erhielt es aufgrund seiner Löslichkeit in 100% gesättigtem Ammoniumsulfat bei neutralem ph-Wert. Protein S-100 besteht aus mehreren Untereinheiten, von denen S-100B nur im Hirngewebe vorkommt, hauptsächlich im Zytosol von Gliazellen. Bei astroglialer Zerstörung und konsekutiver Störung der Blut-Hirn-Schranke können erhöhte Konzentrationen von Protein S-100B im Serum gemessen werden. Durch seine spezifische Herkunft besitzt Protein S-100B einen potentiellen Wert als biochemischer Marker einer strukturellen Hirnschädigung. Ziel dieser Studie ist die Überprüfung des posttraumatischen Protein S-100B Serumspiegels bezüglich seiner Korrelation mit dem Schweregrad kindlicher Schädel-Hirn-Verletzungen und deren Prognose. In Form einer prospektiven Studie wurden insgesamt 45 Kinder (23 Jungen und 22 Mädchen) zwischen 4 Monaten und 17 Jahren (Mittelwert 7,64 Jahre) mit Hirnverletzungen unterschiedlicher Schweregrade untersucht, bei denen innerhalb der ersten 20 posttraumatischen Stunden mittels eines immunoluminometrischen Assays die Protein S-100B Serumkonzentration bestimmt wurde. Der Normalbereich für Protein S-100B liegt bei < 0,15 µg/l. Werte zwischen 0,15 und 0,5 µg/l gelten als leichtgradig erhöht, Werte über 0,5 µg/l als deutlich erhöht. Die S-100B-Werte wurden mit den klinischen Daten und dem posttraumatischen Outcome (Nachbeobachtungszeit mindestens 6 Monate) korreliert. Die statistischen Signifikanzberechnungen erfolgten mittels des Fisher-Exact-Tests.Die gemessenen S-100B Werte lagen zwischen 0,05 und 3,05 µg/l (Mittelwert 0,46 µg/l). Die mittlere Latenzzeit der posttraumatischen Protein S-100B Bestimmung betrug 5 Stunden. 38 % der Kinder zeigten leichtgradige Erhöhungen (>= 0,2-0,5 µg/l), 29 % deutliche Erhöhungen (> 0,5 µg/l). Niedrige Punktwerte in der initialen Glasgow-Coma-Scale (GCS) bedeuteten im Mittel höhere Werte für Protein S-100B. Ein initialer GCS-Wert von unter 8 ging in allen Fällen mit S-100B Werten über 0,5 µg/l einher (p=0,005). In Fällen ohne Verlust des Bewusstseins, bzw. maximal einer leichten Eintrübung des Bewusstseins (Lange-Cosack I-II) lagen die S-100B Werte im Mittel niedriger als bei Vorliegen eines Bewusstseinsverlustes (III-IV). Ein Bewusstseinsverlust ging immer mit einem S-100B Wert von mindestens 0,2 µg/l einher (p=0,04), meist lag der Wert über 0,5 µg/l (p=0,015). 25 Kinder erhielten eine Computer- und /oder Magnetresonanztomographie. Hier zeigten sich erhöhte S-100B Werte vor allem bei schweren Kontusionen und Subduralblutungen. Den höchsten Wert (3,05 µg/l) wies ein Kind mit ausgedehnten diffusen axonalen Verletzungen auf. Bei 38 der 45 Patienten konnte nach einer durchschnittlichen Nachbeobachtungszeit von 27,5 Monaten das neurologische Outcome (Glasgow Outcome Scale, GOS) erhoben werden. 8 Kinder (21 %) wiesen neurologische Residuen auf, vor allem Koordinationsstörungen und Verlangsamungen im Sinne eines Psychosyndroms, 1 Kind verstarb im Akutverlauf an einem malignen Hirnödem. Die Kinder mit posttraumatischen Residuen / Behinderungen wiesen im Mittel tendenziell höhere Werte für Protein S-100B auf. Die unterschiedlichen Beschwerdebilder und Residualzustände nach leichten und schweren Schädel-Hirn-Verletzungen lassen sich anhand der etablierten klinischen, neurophysiologischen und neuroradiologischen Prognosemarker bislang nur bedingt vorhersagen. Die Ergebnisse dieser Untersuchung zeigen gute Korrelation des Serum S-100B Wertes mit der Schwere und Dauer der initialen Bewusstseinsstörung sowie dem Ausmaß der hirnparenchymatösen Läsionen. Die Aussagekraft bezüglich des posttraumatischen Outcomes ist aufgrund der Fallzahl und der zu einem großen Teil einbezogenen leichten Schädel-Hirn-Verletzungen begrenzt. Die Untersuchungsergebnisse unterstützen die bei Erwachsenen erhobenen Daten und zeigen, dass Protein S-100B auch im Kindesalter einen viel versprechenden Parameter zur Objektivierung einer akuten Hirnschädigung darstellt und bereits zu einem frühen posttraumatischen Zeitpunkt einen Beitrag zur Beurteilung des Schweregrades und der Prognose von Schädel-Hirn-Verletzungen leisten kann. Der posttraumatische Protein S-100B Serumwert bringt hier als biochemischer Marker eine zusätzliche Information und kann so bei der Einschätzung und Initiierung von diagnostischen, therapeutischen, rehabilitativen und Follow-up-Maßnahmen hilfreich sein.
Konuskronen verankerter Zahnersatz hat sich seit mehreren Jahrzehnten als hervorragende Therapieform zur Versorgung des reduzierten Restgebisses bewährt und verbindet zahlreiche Vorteile des festsitzenden mit denjenigen des herausnehmbaren Zahnersatzes. Vor dem Hintergrund einer steigenden Relevanz ästhetischer Versorgungen sowie einer größer werdenden Ablehnung der Patienten hinsichtlich der Verwendung metallischer Werkstoffe, gewann das Ziel, auch kombiniert festsitzend-herausnehmbaren Zahnersatz metallfrei zu fertigen, zunehmend an Bedeutung. Ziel der vorliegenden prospektiven klinischen Studie war die Evaluation des klinischen Langzeitverhaltens von keramischen Primärkronen aus IPS Empress 2® kombiniert mit Sekundärkronen und Prothesengerüsten aus faserverstärktem Kunststoff (Vectris®) sowie die Untersuchung der Patientenzufriedenheit. Als Kontrollgruppe dienten keramische Primärkronen mit Sekundärkronen aus Galvanogold und metallischen Gerüsten. Dazu wurden 29 Patienten mit insgesamt 37 Konusprothesen auf 165 keramischen Primärkronen versorgt, 27 (73%) Prothesen entfielen auf die Kontrollgruppe und 10 (27%) Prothesen auf die Testgruppe. Eingebunden in ein Recall-System, wurden die Patienten in halbjährigen Abständen über einen Zeitraum von 5 Jahren nachuntersucht. Zur Evaluation der Patientenzufriedenheit erhielten die Studienteilnehmer jeweils vor Therapiebeginn, nach Fertigstellung der Konusprothesen und im einjährigen Abstand einen Fragebogen. Die Zeit unter Risiko betrug durchschnittlich 59 ± 22 Monate (min. 16, max. 96 Monate), Befragungen hinsichtlich der Patientenzufriedenheit wurden über 46 ± 18 Monate durchgeführt (min. 15, max. 66 Monate). Beide Gruppen zeigten eine vergleichbar hohe Reparaturanfälligkeit. 88,9% der Restaurationen in der Kontrollgruppe, sowie 90% der Restaurationen in der Testgruppe mussten mindestens einmal instand gesetzt werden (Mann-Whitney-U-Test, p = 0,121). Auch das Schadensrisiko der vollkeramischen Primärkronen zeigte keine statistischen Unterschiede (Testgruppe: 10,81%; Kontrollgruppe: 10,16%; exakter Fisher-Test, p > 0,05). Die Häufigkeit einer Neuanfertigung der Konusprothese war bei der Test-Gruppe (40%) höher als bei der Kontroll-Gruppe (14,8%), ein statistisch signifikanter Unterschied war zwischen beiden Gruppen nicht nachzuweisen (exakter Fisher-Test, p = 0,16). Die Erfolgsrate zeigte in Abhängigkeit der Zeit unter Risiko jedoch ab 2,5 Jahren schlechtere Werte bei metallfreien Prothesen als bei der Kontrollgruppe, nach etwa 5 Jahren nahm dieser Unterschied deutlich zu (Kontrollgruppe: 86%, Testgruppe: 24%) und unterschied sich statistisch signifikant (Log-Rank-Test, p=0,041). Bei drei der 128 Galvano-Matrizen kam es zu einer Beschädigung an den Sekundärstrukturen, bei 9 von 37 Matrizen aus glasfaserverstärktem Kunststoff trat ein Schaden auf. Dieser Unterschied war statistisch hochsignifikant und belegt, dass Vectris®-Mesostrukturen eher zum Versagen neigen als Galvano-Sekundärkronen (exakter Fisher-Test, p = 0,00008). Im Gegensatz zu den durchaus unterschiedlichen klinischen Ergebnissen und den unbefriedigend hohen Reparaturzahlen war die Patientenzufriedenheit mit den jeweiligen Studienprothesen für beide Gruppen vergleichbar gut. Zu keinem Zeitpunkt zeigte sich eine relevante Personenzahl in einer der Gruppen mit dem erhaltenen Zahnersatz unzufrieden. So war in der Testgruppe initial lediglich eine Person unzufrieden, änderte diese Einstellung jedoch im Rahmen der weiteren Kontrollen. Eine weitere Person war anfangs zufrieden, dann vorübergehend unzufrieden, um im Weiteren erneut ihre Zufriedenheit zu äußern. Für die Metallgruppe ergab sich lediglich in der letzten Nachkontrolle eine Person, die unzufrieden mit dem Zahnersatz war. Statistisch signifikante Unterschiede zwischen den Gruppen waren somit zu keinem Zeitpunkt nachzuweisen (exakter Fisher-Test, alle p > 0,05). Die vorliegende Untersuchung bestätigt, dass sich die Verwendung keramischer Primärkronen in Doppelkronenrestaurationen prinzipiell bewährt und die Anforderungen an die gestellten Parameter wie Haftkraftstabilität, Biokompatibilität und Ästhetik erfüllt. Jedoch weist die Lithiumdisilikat-Glaskeramik IPS Empress 2® eine unzureichende Stabilität auf, für diesen Indikationsbereich sind daher ausschließlich hochfeste Zirkoniumdioxid-Keramiken zu empfehlen. Mit diesem Material ist ein wesentlich geringeres Reparaturrisiko zu erwarten. Als Matrizenwerkstoff zeigten galvanogeformte Sekundärkappen sehr gute klinische Ergebnisse. Die hohe Passungspräzision, welches durch die intraorale Fügung erreicht wird, gewährleistet eine ideale Lagerung des Zahnersatzes und reduziert kinetikbedingte Schäden auf ein Minimum. Das Ziel der Untersuchung, die dauerhafte klinische Bewährung metallfreier Konusprothesen aus dem Glasfaserverbundmaterial Vectris® nachzuweisen, konnte nicht erreicht werden. Die Ergebnisse dieser prospektiven klinischen Studie belegen eine Überlegenheit der metallischen Konusprothese. Somit bedarf die Realisation einer klinisch verlässlichen metallfreien Konusprothese noch erheblichen Forschungs- und Entwicklungsbedarf. Insbesondere die Substitution von galvanogeformten Feingoldmatrizen stellt eine große Herausforderung dar.
In der vorliegenden Untersuchung wurden die im Zeitraum von 1984 bis 2006 an der Universitätsklinik Frankfurt am Main aufgrund von nicht-kolorektalen Lebermetastasen durchgeführten Leberteilresektionen untersucht. Ziele dieser Arbeit sind die Darstellung des Patientenkollektivs einschließlich der operativen Faktoren der Lebermetastasenresektion, die Ermittlung von Langzeitergebnissen nach der Resektion und die Feststellung von Prognosefaktoren im Hinblick auf das postoperative Überleben dieser Patienten. Das untersuchte Patientenkollektiv (n = 69) umfasste 31 Männer und 38 Frauen mit einem medianen Alter von 52 Jahren zum Zeitpunkt der Leberresektion. Am häufigsten waren folgende Primärtumore vertreten: Magenkarzinom, Mammakarzinom, Malignes Melanom, Neuroendokriner Tumor und Nierenzellkarzinom. Der größte Anteil der Primärtumore wurde als mäßig differenziert (G2) eingestuft. 55,1 % der Patienten zeigten eine solitäre Lebermetastasierung. Der mediane Tumordurchmesser betrug 5 cm. Bei 14,5 % der Patienten wurden bilobäre und bei 85,5 % unilobäre Lebermetastasen festgestellt. 20,3 % der Patienten präsentierten sich mit einer synchronen und 73,9 % mit einer metachronen Metastasierung (unbekannt: 5,8 %). Zur Resektion der Metastasen wurden atypische Segmentektomien (n = 25), typische Segmentektomien (n = 22) und (erweiterte) Hemihepatektomien (n = 22) durchgeführt. Bei einer medianen Operationsdauer von 195 min erfolgte bei 69,6 % der Patienten ein zusätzlicher Eingriff. Der mediane Sicherheitsabstand zum Resektionsrand lag bei 10 mm. Die Liegedauer auf der Intensivstation betrug im Median einen Tag. Bei 39 Patienten traten postoperative Komplikationen auf. Ein Fortschreiten der Tumorerkrankung war bei 30 Patienten dokumentiert. Das mediane tumorspezifische Überleben nach Resektion nicht-kolorektaler Lebermetastasen lag bei 4,3 Jahren. Die dazugehörigen 1-, 5- und 10-JahresÜberlebensraten betrugen 80,1 %, 47,9 % und 35,5 %. Die mediane tumorspezifische Überlebenszeit nach Resektion nicht-kolorektaler, nicht-neuroendokriner Metastasen stellte sich mit 2,0 Jahren und folgenden 1-, 5- und 10-Jahres-Überlebensraten dar: 76,8 %, 43,1 % und 27,9 %. Nach der Leberresektion aufgrund von Metastasen eines Magenkarzinoms ergaben sich tumorspezifische 1-, 5- und 10-Jahres-Überlebensraten von 80,8 %, 23,1 % und 11,5 % (mediane ÜLZ: 18 Monate). Die 1-, 5- und 10-Jahres-Überlebensraten nach der Resektion von Filiae eines Mammakarzinoms betrugen 74,6 %, 51,1 % und erneut 51,1 %. Die mediane Überlebenszeit nach Operation von Metastasen eines Malignen Melanoms lag bei 22 Monaten: 1-JÜR: 66,7 %, 5-JÜR: 33,3 %, 10-JÜR: 0,0 %. Nach der Resektion von Filiae eines Neuroendokrinen Tumors betrug die 1- 5- und 10-Jahres-Überlebensrate 100,0 %, 80,0 % und erneut 80,0 %. Bei Patienten mit primärem Nierenzellkarzinom ergab sich nach der Resektion eine mediane Überlebenszeit von 44 Monaten und die dazugehörige 1-Jahres-Überlebensrate lag bei 75,0 %. Die folgenden Faktoren zeigten sich in den Resultaten der univariaten Analyse als signifikante Prädiktoren für das tumorspezifische Überleben der Patienten: Primärtumorgruppe8, Grading des Primärtumors, zusätzliche Eingriffe neben der Leberresektion und Sicherheitsabstand zum Resektionsrand. In der multivariaten, tumorspezifischen Analyse wurden zwei Determinanten als unabhängige Prognosefaktoren für das Überleben nach der Leberresektion identifiziert: Der kleinste Sicherheitsabstand der Leberfiliae zum Resektionsrand und die Durchführung eines zusätzlichen Eingriffs neben der Leberresektion. Bei Durchführung eines solchen Eingriffs war das Risiko für die Patienten, an der Tumorerkrankung zu versterben, 3,5mal so groß im Vergleich zu Patienten, bei denen kein zusätzlicher Eingriff erfolgt ist. Bei Annahme eines Sicherheitsabstandes von mindestens 10 mm als Referenz, errechnete sich im Vergleich dazu für Patienten, bei denen kein Sicherheitsabstand eingehalten werden konnte, ein 6,3mal so großes Risiko an der Tumorerkrankung zu versterben. Bei Einhaltung eines kleinen Abstandes zum Resektionsrand (0,1 mm - 9,9 mm) war das entsprechende Risiko für die Patienten 4,9mal so groß. Die Resektion nicht-kolorektaler Lebermetastasen erscheint in ausgewählten Fällen sinnvoll. Um die Prognose der operierten Patienten zu verbessern, sollte entsprechend den Ergebnissen der vorliegenden Arbeit ein Sicherheitsabstand von mindestens einem Zentimeter angestrebt werden.
Ziel der vorliegenden Arbeit ist es, Erkenntnisse über die Beeinflussung der Überlebensraten von Patienten mit Nierenzellkarzinom durch verschiedene Faktoren wie Tumorstadium und Tumorgröße, Differenzierungsgrad, Metastasierung und histologischer Subtyp zu gewinnen. Insbesondere soll die Frage geklärt werden, inwiefern die Prognose der Patienten von der Art der Diagnosestellung, also inzidentell oder symptomatisch, abhängt. Zu diesem Zweck wurden die Daten aller Patienten, die zwischen dem 01.01.1997 und dem 31.12.2005 in der urologischen Universitätsklinik in Frankfurt am Main mit der Verdachtsdiagnose eines Nierenzellkarzinoms radikal nephrektomiert bzw. teilreseziert worden sind, retrospektiv erhoben und analysiert. Die Patienten wurden entweder der asymptomatischen Gruppe zugeteilt, bei denen der Nierentumor zufällig diagnostiziert werden konnte oder der Gruppe bei der die Diagnose erst aufgrund einer auf den Nierentumor oder seine Metastasen hinweisenden Symptomatik gefunden werden konnte. Die mediane Nachbeobachtungszeit betrug 50 Monate (1 bis 112 Monate). Insgesamt konnte die Diagnose Nierenzellkarzinom bei 246 (68,72 %) Patienten zufällig gestellt, nur 112 (31,28 %) präsentierten sich mit darauf hinweisender Symptomatik. Inzidentelle Tumoren waren signifikant kleiner als Symptomatische (4,8cm versus 6,8cm) und wiesen signifikant häufiger ein niedriges Tumorstadium (p<0,001) und eine günstigere Differenzierung auf (p<0,001). Zusätzlich kam es seltener zu Fernmetastasen sowie zum Befall regionaler Lymphknoten. Hinsichtlich der Verteilung von Alter und Geschlecht ergaben sich keine Unterschiede zwischen den beiden Gruppen. Therapeutisch ergaben sich in bezug auf die durchführbare Operationsart signifikante Unterschiede. Während bei immerhin 36,18% aller Patienten mit inzidentellen Tumoren eine Teilresektion durchgeführt werden konnte, war solch ein nierenerhaltendes Vorgehen nur bei 6,25% aller Patienten mit symptomatischen Tumoren möglich. Die Überlebenswahrscheinlichkeit erwies sich als signifikant besser für Patienten mit inzidentell diagnostizierten Tumoren (p<0,001), genauso wie für Tumoren mit besserem Differenzierungsgrad (p<0,001), günstigerem Staging (p<0,001) sowie geringerer Größe (p<0,001). In multivariater Analyse bestätigten sich nur Diagnoseart, Differenzierungsgrad und das Vorhandensein bzw. Nichtvorhandensein von Metastasen als unabhängige prognostische Variablen. Patienten, bei denen der Tumor zufällig anhand einer Routineuntersuchung in völlig asymptomatischem Stadium gefunden werden kann, haben demnach eine signifikant bessere Überlebenswahrscheinlichkeit. Aus diesem Grund sowie aus der Tatsache heraus, dass bisherige Ergebnisse systemischer Therapien die Langzeitüberlebensrate der Patienten mit fortgeschrittenen Nierenzellkarzinomen meist nicht verbessern können, bleibt die Frage der Notwendigkeit einer Screeninguntersuchung weiter bestehen. Jede Möglichkeit einer frühzeitigen Diagnose sollte genutzt werden. Hier bietet sich insbesondere die Sonographie als kostengünstigstes und nicht invasives Verfahren an. Inwieweit die Empfehlung einer generellen und flächendeckenden Screeningmaßnahme sinnvoll ist, wird allerdings weiterhin anhand ihrer Kosteneffizienz beurteilt und kann deshalb beim Nierenzellkarzinom aufgrund der doch vergleichsweise geringen Prävalenz nicht ausgesprochen werden. Doch erscheint die Forderung sinnvoll, die Nieren im Rahmen abdominaler Sonographien aus nichturologischen Gründen immer mit zu untersuchen. Die kurze Zeit, die dies für den geübten Untersucher in Anspruch nimmt, ist tolerierbar; vor allem im Hinblick auf den Benefit, den diese Untersuchung für den Patienten haben kann. Ebenso sinnvoll und realistisch erscheint, dass jeder Urologe zumindest bei seinen Patienten in regelmäßigen Abständen die Nieren schallt oder es Ihnen zumindest als entgeltliche IGeL Leistung anbietet. Die Entdeckung eines Nierentumors in einem frühen asymptomatischen Stadium erscheint sowohl hinsichtlich der Therapie als auch ihrer Prognose am günstigsten zu sein.
Osteoporotische Frakturen sind mit erheblichen medizinischen, psychosozialen und ökonomischen Folgen belastet. Für die Betroffenen resultieren in einem hohen Maße Einbußen an Lebensqualität, Folgemorbidität, Pflegebedürftigkeit und erhöhte Mortalität. Osteoporotische Frakturen entstehen durch ein inadäquates Trauma und können jeden Knochen betreffen, am häufigsten sind das Hüftgelenk, die Wirbelkörper und der distale Radius betroffen. Es ist von großer Bedeutung Patienten mit einem hohen Osteoporoserisiko frühzeitig zu identifizieren, über Präventionsmaßnahmen aufzuklären und bereits Erkrankte rechtzeitig zu diagnostizieren und zu therapieren, da eine bereits stattgehabte Fraktur das größte Risiko für eine Folgefraktur ist. Trotz der Verfügbarkeit einer Anzahl von effektiven diagnostischen und therapeutischen Möglichkeiten ist die Osteoporose weiterhin unterdiagnostiziert und unterbehandelt, vor allem in der Hochrisikogruppe von Patienten mit einer früheren Fraktur. Zahlreiche Untersuchungen aus Europa, den USA, Australien und Neuseeland zeigten dass im Mittel nur 17% der Patienten die aufgrund einer osteoporotischen Fraktur stationär aufgenommen wurden eine spezifische antiosteoporotische Therapie erhielten. Die bisher in Deutschland durchgeführten Studien bezüglich der Versorgungssituation von Patienten mit osteoporotischer Fraktur beruhen zumeist auf Krankenkassendaten. Es werden daher nur diagnostizierte Erkrankungen erfasst. Hierbei ergibt sich das Problem dass eine mögliche Dunkelziffer von nicht als osteoporotisch erkannten Frakturen nicht in die Berechnung einbezogen werden. Ziel dieser Studie war es daher, die Dunkelziffer an nicht bezüglich Osteoporose diagnostizierten Patienten zu erfassen, aber auch die Einleitung von Diagnostik und Therapie nach osteoporotischen Frakturen im Allgemeinen und unter dem Einfluß von Risikofaktoren zu analysieren. In einer retrospektiven Beobachtungsstudie an orthopädischen und unfallchirurgischen Abteilungen im Rhein-Main-Gebiet wurde eine Analyse der Jahre 2003 und 2004 durchgeführt. Eingeschlossen wurden Patienten im Alter von >50 Jahren mit einer ICD-verschlüsselten Fraktur als Aufnahmediagnose. Die in der Krankenakte enthaltenden Daten wurden nach zuvor erlittenen Frakturen, nach für den Knochen-Stoffwechsel und für die Knochen-Stabilität relevanten Grunderkrankungen, einer vorbekannten Osteoporose, durchgeführter Diagnostik zur Sicherung oder Widerlegung der Diagnose einer Osteoporose , der Diagnosestellung einer Osteoporose und ggf. erfolgter Therapieeinleitung und -empfehlung nach einem vorliegenden Erhebungsbogen systematisch ausgewertet. Insgesamt wurden 2142 Patienten älter als 50 Jahre mit einer Fraktur ausgewertet. 1544 (72,1%) waren weiblich und 598 (27,9%) männlich. Davon wurde bei 1460 (68,2%) der Patienten die Fraktur als osteoporotisch eingestuft, 1215 (83,2%) waren weiblich und 245 (16,8%) männlich. 80,3% der Patienten mit osteoporotischer Fraktur waren älter als 70 Jahre. Die häufigste Traumaursache war der Sturz aus dem Stand. Die Hüftfraktur (55,2%) war die häufigste Frakturlokalisation, gefolgt von der Wirbelkörperfraktur (14%). 79,4% erhielten eine operative Therapie. Eine frühere Fraktur gaben 14% (n=205) in der Anamnese an, dies waren vor allem Patienten mit einer neuen Wirbelkörperfraktur. Von diesen Patienten mit einer Fraktur in der Vorgeschichte war bei 20% (n=41) eine Osteoporose bereits bei Aufnahme bekannt, aber nur 9,8% (n=20) erhielten zu diesem Zeitpunkt eine antiosteoporotische Therapie. Insgesamt nur bei 29,9% der Patienten wurde eine Osteoporose als Ursache der Fraktur diagnostiziert. Ein geschlechtsspezifischer Unterschied lag nicht vor, allerdings erfolgte die Diagnosestellung bei Patienten älter als 85 Jahre deutlich seltener. Bei 67,2% der osteoporotischen Wirbelkörperfrakturen wurde die Osteoporose erkannt, jedoch nur bei 16,3% der osteoporotischen Hüftfrakturen. Zum Zeitpunkt der Entlassung wurden 6,6% der Patienten mit einem antiosteoporotischen Medikament therapiert und bei 5,1% wurde diesbezüglich eine Empfehlung im Entlassungsbrief ausgesprochen. In den meisten Fällen war die Therapie eine Kombination aus Bisphosphonaten, Vitamin D und Calcium. Die Ergebnisse dieser Studie zeigen, dass bei 70% der Patienten die Diagnosestellung einer Osteoporose versäumt und dass 88,3% der Patienten ohne eine spezifische antiosteoporotische Therapie oder einer Therapieempfehlung aus dem Krankenhaus entlassen wurden. Somit zeigt sich eine deutliche Versorgungslücke zwischen evidenzbasierter Medizin und alltäglicher Praxis. Frakturen bei älteren Menschen führen selten zur einer Diagnostik oder Therapie bezüglich Osteoporose. Ein möglicher Weg zur Therapieoptimierung könnten strukturierte Weiterbildungsprogrammen für den behandelnden Arzt sein, im Sinne von Fachartikeln, Internetlernprogrammen und Seminaren. Zusätzlich sollten klinische Leitpfade zur Erkennung und Behandlung von Patienten mit Frakturen etabliert werden. Von Seiten des Patienten können Informationsbroschüren und Aufklärungsprogramme helfen, die Compliance zu verbessern. Die umfangreichen Möglichkeiten für verbesserte diagnostische und therapeutische Interventionen sollten genutzt werden um Frakturraten, Krankheit, Sterblichkeit und Gesundheitskosten zu senken.
Immunsuppressiva sind essentiell für die allogene Organtransplantation. Graff et al konnten in drei vorangegangenen Studien zeigen, dass Immunsuppressiva zu einer verstärkten Thrombozytenaktivierung führen. Diese ist für die verschiedenen Substanzen unterschiedlich stark ausgeprägt. Eine verstärkte Thrombozytenaktivierung könnte zu vermehrten kardiovaskulären Ereignissen führen. Insbesondere bei nierentransplantierten Patienten ist das kardiovaskuläre Risiko ohnehin deutlich erhöht. Es stellt sich die Frage ob diese medikamentös induzierte Plättchenaktivierung als Ko-Faktor kardiovaskulärer Ereignisse bei nierentransplantierten anzusehen ist. Im Vorfeld dieser Studie wurden in den Studien NTX, RAPA und PLANT bei insgesamt 176 nierentransplantierten Patienten mit einer Mono-Immunsuppression flowzytometrische Plättchenfunktionsmessungen durchgeführt, dabei wurden insbesondere der Degranulationsmarker CD62 und der aktivierte GP IIb/IIIa-Rezeptor PAC-1 gemessen. Diese Ergebnisse wurden in Relation zum Mittelwert der jeweiligen Kontrollgruppen gesetzt: Messwert(Patient) / Mittelwert(Gesunde_Kontrolle) Diese relativen Plättchenfunktionswerte waren zwischen den Studien vergleichbar. Des Weiteren wurden epidemiologische Eckdaten und klinische Endpunkte bis zu 5 Jahre nach der Thrombozytenmessung erfasst, im Mittel 3,7 Jahre. Aufgrund des Studiendesigns der vorangegangenen Studien wurde hier ein Kollektiv mit relativ niedrigem kardiovaskulärem Risiko untersucht, jedoch sollte durch diese Reduktion klassischer Risikofaktoren der Einfluss der Plättchenaktivität besser sichtbar sein. Die retrospektive Analyse untersuchte ob die Plättchenfunktionsparameter CD62 und PAC-1 als prädiktiver Marker für kardiovaskuläre Ereignisse geeignet sind. Insgesamt traten seit den Messungen 21 kardiovaskuläre Ereignisse auf, davon 9 akute. Es gab keine signifikanten Unterschiede zwischen den Werten bei Patienten mit Ereignissen und denen ohne Ereignis: Bei CD62 (baseline) lag der Mittelwert bei 2,82±1,9 mit Ereignis vs. 2,73±1,47 ohne, für PAC-1 bei 1,76 ±1,97 vs. 1,93±1,53. Nach Aktivierung mit TRAP lag der Mittelwert für CD62 bei Ereignispatienten bei 1,57±0,88 vs. 1,76±0,83, für PAC-1 bei 1,56±1,65 vs. 1,44±1,04. In einem weiteren Schritt wurden die Patienten nach dem Ausmaß der Plättchenaktivierung klassifiziert, als Cut-Off-Werte wurden die Mittelwerte und Mediane der jeweiligen Plättchenfunktion aller Patienten gewählt, ferner noch willkürlich eine 3- bzw 5-fache Aktivierung gegenüber den gesunden Kontrollen. Hierbei wurden in den Gruppen mit hohen Funktionswerten nicht signifikant mehr Ereignisse beobachtet als in den Gruppen mit niedrigen Werten. In einer daraufhin durchgeführten Time-to-event-Analyse nach Kaplan-Meyer zeigte sich allerdings für CD62 (baseline) > 5 ein früheres Eintreten kardiovaskulärer Ereignisse, im Mittel 47,6 vs. 69,9 Monate, p = 0,05. Als Risikofaktoren in dieser Studie erwiesen sich insbesondere das Alter und das Alter bei Transplantation, letzteres erwies sich in einer logistischen Regressionsanalyse als der wichtigster Faktor. Dies ist nach unserem Wissen die erste Untersuchung, die den prädiktiven Wert von Thrombozyten-gebundenem CD62 sowie von PAC-1 für kardiovaskuläre Ereignisse evaluiert. Es ergibt sich kein Hinweis, dass diese Marker einen prädiktiven Wert haben. Somit erscheint auch eine direkte pharmakologische Beeinflussung der Thrombozytenfunktion oder eine Veränderung der Immunsuppression nicht wegweisend, um die Inzidenz kardiovaskulärer Ereignisse bei nierentransplantierten Patienten zu senken.
Zwischen Juni 2006 und Juni 2007 wurde in unserem Zentrum bei 24 Patienten im Alter von 52 bis 86 Jahren und einem durchschnittlichen Alter von 73,9 ± 8,4 Jahren der interventionelle Verschluss des Vorhofohrs mit dem neuen WATCHMAN-Okkluder versucht. 61% der Patienten waren männlich, 39% weiblich. Im Mittel ergab der CHADS₂-Wert 2,6 ± 1,2 bei Werten zwischen 1 und 5. Damit lag das jährliche Schlaganfallrisiko bei 5,6 ± 3,0%. Die Ostienweite der Vorhofohren betrug zwischen 17,6mm und 26,4mm, der durchschnittliche Wert lag bei 21,8 ± 2,2mm. Die Länge der Vorhofohren variierte zwischen 25,0mm und 45,7mm bei einer mittleren Länge des Vorhofohrs von 33,5 ± 5,5mm. Watchman-Okkluder mit einem Schirmdurchmesser von 27mm waren mit 52% die am häufigsten implantierten Okkluder. Die technische Erfolgsrate betrug 95,8%. Die Implantation der Okkluder dauerte 43,9 ± 14,0 Minuten (19,0 bis 70,0 Minuten). Die Durchleuchtungszeiten betrugen 5,7 bis 18,1 Minuten (im Mittel 8,7 ± 3,0 Minuten). Es wurden zwischen 57 und 193ml Kontrastmittel während des Eingriffs benötigt (durchschnittlich 131 ± 44ml). Die postinterventionelle stationäre Krankenhausaufenthaltszeit betrug im Durchschnitt 2,8 ± 4,1 Tage (1 bis 21 Tage). Bei einer technischen Erfolgsrate des Eingriffs von 95,8% (23/24 Fällen) betrug die Verschlussrate 100%, so dass bei allen Patienten Marcumar abgesetzt werden konnte. Auch bei allen nachfolgenden transösophagealen Echo-Kontrolluntersuchungen betrug die Verschlussrate 100%. Der Unterschied der Verschlussrate war im Vergleich zu den Ergebnissen anderer Studien über interventionelle Vorhofohrverschlüsse statistisch nicht signifikant. In der vorliegenden Arbeit lag das nach dem CHADS₂-Score kalkulierte jährliche Risiko für ischämische Schlaganfälle bei 5,6%. Im gesamten Nachbeobachtungszeitraum von 37,6 Jahren bei einer mittleren Nachbeobachtung von 20,8 ± 3,3 Monaten traten in unserem Patientenkollektiv keine ischämischen Schlaganfälle auf. Bei einem Patienten trat nach 22 Monaten eine aphasische Episode mit begleitender Schwäche der rechten Körperseite auf. Bei diesem Ereignis kann eine TIA nicht ausgeschlossen werden. Dieses Ergebnis lässt sich mit den von Sick et al. publizierten Ergebnissen der multizentrischen Watchman-Studie [72] vergleichen. Innerhalb der Nachbeobachtungszeit traten keine Todesfälle und keine Okkluderembolisationen auf. Zwei Ereignisse (8,7%) traten innerhalb des ersten Monats nach der Implantation auf: Ein Patient entwickelte wenige Stunden nach dem Eingriff nach Beginn der Marcumarisierung eine rechtsseitige Kleinhirnblutung. Der INR-Wert einen Tag vor der Implantation hatte 2,0 betragen. Im Verlauf blieb eine leichte Schreibschwäche der rechten Hand zurück. Bei einem Patienten trat ein Perikarderguss auf. Nach einer Perikardiozentese sowie Absetzen von Aspirin und Marcumar war der Patient beschwerdefrei. Nach dem ersten Monat kam es bei mehreren Patienten zu Krankenhausaufenthalten: eine Humerusfraktur nach Sturz, eine gangränöse Pyodermie, eine entgleiste Hyperglykämie, eine Inguinalhernien-Operation, eine hypertensive Krise mit konsekutiver beatmungspflichtiger respiratorischer Insuffizienz, eine Defibrillator-Implantation nach rezidivierenden Synkopen, eine Pneumonie, drei exazerbierte COPDs, drei neu aufgetretene Belastungsdyspnoen, zwei NSTEMIs bei einem Patienten, ein Bänderriss, eine Defibrillatorimplantation, eine operative Spinalkanaldekompression, eine Schrittmacherimplantation, ein epileptischer Anfall, eine Überlaufinkontinenz, eine penetrierende Hornhautverletzung, eine sensorische Aphasie Die Patienten konnten in gutem Gesundheitszustand aus dem Krankenhaus entlassen werden.
Die Behandlungsoptionen für Tumorerkrankungen haben sich in den letzten Jahren stetig weiter entwickelt und verbessert und dadurch teilweise zu einer längeren Überlebenszeit der Betroffenen geführt. Dennoch bleiben viele Erkrankte weiterhin ungeheilt. Diese Patienten benötigen eine palliative Behandlung, die vor allem ihre Lebensqualität in der verbleibenden Lebenszeit verbessert und ihnen - soweit realisierbar - ein Sterben zu Hause ermöglicht. In der hier vorliegenden Arbeit wurden retrospektiv 360 Akten von Patienten, die in der chirurgisch-onkologischen Ambulanz der Universitätsklinik behandelt wurden und die im Zeitraum von 1992-1998 verstarben, auf ihren Sterbeort und auf Faktoren, die einen Einfluss auf ein Versterben im häuslichen Umfeld möglich gemacht hatten, untersucht. Die überwiegende Anzahl der Patienten litt an Dickdarmtumoren (55%) und hepatozellulären Karzinomen (24,2%). 62,2% der Patienten waren Männer und 37,8% Frauen. Das Alter der Patienten lag im Mittel bei 61,7 Jahren. Die Betreuungszeit in der chirurgisch-onkologischen Ambulanz betrug im Mittel 12,5 Monate. Bei 82,5% der Patienten lagen Metastasen vor, 80% erhielten eine Chemotherapie an der Universitätsklinik Frankfurt. Der überwiegende Anteil der Patienten verstarb zu Hause (47,5%). 41,9% der Patienten verstarben in einer Klinik (weniger als für diese Zeit im Bundesmittel mit 47,1%), 4,4% in einem Hospiz oder Pflegeheim und bei 6,1% konnte der Sterbeort nicht aufgeklärt werden. An Faktoren, die einen Einfluss auf die Möglichkeit zu Hause zu versterben hatten, fanden sich: die familiäre Einbindung, die Schwere der Symptomlast und die Einbeziehung von Angehörigen. Es konnten deutliche Hinweise festgestellt werden, dass Überlastungssituationen von Angehörigen eine ambulante Betreuung deutlich erschwerten und z. B. zu überstürzten Klinikeinweisungen führen konnten. Patienten, die zu Hause verstarben, mussten nach Ende der Chemotherapie seltener stationäre Behandlungen in Anspruch nehmen (12,9%), bei den in einer Klinik Verstorbenen waren es 51,7%. Bei den zu Hause Verstorbenen standen Operationsindikationen und abdominelle Symptome im Vordergrund. Bei den in einer Klinik Verstorbenen fanden sich mehr Faktoren, die in einem Progress der Erkrankung begründet waren und in ambulant schwerer zu beherrschenden Symptomen wie Atemnot, Infektionen, Fieber und Bewusstseinsveränderungen. Nur in dieser Gruppe fanden sich Einweisungen im präfinalen Zustand, am ehesten bei unzureichender Versorgungslage. Pflegebedürftigkeit im Sinne einer bewilligten Pflegestufe fand sich bei 13,6% der zu Hause Verstorbenen und nur bei 2,5% der in einer Klinik Verstorbenen. Der Zeitraum zwischen Eintreten von Pflegebedürftigkeit und dem Versterben betrug in der Subgruppe zu Hause im Mittel 1,6 Monate, in der Subgruppe Klinik nur 0,5 Monate, so dass in der letzteren Gruppe kaum Handlungsspielräume für die Organisation einer angemessenen Betreuung bestanden. Bei 39,8% der zu Hause Verstorbenen wurden Angehörigengespräche geführt, teilweise auch tägliche Telefonate, bei den in einer Klinik Verstorbenen war dies nur zu 27,8% der Fall. Nur 5 Patienten aus dem Gesamtkollektiv, die zur Subgruppe „zu Hause“ gehören, wirkten lebensfroh und aktiv. Bei den meisten Patienten fanden sich Hinweise auf psychische Belastungen, am häufigsten in Form von depressiven Verstimmungen, gefolgt von Ängsten. Auch die Angehörigen wirkten sehr belastet, teilweise überfordert. Bei vielen Angehörigen zeigte sich im Zusammenhang mit Telefonaten im Rahmen der Recherche für diese Arbeit ein deutlicher Gesprächsbedarf noch Jahre nach dem Verlust und es fanden sich Anzeichen auf fortbestehende Trauer. Eine hohe Verfügbarkeit von Ärzten in Kontakten zu Patienten, Angehörigen und weiteren an der Behandlung beteiligten Gruppen kann wesentlich dazu beitragen, dass Patienten zu Hause versterben können. Herausforderungen für die weitere palliativmedizinische Entwicklung liegen insbesondere in den Bereichen Verbesserung der Lebensqualität, Symptomkontrolle, Einbeziehung der Angehörigen und kommunikative Kompetenzen. Es gilt psychische Belastungen bei den Patienten und ihren Angehörigen zu erkennen und frühzeitig z. B. psychotherapeutisch zu behandeln. Der Bedarf, Angehörige über den Tod des Betroffenen hinaus zu begleiten, ist bei weitem noch nicht gedeckt. Handlungsnotwendigkeit besteht auch darin, Formalia z. B. für die Anerkennung einer Pflegestufe an den sehr variablen Krankheitsverlauf von Krebskranken anzupassen, um frühzeitig Handlungsspielräume für alle Beteiligten zu schaffen. Die demographische Entwicklung mit einem Überwiegen an älteren, erfahrungsgemäß multimorbiden Menschen, bedeutet eine große gesellschaftliche und palliativmedizinische Herausforderung, um flächendeckend tragfähige soziale Netzwerke und palliativmedizinische Versorgungsmöglichkeiten zur Verfügung zu haben.