Universitätspublikationen
Refine
Year of publication
- 2009 (74) (remove)
Document Type
- Doctoral Thesis (59)
- Part of Periodical (10)
- Book (2)
- Article (1)
- Conference Proceeding (1)
- Review (1)
Language
- German (74) (remove)
Has Fulltext
- yes (74)
Is part of the Bibliography
- no (74)
Keywords
- Adipositas Chirurgie (1)
- Adoptivkind (1)
- Allgemeinmedizin (1)
- Asthmadiagnostik (1)
- Atemtest (1)
- Bacterial intestinal overgrowth (1)
- Behandlungssystematik (1)
- Behandlungsumfang (1)
- Breath testing (1)
- Bronchial challenge (1)
Institute
- Medizin (74) (remove)
Akute Hochrisiko-Leukämien oder deren Rezidive, chronische Leukämien, Myelodysplastische Syndrome und Hodgkin- und Non-Hodgkin-Lymphome sind Indikationen für hämatopoetische Stammzelltransplantationen. Das Verfahren ist mit einer hohen Therapie-assoziierten Morbidität und Mortalität (TRM), die bei 5-40% liegt, assoziiert. Hauptprobleme sind dabei neben Infektionen die akute und chronische Transplantatreaktion (Graft-versus-Host-Erkrankung, GvHD). Die TRM variiert je nach Grunderkrankung, Spender und Allgemeinzustand des Patienten. Um Risikofaktoren für die TRM zu identifizieren, analysierten wir in einer retrospektiven Studie 205 allogene pädiatrische SZT in 4 Kliniken, von denen jeweils 2 Kliniken ein hohes bzw. niedriges Risikoprofil hinsichtlich der TRM hatten. Wir überprüften die Anwendbarkeit und Validität des von Matthes-Martin et al. entwickelten Risikoscores (TRMScore), der aus drei Risiko-Punkten Patienten-spezifische (Alter, Grunderkrankung) und Therapie-spezifische (Spender) Charakteristika miteinander kombiniert. Dieser Score teilt die Patienten in 4 TRM–Risikogruppen ein mit einem Score von 0 Punkten (Patient unter 10 Jahren mit HLA-identischen Geschwister als Donor) bis zu 3 Punkten (Patient über 10 Jahren, CR3 und HLA-nicht passenden Spender). Wir modifizierten den TRM-Score von Matthes-Martin et al., indem wir die Patienten mit einem TRM-Score von 0 und 1 in eine erste Gruppe (TRM-Score I) und die Patienten mit dem TRM-Score von 2 und 3 in eine zweite Gruppe zusammen (TRM-Score II) zusammenfassten, und entwickelten den mTRM-Score (modifizierter TRM-Score). Die Indikationen zur SZT waren ALL, AML, CML, Non-Hodgkin-Lymphome, Hodgkin-Lymphome und MDS. Es gab 88 KMT und 115 PBSZT und in 2 Fällen war die Stammzellquelle eine Kombination aus Knochenmark und peripherem Blut. Das Patientenalter lag zwischen 0 und 23 Jahren. Spender waren MSD (26,8%), MRD (1%), MUD (53,2), MMUD (10,2%) und MMRD (8,8). Am LFU lebten 61% der Patienten. Von den 39% der verstorbenen Patienten sind 40% aufgrund eines Rezidivs verstorben und 60% transplantationsassoziiert. Die Gesamt-TRM lag bei 22,4%. Wir teilten transplantationsassoziierte Faktoren in folgende Gruppen ein: Patienten-assoziierte Variablen, Spender-assoziierte, Krankheits-assoziierte, Therapie-assoziierte Variablen und sonstige Variablen. Die logistische Regression zeigte signifikant prognostische Faktoren, die die TRM beeinflussen. Das waren die Klinik (P=0,0045), in der die SZT durchgeführt wurde, das Jahr der SZT (P=0,0457, ab 2001) und der Spendertyp (P=0,0083, kein MSD). Die Diagnose, der Remissionsstatus bei SZT und der TRM-Score waren keine prognostischen Risikofaktoren für die TRM. Bei Anwendung des mTRM-Scores kristallisierte sich dieser als ein Prädiktor für die TRM (P=0,0447) heraus. Ein TRM-Score von I ging mit einer niedrigen TRM-Rate einher. Der mTRM-Score kann aufgrund der Ergebnisse zur Therapieentscheidung herangezogen werden, da er eine Einschätzung der tatsächlichen Überlebenswahrscheinlichkeit für die Patienten möglich macht. Die Klinik als Risikofaktor für die TRM ist nicht alleine durch das Patientenkollektiv und durch die Auswahl des Spendertyps zu erklären. Anhand der 1-Jahres-TRM (23%) von Matthes-Martin et al. errechneten wir die zu erwartende TRM-Rate für unsere Kliniken. Die erwartete TRM wich in Klinik C und Klinik D stark von der beobachteten TRM ab, in Klinik A und Klinik B waren sie annähernd gleich. Ein signifikanter Unterschied bestand nur bei Klinik C mit einem p-Wert von 0,05 bei dem TRM-Score und 0,02 bei dem mTRM-Score. Die Ergebnisse lassen darauf schließen, dass das Outcome der SZT von den Kliniken an sich bzw. deren Therapiemodalitäten beeinflusst wurde.
Ezrin gehört zur Gruppe der Actin-Zytoskelett-bindenden ERM-Proteine und ist in seiner Funktion für Leukozyten gut beschrieben, wo es in Zusammenhang mit der interund intrazellulären Induktion von Apoptose gebracht wurde. Im Kontext der Astrozytenbiologie ist seine Expression mit astrozytärer Aktivierung, der Malignität von Astrozytomen und der Apoptose von Neuronen bei HIV-Encephalitis assoziiert. Die vorliegende Studie untersucht die Expression von Ezrin in Astrozyten bei verschiedenen Demenzerkrankungen mit der Frage nach krankheitsspezifischen astrozytären Aktivierungsphänomenen und einem möglichen Zusammenhang mit neuronaler Apoptose. Hierzu wurden 51 Gehirne von Demenzpatienten und 17 Gehirne von Normalkontrollen des Neurologischen Instituts (Edinger Institut) der Johann Wolfgang Goethe-Universität Frankfurt am Main histopathologisch untersucht. An Schnitten von jeweils 4-6 in Paraffin eingebetteten Gehirnarealen pro Fall wurden eine modifizierte Silberimprägnationsfärbung nach Bielschowsky und immunhistochemische Färbeverfahren für Ezrin, GFAP, HLA-DR, hyperphosphoryliertes Tau-Protein und Ubiquitin angefertigt und semiquantitativ evaluiert. Zur Darstellung von apoptotischen DNA-Strangbrüchen wurde die TUNEL-Methode verwendet. Die hier untersuchte Stichprobe entspricht in Hinsicht auf die Verteilung verschiedener Demenztypen weitgehend der neueren Literatur: Die häufigste Demenzerkrankung war die Alzheimersche Erkrankung mit 84% (N=43), gefolgt von der Demenz mit Lewy-Körperchen mit 35% (N=18), der vaskulären Demenz mit 18% (N=9) und der Frontal–Lobe-Dementia mit 6% (N=3). 47% der Fälle litten an einer Kombination von zwei Demenzerkrankungen. Die astrozytäre Ezrin-Expression zeigt keine signifikante Differenz zwischen verschiedenen Demenzformen. Dies trifft sowohl für singuläre Demenzerkrankungen als auch für Kombinationsdemenzerkrankungen zu. Die astrozytäre Ezrin-Expression korreliert hochsignifikant mit dem Schweregrad der Alzheimerschen Erkrankung, gemessen an der Dichte neuritischer Plaques in Anlehnung an die Klassifikation nach CERAD. Die astrozytäre Ezrin-Expression korreliert hochsignifikant positiv mit der Apoptose von Neuronen unabhängig vom Erkrankungstyp. Im Unterschied zur Ezrin-Immunoreaktivität, die nahezu ausschließlich bei Demenzfällen mit neuronaler Apoptose eine deutliche Erhöhung aufwies, zeigte sich die GFAP- und HLA-DR-Immunoreaktivität bei Demenzfällen generell im Vergleich zu Kontrollfällen deutlich erhöht. Zusammenfassend trägt die Untersuchung der astrozytären Ezrinexpression nicht zur Differentialdiagnose von Demenztypen bei, ist jedoch mit dem Schweregrad von Demenzerkrankungen korreliert. Ezrin fungiert offenbar als Indikator eines spezifischen astrozytären Aktivierungszustandes, der eine Assoziation mit schwerem Gewebeschaden in Form neuronaler Apoptose aufweist. Dieser Aktivierungszustand erwies sich in der vorliegenden Untersuchung als unabhängig vom Krankheitstyp, was für die These spricht, dass eurodegenerative Erkrankungen pathophysiologische Gemeinsamkeiten teilen könnten. Darüber hinaus weisen die Ergebnisse der Studie darauf hin, dass die Aktivierung von Astrozyten kein homogenes Phänomen darstellt, sondern in distinkten Formen assoziiert mit progressiver Gewebsschädigung des ZNS auftreten kann.
Die vorliegende Arbeit analysierte die Behandlung von Patienten mit Infektionserkrankungen am Zentrum der Zahn-, Mund- und Kieferheilkunde des Klinikums der Johann Wolfgang Goethe-Universität, Frankfurt am Main (Carolinum). Dabei wurde vor allem untersucht, welche Auswirkungen die Reduzierung von Personalressourcen speziell für die Behandlung dieser Patienten ab dem Jahr 2000 hinsichtlich der Betreuung und Versorgung hatte. Die Studie war retrospektiv angelegt und wertete Daten aus den Jahren 1998 bis 2002 aus. Hierfür wurden alle im Archiv lagernden Karteikarten herangezogen und die Daten in eine dafür entwickelte FilemakerPro©-Datenbank übertragen. Im Untersuchungszeitraum nahmen 940 Patienten mit Infektionskrankheiten etwa 3700 Besuche wahr. Regelmäßig erschienen 25% der Patienten, auf sie entfielen 60% aller Besuche. Diese Gruppe wurde einer näheren Betrachtung unterzogen: Die Auswertung der erhobenen Daten zeigte, dass das Ziel der Absenkung der Patientenzahlen und die Anzahl der Behandlungstermine erreicht werden konnte, die systematische Betreuung der Patienten sich jedoch verschlechterte. Der Anteil der sanierten Patienten sank von 34% auf 18% ab, die Zahl der unsystematisch behandelten Patienten verdreifachte sich dagegen von 1999 auf 2000 und blieb bei diesem hohen Wert. Vorsorgebehandlungen nahmen maximal ein fünftel aller Behandlungen ein, mit abnehmender Systematik sank dieser Anteil gegen null. Begünstigender Faktor für eine Sanierung waren ein erstelltes OPG (ersatzweise ein Zahnfilmstatus) und die Erstellung einer Behandlungsplanung. Das Vorhandensein eines OPGs erhöhte aber nicht die Wahrscheinlichkeit für eine folgende Behandlungsplanung. Patienten die an das Carolinum von außerhalb überwiesen wurden, hatten eine größere Chance auf eine Sanierung. Letztlich wurden nur 4% aller regelmäßig erschienenen Patienten systematisch mit Recall betreut, zahnärztlich saniert wurden insgesamt jedoch 30% der behandelten Patienten. Entgegen allgemeiner Annahmen waren kurzfristig abgesagte oder nicht eingehaltene Termine die Ausnahme.
Hintergrund und Fragestellung: Die Studie untersucht den Einfluss von Propofol im Vergleich zu Midazolam als Sedativum bei der Ösophagogastroduodenoskopie (ÖGD) im Hinblick auf die psychomotorischen Funktionen von Patienten mit Leberzirrhose und einer minimalen hepatischen Enzephalopathie (HE). Patienten und Methoden: Patienten mit einer Leberzirrhose ohne Zeichen einer klinisch manifesten HE wurden einer ÖGD in therapeutischer Absicht (Ösophagusvarizenligatur) unterzogen. Insgesamt 60 Patienten wurden randomisiert, entweder um Propofol (n = 40) oder Midazolam (n = 20) als Sedativum für die Endoskopie zu erhalten. Die beiden Gruppen waren hinsichtlich ihres Alters, Geschlechts und des Child-Stadiums der Leberzirrhose vergleichbar. Alle Patienten absolvierten zweifach eine psychometrische Testung, den sog. PSE-Syndrom-Test (der u.a. einen Zahlenverbindungstests (ZVT) beinhaltet), einmal vor und 2 Stunden nach Beendigung der Endoskopie. Die Art (diagnostisch/therapeutisch) und Dauer der Endoskopie waren ebenfalls in beiden Gruppen vergleichbar. Die zur Durchführung der Testbatterie benötigten Zeiten als auch der ermittelte PSE-Score wurden dokumentiert. Die Basisdaten vor Endoskopie wurden mit den nach der Endoskopie erzielten Ergebnissen verglichen. Die Aufwachzeit und -qualität nach der Sedierung wurden mit dem sog. Post-Anesthesia Recovery Score (PARS) ermittelt und dokumentiert. Zum Vergleich wurden die psychometrischen Tests auch bei einer „Kontroll-Gruppe“ von 20 lebergesunden Patienten erhoben, welche ebenfalls im Abstand von 2 Stunden evaluiert wurden, ohne sich jedoch einer Endoskopie oder Sedierung zu unterziehen. Ergebnisse: Sowohl die Unterschiede der Zeiten der Durchfürhung des ZVT-A vor und nach Sedierung (mediane delta-Zeit Propofol-Gruppe, -9,5 sec [95 % KI, -15,7 bis -4,6 sec] und Midazolam-Gruppe, 11 sec [95 % KI, -1,2 bis 16,1 sec], p = 0,0021), und auch der mediane delta-PSE-Score (Propofol-Gruppe, 1 [95% KI, 0,5 bis 1,5] und Midazolam-Gruppe, -1 [95 % KI, -1,5 bis 0,2], p = 0,0009) waren in der Propofol-Gruppe signifikant besser. Darüber hinaus war die Aufwachzeit und -qualität bei der Propofol-Gruppe im Vergleich zur Midazolam-Gruppe signifikant günstiger (7,8 ± 2,9 min, vs. 18,4 ± 6,7 min; PARS 6,1 ± 1,1 vs. 8,2 ± 1,3; beide p < 0,001). Folgerungen: Der Gebrauch von Propofol im Rahmen der endoskopischen Sedierung ist mit gewissen Gefahren, wie z.B. kardio-respiratorischen Nebenwirkungen, assoziiert und macht ein intensives Monitoring erforderlich. Allerdings verursacht Propofol keine akute Verschlechterung der psychomotorischen Funktionen bei Patienten mit Leberzirrhose und minimaler hepatischer Enzephalopathie. Darüber hinaus ist die Aufwachzeit verkürzt und die Qualität des Aufwachens bzw. der Erholung nach der Sedierung signifikant verbessert. Bei Patienten mit Leberzirrhose sollte Propofol daher bevorzugt gegenüber Midazolam zur Sedierung verwendet werden.
Volkmar Sigusch entfaltet in diesem Buch eine kurzweilige und vielschichtige Entstehungs- und Entwicklungsgeschichte der Sexualwissenschaft zwischen der Mitte des 19. und dem Ende des 20. Jahrhunderts. Auf siebenhundert Seiten durchschreitet er eine ebenso umfangreiche wie lehrreiche "Ahnengalerie" der scientia sexualis – als Wissenschaftsgeschichte jedoch vermag diese Untersuchung nur bedingt zu überzeugen.
Hintergrund: Die häufigsten infektiösen Ursachen für Durchfallerkrankungen sowohl im Kindes- als auch im Erwachsenenalter sind viraler Genese. Dabei werden Rota-, Noro-, Adeno- und Astroviren in absteigender Reihenfolge benannt. Die Diagnose der oft nosokomialen Infektionen erfolgt durch Virusnachweis in Stuhlproben. Material und Methodik: In dieser retrospektiven epidemiologischen Auswertung wurden anhand der Stuhlproben von Gastroenteritispatienten im Zeitraum 2000 – 2008 die Häufigkeitsverteilung der einzelnen Viren sowie saisonale Aspekte untersucht. Bestimmt wurden des Weiteren die Geschlechts- und die Altersverteilung der Patienten. Der überwiegende Anteil der eingesandten Proben entstammte der Universitätsklinik Frankfurt/Main; hinzu kamen Proben von einigen in näherer Umgebung liegenden Gesundheitsämtern, Krankenhäuser und Laborarztpraxen. Ergebnisse: Die laborchemische Effizienz beträgt ca. 10 – 20 %. In Deutschland ist die winterliche Rotavirusinfektion bei Kleinkindern die häufigste Ursache des Brechdurchfalls. An zweiter Stelle stehen im Wechsel Adeno- und Norovirusinfektionen, während Astrovirusinfektionen in den letzten Jahren selten geworden sind. Schlussfolgerung: In Übereinstimmung mit neuen Studien aus anderen Regionen wird belegt, dass Noroviren des Typ 2 heute einen wesentlichen Anteil bei der infektiösen Gastroenteritis stellen und – im Unterschied zu Rotaviren – vor allem ältere Menschen betroffen sind.
Bei dieser Studie wurde die antivirale Effektivität, sowie die Verträglichkeit von einem selektiven NS3/4A Protease-Inhibitor als Monotherapie und in Kombination mit Peginterferon alfa-2a über einen Behandlungszeitraum von 14 Tagen evaluiert. Bezüglich der Hepatitis unvorbehandelte Patienten mit einer Genotyp 1 Infektion wurden in unterschiedliche Therapiearme randomisiert: (i) Placebo und Peginterferon alfa-2a (n=4), (ii) Telaprevir Monotherapie (n=8) oder (iii) Telaprevir in Kombination mit Peginterferon alfa-2a (n=8). Telaprevir wurde in oraler Tablettenform mit jeweils 750 mg alle 8 Stunden verabreicht und Peginterferon alfa-2a wurde einmal wöchentlich 180 μg subkutan injiziert. Bei der Studie zeigte sich ein medianer Abfall der HCV RNA von Beginn der Therapie bis zu letztem Behandlungstag 15 von -1.09 log10 (Bereich: -2.08 log10 und -0.46 log10) in der Placebo und Peginterferon alfa-2a-Gruppe; -3.99-log10 (Bereich: -5.28 und -1.26) in der Telaprevir-Gruppe, und -5.49-log10 (Bereich: -6.54 und -4.30) in der Kombinations- Gruppe mit Telaprevir plus Peginterferon alfa-2a. Bei 4 Patienten, die mit Telaprevir und Peginterferon alfa-2a behandelt wurden, war die HCV RNA an Tag 15 nicht mehr nachweisbar und bei einem Patienten, der initial mit Telaprevir behandelt wurde. Insgesamt kam es unter der Therapie zu keinem viralen Durchbruch unter der Kombination mit Telaprevir und Peginterferon alfa-2a während der 14-tägigen Behandlung innerhalb der Studie. Die meisten Nebenwirkungen waren von milder Intensität und es kam zu keinen schwerwiegenden Nebenwirkungen oder vorzeitigen Therapieabbrüchen. Die Studie zeigte eine potente antivirale Wirksamkeit von Telaprevir als Monotherapie und bei der Kombination mit Peginterferon alfa-2a kam es zu einer gesteigerten antiviralen Aktivität. Bereits aufgrund dieser Ergebnisse initiierte, größere Studien werden nun evaluieren, ob Telaprevir in Kombination mit Peginterferon alfa und Ribavirin die dauerhaften antiviralen Ansprechraten verbessern kann.
Die vorliegende Arbeit beschäftigt sich mit den Auswirkungen von Feldenkrais-Bewegungsübungen auf ein Klientel, dass aus freien Stücken an Feldenkraiskursen eines niedergelassenen Feldenkraislehrers teilnimmt, wobei insbesondere gesundheitliche und psychosomatische Aspekte betrachtet werden. Feldenkrais formulierte die theoretischen Grundlagen der Methodik auf einem breiten wissenschaftlichen Fundament verschiedener Fachrichtungen, wie Medizin, Neurobiologie, Psychologie, Physik, Systemtheorie und Anthropologie und lieferte damit eine Erklärung, wie die von ihm entwickelte Bewegungsmethodik Ein uss auf die Entwicklung und die Lernfähigkeit eines jeden Individuums nehmen kann. Der Mensch wird dabei, im Gegensatz zur dualistischen Sichtweise, die in der klassischen Schulmedizin vorherrscht, als ein Ganzes gesehen, in dem die Bereiche Körper und Seele nicht zu trennen sind. Die moderne Neurobiologie bestätigt mit der Anwendung neuer Messmethoden, wie dem funktionellen Magnetresonanztomogramm bedeutende Aussagen der Theorie von Feldenkrais. Systemtheorie und Konstruktivismus sind dabei grundlegend für den feldenkrais'schen Denkansatz und für die heutige Psychosomatik, wie sie unter anderem von von Uexküll beschrieben wird. Der Mensch wird hier als autopoietisches System betrachtet, welches sich selbst ständig reguliert. Somit kann er sich wechselnden Umweltein flüssen anpassen und ist zur Selbstheilung fähig, worin Feldenkraislehrer, respektive Psychotherapeuten ihn unterstützen können. Zunehmend suchen Menschen zur Förderung der persönlichen Weiterentwicklung, wie gleichzeitig zur Bewältigung gesundheitlicher und insbesondere psychosomatischer Probleme Feldenkraiskurse auf. Vor diesem Hintergrund wurden in der Praxis eines niedergelassenen Feldenkraislehrers die Kursteilnehmer vor- und direkt nach der Teilnahme an zehn Feldenkraisstunden, sowie im Langzeitverlauf zu den Auswirkungen befragt. Die 82 erwachsenen Probanden der Studie waren zu 2/3 weiblich, bei einem Durchschnittsalter von 46 Jahren. Die Stichprobe glich in ihrem psychosomatischen Beschwerdestatus der durchschnittlichen Allgemeinbevölkerung, wohingegen ein überdurchschnittlich hohes Schulbildungs- und Berufsausbildungsniveau vorlag. Die Motivation der Kursteilnehmer lag gleichermaßen im Wunsch, die Fähigkeit der Körperwahrnehmung und die Beweglichkeit zu steigern, wie verschiedene Beschwerden und Erkrankungen zu verbessern. Anhand zweier standardisierter psychometrischer Fragebögen, dem Giessener Beschwerdebogen und der Symptom-Checkliste SCL-90-R konnte eine signifikante Verbesserung psychosomatischer und somit gesundheitlicher Beschwerden direkt nach dem Kurs, wie auch im Langzeitverlauf ein halbes Jahr nach Kursende beschrieben werden. Dazu zählen im Einzelnen Gliederschmerzen, Herzbeschwerden, Somatisierungstendenz, Zwanghaftigkeit, Depressivität, Aggressivität und die grundsätzliche psychische Belastung. Mithilfe des neu entwickelten Selbsteinschätzungsfragebogens des Verfassers ergaben sich weitere Hinweise auf die positiven Langzeitauswirkungen nicht nur im seelischen Bereich, sondern in weiteren zentralen Bereichen menschlichen Handelns, namentlich dem Wahrnehmungsbereich, dem kognitiven Bereich und der Beweglichkeit. Die Verbesserungen betrafen mehrere Lebensbereiche, den privaten, wie auch den beruflichen Bereich. Die Sicherheit der Feldenkraismethode gegenüber dem Auftreten unerwünschter Nebenwirkungen wurde ebenfalls dokumentiert. Anhand kontrollierter randomisierter Folgestudien sollten die Ergebnisse abgesichert werden. Der kreative Wissensaustausch von Neurobiologen mit moderner Messtechnik und wissenschaftlich arbeitenden Feldenkraislehrern, die zur Entwicklung spezieller Messmethodik einen Beitrag leisten können, kann zu neuen Erkenntnissen auf den Gebieten des Lernverhaltens, der Reifung und der Gesundheit des Menschen führen.
Die Hämophilie A stellt die häufigste angeborene Koagulopathie dar. Ursache der Hämophilie A ist die fehlende oder verminderte Aktivität des Faktor VIII (FVIII)-Proteins, das eine zentrale Rolle im plasmatischen Gerinnungssystem spielt. Antikörper (Inhibitoren) vermittelte Reaktionen, die die Funktion des Gerinnungsfaktors VIII inhibieren können, stellen eine ernstzunehmende Komplikation bei der Substitutionstherapie von Hämophilie A Patienten dar. Zielsetzung der vorliegenden Arbeit war es, die komplexen immunologischen Mechanismen einer Inhibitorbildung auf Ebene der T-Helferzellen im hämophilen Mausmodell genauer zu untersuchen. Insbesondere sollte untersucht werden, ob sich immunogene T-Zellepitope des humanen FVIII-Proteins identifizieren lassen, die für die Ausbildung einer T-Helferzellantwort und damit letztlich für eine Antikörperbildung gegen FVIII verantwortlich sein könnten. Hierzu wurden FVIII-KO-Mäuse intraperitoneal und intravenös mit FVIII-Protein immunisiert und die T-Zellantwort isolierter Milz-T-Helferzellen gegen FVIII-Gesamtprotein sowie ein Panel aus 240 synthetisch hergestellten 15mer Peptiden immunogener Regionen (a1: AS 320-405, A2: AS 460-595, a3: AS 1630-1715, A3: AS 1790-1845, C1-C2: AS 1977-2332) des FVIII-Proteins untersucht. Es zeigte sich, dass FVIII-KO-Mäuse unter den genannten Bedingungen vorrangig eine TH1-Antwort (IFN-gamma) ausprägen. Die Frequenz FVIII-spezifischer T-Helferzellen liegt hierbei im Mittel bei 44 FVIII spezifischen CD4+-Zellen/105 T-Helferzellen. Eine weitere Steigerung der zur Restimulation eingesetzten FVIII-Dosis auf 10 mikro g/ml führte interessanterweise zu einer Abschwächung der T-Zellantwort (11 CD4+-Zellen/105 T-Helferzellen). Die Untersuchung der Spezifität der T-Zellantwort durch Restimulation mit FVIII-Peptidpools der einzelnen Regionen des FVIII Proteins ergab zunächst eine vergleichbar starke T-Zellantwort gegen alle eingesetzten FVIII-Peptidpools (24 FVIII-spezifische CD4+-Zellen/105 T-Helferzellen). Eine weiterführende Auflösung der Peptidpools mit anschließender Untersuchung der T-Zellspezifität gegen die einzelnen 240 FVIII-Peptide ergab, dass die T-Helferzellen immunisierter FVIII-KO-Mäuse gegen alle Peptide gleichermaßen reagierten (Frequenz von im Mittel 47 FVIII-spezifische CD4+-Zellen/105 CD4+-T-Zellen), nicht aber gegen ein mitgeführtes irrelevantes Kontrollantigen Ova323-339. Hämophile Mäuse, die mit humanem FVIII-Protein immunisiert wurden, scheinen demnach eine T-Zellantwort auszubilden, wie sie der von gesunden Probanden entspricht, bei denen ebenfalls T-Zellen gegen eine Vielzahl verschiedener FVIII Peptide nachgewiesen werden konnten (Reding et al., 2004). Diese klinisch irrelevanten T-Zellklone werden im Rahmen der Ausbildung einer spezifisch gegen FVIII gerichteten T-Zellantwort bei Hämophilie A-Patienten möglicherweise herunterreguliert, so dass T-Zellklone gegen individuelle klinisch relevante Epitope prädominieren (Reding et al., 2004).
Einleitung: Die der Entwicklung des Normaldruckhydrozephalus (NPH) zugrunde liegenden pathophysiologischen Mechanismen sind trotz intensiver Forschung weitgehend ungeklärt. Ein bildgebend prominenter Befund beim NPH ist die z.T. massive Erweiterung der inneren liquorführenden Räume (sog. Ventrikel). Diagnostisch hinweisend auf das Vorliegen eines NPHs ist neben einer charakteristischen, jedoch nicht pathognomonischen klinischen Befundkonstellation das rasche klinische Ansprechen auf einen lumbalen Liquorablassversuch, bei dem insbesondere eine Besserung der Gehfähigkeit verzeichnet werden kann. Die dieser raschen Besserung zugrunde liegenden physiologischen Mechanismen sind jedoch unbekannt, allgemein wird davon ausgegangen, dass durch eine Abnahme des Liquorvolumens eine Druckentlastung auf bedeutsame zerebrale, insbesondere periventrikuläre Strukturen erfolgt. In der vorliegenden Arbeit wurde der Einfluss des diagnostischen Liquorablassversuches auf Volumenänderungen der inneren liquorführenden Räume und Änderungen klinischer Parameter untersucht. Material + Methoden: Bei 15 NPH-Patienten wurden nach einem definierten Studienprotokoll standardisierte klinische Tests und magnetresonanztomografische Untersuchungen vor und nach einem Liquorablassversuch durchgeführt. Die klinische Testbatterie sollte insbesondere die Kardinalsymptome des NPH (kognitive Störungen, Gangstörungen, Harninkontinenz) erfassen. Computergestützt wurden die Volumina der Seitenventrikel vor und nach Liquorablassversuch bestimmt. Zur Validierung der volumetrischen Methode wurden zusätzlich 11 gesunde, ältere (> 50 Jahre) Probanden nach dem gleichen bildgebenden Protokoll magnetresonanztomografisch untersucht. Ergebnisse: Nach dem Liquorablassversuch konnte eine insgesamt geringe, aber signifikante Abnahme der Volumina der Seitenventrikel nachgewiesen werden. Diese beträgt höchstens wenige Prozent des initialen Ventrikelvolumens bei NPH-Patienten und damit weniger als 10% des abgelassenen Volumens. Klinisch konnte eine gewisse Besserung kognitiver Funktionen und eine Verbesserung der z.T. ausgeprägten Gangstörungen festgestellt werden. Ein Zusammenhang zwischen den volumetrischen Veränderungen der Seitenventrikel und den klinischen Tests konnte nicht gefunden werden. Schlussfolgerung: Durch den Liquorablassversuch kommt es zu einer geringen Volumenreduktion der inneren liquorführenden Räume, allerdings ergibt sich kein Zusammenhang zu klinischen Parametern. Insofern kann die gängige Hypothese, dass die nach Liquorablassversuch zu verzeichnende klinische Besserung auf einer Volumenreduktion der inneren liquorführenden Räume beruht, nicht bestätigt werden. Im Rahmen der Arbeit werden alternative Erklärungsmodelle erläutert und kritisch hinterfragt.
Die positive Wirkung einer psychoonkologischen Versorgung onkologischer Patienten, die über ein kritisches Maß hinaus belastet sind, ist heute unbestritten. Krebspatienten sind sowohl mit der Krebsdiagnose selbst, als auch mit der medizinischen Behandlung hohen Belastungen ausgesetzt. Unbehandelte psychosoziale Belastungen wirken sich negativ auf die Lebensqualität der Patienten aus, erschweren die Krankheitsverarbeitung, beeinflussen medizinische Behandlungsergebnisse und können chronifizieren. Die psychoonkologische Behandlung in der akutstationären Versorgung weist jedoch große Lücken auf. Ausgangspunkt dieser Untersuchung war deshalb der Blick auf zwei Desiderate der Psychoonkologie: Zum einen besteht der Wunsch nach empirischen Untersuchungen zum psychoonkologischen Behandlungsbedarf an Akutkrankenhäusern. Zum anderen mangelt es am Einsatz valider, praktikabler und krebsspezifischer Messinstrumente. Diese Studie untersuchte deshalb den psychoonkologischen Behandlungsbedarf von Krebspatienten in der akutstationären Versorgung mit krebsspezifischen diagnostischen Instrumenten. Insgesamt 478 stationäre Krebspatienten wurden über einen Zeitraum von sechs Monaten an den Frankfurter Diakoniekliniken (Markus-Krankenhaus) in Frankfurt am Main mit Hilfe der neuen Kurzform der „Psychoonkologischen Basisdokumentation“ (Po-Bado-KF) sowie der spezifischen Version für Brustkrebspatienten (PO-Bado-BK) im Rahmen eines psychoonkologischen Anamnesegespräches (Fremdeinschätzung) untersucht. Da Fremd- und Selbsteinschätzung der Patienten häufig nicht übereinstimmen, wurde darüber hinaus die revidierte Fassung des Fragebogens zur Belastung von Krebspatienten (FBK-R23) als Selbsteinschätzungsinstrument eingesetzt. Des Weiteren wurde der mögliche Einfluss soziodemografischer und krankheitsbezogener Variablen auf den psychoonkologischen Behandlungsbedarf überprüft. Die Ergebnisse der Studie belegen, dass ein Routine-Screening der psychosozialen Belastung von Krebspatienten – vorausgesetzt, es wird ein entsprechendes Behandlungsangebot bereit gehalten – sehr sinnvoll ist: Über die Hälfte (56%) der 478 Patienten in der vorliegenden Studie waren psychoonkologisch behandlungsbedürftig. In der Selbsteinschätzung durch den FBK-R23 lagen 31% der Patienten über einem kritischen Wert. Fremd- und Selbsteinschätzung stimmten in dieser Untersuchung signifikant überein. Für die psychoonkologische Behandlungsindikation waren ein fortgeschrittener Krankheitsstatus, der körperliche Funktionsstatus, psychische Probleme vor Ausbruch der Erkrankung, die Einnahme von psychotropen Substanzen (Antidepressiva, Anxiolytica, Schlafmittel) sowie krankheitsunabhängige Belastungen wie Probleme im familiären, sozialen oder finanziellen Bereich entscheidend. Die PO-Bado-KF hat sich in dieser Untersuchung als ein praktikables und ökonomisches Fremdeinschätzungsinstrument bewährt und kann, nach entsprechender Schulung, unproblematisch in die medizinische Anamnese integriert werden. Ist dies aus verschiedenen Gründen nicht möglich, können die in dieser Studie extrahierten Parameter, die signifikant mit dem Behandlungsbedarf in Zusammenhang standen, als Indikatoren für Interventionen herangezogen werden. Auch die Selbsteinschätzung der Patienten lieferte in dieser Studie valide Daten des psychoonkologischen Betreuungsbedarfs. Das Erfassen der Daten, die Auswertung des Fragebogens und die Weiterleitung an die Psychoonkologie scheint jedoch weniger praktikabel und ökonomisch als die Erfassung mit der PO-Bado-KF. Wie in jeder Untersuchung bleiben auch nach Abschluss dieser Studie Fragen offen. Insbesondere wird genauer zu erforschen sein, inwieweit die psychosoziale Belastung der Patienten mit dem Zeitpunkt des psychoonkologischen Interviews zusammenhängt. Die Hypothese liegt nahe, dass Patienten, die auf eine Operation oder auf die Mitteilung der histologischen Befunde warten, höher belastet sind als Patienten, die diese spezifische Belastung zum Zeitpunkt des Interviews nicht haben. In der vorliegenden Untersuchung wurde dieser Frage nicht nachgegangen. Ferner bleibt zu untersuchen, ob sich Patienten, die sich selbst als nicht belastet wahrnehmen, vom Interviewer hingegen als belastet eingestuft werden, voneinander unterscheiden und ob Patienten mit einer psychoonkologischen Behandlungsindikation eine entsprechende Behandlung möchten bzw. diese in Anspruch nehmen. Auch die Überprüfung von Interventionseffekten durch die psychoonkologische Anamnese mittels PO-Bado-KF könnte wertvolle Hinweise liefern, ob dieses neu vorgelegte Screeninginstrument über ein größeres Potenzial verfügt, als bisher angenommen.
Die Therapie von Skelettmetastasen sollte sich, in Anbetracht einer limitierten Überlebenszeit der betroffenen Patienten, an einem palliativen Konzept orientieren. Diesem Ansatz entspricht die intramedulläre Stabilisierung von Osteolysen und pathologischen Frakturen ohne Metastasenresektion an langen Röhrenknochen. Im Zeitraum von 01.10.1991 bis 31.03.04 wurden in der Klinik für Unfall- und Wiederherstellungschirurgie des Klinikums Darmstadt bei 68 Patienten in 79 stationären Verläufen und bei insgesamt 88 Operationen 27 stabilitätsgefährdete Osteolysen und 60 pathologische Frakturen aufgrund von Knochenmetastasen eines malignen Tumors oder aufgrund eines Multiplen Myeloms operativ versorgt. Die 41 Frauen und 27 Männer hatten ein Durchschnittsalter von 63,7 Jahren. Der häufigste Primärtumor war das Mammakarzinom, gefolgt vom Multiplen Myelom, Prostata- und Bronchialkarzinom. Die 48 Läsionen des Femurs wurden 19-mal mit einem proximalen Femurnagel, 11-mal mit einem Classic-Nail, 13-mal mit einem Femurmarknagel und 3-mal mit einem distalen Femurnagel versorgt. Zusätzlich wurde eine Versorgung mit Duocup-Prothese und mit 95°-Winkelplatte dokumentiert. Am Humerus wurden die 35 Läsionen 30-mal mit einem Russel-Taylor-Nagel, 4-mal mit Bündelnagelung, 1-mal mit einer LCDCPlatte und in einem Fall mit einem pneumatischen Humerusnagel versorgt. An der Tibia kam bei 3 Läsionen 3-mal ein Tibiamarknagel zur Anwendung. Am Radius wurde eine Verbundosteosynthese durchgeführt. Die durchschnittliche Operationszeit der intramedullären Stabilisierungen lag bei 74 Minuten. Intraoperativ kam es in vier Fällen zum Auftreten von Fissuren oder Frakturen, die alle ohne weitere Konsequenz für die postoperative Nachbehandlung blieben. Intraoperative pulmonale Komplikationen durch die intramedullären Implantate traten nicht auf. Postoperativ kam es zu einer passageren Radialisparese nach intramedullärer Osteosynthese und einer passageren Radialisparese nach Osteosynthese mit LCDC-Platte am Humerus, zwei größeren Nachblutungen, zwei Wundinfekten, sowie zu einer revisionsbedürftigen Lockerung der Verriegelungsbolzen eines Russel-Taylor-Nagels. 77,8 % der Patienten mit einer operativen Versorgung im Bereich der unteren Extremität waren bis zur Entlassung unter Vollbelastung gehfähig mobil. Nach durchschnittlich 15,9 Tagen konnten 42 % der Patienten direkt in die häusliche Umgebung entlassen werden. 77,9 % der Patienten erhielten eine prä- oder postoperative Bestrahlung der betroffenen Region. Die mittlere Überlebenszeit nach palliativer Operation lag bei 6,1 Monaten. Bereits 2 Monate postoperativ waren 50 % der Patienten verstorben. Die von uns durchgeführte intramedulläre Stabilisierung ohne Metastasenresektion bei stabilitätsgefährdeten Osteolysen und pathologischen Frakturen ist ein Therapiekonzept, das dem geforderten palliativen Ansatz der Patienten mit Skelettmetastasen sehr gut gerecht wird. Dadurch wird den Patienten in ihrer oft kurzen verbleibenden Restlebenszeit durch relativ einfache, wenig invasive Eingriffe mit kurzen Operationszeiten und geringen Komplikationsraten, eine rasche primär belastungsstabile und schmerzfreie postoperative frühfunktionelle Nachbehandlung ermöglicht, die ihnen ein Höchstmaß an Mobilität und Lebensqualität erhält. Ziel muss es sein, frakturgefährdete Metastasen rechtzeitig zu identifizieren und vor einer pathologischen Fraktur zu stabilisieren, dadurch können perioperative Mortalität und Morbidität weiter gesenkt werden. Eingeschlossen in das palliative Therapiekonzept ist eine supportive konservative Therapie mit lokaler Strahlentherapie und der Gabe von Bisphosphonaten. Dadurch wird das Fortschreiten der osteolytischen Destruktionen limitiert und eine zusätzliche Analgesie kann durchgeführt werden.
Diagnostisches Vorgehen beim Kniegelenkstrauma im Kindes- und Jugendalter : gestern und heute
(2009)
Fragestellung: Knieverletzungen im Kindesalter sind der klinischen Untersuchung schwer zugänglich und werden heutzutage oft durch die Magnetresonanztomographie ergänzt, um relevante Kniebinnenschäden frühzeitig zu erkennen. Ziel der vorliegenden Studie war es, die Wertigkeit der MRT nach Kniegelenkstrauma in Abhängigkeit von der klinischen Verdachtsdiagnose zu evaluieren und die magnetresonanztomographischen sowie arthroskopischen Befunde zu vergleichen. Methodik: 195 Patienten im Alter von 3 bis 17 Jahren mit Kniegelenksverletzungen wurden in die Studie eingeschlossen. Davon wurden 87 Patienten in den Jahren 1990-1999 ohne Magnetresonanztomographie, aufgrund des klinischen Befundes, arthroskopiert (Gruppe 1). In den Jahren 2000-2006 (Gruppe 2) wurden 83 Patienten zunächst durch die MRT diagnostisch abgeklärt und dann nachfolgend arthroskopiert; 25 Patienten (Gruppe 2a) wurden in diesem Zeitraum direkt arthroskopiert. Ergebnisse: Die klinische Verdachtsdiagnose wurde in Gruppe 1 bei 79% (Patellaluxation 89%, ligamentäre Verletzungen 79% Meniskusverletzungen 46%) der Patienten durch die Arthroskopie bestätigt. Bei 32% konnte anhand der klinischen Untersuchung keine Zuordnung zu einer der Diagnosegruppen erfolgen. In Gruppe 2 stimmten die klinische und die arthroskopische Diagnose bei 60% der Patienten überein (Patellaluxation 79%, ligamentäre Verletzungen 71%, Meniskusverletzungen 40%). Bei 48% konnte nach der klinischen Untersuchung keine konkrete Verdachtsdiagnose formuliert werden. Der Magnetresonanztomographiebefund wurde, in Gruppe 2, bei 100% der Patellaluxationen, bei 83% der ligamentäre Verletzungen und bei 56% der Meniskusverletzungen richtig erkannt. Letztlich konnte durch den Einsatz der Magnetresonanztomographie der Anteil der rein diagnostischen Arthroskopien von 22% (Gruppe 1) auf 13% (Gruppe 2) reduziert werden. Schlussfolgerung: Bei klinisch unklarem Befund kann die Anzahl rein diagnostischer Arthroskopien im Kindesalter durch Einsatz der Magnetresonanztomographie deutlich gesenkt werden. Auch bei Meniskus- oder Bandverletzung ist die MRT ein wertvolles Hilfsmittel zur Überprüfung der Diagnose, da häufig klinisch keine sichere Beurteilung möglich ist. Bei der klinischen Verdachtsdiagnose einer Patellaluxation ist die MRT zur Diagnosesicherung selten erforderlich, kann jedoch zur Beurteilung von Begleitverletzungen wertvolle Zusatzinformationen liefern.
In der vorliegenden Untersuchung wurden die im Zeitraum von 1984 bis 2006 an der Universitätsklinik Frankfurt am Main aufgrund von nicht-kolorektalen Lebermetastasen durchgeführten Leberteilresektionen untersucht. Ziele dieser Arbeit sind die Darstellung des Patientenkollektivs einschließlich der operativen Faktoren der Lebermetastasenresektion, die Ermittlung von Langzeitergebnissen nach der Resektion und die Feststellung von Prognosefaktoren im Hinblick auf das postoperative Überleben dieser Patienten. Das untersuchte Patientenkollektiv (n = 69) umfasste 31 Männer und 38 Frauen mit einem medianen Alter von 52 Jahren zum Zeitpunkt der Leberresektion. Am häufigsten waren folgende Primärtumore vertreten: Magenkarzinom, Mammakarzinom, Malignes Melanom, Neuroendokriner Tumor und Nierenzellkarzinom. Der größte Anteil der Primärtumore wurde als mäßig differenziert (G2) eingestuft. 55,1 % der Patienten zeigten eine solitäre Lebermetastasierung. Der mediane Tumordurchmesser betrug 5 cm. Bei 14,5 % der Patienten wurden bilobäre und bei 85,5 % unilobäre Lebermetastasen festgestellt. 20,3 % der Patienten präsentierten sich mit einer synchronen und 73,9 % mit einer metachronen Metastasierung (unbekannt: 5,8 %). Zur Resektion der Metastasen wurden atypische Segmentektomien (n = 25), typische Segmentektomien (n = 22) und (erweiterte) Hemihepatektomien (n = 22) durchgeführt. Bei einer medianen Operationsdauer von 195 min erfolgte bei 69,6 % der Patienten ein zusätzlicher Eingriff. Der mediane Sicherheitsabstand zum Resektionsrand lag bei 10 mm. Die Liegedauer auf der Intensivstation betrug im Median einen Tag. Bei 39 Patienten traten postoperative Komplikationen auf. Ein Fortschreiten der Tumorerkrankung war bei 30 Patienten dokumentiert. Das mediane tumorspezifische Überleben nach Resektion nicht-kolorektaler Lebermetastasen lag bei 4,3 Jahren. Die dazugehörigen 1-, 5- und 10-JahresÜberlebensraten betrugen 80,1 %, 47,9 % und 35,5 %. Die mediane tumorspezifische Überlebenszeit nach Resektion nicht-kolorektaler, nicht-neuroendokriner Metastasen stellte sich mit 2,0 Jahren und folgenden 1-, 5- und 10-Jahres-Überlebensraten dar: 76,8 %, 43,1 % und 27,9 %. Nach der Leberresektion aufgrund von Metastasen eines Magenkarzinoms ergaben sich tumorspezifische 1-, 5- und 10-Jahres-Überlebensraten von 80,8 %, 23,1 % und 11,5 % (mediane ÜLZ: 18 Monate). Die 1-, 5- und 10-Jahres-Überlebensraten nach der Resektion von Filiae eines Mammakarzinoms betrugen 74,6 %, 51,1 % und erneut 51,1 %. Die mediane Überlebenszeit nach Operation von Metastasen eines Malignen Melanoms lag bei 22 Monaten: 1-JÜR: 66,7 %, 5-JÜR: 33,3 %, 10-JÜR: 0,0 %. Nach der Resektion von Filiae eines Neuroendokrinen Tumors betrug die 1- 5- und 10-Jahres-Überlebensrate 100,0 %, 80,0 % und erneut 80,0 %. Bei Patienten mit primärem Nierenzellkarzinom ergab sich nach der Resektion eine mediane Überlebenszeit von 44 Monaten und die dazugehörige 1-Jahres-Überlebensrate lag bei 75,0 %. Die folgenden Faktoren zeigten sich in den Resultaten der univariaten Analyse als signifikante Prädiktoren für das tumorspezifische Überleben der Patienten: Primärtumorgruppe8, Grading des Primärtumors, zusätzliche Eingriffe neben der Leberresektion und Sicherheitsabstand zum Resektionsrand. In der multivariaten, tumorspezifischen Analyse wurden zwei Determinanten als unabhängige Prognosefaktoren für das Überleben nach der Leberresektion identifiziert: Der kleinste Sicherheitsabstand der Leberfiliae zum Resektionsrand und die Durchführung eines zusätzlichen Eingriffs neben der Leberresektion. Bei Durchführung eines solchen Eingriffs war das Risiko für die Patienten, an der Tumorerkrankung zu versterben, 3,5mal so groß im Vergleich zu Patienten, bei denen kein zusätzlicher Eingriff erfolgt ist. Bei Annahme eines Sicherheitsabstandes von mindestens 10 mm als Referenz, errechnete sich im Vergleich dazu für Patienten, bei denen kein Sicherheitsabstand eingehalten werden konnte, ein 6,3mal so großes Risiko an der Tumorerkrankung zu versterben. Bei Einhaltung eines kleinen Abstandes zum Resektionsrand (0,1 mm - 9,9 mm) war das entsprechende Risiko für die Patienten 4,9mal so groß. Die Resektion nicht-kolorektaler Lebermetastasen erscheint in ausgewählten Fällen sinnvoll. Um die Prognose der operierten Patienten zu verbessern, sollte entsprechend den Ergebnissen der vorliegenden Arbeit ein Sicherheitsabstand von mindestens einem Zentimeter angestrebt werden.
In der vorliegenden retrospektiven Studie wurde der Zusammenhang zwischen Knochenstoffwechsel und Frakturrate von Nierentransplantierten Patienten untersucht. Aus einem Patientenkollektiv von 1600 Patienten des Kuratoriums für Dialyse und Nierentransplantation Frankfurt am Main wurden 122 Patienten ausgewählt, die nach Dialyse und anschließender Nierentransplantation sich einer Knochendichtemessung unterzogen haben. Stattgefundene pathologisch zu wertende Frakturen wurden in Zusammenhang mit epidemiologischen Faktoren, Medikamenteneinnahme und Blutparametern gesetzt. Die statistische Auswertung erfolgte mit SPSS 13, wobei ein p< 0,05 als statistisch signifikant gewertet wurde. Die Daten wurden auf bis zu fünfzehn Jahre nach Transplantation untersucht, als Untersuchungszeitpunkt möglicher Zusammenhänge verschiedener Parameter untereinander wurde der Zeitpunkt zwei Jahre post Tx gewählt, da hier die Datenlage am besten war. Betrachtet man das untersuchte Patientengut, so sind trotz teilweise langer Dialysezeit, Immunsuppression und eingeschränkter Lebensweise die meisten Blutparameter weniger pathologisch als erwartet bzw. im Rahmen der eingeschränkten Nierenleistung erklärlich. Beachtenswert ist das Parathormon: die signifikant positive Korrelation mit der Alkal. Phosphatase ist ein deutlicher Hinweis dafür, dass gerade in den ersten 24 Monaten nach Transplantation der Einfluß auf den Knochenstoffwechsel massiv zu sein scheint. Im Laufe der Zeit findet allerdings eine Entkoppelung statt, sodass ein weiterhin hoher Parathormonwert nicht mehr gleichbedeutend für einen starken Knochenkatabolismus ist. Die Knochendichte ist im Verhältnis zu gesunden Dreißigjährigen vermindert, aber im Vergleich zu Gleichaltrigen nur diskret reduziert. Eine Knochendichtemessung kann hinweisend auf eine Osteoporose sein, läßt aber nicht eine schlechte, frakturgefährdete Knochenqualität bei mäßiger bis guter Dichte erkennen. Zwischen Knochendichte und Frakturen fanden wir keine signifikante Korrelation, und somit gewinnt wieder die Klinik der Patienten an Gewicht: Knochenschmerzen, stattgefundene pathologische Frakturen ohne adäquates Trauma, Minderung der Körpergröße weit über die 97. Perzentile hinaus etc. scheinen weitaus bedeutungsvoller und folglich eine Indikation für eine medikamentöse knochenprotektive Therapie zu sein. Doch wie funktioniert eine solche Therapie? Calcium und Vitamin D3 verbessern bei geringen Nebenwirkungen, Medikamenten-Interaktionen und Kosten zwar nachweislich die Dichtewerte, allerdings nicht evident die Frakturrate. Die hier verabreichten Dosen könnten allerdings deutlich zu niedrig sein, neuere Studien zeigen jedenfalls Optimierungsmöglichkeiten im Sinne einer positiven Beziehung zwischen Dosis und sinkender Frakturrate auf. Anders sieht es mit den Bisphosphonaten aus, bei denen zukünftig nochmals das Wirkungs-Nebenwirkungs-Verhältnis in prospektiven Studien eruiert werden sollte. Es gilt als bewiesen, betrachtet man die BMD als quantitativen Erfolgsparameter, dass diese effizient bezüglich der Behandlung einer Steroid-induzierten Osteoporose sind, allerdings stehen die Nachfolger anderer Wirkungsgruppen schon parat, gekoppelt an ein anderes Nebenwirkungsspektrum. Eine rein protektive Dosis an Risikopatienten zum Zwecke einer niedrigen BMD, die allerdings nicht zwangsläufig ein damit verbundenes Frakturrisiko beinhaltet, ist fraglich. Die Glukokortikoide wirken interindividuell stark unterschiedlich, können allerdings bereits in sehr geringen Mengen knochenschädigend sein (tägliches Prednisolonäquivalent von 2,5mg). Hier scheint also die Dauer der Gabe im Verhältnis zur Gesamtdosis deutlich einflussreicher zu sein. Tatsache ist, dass wir keine Korrelation der Glukokortikoidgabe mit der BMD, der Frakturrate oder des PTH nachweisen konnten. Dennoch könnte ein Verzicht dieser und somit der Bisphosphonate bei entsprechender Alternative eine Gewinn-Situation für den Patienten darstellen. Die zur Einsparung verwendeten Immunsuppressiva gelten als ein weiterer Unsicherheitsfaktor, da kaum verwertbare Studien am Menschen bezüglich deren Auswirkungen auf den Knochenstoffwechsel existieren. Aus Gründen des häufigen Therapieregime-Wechsels ließen sich keine Daten erheben. Beachtlich ist die signifikante Korrelation des Serum-Eiweiß/Albumin-Spiegels bezüglich der Frakturen. Ein niedriger Wert hängt offensichtlich mit einer erhöhten Frakturzahl zusammen, was ernährungsphysiologische sowie endokrinologische Einflüsse stärker unterstreichen könnte. . Eine bessere Ernährung und die Vermeidung von Eiweißverlusten könnten langfristig hilfreich sein, ebenso wie die konsequente Therapie des Hyperparathyreoidismus v.a. in den ersten Monaten nach Transplantation mit (höheren) Vitamin-D- sowie gegebenenfalls Cinacalcet-Applikationen. Der Zeitpunkt einer medikamentösen knochenprotektiven Therapie scheint wichtiger als die Gesamtdauer zu sein, wobei Arzt und Patient stets die Multikausalität des bis heute noch nicht vollständig verstandenen Krankheitsbildes bedenken sollten.
Mycophenolat-Mofetil (MMF) hemmt die Aktivität von Mikrogliazellen und verringert den exzitotoxischen neuronalen Schaden in organotypischen hippocampalen Schnittkulturen (OHSC). Der Tractus perforans ist die wichtigste neuronale afferente Verbindung zwischen entorhinalem Kortex (EC) und Gyrus dentatus (GD) im Hippocampus. Er besteht aus Axonen, deren Ursprungsneurone im EC liegen und die im GD terminieren. Ziel dieser Arbeit war es, die Wirkung von MMF auf den Erhalt dieser Projektion zu untersuchen. Methodisch wurde zu diesem Zweck die Fluoreszenzmarkierung des Tractus perforans in der organotypischen hippokampalen Schnittkultur (OHSC) etabliert. Die von uns angestrebte retrograde Färbemethode sollte entorhinale Neurone unter der Voraussetzung markieren, dass deren Axone (Tractus perforans) intakt waren. Ein guter neuronaler Erhalt sollte sich in einem entsprechend erhaltenen Tractus perforans und retrograd markierten entorhinalen Neuronen wiederspiegeln. OHSC aus 8 Tage alten Wistar Ratten wurden für 9 div (days in vitro) mit oder ohne MMF (100 mikro g/ml) kultiviert. Zunächst wurde methodisch die retrograde Markierung des Tractus perforans mit dem lipophilen Farbstoff DiI (1,1’-Dioctadecyl-3,3,3’,3’-tetramethylindo-carbocyaninperchlorat) in der OHSC etabliert und mit dem hydrophilen Dextranamin Mini Ruby versucht. Die retrograde Markierung entorhinaler Neurone und die durchgängige Darstellung des Tractus perforans in der OHSC mit Mini Ruby gelang in unseren Versuchen nicht, während die Markierung mit DiI erfolgreich war. Nach der Fixierung wurde die retrograde Markierung des Tractus perforans durch das Platzieren eines DiI-Kristalles im GD eingeleitet. Die auf diese Weise mit DiI markierten entorhinalen Neurone wurden mit neuronenspezifischen Antikörpern gegen NeuN gegengefärbt und somit zweifelsfrei als Neurone identifiziert. An diesem Modell wurde der Einfluß von MMF auf die Zahl DiI/NeuN doppelmarkierter entorhinaler Neurone quantitativ ausgewertet. Die quantitative Analyse erfolgte an Bildern, die mit einem konfokalen Laser Scanning Mikroskop gewonnen wurden. Die quantitative Auswertung retrograd mit DiI markierter OHSC zeigte, dass die Anzahl der DiI-NeuN doppelmarkierten entorhinalen Neurone in den MMF behandelten OHSC 19fach höher war als in den unbehandelten OHSC (p<0,05). Unsere Ergebnisse zeigen, dass MMF den Erhalt ganzer neuronaler Fasertrakte und Projektionen in der OHSC verbessert. Vor dem Hintergrund vorhandener Arbeiten, die auf neuroprotektive Effekte der MMF deuten, scheint MMF ein aussichtsreicher Kandidat für die Reduzierung des Sekundärschadens im Rahmen von Verletzungen des zentralen Nervensystems zu sein.
Ein neues kombiniertes pulse-wave Doppler- und M-Mode Ultraschallgerät zur semiinvasiven Messung des arteriellen Blutflusses (ABF) in der thorakalen Aorta descendens bei koronaren Revaskularisationseingriffen ohne Einsatz des kardiopulmonalen Bypass (off-pump coronary artery bypass grafting (OPCAB)) wurde untersucht und mit der Thermodilutionsmethode zur Bestimmung des cardiac output (CO) verglichen. Bei 45 Patienten, die sich einem OPCAB-Eingriff unterzogen, wurden ABF und CO gleichzeitig mittels des kombinierten Ultraschall-Dopplergerätes und der Thermodilutionsmethode bestimmt zu den folgenden fünf Messzeitpunkten: nach Anästhesieeinleitung (1), nach Sternotomie (2), nach Eröffnung des Perikards (3), nach Luxation des Herzens mittels eines speziellen Sperrersystems (4), nach Entfernen des Thoraxsperrers (5). Die Teilnehmer der Studie wurden in zwei Subgruppen unterteilt, entsprechend dem Typ des Thoraxsperrers, der eingesetzt wurde. Infolge einer Änderung des Operationsverfahrens wurden 15 Teilnehmer mittels des Octopus-Sperrers, 30 mittels des CTS-Sperrers revaskularisiert. Wir führten insgesamt 225 Messungen durch. Die Korrelationskoeffizienten und die linearen Regressionsgleichungen wurden berechnet. Alle Messungen und die Messwerte der Subgruppen getrennt wurden im Bland-Altman-Diagramm dargestellt. Der Korrelationskoeffizient für alleMesswerte war r = 0,66 (CO = 0,6508xABF+2,386) bzw. r = 0,66 (CO= 0,7499xABF+2,386) für dieOctopus-Sperrer Subgruppe und r = 0,65 (CO = 0,5583xABF+2,5281) für die CTS-Sperrer Subgruppe. Der Bias (Mittelwert der Differenzen) aller Messwerte betrug 0,8l/min (0,88l/min in der Octopus-Sperrer Subgruppe und 0,75l/min in der CTS-Sperrer Subgruppe) und die „limits of agreement“ (Mittelwert der Differenzen +-2SD)+-2,38l/min (2,07l/min in der Octopus-Sperrer Subgruppe und 2,52l/ min in der CTS-Sperrer Subgruppe). Demzufolge misst das Ultraschall-Dopplergerät den ABF während eines OPCAB-Eingriffes nicht mit ausreichender Genauigkeit. Weitere Untersuchungen in anderen klinischen Situationen sollten durchgeführt werden.
Der hereditäre Fibrinogen-Mangel ist ein seltener Hämostasedefekt, der in einer quantitativen (Hypofibrinogenämie und Afibrinogenämie) oder qualitativen Form (Dysfibrinogenämie) bzw. einer Kombination aus beiden Formen (Hypodysfibrinogenämie) vorliegt. Seltene Ausprägungen wie die Fibrinogen- Amyloidose und die hepatische Speicherkrankheit Endoplasmic Reticulum Storage Disease (ERSD) tragen zum heterogenen klinischen Bild der Erkrankungen bei, das neben einem asymptomatischen Verlauf Blutungen und Thrombosen umfassen kann. Ziel der vorliegenden Arbeit war es, das Spektrum genetischer Veränderungen, deren Auswirkungen auf die klinische Manifestation und gerinnungsphysiologische Ausprägung bei 101 Probanden mit angeborenem Fibrinogen-Mangel sowie bei 41 erstgradig verwandten Familienangehörigen zu untersuchen. Die vorliegende Arbeit stellt das bisher größte zusammenhängend untersuchte und genetisch charakterisierte Patientenkollektiv mit Fibrinogen-Mangel dar. Von den insgesamt 96 nachgewiesenen Sequenz-Varianten wurden 30 erstmals beschrieben. Hierdurch ergibt sich ein Zuwachs von 15 % an der Gesamtzahl der verschiedenen bisher in der Literatur beschriebenen genetischen Defekten. Bei acht nachgewiesenen Mutationen war bisher erst eine Familie mit dieser Sequenz-Variante beschrieben. Die Ergebnisse der vorliegenden Arbeit bestätigen, dass diese Mutationen kausal für den Phänotyp des Fibrinogen-Mangels sind. Die klinische Präsentation der Patienten umfasste, häufiger als in der Literatur bisher beschrieben, zu 50 % leichte bis moderate Blutungen in Form von Menorrhagien oder verlängerten Nachblutungen nach Verletzungen. Schwere Blutungen traten bei Patienten mit Afibrinogenämie oder selten bei heterozygoten Mutationsträgern in Assoziation mit Operationen, Schwangerschaften und Traumata auf. Probanden mit ERSD erlitten gegensätzlich zu den bisherigen Beschreibungen aus der Literatur sowohl Blutungen als auch Thrombosen. Die Vorhersage des klinischen Phänotyps nach traditioneller Einteilung des Fibrinogen-Mangels anhand laborchemischer Beschreibungen war nicht zuverlässig. Zudem lagen die hierfür erforderlichen Laborparameter häufig nicht vor. Die Mutationsdiagnostik konnte zu einer verbesserten Einschätzung des klinischen Phänotyps beitragen. Spezifische Mutationen wiesen eine Korrelation zu bestimmten klinischen Manifestationen auf. Hierbei zeigte sich eine ausgeprägte Assoziation der Varianten BbArg14Cys und gAsn319-Asp320del mit thromboembolischen Ereignissen. Für weitere Mutationen (AaArg19Gly, BbArg44Cys, gTyr262Cys, gAla327Thr und gLys380Asn) ist ebenfalls eine Assoziation mit Thromboseneigung anzunehmen, konnte jedoch aufgrund kleiner Fallzahlen nicht zweifelsfrei beurteilt werden. Die am häufigsten auftretenden Mutationen an Position AaArg16 waren mit einer moderaten Blutungs- (17 % bis 53 %) und einer nur geringen Thromboserate (3 % bis 13 %) assoziiert, die jedoch für die AaArg16Cys-Variante höher lag im Vergleich zur AaArg16His-Variante. Die Mutationen gGly333Ser und gArg375Trp zeigten eine Korrelation zur hepatischen Speicherkrankheit ERSD und gingen mit einer beeinträchtigten Leberfunktion einher. Die Verdachtsdiagnose des Fibrinogen-Mangels wurde bei einem Großteil der Indexpatienten (42 %) aufgrund pathologischer Gerinnungswerte gestellt. Vor allem „Null“-Mutationen gingen jedoch oftmals mit im Referenzbereich liegenden Fibrinogen-Werten einher, so dass sich neben der mehrmaligen Fibrinogen-Bestimmung die zusätzliche Testung weiterer Laborparameter, wie die Thromboplastinzeit (TPZ), die aktivierte partielle Thromboplastinzeit (aPTT) und die Thrombinzeit (TZ) als hilfreich erwiesen haben. Die Bestimmung des abgeleiteten Fibrinogens (Fib. QD) zeigte sich als nicht geeignet zur Detektion des kongenitalen Fibrinogen-Mangels, da die am häufigsten vorliegenden Mutationen an AaArg16 zu keiner Erniedrigung führten. Die Messung des funktionellen Fibrinogen nach Clauss (Fib. n. Cl.), der Fibrinogen- Konzentration (Fib. Ag) und die daraus resultierende Fibrinogen-Ratio (RaAg) bzw. die Bestimmung von RZ und TZ waren die Grundlage eines in der vorliegenden Arbeit entwickelten Stufenmodells für einer schnelle und kostengünstige Mutations-Detektion. Bei Anwendung der vorgeschlagenen Stufendiagnostik im Vergleich zur herkömmlichen Komplettsequenzierung ist eine Reduktion von Arbeitsaufwand und Kosten um bis zu 64 % zu erwarten.
Einleitung: Aufgrund von steigendem internationalen Reiseverkehr werden tropentypische Erkrankungen wie Malaria auch nach Deutschland importiert. Dadurch gewinnen Maßnahmen zur Vorbeugung und Behandlung der Malaria zunehmend an Bedeutung. Wir untersuchten, wie eine medikamentöse Malariaprophylaxe bei Reisen in Malariahochrisikogebiete (WHO Zone- C) von den Reisenden tatsächlich vertragen wurde, um Informationen über die Häufigkeiten und Gründe für prophylaxeassoziierte Nebenwirkungen zu erhalten und somit eine Verbesserung der Beratungen zu ermöglichen. Methoden: Mefloquin (Lariam®), Doxycyclin (Doxycyclin®), Chloroquin+Proguanil (Resochin®+Paludrine®) oder Atovaquon/Proguanil (Malarone®) wurden bei Reisenden im Alter von 18-80 Jahren (Durchschnittsalter 40 Jahre) zur Prophylaxe eingesetzt. Die Reisenden wurden im Zeitraum Mai 2001 bis September 2004 in der Impfambulanz des Instituts für Medizinische Virologie der Universität Frankfurt am Main beraten und retrospektiv mittels eines Fragenbogens zur individuellen Verträglichkeit befragt. Ergebnisse: Insgesamt wurden 850 Fragebögen ausgegeben, 483 konnten ausgewertet werden. Unter den Teilnehmern waren 248 (51,35%) weibliche und 215 (44,51%) männliche Teilnehmer. Lariam® erhielten 228 (47,20%) Teilnehmer, Malarone® 194 Personen (40,17%) Resochin®+Paludrine® verwendeten 32 (6,63%) Reisende, Doxycyclin® 29 Personen (6,00%). Die Anwender von Resochin®+Paludrine® hatten den geringsten Anteil an Nebenwirkungen (21,88 %), die Anwender von Doxycyclin® den höchsten Anteil (48,28%). Bei den Anwendern von Malarone® oder Lariam®, gaben 23,20% bzw. 37,28% Teilnehmer Nebenwirkungen an. Die höchste Compliance zeigten die Reisenden, die Malarone® (87,63%) einnahmen, die niedrigste Compliance die Anwender von Resochin®+Paludrine® (56,25%). Die Compliance unter Lariam® und Doxycylin® betrug 78,07% bzw 68,96%. Der Nebenwirkungsanteil war unter den weiblichen Reisenden (71,11%) gegenüber den männlichen Reisenden (26,67%) nur in der Gruppe, die Malarone® einnahm, erhöht. Die Mehrzahl aller Teilnehmer (n=320) nahm die Prophylaxe zu den Mahlzeiten ein. In allen Prophylaxegruppen war der Anteil an Nebenwirkungen bei mahlzeitenunabhängiger Einnahme (n=128) geringer mit Ausnahme der Untergruppe der männlichen Probanden, die Malarone® einnahmen. Hier lag der Anteil an Nebenwirkungen bei mahlzeitenabhängiger Einnahme bei 14,29%, bei mahlzeitenunabhängiger Einnahme bei 25%. Die Mehrheit der Teilnehmer nahm während der Einnahme der Prophylaxe Alkohol zu sich (n=361), dabei gaben die Anwender von Lariam® (36,97%) und Doxycyclin® (38,10%) seltener Nebenwirkungen an. Bei den alkoholabstinenten Teilnehmern (n=90) lag der Nebenwirkungsanteil bei Lariam® bei 40,82% und bei Doxycyclin® bei 66,67%. Bei Resochin®+Paludrine® fand sich kein Unterschied, bei Malarone® waren die Nebenwirkungen bei den alkoholabstinenten Teilnehmern geringer. Bei den weiblichen Teilnehmerinnen zeigte sich, dass die Teilnehmerinnen der Lariam® (36,59%) der Doxycyclin® (50,0%) und der Resochin®+Paludrine® (16,67%) Gruppe, die während der Einnahmezeit der Prophylaxe Alkohol zu sich genommen hatten, seltener Nebenwirkungen hatten. Bei Malarone® konnte kein bedeutender Abfall der Nebenwirkungshäufigkeit beobachtet werden (32,50% gegenüber 31,25%). Bei den alkoholabstinenten Teilnehmerinnen lag der Nebenwirkungsanteil bei Lariam® bei 45,83%, bei Resochin®+Paludrine® bei 50% und bei Doxycyclin® bei 75%. In der Doxycyclin®-Gruppe war der Anteil an Nebenwirkungen bei den Teilnehmern erhöht (77,75%), die das Auftreten von Nebenwirkungen vorab befürchtet hatten. Dies konnte in den anderen Prophylaxegruppen nicht beobachtet werden. In der Lariam®-Gruppe traten gastrointestinale Symptome, neurologisch-psychiatrische Nebenwirkungen (34,62%) sowie Beschwerden des Herz-Kreislaufsystemes (8,65%) auf. Die Anwender von Malarone® gaben gastrointestinale (35,71%) und neurologisch-psychiatrische Beschwerden (18,37%) sowie Kreislaufstörungen, ohne kardiale Symptome, an. Bei den Reisenden, die Resochin® +Paludrine® oder Doxycyclin® verwendeten, traten überwiegend gastrointestinale Beschwerden (28,57% bzw. 48%) auf. Neurologisch-psychiatrischen Symptome oder Beschwerden des Herzkreislaufsystemes wurden nicht genannt. Unter den Teilnehmern, die über psychiatrische Nebenwirkungen berichtet hatten, war der Anteil an weiblichen und männlichen Reisenden gleich. Insgesamt 16 Teilnehmer (3,29%), aus allen Prophylaxegruppen, erkrankten an Malaria. Reiseziel war stets das tropische Afrika. Bei den Anwendern von Lariam® traten sechs Erkrankungen (2,63%) auf, dabei wurden von vier Teilnehmern hatten die Prophylaxe korrekt duchgeführt. In den Gruppen mit Malarone®- oder Doxycyclin®-Prophylaxe berichtete jeweils ein Teilnehmer (0,51% bzw. 3,45%) bei korrekter Prophylaxe über eine Malariaerkrankung. Bei den Reisenden, die Resochin+Paludrine® verwendet hatten, traten in zwei Fällen (6,25%) Malariaerkrankungen auf. Ein Reisender hatte die Prophylaxe korrekt durchgeführt. Diskussion: Bei Reisen in Malariahochrisikogebiete, mit einer Aufenthaltsdauer von mindestens fünf Tagen, sind eine Expositions- und Chemoprophylaxe empfehlenswert. 31,47% unserer Probanden gaben Nebenwirkungen an, 2,07% der Teilnehmer erkrankten an Malaria. Die Auswahl der Chemoprophylaxe muss unter Berücksichtigung der individuellen Kontraindikationen sowie der jeweils vorherrschenden Resistenzsituationen in den Malariaendemiegebieten erfolgen. Wichtig ist dabei eine umfassende Information der Reisenden um die Akzeptanz zu steigern und die Eigenverantwortung zu stärken.
Die Behandlungsoptionen für Tumorerkrankungen haben sich in den letzten Jahren stetig weiter entwickelt und verbessert und dadurch teilweise zu einer längeren Überlebenszeit der Betroffenen geführt. Dennoch bleiben viele Erkrankte weiterhin ungeheilt. Diese Patienten benötigen eine palliative Behandlung, die vor allem ihre Lebensqualität in der verbleibenden Lebenszeit verbessert und ihnen - soweit realisierbar - ein Sterben zu Hause ermöglicht. In der hier vorliegenden Arbeit wurden retrospektiv 360 Akten von Patienten, die in der chirurgisch-onkologischen Ambulanz der Universitätsklinik behandelt wurden und die im Zeitraum von 1992-1998 verstarben, auf ihren Sterbeort und auf Faktoren, die einen Einfluss auf ein Versterben im häuslichen Umfeld möglich gemacht hatten, untersucht. Die überwiegende Anzahl der Patienten litt an Dickdarmtumoren (55%) und hepatozellulären Karzinomen (24,2%). 62,2% der Patienten waren Männer und 37,8% Frauen. Das Alter der Patienten lag im Mittel bei 61,7 Jahren. Die Betreuungszeit in der chirurgisch-onkologischen Ambulanz betrug im Mittel 12,5 Monate. Bei 82,5% der Patienten lagen Metastasen vor, 80% erhielten eine Chemotherapie an der Universitätsklinik Frankfurt. Der überwiegende Anteil der Patienten verstarb zu Hause (47,5%). 41,9% der Patienten verstarben in einer Klinik (weniger als für diese Zeit im Bundesmittel mit 47,1%), 4,4% in einem Hospiz oder Pflegeheim und bei 6,1% konnte der Sterbeort nicht aufgeklärt werden. An Faktoren, die einen Einfluss auf die Möglichkeit zu Hause zu versterben hatten, fanden sich: die familiäre Einbindung, die Schwere der Symptomlast und die Einbeziehung von Angehörigen. Es konnten deutliche Hinweise festgestellt werden, dass Überlastungssituationen von Angehörigen eine ambulante Betreuung deutlich erschwerten und z. B. zu überstürzten Klinikeinweisungen führen konnten. Patienten, die zu Hause verstarben, mussten nach Ende der Chemotherapie seltener stationäre Behandlungen in Anspruch nehmen (12,9%), bei den in einer Klinik Verstorbenen waren es 51,7%. Bei den zu Hause Verstorbenen standen Operationsindikationen und abdominelle Symptome im Vordergrund. Bei den in einer Klinik Verstorbenen fanden sich mehr Faktoren, die in einem Progress der Erkrankung begründet waren und in ambulant schwerer zu beherrschenden Symptomen wie Atemnot, Infektionen, Fieber und Bewusstseinsveränderungen. Nur in dieser Gruppe fanden sich Einweisungen im präfinalen Zustand, am ehesten bei unzureichender Versorgungslage. Pflegebedürftigkeit im Sinne einer bewilligten Pflegestufe fand sich bei 13,6% der zu Hause Verstorbenen und nur bei 2,5% der in einer Klinik Verstorbenen. Der Zeitraum zwischen Eintreten von Pflegebedürftigkeit und dem Versterben betrug in der Subgruppe zu Hause im Mittel 1,6 Monate, in der Subgruppe Klinik nur 0,5 Monate, so dass in der letzteren Gruppe kaum Handlungsspielräume für die Organisation einer angemessenen Betreuung bestanden. Bei 39,8% der zu Hause Verstorbenen wurden Angehörigengespräche geführt, teilweise auch tägliche Telefonate, bei den in einer Klinik Verstorbenen war dies nur zu 27,8% der Fall. Nur 5 Patienten aus dem Gesamtkollektiv, die zur Subgruppe „zu Hause“ gehören, wirkten lebensfroh und aktiv. Bei den meisten Patienten fanden sich Hinweise auf psychische Belastungen, am häufigsten in Form von depressiven Verstimmungen, gefolgt von Ängsten. Auch die Angehörigen wirkten sehr belastet, teilweise überfordert. Bei vielen Angehörigen zeigte sich im Zusammenhang mit Telefonaten im Rahmen der Recherche für diese Arbeit ein deutlicher Gesprächsbedarf noch Jahre nach dem Verlust und es fanden sich Anzeichen auf fortbestehende Trauer. Eine hohe Verfügbarkeit von Ärzten in Kontakten zu Patienten, Angehörigen und weiteren an der Behandlung beteiligten Gruppen kann wesentlich dazu beitragen, dass Patienten zu Hause versterben können. Herausforderungen für die weitere palliativmedizinische Entwicklung liegen insbesondere in den Bereichen Verbesserung der Lebensqualität, Symptomkontrolle, Einbeziehung der Angehörigen und kommunikative Kompetenzen. Es gilt psychische Belastungen bei den Patienten und ihren Angehörigen zu erkennen und frühzeitig z. B. psychotherapeutisch zu behandeln. Der Bedarf, Angehörige über den Tod des Betroffenen hinaus zu begleiten, ist bei weitem noch nicht gedeckt. Handlungsnotwendigkeit besteht auch darin, Formalia z. B. für die Anerkennung einer Pflegestufe an den sehr variablen Krankheitsverlauf von Krebskranken anzupassen, um frühzeitig Handlungsspielräume für alle Beteiligten zu schaffen. Die demographische Entwicklung mit einem Überwiegen an älteren, erfahrungsgemäß multimorbiden Menschen, bedeutet eine große gesellschaftliche und palliativmedizinische Herausforderung, um flächendeckend tragfähige soziale Netzwerke und palliativmedizinische Versorgungsmöglichkeiten zur Verfügung zu haben.
Knochenmarkszellen sowie zirkulierende endotheliale Progenitorzellen (EPC) beteiligen sich an der Neovaskularisation ischämischen Gewebes im Tiermodell und wurden nach Myokardinfarkt in ersten klinischen Studien erfolgreich eingesetzt. Stromal cell derived factor-1 (SDF) ist der physiologische Ligand des CXCR4-Rezeptors, der auf hämatopoietischen Stammzellen sowie auf EPC exprimiert ist. Der CXCR4-Rezeptor ist entscheidend für das Homing von hämatopoietischen Stammzellen und für die unktionelle Aktivität von EPC. Eine Aktivierung des CXCR4-Rezeptors führt zur Phosphorylierung und Aktivierung der Janus Kinase 2 (JAK2), Phosphatidylinositol 3 (PI3)-Kinase sowie der Aktivierung fokaler Adhäsionsproteine, entscheidende Schritte für die SDF induzierte Migration von CXCR4+ Zellen. EPC von Patienten mit koronarer Herzerkrankung sind funktionell eingeschränkt, jedoch sind die genauen Mechanismen dieser Einschränkung bislang nicht bekannt. Ziel dieser Arbeit war es die funktionelle Aktivität von mononukleären Zellen aus dem Knochenmark (BM-MNC) von heterozygoten CXCR4+/- Mäusen mit denen von homozygoten CXCR4+/+ Mäusen zu vergleichen. Im Weiteren sollte die Phosphorylierung von JAK2 in BM-MNC dieser Mäuse sowie in EPC von Patienten mit koronarer Herzerkrankung und gesunden Probanden untersucht werden. Die CXCR4-Expression auf der Oberfläche von BM-MNC von heterozygoten CXCR4+/- Mäusen ist signifikant niedriger als die CXCR4-Expression auf BM-MNC von homozygoten CXCR4+/+ Mäusen. BM-MNC von CXCR4+/- Mäusen zeigten eine eingeschränkte funktionelle Kapazität die Perfusion im Hinterlaufischämiemodell der athymischen Nacktmaus nach Transplantation zu verbessern verglichen zu BM-MNC von CXCR4+/+ Mäusen. CXCR4+/- Mäuse zeigten eine signifikant erniedrigte Erholung nach Anlage einer Hinterlaufischämie verglichen zu CXCR4+/+ Mäusen. Die reduzierte Erholung der CXCR4+/- Mäuse konnte durch Transplantation von BM-MNC aus CXCR4+/+ Mäusen verbessert werden. Die JAK2-Phosphorylierung in BM-MNC von CXCR4+/- Mäusen war signifikant niedriger als bei CXCR4+/+ Mäusen. EPC von Patienten mit koronarer Herzerkrankung (KHK) hatten eine niedrigere basale JAK2-Phosphorylierung verglichen zu EPC von gesunden Probanden und die JAK2- Phosphorylierung in EPC von Patienten mit KHK ließ sich weniger stark durch SDF stimulieren als in EPC von gesunden Probanden. Die vorliegende Arbeit unterstützt die Rolle des CXCR4-Rezeptors für die funktionelle Aktivität von Progenitorzellen in vivo. Sowohl die funktionell eingeschränkten BM-MNC von CXCR4+/- Mäusen als auch EPC von Patienten mit KHK zeigen eine verringerte JAK2 Phosphorylierung verglichen zu CXCR4+/+ Zellen bzw. EPC von gesunden Probanden. Eine Aktivierung des SDF-CXCR4-Signaltransduktionsweges könnte therapeutisch eingesetzt werden um die funktionelle Aktivität der Zellen vor der klinischen Stammzelltransplantation zu verbessern.
Protein S-100B als Serummarker der zerebralen Schädigung bei pädiatrischen Schädel-Hirn-Verletzungen
(2009)
Protein S-100 ist ein Calcium-bindendes Protein, das die Aktivität seiner Zielproteine moduliert. Der Aufgabenbereich umfasst die Regulation von Zellwachstum und Zellstrukturbildung. Entdeckt wurde es im Jahre 1965 von B.W. Moore, der es erstmals aus Rinderhirn isolierte. Seinen Namen erhielt es aufgrund seiner Löslichkeit in 100% gesättigtem Ammoniumsulfat bei neutralem ph-Wert. Protein S-100 besteht aus mehreren Untereinheiten, von denen S-100B nur im Hirngewebe vorkommt, hauptsächlich im Zytosol von Gliazellen. Bei astroglialer Zerstörung und konsekutiver Störung der Blut-Hirn-Schranke können erhöhte Konzentrationen von Protein S-100B im Serum gemessen werden. Durch seine spezifische Herkunft besitzt Protein S-100B einen potentiellen Wert als biochemischer Marker einer strukturellen Hirnschädigung. Ziel dieser Studie ist die Überprüfung des posttraumatischen Protein S-100B Serumspiegels bezüglich seiner Korrelation mit dem Schweregrad kindlicher Schädel-Hirn-Verletzungen und deren Prognose. In Form einer prospektiven Studie wurden insgesamt 45 Kinder (23 Jungen und 22 Mädchen) zwischen 4 Monaten und 17 Jahren (Mittelwert 7,64 Jahre) mit Hirnverletzungen unterschiedlicher Schweregrade untersucht, bei denen innerhalb der ersten 20 posttraumatischen Stunden mittels eines immunoluminometrischen Assays die Protein S-100B Serumkonzentration bestimmt wurde. Der Normalbereich für Protein S-100B liegt bei < 0,15 µg/l. Werte zwischen 0,15 und 0,5 µg/l gelten als leichtgradig erhöht, Werte über 0,5 µg/l als deutlich erhöht. Die S-100B-Werte wurden mit den klinischen Daten und dem posttraumatischen Outcome (Nachbeobachtungszeit mindestens 6 Monate) korreliert. Die statistischen Signifikanzberechnungen erfolgten mittels des Fisher-Exact-Tests.Die gemessenen S-100B Werte lagen zwischen 0,05 und 3,05 µg/l (Mittelwert 0,46 µg/l). Die mittlere Latenzzeit der posttraumatischen Protein S-100B Bestimmung betrug 5 Stunden. 38 % der Kinder zeigten leichtgradige Erhöhungen (>= 0,2-0,5 µg/l), 29 % deutliche Erhöhungen (> 0,5 µg/l). Niedrige Punktwerte in der initialen Glasgow-Coma-Scale (GCS) bedeuteten im Mittel höhere Werte für Protein S-100B. Ein initialer GCS-Wert von unter 8 ging in allen Fällen mit S-100B Werten über 0,5 µg/l einher (p=0,005). In Fällen ohne Verlust des Bewusstseins, bzw. maximal einer leichten Eintrübung des Bewusstseins (Lange-Cosack I-II) lagen die S-100B Werte im Mittel niedriger als bei Vorliegen eines Bewusstseinsverlustes (III-IV). Ein Bewusstseinsverlust ging immer mit einem S-100B Wert von mindestens 0,2 µg/l einher (p=0,04), meist lag der Wert über 0,5 µg/l (p=0,015). 25 Kinder erhielten eine Computer- und /oder Magnetresonanztomographie. Hier zeigten sich erhöhte S-100B Werte vor allem bei schweren Kontusionen und Subduralblutungen. Den höchsten Wert (3,05 µg/l) wies ein Kind mit ausgedehnten diffusen axonalen Verletzungen auf. Bei 38 der 45 Patienten konnte nach einer durchschnittlichen Nachbeobachtungszeit von 27,5 Monaten das neurologische Outcome (Glasgow Outcome Scale, GOS) erhoben werden. 8 Kinder (21 %) wiesen neurologische Residuen auf, vor allem Koordinationsstörungen und Verlangsamungen im Sinne eines Psychosyndroms, 1 Kind verstarb im Akutverlauf an einem malignen Hirnödem. Die Kinder mit posttraumatischen Residuen / Behinderungen wiesen im Mittel tendenziell höhere Werte für Protein S-100B auf. Die unterschiedlichen Beschwerdebilder und Residualzustände nach leichten und schweren Schädel-Hirn-Verletzungen lassen sich anhand der etablierten klinischen, neurophysiologischen und neuroradiologischen Prognosemarker bislang nur bedingt vorhersagen. Die Ergebnisse dieser Untersuchung zeigen gute Korrelation des Serum S-100B Wertes mit der Schwere und Dauer der initialen Bewusstseinsstörung sowie dem Ausmaß der hirnparenchymatösen Läsionen. Die Aussagekraft bezüglich des posttraumatischen Outcomes ist aufgrund der Fallzahl und der zu einem großen Teil einbezogenen leichten Schädel-Hirn-Verletzungen begrenzt. Die Untersuchungsergebnisse unterstützen die bei Erwachsenen erhobenen Daten und zeigen, dass Protein S-100B auch im Kindesalter einen viel versprechenden Parameter zur Objektivierung einer akuten Hirnschädigung darstellt und bereits zu einem frühen posttraumatischen Zeitpunkt einen Beitrag zur Beurteilung des Schweregrades und der Prognose von Schädel-Hirn-Verletzungen leisten kann. Der posttraumatische Protein S-100B Serumwert bringt hier als biochemischer Marker eine zusätzliche Information und kann so bei der Einschätzung und Initiierung von diagnostischen, therapeutischen, rehabilitativen und Follow-up-Maßnahmen hilfreich sein.
Benzodiazepine stehen in den Medikamentenmissbrauchslisten an erster Stelle und sind deswegen auch von Interesse in der Kriminalistik. Grundlage der vorliegenden Arbeit war die Analyse sämtlicher Benzodiazepin-Fälle, die in den Jahren 1998 bis 2003 im Institut für Forensische Toxikologie, Zentrum der Rechtsmedizin der Johann Wolfgang Goethe Universität in Frankfurt am Main untersucht wurden. Zur Auswertung kamen insgesamt 2695 Fälle, wobei das Hauptaugenmerk auf die 410 Personen gelegt wurde, bei denen Flunitrazepam nachgewiesen werden konnte. Anhand der gesammelten Daten war es möglich, Flunitrazepam unter verschiedenen Gesichtspunkten zu betrachten: 1. Welche Bedeutung hat Flunitrazepam in der Gruppe der Benzodiazepine und kann man im Laufe der Jahre Änderungen im Konsummuster feststellen? 2. Wie ist die Geschlechtsverteilung? 3. Gibt es im Untersuchungszeitraum monokausale Flunitrazepam – Todesfälle? 4. Lassen sich anhand des Vergleichs zwischen Flunitrazepam und Diazepam Unterschiede im Beigebrauch feststellen? 5. Lassen sich anhand des Vergleichs zwischen Flunitrazepam und Benzodiazepinen-Gesamt Unterschiede in der Deliktart feststellen? 6. Gibt es einen Zusammenhang zwischen Konzentration und Deliktart? 7. Welche Bedeutung hat Flunitrazepam in der Drogenszene? Die Auswertung der Daten erbrachte folgende Resultate: 1. Der Pharmakonzern Hofmann La-Roche führte an seinem Produkt Rohypnol® einige Veränderungen durch, um den zunehmenden Missbrauch zu verhindern. 1994 wurde die Darreichungsform von 2 mg auf 1 mg reduziert und 1998 wurde der Farbstoff Indigocarmin hinzugefügt. Von Interesse bei der Analyse der Daten war, ob sich diese Änderungen auf den Konsum von Flunitrazepam auswirkten. Aus diesem Grund wurde zusätzlich noch eine Auswertung über die Benzodiazepinverteilung der Jahre 1993 bis 1997, in denen insgesamt 1630 Benzodiazepin-Fälle registriert wurden, durchgeführt. Bei der Analyse der Benzodiazepinverteilung konnte in den Jahren 1993 bis 1997 und 1998 bis 2003 ein ständiger Zuwachs der Gesamtbenzodiazepin-Fälle festgestellt werden. Dieser Zuwachs ist auf den Anstieg der Untersuchungszahlen im Institut zurückzuführen. Jedoch ließen sich bei den Flunitrazepam-Fällen, gerade in den Jahren 1994 und 1998, Abweichungen im Konsumverlauf feststellen, welche auf die Veränderungen des Pharmakonzerns zurückzuführen sein könnten. Bei den Fragebögen, die mit 15 Schwerstabhängigen aus der Frankfurter Drogenszene durchgeführt wurden, kam es zu folgenden Ergebnissen: nach 1994 wurde der Konsum erhöht, nach 1998 gab es bei den meisten entweder gar keine Veränderung oder die Tabletten wurden anfangs vermehrt oral konsumiert. 2. Aufgrund der Kriminalitätsrate mit überwiegend männlicher Beteiligung lag der Frauenanteil der erfassten Personen bei nur etwa 1/5 (Benzodiazepine-Gesamt: 21,8%, Flunitrazepam: 15,9%). 3. Während des Untersuchungszeitraums konnten keine „reinen“ Flunitrazepam –Todesfälle festgestellt werden. 4. Im Vergleich der Cobefunde waren die Substanzen THC, Morphin, Codein und Methadon in der Diazepam-Gruppe häufiger anzutreffen als in der Flunitrazepam-Gruppe. Lediglich Kokain wurde in der Flunitrazepam-Gruppe vermehrt konsumiert. 5. Als führende Deliktart konnten in der Flunitrazepam-Gruppe die Eigentumsdelikte ermittelt werden. In der Benzodiazepin-Gruppe kam es am häufigsten zu Verkehrsdelikten. 6. Die höchsten Flunitrazepam - Konzentrationen im Blut wurden ebenfalls bei den Eigentumsdelikten gefunden. 7. Aufgrund seiner stärkeren euphorisierenden und hypnotischen Wirksamkeit steht Flunitrazepam in der Frankfurter Drogenszene an erster Stelle unter den Benzodiazepinen. Das Erleben eines Rauschzustandes als Euphorie, als ein unendliches und allumfassendes Glücksgefühl, ist ein - vorrangig bei uns Menschen - bestehendes Phänomen. Den Drang dieses Gefühl zu erleben und beizubehalten gab es seit jeher und wird es auch immer geben werden. Übermäßiges Verlangen und das Nachgeben dieses Impulses führen zu Abhängigkeit und Sucht. Die aus diesem Zustand resultierenden sozialen Auswirkungen äußern sich in Dissozialität und Kriminalität. „Ein süchtig gewordener hat nur eine fixe Idee: das Gift! Seine Sucht treibt ihn zur Unehrlichkeit und zu Verbrechen“ (Georg Siegmund, 1962). Sucht und Abhängigkeit sind Tatsachen die sich nicht verleugnen lassen. Um den Missbrauch eines Medikamentes verhindern zu können, genügt es nicht, nur seine Form zu verändern, es bedarf vielmehr einer umfangreicheren Aufklärung und einer generell bewussteren Umgangsweise mit potentiell suchterzeugenden Substanzen.
Das Ziel dieser Studie war die Etablierung von Grenzwerten für die bronchiale Methacholinprovokation durch Vergleich des Aerosol Provokation Systems (APS-SC) mit einem ATS Standard (five-breath dosimeter method, SDM). Unsere Ergebnisse zeigen, dass die APS-SC Methode unter Verwendung eines Kurzprotokolls und des Systems der Firma Cardinal Health eine sichere, schnelle und verlässliche Methode der bronchialen MCP darstellt. Im Schnitt erspart dieses Verfahren acht Minuten gegenüber der klassischen SDM gemäß dem von der ATS empfohlenen „short five breath dosimeter protocol“. Zudem entfallen in der Vorbereitung das Herstellen und die Lagerung mehrerer unterschiedlich konzentrierter Methacholinlösungen; während der Untersuchung existiert daher auch kein Verwechslungsrisiko. Der Test selbst ist für Untersucher und Patient weniger belastend. Die Verwendung einer Konzentration von 16,00 mg/ml für die Methacholin-Testlösung stellt einen guten Mittelweg zwischen akzeptablen Inhalationszeiten innerhalb der Stufen und einer nicht zu aggressiven Konzentration dar, mit der vom Anfang eines Tests bis zu seinem Ende gearbeitet werden kann. Zwischen den Kategorien der BHR für die SDM- und die APS-SC Methode besteht ein enger Zusammenhang. Als Grenzwert für die Annahme einer BHR – definiert als diejenige Methacholindosis bzw. -konzentration, die zu einem Abfall der FEV1 um 20 % vom Ausgangswert führt – stimmt der bestehende und von der ATS publizierte Grenzwert von 8,00 mg/ml am besten mit einer Dosis von 1,00 mg Methacholin in der APS-SC Methode überein.
kurz und kn@pp news : Nr. 16
(2009)
* Kooperation von "jeder-Fehler-zaehlt.de" mit der Techniker Krankenkasse
* "PRIorisierung von MUltimedikation bei Multimorbidität" – PRIMUM-Pilotstudie erfolgreich gestartet
* Neuer Arbeitsbereich: Qualitätsförderung und Konzeptentwicklung
* Neu im Institut ist Sabine Pommeresch
* Frankfurter Fortbildungsreihe Evidenzbasierte Medizin
* 2. Frankfurter Tag der Allgemeinmedizin: Jetzt online
kurz und kn@pp news : Nr. 15
(2009)
Die Nieren von COX-2-/--Mäusen zeigen um den Tag P21 u.a. einen verminderten Quotienten aus Nierengewicht zu Körpergewicht, zu kleine Glomeruli, einen schmalen Kortex und zystische Veränderungen, sowie hyperplastische Glomeruli in rindenfernen Bereichen. Die Befunde an den Nieren von COX-1-/- und COX-2-/- Mäusen lassen vermuten, dass es sich um COX-2 abhängige Effekte handelt, die erst im postnatalen Abschnitt der Nephrogenese in Erscheinung treten. Da COX-1-/--Mäuse keine Pathologien der Nieren aufweisen und es zwischen Wildtyp-Mäusen und COX-2-/--Mäusen an den ersten Tagen bis etwa Tag P10 keine Unterschiede des Phänotypes der Nieren gibt. Nach Gabe von Indomethacin während des letzten Trimenons der Schwangerschaft wurde auch bei Menschen über eine gestörte Nierenfunktion mit Oligohydramnion sowie histologischen Veränderungen berichtet. Bisher war allerdings unklar, inwiefern die unterschiedlich klinisch eingesetzten Coxibe sich in ihrer Wirkung auf die Nierenentwicklung unterscheiden und ob sie die Nephrogenese in gleichem Maße stören können. In der vorliegenden Arbeit wurde der postnatale Abschnitt der Nephrogenese von Mäusen unter Gabe der experimentellen COX-2 Inhibitoren SC-236 und SC-791, der selektiven COX-2-Inhibitoren Celecoxib, Etoricoxib, Lumiracoxib, Rofecoxib und Valdecoxib, der klassischen NSAIDs Diclofenac und Naproxen, der experimentelle COX-1 Inhibitor SC-560 und das Celecoxib-Derivat DMC untersucht. Zunächst wurden die Tiere von Tag P1 bis Tag P21 mit den oben genannten Substanzen nach einem festen Schema behandelt, anschließend wurden die Nieren präpariert und histologisch aufgearbeitet. Als Parameter der Untersuchung der Nierenentwicklung wurde die Reduktion der Nierenquotienten, der mittleren Durchmesser der Glomeruli und der kortikalen Dicke, sowie der Anteil an Glomeruli im Rindenbereich und einer Verschiebung der Verteilung der Glomeruli, hin zu kleineren Durchmessern herangezogen. Verglichen mit der Referenzgruppe, die keine Veränderungen der Nephrogenese gezeigt hatte, zeigte sich ein Effekt auf die Morphologie der Nieren in unterschiedlichem Ausmaß, bei allen selektiven COX-2-Inhibitoren, sowie den klassischen NSAIDs. Weder SC-560, noch DMC zeigten bei dieser Studie einen Effekt auf die Nephrogenese. Des weiteren wurde in der vorliegenden Arbeit untersucht ob und an welchen postnatalen Tagen die COX-2-Expression erhöht ist. Dazu wurden an den Tagen P2, P4, P6 und P8, sowie an Tag P21 unbehandelte C57/BL6-Mäuse getötet und deren Nieren entnommen. Sowohl auf mRNA, als auch auf Proteinebene konnte an Tag P4 in den TaqMan-Analysen, bzw. an Tag P6 in den Western Blot-Analysen eine signifikant erhöhte Expression der COX-2, verglichen mit Tag P21 festgestellt werden. Daraus ergab sich nun die Frage, ob die Inhibition der COX-2 an diesen Tagen ausreicht, eine Veränderung im Sinne der oben genannten Veränderungen an der Niere zu zeigen. Dazu wurde eine Gruppe von Tieren nur von Tag P1 bis Tag P6 mit dem experimentellen COX-2-Inhibitor SC-236 behandelt und an Tag P21 mit Tieren verglichen, die entweder von Tag P1 bis Tag P21 SC-236 erhielten oder das Lösungsmittel DMSO. Die Nieren zeigten ebenfalls signifikante Unterschiede zu den Nieren aus der Referenzgruppe. Die Ergebnisse lassen den Schluss zu, dass es sich um einen Gruppeneffekt der NSAIDs auf die COX-2 abhängige Nephrogenese handelt. Des weiteren zeigte sich, dass die COX-2-Expression in den Nieren an den ersten Lebenstagen der Maus erhöht ist und die COX-2 Inhibition an diesen Tagen eine irreversible Störung der Nephrogenese nach sich zieht. Die Konsequenz aus diesen Ergebnissen sollte sein, dass NSAIDs nicht mehr in der Spätschwangerschaft, z.B. zur Tokolyse oder zur Behandlung des Polyhydramnions eingesetzt werden. Ein weiterer Teil dieser Arbeit beschäftigte sich mit der Tatsache, dass auch bei AT1-/-- und ACE-/--Mäusen über eine veränderte Morphologie der Nieren berichtet wurde. Des weiteren sind beide Systeme, COX-2 und RAAS, an der Regulation der Nierenphysiologie beteiligt und verknüpft. In der vorliegenden Arbeit wurde nun die Wirkung des ACE-Inhibitors Enalapril und des AT1-Antagonisten Telmisartan auf Parallelen zur COX-2 abhängigen Nephrogenese untersucht. Lediglich die Nierenquotienten waren bei beiden Substanzen vermindert. Es zeigten sich bei der Behandlung mit Enalapril verminderte Volumina der Glomeruli, eine verminderte kortikale Dicke und ein erhöhter Anteil von Glomeruli im Rindenbereich.
Anliegen: Der hausärztlich-ambulanten Versorgung von depressiven Patienten kommt eine zentrale Bedeutung zu. Ein wichtiges Symptom von Depressionen ist Suizidalität. Suizidgedanken bleiben im Hausarztkontakt jedoch oftmals unerkannt. Eine verbesserte Kenntnis von Prädiktoren für Suizidgedanken speziell bei depressiven Patienten in der Primärversorgung kann dazu beitragen, die Erkennung von Suizidgedanken durch den Hausarzt zu verbessern und dadurch eine rechtzeitige Intervention zu ermöglichen. Mit Prädiktoren für Suizidgedanken explizit bei depressiven Patienten in der Primärversorgung haben sich bislang nur wenige Studien befasst, mit teilweise heterogenen Ergebnissen. Ziel der vorliegenden Studie war es daher, an einer großen Stichprobe von Patienten mit Major Depression aus der Hausarztversorgung Prädiktoren für Suizidgedanken zu untersuchen. ...
Mechanismus der Inhibition APOBEC3-vermittelter Restriktion durch das Bet Protein der Foamyviren
(2009)
Der Selektionsdruck seitens der Pathogene führte im Laufe der Evolution zur Entwicklung verschiedener Abwehrmechanismen. Neben der angeborenen und adaptiven Immunabwehr rückte in den letzten Jahren ein neuer Immunitätszweig in den Fokus der Wissenschaft, die sogenannte intrinsische Immunität. Dieser Begriff geht einher mit der Entdeckung zellulärer, antiviral wirkender Deaminasen aus der Familie der APOBEC3 Proteine (A3A, -B, -C, -DE, -F, -G und -H). Diese Proteine übten einen starken Selektionsdruck aus, so dass nur die Viren überleben konnten, die einen Weg gefunden haben diesen zellulären Replikationsblock zu umgehen. Die komplexen Retroviren, wie Lenti- und Foamyviren, haben dazu Proteine entwickelt, welche in der Lage sind die A3 vermittelte, zelluläre Abwehr auszuhebeln. Während das Vif Protein des HI-Virus, das den proteasomalen Abbau des Zielproteins induziert, intensiv erforscht wurde, ist die Wirkungsweise des foamyviralen Bet noch unbekannt und Gegenstand dieser Arbeit. Die Aufklärung der Wirkungsweise des Bet Proteins erforderte zunächst die Etablierung eines experimentellen Systems, das die Messung antiviraler Aktivität verschiedener A3 Proteine, sowie deren Neutralisation durch Bet erlaubt. Bet zeigt sich aktiv gegen die meisten Deaminasen der Primaten, nicht aber gegen die Deaminasen der Katze und der Maus. Da die Aktivität sowohl im homologen (PFV), als auch heterologen (SIV) System bestimmt wurde, wird eine Beteiligung anderer viraler Komponenten ausgeschlossen. Aus dem breiten Spektrum sensitiver A3 Proteine wurden das humane A3B, -C und –G für weitere Untersuchungen verwendet. Durch Titrationsexperimente mit huA3C und –G zeigte sich, dass Bet dosisabhängig agiert und unterschiedliche A3 Proteine unterschiedlich empfänglich sind. Die mittels Immunopräzipitation untersuchte Bindung zwischen Bet und den empfänglichen A3 Proteinen korreliert mit deren Neutralisierung. Die Bindungsstudie mit in vitro hergestelltem huA3C deutet auf eine direkte, RNase unabhängige Interaktion hin. Die Bet-bedingte Inhibition der Dimerisierung von huA3C und -G konnte mittels Immunopräzipitation und chemischer Quervernetzung gezeigt, sowie die Bet-Bindestelle mithilfe eines Rekombinationsansatzes innerhalb der Dimerisierungsfläche von huA3C lokalisiert werden. Fraktionierungen der Proteine nach Löslichkeit bzw. Dichte, sowie Immunofluoreszenzstudien und FRAP (fluorescence recovery after photobleaching) zeigten Bet-abhängige Änderungen der Lokalisierung, Komplexbildung und zytoplasmatischen Beweglichkeit von huA3B, -C und –G. Als Resultat dieser veränderten Eigenschaften Bet-sensitiver A3 Proteine wird ihre Inkorporation in Virionen verhindert, was zum Verlust der antiviralen Aktivität führt. Damit beschreiben die Ergebnisse dieser Arbeit einen neuen Weg, den Viren beschreiten um die A3 vermittelte Immunität auszuschalten.
Während des Alterungsprozesses kommt es u.a. im Gehirn zu einem signifikanten Verlust
postmitotischer Zellen, was zu Hirnleistungsstörungen im Alter führen kann.
Der Grund für diesen Zellverlust durch Apoptose könnte sein, dass es im Alter zu erhöhtem
oxidativen Streß und zu einer Veränderung in der Konzentration der an der Apoptose beteiligten
Proteine und Faktoren kommt. Diese Studie befaßt sich mit der neuronalen Apoptose und den daran
beteiligten Proteinen und Regulatoren. Ziel war es, herauszufinden, ob es im Alter zu einer
gesteigerten Apoptoserate im Hippokampus und zu einer Veränderung der Konzentration von
Proteinen kommt, die das Auftreten bzw. die Hemmung der Apoptose begünstigen könnte.
Untersucht wurden die Hippokampi von Pavianen als mögliches Primaten-Modell für altersbedingte
Pathologien, die das menschliche Gehirn betreffen können.
Um apoptotische Zellen im Hippokampus der Paviane nachzuweisen, wurde mit der TUNEL-Methode
gearbeitet und mittels Immunhistochemie untersucht, welchen Effekt das Alter auf die Verteilung der
Immunreaktivität von Cytochrom C, AIF, Bax, Bcl-2, Caspase-3 sowie von XIAP, einem Inhibitor der
Apoptose, hat. Auch die Immunreaktivität der Enzyme PARP und ICAD wurde dargestellt. Die
Ergebnisse zeigen, dass in den Hippokampi der gealterten Paviane das anti-apoptotische Protein Bcl-2
in unveränderter Reaktivität vorlag und das pro-apoptotische Protein Bax hochreguliert war. Es gab
eine Umverteilung und möglicherweise Freisetzung von Cytochrom C, jedoch aber keine Aktivierung
von Caspase-3. Diese Ergebnisse zeigen eine gewebepezifische Änderung des Bcl-2/Bax-
Verhältnisses in den Hippokampi der alten Primaten, die zur Beeinflussung der Cytochrom CFreisetzung
beitragen, ohne jedoch zur Apoptose der Zelle zu führen. Apoptotische Zellen konnten
mittels TUNEL-Färbung nicht nachgewiesen werden. Das könnte damit zusammenhängen, dass
XIAP, ein inhibitorisches Regulatorprotein der Apoptose, bei den gealterten Pavianen hochreguliert
war, ebenso wie das DNA-Reparaturenzym PARP. Auch das Enzym ICAD, welches in aktivierter
Form während der Apoptose wesentlich zum Chromatinabbau beiträgt zeigte im Alter eine erhöhte
Aktivität. Da in einer Studie über Tau-Pathologie im Hippokampus von Pavianen für das Auftreten
dieser Pathologie ein Zusammenhang mit dem Alter nachgewiesen werden konnte, und man weiß,
dass Zellen in der Nähe der β-Amyloidablagerung bei M.Alzheimer durch Apoptose absterben, wurde
mit Hilfe der Immunfloureszenz die Reaktivität des Enzyms Neprelysin untersucht, welches für den
β-Amyloidablagerung zuständig ist. Dieses war in seiner Reaktivität in den Hippokampi
der älteren Paviane im Gegensatz zu der in den Hippokampi der jüngeren Primaten erniedrigt, was auf
eine altersbedingte Disposition zu diesen Plaques hinweist.
Um die kontinuierlich auf uns einströmende Menge an Reizen zu verarbeiten, ist es wichtig, die Informationen genau zu selektieren. Ein hilfreicher Mechanismus ist hierbei die Aufmerksamkeit gezielt nur auf eine Informationsquelle zu richten und zu verarbeiten.
So ist es möglich, selbst in komplexen Situationen, wie zum Beispiel einer Feier mit vielen verschiedenen Gesprächen, ganz gezielt ein einzelnes herauszufiltern.
Der Effekt von Aufmerksamkeit auf auditory steady-state Responses (aSSR) wurde in der Vergangenheit schon in verschiedenen Studien mit unterschiedlichen Messverfahren und Stimuli untersucht. Dabei wurden teils widersprüchliche Ergebnisse gefunden, die entweder gar keine oder auf sehr kleine Frequenzbereiche beschränkte Aufmerksamkeitseffekte fanden.
Das Ziel dieser Studie war es, die Auswirkungen von Aufmerksamkeit auf die aSSR innerhalb eines größeren Frequenzspektrums (11 Hz, 23 Hz, 41 Hz, 73 Hz und 97 Hz) zu analysieren. Für diesen Zweck wurden den Probanden nach Instruktion der zu beachtenden Seite jeweils zwei benachbarte Modulationsfrequenzen während vier aufeinander folgenden Blöcken dichotisch präsentiert. Die Probanden wurden angewiesen, Trägerfrequenzänderungen auf der zu beachtenden Seite durch Betätigen einer Maustaste anzugeben. Die Registrierung der aSSR-Antworten geschah mittels Elektroenzephalogramm (EEG). Auch die durch die Stimulation hervorgerufene P300 wurde dargestellt.
Bezüglich des Effekts von Aufmerksamkeit auf die aSSRs zeigte sich nach Analyse der gewonnenen Daten im Frequenzbereich von 23 Hz eine Auswirkung. Diese stellte sich in Form einer Amplitudensteigerung auf der jeweils durch den Probanden beachteten Präsentationsseite dar. Bei einer Modulationsfrequenz von 41 Hz kam es bei Präsentation auf der rechten Seite zu höheren Amplituden als bei Präsentation auf der linken Seite. Bei 73 Hz und 97 Hz konnte keinerlei Auswirkung weder der Aufmerksamkeit noch der Präsentationsseite registriert werden. Auffällig war bei den präsentierten Tönen im 20 Hz und 70 Hz Bereich auch eine im Vergleich zu den anderen Frequenzbereichen (11 Hz, 41 Hz und 97 Hz) verlängerte Reaktionszeit der Probanden. In Kombination mit der Modulation der aSSR-Amplitude durch Aufmerksamkeit bei 23 Hz könnte dies ein Hinweis auf einen förderlichen Einfluss der Aufgabenschwierigkeit auf die Detektierbarkeit von Aufmerksamkeitseffekten sein.
Im Gegensatz hierzu zeigte die dargestellte P300 in allen präsentierten Blöcken einen deutlichen Effekt der Aufmerksamkeit. Dieser äußerte sich ebenfalls in einer Steigerung der Amplitude.
Es scheint also zumindest ein moderater Einfluss von Aufmerksamkeit auf die aSSRs zu existieren. Gleichzeitig wirkt dieser allerdings stark abhängig von gewähltem Stimulus und Messmethode. Der Effekt von Aufmerksamkeit auf die P300 konnte dagegen gut repliziert werden und scheint daher bei dichotischer Stimulation ein deutlicher Marker für Aufmerksamkeit zu sein.
Als Nadelstichverletzungen (NSV) bezeichnet man jede Stich-, Schnitt- und Kratzverletzung der Haut durch Kanülen, Skalpelle oder andere medizinische Instrumente, die mit Patientenmaterial verunreinigt sind. Davon unabhängig ist, ob die Wunde geblutet hat oder nicht. Die beinhaltet auch den direkten Kontakt mit der Schleimhaut von Mund, Nase oder Augen. Die größte Gefahr geht hierbei von einer Infektion mit Hepatitis B, C sowie dem humanem-Immundefizients- Virus (HIV) aus. In der vorliegenden Arbeit wurden Häufigkeit und Ursachen von NSV bei Beschäftigten von fünf verschiedenen medizinischen Fachkliniken der Johann Wolfgang Goethe-Universität Frankfurt am Main, mithilfe eines anonymisierten Fragebogens ermittelt. Dabei handelte es sich um die Zentren für Anästhesie, Dermatologie, Chirurgie, Gynäkologie und Pädiatrie. Alle Befragten hatten in den 12 Monaten vor dieser Erhebung Kontakt mit Patienten- oder Untersuchungsmaterial. Die Ergebnisse wurden zwischen den jeweiligen Fachkliniken und den einzelnen Berufsgruppen, wie Ärzten, Pflege- und Reinigungspersonal, verglichen. Es sollte geklärt werden, womit und wobei sich NSV am häufigsten ereigneten. Weiterhin wurde untersucht, wie Health Care Worker (HCW) eine erlittene NSV einschätzen, welche Schutzmaßnahmen sie gegen Verletzungen ergriffen haben und ob eine erlittene NSV Einfluss auf ihr künftiges Verhalten hatte. Anhand dieser Daten wurde klassifiziert, ob und gegebenenfalls wie viel NSV vermeidbar gewesen wären. Anschließend wurde diskutiert, wie das Risiko von NSV verringert werden kann. An der Erhebung nahmen 720 von 919 in den Zentren beschäftigten Personen teil (Rücklaufrate 78,3%). 71,6% der Ärzte, 76,4% des Pflegepersonals, 75% der Laborangestellten sowie 100% von denen, die als “Sonstige“ klassifiziert wurden als auch vom Reinigungspersonal, sandten den Fragebogen zurück. Von den 226 HCW (31,4%), die in den letzten 12 Monaten mindestens eine NSV erlitten hatten, waren Ärzte mit 55,1% signifikant häufiger betroffen als das Pflegepersonal mit 22%. Von allen 561 stattgefundenen NSV im letzten Jahr ist es in der Chirurgie am 10 häufigsten zu einer NSV gekommen (59,9%), am seltensten in der Dermatologie (6,4%). Dabei waren die Ärzte der Chirurgie, Pädiatrie, Dermatologie und Gynäkologie signifikant häufiger betroffen als das Pflegepersonal, in der Anästhesie waren jedoch nicht mehr signifikant mehr Betroffene. In der Anästhesie gaben 75% aller Mitarbeiter an, mehr als 20 Eingriffe mit Verletzungsrisiko pro Woche vorzunehmen, in der Chirurgie nur 53,8%. Dieses Ergebnis zeigt, dass die Häufigkeit verletzungsträchtiger Eingriffe nicht mit der Zahl der Verletzungen korreliert. Abgesehen von der Angabe „Sonstiges“, die mehrere Ereignisse repräsentiert, ereigneten sich NSV am häufigsten beim Nähen (23%) und bei Blutabnahmen (13%), also an den Instrumenten, die in den meisten Fachkliniken auch am häufigsten verwendet wird. Nur 5% aller NSV wurden von den HCW als schwer bezeichnet. Ein ungenügendes Sicherheitsbewusstsein bei den Mitarbeitern zeigte sich zum einen dadurch, dass insgesamt bei fast einem Drittel (27,9%) der NSV auf das Tragen von Handschuhen verzichtet wurde. Dabei unterschieden sich die Kliniken untereinander signifikant, wobei in der Chirurgie und Anästhesie mit 85,7% bzw. 81,3% im Gegensatz zu der Pädiatrie mit 35,8%, am häufigsten Handschuhe getragen wurden. Auch waren sich zwar insgesamt 78,2% der HCW sicher über einen suffizienten Hepatitis-B-Impfschutz, wobei die Ärzte signifikant besser in Kenntnis darüber waren als das Pflegepersonal, jedoch wussten über ein Viertel (25,8) der Angestellten in der Pädiatrie nicht darüber Bescheid. Beim Arbeiten mit scharfen Gegenständen am Krankenbett nahmen nur 29,4% der Befragten einen Abwurfbehälter mit und über die Hälfte (50,4%) gaben an, keine NSV dem D-Arzt gemeldet zu haben. Das Pflegepersonal hatte signifikant häufiger gemeldet als die Ärzte. Ihr Verhalten nach einer NSV nicht geändert zu haben, gaben 53,1% der Betroffenen an. Insgesamt hätten 36,7% aller NSV durch Instrumente mit Sicherheitsvorkehrungen sicher vermieden werden können, in der Pädiatrie und der Gynäkologie sogar mehr als 80%.
Risikoabschätzung für das Auftreten Thrombolyse-assoziierter intrazerebraler Blutungen mittels MRT
(2009)
Symptomatische intrazerebrale Blutungen (sICH) stellen die wichtigste Komplikation der Thrombolyse akuter ischämischer Schlaganfälle dar. Sie sind mit einer erhöhten Mortalität und sehr schlechten Langzeitergebnissen verbunden. Die Identifikation von Patienten mit einem erhöhten Blutungsrisiko stellt daher ein wesentliches Ziel aktueller Forschungsbemühungen dar.
In der vorliegenden Studie wurde die Bedeutung ausgewählter MR-Parameter (Leukoaraiosis, Mikroblutungen, Ausmaß der DWI-Läsion) als mögliche Prädiktoren für Thrombolyse-assoziierte sICH untersucht.
In die retrospektive, multizentrische Studie wurden prospektiv erhobene Daten von 475 Patienten aus sechs deutschen und zwei internationalen anerkannten Schlaganfallzentren eingeschlossen, die im Zeitfenster von <6 Stunden mit einem akuten ischämischen Schlaganfallereignis im Bereich der vorderen Zirkulation mit einer i.v. (n=367; 77%), i.a. (n=74; 16%) oder i.v./i.a. (n=34; 7%) Thrombolyse behandelt worden.
Alle Patienten wurden mit einem Schlaganfall-MR-Protokoll untersucht, welches neben Diffusions- und FLAIR-Sequenzen auch T2*-gewichtete Sequenzen enthielt.
Für die Analyse wurden die Patienten jeweils in eine Gruppe ohne und eine Gruppe mit schwerer LA (Fazekas 0-1 vs. 2-3) und je eine Gruppe mit kleinem (<1/3 des A. cerebri media-Stromgebietes (MCA)) und großem (>1/3 MCA) DWI-Läsionsausmaß dichotomisiert. T2*-Wichtungen wurden auf das Vorliegen und die Anzahl von zerebralen Mikroblutungen (CMB) untersucht und Patienten in eine Gruppe mit ≥1 CMB und ohne CMB dichotomisiert.
Eine sICH wurde als eine in der Verlaufsbildgebung (cCT oder MRT) dokumentierte (≥10 ml) Blutung definiert, die innerhalb von 36 Stunden nach Thrombolysebeginn mit einer klinischen Verschlechterung des Patienten (≥1 Punkt auf der NIHSS-Skale) einherging.
Insgesamt entwickelten 28 (5,9%) Patienten eine sICH. SICH waren signifikant häufiger in der Gruppe mit LA (Fazekas 2-3) (n=12/114; 10,5%) als in der Gruppe ohne LA (Fazekas 0-1) (n=13/335; 3,5%) zu finden. In einer logistischen Regressionsanalyse (Alter, National Institutes of Health Stroke Scale (NIHSS) bei Aufnahme, Art der Thrombolyse) blieb LA ein unabhängiger Risikofaktor (Odds ratio 2,7 (95% KI, 1,29-6,59), p=0,015).
Die Anzahl der sICH konnte auch in der Gruppe mit großen (>1/3 MCA) (n=6/32; 18,8%) signifikant häufiger als in der Gruppe mit kleinen DWI-Läsionen (<1/3 MCA) (n=12/319; 3,8%) erhoben werden, was umgerechnet einem 5,9 fachen Risiko (Odds ratio 5,9 (95% KI, 2,048-17,017, p=0,003) einer sICH für Patienten mit großen DWI-Läsionen im Vergleich zu Patienten mit kleinen DWI-Läsionen entspricht. Das Ausmaß der DWI-Läsion bleibt in einer multivariaten Regressionsanalyse (s.o.) ein unabhängiger Risikofaktor für sICH.
Die Ergebnisse einer großen Subgruppenanalyse der i.v.-behandelten Patienten (n=367/376, 77%) waren hinsichtlich der Bedeutung für LA und Ausmaß der DWI-Läsion vergleichbar mit den Ergebnisse der Gesamtmenge.
Die Anzahl der sICH unterschied sich nicht signifikant zwischen der Gruppe mit ≥1 CMB (n=7/79, 9%) und der Gruppe ohne CMB (n=20/367, 5%, p=0,295).
Zusammenfassend konnte die vorliegende Arbeit die MR-Parameter Leukoaraiose und das Ausmaß der initialen DWI-Läsion als unabhängige Risikofaktoren hinsichtlich der Enwicklung Thrombolyse-assoziierter sICH nachweisen. Hiermit kann einerseits die Sicherheit der Thrombolyse im 3h-Zeitfenster erhöht und der Behandlungzeitraum hoffentlich zukünftig erweitert werden. Der potentielle Behandlungsgewinn einer Thrombolyse sollte bei Einschluss in Betracht kommender Schlaganfallpatienten sorgfältig gegen das mit zunehmender LA und DWI-Läsionlast ansteigende Blutungsrisiko abgewogen werden. Eine unabhängige Assoziation zwischen sICH und CMB konnte nicht gezeigt werden, so dass das Blutungsrisiko bei Patienten mit CMB’s den Behandlungsvorteil wahrscheinlich nicht übersteigt.
kurz und kn@pp news : Nr. 17
(2009)
Konuskronen verankerter Zahnersatz hat sich seit mehreren Jahrzehnten als hervorragende Therapieform zur Versorgung des reduzierten Restgebisses bewährt und verbindet zahlreiche Vorteile des festsitzenden mit denjenigen des herausnehmbaren Zahnersatzes. Vor dem Hintergrund einer steigenden Relevanz ästhetischer Versorgungen sowie einer größer werdenden Ablehnung der Patienten hinsichtlich der Verwendung metallischer Werkstoffe, gewann das Ziel, auch kombiniert festsitzend-herausnehmbaren Zahnersatz metallfrei zu fertigen, zunehmend an Bedeutung. Ziel der vorliegenden prospektiven klinischen Studie war die Evaluation des klinischen Langzeitverhaltens von keramischen Primärkronen aus IPS Empress 2® kombiniert mit Sekundärkronen und Prothesengerüsten aus faserverstärktem Kunststoff (Vectris®) sowie die Untersuchung der Patientenzufriedenheit. Als Kontrollgruppe dienten keramische Primärkronen mit Sekundärkronen aus Galvanogold und metallischen Gerüsten. Dazu wurden 29 Patienten mit insgesamt 37 Konusprothesen auf 165 keramischen Primärkronen versorgt, 27 (73%) Prothesen entfielen auf die Kontrollgruppe und 10 (27%) Prothesen auf die Testgruppe. Eingebunden in ein Recall-System, wurden die Patienten in halbjährigen Abständen über einen Zeitraum von 5 Jahren nachuntersucht. Zur Evaluation der Patientenzufriedenheit erhielten die Studienteilnehmer jeweils vor Therapiebeginn, nach Fertigstellung der Konusprothesen und im einjährigen Abstand einen Fragebogen. Die Zeit unter Risiko betrug durchschnittlich 59 ± 22 Monate (min. 16, max. 96 Monate), Befragungen hinsichtlich der Patientenzufriedenheit wurden über 46 ± 18 Monate durchgeführt (min. 15, max. 66 Monate). Beide Gruppen zeigten eine vergleichbar hohe Reparaturanfälligkeit. 88,9% der Restaurationen in der Kontrollgruppe, sowie 90% der Restaurationen in der Testgruppe mussten mindestens einmal instand gesetzt werden (Mann-Whitney-U-Test, p = 0,121). Auch das Schadensrisiko der vollkeramischen Primärkronen zeigte keine statistischen Unterschiede (Testgruppe: 10,81%; Kontrollgruppe: 10,16%; exakter Fisher-Test, p > 0,05). Die Häufigkeit einer Neuanfertigung der Konusprothese war bei der Test-Gruppe (40%) höher als bei der Kontroll-Gruppe (14,8%), ein statistisch signifikanter Unterschied war zwischen beiden Gruppen nicht nachzuweisen (exakter Fisher-Test, p = 0,16). Die Erfolgsrate zeigte in Abhängigkeit der Zeit unter Risiko jedoch ab 2,5 Jahren schlechtere Werte bei metallfreien Prothesen als bei der Kontrollgruppe, nach etwa 5 Jahren nahm dieser Unterschied deutlich zu (Kontrollgruppe: 86%, Testgruppe: 24%) und unterschied sich statistisch signifikant (Log-Rank-Test, p=0,041). Bei drei der 128 Galvano-Matrizen kam es zu einer Beschädigung an den Sekundärstrukturen, bei 9 von 37 Matrizen aus glasfaserverstärktem Kunststoff trat ein Schaden auf. Dieser Unterschied war statistisch hochsignifikant und belegt, dass Vectris®-Mesostrukturen eher zum Versagen neigen als Galvano-Sekundärkronen (exakter Fisher-Test, p = 0,00008). Im Gegensatz zu den durchaus unterschiedlichen klinischen Ergebnissen und den unbefriedigend hohen Reparaturzahlen war die Patientenzufriedenheit mit den jeweiligen Studienprothesen für beide Gruppen vergleichbar gut. Zu keinem Zeitpunkt zeigte sich eine relevante Personenzahl in einer der Gruppen mit dem erhaltenen Zahnersatz unzufrieden. So war in der Testgruppe initial lediglich eine Person unzufrieden, änderte diese Einstellung jedoch im Rahmen der weiteren Kontrollen. Eine weitere Person war anfangs zufrieden, dann vorübergehend unzufrieden, um im Weiteren erneut ihre Zufriedenheit zu äußern. Für die Metallgruppe ergab sich lediglich in der letzten Nachkontrolle eine Person, die unzufrieden mit dem Zahnersatz war. Statistisch signifikante Unterschiede zwischen den Gruppen waren somit zu keinem Zeitpunkt nachzuweisen (exakter Fisher-Test, alle p > 0,05). Die vorliegende Untersuchung bestätigt, dass sich die Verwendung keramischer Primärkronen in Doppelkronenrestaurationen prinzipiell bewährt und die Anforderungen an die gestellten Parameter wie Haftkraftstabilität, Biokompatibilität und Ästhetik erfüllt. Jedoch weist die Lithiumdisilikat-Glaskeramik IPS Empress 2® eine unzureichende Stabilität auf, für diesen Indikationsbereich sind daher ausschließlich hochfeste Zirkoniumdioxid-Keramiken zu empfehlen. Mit diesem Material ist ein wesentlich geringeres Reparaturrisiko zu erwarten. Als Matrizenwerkstoff zeigten galvanogeformte Sekundärkappen sehr gute klinische Ergebnisse. Die hohe Passungspräzision, welches durch die intraorale Fügung erreicht wird, gewährleistet eine ideale Lagerung des Zahnersatzes und reduziert kinetikbedingte Schäden auf ein Minimum. Das Ziel der Untersuchung, die dauerhafte klinische Bewährung metallfreier Konusprothesen aus dem Glasfaserverbundmaterial Vectris® nachzuweisen, konnte nicht erreicht werden. Die Ergebnisse dieser prospektiven klinischen Studie belegen eine Überlegenheit der metallischen Konusprothese. Somit bedarf die Realisation einer klinisch verlässlichen metallfreien Konusprothese noch erheblichen Forschungs- und Entwicklungsbedarf. Insbesondere die Substitution von galvanogeformten Feingoldmatrizen stellt eine große Herausforderung dar.
Ziel dieser Arbeit ist es, Art, Häufigkeit und Dauer der Komplikationen nach sekundärer Kieferspaltosteoplastik mit Beckenkammtransplantation bei Patienten mit Lippen-, Kiefer-, Gaumenspalten aufzuzeigen. Dazu wurden in dieser retrospektiven Studie die Daten von 236 Patienten, die im Zeitraum zwischen Juli 1986 und August 1997 im Klinikum „Rechts der Isar“ der Technischen Universität München eine Spanentnahme am vorderen Beckenkamm zur autologen Transplantation im Mund-Kiefer-Gesichtsbereich erhielten, ausgewertet. Die Datenerhebung erfolgte durch Analyse der OP-Berichte, Krankenblätter, persönliche Befragung und körperliche Untersuchung aller 236 Patienten. Der Focus dieser Arbeit liegt bei der Darstellung der Ergebnisse der 182 LKG-Patienten, welche mit den anderen Indikationsgruppen verglichen wurden. Das durchschnittliche OP-Alter der LKGPatienten betrug 13,8 Jahre, die Daten wurden im Mittel 5,3 Jahre nach der Entnahme-OP erfasst. Chirurgische Frühkomplikationen konnten bei 15 LKG-Patienten (8,2 %) beobachtet werden, die bei zwei Patienten (1,1 %) einer chirurgischen Nachbehandlung (Hämatomausräumung) bedurften. Die Komplikationsrate war bei den Patienten mit der Diagnose LKG (8,2 %) geringer als bei den übrigen Indikationsgruppen zur Knochenentnahme. Diese reichte von 11 % bei Tumorpatienten bis 26 % bei Patienten mit Dysgnathie. Eine Gehbehinderung war mit 91,7 % die häufigste nichtchirurgische Komplikation. Die Gehbehinderung war bei 13,7 % der LKG-Patienten so stark, dass sie auf Gehhilfen angewiesen waren. 78 % waren ebenfalls gehbehindert, benötigten jedoch keine Gehhilfe. Starke postoperative Schmerzen in der Entnahmeregion nannten 48,4 %. Über postoperative Sensibilitätsstörungen klagten 28,6 % der LKG-Patienten. Zum Untersuchungszeitpunkt, im Durchschnitt 5,3 Jahre nach dem operativen Eingriff, wurden immerhin noch bei 6,0 % der LKG-Patienten persistierende Schmerzen als Spätfolge gefunden. Sensibilitätsstörungen persistierten bei 9,9 % aller Spalt-Patienten. Bei der subjektiven Bewertung fanden sich desweiteren bei 7,8 % nichtschmerzhafte bleibende Beschwerden wie Wetterfühligkeit. Mit der Ästhetik der Narbe im Entnahmebereich waren 86,3 % zufrieden, unzufrieden nur 7,1 %. Bei entsprechender Indikation würden sich 91,8% der LKG-Patienten wieder für die gleiche Therapieform (Beckenkammtransplantation) entscheiden, immerhin 14 Patienten (7,9 %) würden diesen Eingriff unter keinen Umständen wiederholen bzw. nur Fremdmaterial als Augmentat verwenden, als sich erneut einer Entnahme-OP zu unterziehen. Beim isolierten Vergleich der Schmerzhaftigkeit werteten 60,4% die Becken-Operation und 18,1 % die Operation im Mund-Kiefer-Gesichtsbereich als schmerzhafter. Beim Vergleich der Gesamtbefindlichkeit des postoperativen Zustandes hingegen wurden der Mund-Kiefer-Gesichtsbereich von 56,0 % und der Beckenbereich nur von 19,8 % als der insgesamt unangenehmere Befund bezeichnet. Für 29,7 % war die Entnahme-Operation schlimmer als erwartet, für 25,3 % deckte sich die Erfahrung durch die Operation mit ihrer Erwartungshaltung und 13,7 % erwarteten stärkere Beschwerden, als sie letztendlich auftraten. 31,3 % hatten keine Erwartungshaltung oder machten keine Angabe. Zusammenfassend lässt sich feststellen, dass mit der autologen Beckenkammtransplantation für Patienten mit Lippen-Kiefer-Gaumenspalten eine Therapieform zur Verfügung steht, die ästhetisch und funktionell sehr gute Ergebnisse ermöglicht. Dennoch sind mit der Entnahmeoperation Komplikationen und Langzeitschäden verbunden, über die der Patient aufgeklärt werden muss und die insgesamt das Operationsergebnis schmälern. Um zukünftig die Entnahme von Beckenkammspongiosa zu umgehen, sollten zukünftig vermehrt Knochenersatzstoffe zur Defektauffüllung zum Einsatz kommen. Dies ist Inhalt momentan laufender, intensiver Forschung.
Diese Arbeit untersuchte die Epidemiologie und den Einfluss verschiedener Faktoren (Grunderkrankung, empirische Therapie, Schweregrad der Sepsis und Erreger mit Resistenz) auf das Überleben von Patienten mit Septikämien. Die häufigsten Grunderkrankungen dieses Kollektivs waren Leukämien (33%), solide Neoplasien (14%) sowie kardiale Vorerkrankungen (14%). Knapp die Hälfte der Patienten erwarb die Septikämie im Krankenhaus (47%). ...
Zielsetzung: Schizophrenie ist eine psychische Erkrankung, die mit den strukturellen und funktionellen Veränderungen in Gehirn zusammen hängt. Die Mehrheit der kernspintomographischen Studien konnte hippocampale Veränderungen bei den schizophrenen Patienten finden, obgleich diese Veränderungen nicht immer bei der Early-Onset Schizophrenie repliziert werden konnten. Frühere Studien weisen jedoch darauf hin, dass Volumenreduktion der Hippocampi entweder während der Adoleszenz oder während des Übergangs zu einer akuten Phase auftritt. Außerdem bleibt das funktionelle Korrelat hippocampaler Struktur unklar. Das Ziel unserer Arbeit besteht darin, zu überprüfen, ob strukturelle Veränderungen bereits bei den Patienten mit einer Early-Onset Schizophrenie nachzuweisen sind und ob ein Zusammenhang zwischen dem Volumen der Hippocampi und den neurokognitiven Funktionen und der Psychopathologie besteht. Methode: Mittels Magnetresonanztomographie wurden die Volumina des rechten und des linken Hippocampus, der grauen und weißen Substanz sowie der zerebrospinalen Flüssigkeit bei 26 Patienten mit einer Early-Onset Schizophrenie und 26 gematchten gesunden Probanden untersucht. Es wurden 1mm dicke MRT Schnitte angefertigt. Die neurokognitive Funktionstüchtigkeit wurde in beiden Gruppen mit Wisconsin Card Sorting Test (WSCT), Trail Making Test-A (TMT-A), Trail Making Test-B (TMT-B) und Mehrfach Wortschatz Intelligenztest–B (MWT-B) verglichen. Die Beurteilung der psychopathologischen Symptomatik erfolgte mit dem Structured Clinical Interview: Positive and Negative Syndrom Scale (PANSS). Zudem wurde mittels Korrelationsanalysen berechnet, inwieweit eine Übereinstimmung zwischen neurokognitivem Funktionsniveau, der Psychopathologie und Volumengröße von Hippocampi gegeben ist. Ergebnisse: Jugendliche mit einer Early-Onset Schizophrenie wiesen im Vergleich zu gesunden Kontrollprobanden signifikant kleinere Hippocampi rechts auf und zeigten eine tendenzielle Verkleinerung der Hippocampi links. Das Volumen der grauen Substanz war bei Patienten ebenfalls signifikant reduziert und das CSF Volumen signifikant erhöht. Das Volumen der weißen Substanz zeigte in beiden Gruppen keine signifikanten Unterschiede. Bei Patienten zeigte sich eine signifikant bedeutsame höhere Perseverationsrate (WSCT) im Vergleich zu gesunden Probanden. Es fand sich eine signifikant negative Korrelation zwischen den negativen Symptomen und dem Volumen des rechten Hippocampus. Die Volumengröße der Hippocampi korrelierte jedoch nicht mit dem neuropsychologischen Funktionsniveau, dem Alter bei der Untersuchung, dem Alter bei Erkrankungsbeginn und Erkrankungsdauer. Schlussfolgerung: Unsere Ergebnisse deuten darauf hin, dass hirnstrukturelle Veränderungen bereits bei den Patienten mit einer Early-Onset Schizophrenie nachweisbar sind. Sie unterstützen somit die Hypothese der gestörten Hirnentwicklung.
Die supratentorielle dekompressive Kraniektomie mit Eröffnung und Erweiterungsplastik der Dura mater ist heutzutage eine wichtige Therapiemaßnahme in der Behandlung des konservativ nicht kontrollierbaren Hirndrucks. Unter Kranioplastik versteht man den chirurgischen Verschluss des entstandenen Knochendefekts zum Schutz des direkt unter der Kopfhaut liegenden Gehirns, zur ästhetischen Wiederherstellung der Konturen sowie zur Verbesserung einer neurologischen Symptomatik („syndrome of the trephined“).
In der vorliegenden Arbeit werden die Daten von insgesamt 242 Patienten, die einer Kranioplastik unterzogen worden waren, retrospektiv analysiert. Die Patienten wurden im Zeitraum 2001-2008 in der neurochirurgischen Abteilung der Städtischen Kliniken Frankfurt am Main-Höchst operiert. Um Aufschluss über das postoperative, funktionelle und kosmetische Ergebnis zu erhalten, wurde im Anschluss an die Aktenauswertung bei diesen Patienten eine telefonische Befragung durchgeführt.
Ziel der Arbeit war es, die bisherigen Erfahrungen der Kalottenplastik und insbesondere der autogenen orthotopen Knochendeckelreimplantation im Hinblick auf die verschiedenen Kranioplastik Zeitpunkte zu untersuchen und unter klinischen Aspekten zu bewerten.
Die Frage des Kranioplastik Zeitpunktes ist essentiell für die Therapieplanung.
Das autologe Schädelknochentransplantat hat bessere Eigenschaften und Qualitäten als alle anderen alloplastischen Materialien. In Anbetracht der perfekten Histokompatibilität, der optimalen biomechanischen Eigenschaften, der guten anatomischen Fusion mit dem umgebenden Knochen und der Möglichkeit der partiellen oder totalen Revitalisation des Transplantats, besteht kein Zweifel, dass der autologe Knochen immer zu verwenden ist, wenn die Möglichkeit dazu besteht.
Die Analyse der Patientengruppen ergab, dass die ultra frühe Kranioplastik der Patienten mit großen Defekten nach dekompressiver Kraniektomie ein besseres Outcome im langfristigen Follow-up hat. Diese Patienten hatten keine gesteigerte Infektions- oder andere Komplikationsraten. Das Timing der Kranioplastik spielt eine Rolle in der Komplikationsrate nur bei den Patienten, die sekundär eine Komplikation erlitten haben. Patienten, die nach der Kraniektomie eine Nachblutung, einen Infarkt oder eine Infektion erlitten haben, hatten eine signifikant höhere Infektionsrate bei ultra früher Kranioplastik. Insbesondere soll betont werden, dass der Trend einer Häufung von Wundheilungsstörungen und Infektionen mit der Folge einer erneuten Explantation des Knochendeckels bei Patienten nach autogener Knochendeckelreimplantation mit mehr als 2 Risikofaktoren und bei Patienten mit kompliziertem Verlauf nach Kraniektomie festgestellt wurde.
Gemäß den Ergebnissen dieser Patientenserie kann die ultra frühe Kranioplastik bei ausgewählten Patienten mittels Reimplantation des Eigenknochens als ein sicheres und hilfreiches Verfahren für die schnellere Rehabilitation und Besserung der neurologischen Funktion und der Prognose bewertet werden. Ähnlich gute Ergebnisse zeigten die Pantienten in der Gruppe 1 der ultra frühen Kranioplastik die aufgrund einer Liquorzirkulationsstörung ein VP Shunt System als kombinierte Therapie in der gleichen Sitzung erhalten haben.
Somit kann zusammenfassend festgehalten werden:
Die Ergebnisse dieser Arbeit bestätigen, dass die Kranioplastik nach einer supratentoriellen dekompressiven Kraniektomie mit Reimplantation des eigenen Schädelknochens zum frühesten möglichen Zeitpunkt ein sicheres und effektives Verfahren darstellt und bei ausgewählten Patienten sogar bessere Ergebnisse als die späte Kranioplastik haben kann. Eine mögliche Erklärung dafür könnte das Auftreten und die Persistenz von neurologischen Defiziten im Rahmen des „syndrome of the trephined“ bei Patienten bieten, bei denen eine späte Kranioplastik durchgeführt wurde. In diesem Patientengut hatten die Patienten mit ultra-früher Kranioplastik das beste neurologische Outcome, die Komplikationsrate war in allen Gruppen vergleichbar.
Um Komplikationen zu vermeiden, sollten Patienten mit einer vorausgegangenen lokalen Infektion spät kranioplastiert werden.
Das neurologische Outcome der Patienten, bei denen ein kombiniertes Verfahren Kranioplastik –VP Shunt durchgeführt wurde, war vergleichbar mit anderen Patientengruppen. Somit ist eine Kranioplastik bei Patienten mit konvexen, über Kalottenniveau prolabierten Kraniektomielappen aufgrund eines Hydrocephalus keine Kontraindikation.
Ziel der vorliegenden Arbeit ist es, Erkenntnisse über die Beeinflussung der Überlebensraten von Patienten mit Nierenzellkarzinom durch verschiedene Faktoren wie Tumorstadium und Tumorgröße, Differenzierungsgrad, Metastasierung und histologischer Subtyp zu gewinnen. Insbesondere soll die Frage geklärt werden, inwiefern die Prognose der Patienten von der Art der Diagnosestellung, also inzidentell oder symptomatisch, abhängt. Zu diesem Zweck wurden die Daten aller Patienten, die zwischen dem 01.01.1997 und dem 31.12.2005 in der urologischen Universitätsklinik in Frankfurt am Main mit der Verdachtsdiagnose eines Nierenzellkarzinoms radikal nephrektomiert bzw. teilreseziert worden sind, retrospektiv erhoben und analysiert. Die Patienten wurden entweder der asymptomatischen Gruppe zugeteilt, bei denen der Nierentumor zufällig diagnostiziert werden konnte oder der Gruppe bei der die Diagnose erst aufgrund einer auf den Nierentumor oder seine Metastasen hinweisenden Symptomatik gefunden werden konnte. Die mediane Nachbeobachtungszeit betrug 50 Monate (1 bis 112 Monate). Insgesamt konnte die Diagnose Nierenzellkarzinom bei 246 (68,72 %) Patienten zufällig gestellt, nur 112 (31,28 %) präsentierten sich mit darauf hinweisender Symptomatik. Inzidentelle Tumoren waren signifikant kleiner als Symptomatische (4,8cm versus 6,8cm) und wiesen signifikant häufiger ein niedriges Tumorstadium (p<0,001) und eine günstigere Differenzierung auf (p<0,001). Zusätzlich kam es seltener zu Fernmetastasen sowie zum Befall regionaler Lymphknoten. Hinsichtlich der Verteilung von Alter und Geschlecht ergaben sich keine Unterschiede zwischen den beiden Gruppen. Therapeutisch ergaben sich in bezug auf die durchführbare Operationsart signifikante Unterschiede. Während bei immerhin 36,18% aller Patienten mit inzidentellen Tumoren eine Teilresektion durchgeführt werden konnte, war solch ein nierenerhaltendes Vorgehen nur bei 6,25% aller Patienten mit symptomatischen Tumoren möglich. Die Überlebenswahrscheinlichkeit erwies sich als signifikant besser für Patienten mit inzidentell diagnostizierten Tumoren (p<0,001), genauso wie für Tumoren mit besserem Differenzierungsgrad (p<0,001), günstigerem Staging (p<0,001) sowie geringerer Größe (p<0,001). In multivariater Analyse bestätigten sich nur Diagnoseart, Differenzierungsgrad und das Vorhandensein bzw. Nichtvorhandensein von Metastasen als unabhängige prognostische Variablen. Patienten, bei denen der Tumor zufällig anhand einer Routineuntersuchung in völlig asymptomatischem Stadium gefunden werden kann, haben demnach eine signifikant bessere Überlebenswahrscheinlichkeit. Aus diesem Grund sowie aus der Tatsache heraus, dass bisherige Ergebnisse systemischer Therapien die Langzeitüberlebensrate der Patienten mit fortgeschrittenen Nierenzellkarzinomen meist nicht verbessern können, bleibt die Frage der Notwendigkeit einer Screeninguntersuchung weiter bestehen. Jede Möglichkeit einer frühzeitigen Diagnose sollte genutzt werden. Hier bietet sich insbesondere die Sonographie als kostengünstigstes und nicht invasives Verfahren an. Inwieweit die Empfehlung einer generellen und flächendeckenden Screeningmaßnahme sinnvoll ist, wird allerdings weiterhin anhand ihrer Kosteneffizienz beurteilt und kann deshalb beim Nierenzellkarzinom aufgrund der doch vergleichsweise geringen Prävalenz nicht ausgesprochen werden. Doch erscheint die Forderung sinnvoll, die Nieren im Rahmen abdominaler Sonographien aus nichturologischen Gründen immer mit zu untersuchen. Die kurze Zeit, die dies für den geübten Untersucher in Anspruch nimmt, ist tolerierbar; vor allem im Hinblick auf den Benefit, den diese Untersuchung für den Patienten haben kann. Ebenso sinnvoll und realistisch erscheint, dass jeder Urologe zumindest bei seinen Patienten in regelmäßigen Abständen die Nieren schallt oder es Ihnen zumindest als entgeltliche IGeL Leistung anbietet. Die Entdeckung eines Nierentumors in einem frühen asymptomatischen Stadium erscheint sowohl hinsichtlich der Therapie als auch ihrer Prognose am günstigsten zu sein.
Die Magnetresonanzspektroskopie (MRS) ist eine nicht-invasive Methode zur Quantifizierung metabolischer Änderungen des Gehirnstoffwechsels. Einige dieser Metaboliten wie N-Acetyl-Aspartat (tNAA), Myo-Insoitol (mI), Kreatin (tCr) und Cholin (Cho) können auch als Marker für neurodegenerative Erkrankungen (z.B. Morbus Alzheimer) dienen. Bislang haben nur wenige Studien MR-spektroskopische Veränderungen bei Patienten mit der Diagnose einer „leichten kognitiven Beeinträchtigung“ (Mild Cognitive Impairment = MCI) untersucht. Entsprechend sollten in dieser Untersuchung MR-spektroskopische Veränderungen bei MCI-Patienten erfasst und in Abhängigkeit vom klinischen Verlauf in einer Längsschnittstudie analysiert werden. Fünfzehn MCI-Probanden und zwölf gesunde ältere Kontrollpersonen wurden jeweils zweimal innerhalb eines Zeitraumes von ca. 40 Monaten klinisch, neuropsychologisch sowie MR-spektroskopisch untersucht. Die MR-Spektroskopie wurde als Einzelvolumenspektroskopie (SVS) mit kurzer Echozeit (TE = 30 ms) durchgeführt. Als VOI wurde ein Bereich im Parietallappen ausgewählt, der den Gyrus cinguli mit einschloss. Der Anteil an CSF wurde aus der Dekonvolution der T2-Dephasierung des Wassersignals ermittelt. Die Auswertung der Spektren erfolgte mit dem Programm LCModel, das eine Analyse des Spektrums mittels einer Linearkombination von Modellspektren durchführt. Die ermittelten Werte für die Signalintensitäten wurden in absolute Metabolitenkonzentrationen (mmol/l) unter Berücksichtigung entsprechender Korrekturen umgerechnet. Der Mittelwert des MMSE-Scores der MCI-Patienten lag zum Zeitpunkt der Erstuntersuchung bei 26,4 (Bereich 20 - 30) und fiel im Verlauf auf 23,3 (Bereich 14 - 28) ab. Sechs der MCI-Patienten entwickelten im zeitlichen Intervall ein dementielles Syndrom (MCIKonverter). Alle Kontrollpersonen hatten einen MMSE-Score von mehr als 29 in beiden Untersuchungen. Bei den MRS-Untersuchungen wurde bei Erstuntersuchung ein signifikanter Unterschied für den CSF-Anteil des Messvolumens im Vergleich der Patientengruppe und der Probanden festgestellt. Für die MR-spektroskopisch erhobenen Metabolitenkonzentrationen ergaben sich bei der Erstuntersuchung keine signifikanten Unterschiede. Bei der zweiten Untersuchung zeigte sich dagegen eine signifikante Erniedrigung der Konzentrationen von tCr und tNAA der Gruppe der MCIKonverter im Vergleich zu den entsprechenden Konzentrationen der anderen Gruppen. In der MCI-Gruppe war eine Abnahme der tNAA-Konzentgration signifikant mit einer Abnahme der kognitiven Leistung korreliert. Dieser Effekt war im Wesentlichen auf metabolische Änderungen in der Gruppe der MCIKonverter zurückzuführen. Für die Metaboliten Cho und mI konnten keine signifikanten Unterschiede zwischen den einzelnen Gruppen festgestellt werden. Diese Pilotstudie zeigt, dass MR-spektroskopisch gemessene Metaboliten (insbesondere tNAA) bei der MCI als Surrogatmarker eines (in Richtung Demenz) fortschreitenden neurodegenerativen Krankheitsprozesses eingesetzt werden können. Die Ergebnisse der vorliegenden Studie sind mit anderen Publikationen (Ackl et al., 2005; Adalsteinsson et al, 2000; Chao et al, 2005; Kantarci et al., 2000) in Einklang zu bringen. Da auch die tCr-Konzentration im Verlauf Schwankungen unterliegt, wird klar, dass eine Quantifizierung in absoluten Konzentrationen einem relativen Vergleich von tNAA zu tCr vorzuziehen ist.
Die primär – und sekundärprophylaktische Versorgung durch einen plötzlichen Herztod bedrohter Patienten mittels Implantierbarer Cardioverter Defibrillatoren hat sich in mehreren groß angelegten Studien einer rein konservativ-medikamentösen Behandlung gegenüber als überlegen erwiesen. Ein Hauptproblem dieser Therapieform ist jedoch die mit 25 – 40% berichtete hohe Inzidenz inadäquater Therapieabgaben. Bisher weitgehend ungeklärt blieben die prognostische Bedeutung, eventuelle Risikofaktoren sowie die daraus abzuleitenden therapeutischen Implikationen des Auftretens inadäquater Therapieabgaben. Die vorliegende Arbeit analysiert die Daten 783 (630 Männer, 153 Frauen. Medianes Alter 65 Jahre) konsekutiv im Zeitraum von 1993 bis 2005 in der Medizinischen Klinik III – Kardiologie und Angiologie – Abteilung für Elektrophysiologie der Universitätsklinik der Johann Wolfgang Goethe-Universität implantierter Patienten über einen medianen Nachbeobachtungszeitraum von 37 Monaten. Implantiert wurden nach allgemein anerkannter Indikationsstellung Cardioverter Defibrillatoren der Firmen CPI/Guidant, Ela-Medical, Medtronic Inc. und St. Jude Medical. Zum Einsatz kamen hierbei Ein – Zwei – und Dreikammergeräte (Einkammer = 511, Zweikammer = 239, Dreikammer = 33). Die Sachkontrolluntersuchungen fanden im ersten Jahr nach Implantation dreimonatig, danach halbjährlich sowie bei Notwendigkeit außerplanmäßig statt. Hierbei wurden jeweils alle stattgehabten, von den Implantierbaren Cardioverter Defibrillatoren registrierten Ereignisse ausgedruckt und auf Speichermedien gesichert. Die archivierten Elektrogramme der in diesem Zeitraum aufgetretenen 11.942 tachykarden Ereignisse bilden die Grundlage der Analyse der vorliegenden Arbeit. Hierbei wurden alle aufgetreten inadäquaten Therapiegaben an Hand der Elektrogramme einer von neun ätiologischen Kategorien zugeordnet. Der aktuelle Status aller 783 Patienten wurde im Rahmen der vorliegenden Arbeit, soweit unbekannt und somit notwendig, telefonisch oder per Briefkontakt mit den weiterbehandelnden Ärzten und Zentren eruiert. Im Rahmen der Untersuchung wurden Parameter betreffend der Erkrankungen der Patienten (Herzinsuffizienz, Koronare Herzerkrankung, Dilatative Cardiomyopathie, Klappenvitien und vorbekannte atriale Tachykardien) sowie zu ihrer zum jeweiligen Untersuchungszeitpunkt aktuellen Medikation (Klasse-I-Antiarrhythmika, Sotalol, Amiodaron, Beta-Blocker, Klasse-IV-Antiarrhythmika, Digitalisglykoside, ACE-Inhibitoren/AT1-Antagonisten, Aldosteronantagonisten, Diuretika und CSE-Inhibitoren ) erfasst. Die statistische Auswertung bezüglich des Auftretens inadäquater Therapien sowie ihrer Ätiologie, der Versterbenshäufigkeit, der Überlebensdauer, des gefährdeten Auftretenszeitraums inadäquater Therapien, eines eventuellen prädilektiven Risikoalters, des Einflusses der verschieden Ätiologien und der Anzahl inadäquater Therapiegaben auf Überlebensdauer und Versterbenshäufigkeit, des Einflusses der Begleitmedikation, des Einflusses der Begleiterkrankungen, der Differenzen zwischen Ein – Zwei – und Dreikammergeräten, der Differenzen der Geräte der verschiedenen Hersteller sowie der erfolgten Programmierung der Implantierbaren Cardioverter Defibrillatoren erfolgte mittels des Leevene-Tests, des Kolmogoroff-Smirnoff-Tests, des Zweistichproben-t-Tests sowie Fisher’s exaktem Test. Im nachbeobachteten Zeitraum wurden 11.942 tachykarde Ereignisse registriert, deren Auswertung 2806 (23,5%) inadäquate Therapien ergab. Davon waren 27,9% Defibrillationen, 72,1% antitachykarde Überstimulationen. 200 der 783 Patienten (25,5%) erlitten inadäquate Therapieabgaben während der Nachbeobachtungsperiode. 29,1% der implantierten CPI/Guidant-Geräte waren von inadäquaten Therapien betroffen, 40,8% der Ela90 Geräte, 21,2% der Medtronic-Geräte und 25% der St. Jude-Geräte. Tachykard übergeleitetes Vorhofflimmern machte 45,6% der inadäquaten Therapien aus, Sinustachykardien 11,3%, Vorhofflattern 9,1%, supraventrikuläre Tachykardien 16,1%, Sondendefekte 14,1%, Muskelpotentialfehlwahrnehmungen 0,8%, T-Wellen-Fehlwahrnehmungen 1,6%, R-Wellen-Doppelwahrnehmungen 0,4% und nicht anhaltende Ventrikuläre Tachykardien 0,9%. Die Analyse der Differenzen der Patienten, welche inadäquate Therapien erlitten und der Patienten, welche keine inadäquaten Therapien erlitten, ergab signifikante Unterschiede. Die Nachbeobachtungsperiode der Patienten mit inadäquaten Therapien war mit 54,2 Monaten im Median länger als die der Patienten ohne inadäquate Therapien (Median hier 30 Monate, p<0,000001). Gleiches gilt für die Überlebensdauer der Patienten mit inadäquaten Therapien (mediane Überlebenszeit 56,9 Monate versus 33,4 Monate, p<0,0001). Weder das generelle Auftreten inadäquater Therapien noch die Zahl der erlittenen inadäquaten Therapien reduzierten die Überlebensdauer. Auch konnte keine Form von inadäquater Therapie identifiziert werden, die mit einer Übersterblichkeit einherging. Das Auftreten inadäquater Therapien an sich jedoch ging in einer Subgruppenanalyse der Patienten mit inadäquaten Therapien, der Patienten mit nur adäquaten Therapien und der Patienten ohne jegliche Therapien mit einer erhöhten Versterbenswahrscheinlichkeit einher (p<0,000003 bzw. p<0,01). Insofern kann an dieser Stelle ein negativer Einfluss inadäquater Therapien in der Zusammenschau der Befunde nur gemutmaßt, nicht aber eindeutig nachgewiesen werden. Bezüglich der Risikofaktoren für das Auftreten inadäquater Therapien ergab sich ein gefährdeter Zeitraum innerhalb der ersten sechs Monate nach Implantation, was auf die zu diesem Zeitpunkt noch nicht individuell optimierte Programmierung zurückzuführen ist. Patienten jeden Alters wiesen ein vergleichbares Risiko auf, inadäquate Therapien zu erleiden. Insofern konnte kein Risikoalter identifiziert werden. Mit einem erhöhten Risiko für die Entwicklung inadäquater Therapien gingen eine insuffiziente Versorgung mit Betablockern oder Amiodaron (p<0,000001 bzw. p<0,04) sowie vor der Implantation bekannte atriale Tachykardien (p<0,001) einher. Beide Umstände erklären sich mit der Dominanz atrialer Rhythmusstörungen als auslösende Ursache inadäquater Therapien (82,1% aller inadäquaten Therapien wurden durch atriale Rhythmusstörungen ausgelöst) sowie durch den reduzierenden Effekt der beiden Antiarrhythmika auf die Inzidenz dieser atrialen Rhythmusstörungen. Die restlichen Begleiterkrankungen blieben ohne nachweisbaren Einfluss auf das Auftreten inadäquater Therapieabgaben. Zwei- und Dreikammergeräte konnten, entgegen der Erwartungen, die Inzidenz inadäquater Therapieabgaben gegenüber den Einkammergeräten nicht signifikant reduzieren (p<0,1). Am ehesten zu erklären ist dies mit den bei Zwei- und Dreikammergeräten vermehrt auftretenden Wahrnehmungsproblemen sowie den zusätzlich benötigten, defektanfälligen Sonden. Die vorliegende Arbeit konnte die berichtete hohe Inzidenz inadäquater Therapiegaben sowie deren dominierende Ätiologien in einem breiten, den klinischen Routinebedingungen entsprechenden Patientenkollektiv innerhalb eines langen Zeitverlaufes bestätigen und eventuelle Risikofaktoren identifizieren. Weiterhin konnten Erkenntnisse bezüglich der prognostischen Bedeutung inadäquater Therapieabgaben gewonnen werden. Die Kenntnis der Risikofaktoren könnte dazu beitragen helfen, gefährdete Patienten frühzeitig zu identifizieren sowie durch prophylaktische Maßnahmen die Inzidenz inadäquater Therapiegaben zu mindern. Weiterhin können die in dieser Arbeit gewonnen Erkenntnisse als Grundlage der Hypothesengenerierung und Planung weiterer klinischer Studien dienen.