Refine
Year of publication
- 2010 (178) (remove)
Document Type
- Doctoral Thesis (139)
- Article (14)
- Part of Periodical (11)
- Contribution to a Periodical (4)
- Part of a Book (3)
- Conference Proceeding (3)
- Working Paper (2)
- Book (1)
- Periodical (1)
Language
- German (178) (remove)
Is part of the Bibliography
- no (178) (remove)
Keywords
- Myokarditis (2)
- NMR-Tomographie (2)
- Nachweismethoden (2)
- Perikarditis (2)
- myocarditis (2)
- pericarditis (2)
- test methods (2)
- "NS"-Euthanasie (1)
- - (1)
- Abruf (1)
Institute
- Medizin (178) (remove)
Die Nierentransplantation ist die Therapie der Wahl bei terminaler Niereninsuffizienz. Alle anderen Nierenersatzverfahren (chron. intermittierende Hämodialyse oder Bauchfelldialyse) reichen nicht an die Effizienz und den Komfort einer Transplantatniere heran. Trotz allem stellen verzögerte Funktionsaufnahme (delayed graft function, DGF), Abstoßungen und begrenzte Funktionsdauer heute noch Probleme der Nierentransplantation dar. Interleukin-18, ein wichtiger Mediator der angeborenen und erworbenen Immunantwort und zugleich ein Zytokin, das bei Ischämie-Reperfusionsschaden und akutem Nierenversagen vermehrt ausgeschüttet wird, könnte in diesem Zusammenhang von Bedeutung sein. Bekannt ist, dass zwei Promotorpolymorphismen (-607C/A und -137G/C) die Blutspiegel von Interleukin-18 beeinflussen können. Ziel dieser Dissertation ist es, den Einfluss der Interleukin-18- Genotypen auf die Prädisposition zu Nierenerkrankungen bzw. bestimmte Grunderkrankungen bei terminaler Niereninsuffizienz zu untersuchen. Außerdem wurde vor allem der Einfluss der Interleukin-18 Polymorphismen auf den Transplantationserfolg überprüft, gemessen an DGF, Transplantatüberleben und Patientenüberleben. Zu diesem Zweck wurden bei 233 Nierentransplantierten und bei 222 nierengesunden Organspendern die IL-18 Genotypen bestimmt. Zudem wurden die benötigten klinischen Daten aus den Krankenakten der Patienten entnommen und anschließend mittels statistischer Verfahren mit den Genvarianten in Korrelation gesetzt. Zwar war die Verteilung der Genotypen zwischen Transplantierten und Nierengesunden nicht unterschiedlich, wir konnten jedoch zeigen, dass das -137C-Allel bzgl. Autoimmunerkrankungen prädisponierend wirkt, aber hinsichtlich der diabetischen Nephropathie einen protektiven Einfluss hat. Im Falle des SNP -607C/A erwiesen sich das C-Allel hinsichtlich Autoimmunerkrankungen und das AAllel bzgl. diabetischer Nephropathie als schützend. Es stellte sich weiterhin heraus, dass der Wildtyp des IL-18 SNP’s (-607CC/-137GG) vor einer verzögerten Funktionsaufnahme des Transplantats (DGF) bewahrt. Ein direkter Einfluss der Polymorphismen auf die Langzeitfunktion des Transplantats konnte nicht nachgewiesen werden. Patienten mit DGF zeigten aber auch noch in den ersten drei Jahren nach der Transplantation eine deutlich schlechtere Nierenfunktion als Transplantierte mit unproblematischem postoperativem Verlauf. Obwohl sich die Nierenfunktion der DGF- und Nicht-DGF-Patienten nach drei Jahren wieder einander anglich, waren Patienten, deren Transplantat die Funktion verzögert aufnahm, einem höheren Mortalitätsrisiko ausgesetzt und verstarben durchschnittlich früher als die Vergleichsgruppe mit sofortigem Funktionsbeginn, wobei die Nicht-DGF-Patienten bei Transplantation durchschnittlich etwas jünger waren. Dies zeigt deutlich die Relevanz dieser frühen Phase für den Langzeitverlauf und die Bedeutung der IL-18-Genotypisierung, mit deren Hilfe man für DGF prädisponierte Patienten frühzeitig erkennen und spezifisch behandeln könnte, um so deren Prognose günstig zu beeinflussen. Weitere prospektive Studien sind aber nötig, um die gewonnenen Erkenntnisse zu sichern und so den Erfolg einer Nierentransplantation und damit die Lebensqualität der Patienten weiter zu verbessern.
Hintergrund: Die klinische Wirksamkeit einer pharmakochirurgischen Kombinationstherapie zur Behandlung des diabetischen Makulaödems (DMÖ) bestehend aus einer posterioren Kernvitrektomie mit Entfernung von 1,5 ml liquefiziertem Glaskörper und zeitgleicher isovolumetrischer Injektion von 1,25 mg Bevacizumab und 8 mg Triamcinolon wurde in der vorliegenden Arbeit analysiert. Methodik: Daten von 73 Augen (60 Patienten; 65,4 ± 10,4 Jahre) mit einem DMÖ nach pharmakochirurgischer Kombinationstherapie wurden analysiert. Untersucht wurde neben dem Visus und der zentralen Makuladicke die Notwendigkeit von Re-Interventionen und dem Einsatz der konventionellen Verfahren (Laser, klassische 3port ppV). Wir unterschieden zwischen Gruppe I (n=38): nicht-proliferative DR (NPDR) ohne ischämische Makulopathie (I.M.); Gruppe II (n=17): NPDR mit I.M. und Gruppe III (n=18): proliferative DR mit oder ohne I.M. Die Kontrollintervalle betrugen im Median 9 Wochen (ca. 2 Monate, T1), 25 Wochen (ca. 6 Monate, T2) und 44 Wochen (ca.10 Monate, T3) nach Intervention. Ergebnisse: Die präoperativen Sehschärfen betrugen 0,52 ± 0,21 logMAR in Gruppe I, 0,99 ± 0,5 logMAR in Gruppe II, 0,77 ± 0,42 logMAR in Gruppe III. In Gruppe I verbesserte sich der Visus nach 2 Monaten zunächst auf 0,45 ± 0,21 logMAR (T1; p=0,7), nach 6 Monaten (T2) hochsignifikant auf 0,36 ± 0,16 logMAR (p<0,01) und blieb zum Zeitpunkt T3 stabil (0,36 ± 0,1 logMAR; p=1,0). Die Gruppe II zeigte zum Zeitpunkt T1 eine signifikante Visusbesserung auf 0,64 ± 0,18 logMAR (p<0,05) und war mit 0,77 ± 0,43 logMAR (T2; p>0,05) und 0,82 ± 0,4 logMAR (T3; p>0,05) leicht rückläufig. In der Gruppe III wurde zum Zeitpunkt T1 ein nicht-signifikante Visusverbesserung auf 0,53 ± 0,24 logMAR (p=0,08) erreicht, während nach 6 Monaten einen Visus von 0,62 ± 0,29 logMAR (p=0,6) und nach 10 Monaten mit 0,72 ± 0,34 logMAR (p=0,9) nahezu den Ausgangsvisus erreicht wurde. Die präoperativen Makuladicken betrugen 386,6 μm in Gruppe I, und 418,65 μm in Gruppe II und 385,17 μm in Gruppe III. Das Makulaödem konnte in allen 3 Gruppen bereits nach 2 Monaten hochsignifikant reduziert: -110μm (-28%; p<0,01) und im erreichten Niveau stabilisiert werden. 27,4 % der Augen (20/73) benötigten nach durchschnittlich 6,3 Monate eine Re-Intervention und 32,9 % benötigten im Verlauf eine Lasertherapie. Schlussfolgerung: Durch die pharmakochirurgische Kombinationstherapie konnte kurz- und mittelfristig eine Reduktion des Makulaödems mit Visusverbesserung in der Mehrzahl der Augen erreicht werden. Die Notwendigkeit von Re-Interventionen konnte zudem signifikant reduziert werden. Durch einen möglichen synergistischen Effekt kann diese Behandlungsmethode bestehende Therapieoptionen sinnvoll ergänzen und erweitern.
Patienten, die sich einer elektiven Operation unterziehen müssen und an einer Leberzirrhose als Vorerkrankung leiden, haben ein deutlich erhöhtes Risko für die Entwicklung postoperativer Komplikationen. Die Auswirkungen einer vorbestehenden Leberzirrhose und/oder eines Alkoholabusus (als typischer Riskofaktor für die Entwicklung einer Leberzirrhose) auf das Outcome schwerverletzter Patienten wurden in der folgenden Studie, unter Berücksichtigung der multizentrischen und anonymisierten Datenbank des Traumaregisters der Deutschen Gesellschaft für Unfallchirurgie, untersucht. Dazu verglichen wir retrospektiv Polytraumapatienten (ISS ≥ 18) mit Alkoholabusus und Leberzirrhose mit einem gesunden Vergleichskollektiv. Letztlich erfüllten 13,527 Patienten die Einschlusskriterien, von 713 (5,3%) einen Alkoholabusus und 91 (0,7%) eine gesicherte Leberzirrhose aufwiesen. Die Gruppe der Leberzirrhotiker zeigte neben einer höheren Rate an Organ- und Multiorganversagen gegenüber der RISC-Prognose eine signifikant erhöhte Krankenhausmortalität (31% gegenüber prognostizierten 19%), wodurch dieser in seiner Verwendung als Prognosescore für verletzte leberzirrhotische Patienten deutlich limitiert wird. In der Matched Pair Analyse unterschieden sich die Patienten mit einer Leberzirrhose verglichen zum Kontrollkollektiv signifikant in Bezug auf Einzel- (Herz, Leber, Niere, Gerinnung) und Multiorganversagen, sowie in der Gesamtmortalität. Die Ergebnisse verdeutlichen die fatalen Auswirkungen einer Leberzirrhose auf das Outcome nach Polytrauma und fordern eine diesbezügliche Evaluierung der Trauma- und Prognosescores (wie z.B. RISC) zur besseren Risikoprofilabschätzung eines Schwerverletzten. Bei den Alkoholikern kam es zwar ebenfalls zu durchschnittlich mehr Organausfällen im Vergleich zur Kontrollgruppe, jedoch war die Krankenhausmortalität gleich. Überraschenderweise verstarben in der Alkoholgruppe innerhalb der ersten 24 Stunden nach Trauma die wenigsten Patienten. Inwieweit dabei Alkohol als möglicher Modulator der posttraumatischen Immunreaktion eine Rolle spielt, konnte bis dahin allerdings nicht beantwortet werden. In einer weiteren Studie wurden deshalb die Interleukin-6 und Interleukin-10 Serumkonzentrationen von 34 alkoholintoxikierten Polytraumapatienten (ISS ≥ 16) des Universitätsklinikums Frankfurt am Main von Aufnahme bis Tag 5 nach Trauma untersucht und mit einer gematchten Gruppe von 15 nüchternen Schwerverletzten verglichen. Während die Alkoholgruppe im Schockraum einen Trend zu erniedrigten IL-6 Konzentrationen aufwies, stiegen diese im posttraumatischen Verlauf immer weiter an und waren am Tag 4 und 5 signifikant gegenüber der nüchternen Gruppe erhöht. Das antiinflammatorische Zytokin IL-10 hingegen zeigte im Gruppenvergleich während des gesamten posttraumatischen Verlaufs keine signifikanten Unterschiede. Die Studie verdeutlicht, dass akute Alkoholintoxikation die Immunantwort des Körpers nach schwerem Trauma moduliert, hier nachgewiesen in einer veränderten Il-6 Antwort im zeitlichen Verlauf bis zum 5. posttraumatischen Tag. Dennoch sind weitere Untersuchung im komplexen Zusammenspiel des janusköpfigen Zytokins IL-6 und anderer hauptsächlich antiinflammatorischer Mediatoren wie z.B. IL-4, IL-11, TGF-β und IL-13 in zusätzlicher Korrelation zum klinischen Outcome notwendig, um die komplexe Immunantwort des Körpers nach Trauma zu verstehen. Letztlich gilt es noch herauszufinden, ob IL-6 als prognostischer Mediator oder Parameter im klinischen Verlauf nach Polyrauma verwendet werden kann.
Hintergrund: Untersuchungen bezüglich Tablettenlast, Sturzereignisse und unangemmessener Dosierung bei Niereninsuffizienz wurden bei Patienten in Pflege-und Altenheimen durchgeführt. Daten von Heimbewohnern im zunehmenden ambulanten Pflegebereich, speziell aus Deutschland wurden hier erörtert. Material und Methoden: Wir evaluierten Patienten, die täglich durch einen ambulanten Pflegedienst versorgt wurden (Kohorte 1, N=102, Alter: Median 80 Jahre) oder Pflege ausschließlich von Angehörigen erhielten (Kohorte 2, N=102, Alter: Median 76 Jahre) an V1 als Ausgangspunkt, nach 6 Monaten (V2) und 12 Monaten (V3). Ergebnisse: An Visite 1 wiesen die Patienten aus Kohorte 1 im Median 5 (range 3-15), an Visite 3 im Median 6 (range 3-17) Verordnungen auf. Es konnten keine Unterschiede bezüglich der Anzahl und des Verordnungsmusters zwischen beiden Kohorten beobachtet werden. An Visite 1 war bei 30/102 Patienten aus Kohorte 1 ein Kreatininwert vorhanden, welcher innerhalb der letzten 6 Monate erhoben wurde, 13/30 Patienten wiesen eine eGFR < 50 ml/min. auf. 6/34 Medikamenten, welche der Anpassung an die Nierenfunktion bedürfen, wurden nicht angemessen dosiert. Seltene Kontrollen der Nierenfunktion und nicht angemessene Dosierung wurden auch an anderen Visiten und ferner bei Kohorte 2 beobachtet. Innerhalb eines Jahres 29/75 mobilen Patienten aus Kohorte 1 hatten ein Sturzereignis, 18/29 dieser Patienten wiesen eine regelmäßige Verordnung von Benzodiazepinen auf, während ein Benzodiazepin bei 6/46 Patienten regelmäßig verordnet wurde, welche kein Sturzereignis aufwiesen (Chi-test p= 0.004). In Kohorte 2 war die Anzahl der gestürzten Patienten geringer (19/84 mobilen Patienten, p= 0.028). 11/19 Patienten hatten eine Benzodiazepinverordnung, im Gegensatz zu 5/65 Patienten, die nicht gestürzt sind (Chi-test p=0.001). Schlussfolgerung: Es muss geklärt werden, ob ein Pflegedienst zur Arzneimitteltherapiesicherheit der Patienten beitragen kann, z. B. durch Überprüfung der Medikamentenpläne und Organisation zusätzlicher Laborwertkontrollen.
Die arterielle Hypertonie stellt einen bedeutenden Risikofaktor für kardiovaskuläre Erkrankungen dar, ihrer Therapie kommt daher ein hoher Stellenwert zu. Die Medikamentengruppe der Betablocker ist traditionell ein wichtiger Teil der medikamentösen Therapie, in dieser Arbeit wurde untersucht, inwiefern weiterhin ein Einfluss auf die diastolische Funktion, die Leistungsfähigkeit und die Sekretion der natriuretischen Peptide ANP und BNP besteht. Insgesamt wurden 102 Hypertoniepatienten mit zwischen 25 und 75 Jahren untersucht, alle Patienten hatten eine erhaltene systolische linksventrikuläre Pumpfunktion. Es erfolgte ein Gruppenvergleich zwischen den Patienten, die einen Betablocker einnahmen (n = 56) oder nicht (n = 46). Alle Patienten unterzogen sich eine Anamnese, einer Spiroergometrie, einer Echokardiographie samt Bestimmung der diastolischen Funktion und einer Lungenfunktionsprüfung. Laborchemisch wurden unter anderem die Hormone proANP und NT-proBNP erhoben. Zwischen den beiden Gruppen gab es keine signifikanten Unterschiede hinsichtlich Alter, Geschlecht, NYHA-Klasse oder den kardiovaskulären Risikofaktoren. Bei den Patienten ohne Betablocker bestand mit 21,4 % vs. 6,5 % (p = 0,034) signifikant häufiger die Diagnose einer koronaren Herzerkrankung. Bei der Begleitmedikation gab es keine relevanten Unterschiede in Bezug auf die Substanzen oder die Dosierung. Echokardiographisch ergab sich keine Gruppendifferenz für die diastolische Funktion. In der Spiroergometrie zeigte sich unter Betablockertherapie mit 118 vs.142 Watt (p = 0,019) ein Unterschied in der erreichten Leistung, die maximale Herzfrequenz war mit 128 vs. 142/Min (p < 0,001) ebenfalls erniedrigt. Die systolische Blutdrucksenkung war mit Betablockern sowohl in Ruhe (127 vs. 134 mmHg, p = 134) als auch unter Belastung effektiver. Mit 0,28 vs. 0,25 ml/kg (p = 0,002) war der Sauerstoffpuls pro Kg fettfreien Körpergewichts als Maß für das Schlagvolumen unter Betablockern erhöht. Bei den Patienten unter Betablocker-Medikation waren die Serum-Werte für sowohl proANP (2892 vs. 1839, p < 0,001) als auch NT-proBNP (107 vs. 39, p < 0,001) signifikant erhöht. In der multivariaten Analyse ergaben sich unter Betablockern für ANP das Alter und der HbA1c als unabhängige Prädiktoren, für BNP sind es die NYHA-Klasse und eine Mikroalbuminurie. Ohne Betablocker haben für ANP das Alter und die Belastbarkeit eine unabhängigen prädiktiven Wert, für BNP sind es das HDL, die Größe es linken Atriums und die Belastbarkeit. In Konklusion trägt die Einnahme von Betablockern zu einer effektiveren Blutdrucksenkung bei, vermindert die Belastbarkeit und senkt die Herzfrequenz. Einen Einfluss auf die diastolische Funktion konnten wir nicht zeigen. Die natriuretischen Peptide ANP und BNP sind unter Betablockade erhöht.
Hintergrund: Geschlechtsunterschiede in der kardialen Repolarisation und der korrigierten QT-Zeit sind seit der Beschreibung von Bazett in den 1920er Jahren bekannt. Gesunde Frauen haben längere QT-Zeiten und werden öfter durch medikamenteninduzierte Arrhythmien betroffen als Männer. Patientinnen, die unter der erblichen Form des Langen QT-Syndroms (LQTS) leiden, weisen ein niedrigeres Risiko für kardiale Ereignisse während der Schwangerschaft auf. Dies ist nach einer Schwangerschaft deutlich erhöht. Weibliche Geschlechtshormone könnten eine wichtige Rolle spielen; ihr Einfluss ist aber noch unklar. Hypothese: Veränderungen von Östrogen, Progesteron und dem Östrogen/Progesteron Quotienten sind mit einer Veränderung der QTc-Zeit assoziiert. Methoden: Diese Studie gliedert sich in einen klinischen und einen experimentellen Teil. Im klinischen Teil wurden die Geschlechtshormone und die QTc-Zeiten von insgesamt 21 Frauen untersucht. Drei LQTS2-Patientinnen (heterozygote Trägerinnen der HERG-Mutante R752P) und zwei Genotyp negativen weiblichen Familienmitgliedern wurden während des Menstruationszyklus gemessen (inklusive Elektrolytbestimmung). Die zweite Gruppe bestand aus elf gesunden Frauen, die während einer hormonalen Stimulationstherapie gemessen wurden. Eine letzte Gruppe bestand aus fünf gesunden Frauen, die vor, während und nach einer Schwangerschaft untersucht wurden. Im experimentellen Teil wurde die Wirkung von Östradiol (E2) auf Zellkulturen, die mit HERG-DNA (Wildtyp oder R752P), Östrogenrezeptor-DNA (ERalpha oder ERbeta) oder beidem transfiziert waren, mittels konfokaler Mikroskopie untersucht. Ergebnisse: Im klinischen Teil der Studie zeigte sich, dass E2 mit steigender Serum-Konzentration (in allen drei Gruppen) die QTc-Zeit verkürzte (p <= 0,001). Dieser Effekt ist als elektrolyt-unabhängig zu werten. Einen signifikanten Effekt von Progesteron oder dem E2/Progesteron Quotienten konnten wir nicht nachweisen. Als zugrunde liegender zellulärer Mechanismus zeigte sich eine ERalpha-abhängige Zunahme von HERG-Kaliumkanälen an der Plasmamembran. Dieser Effekt war bei der Mutante (R752P) nicht nachweisbar und konnte für ERbeta oder ohne ER nicht gezeigt werden. Ob die Zunahme durch vermehrtes "Trafficking", eine vermehrte Transkription oder einen anderen Mechanismus bedingt ist, kann noch nicht abschließend beurteilt werden. Schlussfolgerung: Eine Zunahme der E2-Serumkonzentration führt in Abhängigkeit von ERalpha zu vermehrter HERG-Lokalisation an der äußeren Zellmembran und erklärt so die Verkürzung der QTc-Zeit. Für die Zukunft könnte man erwägen, LQTS-Patientinnen in der Postpartal-Periode mit E2 zu behandeln, um so möglichen kardialen Ereignissen durch tachykarde Rhythmusstörungen vorzubeugen. Weiterhin wäre zu erwägen, Patientinnen mit erworbenem LQTS ebenso zu behandeln.
Der Typ 1 Diabetes ist eine klinisch heterogene Erkrankung. Sowohl die genetischen Faktoren als auch die Umwelt wirken bei der Entstehung der autoimmunologischen Prozesse dieser Erkrankung zusammen. Die Fragestellung der vorgestellten Untersuchung war, inwieweit sich ein Einfluss der exogenen Faktoren auf das Risiko des T1D der Betroffenen äußert und sich nachweisen lässt. Als Determinante der Veränderung der Umwelt diente die Migrationsbewegung der Bevölkerung. Die derzeitige Forschungslage bietet, trotz den seit Jahrzehnten geführten kontroversen Diskussionen dieser Frage, keine Klärung der Kausalitäten in der Pathogenese des T1D. Aus der vorliegenden Arbeit ergibt sich ein Hinweis auf einen möglichen Risikoanstieg von T1D bei Probanden mit einem Migrationshintergrund. Dabei wurden zum Einen die Überlegungen der Hygienehypothese berücksichtigt. Zum Anderen scheint ein Abfall der Vitamin D-Konzentration – aufgrund der geringeren Sonneneinstrahlung, die durch eine meist von Süd nach Nord verlaufende Migrationsbewegung bedingt ist – als ein möglicher Risikofaktor. Untersucht wurde eine Stichprobe von insgesamt 187 Typ 1 Diabetikern. Zur Erfassung der möglichen Maßparameter der gestellten Hypothese wurde ein Fragebogen verwendet und die Befragung fand in Form eines Telefoninterviews statt. Die klinischen Daten wurden den Krankenakten entnommen. Die rekrutierte Gesamtkohorte wurde entsprechend dem Migrationsstatus in Gruppen der Einheimischen aus der Bundesrepublik Deutschland (D), der Migranten (M) und der Kinder von Migranten (KM) getrennt. Für die definierten Teilkollektive konnte ein signifikanter Zusammenhang zwischen dem Migrationsstatus und dem Erkrankungsalter gefunden werden: (D) mit 22 Jahren, (KM) mit 11 Jahren und (M) mit 35 Jahren; p < 0,001. Die beobachtete Verschiebung des Manifestationsalters bei Probanden mit einem Migrationshintergrund könnte auf den Einfluss der Umweltfaktoren bei gegebener genetischer Prädisposition hindeuten und somit die Hypothese dieser Studie bestätigen. Andererseits könnte dieses Phänomen durch die selektive Zuweisung von deutschen/migrierten Patienten in das Diabetestherapiezentrum bzw. die Ambulanz der Universitätsklinik bedingt sein. Der Tabakkonsum konnte als ein Risikofaktor nicht bestätigt werden. Desweiteren entwickelte die meist gefährdete Gruppe „Kinder von Migranten“ den Diabetes bevor ein Einstieg ins Raucherleben stattfand (Manifestationsalter bei (KM): 11 Jahre vs. durchschnittliches Einstiegsalter ins Rauchen 11,6 Jahre). Die Belastung durch das Passivrauchen im elterlichen Haushalt unterschied sich weder in Bezug auf den Gruppenvergleich, noch zur Allgemeinbevölkerung. Es wurde eine geringere Prävalenz von zusätzlichen Erkrankungen unter den Migranten in der zweiten Generation beobachtet, die wahrscheinlich auf dem allgemein jüngeren Alter der Probanden beruht. Im Gegensatz dazu ist die Verteilung der Autoimmunopathien zwischen den Gruppen gleich. Die autoimmune Thyreoiditis kommt am häufigsten vor und betrifft fast ausschließlich die Frauen. Aufgrund des höheren Alters bei der Manifestation des T1D unter den männlichen Probanden kann das männliche Geschlecht als ein Risikofaktor in dieser Studie nicht bestätigt werden. Das Alter der Eltern bei der Migration scheint ebenso, wie der Abstand zwischen der Migration und der Schwangerschaft bzw. der Geburt des Kindes, keinen Einfluss auf das Risiko einer früher einsetzenden Diabetesmanifestation bei den Kindern zu spielen. Ein Vitamin D-Mangel wurde bei den einheimischen Patienten mit T1D nicht so häufig wie bei solchen mit Migrationshintergrund beobachtet, was ein höheres Risiko in der letzteren Gruppe bedingen könnte. Dies muss jedoch an einer größeren Stichprobe untersucht werden. Die vorgelegte Untersuchung ist deshalb ein Pilotprojekt einer größer angelegten Folgestudie.
Die Ausbreitung von HIV stellt ein kontinuierlich wachsendes Problem dar [132]. Durch Einführung der hochaktiven antiretroviralen Therapie (HAART) konnte die Morbidität und Mortalität der HIV-Infektion deutlich gesenkt werden, jedoch limitieren Resistenzbildungen des Virus und Toxizität der Medikamente den Erfolg. Eine mögliche Therapiealternative bietet die HIV-Gentherapie. Hierbei werden Zellen eines Patienten genetisch modifiziert, so dass sie ein antivirales Genprodukt exprimieren. In der Arbeitsgruppe von Laer (Georg-Speyer-Haus, Frankfurt) wurde der retrovirale Vektor M87o entwickelt, der das antivirale, membranverankerte Peptid maC46 kodiert. Dieses hemmt als Fusionsinhibitor effizient den Viruseintritt von HIV. Als Zielzellen einer HIV-Gentherapie können neben TLymphozyten, den eigentlichen Zielzellen von HIV, auch deren Vorläufer, die hämatopoetischen Stammzellen, verwendet werden. Durch Generierung der gesamten Hämatopoese sollte dies zur Expression des antiviralen Transgens in allen Blutzelllinien führen. Besonders wichtig hierbei ist, dass die Funktion der hämatopoetischen Stammzellen durch die genetische Modifikation möglichst nicht gestört wird. Ziel der vorliegenden Arbeit war es daher, toxische Effekte von M87o auf die Repopulierungsfähigkeit hämatopoetischer Stammzellen auszuschließen. Neben den Toxizitätsanalysen sollte auch die Langzeitexpression des retroviralen Vektors nach Transplantation genetisch modifizierter T- und Stammzellen untersucht werden. Eine stabile Expression des Transgens ist vor allem in T-Lymphozyten als Hauptzielzellen von HIV ausschlaggebend für den Erfolg der Gentherapie. Daher war ein weiteres Ziel dieser Arbeit, die Transgenexpression in vivo besonders in T-Lymphozyten im Verlauf zu untersuchen. Hierzu wurden in einem syngenen Mausmodell hämatopoetische Stammzellen mit dem retroviralen Vektor M87o transduziert und in bestrahlte Rag1-defiziente Mäuse transplantiert. Damit mögliche toxische Effekte von M87o auf die Hämatopoese nicht durch den Anteil untransduzierter Zellen im Transplantat maskiert werden, wurde in einer Versuchgruppe der Anteil transduzierter Stammzellen durch MACS-Sortierung auf über 95% angehoben. bAls Kontrollgruppen wurden untransduzierte, aber gleichermaßen kultivierte Stammzellen sowie mit dem Kontrollvektor M87c transduzierte Stammzellen transplantiert. Im folgenden Beobachtungszeitraum von 18-20 Wochen wurde regelmäßig das periphere Blut der Empfängertiere analysiert sowie nach Tötung der Tiere die einzelnen Zellpopulationen der hämatopoetischen Organe Blut, Lymphknoten und Milz charakterisiert. Hierbei konnte keine Toxizität durch M87o nachgewiesen werden. Zwar wurde für M87o-angereicherte Stammzelltransplantate eine verminderte bzw. verzögerte Lymphozytenrepopulierung beobachtet, dies war jedoch wahrscheinlich auf eine eingeschränkte „Fitness“ der Stammzellen durch den Sortierungsprozess und eine geringere Zellzahl im Transplantat zurückzuführen. M87o-transduzierte Stammzellen waren schließlich in der Lage, die komplette Lymphopoese zu generieren. Im Blut, Lymphknoten und Milz der Rezipienten konnten NK-, T- und B-Zellen nachgewiesen werden. Die lymphatische Differenzierung wurde also durch M87o nicht beeinträchtigt. Eine Aussage über die Toxizität von M87o auf die Myelopoese konnte leider nicht getroffen werden. Nach subletaler Bestrahlung der Empfängertiere und damit nur teilweisen Ablation des endogenen Knochenmarks wurden die meisten Zellen der myeloischen Linie durch die Wirts-Stammzellen generiert. Es müssen somit hinsichtlich der Unbedenklichkeit von M87o noch weitere präklinische Untersuchungen erfolgen, bei denen durch letale Bestrahlung der Empfängertiere lediglich die durch Spenderzellen differenzierte Myelopoese analysiert werden kann. Bei den Untersuchungen zur Transgenexpression nach Transplantation genetisch modifizierter Stammzellen konnte eine Langzeitexpression des maC46-Peptids auf allen lymphatischen Zelllinien (T-, B- und NK-Zellen) nachgewiesen werden. Dies zeigt also, dass eine stabile und effiziente Integration des Transgens und somit eine langfristige Expression in vivo möglich ist. Im Verlauf konnten jedoch bei nahezu allen Tieren fallende Anteile M87o-exprimierender Lymphozyten nachgewiesen werden. Dieser beobachtete Expressionsverlust war variabel hinsichtlich des zeitlichen Auftretens sowie zelltypabhängig. Die höchsten Anteile M87o-exprimierender Zellen zeigten sich innerhalb der B-Lymphozyten. Im Rahmen der M87o-Expressionsanalyse nach Transplantation genetisch modifizierter T-Lymphozyten wurden T-Lymphozyten mit unterschiedlicher Transduktionseffizienz in Rag1-defiziente Mäuse transplantiert. Unterschiede in der Langzeitexpression in Abhängigkeit von der ins Genom integrierten Kopienzahl des Vektors konnten hierbei nicht eindeutig gezeigt werden. Bei einigen Tieren konnte eine relativ langfristige in vivo Expression des maC46-Peptids nachgewiesen werden, bei anderen hingegen nachlassende Transgenexpressionen. Insgesamt war die Aussagekraft hier jedoch durch eine nach Transplantation auftretende schwere Kolitis bei den Versuchstieren und somit limitierte Beobachtungszeit stark eingeschränkt.
Patienteninformation
(2010)
Die Wirkungen von Acrylamid beschäftigen seit Jahrzehnten Mediziner, Toxikologen, Biologen und Analytiker. Zwar konnte eine kanzerogene Wirkung beim Tier eindeutig nachgewiesen werden, der Nachweis dieser Wirkung beim Menschen ist aber bis heute nicht erbracht. Bis 2000 wurde angenommen, dass Acrylamid ausschließlich technisch erzeugt vorkommt und der Mensch Acrylamid nur aus dieser Quelle aufnimmt. Hierauf beruhen Grenz- und Richtwerte auf nationaler und internationaler Ebene, sowohl am Arbeitsplatz als auch für Trinkwasser und Verpackungsmaterialien. Neben dem Acrylamidgehalt in technischen Produkten, Wasser und Luft gelang der Nachweis der aufgenommenen Acrylamidmenge über Acrylamid-Hämoglobin-Addukte im Blut erst 1995, nachdem der Acrylamid-Metabolismus aufgeklärt worden war und die analytischen Methoden verfeinert waren. Die Annahme, dass Acrylamid ausschließlich in technischen Prozessen gebildet wird, war jedoch nicht vereinbar mit Erkenntnissen, dass auch Probanden einen erhöhten Acrylamidspiegel im Blut aufzeigten, die nicht mit Acrylamid am Arbeitsplatz in Kontakt gekommen waren. Im Jahr 2002 gelang es eindeutig nachzuweisen, dass Acrylamid in vielen, meist alltäglich verzehrten Lebensmitteln abhängig von der Zubereitungsart zu finden ist. Mit Hilfe einer verbesserten Analytik konnten schließlich hohe Acrylamidmengen in zahlreichen, vor allem frittierten Lebensmitteln, belegt werden, die die Belastung aus technischen Quellen oft weit überschritten. Die Tatsache, dass die Nahrung der allgemeinen Bevölkerung deutlich Acrylamid-belastet ist, hat die Bewertung der Acrylamid-Toxizität und die Maßnahmen zum Gesundheitsschutz nachhaltig verändert. Durch den späten Nachweis der Acrylamid-Aufnahme mit Lebensmitteln sind viele frühere Annahmen für die Gesundheitsbewertung irrig, die hieraus gezogenen Schlußfolgerungen nicht haltbar. Seit 2002 ist die Reduktion der Lebensmittelbelastung in den Mittelpunkt gerückt, die Arbeitsplatzbelastung hat - mit Ausnahme der Schleimhautreizung - keine weitere Berücksichtigung erhalten. Die hohe Belastung von Lebensmitteln stellt bisherige Richtlinien und Expositionsauflagen in Frage, der fehlende bisherige epidemiologische Nachweis, der aus Tierversuchen eindeutig nachweisbaren Karzinogenität stellt für Acrylamid auch die bisherigen Modell-Annahmen der Krebsentstehung durch Umweltschadstoffe in der „one hit-Hypothese“ in Frage.
Auf dem Weg zur multikulturellen Gesellschaft besteht Bedarf, die psychologischen Komponenten verschiedener Migrantengruppen zu erfassen. In Deutschland sind 83.598 Mitmenschen mit chinesischer Staatsbürgerschaft verzeichnet (StatBA, 2009). Werden die Eingebürgerten Übersee-Chinesen mit einbezogen, beläuft sich die Zahl an gesamtchinesischen Mitmenschen auf 135.000 (OCAC, 2009). Als einzige Anhaltspunkte über im Ausland lebende Chinesen dienen Studien aus dem angloamerikanischen Sprachraum. Menschen chinesischen Ursprungs mit westlichem Intellekt erhalten dort die Bezeichnung „Banane“, welche eine gelbe Hülle mit einem weißen Inneren illustriert. Die vorliegende Studie beschäftigt sich erstmalig mit den psychologischen Komponenten der in Deutschland lebenden chinesischen Mitbürger. Welchen Einfluss nimmt die Anpassung an das europäische Umfeld gekoppelt mit der chinesischen Internalisierung auf erinnertes elterliches Erziehungsverhalten, Persönlichkeitsstruktur, Erleben von Emotionen und Körpererleben? 154 chinesisch-stämmige Studierende aus ganz Deutschland wurden für verschiedene standardisierte psychometrische Testverfahren rekrutiert. Ein eigens konzipierter Fragebogen diente zur Messung der asiatischen und europäischen Identität. Wie vorherige Studien (Chao & Aque, 2009) aussagten, zeigten sich in der vorliegenden Stichprobe Züge des autoritativen Erziehungsstils. Im FEE (Fragebogen zum erinnertenelterlichen Erziehungsverhalten) (Schumacher, Eisemann, & Brähler, 1999) erhielten die Übersee-chinesischen Probanden neben einer höheren mütterlichen Strenge auch höhere Werte in der elterlichen Kontrolle und Überbehütung als die deutsche Normstichprobe. Je mehr mütterliche „Ablehnung und Strafe“ und elterliche „Kontrolle und Überbehütung“ die Probanden perzipierten, desto chinesischer sieht der heutige Lebensstil aus. Kongruent mit den Ergebnissen von McCrae et al. (1998) schnitten Übersee-Chinesen im NEO-FFI (Borkenau & Ostendorf, 1993) mit niedrigeren Werten in der Offenheit und höheren Werten in der Verträglichkeit ab. Anders als bei Eap et al. (2008) zeigten Chinesen in Deutschland höhere Werte in der Gewissenhaftigkeit und Extraversion. Diese hingegen korrelierten positiv mit der europäischen Identität. In der MSWS (Multidimensionale Selbstwertskala) (Schütz & Sellin, 2006) erzielten die Übersee-Chinesen einen niedrigeren allgemeinen Selbstwert als die deutsche Normgruppe. Außerdem empfanden die Übersee-Chinesen weniger eigene Selbstwertschätzung im sozialen Kontakt zu anderen, im Umgang mit Kritik und im leistungsbezogenen Bereich. Überraschenderweise erhielten die Probanden einen höheren Selbstwert in der Sportlichkeit. Die SEE (Skalen zu Erleben von Emotionen) (Behr & Becker, 2004) zeigten, dass die körperliche Symbolisierung von Gefühlen bei der chinesischen Stichprobe niedriger war als bei der deutschen Norm. Dies hing mit der Ausprägung der europäischen Identität zusammen. Negativ korrelierte die europäische Identität auch mit der Regulation von Emotionen. Im FBeK (Fragebogen zur Beurteilung des eigenen Körpers) (Strauß & Richter-Appelt,1995) ging das Körpererleben der Übersee-Chinesen mit weniger Selbstbewusstsein für die eigene Attraktivität einher. Je mehr die Lebensart zum Asiatischen tendierte, desto weniger äußerte sich die Akzentuierung des äußeren Erscheinungsbildes und desto höher erschien die Unsicherheit. Zusammenfassend weisen die Ergebnisse darauf hin, dass die Auslebung einer bikulturellen Identität Folgen für die psychologische Entwicklung eines Individuums mit sich bringen, welche beispielsweise für die Arbeit bei Patienten im psychotherapeutischen Prozess mit berücksichtigt werden sollten.
Die mikroskopische Anatomie sowie die pathologische Anatomie bilden einen wichtigen Baustein der Ausbildung von Medizin- und Zahnmedizinstudenten. Da die zeitlichen und personellen Kapazitäten in den Instituten für Pathologie bzw. Anatomie keine vierundzwanzigstündige Betreuung erlauben, bestand der Wunsch, ein zeit- und ortsunabhängiges webbasiertes und interaktives multimediales Lernprogramm zu entwickeln. Es sollte den Studierenden beim Erlernen der Histologie und Histopathologie helfen und die Präsenzveranstaltungen am Mikroskop und Vorlesungen Ergänzen. Das Lernprogramm wurde mit zahlreichen hochauflösenden Bildern aller histologischen Präparate, die Bestandteil der Histologie- und Histopathologiekurse sind, in verschiedenen Vergrößerungen ausgestattet und in die Kurse des Frankfurter Curriculum für Medizin- und Zahnmedizin integriert. Darüber hinaus wurden alle histologischen Webseiten mit den entsprechenden histopathologischen Seiten verlinkt und umgekehrt. Ein Autorensystem zur Aktualisierung, Korrektur und Erweiterung der Programme wurde entwickelt. Mit der Hilfe der Evaluation durch die Studierenden wurde das System im Verlauf stark verbessert. Die hohe Zahl der Zugriffe auf die Website über das Internet (500.000 – 800.000 im Monat) weist auf die hohe Akzeptanz und Beliebtheit des Programms hin. Im wesentlichen zeigt die vorliegende Arbeit, dass internet-basierte Multimedia-Projekte von Studierenden verwendet werden und ihnen helfen, komplexe Sachverhalte der Histologie und Histopathologie zu erlernen. Die enge Verzahnung zwischen histologischen und histopathologischen Themen und Präparaten ermöglicht Studierenden der vorklinischen Fächer, über krankheitsbedingte Veränderungen zu erfahren, Studierende der klinischen Fächer hingegen können das histologische Basiswissen rekapitulieren. Das Autorensystem kann zur Entwicklung weiterer webbasierter Anwendungen, wie z. B. Virtuelle Mikroskopie oder Wissensprüfungsprogramme für die Histologie/Histopathologie, verwendet werden.
Die Applikation von Medikamenten zur konservativen Behandlung von Patientinnen mit ektopen Schwangerschaften ist weltweit seit vielen Jahren im klinischen Alltag erfolgreich eingesetzt worden. Am erfolgreichsten zeigte sich über die Jahre, die medikamentöse Methotrexatgabe. Dies wurde eindrucksvoll in in-vivo und in in-vitro Studien bewiesen. Ausgangsbedingungen für die vorliegende Untersuchung sind die zahlreichen experimentellen Untersuchungen zur Wirkung von Prostaglandinen auf den mütterlichen Organismus (speziell glatte Muskelzellen der Blutgefäße, des Uterus und Tubenmuskulatur sowie das Corpus luteum) und die zahlreichen klinischen Fallberichte und Studien zur Anwendung von Prostaglandinen zur Behandlung der EUG. In vitro Studien zu der Wirkweise von Prostaglandinen auf ektopes Schwangerschaftsgewebe gibt es nur in geringer Zahl. Da Prostaglandin E2 in der Geburtshilfe einen festen Platz in der Geburtsinduktion und Zervixreifung hat, haben wir Prostaglandin E2 in vitro auf seine Wirkung auf ektopes Trophoblastengewebe untersucht. In der hier vorgelegten Arbeit sollte die Fragestellung überprüft werden, inwieweit eine medikamentöse Wirkung von Prostaglandin E2 Dinoproston auf Trophoblastengewebe aus extrauterinen Schwangerschaften in einem standardisierten Gewebekultursystem besteht. Aus operativ gewonnenen Extrauteringraviditäten des ersten Trimenons wurde Choriongewebe extrahiert, und in unterschiedlichen Konzentrationen der Wirkstoff Prostaglandin E2 Dinoproston 12 Stunden nach Kulturansatz den Gewebekulturen zugesetzt. Eine weitere Choriongewebekulturzellreihe wurde erst am 6. Tag mit Prostaglandin E2 behandelt. Das durch die Throphoblastenzellen sezernierte Humane Chorion Gonadotropin (HCG) wurde den Kulturen alle zwei Tage entnommen und gemessen. Alle Kulturen zeigten Sekretion von HCG innerhalb der ersten 16 Tage. Das Ergebnis dieser Versuchsreihen zeigte, dass weder die unterschiedlichen Prostaglandin E2-Konzentrationen, noch der Zeitpunkt der Zugabe, eine signifikante Auswirkung auf die HCG Sekretion von ektopen Schwangerschaften hat. Die Kontrollgruppe mit intrauterinem Trophoblastenmaterial bestätigt die fehlende Wirkung auf Throphoblastengewebe in der Zellkultur.
Es ist die Hypothese der hier vorgelegten Arbeit, dass bei Asthmatikern oxidativer Stress in der Lunge durch die nichtinvasive Methode der Atemkondensatsammlung und Messung der [H2O2] im EBC erfasst werden kann. Basierend auf dieser Hypothese sollte geprüft werden, inwieweit bei stabilen Patienten mit intermittierendem allergischem Asthma (Grad I, WHO) eine erhöhte [H2O2] im EBC nachweisbar ist und ob es zu einem differenten Anstieg der [H2O2] nach niedrig dosierter Allergenbelastung mit und ohne Supplementation von n-3 PUFA kommt. In dieser Arbeit wurden Patienten mit intermittierendem Asthma und Hausstaubmilbenallergie einbezogen und repräsentierten die Milbenallergikergruppe. Sie wurde in einer randomisierten, doppelblinden und placebokontrollierten fünfwöchigen Studie getestet. Die Patienten erhielten entweder in Gruppe A n-3 PUFA-reiche Kapseln oder in Gruppe B PlaceboKapseln über fünf Wochen. Nach einer dreiwöchigen Aufsättigungsphase wurden die Probanden über zehn Werktage zusätzlich mit niedrig dosiertem Milbenallergen provoziert (FEV1-Abfall 5 %). Atemkondensatuntersuchungen wurden mit Hilfe des ECoScreen® und des ECoCheck® (VIASYS Healthcare GmbH) vor Beginn (V1), nach drei Wochen (V2) und nach der letzten Milbenprovokation (V3) durchgeführt. Zur Erfassung der pulmonalen Entzündung erfasste man zusätzlich bei den genannten Visiten die [eNO] als Kontrollparameter. Weiterhin, zur Erfassung des normalen Verlaufs der [H2O2], wurde bei einer gesunden Kontrollgruppe, die weder provoziert noch supplementiert wurde, die [H2O2] im EBC nach identischem zeitlichen Schema erfasst. In der Milbenallergikergruppe nahmen 30 Patienten und in der Kontrollgruppe 13 Probanden an der Studie teil. Aufgrund technischer Schwierigkeiten und nicht auswertbarer Messwerte, wurden in der Milbenallergikergruppe 17 Patienten und in der Kontrollgruppe neun Probanden zu statistischen Analysen herangezogen. In der Verumgruppe (p = 0,246), der Placebogruppe (p = 0,180) und der Kontrollgruppe (p = 0,185) war kein signifikanter Unterschied hinsichtlich der [H2O2] im EBC zwischen den Visiten vorhanden. Zwischen der Verum- und der Placebogruppe bestand zu keinem Zeitpunkt ein signifikanter Unterschied. In der Milbenallergikergruppe unterschied sich der Verlauf der [H2O2] im EBC deutlich vom Verlauf der [eNO]: Die [H2O2] konnte allenfalls einen Trend (p = 0,101) zwischen den Visiten aufweisen, wobei die [eNO] einen hochsignifikanten (p < 0,001) Unterschied zwischen V3 und V2 aufwies. Es bleibt zum einen offen, ob n-3 PUFA einen antientzündlichen Effekt bei Asthma bronchiale (Grad I, WHO) hat, und zum anderen, inwieweit die Messung der [H2O2] im EBC anhand des ECoCheck® (Fa. VIASYS Healthcare GmbH) als diagnostischer Marker oder zur Verlaufskontrolle bei Asthma bronchiale (Grad I, WHO) geeignet ist.
Das Ziel dieser Arbeit ist eine Darstellung der Etablierung des Films im Bereich der Medizin auf Universitätsebene am Beispiel von Prof. Karl Kleist, Leiter der Psychiatrie in Frankfurt am Main von 1920 bis 1950. Als Primärquellen wurden Akten, Briefe und Filme der Frankfurter Psychiatrie aus der damaligen Zeit gesichtet und ausgewertet. Zusammen mit den Sekundärquellen über Kleist und der Darstellung der politischen Rahmenbedingungen in diesem Zeitraum bildet dies die Grundlage der hier vorliegenden Arbeit. Kleist wurde am 31.Januar 1879 in Mühlhausen im Elsass geboren. Nach dem Medizinstudium in Straßburg, Heidelberg, Berlin und München begann er seine Arbeit 1903 als Assistenzarzt in Halle. Hier lernte er Carl Wernicke kennen, der ihn in seinem weiteren wissenschaftlichen Denken und Vorgehen stark prägte. Es entstand eine neue wissenschaftliche Schule, später bekannt als Wernicke- Kleist- Leonhard- Schule. Nach seiner fünfjährigen Assistenzarztzeit in Halle arbeitete er vorübergehend an Edingers Neurologischem Institut in Frankfurt am Main und im hirnpathologischanatomischen Laboratorium Alzheimers in München innerhalb der Klinik von Emil Kraepelin. Danach wechselte er als Oberarzt an die Nervenklinik in Erlangen, wo er bis 1914 arbeitete. Während des ersten Weltkrieges wurde er in einem Kriegslazarett eingesetzt. Dort sammelte er viele Erfahrungen mit Hirnverletzten. 1916 wurde er Direktor der Psychiatrie in Rostock. 1920 folgte er einem Ruf nach Frankfurt am Main. Kleist wurde Leiter der Städtischen und Universitätsklinik für Gemüts- und Nervenkranke in Frankfurt am Main. Auch nach seiner Emeritierung 1950 war er dort weiter wissenschaftlich tätig. Während der Zeit in Frankfurt am Main förderte er den Film als Lehr- und Forschungsmittel. Zu Beginn wurde er von privaten Stiftungen gefördert, später baute er einen Kontakt zum Medizinisch-Kinematographischen Universitätsinstitut in Berlin auf. Dieses arbeitete eng mit dem Verlag Wissenschaftlicher Filme zusammen. Mit Hilfe dieses Verlages stellte er viele Filme her; als Gegenleistung bekam der Verlag unter anderem die Negative seiner Aufnahmen. Nach dem Konkurs des Verlages kaufte die Deutsche Gesellschaft für wissenschaftliche Filme einen Großteil der Konkursmasse und damit auch Kleists Filme auf. Aufgrund der wirtschaftlichen Verhältnisse konnte das Unternehmen jedoch nicht florieren. Kleist wollte seine aufgenommenen Filme aber wissenschaftlich nutzbar machen und ein umfassendes Archiv von psychiatrischen und neurologischen Filmen erstellen. Kaufen konnte er das Material aufgrund mangelnder finanzieller Möglichkeiten nicht. Er schaffte es allerdings, seine Filme bei der Deutschen Gesellschaft für wissenschaftliche Filme zu vereinen und sie teilweise wissenschaftlich zu nutzen. Bald darauf wurden diese Bestände jedoch von der neu gegründeten Reichsstelle für den Unterrichtsfilm übernommen. Einerseits entsprach diese Zentralisierung Kleists Vorstellungen in Bezug auf eine bessere Übersicht und Nutzung der Filme seines Fachgebietes, andererseits stellte er aber ein fragwürdiges wissenschaftliches Interesse der Reichsstelle für den Unterrichtsfilm fest. Nach dem Krieg erlangte er über viele Umwege den Großteil seiner Filme zurück. Darunter befand sich der in dieser Arbeit exemplarisch analysierte Katatoniefilm. Die Fertigstellung der Filme benötigte damals oft Jahre. Wissenschaftliche Filme mit einer Länge von 15-20 Minuten mit mehreren Sequenzen benötigten bis zur Fertigstellung teilweise über zehn Jahre. Die Gründe hierfür waren vielschichtig. Abgesehen von den technischen Problemen waren Aufnahmen aufwändig und teuer. In die Planung mussten sehr viele Ressourcen investiert werden. Patienten mit seltenen Krankheiten waren für Aufnahmen nicht immer verfügbar und die wirtschaftlichen und politischen Gegebenheiten wie Wirtschaftsdepression und Krieg verminderten die Realisationschancen. Trotz dieser widrigen Umstände schaffte es Kleist eine beachtliche Anzahl an Filmen herzustellen und das Filmwesen zu fördern. Prof. Karl Kleist war ein Gründer des psychiatrischen und neurologischen Films. Er hatte das große Ganze im Blick und strebte stets danach seine Ideale auch im Detail zu verwirklichen.
Die hämatologische Diagnostik wurde in den letzten zwei Jahrhunderten bis zum heutigen Stand stark geprägt und es gibt mittlerweile eine Menge an hämatologischen Diagnostikgeräten. Das Humacount 5 ist ein vollautomatischer hämatologischer Analyzer der mit der Volumetrischen Impedanz Methode Blutbilder erstellt. Ein idealer Einsatzort für das Humacount 5 ist der tägliche Gebrauch sowohl in Ambulanzen als auch auf klinischen Stationen. Es ist ein kompaktes und einfaches Tischgerät, dass auf allen Stationen die für Prävention , Diagnostik, Therapie und Nachsorge Laborwerte benötigen eingesetzt werden kann. Ziel dieser Arbeit war die Testung dieses Gerätes auf Validität, Reliabilität, Objektivität Präzision, Geschwindigkeit und Messgenauigkeit im Vergleich mit der Standardlabormaschine Advia 120. Um auf Häufigkeit und Stärke der Abweichungen zu überprüfen in einem Bereich in dem es äußerst sensitiv arbeiten soll, wurden 50 physiologische Proben benutzt. 250 pathologischen Proben wurden benutzt um eine Auslastung in allen Laborparametern zu erreichen und das Humacount 5 ebenfalls auf Häufigkeit und Stärke der Abweichungen in diesen Bereichen zu überprüfen. Das Humacount 5 liegt mit seinen Werten in einem sehr gutem Variationsbereich die unter den geforderten 5% Abweichintervall liegen. Insgesamt zeigt sich ein sehr gut übereinstimmendes Ergebnis der 22 Laborparameter in der Einteilung auf physiologische Proben und pathologische Proben zwischen dem Advia 120 und dem Humacount 5. In einer zweiten Testreihe wurde die Reliabilität in einem internen Vergleich des Humacount 5 überprüft. Es wurden 50 physiologische und 250 pathologische Proben jeweils zwei mal im Humacount 5 zeitlich direkt hintereinander gemessen. In einer dritten Testreihe werden die 50 physiologischen Proben und die 250 pathologischen Proben verglichen mit einer Messung dieser Proben nach 24 Stunden und in einer vierten Testreihe wurden 10 pathologische Proben jeweils zehn mal hintereinander gemessen. Es haben sich gute Ergebnisse in der Reliabilität und Messgenauigkeit in Bezug auf die Häufigkeit der abweichenden Laborparameter gezeigt. Das Humacount 5 zeigt hierbei besonders, dass in den stark ausgelasteten pathologischen Grenzbereichen der Laborwerte eine sehr hohe Messqualität besteht. Insgesamt betrachtet ist das Humacount 5 also ein sehr valides und reliables Messgerät, das in vielen seiner 22 Laborparameter exzellente Werte abgeliefert hat. Das Gerät wurde in allen Laborparametern vollständig ausgelastet und zeigt sehr sensible Ergebnisse bis in hohe pathologische Werte. Als zweiter Teil der Arbeit wurde der CD4+ Select Test mit einem Standardverfahren in der HIV-Diagnostik, der Flow Zytometrie, verglichen; der CD4+ Select Test ist ein HIVTestverfahren, das CD4 positive Lymphozyten identifizieren und zählen soll. Ziel dieses Teils der Arbeit war die Testung des Verfahrens auf Validität, Reliabilität, Objektivität, Präzision und Messgenauigkeit. Dieses Testverfahren soll vor allem in der HIV Diagnostik und im Patientenmonitoring in der Antiretroviralen Therapie eingesetzt werden. Vor allem ist dieses Testverfahren für die Entwicklungsländer gedacht, die sich das teure Standardverfahren der Flow Zytometrie nicht leisten können. CD4+ Select ist eine kostengünstige aber hochqualitative Alternative für diese Länder. Der CD4+ Select Test wurde validiert anhand bestimmten Kriterien der Firma TriMedCare und auf korrekte Durchführung und korrekte Werte überprüft. Die Blutproben die für die Tests verwendet wurden sind zuvor im Zentrallabor standardisiert gemessen worden. Die CD4 + Werte des CD4+ Select Testverfahrens wurden mit diesen Referenzwerten verglichen. Das Ergebnis des Testverfahrens ist sehr zufriedenstellend und ohne Bedenken in den gewünschten Bereichen einsetzbar. Es ist ein sehr effektiver Test für die CD4+ Lymphozytenbestimmung, der äußerst korrekt arbeitet wenn er sehr sauber durchgeführt wird; außerdem ist er kostengünstig, benötigt wenig Arbeitsaufwand und beinhaltet eine einfache Handhabung. Besonderes Interesse für diese Methode besteht dadurch natürlich in den HIV Ambulanzen und den infektiologischen Fachbereichen.
Der Schreibkrampf ist eine Form der fokalen Dystonie, die durch unwillkürliche Verkrampfungen der Hand beim Schreiben gekennzeichnet ist, wobei es zu abnormen und funktionell beeinträchtigenden Fehlstellungen kommen kann. Hinsichtlich der Pathophysiologie vermutet man neben einer defizienten sensomotorischen Integration eine abnorme kortikale Plastizität. So findet sich bei Schreibkrampf-Patienten eine abnorm verstärkte PAS-induzierte LTP-ähnliche Plastizität (Quartarone et al., 2003). Diese weist wie auch die LTD-ähnliche Plastizität einen Verlust der somatotopen Spezifität auf: Veränderungen der motorkortikalen Erregbarkeit können im Gegensatz zu Gesunden auch durch PAS mit nicht-homologer peripher-elektrischer Stimulation induziert werden (Weise et al., 2006). Darüber hinaus scheint die für das Gleichgewicht von neuronalen Netzwerken notwendige homöostatische Metaplastizität beim Schreibkrampf gestört zu sein, wenn die Interaktion zwischen zwei aufeinanderfolgenden TMS-Protokollen getestet wird, die LTP- und LTD-ähnliche Plastizität hervorrufen (Quartarone et al., 2005). Da es sich beim motorischen Lernen um einen LTP-abhängigen Prozess handelt, war zu vermuten, dass dessen homöostatische Regulierung beim Schreibkrampf ebenfalls gestört ist. Diese Hypothese ist Ausgangspunkt der vorliegenden Untersuchungen. Hierfür wurde die als Modell für assoziative LTP- und LTD-ähnliche Plastizität beim Menschen entwickelte PAS bei 10 Schreibkrampf-Patienten und 10 gesunden bezüglich Alter und Geschlecht angepassten Probanden angewandt. Verschiedene PAS-Protokolle, die entweder eine LTP-ähnliche Steigerung (PAS25ms), eine LTD-ähnliche Reduzierung (PAS10ms) oder keine Veränderung (PAS100ms) der Motorkortex-Exzitabilität induzieren, wurden kombiniert mit einem nachfolgenden motorischen Training, bei dem die Teilnehmer schnellstmögliche Daumenabduktionsbewegungen der rechten Hand über einen Zeitraum von 2x15 Minuten durchführen mussten. Bei den gesunden Probanden führte eine Konditionierung durch PAS25ms- und PAS10ms-Protokolle zu einer homöostatischen Regulierung nachfolgender übungsabhängiger Plastizität mit einer Verschlechterung des motorischen Lernens nach dem fazilitierenden PAS25ms-Protokoll und einer Verbesserung des motorischen Lernens nach einem inhibierenden PAS10ms-Protokoll. Bei den Schreibkrampf-Patienten konnte diese homöostatische Metaplastizität nicht nachgewiesen werden. Zusätzlich korrelierte das Ausmaß dieser Störung (Verlust der Herunterregulierung motorischen Lernens nach Konditionierung mit PAS25ms) mit dem klinischen Schweregrad der Dystonie als behavioralem Korrelat, so dass mit den Ergebnissen der vorliegenden Arbeit die Hypothese gestützt werden kann, dass eine gestörte homöostatische Metaplastizität eine wichtige Rolle in der Pathophysiologie des Schreibkrampfes spielt. Inwieweit sich hieraus auch therapeutische Implikationen bzw. Strategien ableiten lassen, soll in weiteren Studien überprüft werden.
Background: Nicotine, a component of cigarette smoke, has been implicated in the pathogenesis of lung disease. We examined whether nicotine can change the activity of angiotensin-converting enzyme (ACE), an enzyme that plays an important role in the pathophysiology of atherosclerosis and hypertension. Angiotensin converting enzyme, Dipeptidyl-carboxypeptidase is a glycoproteinpeptidyldipeptid-hydrolase, which devided Histidylleucin-dipeptid of angiotensin I, a relatively inactive Dekapeptide. ACE is located on cell surfaces. Highest concentration of ACE are found in lung and kidney. Determination of ACE serum activity is an established tool for diagnosis and therapy control of pulmonary and extrapulmonary disease. The effect of cigarette smoking on ACE serum activity in healthy subjects is subject of controversial discussion. Aim of this study was to evaluate the effect of chronic cigarette consumption on ACE serum activity in healthy subjects. Angiotensin I will be converted in Angiotensin II, a highly vasoconstriktor. In addition ACE inactivates bradykinin. Increased ACE activity values occur in the serum of patients with active sarcoidosis, smokers, in premature babies with respiratory distress syndrome, and in adults with tuberculosis, Gaucher-Syndrom and a number of other medical conditions of the lung. Material and methods: In this study the significance of angiotensin converting enzyme (ACE) was tested in 250 healthy smokers and non smokers aged between 17 and 65 years. Individual smoking habits were ruled out by a questionnaire. The concentration of ACE was founded by measurements on Hitachi 917 Analyzer. Additionally ASAT, ALAT and GT were determined by conventional methods. The following independent variables were studied: investigative material, antikoagulantien influence of drugs and temperature. Result: ACE concentrations were increased identically in smokers and sarcoidosis patients. By a specificity of 95% and sensitivities between 72% and 90% are detected in each of the groups. ACE serum activities were within their normal limits (8-58U/L) in smokers and non smokers. No sex-related differences of ACE activity were observed in non smokers. The values of ACE serum activity were significantly (Kruskal: p<0,001) higher in smokers than in non smokers. Corresponding to differences of smoking habits slight but not significant differences of ACE were observed between male and female smokers. In smokers a strong correlation between individual smoking habits was similar in male and female smokers. Values of all additionally determined laboratory parameters were also within their normal limits. No significant differences were observed for ASAT, ALAT and g GT between smokers and non smokers of both sexes. ACE activity should be measured on the day of blood collection. The influence of temperature on the stability of the material is considerable; the room temperature shows a decrease in concentration. By storage at -20°C and below there is a visible increase in concentration. Conclusion: It is shown that there is an increase of ACE activity as a function of cigarette consummation. Non specific metabolic factors others than smoking can be excluded by normal values of ASAT, ALAT and g GT. The data suggest, that individual smoking habits should be considered for the interpretation of ACE serum activity.
Hintergrund und Problemstellung: Viele vermeidbare Medikamentennebenwirkungen bei älteren Patienten haben ihre Ursache in der fehlenden Dosisanpassung bei Niereninsuffizienz. Beim Patienten über 65 Jahre liegen die Serumkreatininwerte oft noch im Normbereich, während die tatsächliche Nierenfunktion schon deutlich beeinträchtigt ist. Eine genauere Beurteilung der Nierenfunktion ist mit der Berechnung der glomerulären Filtrationsrate möglich. In der vorliegenden Untersuchung wurde in einer Praxisgemeinschaft einer hausärztlich tätigen Internistin und einer Fachärztin für Allgemeinmedizin in Frankfurt retrospektiv exploriert, ob niereninsuffiziente Patienten als solche erkannt wurden und wenn ja, ob sie dosisadaptiert mit Medikamenten versorgt wurden, bzw. in wie vielen Fällen sie fehlerhafte Verordnungen erhielten. Methode: Eine Zielpopulation von 100 Patienten mit moderater bis schwerer Nierenfunktionseinschränkung (Kreatinin-Clearance von 60 oder kleiner) wurde retrospektiv hinsichtlich der verordneten Medikation untersucht. Dabei wurde die glomeruläre Filtrationsrate mittels Cockroft-Gault-Formel errechnet. Bei nierensensiblen Substanzen wurde die in der Fachinformation empfohlene Dosis mit der tatsächlich verordneten Dosis verglichen. Ergebnisse: Die Ergebnisse dieser Untersuchung zeigen, dass von 232 auswertbaren Patienten 102 eine errechnete Kreatinin-Clearance von weniger als 60 ml/min aufwiesen, obwohl bei 48 Patienten der Serumkreatininlevel noch im Normbereich lag. Eine Dosisanpassung wegen Niereninsuffizienz war bei 261 von 613 Verordnungen erforderlich und wurde in 189 Fällen wie empfohlen umgesetzt. In 72 Fällen (27%) wurde sie nicht korrekt durchgeführt. Hier wurde die Dosis 32 mal nicht angepasst, 40 mal wurde trotz Kontraindikation verordnet. Das Risiko einer Fehlverordnung war signifikant assoziiert mit dem Vorliegen einer schweren Nierenfunktionsstörung (GFR < 30ml/min). Mit dem Vorliegen eines normalen Serumkreatininwerts waren keine signifikanten Assoziationen nachweisbar. Die Substanzen Metformin, Ramipril, Enalapril, HCT, Spironolacton und Simvastatin machten den Hauptanteil der Fehlverordnungen im Bereich der Dauermedikation aus. Bei den temporären Verordnungen waren im Schwerpunkt Antibiotika (Cefuroxim, Cefpodoxim, Levofloxacin) und Antiphlogistika (Diclofenac, Ibuprofen) betroffen. Schlussfolgerung: In einer durchschnittlichen Hausarztpraxis kommen in signifikanten Maße Fehlverordnungen vor. Die Gründe hierfür sind vielfältig. Insbesondere das Verschreibungsverhalten von Hausärzten hat eine zentrale Bedeutung für die Patientensicherheit bei Medikamentenverordnung und sollte unbedingt Gegenstand weiterer Untersuchungen sein.
Mesenchymale Stromazellen stellen derzeit eine der vielversprechensten Zellpopulationen dar und werden in Hinblick auf ihre zahlreichen Fähigkeiten und Eigenschaften intensiv erforscht. In dieser Arbeit konzentrierten wir uns auf das für die Behandlung von immunvermittelten Erkrankungen wertvolle immunmodulatorische Potential der mesenchymalen Stromazellen. Dieses ist für standardmäßigplastikadhärent isolierte MSCs vielfach belegt. Der große Nachteil dieser Isolierungsmethode jedoch, ist die Gewinnung nur sehr heterogener Zellpopulationen, was das klonogene, proliferative und möglicherweise auch immunsuppressive Potential dieser Zellen betrifft. Deshalb schien es uns sinnvoll, die Eigenschaften mesenchymaler Stromazellen zu untersuchen, welche nach einer alternativen Selektionsprozedur, die sich des Oberflächenmarkers CD271 (LNGFR) bedient, und homogenere Zellpopulationen von MSCs hervorbringt. Den auf diese Art isolierten und angereicherten MSCs wird in der Literatur bereits ein erhöhtes klonogenes und proliferatives Potential bescheinigt, welches wir im Rahmen dieser Arbeit überprüften und schließlich auch bestätigen konnten. Im Zentrum dieser Dissertation standen jedoch Untersuchungen zum immunsuppressiven Potential dieser alternativselektierten MSCs, welches bis Dato noch nicht erforscht war. Zur Beantwortung der Frage, ob CD271-selektierte MSCs ein vergleichbares oder möglicherweise durch ihre Homogenität erreichtes, verbessertes immunsuppressives Potential auf Immunzellen entfalten, kultivierten wir diese Zellen mit auf unterschiedliche Weise stimulierten PBMNCs und evaluierten darunter deren Proliferationspotential. Wir fanden heraus, dass CD271+-MSCs in bestimmten Konzentrationen ein im Vergleich mit PA-MSCs erhöhtes immunsuppressives Potential auf allogen stimulierte PBMNCs entfalten und dabei in keinem unserer Versuche den standardmäßig selektierten MSCs unterlegen waren. Bei einem Anteil von 50% MSCs an der Zellsuspension vermögen CD271+- MSCs die Proliferation in stärkerem Maße zu inhibieren, als es PA-MSCs tun. Werden MSCs und PBMNCs in gleichem Verhältnis kultiviert, unterscheidet sich das Maß der Inhibition durch die beiden Zelltypen nicht signifikant. Betrug der Anteil der eingesetzten MSCs an der Zellsuspension nur geringe 1%, stimulierten CD271+-MSCs nicht die Proliferation der Lymphozyten, während es unter dem Einfluss von PA-MSCs zu signifikanter Proliferationssteigerung kam. Insgesamt stellte sich das immunmodulatorische Potential der CD271+-MSCs, genau wie das der PA-MSCs als dosisabhängig dar. Je höher der MSC-Anteil an der Zellsuspension, desto höher war das Suppressionspotential auf die Lymphozytenproliferation. Vergleichbare Ergebnisse lieferten Versuche, in denen MSCs zusammen mit IL-2 stimulierten allogenen PBMNCs eingesetzt wurden, was beweist, dass CD271+-MSCs auch maximal stimulierte PBMNCs signifikant proliferativ hemmen können. In Versuchen mit mitogen stimulierten PBMNCs konnten wir nachweisen, dass CD271+-MSCs auch die Proliferation von zuvor mit PHA, ConA und IL-2 stimulierten PBMNCs inhibieren. Im Gegensatz zu PA-MSCs vermochten sie aber nicht, die proliferationsfördernde Wirkung des Staphylokokken-Enterotoxin-B (SEB) aufzuheben. Um den Mechanismen der immunsuppressiven Fähigkeit mesenchymaler Stromazellen näher zu kommen, untersuchten wir drei erst kürzlich beschriebene mögliche Mediatoren der MSCvermittelten Immunmodulation. Wir analysierten die Wirkung mesenchymaler Stromazellen auf regulatorische T-Zellen, auf die Produktion von PGE2 und NO. Unter der Präsenz der MSCs kam es in der Population der allogen-stimulierten PBMNCs zu keiner signifikanten Zu- oder Abnahme an regulatorischen CD4+/CD25+-Zellen. Innerhalb der Population der regulatorischen T-Zellen kam es jedoch unter dem Einfluss der CD271+-MSCs zu einer signifikanten Zunahme der primitiveren Subpopulation CD4+CD25+CD45RA+ T-regulatorischer Zellen, welcher in der Literatur eine robuste suppressive Aktivität nach in vitro-Expansion bescheinigt wird. NO konnten wir durch unsere Untersuchungen als möglichen Mediator der Immunmodulation ausschließen. Es ergaben sich keine signifikanten Unterschiede für den NO-Gehalt in PBMNC-Kulturen, die in Anwesenheit oder Abwesenheit von MSCs inkubiert worden waren. Auch NO-Blockierungsversuche erbrachten keinen Effekt auf die Zellproliferation. Jedoch fanden wir eine signifikant positive Korrelation zwischen der PGE2-Konzentration und dem inhibitorischen Effekt von CD271+-MSCs auf die Proliferation der PBMNCs. Dass das PGE2 in unseren Experimenten das wichtigste Vermittlermolekül des immunsuppressiven Effekts von CD271+-MSCs darstellt, konnten wir zusätzlich in Versuchen mit dem PGE2-Syntheseinhibitor Indomethacin beweisen. In Zusammenschau mit Daten anderer Arbeitsgruppen ist insgesamt die Schlussfolgerung zulässig, dass es sich bei der Immunmodulation durch MSCs um einen komplexen Mechanismus handelt, der sowohl lösliche Faktoren, als auch Immunzellen einschließt und welcher weiterer Erforschung bedarf. Anhand unserer Untersuchungen konnten wir zeigen, dass CD271-selektierte MSCs neben der verbessert klonogenen und proliferativen Aktivität eine teilweise erhöhte und mindestens ebenbürtige immunsuppressive Fähigkeit, verglichen mit den nach Standard angereicherten MSCs, aufweisen. Letztlich befürworten und bestärken unsere Ergebnisse einen Einsatz CD271-angereicherter mesenchymaler Stromazellen zur Behandlung immunvermittelter Erkrankungen und versprechen eine vielseitige Verwendung dieser Zellen in Zukunft. Die vorliegende Arbeit leistet einen wichtigen Beitrag zur notwendigen Standardisierung und Weiterentwicklung der Gewinnung und Anreicherung funktionsfähiger mesenchymaler Stromazellen und zum sicheren und raschen Einsatz dieser Zellen im klinischen Gebrauch. Weil es sich bei den vorgestellten Ergebnissen allerdings ausschließlich um ex vivo Experimente handelt, sind weitergehende Untersuchungen im Tierexperiment notwendig.
In der vorliegenden Arbeit konnten wir in den einzelnen Lipidfraktionen die gleichen Unterschiede zeigen, die bereits in anderen Untersuchungen aufgezeigt worden waren. Vor allem in den Phospholipiden, im Plasma und in den Erythrozyten ließen sich für die cis-Linolensäure (C18:2ω6c), die Arachidonsäure (C20:4ω6) und die Docosahexaensäure (C22:6ω3) Erniedrigungen beschreiben. Auch in den Cholesterylestern und den Triglyceriden, die als direkte Nahrungsfette gewertet werden können, zeigt sich diese Verteilung, so dass von einer Unterversorgung mit diesen Fettsäuren ausgegangen werden muß. Die Ergebnisse zeigen, dass bereits wenige Fettsäuren zur Beurteilung der Fettsäure-Situation bei Cystische Fibrose-Patienten ausreichen, so dass in Folgeuntersuchungen auf die Auswertung bei Cystische Fibrose-Patienten aller Fettsäuren verzichtet werden kann. Die Gruppen sollten zur Stabilisierung und besseren Reproduzierbarkeit der Werte vergrößert werden. In Folgeuntersuchungen sollte die Ernährung und der Ernährungstatus dokumentiert werde. Die Patienten in unserer Gruppe hatten alle die gleiche Mutation (ΔF 508) und waren adäquat ernährt. Im Einzelnen lässt sich jedoch nicht mehr sagen in welcher Form und Menge Fett zugeführt worden waren. Die Verteilungsmuster in den Triglyceriden und den Cholesterylestern lassen jedoch eindeutig, wie schon in der Literatur beschrieben, auf einen essentiellen Fettsäuremangel schließen. Keiner der Patienten erhielt eine zusätzliche Substitution mit ultralangkettigen mehrfach ungesättigten Fettsäuren der ω3/ω6- Familien. Es lässt sich nur mit Hilfe der Literatur diskutieren welche Ursachen bei unseren Patienten für den essentiellen Fettsäuremangel verantwortlich sind, da unsere Arbeit lediglich eine Erhebung über den Ist-Zustand darstellt. Für die Klärung der Malabsorption müssten Untersuchungen angeschlossen werden, die mit einer Substitution von ultralangkettigen mehrfach ungesättigten Fettsäuren einhergehen. Das Membranverhalten und Rezeptorverhalten kann über die Messung der Phospholipide konkretisiert werden. Im Bezug auf die inflammatorische Antwort könnten die Leukotriene und andere Mediatoren der inflammatorischen Antwort parallel gemessen werden. Als weiteres Ergebnis zeigten sich bei den von uns untersuchten Cystische Fibrose-Patienten im Vergleich zur Kontrollgruppe keine oder nur in Spuren vorhandene trans-Fettsäuren.
Nikotinabhänigkeit und -abstinenz sind mit erniedrigtem bzw. erhöhtem Körpergewicht assoziiert. Dem Nucleus arcuatus kommt eine Schlüsselrolle bei der Körpergewichtsregulation zu, und es wurde bereits gezeigt, dass eine inadäquate Genexpression in diesem hypothalamischen Kerngebiet zu Adipositas führen kann. Obwohl bekannt ist, dass Nikotin die Genexpression im Hypothalamus beeinflussen kann, sind die genauen Mechanismen, die zu den anorektischen Effekten führen, noch weitgehend unbekannt. Diese Studie wurde durchgeführt, um eine Methode zu etablieren, mit der umfassende und informative Genexpressionsprofile im Nucleus arcuatus - unter anderem - in Abhänigkeit von Nikotinwirkungen erstellt werden können. Hierzu wurden Microarrays mit einer limitierten Zahl an Genen hergestellt, für die teilweise bereits Informationen zu Nikotin-abhängiger Gegenregulation verfügbar waren. Fünfundzwanzig Fischer-Ratten wurden miniosmotische Pumpen implantiert, die entweder Nikotin (9mg/kg Körpergewicht/ Tag) oder physiologische Kochsalzlösung freisetzten. Nach einer Woche wurde ein Teil der Tiere getötet, während bei den übrigen Tieren die Effekte einer dreitägigen Nikotinabstinenz untersucht wurden. Die Nikotinbehandlung war mit einer reduzierten Gewichtszunahme sowie einer erhöhten Rektaltemperatur (p=0,001) assoziiert. Die Nikotinabstinenz führte dagegen zu einer gesteigerten Gewichtszunahme (p=0,012), einer erniedrigten Rektaltemperatur sowie einer höheren Serumglukosekonzentration (p=0,028). Für die Serumkonzentrationen von Insulin, Leptin, Cholesterin oder Triglyceriden konnten keine signifikanten Unterschiede aufgezeigt werden, was möglicherweise aber auf die relativ geringe Anzahl an Versuchstieren zurückzuführen ist. Mit den Microarray-Studien ließen sich die vorbeschriebenen Daten für die Nikotin-abhängige Regulation der Genexpression von NPY sowie teilweise auch von POMC bestätigen. Darüberhinaus konnten neue Informationen im Hinblick auf die Nikotinabhängige Regulation der Genexpression von AGRP, LepRb, Insulinrezeptor, MC3R, NPY-Y5-Rezeptor, Prohormone-Convertase-1, POMC und SOCS-3 gewonnen werden. Zusätzlich zu den neuen Daten stellen wir somit einen methodischen Ansatz vor, mit dem Expressionsprofile für viele hundert hypothalamischen Genen in Abhängigkeit von Manipulationen des Körpergewichts erstellt werden können, um so dann tiefgreifende Einsichten in die neuronalen molekularen Mechanismen der Körpergewichtskontrolle nehmen zu können.
Determinanten der Langzeitprognose von Patienten mit implantierbaren Cardioverter-Defibrillatoren
(2010)
Die Effektivität der ICD-Therapie in der Verhinderung des Plötzlichen Herztodes ist unbestritten. Implantierbare Defibrillatoren können ventrikuläre Tachykardien und Kammerflimmern mit hoher Sicherheit beenden und damit den Plötzlichen Herztod mit sehr hoher Wahrscheinlichkeit verhindern. Die vorliegende Studie untersuchte Determinanten der Langzeitprognose von Patienten nach ICD-Implantation. Dabei zeigte sich in unserer Studie bei einer jährlichen Mortalität von 7,2% eine Sterblichkeit am Plötzlichen Herztod von < 1% pro Jahr, was den Nutzen des ICD unterstreicht. Bei der Analyse der Mortalitätsparameter waren ein hohes Alter der Patienten, fortgeschrittene Herzinsuffizienz mit entsprechendem NYHA-Stadium sowie eine deutlich eingeschränkte linksventrikuläre Ejektionsfraktion gute Vorhersagevariablen für die Prognose nach ICD-Implantation mit hohem prädiktiven Wert für die Mortalität. Ebenso scheint die ICD-Indikation ein wichtiger Parameter für die Langzeitprognose zu sein (sekundärprophylaktisch ICD-implantierte Patienten verstarben signifikant häufiger als Patienten, die zur Primärprophylaxe mit einem ICD versorgt wurden), primärprophylaktische Patienten stellen ein Patientenkollektiv mit per se besserer Prognose dar. Bezüglich der Auswertung des Auftretens adäquater Therapien erwiesen sich männliches Geschlecht, hohes Alter, Einnahme antiarrhythmischer Medikation sowie die sekundärprophylaktische ICD-Indikation als bedeutsame Parameter für eine erhöhte ICD-Interventions-Wahrscheinlichkeit. Zur Frage der prognostischen Bedeutung adäquater Therapien zeigte sich, dass im Auftreten adäquater Therapien ebenfalls eine gute Vorhersagevariable für die Langzeitprognose zu sehen ist. Die Auftretenswahrscheinlichkeit von adäquaten ICD-Therapien korrelierte jedoch nichtsignifikant mit dem Plötzlichen Herztod und somit scheinen vorhergehende ICD-Interventionen kein erhöhtes Risiko für diesen darzustellen. Die technische Weiterentwicklung hat in den letzten Jahren zu einer Größenreduktion der ICD´s, zur Vereinfachung der Systemimplantation mit verschwindend geringen peri- und postoperativen Komplikations- und Mortalitätsraten sowie durch die Verlängerung der Systemlebensdauer zum zunehmenden Einsatz von implantierbaren Defibrillatoren als bevorzugte Therapieform mit unbestrittener Effektivität in der Terminierung lebensbedrohlicher Arrhythmien, geführt. Trotzdem wären zukünftig prospektive Studien zur weiteren Risikostratifizierung und Evaluation möglicher diagnostischer Marker zur noch genaueren Abgrenzung von Hochrisikopatienten wünschenswert. Zukünftiges Ziel sollte es zudem sein, diejenigen Patientenpopulationen sicher zu identifizieren, die zwar ein geringeres individuelles Risiko haben dem Plötzlichen Herztod zu erliegen, jedoch absolut gesehen häufiger daran versterben.
Das C-reaktive Protein (CRP) ist ein systemischer Marker für unspezifische Infektionen und wird bei einer Entzündungsreaktion in der Leber produziert. Seine Serum-Konzentration steigt im Rahmen einer Immunreaktion innerhalb von 24 - 48 Stunden auf ein vielfaches an und induziert zahlreiche Prozesse des Immunsystems. Erhöhte CRP-Werte konnten als Risikofaktor für kardiovaskuläre Erkrankungen identifiziert werden. Zahlreiche Querschnittsstudien konnten erhöhte Serum-CRP-Werte bei Parodontitispatienten im Vergleich zu gesunden Kontrollpersonen finden. Der Anstieg des Serum-CRP könnte ursächlich an den Zusammenhängen zwischen Parodontitis und kardiovaskulären Erkrankungen beteiligt sein. Die Neutrophile Elastase ist ein weiterer systemischer Parameter, der im Rahmen chronischer Entzündungsreaktionen, wie der chronischen obstruktiven Lungenerkrankung (COPD), erhöhte Werte annimmt. Zahlreiche Studien konnten erhöhte Leukozytenzahlen bei Parodontitispatienten finden. Bisher wurde von den meisten Studien die Erhöhung des CRP-Wertes, sowie weiterer anderer Entzündungsparameter im Zusammenhang mit Parodontitis untersucht. Nach unserem Kenntnisstand konnten lediglich erhöhte Elastase-Werte im Zusammenhang mit Gingivitis gezeigt werden. Ziel der Untersuchung: Vergleich der Entzündungsparameter (CRP, Elastase, Leukozytenzahl, LBP, IL-8, IL-6) bei parodontal gesunden Probanden (Pro) und Patienten mit aggressiver (AgP) und chronischer Parodontitis (ChP). Methode: Es wurden 30 Pro (Sondierungstiefe (ST) < 3,6 mm oder < 5 mm ohne Bluten auf Sondieren (BOP), BOP < 10 %), 31 Patienten mit ChP (ST ≥ 3,6 mm und Attachmentverlust (AL) ≥ 5 mm ≥ 30 % der Stellen, Alter ≤ 35 Jahre) und 29 Patienten mit AgP (klinisch gesund (d.h. keine Allgemeinerkrankungen, die für Parodontitis prädisponieren), ST ≥ 3,6 mm > 30 % der Stellen, röntgenologischer Knochenabbau von ≥ 50 % der Wurzellänge an ≥ 2 Zähnen, Alter ≥ 18 Jahre und ≤ 35 Jahre) wurden klinisch auf folgende parodontologische Parameter untersucht: Entzündungsbefund, Plaquebefund, ST, AL, BOP. Bei allen Patienten wurde der BMI erhoben und Blutproben zur Bestimmung von CRP (untere Nachweisgrenze: 0,01 mg/dl), Elastase, Leukozytenzahl, LBP, IL-8 und IL-6 entnommen. Ergebnisse: Es wurden 30 Pro (16 Frauen, 8 Raucher), 31 Patienten mit ChP (12 Frauen, 10 Raucher) und 29 Patienten mit AgP (16 Frauen, 9 Raucher) eingeschlossen. Die Ergebnisse der CRP-Konzentration (Pro: 0,10 ± 0,12; ChP: 0,17 ± 0,23; AgP: 0,55 ± 0,98 mg/dl [p < 0,001]), der Elastase-Werte (Pro: 10,0 ± 4,7; ChP: 17,1 ± 12,3; AgP: 32,0 ± 14,6 mg/dl [p < 0,001]) unterschieden sich in allen drei Gruppen signifikant, wohingegen keine signifikanten Unterschiede in der Leukozytenzahl und der Konzentrationen von IL-8 festzustellen war. Die Werte für LBP (p < 0,01) waren signifikant höher in der AgP-Gruppe als in der Pro-Gruppe und der ChP-Gruppe (Pro = ChP < AgP). Die IL-6 Konzentration war in der Kontrollgruppe signifikant niedriger (p < 0,001) als in den Testgruppen (Pro < ChP = AgP). Die unterschiedlichen CRP-Werte in den Testgruppen sind teilweise durch den BMI zu erklären (p = 0,003). Schlussfolgerung: Die Konzentrationen für Serum-CRP und Elastase sind signifikant erhöht bei Patienten mit aggressiver Parodontitis im Vergleich zu parodontal gesunden Probanden als auch zu Patienten mit chronischer Parodontitis. Erhöhte Serum-CRP-Werte könnten bei Patienten mit aggressiver Parodontitis zu einem erhöhten kardiovaskulären Risiko beitragen.
Seit Einführung der Operationen mit HLM vor etwa 50 Jahren haben zahlreiche Veränderungen von Komponenten zu Fortschritten bezüglich einer verbesserten Biokompatibilität der EKZ geführt (Daniel S 1996; Gu Y 1993). Die EKZ ist nach wie vor eine Voraussetzung für die Mehrzahl der Herzoperationen und ist mit einer systemischen inflammatorischen Reaktion verbunden (SIRS), welche für eine postoperative Organdysfunktion verantwortlich sein kann. Herz-, Lungen- und Nierenfunktion als auch Gerinnungssystem sind in verschiedenem Ausmaß betroffen (Kirklin JK (1983); Westaby S 1987). Dieser Ganzkörperschaden ist ein multifaktorieller Prozess, der hauptsächlich durch den Kontakt von Blut mit fremden Oberflächen verursacht wird und sowohl zu einer Aktivierung der Leukozyten als auch der Komplementkaskade führt (Gourlay T 2001; Levy JH 2003). In Zeiten der minimal-invasiven Herzchirurgie besteht nun nicht nur die Absicht, das chirurgische Trauma zu reduzieren, sondern auch die pathologischen Auswirkungen der EKZ zu minimieren. Deshalb führten neuartige Konzepte und Strategien zur Entwicklung minimierter extrakorporaler Zirkulationssysteme, die vor allem durch reduzierte Fremdoberflächen und geringeres Primingvolumen charakterisiert sind (von Segesser LK 2003). Das CorX™ System folgt diesem Konzept und besteht aus einem geschlossenen System mit sehr geringere Oberfläche, einer integrierten Pumpe mit Oxygenator und einem Luftelimierungssystem. Außerdem wird weder ein Kardiotomie-Reservoir noch eine perikardiale Saugung verwendet, um den zusätzlichen Blutluftkontakt zu vermeiden. Das Ziel dieser Untersuchung war, dass CorX™ System in einer prospektiv randomisierten Studie mit einer konventionellen HLM in Bezug auf perioperative klinische und biochemische Parameter bei koronararteriellen Bypassoperationen in einem Niederigrisiko Patientenkollektiv zu vergleichen. 200 Patienten wurden entweder der CorX™ System-Gruppe (n = 100, Gruppe A) oder der Standard-HLM-Gruppe (n = 100, Gruppe B) zugeteilt. Neben der Auswertung von perioperativen Daten und routinemäßigen Blutproben waren vor allem die Lungenfunktion und der Myokardschaden Gegenstand dieser Untersuchung. Die PMNElastase und TCC dienten dazu, die inflammatorische Reaktion zu beurteilen. Demographische und operative Patientendaten unterschieden sich zwischen beiden Gruppen nicht, sie waren daher vergleichbar. Die postoperative Lungenfunktion zeigte postoperativ keinen signifikanten Unterschied in beiden Gruppen. Zwar war der Oxygenierungsindex in der ersten postoperativen Messung in der CorX-Gruppe signifikant niedriger, dies hatte aber keine Auswirkungen auf die Ergebnisse der Lungenfunktionstests am 5. postoperativen Tag. In der CorX™-Gruppe beobachteten wir verminderte CK-MB Werte postoperativ, was auf einen signifikant niedrigeren Herzmuskelzelluntergang hinweist. Auch dieses Ergebnis hatte aber keine klinische Relevanz. Eine Stunde nach HLM waren sowohl PMN-Elastase als auch TCC signifikant niedriger in Gruppe A im Vergleich zu Gruppe B (PMNE:76±44ng/ml vs 438±230ng/ml, p<0,0001; TCC: 16±8IU/ml vs 29±19IU/ml, p<0,0001). Dies zeigt eine deutlich verminderte inflammatorische Reaktion in der CorX-Gruppe auf, welche sich aber klinisch in diesem Niedrigrisikopatientengut nicht ausgewirkt hat. Die klinischen Ergebnisse hinsichtlich Morbidität und Mortalität, Intensiv- und Krankenhausaufenthalt waren nicht signifikant unterschiedlich im Gruppenvergleich. Das CorX™ System ist sicher und erfordert nur eine kurze Trainingsperiode für das chirurgische Team. Es wurde von den Kardiotechnikern gut angenommen und sogar gegenüber der konventionellen HLM favorisiert. Die inflammatorische Reaktion nach EKZ war signifikant reduziert, jedoch gab es bei Niedrigrisikopatienten keinen messbaren Unterschied bei Betrachtung der klinischen Ergebnisse. Die Reduktion der inflammatorischen Reaktion durch den Einsatz einer minimierten HLM könnte bei Hochrisikopatienten aber von großer Bedeutung sein.
Eine Autoimmunreaktion impliziert Verlust der Autotoleranz und ermöglicht Immunreaktionen gegen körpereigene Antigene. Bei autoimmuner Erkrankung der Schilddrüse Typ M. Basedow führt die Aktivierung von T-Lymphozyten zur vorübergehenden und sequentiellen Expression von spezifischen Molekülen auf der Zelloberfläche, z.B. CD25 oder HLA-DR. Dass die CD4+CD25+-, CD8+CD25+-Zellen sowie HLA-DR-positive T-Zellen eine wesentliche Rolle in der Autoimmunität der Schilddrüse haben, ist erwiesen. Dennoch sind die genauen pathophysiologischen Mechanismen ungeklärt. Zusätzlich haben mehrere Studien eine Erhöhung der B-Zellen, insbesondere die Erhöhung der Anzahl von CD19+CD25+-Zellen bei Ophtalmopathie, sowie eine Erhöhung der zytotoxischen Aktivität der NK-Zellen beschrieben. Ziel der vorliegenden Arbeit war es, mit Hilfe der Durchflusszytometrie die Veränderungen in der Expression von Aktivierungsmarkern CD25, HLA-DR und CD94 auf peripheren und intrathyreoidalen Lymphozytensubpopulationen bei M. Basedow und Struma zu bestimmen. Im ersten Teil der Arbeit wurden periphere Lymphozytensubpopulationen von M. Basedow, Struma, und Kontrollgruppe untereinander verglichen. Die Analyse von peripheren T-Helferzellen CD3+CD4+CD25- zeigte sowohl bei M. Basedow- als auch bei Struma-Patienten eine signifikant niedrigere Anzahl im Vergleich zur Kontrolle, während die peripheren CD3+CD4+CD25+-Zellen signifikant höhere Werte gegenüber der Kontrollgruppe aufwiesen. Im Rahmen der Untersuchung traten die peripheren aktivierten B-Zellen (CD45+CD19+CD25+) sowie peripheren NK-Zellen (CD45+CD56+CD94-, CD45+CD56+CD94+, CD45+CD8-CD56+, CD45+CD3-CD56+ und NK-T-Zellen (CD45+CD8+CD56+, CD45+CD3+CD56+) bei Struma in eine signifikant erhöhten Anzahl im Vergleich zur Kontrolle auf. Die nicht aktivierten B-Zellen (CD45+CD19+CD25-) zeigten bei Patienten mit M. Basedow eine signifikante Erhöhung der Anzahl verglichen mit der Strumagruppe. Diese Ergebnisse zeigen deutliche Unterschiede in den Aktivierungsmustern von M. Basedow und Struma gegenüber der Kontrolle. Somit kann man bei beiden Erkrankungen über eine immunologische Reaktion in der Peripherie sprechen, die sich deutlich von der bei gesunden unterscheidet. Dennoch war in der Peripherie bei M. Basedow-Patienten die Aktivierung von B-Zellen, wahrscheinlich autoimmun bedingt, beeinträchtigt. Im zweiten Teil der Arbeit wurden intrathyreoidale Lymphozytensubpopulationen von M. Basedow- und Struma-Patienten untereinander verglichen. Die Anzahl der intrathyreoidalen CD3+CD4+CD25--Zellen von M. Basedow war signifikant höher im Vergleich zu Struma, andererseits waren die Werte der CD45+CD19+CD25+-Zellen signifikant niedriger. Zusätzlich wurde bei M. Basedow-Patienten eine Analyse der Verhältnisse zwischen aktivierten und nicht aktivierten intrathyreoidalen Lymphozytensubpopulationen durchgeführt. Der Anteil nicht aktivierter T-Helferzellen (CD4+CD25-), zytotoxischer Zellen (CD8+CD25-) und B-Zellen (CD19+CD25-) war höher als der Anteil aktivierter T-Helferzellen (CD4+CD25+), zytotoxischen Zellen (CD8+CD25+) und B-Zellen (CD19+CD25+). Die hier vorgestellten Ergebnisse legen nahe, dass die Fähigkeit der CD4+CD25+-Zellen, die Proliferation von CD4+CD25--Zellen zu unterdrücken, bei M. Basedow-Patienten beeinträchtig ist. Dies führt bei diesen Patienten zu einer Zunahme der CD4+CD25--Subpopulation. Die Änderung der Verhältnisse von intrathyreoidalen aktivierten zu nicht aktivierten T-Helferzellen scheint hierbei mit der Entwicklung von M. Basedow assoziiert zu sein. Im dritten Teil der Arbeit wurden periphere und intrathyreoidale Lymphozyten von M. Basedow gegenübergestellt. Die Anzahl von intrathyreoidalen aktivierten zytotoxischen Zellen von M. Basedow mit dem Phänotyp CD3+CD8+CD25+ war erhöht im Vergleich zur Peripherie. Derselbe Vergleich wurde auch bei Struma durchgeführt. Dabei zeigten die intrathyreoidalen CD3+CD4+HLA-DR+- CD3+CD4+CD25+- CD3+CD8+CD25+- und CD3+CD8+HLA-DR+-Zellen sowie CD45+CD56+CD94--NK-Zellen höhere Werte als Periphere. Somit konnten wir zeigen, dass bei M. Basedow die Aktivierung von CD3+CD4+HLA-DR+- CD3+CD4+CD25+- und CD3+CD8+HLA-DR+-Zellen in der Schilddrüse unterdrückt ist. Dies könnte als Unterscheidungsmerkmal zwischen M. Basedow und Struma wichtig sein. Im vierten Teil der Arbeit wurden die peripheren und intrathyreoidalen Lymphozyten nach der Kultivierung mit Thyreozyten verglichen. Die Kultivierung von peripheren CD3+CD4+HLA-DR--Zellen mit Thyreozyten von Patienten mit M. Basedow bzw. Struma zeigte eine Vermehrung dieser Zellen im Vergleich zur Kultivierung ohne Thyreozyten. Die Struma-Patienten zeigten jedoch bei Kultivierung mit Thyreozyten höhere Anzahlen von intrathyreoidalen aktivierten T-Helferzellen (CD3+CD4+HLA-DR+) und zytotoxischen Zellen (CD3+CD8+HLA-DR+), als kultiviert ohne Thyreozyten. Aufgrund der Ergebnisse in diesem Teil der Arbeit kann angenommen werden, dass ein hemmender Einfluss von Thyreozyten auf intrathyreoidalen CD3+CD4+HLA-DR+- und CD3+CD8+HLA-DR+ -Zellen bei M. Basedow vorhanden ist.
Verschiedene Studien konnten bereits demonstrieren, dass Versuchspersonen dazu tendieren, ihre Aufmerksamkeit eher zu Gesichtern mit bedrohlichem Ausdruck als zu solchen mit neutralem Ausdruck zu orientieren. In der vorliegenden Studie wurde mittels neurokognitiver Verhaltensexperimente versucht, diesen als „Attentional Bias“ in Millisekunden messbaren Ef-fekt zu replizieren und unter Wahrnehmungsbedingungen von unbewusst bis bewusst zu un-tersuchen. Entscheidend war hierbei, in wie weit die verschiedenen Wahrnehmungsbedingun-gen zu einem Attentional Bias unterschiedlicher Stärke oder sogar verschiedener Polarität führen, i.e. einer Hinwendung oder einer Abwendung der Aufmerksamkeit gegenüber bedrohlichen Gesichtern. Die Gegenüberstellung von bewusster und unbewusster Wahrnehmung bedrohlicher Gesichter stand hierbei im Kontext der Hypothese, dass unbewusst und bewusst wahrgenommene bedrohliche Gesichter über zwei verschiedene neuroanatomische Wege verarbeitet werden und deshalb die Orientierung der Aufmerksamkeit unterschiedlich beeinflussen. Zur Messung des Attentional Bias wurde die „Dot-Probe-Aufgabe“ verwendet. Um die verschiedenen Wahrnehmungsbedingungen zu stellen wurden dabei vier verschiedene Präsenta-tionszeiten (17, 34, 100 und 400 ms) sowie die Technik der Rückwärtsmaskierung benutzt. Da in anderen Studien häufig ein Einfluss der Ängstlichkeit von Probanden auf deren Aufmerksamkeitsorientierung dargestellt werden konnte, wurde auch eine Gruppierung der Probanden in hoch-, niedrig- und durchschnittlich ängstliche vollzogen; dies jedoch primär in dem Interesse, die Ängstlichkeit als entscheidende Einflussgröße ausschließen und möglichst allgemeingültige Aussagen machen zu können. Unter unbewusster Wahrnehmung (17 ms Präsentationszeit) zeigte sich ein signifikanter, negativer Attentional Bias von -5,46 ms (t (29) = -2,57, p = 0,02), hingegen waren die Attentional Bias-Werte bei den längeren Präsentationszeiten nicht signifikant von Null verschieden. Für die Präsentationszeit als eigener Faktor zeigte sich ein marginal signifikanter Einfluss auf den Attentional Bias (F (3, 87) = 2,20, p = 0,09). Die nach Gruppierung der Probanden in über-, unter- und durchschnittlich ängstliche erfolgte Auswertung konnte sowohl für die unter- wie auch die überdurchschnittlich ängstlichen Probanden (nicht jedoch für die durchschnittlich ängstlichen) einen Trend zu einer Abwendung der Aufmerksamkeit von bedrohlichen Gesichtern bei unbewusster Wahrnehmung zeigen. Angesichts dieses Befundes bleibt offen, wie sehr die Gesamtergebnisse gerade durch diese Gruppen geprägt worden sind. Die Ergebnisse lassen darauf schließen, dass unter Bedingungen unbewusster Wahrnehmung bedrohliche Gesichter zu einer Abwendung der Aufmerksamkeit (negativer Attentional Bias) führen. Dies steht im klaren Kontrast zu den Ergebnissen von Mogg und Bradley (1999a) und Fox (2002). Es wird somit in Frage gestellt, dass bedrohliche Gesichter bei unbewusster Wahrnehmung Aufmerksamkeit auf sich ziehen und nicht zu einer Abwendung dieser führen. Weiter deuten die Ergebnisse darauf hin, dass bei zunehmendem Einfluss bewusster Wahrnehmung zwischen bedrohlichen und neutralen Gesichtern kein Unterschied bezüglich ihrer Wirkung auf die Aufmerksamkeitsorientierung besteht. Verschiedene Ansätze werden hier als mögliche Erklärung eines negativen Attentional Bias bei unbewusster Wahrnehmung diskutiert. Die unterschiedliche Richtung der Aufmerksamkeitsorientierung unter bewusster im Vergleich zu unbewusster Wahrnehmung spricht für eine frühe, unbewusst erfolgende, grobe Ver-arbeitung bedrohlicher Gesichter, sowie eine später erfolgende, komplexere Verarbeitung die-ser, welche mit einer Neubewertung einhergeht. Im Kontext der bestehenden Literatur macht das Ergebnis der Studie deutlich, dass die Zusammenhänge zwischen der Orientierung unserer Aufmerksamkeit, emotionalen visuellen Eindrücken und unserem Bewusstsein noch nicht ausreichend geklärt sind. Es bedarf weiterer Forschung
Einleitung: Eine frühe Unterscheidung zwischen ischämischem Schlaganfall und intrazerebraler Blutung durch die Verwendung eines Biomarker-Tests könnte bereits in der prähospitalen Phase eine fallspezifische Akuttherapie ermöglichen. Basierend auf einzelnen Messungen in der Akutphase des Schlaganfalls konnten wir zeigen, dass ein Anstieg des sauren glialen Faserproteins (GFAP) im peripheren Blut von Patienten mit intrezerebraler Blutung wesentlich früher messbar ist als bei Patienten mit ischämischem Schlaganfall. Das Ziel der vorliegenden Studie war, das diagnostische Zeitfenster des Serum- GFAP- Spiegels zur Differenzierung zwischen intrazerebralen Blutung und ischämischen Schlaganfall zu charakterisieren. Materialien und Methoden: In diese prospektive Studie wurden 63 Schlaganfallpatienten eingeschlossen, die innerhalb von 6 Stunden nach Symptombeginn in der Klinik eintrafen. Mithilfe bildgebender Verfahren wurde bei 18 dieser Patienten eine intrazerebrale Blutung und bei 45 der Patienten ein ischämischer Schlaganfall diagnostiziert. Zu den Zeitpunkten von 1, 2, 3, 4, 6, 12, 24 und 48 Stunden nach Symptombeginn wurden den Patienten Blutproben entnommen (wenn sie zu dieser Zeit zur Verfügung standen). Im Serum dieser Proben wurde mittels eines ELISA-Tests die GFAP-Konzentration bestimmt. Ergebnisse: Innerhalb der ersten 24 Stunden nach Symptombeginn blieben die medianen GFAP-Werte im Serum der Ischämie-Patienten unterhalb der Nachweisgrenze. Die GFAP-Konzentrationen im Serum von Patienten mit intrazerebraler Blutung hingegen waren bereits im Zeitraum zwischen 2 und 6 Stunden nach Symptombeginn signifikant höher als beim ischämischen Schlaganfall. (p<0,001 für alle 4 Zeitpunkte). Unter der Verwendung der receiver operating characteristic curve Analyse lag die diagnostische Sicherheit von GFAP zur Differenzierung zwischen ischämischem und intrazerebraler Blutung bei >0,80 innerhalb des 2-6 Stunden Zeitfensters. Die GFAP-Werte von Patienten mit intrazerebraler Blutung korrelierten zum Zeitpunkt zwei Stunden nach Symptombeginn mit dem Blutungsvolumen (r=0,755, p=0,007). Zusammenfassung: In dieser Untersuchung konnte gezeigt werden, dass das Zeitfenster von 2-6 Stunden nach Symptombeginn bezüglich der Verwendung eines GFAP-Tests für die Differenzierung zwischen ischämischem Schlaganfall und intrazerebraler Blutung geeignet zu sein scheint. In der sehr frühen Phase des Schlaganfalls (etwa <2 Stunden) ist die Sensitivität des Tests zur Erkennung intrazerebraler Blutungen jedoch eher gering, was die Verwendung eines GFAP-Tests in der prähospitalen Phase limitiert.
Die akustische Mikroskopie stellt ein neuartiges bildgebendes Verfahren zur zerstörungsfreien Werkstoffprüfung dar, das erst seit kurzem in der Medizin eingesetzt wird und bei dem reflektierte Ultraschallwellen zur Bilderzeugung verwendet werden. Auf diese Weise können neue Informationen bezüglich der Materialparameter des untersuchten Gewebes erlangt werden. Neben einer enorm großen Bandbreite an möglichen Auflösungen bietet diese Technik die Möglichkeit, opake Objekte zu durchdringen und ihr Inneres abzubilden. Durch seine nicht-destruktive Art und die Notwendigkeit einer Kopplungsflüssigkeit bietet diese mikroskopische Methode zudem die Option lebende Zellen und Gewebe zu untersuchen. Das Ziel der durchgeführten Arbeit war es, die Interpretation von akustischen Bildern des menschlichen Gewebes zu erleichtern. Zu diesem Zweck analysierten wir SAM-Abbildungen von Knochengewebe im Vergleich zu anderen Untersuchungsverfahren. Neben einer qualitativen Bewertung der Morphologie gleichartiger Strukturen wurden ausgedehnte morphometrische Messungen und energiedispersive Röntgenanalysen durchgeführt. Als Methoden für den qualitativen Vergleich wurden konventionelle mikroskopische Techniken wie Polarisations-, Fluoreszenz-, Durchlicht-, Auflicht- und Rasterelektronenmikroskopie sowie Mikroradiographie vergleichend verwendet. Der morphometrische Vergleich erfolgte zwischen ultraschall- und auflichtmikroskopisch erzeugten Abbildungen. Weiterhin wurde die Beziehung zwischen akustischen Grauwertdarstelllungen und energiedispersiven Röntgenanalysen bewertet. Als Untersuchungsmaterial dienten Mandibulaknochen von sieben Beagle-Hunden. Die Mandibula eines jeden Hundes wurde beidseits mittels Osteoskalpell nach Sachse (Bien Air, CH-Biel) und CO2-Laser (entwickelt im Center of Advanced European Studies and Research, D-Bonn) am Margo ventralis im unbezahnten Kieferabschnitt osteotomiert. Nach einer dreiwöchigen Heilungsphase wurden die Knochen entnommen und vor der Schnittfertigung in Polymethylmethacrylat eingebettet. Beim qualitativen Vergleich der Morphologie gleichartiger Strukturen fanden sich bei SAM-Abbildungen und bei Aufnahmen, die mit den anderen mikroskopischen Techniken erzeugt wurden, weitgehende Übereinstimmungen hinsichtlich gröberer morphologischer Merkmale wie Umriss, flächiger Ausdehnung und Lage von Perforationen. Diese Gemeinsamkeiten konnten sowohl an Kallusgewebe als auch an osteonalem Knochen beobachtet werden. Unterschiede fanden sich hinsichtlich feinerer morphologischer Merkmale wie der geometrischen Übereinstimmung im Detail und der flächigen Ausdehnung bei höherer Vergrößerung. Zudem stellte sich die Binnenstruktur von Kallus und osteonalem Knochengewebe differenzierter dar als mit Hilfe der anderen mikroskopischen Techniken. Morphometrische Messungen zeigten, dass Strukturen, die im Bereich des Osteotomiespalts gemessen worden waren, im Ultraschallbild tendenziell größer abgebildet werden als in Auflichtaufnahmen. Im Gegensatz dazu wurden Strukturen im Bereich des kortikalen Knochens im ultraschallmikroskopischen Bild eher unterschätzt. Diese Ungenauigkeit bei der Abbildung von Strukturen im Ultraschallbild lässt sich am ehesten dadurch erklären, dass durch unterschiedliche Eindringtiefen des Ultraschalls auch unterschiedlich dicke Ebenen der Probe abgebildet werden. Wird eine dickere Schicht der Probe durch das akustische Mikroskop dargestellt als durch das Auflichtmikroskop, so kann es zu einer Überschätzung der Strukturen kommen und umgekehrt. Anhand energiedispersiver Röntgenanalysen konnte ebenfalls gezeigt werden, dass die Zunahme des Calcium- bzw. des Phosphorgehalts nicht alleine eine Aufhellung der Grautöne im Ultraschallbild verursachen kann. Auch der Vergleich mit Abbildungen der Elektronenmikroskopie ließ Unterschiede der Grauwerte erkennen. Demzufolge wird das akustische Bild nicht nur durch den Mineralgehalt, die Dichte und die atomare Zusammensetzung des Knochengewebes beeinflusst. Damit konnte mit der vorliegenden Untersuchung nachgewiesen werden, dass die Ultraschallmikroskopie ein neuartiges Verfahren darstellt, mit dem sich Knochen nicht nur in seiner Mikrostruktur morphologisch darstellen lässt, sondern mit der sich auch neuartige Informationen über funktionelle Parameter auf Nanoebene gewinnen lassen. Die Bedeutung dieser enormen Möglichkeiten sind im Moment noch nicht abschätzbar, weitere Untersuchungen müssen folgen.
Einleitung: Seit der Entschlüsselung des menschlichen Genoms ist die Bedeutung genetischer Forschung im Bereich der Prävention und Therapie chronischer Erkrankungen, zum Beispiel des Typ-1-Diabetes, stark gestiegen. Großangelegte multizentrische Forschungsarbeiten wie die Projekte des International Type 1 Diabetes Genetics Consortium (T1DGC) arbeiten an der Aufdeckung noch unbekannter genetischer Prädispositionen zur Entwicklung eines Typ-1-Diabetes und benötigen dafür die Hilfe von Multiplex-Familien. Die Rekrutierung dieser Familien ist schwierig, da in nur 15% der Familien mit Typ-1-Diabetes mehrere Familienangehörige betroffen sind. Um die Motivation zur Studienteilnahme eines solch kleinen Kollektivs besser zu verstehen, wurde die Einstellung zu genetischer Forschung aus Teilnehmersicht untersucht. Hintergrund sind hier die bei vielen Forschern vorhandenen ethischen Bedenken hinsichtlich der psychischen Belastung bei genetischen Untersuchungen für die Teilnehmer. So besteht ein – bisher kaum untersuchter - allgemeiner Konsens, dass die Konsequenzen von Genanalysen für die Betroffenen nicht einzuschätzen sind. Somit stehen die Forscher vor dem Dilemma, welches in der Notwendigkeit, Genanalysen durchzuführen, und in der Furcht vor einer zu hohen psychischen Belastung der teilnehmenden Personen besteht. Dies hat derzeit zur Folge, dass den Teilnehmern die Ergebnismitteilung in der Regel verwehrt wird. Ergebnisse: Von 180 angeschriebenen füllten 140 Teilnehmer des T1DGC-Projektes einen Fragebogen hinsichtlich ihrer Meinung zu genetischer Forschung und ethischen Fragestellungen anonym aus: 88,6% der Teilnehmer äußerten, dass sie generell genetische Forschung als sehr wichtig ansehen. Es gaben 60% der Befragten an, dass sie nicht genügend Informationen über das Projekt erhalten hatten. 95% der Teilnehmer wünschten ein vollständiges Verständnis der wichtigsten Studiendetails. Als bevorzugte Informationswege gaben die Teilnehmer schriftliche Informationen per Post oder durch eine Internet-Website an. 83,2% der Befragten möchten über das Vorliegen einer erblichen Hochrisiko-Konstellation für das Auftreten von Komplikationen informiert werden. Im Falle des Nachweises eines Hochrisikogens für Typ-1-Diabetes möchten 87,6% darüber aufgeklärt werden. 96,4% der Teilnehmer sind generell an einer Ergebnismitteilung interessiert. Es zeigten sich keine signifikanten Unterschiede im Antwortverhalten in Abhängigkeit von Betroffenenstatus, Alter, Geschlecht, Staatsangehörigkeit, Familienstand sowie Schul- bzw. Berufsabschluss. Schlussfolgerung: Für die Teilnehmer genetischer Studien zum Thema Typ-1-Diabetes ist der Wunsch nach ausführlicher, individuell angepasster Information grundlegend. Es muss festgestellt werden, dass die Teilnehmer am International Type 1 Diabetes Genetics Consortium (T1DGC) sich gut betreut, doch letztlich nicht ausreichend informiert gefühlt haben. Daraus lässt sich ableiten, dass neben dem individuellen Beratungsgespräch auch schriftliche Informationen mit klar konzipierter Wissensaufbereitung in Form von Websites, Broschüren und Rundbriefen (in elektronischer und/oder gedruckter Form) empfehlenswert sind. Ein wichtiges Ergebnis ist ferner, dass die Befragten die Sorge vieler Wissenschaftler und Ärzte nicht teilen, die Mitteilung eines erhöhten Erkrankungs- bzw. Komplikationsrisikos für einen Typ-1-Diabetes würde als zusätzliche Belastung empfunden werden. Im speziellen Fall der Multiplexfamilien bestanden allerdings bereits Erfahrungen mit der untersuchten Erkrankung des Typ-1-Diabetes. Eine Mitteilung, ob nun negativ oder positiv, wird im Vergleich zum Wissen um das Risiko keineswegs als psychische Bürde, sondern vielmehr als Chance zur Einflussnahme wahrgenommen. Es muss allerdings festgehalten werden, dass die Ergebnisse dieser Untersuchung sich mit dem Typ-1-Diabetes auf eine chronische, jedoch gut therapierbare und nicht generell lebenszeitverkürzende Erkrankung beziehen. Für die Übertragbarkeit der Ergebnisse auf andere genetisch-bedingte Erkrankungen ist weitere Forschung notwendig. Der bisher bestehende Konsens, im Rahmen genetischer Studien keine Ergebnismitteilung bezüglich chronischer, unheilbarer Krankheiten durchzuführen, muss überdacht werden. Den Studienteilnehmern ist das Recht auf Selbstbestimmung ein grundlegender Wert. Diese Selbstbestimmung beinhaltet, dass das Pro und Contra einer Ergebnismitteilung selbst eingeschätzt werden kann. Möchte ein Studienteilnehmer das Ergebnis der Auswertung seiner biologischen Proben erhalten, sollte ihm dies nicht verwehrt werden.
1. Hintergrund und Ziel der Studie: Bei der Thrombolysetherapie des akuten ischämischen Schlaganfalls ist die Dosierung des Thrombolytikums strikt an das Körpergewicht des Patienten gebunden. Dies ist notwendig um die Effektivität der Therapie zu gewährleisten und um das Auftreten von Blutungskomplikationen weitestgehend zu verhindern. Aufgrund unterschiedlichster Faktoren, wie beispielsweise Einschränkungen des Bewusstseinszustands, oder aber Aphasie und Dysarthrie, sind viele potentielle Lyse-Patienten jedoch nicht in der Lage, ihr Körpergewicht dem behandelnden Arzt mitzuteilen. In vielen Fällen fehlen in der Akutsituation die Zeit, sowie die entsprechenden technischen Möglichkeiten, insbesondere bettlägerige Patienten zu wiegen. Folglich wird das Körpergewicht oftmals vom Arzt nach Augenmaß abgeschätzt, was erwiesenermaßen mit Ungenauigkeiten verbunden ist. Ziel der Studie war es, Approximationsmethoden zu entwickeln, die das Körpergewicht des Patienten anhand einfach erhältlicher anthropometrischer Maße zuverlässig zu bestimmen vermögen. 2. Methoden: Auf Grundlage anthropometrischer Daten einer bevölkerungsbasierten Population von 6.954 erwachsenen Probanden wurden, mittels linearer Regression, Approximationsformeln zur Abschätzung des Körpergewichts erstellt. Diese Formeln beinhalteten die Parameter „Körpergröße“, „Bauchumfang“ und „Hüftumfang“, sowie teilweise das Lebensalter der Person. Die verwendeten Parameter stellten allesamt unabhängige Prädiktoren des Körpergewichts dar. Die geschlechtsspezifischen Formeln wurden anschließend anhand einer unabhängigen Gruppe von 178 Patienten (90 Männer, 88 Frauen, Durchschnittsalter: 67,3 Jahre [±15,6 Jahre]) validiert. Einschlusskriterium war hierbei die Verdachtsdiagnose eines Schlaganfalls bei einer notfälligen stationären Aufnahme in die neurologischen Klinik des Klinikums der Johann-Wolfgang Goethe Universität Frankfurt am Main im Zeitraum April bis August 2006. Unter Verwendung des Goldstandards „Wiegung“, wurde die Genauigkeit der anthropometrischen Gewichtsapproximationen mit der Genauigkeit von jeweils zwei unabhängigen visuellen Schätzungen von in der Schlaganfall-Thrombolyse erfahrenen Ärzten verglichen. Für die klinische Nutzung wurden Approximationshilfen (ein Internet-Rechner und Nomogramme) entwickelt, die den Gebrauch der anthropometrischen Approximationsformeln erleichtern sollen. 3. Ergebnisse: Unter Verwendung der anthropometrischen Approximationsformeln konnten genauere Abschätzungen des wahren Körpergewichts erzielt werden, als durch rein visuelle Schätzung. Für die einfachsten und gleichzeitig genauesten Approximationsformeln (Approximationsmodell 1) betrug die durchschnittliche absolute Abweichung vom gewogenem Körpergewicht 3,1 kg (± 2,6 kg). Die Formeln waren somit signifikant genauer als die beiden Schätzungen durch Ärzte (Schätzung 1: 6,5 kg [± 5,2 kg], Schätzung 2: 7,4 kg [± 5,7 kg]; p < 0,001 für die Genauigkeitsvergleiche zwischen der jeweiligen Schätzung und der Approximation). Die Verwendung der Approximationsformeln reduzierte den Anteil aller Schätzungen, die mehr als 10% vom wahren Körpergewicht abwichen, von 31,5% (Schätzung 1) bzw. 40,4% (Schätzung 2) auf 6,2% (Approximationsmodell 1). In lediglich einem Fall (0,6%) wich das approximierte Gewicht mehr als 20% vom wahren Körpergewicht ab, wohingegen dies in 4,6% (Schätzung 1), respektive 8,5% (Schätzung 2) der Fälle für die Schätzungen zutraf. Die Benutzung der auf den Approximationsformeln basierenden Nomogramme führte zu keiner relevanten Verschlechterung der Schätzgenauigkeit (durchschnittliche absolute Abweichung vom gewogenen Körpergewicht 3,11 kg [± 2,69 kg], Anteil der Fehlschätzungen > 10% des Körpergewichts: 7,3%). Mit einer durchschnittlichen absoluten Abweichung vom wahren Körpergewicht von 2,7 kg (± 2,4 kg) und einem Anteil von 3,4% der Gewichtsschätzungen mit einer Abweichung von mehr als 10% vom wahren Gewicht, waren lediglich die Gewichtsangaben der Patienten selbst genauer als die anthropometrischen Approximationen. Die Messung der anthropometrischen Parameter dauerte durchschnittlich 99,5 Sekunden (± 36,7 s), für die Berechnung des Körpergewichts mittels Nomogramm wurden im Durchschnitt 56,7 Sekunden (± 15,3 s) benötigt. Die Übereinstimmung der Messergebnisse zwischen verschiedenen Untersuchern war hoch (Intraclass correlation Coefficients [ICC] für Körperlänge: 0,9978 [95% Konfidenzintervall 0,9954 - 0,9991], ICC für Bauchumfang: 0,9891 [0,9771 - 0,9953], ICC für Hüftumfang: 0,9921 [0,9836 - 0,9966]). 4. Schlussfolgerung: Durch die Verwendung von Approximationsformeln, basierend auf einfach bestimmbaren anthropometrischen Messgrößen (Körperlänge, Bauch- und Hüftumfang) ist es möglich, innerhalb kurzer Zeit eine relativ genaue Abschätzung des Körpergewichts von Schlaganfallpatienten zu erhalten. In Situationen, in denen das Körpergewicht des Patienten nicht umgehend erfragbar oder durch Wiegung bestimmbar ist, kann die vorgeschlagene Approximationsmethode helfen, grobe Schätzfehler und in der Folge Dosierungsfehler bei dosiskritischen Medikamenten zu minimieren.
Die vorliegende Arbeit soll klären, in wieweit erhöhte Serumprolaktinwerte mit psychischen Auffälligkeiten korrelieren. 34 Patienten, die in dem Zeitraum von 1977 bis 1999 in der endokrinologischen Ambulanz der Universitätsklinik Frankfurt am Main, mit der Diagnose Prolaktinom, Hyperprolakteinämie und hormoninaktives Adenom behandelt wurden. beantworteten einen Fragebogen mit 18 offenen Fragen zu deren Befindlichkeit zu Beginn und im Verlauf der Behandlung.. Von diesen 34 Patienten zeigten 10 psychische Auffälligkeiten. Dabei bedeuteten 10 betroffene Patienten immerhin einen Anteil von 29,4% Nach Ausschluss von Patienten mit erhöhten Hormonparametern, Erkrankungen oder anderweitiger Medikamentation die Depressionen verursachen könnten, verblieben 8 Patienten, deren psychische Auffälligkeiten möglicherweise auf den erhöhten Serumprolaktinspiegel zurückzuführen waren. 2 leichte Depressionen, laut der ICD 10 F 31.9, traten bei einem Prolaktinwert von 377,4 ng/ml und 4,1 ng/ml auf. 3 Patienten zeigten die Symptome einer mittelschweren Depression, F 31.1, diese Fälle traten bei Serumprolaktinspiegel von 10,3, 3000 und 53 ng/ml auf. Eine Manisch-Depressive Manie trat bei 4770 ng/ml auf. Ein Fall einer Agoraphobie, ICD 10 F 140.0 konnte bei einem Serumprolaktinwert von 6,6 ng/ml beobachtet werden, währenddem eine Karzinophobie, F 40.2, bei einem Serumprolaktinwert von 105,3 diagnostiziert wurde. Psychische Auffälligkeiten traten also bereits in den Bereichen mäßig erhöhter und normaler Prolaktinspiegel auf. Unsere Ergebnisse besagen, dass zwischen psychiatrischen Auffälligkeiten und erhöhten Prolaktinwerten keine Korrelation besteht. Sie beträgt zu Anfang der Behandlung tau b = .048 p = .745, zu Ende der Behandlung wurde tau b =.101, p = .484 gefunden. Der Durchschnitt der während der Behandlung gemessenen Prolaktinwerten korreliert mit dem Auftreten von psychischen Auffälligkeiten mit tau b = .073, p = .620. Auch die Differenz der Prolaktinwerte zwischen Anfang und Ende der Behandlung korreliert nicht mit dem Auftreten psychischer Auffälligkeiten. Tau b beträgt .050, p= .731 Die bei der Patientin S.M. beobachtete Koinzidenz von hohen Serumprolaktinspiegel und psychischen Auffälligkeiten, die den Anstoß zu dieser Untersuchung gegeben hatte, ließ sich nicht auf die gesamte Stichprobe im Sinne eines statistischen Zusammenhanges generalisieren. Die Hypothese, dass eine enge Korrelation zwischen psychischen Auffälligkeiten und einem hohen Prolaktinspiegel besteht, kann anhand der vorliegenden Daten nicht aufrechterhalten werden.
Die kongenitale HCMV-Infektion ist der wichtigste Auslöser geistiger Retardierung viraler Genese und ist für die meisten neurosensorischen Hörstörungen nicht genetischen Ursprunges verantwortlich. Die Entwicklung neuer Strategien zur Prävention der HCMV-Infektion bei Neugeborenen ist also von höchster Dringlichkeit. Die Einführung von universellen Screeningprogrammen bei Neugeborenen könnte die frühzeitige Erkennung einer Infektion und somit einen frühen therapeutischen Einsatz ermöglichen. Um dies in die Praxis umsetzen zu können, wird jedoch eine Vereinfachung der Probengewinnung und die Entwicklung einer schnellen und sensitiven Nachweismethode benötigt. Die Anwendbarkeit von verschiedenen im Handel für DNA-Analysen angebotenen Filterpapieren zur Sammlung von Urinproben für die HCMV-Diagnostik mittels PCR wurde untersucht und mit Referenzmethoden verglichen. Es wurden zwei mit Reagenzien behandelten Papiere, das Indicating FTA® Classic Card (Ind FTA Filterpapier) und das FTA® Elute (FTA Elute Filterpapier) und ein unbeschichtetes Papier, das 903® Specimen Collection Paper (903-Filterpapier) eingesetzt. Insgesamt waren alle Papiere leicht einzusetzen, gut verträglich und die Gewinnung von Proben gestaltete sich problemlos. Dilutionsreihen aus Zellkulturüberstand aus einer mit dem HCMV-Laborstamm AD169 infizierten Fibroblastenkultur wurden zur Sensitivitätsbestimmung der Methode eingesetzt. Während bei der Anwendung der Indicating FTA® Classic Cards die Nachweisgrenze der Methode bei 4.000 Kopien/ml lag, wurden beim FTA® Elute- und 903® Specimen Collection-Paper noch Proben mit 400 Kopien/ml erfasst. Ferner wurden 70 klinische Proben mittels Ind. FTA-Papier getestet und 10 mittels FTA Elute- und 903-Filterpapier. Die Sensitivität der Methode betrug im Vergleich zum "Shell Vial Assay" 43,2% beim Einsatz des Ind. FTA-, 60% beim 903- und 70% beim FTA Elute-Filterpapiers. Im Vergleich zur PCR aus mit Qiagen isoliertem Urin erreichte die Methode eine Sensitivität von jeweils 58,3% mit Ind. FTA-, 50% mit dem 903-, und 83,3% mit FTA Elute-Filterpapier. Eine Korrelation zwischen Viruslast in der Filterpapier-Probe und in der mit Qiagen isolierten Urinprobe bestand nur beim FTA Elute Filterpapier. Der Nachweis von HCMV-DNA aus auf FTA Elute-Filterpapier getrockneten Urinproben scheint ein vielversprechender Ansatz in der HCMV-Diagnostik zu sein. Um diese Methode für epidemiologische und/oder diagnostische Zwecke empfehlen zu können, müssten noch umfangreichere klinische Studien durchgeführt werden.
Zielsetzung: Die Evaluation der transarteriellen Chemoembolisation (TACE) bei nicht resektablen primären (CCC) und sekundären (Lebermetastasen verschiedener Primärtumoren) Lebermalignomen anhand des lokalen Tumoransprechens, des klinischen Ansprechens und der Überlebensdaten. Material und Methodik: Im Zeitraum vom 1999 bis 2009 wurden in unserem Tumorzentrum 898 Patienten mit CCC und Lebermetastasen mittels TACE behandelt. Die behandelten Tumorentitäten waren im Einzelnen das cholangiozelluläre Karzinom (CCC) (n=46; 5,1%) sowie Lebermetastasen des: kolorektalen Karzinoms (CRC) (n=463; 51,7%), Mammakarzinoms (n=208; 23,2%), Aderhautmelanoms (n=33; 3,7%), Nierenzellkarzinoms (n=22; 2,5%), neuroendokrinen Karzinoms (NET) (n=48; 5,4%), Magenkarzinoms (n=25; 2,8%), Ovarialkarzinoms (n=30; 3,3%) und nicht-kleinzelligen Bronchialkarzinoms (NSCLC) (n=21; 2,3%). Als Zytostatika wurden Mitomycin C (8 mg/m²), Gemcitabine (1000 mg/m²), Irinotecan (150 mg/m²) und Cisplatin (60 mg/m²) verwendet. Als Embolisat wurden Lipiodol und Microsphären (EmboCept®) verwendet. Mindestens drei TACE Sitzungen pro Patient wurden in vierwöchigen Abständen ambulant durchgeführt. Das radiologische Tumoransprechen wurde mittels Magnetresonanztomographie (MRT) und/oder Computertomographie (CT) bestimmt und nach den RECIST-Kriterien klassifiziert. Das klinische Ansprechen wurde im Verlauf der Behandlung in neoadjuvant, palliativ und symptomatisch eingeteilt. Die Überlebensdaten wurden nach der Kaplan-Meier-Methode berechnet. Ergebnisse: Die Mindestzahl der durchgeführten TACE war drei. Bei 46 Patienten mit CCC wurden bei 11% PR, bei 60,7% SD und bei 28,3% PD bei einer medianen Überlebenszeit von 14,5 Monaten dokumentiert. 2,2% der Patienten wurden neoadjuvant, 73,9% palliativ und 23,9% symptomatisch behandelt. Bei 463 Patienten mit Lebermetastasen des CRC wurden bei 14,7% PR, bei 48,2% SD und bei 37,1% PD dokumentiert. Die mediane Überlebenszeit lag bei 14 Monaten. 12,9% der Patienten wurden neoadjuvant, 72,4% palliativ und 14,7% symptomatisch behandelt. Bei 208 Patienten mit Lebermetastasen des Mammakarzinoms wurden bei 13% PR, bei 50,5% SD und bei 36,5% PD bei einer medianen Überlebenszeit von 18,5 Monaten dokumentiert. Die Patienten wurden zu 18,75% neoadjuvant, zu 15,38% symptomatisch und zu 65,87% palliativ behandelt. Bei Patienten mit Lebermetastasen des Aderhautmelanoms wurden bei 15,2% PR, bei 42,4% SD und bei 42,4% PD dokumentiert. Die mediane Überlebenszeit betrug 18 Monate. Die klinische Situation war zu 3% neoadjuvant, zu 24,2% symptomatisch und zu 72,8% palliativ. Bei Patienten mit Lebermetastasen des Nierenzellkarzinoms wurden bei 13,7% PR, bei 59% SD und bei 27,3% PD bei einer medianen Überlebenszeit von 6,6 Monaten dokumentiert. Die klinische Situation war zu 81,8% palliativ und zu 18,2% symptomatisch. Bei Patienten mit Lebermetastasen des NET wurden bei 18,8% PR, bei 52,1% SD und bei 29,1% PD dokumentiert. 81,2% der Patienten wurden palliativ und 18,8% symptomatisch behandelt. Patienten mit Lebermetastasen des Magenkarzinoms hatten eine mediane Überlebenszeit von 10,5 Monaten. SD wurde bei 60% und PD bei 40% dokumentiert. 76% der Patienten wurden palliativ und 24% symptomatisch behandelt. Bei den Patientinnen mit Lebermetastasen des Ovarialkarzinoms wurden bei 20% PR, bei 26,7% SD und bei 53,3% PD dokumentiert. Die mediane Überlebenszeit betrug 23,7 Monate bei folgendem klinischen Ansprechen: 13,3% symptomatisch und 86,7% palliativ. Für Patienten mit Lebermetastasen des NSCLC wurden bei 14,3% PR, bei 47,6% SD und bei 38,1% PD bei medianer Überlebenszeit von 11,7 Monaten dokumentiert. Die Patienten wurden wie folgend behandelt: 81% palliativ und 19% symptomatisch. Schlussfolgerung: TACE bei primären (CCC) und sekundären (Lebermetastasen verschiedener Primärtumoren) Lebermalignome stellt ein gut verträgliches, minimal invasives, lokoregionales Verfahren dar, das zu einem guten Tumoransprechen, Lebensverlängerung sowie Verminderung der Symptomatik führt.
In der vorliegenden Arbeit wurden 494 endodontisch behandelte Zähne aus der studentischen Ausbildung des Zentrums der Zahn-, Mund- und Kieferheilkunde der Universität Frankfurt am Main retrospektiv ausgewertet und eine Langzeitprognose erhoben. Die Überlebenszeit der Zähne wurde bezüglich des Einflusses der Behandlungsparameter auf die Prognose analysiert. Die Auswahl der Patientenfälle erfolgte nach dem Zufallsprinzip. Jede begonnene Wurzelkanalbehandlung kam unabhängig von der Ausgangssituation zur Auswertung, sofern ein vorgegebenes standardisiertes Behandlungsprotokoll zur Anwendung kam. Im Unterschied zu vielen Studien wurde die Extraktion als Misserfolg gewertet und als finales Ereignis definiert. Vom Patientenpool in dieser Arbeit wurden die Parameter Alter, Geschlecht, behandelter Zahn, radiologische und klinische Ausgangssituation, Ausgangsbefunde und Diagnose, Kofferdamverwendung, Sitzungen, provisorische Füllungen, Stiftinsertion und prothetische Versorgungen erfasst und der Überlebensanalyse nach Kaplan-Meier zugeführt. Die Irrtumswahrscheinlichkeit wurde mit dem Log-Rang-Test ermittelt und ausgewertet. Bei 449 Patienten wurde die Wurzelkanalbehandlung nach vorgegebener standardisierter Therapie mit manueller Aufbereitung und lateraler Kondensation unter Verwendung des Sealers AH Plus® oder AH 26® (Dentsply DeTrey, Konstanz) durch unterschiedliche Behandler abgeschlossen. In 55 Fällen wurde eine Revisionsbehandlung durchgeführt. 45 Zähne wurden aus unterschiedlichen Gründen vor Beendigung der Therapie extrahiert. Diese Gruppe wurde mit den übrigen Zähnen bezüglich der Parameter der Therapie verglichen, um Gründe für die vorzeitige Zahnentfernung offen zulegen. Der Nachuntersuchungszeitraum umfasste bis zu 21 Jahren. Die Recall-Rate erreichte 58,1% bei einer Nachkontrollzeit von 5 Jahren und 25,6% bei 10 Jahren und liegt damit auf hohem Niveau. Die durchschnittliche Überlebenswahrscheinlichkeit der Zähne lag bei 76% nach 5 Jahren und 44% nach 20 Jahren. Statistisch signifikant mehr Extraktionen vor Beendigung der Wurzelkanalbehandlung fanden sich bei Molaren, bei Perkussionsempfindlichkeit vor Trepanation, bei symptomatischen Zähnen mit LEO, bei Therapie ohne Kofferdamverwendung, bei mehr als 10 Sitzungen mit anschließendem provisorischem Verschluss sowie bei Frauen. Hinsichtlich der Unterschiede in der Überlebenserwartung erwiesen sich nur die Parameter Altersstruktur und Stift- beziehungsweise Einzelkronenversorgung als signifikant. Die Zähne in der Gruppe der 41 bis 60-Jährigen zeigten eine deutlich bessere Überlebenswahrscheinlichkeit als die Zähne der Patientengruppe der 61 bis 80-Jährigen. Mit Einzelkrone versorgte Zähne zeigten einen signifikant besseren Langzeiterfolg unabhängig von einer Versorgung mit Wurzelkanalstift. Alle übrigen ausgewerteten Parameter des Ausgangszustandes, der Wurzelkanalbehandlung sowie die Diagnose der einzelnen Zähne waren hinsichtlich des Unterschiedes der Überlebenswahrscheinlichkeit nicht signifikant. Diese Studie ermittelte die Überlebenswahrscheinlichkeit von endodontisch behandelten Zähnen aus der studentischen Ausbildung. Für die angewandte Standardtherapie wurde eine Erfolgsangabe ermittelt, welche zukünftige Vergleiche mit Therapiealternativen zulässt. Die Ergebnisse dieser Studie ermitteln die postendodontische Versorgung als den wesentlichen Parameter für den Langzeiterfolg wurzelkanalbehandelter Zähne. Auf diesem Gebiet sollte deshalb weiter Forschung betrieben werden.
Die kontrastmittelverstärkte MRT hat in den letzten Jahren als Bildgebungsmethode in der abdominellen Diagnostik eine zunehmende Bedeutung in der klinischen Patientenversorgung gewonnen. Neben der Entwicklung neuer Geräte mit schnellen Untersuchungssequenzen in Atemstillstand, hat auch der Einsatz von MRT-Kontrastmitteln entscheidend dazu beigetragen. Mit der Entwicklung neuer Kontrastmittel - höher konzentriert – stellt sich die Frage, ob und wie sich diese von den Standardkontrastmitteln hinsichtlich der Kontrastierung von Organparenchym, Organläsion und Gefäßen unterscheiden. Diese Studie konzentrierte sich auf mögliche Unterschiede zwischen dem neuen höher konzentrierten Kontrastmittel Gadobutrol und dem Standardkontrastmittel Gd-DTPA im Hinblick auf die Charakterisierung von Nierenläsionen. Gadobutrol 1,0 M (Gadovist®, Schering AG, Deutschland), ein hochmolares Gd-Chelat, hat im Vergleich zu herkömmlichem niedermolaren Gd-DTPA (Magnevist®, Bayer Schering Pharma, Deutschland) einen größeren Effekt auf die Verkürzung der T1-Relaxationszeit bei geringerer Osmolalität und Viskosität. Die höhere Konzentration ermöglicht eine Reduktion des Kontrastmittelvolumens und damit einen kompakteren Bolus. Ziel dieser Studie war die Evaluierung des höher konzentrierten Gadobutrols (1,0 molar) im Vergleich zum niedermolekularen Standardkontrastmittel Gd-DTPA (0,5 molar) in der MRT-Nierendiagnostik hinsichtlich der Differenzierung von Nierenläsionen. Außerdem sollen die erzielten Ergebnisse genutzt werden, um die klinischen Anwendungsmöglichkeiten von Gadobutrol erweitern zu können. Die Ergebnisse der vorliegenden interindividuellen Phase-III-Studie basieren auf der MRT-Untersuchung und Auswertung von 30 Patienten mit verschiedenen Nierenläsionen (benigne und maligne) vor und nach Applikation von Gadobutrol 1,0 M bzw. Gd-DTPA 0,5 M. Die Wahl des Kontrastmittels erfolgte nach einer randomisierten Zuordnung. Hierbei erhielten 15 Patienten Gadobutrol 1,0 M und 15 Patienten Gd-DTPA 0,5 M. Die MRT-Befunde wurden mit einem definierten Goldstandard korreliert. Die Applikation beider Kontrastmittel erfolgte nach der automatisierten Bolusmethode, damit eine dynamische Bildgebung ermöglicht werden konnte. Dabei konnte für beide KM eine gute Verträglichkeit evaluiert werden. Die Ergebnisse dieser Studie haben gezeigt, dass bezüglich der Kontrastierung des Nierenparenchyms signifikante Unterschiede zwischen den untersuchten Gadolinium-Chelaten bestehen. Hierbei zeigte sich in der T1-gewichteten Gadobutrol-verstärkten Dynamik während der nephrographischen Phase eine stärkere Anreicherung in Nierenrinde und Nierenmark mit einem langsameren Übertritt des Kontrastmittels ins Nierenbeckenkelchsystem im Vergleich zur Gd-DTPA-verstärkten Bildgebung. Die stärkere Kontrastierung des Nierenmarks während dieser wichtigen Phase ermöglichte eine bessere Abgrenzung und Sichtbarkeit der Nierenläsionen zum umliegenden Gewebe. Die Nierenläsionen zeigten Unterschiede in der Kontrastmittelaufnahme, mit einem Trend für höhere Werte für die Gadobutrol-Gruppe. Gleiche Resultate ergaben sich für die Gefäßkontrastierung. Hier zeigte Gadobutrol-verstärkte Bildgebung keine wesentliche Erhöhung des arteriellen und venösen Gefäßsignals gegenüber dem Standardkontrastmittel Gd-DTPA. Unter Verwendung beider Kontrastmittel konnte eine gute Bildqualität erzielt werden. Jedoch erzielte dabei das höher konzentrierte Gadobutrol höhere Werte im Vergleich zu dem Standardkontrastmittel Gd-DTPA. Ferner zeigte sich für den Gadobutrol-Kontrast eine verbesserte Abgrenzbarkeit der Nierenläsionen. Bezüglich der diagnostischen Sicherheit in der Differenzierung der Nierenläsionen ließ sich zwischen den beiden Kontrastmitteln kein wesentlicher Unterschied feststellen. Die Ergebnisse dieser Studie weisen darauf hin, dass Gadobutrol 1,0 M als höher konzentriertes MR-Kontrastmittel ein gut geeignetes Kontrastmittel zur Detektion und Differenzierung von Nierenläsionen ist. Es kann ebenso wie das bis jetzt verwendete niedermolare Kontrastmittel Gd-DTPA 0,5 M bei der Abklärung von Nierenpathologien mittels MRT eingesetzt werden.
In der vorliegenden Arbeit soll die selektive Wirkung der Nukleosidanaloga Fludarabin und Cytarabin auf maligne Zellen überprüft werden. Dazu wird die Sensibilität unterschiedlicher Zellen gegenüber den beiden Zytostatika mittels Durchflußzytometrie bestimmt. Außerdem wird als pharmakokinetischer Parameter die intrazelluläre Konzentration des jeweiligen aktiven Metaboliten, F-Ara-ATP und Ara-CTP mit Hilfe der Hochdruckflüssigkeitschromatographie ermittelt. Als Vertreter der gesunden Zellen werden Lymphozyten gesunder Spender sowie in einem einmaligen Versuch hochaufgereinigte CD34+-Stammzellen untersucht. Stellvertretend für maligne Zellen werden die Experimente an Zellen der T-lymphoiden Zelllinie Molt4 und der erythroleukämischen Zelllinie K562 durchgeführt. Anhand der pharmakokinetischen Untersuchungen kann eine höhere Bildung an aktivem Triphosphat in malignen Zellen gegenüber gesunden Lymphozyten sowohl für Fludarabin- als auch für Cytarabininkubation nachgewiesen werden. Stammzellen scheinen eine Stellung zwischen den malignen Zellen und den Lymphozyten einzunehmen. Letztere Ergebnisse bleiben zu verifizieren. Untersuchungen der Sensibilität der malignen Zellen gegenüber Fludarabin und Cytarabin mit Hilfe der Durchflußzytometrie ergeben jeweils eine erhöhte Zytotoxizität gegenüber Molt4-Zellen, nicht jedoch gegenüber K562-Zellen im Vergleich zu gesunden Lymphozyten. Während die pharmakokinetischen Ergebnisse eine erhöhte Sensibilität für maligne Zellen gegenüber Fludarabin und Cytarabin aufgrund höherer intrazellulärer Triphosphatspiegel suggerieren, zeigen die durchflußzytometrischen Messungen, dass sich allein auf dieser Basis keine Aussage über die Sensibilität der Zellen gegenüber dem jeweiligen Zytostatikum machen lässt. Eine selektive Wirkung von Nukleosidanaloga auf maligne Zellen lässt sich anhand der gewonnenen Daten vermuten, aber nicht beweisen. Hierzu sind weitere Untersuchungen unerlässlich.
In der vorliegenden Studie wurde die Erfolgsrate der intrauterinen Insemination im Hinblick auf die andrologischen Parameter analysiert. Der praktische Teil dieser Arbeit bestand darin, einen Fragebogen mit allen interessierenden Merkmalen zu erstellen. Anschließend wurden die Patientendaten aller im Jahre 2003 mittels intrauteriner Insemination in der Frauenklinik der Johann Wolfgang Goethe-Universität Frankfurt am Main behandelter Paare, anhand des erstellten Fragebogens erfasst. Die zusammengetragenen Daten wurden in einer Excel-Datentabelle ausgewertet und anschließend anhand des Chi-Quadrat-Vierfeldertests auf ihre statistische Signifikanz hin überprüft. Das Nichtschwangerenkollektiv, welches sich aus 197 Paaren zusammensetzte, wurde mit dem Schwangerenkollektiv, bestehend aus 35 Paaren, verglichen. Insgesamt wurden 475 Behandlungszyklen durchgeführt. Es kam insgesamt zu 36 Schwangerschaften (2 Schwangerschaften davon bei einem Paar nach Abort in der ersten Schwangerschaft), woraus eine Schwangerschaftsrate von 15,5 % resultiert und eine Wahrscheinlichkeit einer Schwangerschaft pro Behandlungszyklus 7,6 % errechnet wurde. Als die wichtigsten prognostischen Faktoren haben sich folgende Parameter herausgestellt. Erstens die Anzahl an schnell progressiven Spermien im Ejakulat. Es sollten mindestens 1 Million sein, sind weniger als 1 Millionen schnell progressiver Spermien vorhanden, kann mittels intrauteriner Insemination zwar eine Schwangerschaft erzielt werden, jedoch ist die Erfolgsaussicht deutlich geringer. Zweitens der Grad der Teratozoospermie. Eine moderate Teratozoospermie zeigte ein gutes Outcome bei der intrauterinen Insemination, wohingegen bei Paaren mit einer schweren Teratozoospermie die intrauterine Insemination kritisch betrachtet werden muss. In dieser Studie lag die Grenze bei 6 % Normalformen. Paaren mit mindestens 6 % Normalformen im Ejakulat kann zu einer intrauterinen Insemination geraten werden. Somit lässt sich zusammenfassend aus dieser Studie schlussfolgern, dass die intrauterine Insemination als eine im Vergleich zur IVF und ICSI relativ gering invasive und kostengünstige Methode bei moderater andrologischer Sterilität immer noch als Behandlung der ersten Wahl in Betracht kommt. Bei einer schweren männlichen Sterilität sollte die Indikation strenger gestellt werden und Alternativmethoden, wie z. B. die ICSI, als primäre Behandlungsoption zum Einsatz kommen.
Einleitung: Die allgemeine Häufigkeit der Hernien liegt bei 2 bis 4% der Bevölkerung, wobei etwa 75% Leistenhernien sind. Ziel dieser Studie war die Beschreibung der Morbidität nach standardisierter modifizierter Operation nach Lichtenstein mit Verwendung eines selbsthaftenden Netzes. Der Vergleich dieses Kollektivs mit Daten aus der Literatur, in welchen zur Behandlung einer Leistenhernie die herkömmliche Technik nach Lichtenstein angewandt wurde, stellte das sekundäre Studienziel dar. Material und Methoden: Ein von Juli 2007 bis Dezember 2007 therapiertes Patientengut aus 100 Männern und 11 Frauen des Herz-Jesu-Krankenhauses in Fulda wurde detailliert retrospektiv aufgearbeitet und mit den Ergebnissen anderer Arbeitsgruppen verglichen. Die Patienten wurden einmal nach sechs sowie ein weiteres Mal nach 12 Monaten einbestellt, untersucht und mittels standardisiertem Fragebogen zu ihrem postoperativen Verlauf befragt. Die Altersgrenzen zum Zeitpunkt der operativen Versorgung lagen bei 20 und 91 Jahren, der Altersmedian betrug 59. Die Operation nach Lichtenstein ist eines der bevorzugten Verfahren in der Leistenhernienchirurgie. Ergebnisse: Intraoperativ wurde bei 88 Patienten (79,3 %) der Nervus genitofemoralis geschont, bei 23 Patienten (20,7 %) wurde er durchtrennt. Die postoperativen Komplikationen wurden im eigenen Kollektiv unterteilt nach perioperativen (in den ersten 7 Tagen postoperativ), frühen (7. bis 28. Tag postoperativ) und späten Komplikationen (28. Tag bis 12. Monat postoperativ) erfasst. Nur bei einem Patienten kam es auf Grund eines behandlungspflichtigen Hämatoms zu einer unmittelbaren Komplikation. Kein Patient beklagte eine frühe Komplikation, jedoch kam es bei fünf Patienten zu späten Komplikationen. Vier Patienten klagten über ein Rezidiv. Die Diagnose Nervenkompressionssyndrom wurde bei insgesamt drei Patienten gestellt. Die Verbindung zu einer Durchtrennung des Nervus genitofemoralis konnte bei einem Patienten hergestellt werden. Der Median der Operationsdauer lag bei 35 Minuten. Durchschnitt (Mittelwert) betrug die Krankenhausverweildauer 2,2 Tage. Kein Patient verstarb im postoperativen Verlauf. Schlussfolgerung: Die in dieser Arbeit beschriebene modifizierte Lichtenstein-Technik ist eine Innovation der Hernienchirurgie. Der Einsatz eines teilresorbierbaren und selbstfixierenden Zweikomponenten-Maschengewebe aus monofilem Polypropylen und Polylaktatsäure stellt eine kleine Revolution der operativen Versorgung von Leistenhernien dar. Die ersten Ergebnisse zeigen im Vergleich mit Literaturangaben, dass insgesamt mit einer ähnlichen perioperativen Komplikationsrate zu rechnen ist. Momentan liegen erst Einjahreszahlen vor, daher muss auf eine abschließende Beurteilung, vor allem der postoperativen Schmerzsymptomatik sowie Rezidivrate, zum jetzigen Zeitpunkt verzichtet werden. Erfreulich ist das Fehlen von intraoperativen Komplikationen im eigenen Krankengut. Auch erscheint eine deutliche Reduktion der Operationsdauer bei mit der Technik vertrauten Operateuren möglich zu sein. Eine statistisch signifikante Reduktion der Rezidivhäufigkeit nach Lichtenstein-Eingriff konnte durch die neue Technik noch nicht beobachtet werden. Zur Zeit sind die in der Literatur beschriebenen Rezidivraten noch auf einem ähnlichen Niveau. Abschließend zeigt die Beurteilung der selbst erhobenen Daten und ihr Vergleich mit den angeführten Studien, dass der Einsatz eines selbsthaftenden Netzes bedenkenlos als Alternative zur Fixierung mittels Fibrinkleber, Naht- oder Klammermaterial empfohlen werden kann.
Patienten, die sich einer Bypassoperation am offenen Herzen unterziehen erleiden häufig kognitive Beeinträchtigungen durch Mikroembolien, insbesondere ausgelöst durch Luft. Ins Operationsfeld eingeleitetes Kohlendioxid soll durch seine physikalischen Eigenschaften protektiv auf die kognitiven Funktionen wirken. In die Studie waren 69 Patienten eingeschlossen, die sich jeweils einer aortokoronaren Bypassoperation unter Einsatz der Herz-Lungen-Maschine unterzogen. Es erfolgte randomisiert die Einteilung in eine Kontrollgruppe und eine protegierte Gruppe. Am ersten präoperativen und am fünften postoperativen Tag wurde jeweils eine Testbatterie aus sechs verschiedenen Einzeltest mit den Patienten durchgeführt. Als neurokognitives Defizit wurde eine Verschlechterung der Ergebnisse um mindestens 20% im Vergleich zu den präoperativen Werten in zwei oder mehr Einzeltests definiert. Intraoperativ wurde durch einen Zweikanal-Ultraschall-Mikroblasendetektor, der in den Kreislauf der Herz-Lungen-Maschine eingeschaltet war, ein Monitoring von Größe und Anzahl der entstehenden Gasblasen durchgeführt. Die Gruppen wiesen bezüglich der klinischen Parameter keine signifikant unterschiedlichen Werte auf. Der einzig signifikante Unterschied in den gemessenen Werten der Mikrobubbles ist eine Reduktion der Gasblasen zwischen Kanal I und Kanal II in beiden Gruppen. Dies beweist das Vorhandensein und die Funktionsfähigkeit des arteriellen Filters. Jedoch lässt sich ein Trend zur Verringerung von Blasenanzahl und Blasenvolumen unter Verwendung von CO2 erkennen. Die neurokognitiven Tests konnten keine signifikanten Unterschiede zwischen den Gruppen ausmachen. Somit war kein signifikanter Vorteil für die aortokoronare Bypassoperation unter Protektion durch CO2 auszumachen. Der Neuroscore als Instrument zur Objektivierung eines neurokognitiven Defizits ist diskussionsbedürftig. Da Studien, z. B. im Bereich der minimalinvasiven Chirurgie, den Vorteil von CO2 belegen ist die Anwendung zur Protektion weiter zu empfehlen Jedoch fehlt der endgültige Beweis für den Benefit speziell bei der aortokoronaren Bypassoperation.
Die menschliche Kommunikation von Angesicht zu Angesicht findet hauptsächlich auf audiovisueller Ebene statt. Normalerweise liefert der Gesprächspartner sowohl visuelle als auch auditorische Information. Es ist einfacher jemanden zu verstehen, wenn ein visueller Eingang vorliegt, weil visuelle Signale wie Mund- oder Zungenbewegungen komplementäre Informationen zum auditorischen Eingang liefern. In dieser Studie wurden die Hypothesen aufgestellt, dass (I) sowohl die Spracherkennung als auch die Stimmenerkennung bei fehlendem visuellem Eingang durch Zugriff auf visuelle Sprecher-spezifische Informationen optimiert werden kann und, dass (11) diese Optimierung auf Gehirnarealen für die visuelle Gesichtsverarbeitung beruht. Diesen Hypothesen wurde mit Hilfe von Verhaltenstests und der funktionellen Bildgebung in zwei Gruppen nachgegangen: Probanden mit einer mangelnden Fähigkeit, Gesichter zu erkennen (Prosopagnosie), und entsprechende Kontrollprobanden. Die Ergebnisse zeigten, dass das Beobachten einer bestimmten Person beim Reden für 2 min die darauffolgende rein auditorische Spracherkennung sowie die Stimmenerkennung verbessert. Bei beiden Gruppen, sowohl bei den Prosopagnostikern als auch bei den Kontrollprobanden, konnten die verbesserten Verhaltensdaten beim Erkennen des Sprachinhalts auf ein Areal zurückgeführt werden, das für die Verarbeitung von Gesichtsbewegungen zuständig ist. Bessere Verhaltensdaten bei der Stimmenerkennung konnten nur bei den Kontrollprobanden nachgewiesen werden, was auf einem Areal beruht, das der Verarbeitung der Gesichtserkennung zugeordnet wird. Diese Befunde stellen gängige unisensorische Modelle der Sprachverarbeitung infrage, da hier gezeigt werden konnte, dass das Gehirn selbst bei der rein auditorischen Spracherkennung auf zuvor gelernte audiovisuelle Zusammenhänge zurückgreift um die Kommunikation zu optimieren. Das legt die Möglichkeit nahe, dass dieser Optimierung Sprecher-spezifische audiovisuelle interne Modelle zugrunde liegen, welche benutzt werden, um ein sprechendes Gesicht zu simulieren.
Hintergrund: Träger eines bestimmten Haplotyps des Gens der GTP Cyclohydrolase (GCH1) gaben im Anschluss an eine Diskektomie nach chronischer lumbaler Radikulopathie weniger Schmerzen an und hatten in experimentellen Schmerzmessungen höhere Schmerzschwellen. Die ex-vivo GCH1-Hochregulierung und BH4-Produktion nach Forskolinstimulierung war reduziert, während die Grundwerte der BH4-Konzentration nicht verändert waren. Diese Beobachtungen legen nahe, dass der Haplotyp hauptsächlich Veränderungen zeigt, wenn das GCH1-System provoziert wird. Diese Studie zielt darauf ab, (1) diese Hypothese zu testen und (2) die schmerzprotektiven Eigenschaften, die diesem Haplotyp zuvor zugeschrieben wurden in unabhängigen Rahmen zu reproduzieren. Methodik: Hierzu wurden experimentelle Schmerzmodelle mit Sensitisierung (lokale Hautentzündung, topische Capsaicinapplikation) und ohne Sensitisierung (punktuell-mechanischer Druck, stumpfer Druck, thermischer und elektrischer Schmerz) an 10 homozygoten Trägern und 22 homozygoten Nichtträgern des angeblich schmerzprotektiven GCH1-Haplotyps durchgeführt. GCH1-, iNOS-Hochregulierung und BH4-Produktion wurden ex-vivo in Leukozyten nach LPS-Stimulation für 24 Stunden ermittelt. Ergebnisse: Träger dieses GCH1-Haplotyps hatten höhere Schmerzschwellen für punktuell-mechanischen Druck (von Frey Haare) im Anschluss an eine lokale Hautentzündung (18.1 ± 11.3 vs. 9 ± 2.8 g; p = 0.005) und im kleineren Rahmen für thermischen Schmerz nach Hyperalgesieinduktion durch Capsaicincreme (35.2 ± 0.9 vs. 36.6 ± 2.4 _C; p = 0.026). Dem hingegen konnten bei den Schmerzmodellen ohne Sensitisierung keine genotypabhängigen Effekte beobachtet werden. GCH1-, BH4 und iNOS-Hochregulierung in Leukozyten nach 24-stündiger LPS-Stimulation waren vermindert bei Trägern des GCH1-Haplotyps, woraus sich schließen lässt, dass sich die Genotypgruppen im Hinblick auf die Regulationsvorgänge im Biopterinstoffwechsel unterscheiden. Schlussfolgerung: Diese Studie bestätigt die vorherigen Befunde, dass eine verminderte GCH1-Funktion oder GCH1-Induzierbarkeit als Folge von genetischen Polymorphismen einen schmerzprotektiven Effekt mit sich bringt. Als Erweiterung der Vorresultate zeigt diese Arbeit, dass sich der schmerzprotektive Effekt vorzugsweise in Schmerzmodellen mit Sensitisierung ausprägt. Dies legt eine besondere Rolle von BH4 bei spezifischen Schmerzprozessen nahe.
Gemeinsam ist den Autoimmunendokrinopathien, dass genetische Faktoren als auch Umweltfaktoren für die Ätiologie von Bedeutung sind. Das Vererbungsschema dieser genetischen Prädispositionsfaktoren ist komplex und schließt mehrere Kandidatengene ein. Besonders die HLA-Gene wurden eingehend in den letzten Jahren untersucht. Sie stellen einen wichtigen Risikofaktor für die Entstehung von Autoimmunendokrinopathien dar. Allerdings ist für keinen der bekannten Autoimmunendokrionopathien die genetische Prädisposition, die durch die HLA-Region vermittelt wird, weder ausreichend noch notwendig für die Entwicklung der Erkrankung. So nehmen weitere Kandidatengene eine bedeutende Rolle in der Entstehung von Autoimmunendokrinopathien ein. In den letzten Jahren haben Studien gezeigt, dass diejenigen Mechanismen des Immunsystems, die zur Erhaltung der peripheren T-Zell-Toleranz beitragen, essentiell für die Kontrolle von autoreaktiven T-Zellen sind. Die Elimination bzw. die Störung solcher Mechanismen kann somit in einer Autoimmunerkrankung münden. Folglich sind Gene, die Einfluss auf diese Mechanismen der peripheren Toleranz ausüben, eindeutige Prädispositionsfaktoren für die Entstehung von Autoimmunerkrankungen. CTLA-4 ist ein essentielles inhibitorisches Regulatormolekül für T-Zellen. In vivo- und In vitro- Untersuchungen haben gezeigt, dass CTLA-4 eine bedeutende Rolle in der Regulation von Selbsttoleranz einnimmt. Damit ist CTLA-4 ein entscheidendes Suspezeptibilitätsgen für Autoimmunität im Allgemeinen und könnte insbesondere für die T-Zell-vermittelten Autoimmunendokrinopathien bedeutend sein. Im Rahmen dieser Arbeit wurde nach einem Zusammenhang dieses Genortes mit Typ 1 Diabetes mellitus, Morbus Addison, Hashimoto-Thyreoiditis und Morbus Basedow in der kaukasischen Bevölkerung geforscht. Bei der Suche nach einer Assoziation zwischen CTLA-4 Polymorphismen und Typ 1 Diabetes mellitus zeigt sich eine signifikante Assoziation des -MH30 C/G - und -1661 A/G - Polymorphismus sowie des +49 A/G Exon 1- Polymorphismus des CTLA-4 Gens mit Typ 1 Diabetes mellitus. Beim Polymorphismus –MH30 C/G des CTLA-4 Gen zeigt sich ein signifikant gehäuftes Auftreten des Allels „G“ bei Patienten, die an Typ 1 Diabetes mellitus erkrankt sind. Dabei vermittelt das Allel „G“ bei der Allelfrequenzanalyse - wie auch bei der Genotypenanalyse ein signifikant erhöhtes Diabetes-Risiko. Das Allel „C“ hingegen ist signifikant seltener an Patienten und scheint somit eher protektiv gegen Typ 1 Diabetes mellitus zu wirken. Bei der Untersuchung des -1661 A/G Polymorphismus des CTLA-4 Gens bei Patienten mit Typ 1 Diabetes mellitus zeigt sich das Allel „A“ als krankheitsprädisponierend. Beim +49 A/G Polymorphismus führt die Substitution von Adenin zu Guanin an Position 49 des Exon 1 zu eine Threonin (Thr) /Alanin (Ala) Substitution am Kodon 17 der Signalpeptidsequenz. Die Untersuchung des +49 A/G Polymorphismus in der deutschen Population verdeutlicht, dass der Genotyp „G/G“ sowie das Allel „G“ (Alanin) krankheitsprädisponierend sind. Das Allel „A“ hat eine protektive Wirkung und tritt gehäuft in der Kontrollgruppe auf. Der – 319 – Promotorpolymorphismus zeigt keine Assoziation mit Typ 1 Diabetes mellitus. Die Haplotypanalyse -MH30/-1661 zeigt, dass der Haplotyp „CG“ bei Typ 1 Diabetes mellitus signifikant häufiger auftritt als in der Kontrollgruppe. Der Haplotyp –MH30G/- 1661G hat eine protektive Wirkung. Weiterhin vermittelt der Haplotyp -318/+49G ein erhöhtes Diabetes-Risiko, während der Haplotyp „C/A“ protektiv wirkt. Des Weiteren wurde die Assoziation der oben genannten vier Polymorphismen im CTLA-4 Gen mit der Autoimmunerkrankung Morbus Addison, untersucht. Beim - 1661A/G-Polymorphismus zeigt sich eine signifikant erhöhte Frequenz des Genotyp „A/A“ bei Patienten mit Morbus Addison. Der Genotyp „G/G“ sowie das Allel „G“ des Exon 1- Polymorphismus sind häufiger bei Patienten mit Morbus Addison als bei den Kontrollen und vermitteln somit ein erhöhtes Risiko an Morbus Addison zu erkranken. Im Gegensatz hierzu hat das Allel „A“ eine protektive Wirkung und tritt gehäuft in der Kontrollgruppe auf. Der –MH30 – Polymorphismus und der Promotorpolymorphismus des CTLA-4 Gen zeigen keine relevanten Assoziationen mit Morbus Addison in der deutschen Population. Die Haplotypanalyse der -319 und +49 Polymorphismen zeigt, dass der Haplotyp „C/A“ eine protektive Wirkung hat und daher das Risiko an Morbus Addison zu erkranken, senkt. Der Haplotyp – 319C/+49G birgt dagegen ein erhöhtes Erkrankungsrisiko. Bei Hashimoto-Thyreoiditis zeigte sich, dass der –MH30 C/G-Polymorphismus mit der Erkrankung assoziiert ist. Im Gegensatz zu den Ergebnissen bei Typ 1 Diabetes mellitus zeigt sich das Allel „C“ als krankheitsprädisponierend. Der Genotyp „C/C“ ist signifikant häufiger im Patientenkollektiv als in der Kontrollgruppe. Das Allel „G“ am Genort CTLA-4 –MH30 wirkt dagegen protekiv. Beim -1661 A/G – Polymorphismus treten beide homozygote Genotypen „A/A“ und „G/G“ im Patientenkollektiv häufiger auf als in der Kontrollgruppe. Der heterozygote Genotyp hingegen „A/G“ ist signifikant seltener in der Patientengruppe zu finden als in der Kontrollgruppe und hat somit eine protektive Wirkung. Die Untersuchung des -319 C/T – und des +49 A/G –Polymorphismus zeigt keine Assoziation mit Hashimoto – Thyreoiditis. Die Haplotypanalyse - MH30 / CTLA-4 – 1661 zeigt, dass die Haplotypen „CG“ und „GG“ eine krankheitsprädisponierende Wirkung haben und gehäuft im Patientenkollektiv auftreten als in der Kontrollgruppe. Der Haplotyp -319/ +49 weist bei Patienten mit Hashimoto- Thyreoiditis keine Assoziation auf. Analog zu den anderen oben aufgeführten Autoimmunendokrinopathien wurden auch vier CTLA-4 Polymorphismen auf ihre Korrelation mit Morbus Basedow hin untersucht. Es konnte hier gezeigt werden, dass die untersuchten Polymorphismen keinen wesentlichen Beitrag zur Vermittelung des genetischen Risikos für Morbus Basedow leisten. Die Korrelationsuntersuchung der Polymorphismen zeigte auch keine Assoziation der Haplotypen mit Morbus Basedow. Dies schließt jedoch das CTLA-4 Gen als ein Suspezeptibilitätsgen für Morbus Basedow nicht aus, zumal Assoziationen mit weiteren in dieser Arbeit nicht untersuchten CTLA-4 Polymorphismen bestehen können. Zusammengefasst wird durch die Untersuchung dieser Doktorarbeit die These unterstützt, dass das CTLA-4 Gen eine wichtige Rolle in der Entstehung der Autoimmunendokrinopathien einnimmt. Die hier untersuchten Polymorphismen des CTLA-4 Gens sind prädisponierende Faktoren für Autoimmunendokrinopathien, insbesondere für Typ 1 Diabetes mellitus, Morbus Addison und Hashimoto-Thyreoiditis.
Laut BQS (Bundesgeschäftsstelle Qualitätssicherung) nimmt die Anzahl der durchgeführten Hüftendoprothesenerstimplantationen kontinuierlich zu (2006: 146.853; 2008: 157.350), bedingt nicht zuletzt durch die demographische Entwicklung (zunehmende Alterung der Gesellschaft). Die auftretenden Komplikationen nach solchen Operationen legen es nahe, an einer weiteren Optimierung des Behandlungsverfahrens zu arbeiten. Dabei wurde bisher kaum untersucht, inwieweit bei einer Hüftprothesenimplantation das Rotationsprofil der unteren Extremität die Prothesenauswahl bzw. die Prothesengestalt beeinflussen sollte. Das Resultat der Messung anthropometrischer Rotationsverhältnisse durch Bestimmung des Antetorsionswinkels (AT oder ATWinkel) und Unterschenkelrotationswinkels (UR oder UR-Winkel) an der unteren Extremität und deren Inbezugsetzung zueinander wird in dieser Studie „Rotationsprofil“ genannt. Ein solches Rotationsprofil wird allerdings in der CT-basierten Individualendoprothetik des Hüftgelenks routinemäßig erhoben und sein Ergebnis in die Prothesenrekonstruktion oder -auswahl eingearbeitet. Der Grund für diese Vorgehensweise liegt in der Überlegung, dass es – bei einer wie üblich vorgenommenen Ausrichtung z. B. einer Geradschaftprothese an der Kniekondylenebene – unter Umständen postoperativ zu einer tatsächlichen Retrotorsion bzw. zu Einschränkungen des Bewegungsumfangs im Hüftgelenk kommen kann. Theoretisch ist in extremen Fällen nicht nur eine Luxation des Hüftkopfs vorstellbar, sondern auch eine mittelfristig induzierte Lockerung der Prothese, bedingt durch eine suboptimale Anpassung des ATWinkels im Rahmen der Planung des Prothesendesigns, und damit eine veränderte Krafteinleitung in das proximale Femur. In der hier vorgestellten Studie wird anhand eines größeren Patientenkollektivs, bei dem die Indikation für eine Hüftgelenksprothese aufgrund einer primären oder sekundären Coxarthrose gestellt worden war, das Rotationsprofil an der betroffenen Extremität im CT ermittelt. In dem Patientenkollektiv sollte zunächst eine mögliche geschlechtsspezifische Beziehung zwischen den Variablen AT und UR nachgewiesen werden. Erstmalig wurde eine Analyse des Rotationsprofils in verschiedenen Subgruppen hinsichtlich des Alters (vier Subgruppen) und der Größe des Antetorsionswinkels (fünf Subgruppen) durchgeführt. Es wurde die Hypothese überprüft, ob ein hoher AT-Winkel mit einem hohen UR-Winkel korreliert.
Die minimalinvasive Herzchirurgie ist an der Universität Frankfurt seit Ende der 90er Jahre ein etabliertes Verfahren zur Therapie von Mitralklappenvitien. Dabei kommen die rechtslaterale Minithorakotomie und die partielle oberer Sternotomie mit Verwendung der Herz-Lungen-Maschine zum Einsatz. In der Klinik für Thorax-, Herz- und thorakale Gefäßchirurgie in Frankfurt wurde von Januar 1998 bis Dezember 2005 bei 331 Patienten die Mitralklappe rekonstruiert bzw. ersetzt, und zwar über die rechtsseitige Minithorakotomie in 231 Fällen, über die partielle Sternotomie bei 100 Patienten. Ziel der vorliegenden Studie war die Evaluierung perioperativer und postoperativer Komplikationen. Perioperativ starben lediglich in der Chitwood-Gruppe 3 Patienten. Das Langzeitüberleben beider Gruppen nähert sich dem der Normalbevölkerung. Hinsichtlich des Zieles dieser Operationen, die Wiederherstellung der Funktion der Mitralklappe, wurden an der Universität Frankfurt, im Vergleich mit bereits vorliegenden Studien, ähnlich gute Ergebnisse erzielt. Früh- und Spätkomplikationen traten bei beiden Operationsverfahren selten auf. Dies wird vor allem an der geringen Reoperationsrate deutlich. Bei der Nachuntersuchung zeigten sich im Vergleich zum präoperativen Zustand der Patienten hochsignifikante Verbesserungen hinsichtlich NYHA-Klassifikation, also der allgemeinen Leistungsfähigkeit. Die erfassten Patienten konnten auch von der Verbesserung der Ventrikelfunktionsparameter profitieren, worin sich die beiden Gruppen nicht unterschieden. Obwohl die postoperativen Ergebnisse gut waren, gilt doch hervorzuheben, dass es zu einigen Problemen gekommen ist: 6 Patienten der Chitwood-Gruppe, deren Mitralklappe mit Hilfe einer Fraterplastik rekonstruiert wurde, mussten reoperiert werden. Daher wurde die Technik der Fraterplastik seit März 2003 nicht mehr eingesetzt. Die dargestellten Ergebnisse aus der Literatur belegen die Effektivität der beiden minimalinvasiven Therapieformen im Hinblick auf Überleben, spätere Leistungsfähigkeit sowie peri- und postoperativer Komplikationen. Beide Methoden haben bewiesen, für ausgewählte Patienten eine sichere Alternative zur medianen Sternotomie zu sein. Durch die Komplexität des Verfahrens nach Chitwood werden heute die meisten minimalinvasiven Eingriffe über die partielle obere Sternotomie durchgeführt. Inzwischen wurde ihre Anwendbarkeit auf Notfallpatienten und Kombinationseingriffe an den Herzklappen ausgeweitet.
Nachweis von fetaler DNA (Rhesus-Gene) im maternalen Plasma mittels verschiedener Nachweismethoden
(2010)
Die Entdeckung zellfreier fetaler DNA im maternalen Plasma führte in der noninvasiven Pränataldiagnostik zu neuen Methoden. Dazu gehört die PCR-Testung von cffDNA, die eine verlässliche non-invasive diagnostische Methode für ein antenatales Screening von Rh-negativen Schwangeren bietet. Die Ergebnisse dieser Studie zeigen, dass anhand einer automatisierten Extraktion fetaler DNA - in Verbindung mit einer PCR - eine zuverlässige Vorhersage des fetalen Rhesus-Faktors bzw. Geschlechts möglich ist. Dies wurde durch die Untersuchung von 25 Rh-negativen Schwangeren verifiziert. Mit der FACS™-Methode, die als Alternative bei der Bestimmung des Rh-Faktors untersucht wurde, konnten - aufgrund der unspezifischen Bindung des FITC-Antikörpers - keine hinreichenden Ergebnisse erzielt werden. Anhand des verwendeten Extraktionsautomaten (chemagic® MSM I) konnte mit hoher Effizienz fetale DNA isoliert werden. Die untersuchten manuellen Extraktionsverfahren hingegen erwiesen sich für einen antenatalen Massentest bzw. die Implementierung in die klinische Routine als eher ungeeignet, da diese zum einen mit einem erhöhten Zeitaufwand verbunden waren, und zum anderen die isolierte Menge an cffDNA für eine PCR-Testung nicht ausreichte. Die Anzahl der maternalen Plasmaproben, die in dieser Arbeit untersucht wurden, reicht nicht aus um zu belegen, dass die untersuchten Methoden die gleiche Sicherheit bieten, wie die generelle Immunprophylaxe. Daher sind weitere groß angelegte Feldstudien notwendig.
Hintergrund: Patienten mit einer Lese- und Rechtschreibstörung (LRS) sind von einer langfristigen Behinderung betroffen, die sich nachteilig auf die schulische und soziale Entwicklung auswirkt. Insbesondere stellt die Lesekompetenz einen Grundbaustein der individuellen Bildung dar, ohne die ein fächerübergreifendes Lernen nicht möglich ist. Es besteht die Vermutung, dass die Diagnostik und folglich auch die Therapie der isolierten Rechtschreibstörung in der klinischen Praxis überwiegen und Kinder mit einer (isolierten) Lesestörung übersehen werden. Diese Studie beschäftigt sich mit der Frage, ob Lesestörungen unerkannt bleiben. Ferner ist bekannt, dass Patienten mit einem Asperger-Syndrom bei guter Lesefertigkeit, häufig Defizite im Bereich des Leseverständnisses aufweisen. Es wird untersucht, ob ein Zusammenhang zwischen der Lesefertigkeit und der Ausprägung autistischer Symptomatik besteht. Patienten und Methode: In einem dreimonatigen Zeitraum (T 2: 09/07 – 11/07) werden alle ambulanten und stationären Neuaufnahmen (8 - 17 Jahre) hinsichtlich ihrer Lese- und Rechtschreibfähigkeit sowie autistischer Symptomatik untersucht. Nach Anwendung der Ausschlusskriterien nehmen N = 104 Patienten an den Gruppentestungen teil, die jeweils einen IQ-Test, je nach Altersgruppe zwei bis drei Lesetests und einen Rechtschreibtest beinhalten. Die Eltern der Kinder füllen einen Autismus-, psychopathologischen und Zusatzfragebogen aus. Die Ergebnisse der Leistungstests werden mit den Diagnosestellungen des gleichen Zeitraumes aus dem Jahr 2006 (T 1: 09/06 – 11/06) verglichen, wobei zu dieser Zeit keine forcierten Testungen stattfanden. Ergebnisse: Im Zeitraum T 2 wiesen 14 Patienten (13,5%) eine isolierte Lesestörung auf. Dies entspricht einer viermal häufigeren Diagnosestellung als im Jahr zuvor, bei der nur 3 Patienten (3,3 %) eine alleinige Lesestörung aufwiesen (p = .013). Bei 16 (15,4%) Probanden konnte eine isolierte Rechtschreibstörung diagnostiziert werden. 2006 wurden nur 6 (6,7 %) Kinder mit dieser Diagnose ermittelt (p = .056). Die Diagnose der LRS (F81.0) erhielten im Jahr 2007 20 Kinder (19,2%). Im Jahr zuvor fanden sich bloß 8 (8,9%) Kinder mit einer LRS (F81.0) (p = .041). Die Ergebnisse im Autismusscreening konnten keine Zusammenhänge zwischen der Lesefertigkeit und der Ausprägung autistischer Symptomatik bestätigen. Schlussfolgerung: Lesestörungen bleiben unerkannt. Für ihre Diagnostik ist es von essentieller Bedeutung, bei Vorliegen eines klinischen Verdachts stets Testungen zu Lese- und Rechtschreibstörungen durchzuführen. Einer Routinetestung aller Neuaufnahmen kann jedoch nicht angeraten werden. Es empfiehlt sich alle Patienten zu testen, die eine typische Begleitstörung der LRS aufweisen, z.B. hyperkinetische Störungen.
Die Präkonditionierung mit den bakteriellen Zellwandbestandteilen Lipopolysaccharid (LPS) oder Lipoteichonsäure (LTA) führt in vivo zu einer Reduktion der myokardialen Infarktgröße nach Ischämie und Reperfusion (I/R). Hierbei wird durch die Präkonditionierung u.a. die Akkumulation neutrophiler Granulozyten im Ischämiegebiet während der Reperfusionsphase reduziert und somit einer der wichtigsten Mechanismen bei der Entstehung des Reperfusionsschadens am Herzen vermindert. In dieser Studie bedienten wir uns eines ex vivo Modells nach Langendorff mit regionaler I/R und zellfreier Perfusion. Wir konnten erstmalig eine LTA-Präkonditionierung in einem leukozytenfreien System zeigen und somit demonstrieren, dass die LTA-Präkonditionierung Mechanismen involviert, die unabhängig sind von einer Akkumulation neutrophiler Granulozyten. 24 Stunden nach einer Vorbehandlung der Ratten mit LPS, LTA, Kochsalz und/oder Dexamethason wurden die Herzen entfernt und retrograd mit oxygenierter Krebs-Henseleit-Lösung perfundiert. Die Herzen wurden einer 20-minütigen Ischämie, gefolgt von einer 2-stündigen Reperfusionsphase, unterzogen. Das Infarktrisikogebiet (Evans-Blue-Färbung) und das Infarktgebiet (pNBT-Färbung) wurden planimetrisch bestimmt. Die ischämische Präkonditionierung (IPC) wurde als Positivkontrolle unseres Modells verwendet. LTA- und LPS-Präkonditionierung führten - ebenso wie IPC - bei gleicher Dosierung in vergleichbarem Umfang zu einer signifikanten Reduktion der Infarktgröße. Dieser Effekt konnte durch Vorbehandlung mit Dexamethason vollständig aufgehoben werden, so dass gefolgert werden kann, dass die Protektion durch LPS bzw. LTA. von der Modulation der inflammatorischen Vorgänge im Endothel und Myokard mit abhängt.
Ein erblich bedingter Funktionsverlust der DNA Mismatch Reparatur (MMR) Proteine hMSH2 und hMLH1 führt zu genetischer Instabilität und frühzeitiger Ausbildung von Krebserkrankungen, insbesonders des Kolons und des Endometriums. Diese Erkrankung wird nach ihrem Erstbeschreiber als Lynch Syndrom oder im Falle eines kolorektalen Karzinoms auch als erbliches nichtpolypöses kolorektales Karzinom (hereditary non polyposis colorectal cancer, HNPCC) bezeichnet. Neben der DNA Reparatur sind MMR Proteine auch an weiteren regulatorischen Prozessen wie genetischer Rekombination, Antikörperbildung sowie Zellzyklus Regulation und Apoptose beteiligt. Aus onkologischer Sicht ist besonders der letzte Punkt von Interesse, da man davon ausgeht, dass MMR Proteine bei exzessiven DNA-Schäden den Zellzyklus anhalten und entweder die DNA reparieren oder die Apoptose einleiten. Dies ist von klinischer Bedeutung, da viele Chemotherapeutika künstliche DNA-Läsionen hervorrufen, die in MMR defizienten Zellen weder zu einem Zellzyklus Stop noch zur Apoptose führen, so dass die Wirksamkeit bestimmter Substanzen vermindert ist. Aus diesem Grund wurde im Rahmen der vorgelegten Dissertation ein Screening zur Identifikation von Interaktionspartnern von hMLH1 durchgeführt. hMLH1 ist hauptsächlich im Zellkern lokalisiert, über Interaktionspartner im Zytoplasma ist bisher wenig bekannt. Im Rahmen dieser Arbeit wurde ein neues bakterielles Zweihybrid-System etabliert. In diesem System besitzen die Wirtszellen keinen Zellkern, so dass die detektierten Interaktionen unabhängig von der intrazellulären Lokalisation stattfinden. Die Klone einer cDNA-Datenbank wurden mit hMLH1 in Bakterienzellen koexprimiert und die Interaktionen durch positives Zellwachstum auf Minimalnährböden angezeigt. Die positiven Klone wurden anschließend sequenziert und die Sequenz mit Hilfe der BLAST-Funktion mit der PubMed Online-Datenbank abgeglichen. Insgesamt wurden 108 bisher unbekannte Interaktionspartner von hMLH1 detektiert. Von diesen konnten zahlreiche Proteine den bekannten Funktionen der MMR zugeordnet werden. Von besonderem Interesse sind einige Interaktionspartner aus den Bereichen Zellzyklus Regulation (ANXA6, LPP2, NDRG1, PTP4A2/RH, RAPGEFL1, SPTLC2 und ARAF1), Apoptose (CTSB, CAPN5, DDX47, DES und Atmungskettenproteine) und ribosomale Proteine (EIF2A, EEF2, RPS2, RPS5 und RPS16). Weitere Untersuchungen müssen zeigen, welche dieser Interaktionspartner sich möglicherweise als prognostische bzw. prädiktive Biomarker nutzen lassen. Weiterhin könnten sich durch fundierte Kenntnis der Interaktion von MMR und Zellzyklus Regulation bzw. Apoptose neue Ansatzpunkte bei der Entwicklung zukünftiger therapeutischer Substanzen ergeben.
Die Hämodialyse ist ein etabliertes Verfahren zur Behandlung der terminalen Niereninsuffizienz. Sowohl in Deutschland, als auch international, ist eine Zunahme der Erkrankungshäufigkeit für die terminale Niereninsuffizienz festzustellen, in erster Linie aufgrund einer diabetischen oder hypertonen Nephropathie. Die arteriovenöse Fistel (AVF) hat sich als beste Form des Gefäßzuganges für die Hämodialyse erwiesen. Eine mögliche Komplikation der AVF ist das Dialyseshunt assoziierte Steal-Syndroms (DASS). Die Inzidenz des DASS wird in der Literatur mit 1-8% angegeben, als Risikofaktoren gelten unter anderem Alter und Diabetes mellitus- gerade die Faktoren, die auch für die Zunahme der Nierenerkrankungen verantwortlich sind. Daher ist für die Zukunft mit einem Anstieg der Inzidenz für das DASS unter den über einen Shunt dialysierten, terminal niereninsuffizienten Patienten zu rechnen. Die einzig erfolgsversprechende Behandlung des DASS erfordert ein chirurgisches Vorgehen, andernfalls drohen irreversible trophische Störungen. Ziel der Therapie ist die Beseitigung der Ischämie unter Erhalt der Shuntfunktion. In der vorgestellten Bi-Centerstudie konnten 76 DRIL- Prozeduren ausgewertet werden, die zwischen Mai 1996 und Januar 2008 in der Klinik für Gefäß- und Endovascularchirurgie der Johann Wolfgang Goethe-Universität Frankfurt und in der Chirurgischen/Gefäßchirurgischen Klinik des St. Martinus- Hospitals Olpe an 69 Patienten durchgeführt worden sind. Dabei konnte gezeigt werden, dass die erstmals von Schanzer et al. 1988 beschriebene DRIL- Prozedur geeignet ist, dieses Therapieziel auch langfristig zu erfüllen. Die kombinierte Offenheitsrate sowohl des DRIL- Bypasses als auch des Shunts post DRIL-Prozedur mit Regression oder Beseitigung der Ischämiesymptomatik betrug nach 6 Monaten 89,5%, nach 12 Monaten 80,2% und nach 5 Jahren 60,8%. Die theoretischen Überlegungen zum Verständnis der beim DASS vorliegenden hämodynamischen Verhältnisse erklären die Effektivität der Prozedur und die Überlegenheit gegenüber anderen Verfahren. Schlussfolgerung: Trotz des überwiegend betroffenen multimorbiden Patientenguts ist die technische Durchführbarkeit der DRIL-Prozedur erprobt, sicher und führt zum prompten und nachhaltigen Verschwinden der Ischämiebeschwerden, ohne die Shuntfunktion zu kompromittieren. Aus diesem Grund gehört die DRIL- Prozedur in das Portfolio jedes Shuntchirurgen.
Viele bösartige Tumore wie das kolorektale Karzinom oder das Mamma-Karzinom metastasieren in die Leber. Je nach Primarius kommen unterschiedliche Therapiestrategien in Frage. Die Laserinduzierte Thermotherapie (LITT) gehört neben vielen anderen minimalinvasiven Therapieformen zu den Thermotherapien und stellt eine Ergänzung zur Operation oder Chemotherapie dar und kann auch besonders bei isoliertem Leberbefall als alleinige Therapiestrategie angewandt werden. Vorteile sind die ambulante Durchführbarkeit und eine geringe Komplikationsrate. Nach CT-gesteuerter Punktion der Metastasen wird die Therapie unter Online-Monitoring im MRT mittels thermosensitiver Sequenzen überwacht. Unter Einwirkung der Laserphotonen auf das Lebergewebe kommt es durch Energieabsorption zu einer Erwärmung und Zerstörung des tumorösen Gewebes. Da der Energiebedarf zur Zerstörung der Metastasen auch bei volumengleichen Läsionen sehr schwankt, galt es anhand dieser Arbeit herauszufinden, ob ein Zusammenhang zwischen dem Energiebedarf und der im CT gemessenen Leberdichte besteht. Hierzu wurden 168 Patienten mit 279 Lebermetastasen unterschiedlicher Herkunft in die Studie eingeschlossen, die sich im Zeitraum von März 2006 bis März 2007 einer LITT-Behandlung unterzogen hatten. 55,4 % der Patienten waren mit einer Transarteriellen Chemotherapie (TACE) vorbehandelt, die aufgrund einer Reduzierung des Blutflusses in der Leber zu einem geringeren Energiebedarf führt. Vor der jeweiligen Laserung wurde im Punktions-CT die Leberdichte anhand der Hounsfieldeinheiten und im 24 h-MRT, sowie in den Kontrolluntersuchungen nach 3, 6 und 12 Monaten das Volumen der induzierten Nekrose bestimmt. Der benötigte Energiebedarf konnte aus der Anzahl, der Laufzeit und der Leistung der Laser errechnet werden. Bei Betrachtung der mittleren Nekrosevolumina konnte ein Rückgang in den Kontrolluntersuchungen verzeichnet werden. Dies spricht für Rezidivfreiheit bei der Mehrzahl der Metastasen an der jeweils gelaserten Stelle. Die Analyse der Überlebenszeiten nach der ersten LITT ergab bei einem Beobachtungszeitraum von 25 Monaten im Gesamtkollektiv eine mittlere Überlebenszeit von 21 Monaten, sowie eine kumulative Überlebensrate von 83,33 %. Patienten mit Metastasen des colorektalen Karzinoms wiesen im Mittel eine Überlebenszeit von 22 Monaten und eine Überlebensrate von 86,11 %, die des Mamma-Karzinoms ebenfalls eine mittlere Überlebenszeit von 22 Monaten und eine Überlebensrate von 84,91 % am Ende des Beobachtungszeitraumes auf. HCC-Patienten überlebten im Mittel 19 Monate und hatten eine Überlebensrate von 76,74 % nach 24 Monaten. Hieraus ergeben sich Überlebenszeiten, die deutlich über denen weiterer minimalinvasiver Verfahren, wie der Radiofrequenzablation oder der Mikrowellentherapie liegen. Ein direkter Vergleich mit den konventionellen Therapiemöglichkeiten, wie der chirurgischen Resektion oder der Chemotherapie gelingt bei unterschiedlichen Studiendaten, sowie -voraussetzungen nur schwer. Überlegen ist die LITT gegenüber der chirurgischen Resektion jedoch in der Krankenhausverweildauer und der geringen Invasivität. Gegenüber einer Chemotherapie ist die LITT hinsichtlich einer fehlenden systemischen Therapiekomponente im Nachteil. Nach anfänglicher Untersuchung des Gesamtkollektivs wurden die Patienten in 2 Gruppen unterteilt. Hierbei war das Unterscheidungsmerkmal die Vorbehandlung mit der TACE. Es wurde jeweils die Korrelation des Energiebedarfs mit der Nekrosengröße und den Hounsfieldeinheiten geprüft. Nachdem sich im Gesamtkollektiv und auch in den Untergruppen kein statistisch signifikanter linearer oder einfach exponentieller Zusammenhang zeigte, konnte nach Einteilung der Hounsfieldeinheiten in Dichtebereiche, sowie Berechnung eines mittleren Energiebedarfs nach erneuter Korrelationsberechnung ein positiver Zusammenhang gezeigt werden, so dass bei steigender Gewebsdichte von einem Mehrbedarf an Energie ausgegangen und eine Laserapplikatorenanzahl anhand der Gewebsdichte berechnet werden kann. Da die Streubreite der Werte um den Mittelwert jedoch sehr groß ist, ist fraglich, ob die Berechnung im Vorfeld der Therapie einen Nutzen für die Kosten- und Zeiteffizienz der LITT erbringt. Beim Vergleich des Energiebedarfes der 2 Untergruppen zeigte sich deutlich ein um ca. 0,5 kJ/cm3 niedriger Energiebedarf in der Gruppe der vorembolisierten Patienten, sowie eine im Durchschnitt höhere Gewebsdichte der TACE-Patienten aufgrund geringerer Durchblutung des Lebergewebes nach der Embolisation.
Die vorliegende Studie beleuchtet Pathogenese, Klinik und Therapie lumbaler lateraler Bandscheibenvorfälle und stellt mit einem mittleren Follow-up von 12,2 Jahren erstmalig Langzeitresultate nach operativer Therapie vor. Untersucht wurde ein Kollektiv von 138 Patienten, die im Zeitraum von 1989 bis 2008 in der Klinik für Neurochirurgie der Goethe-Universität Frankfurt am Main an einem lumbalen lateralen Bandscheibenvorfall operiert wurden. Die prä- und unmittelbar postoperativen Daten sowie die Details der Operationen wurden den schriftlichen und elektronischen Aufzeichnungen des Krankenblattarchivs entnommen. Postoperativ konnten 87 Patienten des Kollektivs kontaktiert und mit Hilfe eines hierfür konzipierten Fragenbogens telefonisch interviewt werden (Rücklaufquote 63,0%). Im Rahmen dieses Follow-ups wurden noch eventuell vorhandene Beschwerden, die berufliche Situation und die subjektive Zufriedenheit der Patienten erfasst und ausgewertet. Das Durchschnittsalter der Patienten zum Zeitpunkt der Operation betrug im Mittel 55,9 Jahre, eine geschlechtliche Präponderanz fand sich nicht. Es wurden etwas mehr Männer operiert (54,3%), wobei sich jedoch kein statistisch relevanter Unterschied fand. Die am häufigsten betroffenen Lokalisationen waren LWK 4/5 und LWK 3/4 mit insgesamt 73,9%. In 82,6% der Fälle wurde der Vorfall über den lateralen Zugang, in 13,0% über einen medialen Zugang jeweils in mikrochirurgischer Technik entfernt, bei 4,4% kamen endoskopische Verfahren zum Einsatz. Präoperativ klagten 96,4% der Patienten über Lumbago. Bei der Befragung im Langzeitverlauf gaben 41,2% keinerlei Lumbago mehr an und nur 11,8% verspürten ständige Schmerzen im LWS‐Bereich. Radikuläre Schmerzen waren präoperativ ebenfalls bei 96,4%, zum Zeitpunkt der Befragung nur noch bei 22,1% vorhanden. Die Sensibilitätsstörungen gingen von präoperativen 79,0% auf 49,3% bei der Befragung zurück. Einen noch deutlicheren Rückgang erfuhren die Paresen: von 71,7% auf 29,3%. Weiterhin wurden die berufliche Situation und die körperliche Bewegungseinschränkung bewertet: 72,2% der erwerbstätigen Patienten konnten ihre Arbeit wieder aufnehmen und 7,4% haben ihre Arbeit gewechselt. Lediglich 16,7% der Patienten nahmen postoperativ ihre Tätigkeit nicht mehr auf. Etwa 10% der Patienten gaben eine Einschränkung ihrer täglichen Aktivitäten durch die Schmerzen an. Bei 10,9% der Patienten kam es zu erneuten Beschwerden ausgehend von der gleichen Höhe, so dass ein erneuter Eingriff indiziert war. Fast alle diese Reoperationen fanden bereits im ersten postoperativen Jahr statt. Bei drei Patienten (2,2%) wurde eine dritte Operation notwendig. Als wesentliches Kriterium für die Bewertung des Operationsergebnisses gilt die subjektive Zufriedenheit des Patienten. Hier konnte in der vorliegenden Studie eine Zufriedenheit von 94,3% nach einem mittleren Follow‐up von 12,2 Jahren nach Operation festgestellt werden. 75,9% der Patienten waren mit dem Ergebnis sogar sehr zufrieden. Die in der vorliegenden Studie erfassten und ausgewerteten Ergebnisse decken sich zum großen Teil mit kurz‐ und mittelfristigen Studien über laterale Vorfälle und mit vielen Studien über den weitaus häufigeren mediolateralen Vorfall. Sie bestätigen die mikrochirurgische Diskektomie über den lateralen Zugang als ein adäquates und sicheres Therapieverfahren mit langfristigem Erfolg für die Behandlung des lateralen Bandscheibenvorfalls. Bei richtiger Indikationsstellung bringt diese operative Behandlung, trotz ungewohnter und anspruchsvoller Operationstechnik, für die meisten Patienten mit therapieresistenten Lumboischialgien eine schnelle und deutliche Besserung. Diese Studie zeigt, dass die aus der Literatur bekannten Erfolgsraten auch nach einem Langzeitverlauf von über 12 Jahren konstant bleiben.
Prognostische Bedeutung von "electrical storm" und seinen verschiedenen Formen bei Patienten mit ICD
(2010)
Ziel: Das Ziel der vorliegenden Arbeit war es, die Unterschiede bezüglich Mortalität, demographischen und klinischen Parametern, zwischen „electrical storm) (ES) und „nicht electrical storm“ (NES) Patienten sowie zwischen den Gruppen mit verschiedenen Formen des ES aufzuzeigen, um Aussagen über die prognostische Bedeutung von ES und dessen verschiedene Formen und den Einfluss der demographischen und klinischen Parameter auf die Entstehung von ES machen zu können. Hintergrund: Es existieren nur ungenügende Daten bezüglich der Entstehung und Prognose von ES bei ICD Patienten. Die prognostische Bedeutung der bei ES auftretenden Herzfrequenzen wurde bislang nur von einer Arbeitsgruppe untersucht und bedarf weiterer Studien. Methoden: In der Studie wurden retrospektiv die Daten von 783 konsekutiven Patienten, denen von Dezember 1989 bis September 2005 in der JWG Universitätsklinik Frankfurt am Main ein ICD implantiert wurde, ausgewertet. Die Nachsorgedauer betrug 40,7 ± 30 Monate. ES wurde als das drei oder mehrmalige Auftreten von anhaltende VTs / VFs innerhalb von 24 h, die mit ATP oder Schock therapiert wurden definiert. In der Studie wurden erstmals ES Patienten mit immer gleichen HF während eines ES mit denen mit unterschiedlichen HF verglichen. Weiterhin wurde die Gruppe der Patienten mit gleichen HF in die Untergruppen HF 100-200/min und > 200/min eingeteilt und ein Vergleich durchgeführt. Ergebnisse: Von den 783 Patienten erlitten 144 (18,39%) während des Beobachtungszeitraumes einen oder mehrere ES. Männliches Geschlecht (p = 0,004), eine sekundäre Indikation zur ICD Implantation (p = 0,000) sowie die fehlende Einnahme von Aldosteron-antagonisten (p = 0,026) zeigten sich in der multivariaten Analyse als unabhängige Faktoren, die die Entstehung von ES begünstigen. Es verstarben höchst signifikant häufiger Patienten der ES Gruppe als Patienten der NES Gruppe (38,88% vs. 21,75%; p = 0,000116). Die Cox Regression zeigte jedoch, dass die Tatsache des Erleidens eines ES keinen unabhängigen Faktor für das Überleben darstellt. Beim Vergleich der Patienten mit unterschiedlichen und gleichen Herzfrequenzen zeigte sich, dass Patienten mit unterschiedlichen Herzfrequenzen häufiger versterben als Patienten mit gleichen Herzfrequenzen (41,18% vs. 27,50%). Die Ergebnisse erlangten jedoch keine Signifikanz. Beim Vergleich der Patienten der unterschiedlichen HF Gruppen zeigte sich, dass signifikant mehr Patienten mit einer HF >200/min eine LVEF unter 30% haben (84,62% vs. 44,44%, p = 0,038310). Es sind mehr Patienten mit einer HF >200/min als mit einer HF von 100-200/min verstorben (38,46% vs. 22,22%), die Ergebnisse erlangten jedoch keine Signifikanz. Schlussfolgerung: ICD Patienten mit ES versterben signifikant häufiger als ICD Patienten, die keinen ES erleiden. ES ist jedoch kein unabhängiger Faktor für das Überleben von ICD Patienten. Zum ersten Mal wurden ES Patienten eingeteilt in verschiedene HF Gruppen verglichen, und es ergaben sich deutliche prozentuale Unterschiede. Um jedoch statistisch signifikante Aussagen über die Auswirkung der verschiedenen HF bei ICD Patienten mit ES machen zu können, bedarf es Studien mit wesentlich höheren Studienpopulationen. Aus den Studienergebnissen des Vergleiches der Baselinedaten lassen sich Risikofaktoren sowie protektive Faktoren, die das Auftreten eines ES beeinflussen, ableiten, wodurch in Zukunft Risikopatienten identifiziert werden und entsprechende Vorsorgemaßnahmen eingeleitet werden können.
In unserer Untersuchung wurde die systolischen und diastolischen Funktionsparameter sowohl bei gesunden Kindern als auch im Rahmen der Früherkennung toxischer Kardiomyopathien nach Anthrazyklintherapie mittels 3D- und 2D-Echokardiographie bestimmt. Wir konnten eine signifikante Abnahme der EF unter anthrazyklinhaltiger Chemotherapie durch beide Messverfahren nachweisen (2D: p= 0,013033; 3D: p = 0.001526). Jedoch zeigte sich keine Korrelation der Ergebnisse beider Verfahren (Bland-Altmann´s Korrelationskoeffizient r=0,1897, Student´s t-Test p<0,01). Die nach Teichholz ermittelte LVEF lag in der therapienaiven Gruppe um durchschnittlich 7% in der therapierten um 8% höher als in der 3D-Messung, hier zeigte sich nur bei zwei Kindern eine leichtgradige Einschränkung der EF und bei einem Kind eine höhergradige Einschränkung der EF nach Chemotherapie. Der Mittelwert der dreidimensional ermittelten LVEF lag in der mit Anthrazyklinen therapierten Gruppe nah am unteren Normwert. Bei neunzehn Kindern konnte eine leicht eingeschränkte linksventrikuläre Funktion nachgewiesen werden, bei einem Kind war sie höhergradig eingeschränkt. Es konnten also mit Hilfe der 3D-Echokardiographie signifikant mehr beginnende Einschränkungen der LVEF nachgewiesen werden (p=0,00520). Durch diese Ergebnisse wird die Relevanz guter Vorsorgeuntersuchungen vor und während anthrazyklinhaltigen Chemotherapien offenkundig. Mit Hilfe der 3D-Echokardiographie können schon frühzeitig beginnende Kardiomyopathien entdeckt und behandelt werden. Bei frühzeitigem Behandlungsbeginn können die Spätfolgen deutlich reduziert werden (70/71). Gerade im Kindesalter ist dies von großer Bedeutung, da die jungen Patienten die längste Zeit ihres Lebens noch vor sich haben und am meisten unter der stark eingeschränkten Lebensqualität bei Kardiomyopathie leiden. Einige Kinder mussten in der Vergangenheit nach anthrazyklinhaltiger Chemotherapie herztransplantiert werden (96). Als wesentliches Merkmal einer beginnenden Herzschädigung vor einer manifesten Einschränkung der linksventrikulären systolischen Funktion gilt die diastolische Herzfunktion. Wir konnten zeigen, dass signifikant mehr diastolische Funktionsstörungen (p= 0,011185) nach anthrazyklinhaltiger Chemotherapie als vor der Therapie auftraten, außerdem konnten wir in diesem Zusammenhang auch eine Dosisabhängigkeit mit linearem Trend nachweisen. Patienten, denen Dosen von 200-400 mg/m² appliziert wurden, weisen sigifikant (p= 0,033310) häufiger diastolische Funktionsstörungen auf als vor Therapie. Dies konnte bei Dosen von 0-200 mg/m² nicht gezeigt werden, allerdings kann man durch die graphische Darstellung auf eine Tendenz schließen. Entsprechend der Studie von Sorensen et al. (136) nehmen wir eine Anthrazyklindosis von > 200 mg/m² als Hauptrisikofaktor für die Entwicklung einer toxischen Kardiomyopathie an. Als positives Ergebnis unserer Untersuchung ist das insgesamt seltene Auftreten von relevanten Kardiomyopathien zu werten, auch die diastolische Funktion liegt bei den meisten Kindern nach Therapie im Normbereich. Am ehesten ist dies der sorgfältigen Vorsorge und der strengen Einhaltung der kumulativen Schwellendosis zuzuschreiben.
Das Chronic Care Model (CCM) stellt eine Zusammenfassung evidenzbasierter Erkenntnisse dar, um die Versorgung chronisch Erkrankter zu optimieren. Diverse Messinstrumente sind in den letzten Jahren zur Erfassung des Implementierungserfolges des CCM aus Sicht der Leistungserbringer und der Patienten entwickelt worden. Einen Ansatz zur Erfassung, inwiefern die im CCM beinhalteten Dimensionen angewendet werden, stellt das Patient Assessment of Chronic Illness Care (PACIC- 5A) dar. Dieses Instrument wurde im englischsprachigen Raum entwickelt und primär im amerikanischen Gesundheitssystem eingesetzt. Es besteht in der ursprünglichen Fassung aus 20 Items und erfragt in fünf Subskalen CCM-konkordante Aspekte: Patientenaktivierung, Leistungserbringerstruktur / Entscheidungshilfen, Zielsetzung, Problemlösung / Beratung, Follow-up / Koordination. Die erweiterte Version aus 26 Items erlaubt zusätzlich zur Beurteilung der Erfüllung des CCM die Analyse der Umsetzung im Sinne des 5A-Modells, eines behaviouristischen Ansatzes zur Verhaltensänderung. Ziel dieser Arbeit war es, den Fragebogen in die deutsche Sprache ohne Verlust des semantischen Inhaltes zu übersetzen und an einer primärmedizinischen Population im deutschen Gesundheitssystem zu evaluieren. Eine weitere Zielsetzung war, den Implementierungsgrad des CCM-Konstruktes im spezifischen Fall der Major Depression zu erkunden. Hierzu wurde das übersetzte PACIC-5A im Rahmen der im Institut für Allgemeinmedizin der Universitätsklinik Frankfurt durchgeführten ProMPT-Studie zur Betreuung von Patienten mit Major Depression an insgesamt 509 Patienten erprobt. Hiervon wurden 436 Patienten in die Studie eingeschlossen. Hierauf erfolgte die Überprüfung der psychometrischen Eigenschaften. Die statistischen Messergebnisse, hinsichtlich innerer Konsistenz (Cronbach´s α) und Trennschärfe (korrigierte Item-Skala-Korrelation), ergaben gute und mit der aktuellen Literatur übereinstimmende Resultate. Die konvergente Validität des PACIC-5A wurde anhand des primärmedizinisch validen Fragebogens EUROPEP (European Project on Patient Evaluation of General Practice Care) geprüft. Das Ergebnis zeigte hohe Korrelationen vor allem in den inhaltlich vergleichbaren Skalen, wie z.B. Skala „Patientenaktivierung“ aus dem PACIC-5A und Skala „Information und Unterstützung“ des EUROPEP. Die diskriminierenden Fähigkeiten des Fragebogens wurden durch die geringen korrelativen Eigenschaften mit Skalen des EUROPEP, welche andere Dimensionen erörtern, nachgewiesen. Zusätzlich ermöglichte der Vergleich der Mittelwerte der einzelnen Skalen des PACIC-5A zwischen dem Kontroll- und Interventionsarm eine zusätzliche Beurteilung der diskriminierenden Potenz. Das PACIC-5A ist bis jetzt vorrangig an Patienten mit chronischen Erkrankungen aus dem organischen Formenkreis (z.B. Osteoarthritis, Diabetes Mellitus) angewendet und validiert worden. Die kongruente Anwendung des PACIC-5A auf Erkrankte mit Major Depression ist ein limitierender Aspekt. Hier besteht weiterer Forschungsbedarf. Für eine optimale Patientenversorgung in der Primärmedizin ist es essentiell, primärmedizinisch valide Instrumente den Hausärzten zur Verfügung zu stellen.
Morphin-6-Glukuronid (M6G) ist ein aktiver Metabolit von Morphin. Er ist mitverantwortlich für die analgetische und toxische Wirkung nach einer Morphinverabreichung. M6G wird aktuell in klinischen Phase-III-Studien getestet und möglicherweise zukünftig als ein alternatives Schmerzmittel zu Morphin zur Behandlung postoperativer Schmerzen eingeführt. Seine zentralnervösen Opioideffekte könnten sich aufgrund einer erhöhten Konzentration im zentralen Nervensystem (ZNS) als Folge einer erhöhten M6G Blutkonzentration und/ oder einem erhöhten ZNS Transport an der Blut-Hirn-Schranke verstärken. M6G scheint Substrat zahlreicher transmembranöser Transporter zu sein, die u.a. an der Blut-Hirn-Schranke, Niere oder Leber lokalisiert sind. An der Blut-Hirn-Schranke pumpen diese Transporter M6G aktiv aus dem ZNS zurück in das Blut. Die Hemmung der Transporteraktivität könnte somit eine potentielle Ursache einer erhöhten ZNS Konzentration von M6G mit der Folge vermehrter Nebenwirkungen unter Morphin bzw. Morphin-6-Glukuronid Administration sein. Wir untersuchten die Auswirkungen einer pharmakologischen Hemmung der transmembranösen Transporter P-Glykoprotein, sowie den Probenecid sensitiven Transportern multidrug resistance proteins (MRPs), organic anion transporters (OATs) und organic anion transporter polypeptides (OATPs) auf die Rückenmarkkonzentration und antinozizeptiven Effekte von M6G in Ratten. PSC 833 bzw. Probenecid wurden als Inhibitoren von P-Glykoprotein bzw. Probenecid sensitiven Transportern verwendet. Die Rückenmarkkonzentration von M6G wurde direkt mittels in vivo Mikrodialyse durch eine transversal in das Hinterhorn des Rückenmarks implantierten Sonde gemessen. 20 Ratten erhielten M6G als intravenöse Infusion für 8 Stunden, jeweils 5 von diesen bekamen zusätzlich eine Infusion mit PSC 833 oder Probenecid. Die antinozizeptiven Effekte von M6G wurden durch den Formalinschmerztest während der 8. Stunde der M6G Infusion in weiteren Verhaltensexperimenten bestimmt. Dabei wurde die Dosisabhängigkeit der antinozizeptiven Effekte von M6G mit oder ohne PSC 833 bzw. Probenecid im Vergleich mit PSC 833 alleine, Probenecid alleine und Placebo untersucht. In den Mikrodialyseexperimenten wurde unter P-Glykoprotein Hemmung mit PSC 833 eine nahezu dreifach höhere M6G Rückenmarkkonzentration gemessen, während die Blutplasmakonzentration nur um den Faktor 1.2 erhöht war. Die Folge war eine Verdoppelung des Konzentrationsverhältnis Rückenmark zu Blutplasma (von 0.08 ± 0.03 für M6G alleine auf 0.17 ± 0.08 für M6G mit PSC 833). Die antinozizeptiven Effekte von M6G in den Verhaltensexperimenten waren signifikant erhöht unter P-Glykoprotein Hemmung. Die Inhibition Probenecid sensitiver Transporter verursachte einen gleichmäßigen Anstieg der Blutplasma und Rückenmarkgewebekonzentration um den Faktor 1.4, ohne Veränderung des Konzentrationsverhältnis Rückenmark zu Blutplasma (0.081 ± 0.034 für M6G alleine, 0.082 ± 0.021 für M6G mit Probenecid). Die Verabreichung von Probenecid mit M6G zeigte eine signifikante Reduktion der Anzahl der Flinches im Formalinschmerztest um den Faktor 2.5 im Vergleich zu M6G alleine. Mit dieser Arbeit wurde gezeigt, dass Morphin-6-Glukuronid ein Substrat des Transporters P-Glykoprotein in Ratten ist. Die Verabreichung des P-Glykoprotein Inhibitors PSC 833 erhöhte die Penetration von M6G aus dem Blut in das zentrale Nervensystem und verstärkte dadurch seine antinozizeptive Wirkung. Dieser Effekt ist an der Blut-Hirn-Schranke lokalisiert. Weiterhin wurde demonstriert, dass der Blut-Hirn-Schranken Transport von Morphin-6-Glukuronid nicht durch Probenecid sensitive Transporter beeinflusst wird. Die Verabreichung von Probenecid verstärkte zwar die antinozizeptive Wirkung von M6G aufgrund eines Anstiegs der M6G Rückenmarkkonzentration, jedoch als Folge einer erhöhten Blutplasmakonzentration. Da M6G hauptsächlich in den Urin ausgeschieden wird, ist dieser Effekt wahrscheinlich in der Niere lokalisiert und vermindert die systemische Elimination von M6G. Somit ist M6G ein Substrat Probenecid sensitiver Transporter in Ratten, aber nicht an der Blut-Hirn-Schranke. Da viele Medikamente Inhibitoren von P-Glykoprotein oder Probenecid sensitiven Transportern sind, kann deren gleichzeitige Verabreichung mit Morphin bzw Morphin-6-Glukuronid zu erhöhten M6G ZNS Konzentrationen und Toxizität führen. Die Identifizierung dieser Transporter bedingten Interaktionen in unserer Arbeit kann helfen Medikamentenwechselwirkungen zwischen Inhibitoren und Morphin/ M6G zu vermeiden und die Patientensicherheit unter einer Morphin bzw. Morphin-6-Glukuronid Schmerztherapie zu steigern. Weitere Untersuchungen dieser Interaktionen im Menschen sind nötig, da sie klinisch von großer Bedeutung sind.
Methodik und Material: Injektion von Kolonkarzinomzellen der Zellreihe CC531 subkapsulär in den linken Leberlappen bei 36 männlichen WAG-Ratten (Gewicht 180-220g). Induziert wurden zwei unterschiedlich starke Tumorkonzentrationen: Gruppe A (n = 18, Injektion von 1 Mio. Tumorzellen) und Gruppe B (n = 18, Injektion von 4 Mio. Tumorzellen). Messung der Tiere nach 14 Tagen am CT Siemens Somatom Sensation 64 und Analyse des Tumorvolumens mit dem Volume Viewer Plus von Centricity AW Suite. Unterschiedlich starkes Wachstum der Lebertumore führte zu einer Einteilung der Ratten in Gruppe A(1,2) (n = 12): Tumorvolumen <3,5cm3 und Gruppe B(1,2) (n = 12): Tumorvolumen ≥3,5cm3. Die volumenbezogene Therapie erfolgte an Tag 15 wie folgt: Bei jeweils 6 Tieren der Gruppen A1 und 6 Tieren der Gruppe B1 wurde eine systemische Chemotherapie mit 0,1mg/ml Mitomycin C (Standardtherapie) durchgeführt. Die andere Hälfte der Tiere (6 Tiere der Gruppe A2 und 6 Tiere der Gruppe B2) erhielten die doppelte Konzentration von 0,2mg/ml (< 10% der letalen Dosis). 6 Tiere dienten der pathologischen Auswertung, weitere 6 Tiere dienten als Kontrollgruppe. An Tag 25 erfolgte eine erneute Bestimmung des Tumorvolumens. Ergebnisse: Die Therapie wurde von allen Ratten gut toleriert. Das durchschnittliche Tumorvolumen betrug in A (1,2) 2,18cm3 +/- 0,82 (range: 0,55 – 3,42) und in Gruppe B (1,2) 4,52cm3 +/- 0,82 (range: 3,72 – 5,86). Das CT-follow up an Tag 25 ergab, dass eine erhöhte Mitomycinkonzentration zu einer Tumorregression von 20,55 % in der Gruppe A2, 21,03 % in B1 und 46,61% in B2 führte. In der Gruppe A1 zeigte sich ein Progress des Tumorvolumens von 51,38%. Schlussfolgerung: Chemotherapeutika werden in Abhängigkeit von Körpergewicht, Körpergröße und Körperoberfläche verabreicht. Einen neuartigen Ansatz stellt die tumorvolumenadaptierte Chemotherapie (TVACT) mit Mitomycin C dar, da große Tumorvolumen eine bessere Ansprechbarkeit auf Mitomycin C zeigen als kleinere. Die TVACT ist somit eine neue relevante Behandlungsoption bei der Behandlung von malignen Tumoren im Tiermodell. Hinsichtlich der wachsenden Bedeutung neuer Staging Systeme im avanzierten kolorektalen Karzinom sollte das Tumorvolumen auch als prognostischer Faktor berücksichtigt werden.
Zielstellung: Die Untersuchung des klinischen Effekts der topischen subgingivalen Applikation eines 14%igen Doxycyclin-Gels zusätzlich zu mechanischem Debridement (DEB) während der unterstützenden Parodontitistherapie (UPT) auf die Furkationsbeteiligung mehrwurzeliger Zähne. Material und Methoden: Bei 39 UPT-Patienten mit zumindest vier Zähne mit Sondierungstiefen (ST) ≥ 5 mm und Bluten nach Sondieren (BOP) (davon mindestens eine Furkationsstelle) erfolgte ein DEB aller Stellen mit ST ≥ 4mm. Nach Randomisierung wurde bei 19 Patienten zusätzlich ein 14%iges Doxycyclin-Gel subgingival instilliert (DEB & DOXY). Die klinischen Parameter wurden vor der Therapie (Baseline) sowie 3, 6 und 12 Monate danach erhoben. Der zusätzliche Nutzen des Doxycyclin-Gels wurde bestimmt als 1) Verbesserung der Furkationsbeteiligung und 2) Einfluss auf die Häufigkeit der Reinstrumentierung während der 12 Monate. Ergebnisse: Insgesamt wurden 323 Furkationsstellen (Grad 0: 160; Grad I: 101; Grad II: 18; Grad III: 44) behandelt (DEB: 165; DEB & DOXY: 158). DEB & DOXY resultierte nach 3 Monaten in einer stärkeren Reduktion der Furkationsbeteiligung als alleiniges DEB (p = 0,041). Allerdings führte DEB & DOXY zu keiner Reduktion der Häufigkeit der Reinstrumentierung während der 12 Monate. Schlussfolgerung: Die topische subgingivale Doxycyclingabe zusätzlich zu DEB hat einen kurzzeitigen Effekt auf die Furkationsbeteiligung. Aber es reduziert nicht die Häufigkeit der Reinstrumentierung über einen Zeitraum von 12 Monaten.
Ziel der vorliegenden Arbeit war es, Qualität und Struktur der notärztlichen Versorgung von Patienten mit akutem Koronarsyndrom im Rahmen des „Netzwerks Herzinfarkt“ im Zeitraum vom 01.04. – 31.12. 2003 zu beurteilen. Hierzu wurden aus den von der Rettungsleitstelle zur Verfügung gestellten Daten 1588 Notarzteinsätze ausgewählt, die dem Notruf nach einem akuten Koronarsyndrom entsprechen könnten. Aus diesen 1588 Einsatzprotokollen wurden 506 herausgefiltert, bei denen die notärztliche Diagnose tatsächlich einem akuten Koronarsyndrom entsprach; diese wurden der definitiven Bearbeitung zugeführt. Zunächst wurde die gesamte Dokumentation im DIVI-Einsatzprotokoll auf Vollständigkeit und Schlüssigkeit überprüft, in einem zweiten Schritt dann die Qualität der medikamentösen und Basisversorgung der Patienten beurteilt. In diesen Bereichen waren die wesentlichen Ergebnisse die ausgesprochen ungenaue Dokumentation der Einsatzzeiten sowie der Anamnese und die in 37,5% aller Fälle fehlende Anfertigung eines 12-Ableitungs-EKG´s. Bei der Therapie fiel ein allgemein sehr zurückhaltender Einsatz von Betablockern, ASS und Heparin auf. Ein Vergleich der präklinisch als akuter Myokardinfarkt diagnostizierten Patientengruppe mit der restlichen Stichprobe erbrachte keine signifikanten Unterschiede bezüglich der untersuchten Parameter. Die Sensitivität der notärztlichen Infarktdiagnostik betrug 98,4%, die Spezifität 78,6%. Die benötigten prästationären und innerklinischen Zeiten (Arztkontakt bis zur Einlieferung, contact-balloon, door-balloon-Zeit) blieben im Rahmen bzw. deutlich unter den von den Leitlinien der Deutschen Gesellschaft für Kardiologie geforderten Zeiten. Im Follow-Up-Beobachtungszeitraum (6 Monate) wiesen 97,6% der Rettungsdienstpatienten ein komplikationsloses Überleben auf. Signifikante Ergebnisse konnten bei der Evaluation der Bedeutung der notärztlichen Fachrichtung für die Behandlungsqualität gezeigt werden. So schnitten die Einsatzprotokolle von Chirurgen und Allgemeinmedizinern in der durchgeführten allgemeinen Beurteilung deutlich schlechter ab als die der Internisten und Anästhesisten. Dieser Trend bestätigte sich auch in der konkreten Analyse der medikamentösen Therapie, jeweils gemessen an den gültigen Leitlinien. Insgesamt war die Qualität der notärztlichen Behandlung der Patienten mit akutem Koronarsyndrom als in den genannten Punkten verbesserungsbedürftig, in den übrigen Parametern jedoch als gut anzusehen. Insbesondere im Hinblick auf die notärztliche Fachrichtung scheint eine strukturiertere Weiterbildung zum Erwerb der Zusatzbezeichnung „Notfallmedizin“ empfehlenswert. Die niedrige Komplikationsrate der präklinisch als akuter Myokardinfarkt diagnostizierten und direkt ins Interventionszentrum verbrachten Patienten im Follow-Up-Zeitraum und der deutliche Unterschied zu den Transferpatienten illustriert den Behandlungsbenefit, der aus einer verzögerungsfreien interventionellen Therapie des akuten Myokardinfarkts resultiert.
Hämorrhagischer Schock / Reperfusion (H/R) induziert eine inflammatorische Antwort, die zu hepatozellulären Schäden und einem Multiorganversagen führen kann. In vorhergehenden Studien wurde demonstriert, dass H/R die Phosphorylierung von mitogen aktivierten Stress Kinasen (MAPKs), spezifisch c-JUN und ERK, bewirkt; - eine Reaktion, die ebenfalls mit Leberschäden assoziiert ist. Kürzlich wurde ein spezifisches, zellgängiges, protease-resistentes Peptid, D-JNKI-1, entwickelt, welches die c-JUN N-terminale Kinase (JNK) inhibiert. Ziel der vorliegenden Arbeit war es darzustellen, ob D-JNKI-1 durch eine spezifische Inhibierung der JNK den Leberschaden und das Inflammationsgeschehen nach H/R im Tiermodell verringern kann. Als methodischer Ansatz diente ein H/R-Modell an männlichen Sprague-Dawley Ratten. Nach Vorbehandlung mit D-JNKI-1 bzw. NaCl wurde ein hämorrhagischer Schock induziert und durch Reperfusion nach 1 h beendet. Nach 2 h wurden Gewebe- und Blutproben entnommen. Plasmawerte der Alaninaminotransferase, Kreatinkinase, Laktatdehydrogenase und des Interleukin-6 wurden untersucht, die Gewebeproben wurden histochemisch bzw. immunhistochemisch auf Organschäden (Nekrose und Apoptose) und Inflammationsgeschehen (Neutrophileninfiltration der Leber) untersucht, sowie die relative Proteinexpression der aktivierten Stresskinase JNK mittels spezifischer Detektion des phosphorylierten c-Jun im Western Blot quantifiziert. Diese Arbeit stellt die Rolle von D-JNKI-1 als Peptidinhibitor der JNK während H/R dar. H/R führt zu apoptotischen und nekrotischen Zelluntergängen, beides Vorgänge, welche zumindest zum Teil durch JNK gesteuert sind und mittels D-JNKI-1 reduziert werden können. Eine Hemmung der JNK vor einem hämorrhagischen Schock verringert zudem das Ausmaß der Schäden am Lebergewebe, die Produktion von freien Sauerstoffradikalen sowie die Aktivierung pro-inflammatorischer Signalkaskaden im Tiermodell. Diese Erkenntnisse könnten mit die Grundlage eines möglichen therapeutischen Ansatzes in der Verhinderung der Konsequenzen von H/R bilden.
In der vorliegenden Arbeit zur Bestandsaufnahme der Debatte um den ärztlich assistierten Suizid werden vier Kernprobleme untersucht und eine abschließende Stellungnahme vorgelegt: (1) Ein Einblick in strafrechtliche und standesrechtliche Regelungen zeigt, dass die Gesetzeslage ebenso Raum für Unsicherheiten und Ungewissheit über eine drohende Strafe lässt wie auch die standesrechtliche, in den Bundesländern uneinheitliche Handhabung. Vor allem ist die Berechtigung zum Entzug der Approbation unterschiedlich geregelt. Um darüber Klarheit zu erreichen, wurde eine entsprechende Anfrage an die Justiziare der Landesärztekammern gerichtet. Insgesamt war die Bereitschaft zur Antwort groß, die Aussagen sind jedoch generell nicht eindeutig, so dass die berufsrechtliche Lage nach wie vor und wenig transparent bleibt. (2) Im Überblick dieser Arbeit fällt die Diskrepanz zwischen einer weitgehend liberalen juristischen Position einerseits und einer strikt ablehnenden Haltung der Ärzteschaft andererseits auf. Daher wird die zentrale These der „Unärztlichkeit“ einer Suizidassistenz hinterfragt. Dies erscheint hinsichtlich der damit zum Ausdruck gebrachten Befürchtung, dass das Rollenbild des Arztes Schaden nehmen könnte, ein ernstzunehmendes Argument. Im Rahmen der vorliegenden Arbeit ist besonders die Tragfähigkeit hinsichtlich des freiwilligen, ernstlichen Suizids eines zurechnungsfähigen erwachsenen Patienten von Interesse, der aufgrund schwersten Leidens im terminalen Erkrankungsstadium, ohne psychische Grunderkrankung, sein Leben mit ärztlicher Hilfe beenden will. Die Analyse zeigt, dass das ärztliche Ethos hinsichtlich der Begleitung von schwer kranken Patienten bzw. Sterbenden durch eine ärztliche Suizidassistenz nicht verletzt werden muss, solange der Arzt nicht die Tatherrschaft übernimmt. (3) Nach der Zurückweisung des Arguments der „Unärztlichkeit“ werden weitere Pro- und Contra-Argumente der aktuellen Debatte in Deutschland dargestellt und ebenfalls im Hinblick auf das terminale Stadium erörtert. Dabei zeigt sich, dass keines der Argumente alleine eine eindeutige und verpflichtende Handlung nach sich ziehen könnte. Als wesentliche Herausforderungen bleiben der Hinweis auf das ärztliche Selbstverständnis einerseits und das objektiv nicht linderbare Leiden eines Patienten andererseits. (4) Schließlich wird die vielfach geforderte Lockerung der Garantenstellung des Arztes mit gleichzeitiger standesrechtlicher Billigung des ärztlich assistierten Suizids für ganz spezielle, seltene Ausnahmefälle analysiert. Unter Berücksichtigung und Kontrolle strenger Kriterien könnte so ein denkbarer Kompromiss erreicht und vor allem für betroffene terminal Erkrankte mit unerträglichem Leid ein Ausweg geschaffen werden, der es ihnen ermöglicht, nicht alleine sterben zu müssen. Einem Dammbruch kann ebenso vorgebeugt werden wie dem aktuellen Sterbetourismus. (5) Als Ergebnis der Befassung mit den Argumenten muss man jedoch erwarten, dass die Ärzteschaft auf absehbare Zeit die Assistenz zum Suizid keinesfalls in den ärztlichen Aufgabenbereich integrieren wird. Sie wird sich allerdings auf längere Sicht damit auseinandersetzen müssen, dass es ihre eigenen medizinischen Erfolge sind, die das Sterben heutzutage oftmals besonders in die Länge ziehen. Wenn die Ärzteschaft sich dieser schwerwiegenden Problematik nicht öffnet, werden es andere tun. Dies muss kein Nachteil für die Reinerhaltung der ärztlichen Rolle sein. Für den einzelnen Arzt kann es aber ein höchst belastender Gewissenskonflikt werden, wenn er seinen Patienten in dieser Not alleine lässt. Schließlich ist mit einer puristischen Haltung auch die Gefahr verbunden, dass im Verborgenen nicht zu kontrollierende Handlungen vorgenommen werden.
Resorbierbare Osteosynthesen haben zwar schon vor längerer Zeit Einzug in die Dysgnathiechirurgie gehalten, müssen aber immer noch dem Vorwurf der Instabilität standhalten. Die vorgelegte Arbeit vergleicht ein modernes resorbierbares Osteosynthesesystem (INION CPS) mit konventionellen Titanminiplatten in der orthognathen Chirurgie. Insgesamt wurden die 50 Patienten der Studiengruppe neu untersucht, die Patienten der Kontrollgruppe mit Titanminiplatten rekrutierten sich aus einem bereits veröffentlichten Kollektiv des Autors. Die Beurteilung der Stabilität erfolgte radiologisch anhand von Fernröntgen-Seiten-Aufnahmen durch einen Vergleich von präoperativen Aufnahmen zu postoperativen und Verlaufsaufnahmen. Die zwei Hauptgruppen wurden dann zum einen nach Verlagerungsrichtung unterteilt als auch nach Art des Eingriffs (Monomaxillär vs. Bimaxillär). Zusätzlich wurden getrennt von diesen Gruppen noch Patienten mit Lippen-Kiefer-Gaumenspalte untersucht. Diese Studie konnte zeigen, dass die Stabilität von den untersuchten resorbierbaren Platten im Besonderen von der Richtung der Verlagerung abhängt. In einigen Verlagerungsrichtungen (Impaktion, horizontale Bewegung im Oberkiefer, Unterkiefervorverlagerung) sind die resorbierbaren Systeme gleichwertig, in anderen (Elongation, Unterkieferrückverlagerung) schneiden sie schlechter ab. Keinen Unterschied gibt es hingegen beim Vergleich der Art der Verlagerungen. Bei Risikopatienten die Vertikalbewegungen benötigen sollte allerdings zu Gunsten der Sicherheit lediglich mit Titanosteosynthesen versorgt werden. Eine Reihe von Studien konnte jedoch zeigen, dass gerade die neuesten resorbierbaren Materialien in ihren Eigenschaften kaum hinter denen der Titanplatten zurückstehen. Allerdings trägt auch weiterhin der höhere Preis der resorbierbaren Osteosynthesen zu deren zurückhaltendem Einsatz bei. Hier ist fraglich ob sich daran mittelfristig etwas ändern wird. Im Rahmen der Fragebogenuntersuchung zeigte sich, das heute mehr denn je mit dem Patienten offen über die Veränderung die diese Eingriffe mit sich bringen gesprochen werden sollte um übersteigerte oder falsche Hoffnungen abzubauen und dem Patienten das Gefühl der Entscheidungsfreiheit und Gleichberechtigung zu geben. Unstrittig ist die Frage nach der Notwendigkeit dieser Operationen. In welchem Umfang und mit welchem Budget die modernen Verfahren wie das MRT zur Basisdiagnostik und die virtuelle Planung als Ersatz für die konventionellen Röntgenbilder Einzug halten werden bleibt abzuwarten.
Die Novellierung des Hochschulrahmengesetzes zum Wintersemester 2005/06 hat den Universitäten die Möglichkeit eröffnet, 60 Prozent der Studierenden direkt auszuwählen und damit intensiv in die Konzeption der zahnmedizinischen Studienplatzvergabe einzugreifen. Vor diesem Hintergrund war das Ziel dieser Untersuchung, sowohl objektive schulische Parameter als auch außerschulische Prädiktoren (soft skills) zu eruieren, welche voraussichtlich für ein erfolgreiches Studium, definiert aus guten Noten und Einhaltung der Regelstudienzeit, sprechen. Dazu wurde nach einer Pilotuntersuchung an 114 Kongressteilnehmern der AFDT-Tagung in Bad Homburg (heutige DGFDT) eine Befragung an 260 Studierenden und 64 Mitarbeitern/übrige an der Universität Frankfurt/Main (Zahnärztliches Universitäts-Institut) durchgeführt und die gewonnen Ergebnisse in Korrelation mit den erbrachten universitären Leistungen gesetzt. Die Bewerberzahlen für das Zahnmedizinstudium belaufen sich auf ein Viertel der Mediziner in Frankfurt/Main. Daraus resultieren in Hinblick auf den Untersuchungszeitraum von einem Jahr zwangsläufig geringere Datenmengen und damit unweigerlich Einschränkungen in der statistischen Zuverlässigkeit. Anhand der Ergebnisse und der erhobenen Daten des Studierendenfragebogens wurde der tendenzielle Prototyp des Zahnmedizinstudierenden ermittelt, welcher voraussichtlich erfolgreich, d.h. schnell und gut sein Studium bewältigen wird. Hierbei handelt es sich um eine Zusammenfassung von zum größten Teil nicht signifikanten, deskriptiv gewonnenen Ergebnissen, welche in ihrer so aufgezeigten Gesamtheit keinen Impuls zur Selektion bieten sollen, sondern lediglich schwache Tendenzen zur Standortbestimmung aufzeigen. Hiernach handelt es sich bei dem erfolgreich Studierenden um eine weibliche Person. Sie belegt während ihrer gymnasialen Schulzeit in Hessen oder im Ausland die Leistungskursfächer Mathematik und Chemie, absolviert das große Latinum und belegt bis zum Ende der Oberstufe das Fach Musik. Die Schülerin widmet der Schulzeit voll und ganz ihre Aufmerksamkeit und investiert deshalb keine Zeit in außerschulische Aktivitäten (soft skills). Während der Oberstufe entscheidet sich die psychisch stabile und nie krank werdende Frau dazu, Zahnmedizin zu studieren, und schließt ihr Abitur mit einer Durchschnittsnote ab, die deutlich besser ist als 2,33. Unter den Familienmitgliedern der Studentin befindet sich kein Zahnarzt oder Zahntechniker, wohl aber ein Arzt. Nach dem Abitur bildet sie sich zunächst noch zur Zahntechnikerin weiter und vollzieht dann das Studium der Zahnmedizin ohne BAföG zu beziehen oder arbeiten zu müssen. Trotz allem muss natürlich in Bezug auf die soft skills festgehalten werden, dass durchaus Studierende ermittelt wurden, welche hervorragende Ergebnisse im Studium erzielten und sich zudem bezüglich außerschulischer Aktivitäten engagierten und herausragende Leistungen (z.B. Preisträger) vollbrachten. Die Ergebnisse bei den Mitarbeitern/übrige zeigen vor allem zwei Tendenzen. Zum einen schnitten diese im Vergleich zu den Studierenden in allen Prüfungsbereichen besser ab und zum anderen zeigt sich ebenso der Trend dahingehend, dass eine Abnahme der Angaben von soft skills eher mit einem erfolgreichen Studium korreliert. Als Hauptgrund sieht der Autor hier die "Erfolgsdruckunabhängigkeit", d.h. es besteht bei diesen nicht der Zwang, sich gegenüber anderen Mitarbeitern behaupten zu müssen, wie es verständlicherweise unter Wettbewerbsdruck vieler Studierender zu finden ist. Eindeutige Ergebnisse liegen bei den Kohorten mit der Zahntechnikerausbildung vor. Sowohl bei den Studierenden als auch bei den Mitarbeitern/übrige zeigt sich ein eindeutig besseres Abschneiden im Physikum im Bereich der Zahnersatzkunde, was eine wichtige Hürde im Verlauf des Zahnmedizinstudiums darstellt. Letztlich sieht der Autor den "goldenen Weg" zur Studierendenauswahl nur in der Kombination von Abiturdurchschnittsnote und manuellen Geschicklichkeitstests, plus Bonifikation derjenigen Studierenden mit Zahntechnikerausbildung. Soft skills können maximal einen Hinweis auf ein erfolgreiches Studium geben, eine signifikante Aussage konnte aber in keinem Fall gefunden werden.
Fischöle (n-3 PUFAs) haben potente antientzündliche Wirkungen und klinische Effekte bei chronischen kardialen Erkrankungen. Ebenso wurden positive Effekte auf die bronchiale Entzündung beschrieben. Ziel unserer Studie war es daher zu prüfen, ob eine alleinige fischölreiche Ernährung ohne zusätzliche PUFA-Supplementation messbare Auswirkungen einerseits auf den Lipidstatus im Blut der Patienten, andererseits auf das Ausmaß der nasalen und bronchialen Beschwerden sowie der bronchialen Entzündungsaktivität bei Graspollenallergikern aufweisen kann. Hierzu untersuchten wir 100 Patienten hinsichtlich ihrer nasalen und bronchialen Allergiesymptomatik, erfassten die Ernährungsgewohnheiten mittels eines standardisierten Fragebogens, und bestimmten im Blut den Lipidstatus (Gehalt an mehrfach ungesättigten Fettsäuren; n-3 PUFA). Wir konnten zeigen, dass die Ernährung einen messbaren Einfluss auf den Gehalt an n-3 PUFA im Blut hat und dass dieser Gehalt bei Patienten mit regelmäßigem Fischkonsum höher lag als bei denjenigen, die keinen Fisch zu sich nahmen (Plasma-EPA-Konzentration: Fischesser 1,01 ± 0,7 wt%, Fischhasser 0,28 ± 0,1 wt%; p< 0,004; Plasma-DHA-Konzentration: Fischesser 2,30 ± 0,6 wt%, Fischhasser: 1,19 ± 0,3 wt%; p< 0,0001). Der Vergleich der Fettsäurewerte unserer Patienten mit den Werten von Milbenallergikern unter fünfwöchiger Fischöl-Supplementation machte allerdings deutlich, dass der n-3 PUFA-Gehalt mit gezielter Nahrungsergänzung noch weiter ansteigen kann. Die möglicherweise durch hohe n-3 PUFA-Konzentrationen bedingten protektiven Effekte auf die allergische Atemwegsentzündung der Patienten wurden an der Höhe des eNO als einem spezifischen und sensiblen Marker gemessen. Es konnte gezeigt werden, dass Patienten, die viel Fisch zu sich nahmen, durchschnittlich einen niedrigeren eNO- Ausgangswert entsprechend einer geringeren Entzündung aufwiesen als Patienten ohne Fischkonsum (Fischesser: 21,38 ± 11,8 ppB; Fischhasser: 31,35 ± 19,8; p=0,188). Allerdings unterschied sich der mittlere eNO-Anstieg 24 Stunden nach Graspollenprovokation nicht zwischen Patienten mit Fischkonsum (18,25 ± 23,7 ppB) und Patienten ohne Fischkonsum (19,53 ± 31,6 ppB). Ebenso zeigte sich kein signifikanter Einfluss der PUFA-Spiegel auf das Gesamt-IgE, das spezifische IgE gegen Graspollen und den FEV1-Abfall nach bronchialer Allergenprovokation. Zusammengefasst macht unsere Untersuchung deutlich, dass eine alleinige Ernährung ohne Supplementation keinen signifikanten Effekt auf allergische und entzündliche Parameter bei Graspollenallergikern und milden Asthmatikern besitzt.
Hintergrund: Die Behandlung kindlicher Linsentrübungen stellt nach wie vor eine Herausforderung für die behandelnden Augenärzte dar. Im Bezug auf die Nachstarprävention ist man sich einig, dass das Belassen der intakten Linsenhinterkapsel bei Patienten unterhalb des sechsten Lebensjahres mit einem sehr hohen Nachstarrisiko behaftet ist. Aus diesem Grund haben sich einige Therapieformen mit primärer hinterer Linsenkapseleröffnung etabliert. Die beiden Nachstarpräventionstechniken bei Kindern, vordere Vitrektomie und Knopflochimplantation der Kunstlinse ohne Vitrektomie, wurden in einigen internationalen Studien bereits untersucht. Aus Deutschland stammende Untersuchungsergebnisse aus der kindlichen Kataraktchirurgie, mit einem Beobachtungszeitraum über mehrere Jahre, liegen in der Literatur noch nicht vor.
Einleitung: Diese Arbeit vergleicht den Goldstandard der Knochendichtemessung die dual x-ray absorptiometry mit Daten, die durch Vermessungen der Claviculae bds. eines Patientenkollektivs am Röntgenthorax zu dessen Evaluation bzw. zur eventuellen Frakturvorhersagbarkeit. Material und Methoden: Auf den Röntgenbildern wurde die Länge und die Mitte der Claviculae bestimmt, die ROI, die region of interest, befindet sich in der Mitte. Dort wurden mit einem Kaliper der äußere ( outer periostal width / OPW ) und der innere Durchmesser ( inner endostal width / IEP ) gemessen. Für den CCT subtrahiert man den IEW vom OPW, für den %CCT teilt man den CCT durch den OPW. Alle durch die DXA-Messung ermittelten Werte der LWS sowie der Hüften in Form von BMD, bone mineral density, und BMC, bone mineral concentration, wurden korreliert mit der CCT, der combined cortical thickness und der %CCT der rechten und der linken Claviculae, die durch das Vermessen des Röntgenbildes ermittelt wurden. Ergebnisse: Beim Vergleich aller Werte konnte eindeutig eine fehlende Korrelation, also weder eine negative noch eine positive Korrelation, festgestellt werden. Diskussion: Im Vergleich zu vorhergehenden Arbeiten ergibt sich die Bestätigung, dass das konventionelle Röntgenbild keine geeignete Methode ist, die Diagnose der Osteoporose allein zu stellen.Diese Arbeit vergleicht den Goldstandard der Knochendichtemessung die dual x-ray absorptiometry mit Daten, die durch Vermessungen der Claviculae bds. eines Patientenkollektivs am Röntgenthorax zu dessen Evaluation bzw. zur eventuellen Frakturvorhersagbarkeit.
Implantatprothetische Versorgung von Lippen-, Kiefer-, Gaumenspalt-Patienten mit ITI-Implantaten
(2010)
Ziel dieser Arbeit war es, die implantatprothetische Rehabilitation von LKG-Patienten mit transgingivalen ITI-Implantaten mit einer dreimonatigen Einheilphase hinsichtlich Funktion, Ästhetik und Patientenzufriedenheit zu untersuchen. Insgesamt wurden bei 17 Patienten 24 Implantate im Bereich der ehemaligen Spalte inseriert. Diese wurde bei allen Patienten mit einer sekundären Osteoplastik geschlossen. Bei 14 Patienten wurde aufgrund eines insuffizienten Knochenangebotes eine Augmentation im Sinne einer tertiären Osteoplastik durchgeführt. Bei zwei Patienten konnte simultan implantiert werden. Alle Knochendefekte wurden mit autologen Transplantaten vom Beckenkamm oder Kieferwinkel augmentiert. Nach dreimonatiger Einheilphase wurden die Implantate mit verschraubten oder zementierten Suprakonstruktionen prothetisch versorgt. Die Mundgesundheitsbezogene Lebensqualität (MLQ) wurde mit der Deutschen Kurzversion des Oral Health Impact Profile (OHIP-G 14) gemessen und mit den Normwerten der Deutschen Allgemeinbevölkerung verglichen. Das ästhetische Ergebnis wurde anhand von Farbfotos von Zahnärzten, zahnmedizinischen Laien und den Patienten selbst bewertet. Als objektives Messinstrument wurde der Implantat Kronen Ästhetik Index verwendet. Nach einer durchschnittlichen Nachuntersuchungszeit von 40 (±22) Monaten ergaben sich folgende Ergebnisse: 23 Implantate (95,8%) befanden sich in situ und unter Belastung. Der röntgenologisch gemessene marginale Knochenabbau betrug 1,15±2,16 mm. Des Weiteren wurden periimplantäre Sondierungstiefen von 2,56±0,66 mm, eine Breite der keratinisierten Mukosa von 2,71±1,1 mm und ein Periotestwert von 0,18±6,5 gemessen. Der Summenwert des OHIP G-14 betrug bei 50% der Patienten ≤ 2. Es konnte festgestellt werden, dass die implantatprothetische Versorgung von augmentierten LKG-Spalten mit transgingivalen ITI-Implantaten und einer Belastung nach drei Monaten eine sichere Behandlungsmethode mit langfristig hoher Erfolgsrate ist. Aus funktioneller Sicht sind die Ergebnisse vergleichbar mit Patienten ohne Spalte oder Augmentation. Die MLQ von LKG-Patienten nach implantatprothetischer Rehabilitation ist vergleichbar mit Individuen der Allgemeinbevölkerung, die keinen herausnehmbaren Zahnersatz tragen. Aufgrund von Einschränkungen im Bereich der periimplantären Weichgewebe sind die ästhetischen Resultate kompromittiert aber für alle Befragten zufriedenstellend. Der Implantat Kronen Ästhetik Index kann zur Dokumentation der ästhetischen Ergebnisse der implantologischen Behandlung von LKG-Patienten empfohlen werden. Das Ziel zukünftiger Konzepte sollte sein, das ästhetische Endresultat der periimplantären Weichgewebe zu verbessern. Da die funktionelle Belastung von transgingivalen Implantaten im augmentierten Spaltbereich nach drei Monaten zum jetzigen Zeitpunkt kein Standardvorgehen ist, müssen weitere Untersuchungen zeigen, inwieweit dieses Therapiekonzept eventuell höhere Verlustraten oder ästhetische Ergebnisse beeinflusst.
Die mediane Sternotomie ist in der Kardio-Chirurgie der wichtigste Zugang zum Herzen. Postoperative Wundheilungsstörungen in diesem Bereich sind seltene, jedoch gefürchtete Komplikationen, die zu schwerwiegenden Konsequenzen führen können. Die zunächst einfache oberflächliche Wundheilungsstörung kann sich verkomplizieren und über eine Osteomyelitis des Sternums zu einer Mediastinitis mit eventuell letalen Konsequenzen führen. Aktuell geben unterschiedliche Autoren eine Inzidenz von 1 % – 8 % an. Die Mortalität der Sternumosteitis wird dabei zwischen 10 % und 30 % angegeben. Wird der Pathomechanismus der Erkrankung zu einem Algorithmus zusammengefasst, so kann sich über einen descendierenden Verlauf eine oberflächliche Wundheilungsstörung zu einer Sternumosteitis und schließlich zu einer Mediastinitis entwickeln. Natürlich kann sich die Infektion auch ascendierend ausbreiten. Über eine Infektion des Mediastinums oder des Sternums kann sich eine Infektion über die Weichteile bis an die Körperoberfläche ausdehnen. Der typische Patient, der eine Wundheilungsstörung erleidet ist in aller Regel polymorbide. Besonders bei diesem Patientenkollektiv sind eine kurze Behandlungsdauer und eine schnelle, postoperative Rehabilitation für das Ergebnis vorrangig. Ist der gewählte Therapieplan nicht aggressiv genug, so kommt es häufig zu chronischen Erkrankungen mit Fistelungen und einem konsekutiven Fortschreiten der Infektion in Weichteilen und Knochen. Neben medizinischen Gesichtspunkten kommen auch der wirtschaftliche Aspekte zu tragen. Wiederholte Operationen, lange Liegezeiten auf der Intensivstation und wiederholte sowie langwierige Rehabilitationsphasen sind nur wenige Beispiele der kostenintensiven Therapiebestandteile. Aufgrund der schwer beherrschbaren Infektsituation ist eine konsequent aggressive, definitive und zuverlässige Versorgung der infizierten Wunden von höchster Priorität. Dabei spielt es keine Rolle, ob es sich dabei um Wundheilungsstörungen im Bereich der Haut- und Unterhautweichteile, des Sternums oder des Mediastinums handelt. Zur Behandlung der Wundheilungsstörung nach medianer Sternotomie existieren verschiedene Behandlungsansätze und Therapieoptionen. Diese reichen von einfachen Debridements mit Sekundärvernähungen über Spül-Saug-Drainagen mit Antibiotika versetzen Lösungen bis hin zu Sternumteilresektionen, Vakuumverbänden und komplexen Lappenplastiken. ...
Die Diskussion um die Patientenverfügung in der Bundesrepublik Deutschland geht bis in die 1970er Jahre zurück, seit Mitte der 90er Jahre nahm sie an Intensität zu. Meilensteine ihrer Entwicklung waren die Entscheidungen des BGH im Kempten-Fall (1994), im Frankfurter Fall (1998) und im Lübeck-Fall (2003). Nach dem Lübeck-Fall mehrten sich die Stimmen, wonach der Gesetzgeber das Betreuungsrecht ändern und die Patientenverfügung gesetzlich verankern sollte. Ein Entwurf des Bundesjustizministeriums aus dem Jahr 2004 erreichte jedoch nicht den Deutschen Bundestag, er wurde dem Gesetzesentwurf unter der Leitung von Joachim Stünker angegliedert. Erst Anfang des Jahres 2007 erhielt die Diskussion mit einer Orientierungsdebatte Einzug in das Deutsche Parlament. In den Jahren 2007 bis 2008 wurden dann drei Gesetzesentwürfe zum Thema Patientenverfügung in den Bundestag eingebracht. Der erste Entwurf wurde im Mai 2007 unter Federführung von Wolfgang Bosbach (CDU) veröffentlicht. In ihm waren Formvorschriften für die Patientenverfügung verankert. Diese müsse in schriftlicher Form vorliegen sowie eine Unterschrift oder ein notariell beglaubigtes Handzeichen enthalten. Ein Widerruf der Patientenverfügung wäre jederzeit und ohne weiteres sowohl mündlich als auch zum Beispiel durch Gesten möglich gewesen. Der Gesetzesentwurf beinhaltete eine Reichweitenbegrenzung. Eine lebensverlängernde Maßnahme hätte demnach nur abgebrochen beziehungsweise nicht eingeleitet werden dürfen, wenn der Patient ein irreversibel zum Tode führendes Grundleiden gehabt hätte oder mit an Sicherheit grenzender Wahrscheinlichkeit das Bewusstsein nicht wiedererlangen würde. Eine unmittelbare Todesnähe wäre nicht notwendig gewesen. Ende 2008 wurde dieser Entwurf basierend auf einem Änderungsantrag unter Federführung von Katrin Göring-Eckardt (Bündnis90/Die Grünen) modifiziert. Es sollte ein zweistufiges Modell geben. Für eine Patientenverfügung mit Reichweitenbegrenzung sollten die gleichen Formvoraussetzungen wie im bisherigen Entwurf gelten, es sollte jedoch auch eine Patientenverfügung ohne Reichweitenbegrenzung möglich sein, für die schärfere Voraussetzungen gelten sollten, zum Beispiel eine regelmäßige Aktualisierungs- und Beratungspflicht. Ein zweiter Gesetzesentwurf entstand unter Federführung von Wolfgang Zöller (CSU) im Jahre 2007. Dieser Entwurf sah keine Reichweitenbegrenzung vor. Die Patientenverfügung sollte unabhängig von Art und Stadium der Erkrankung gelten. Weiterhin wären nicht nur schriftliche Verfügungen möglich gewesen, auch Tonträger oder Videos wären zu berücksichtigen gewesen, wenn sie eindeutig den Willen des Patienten gespiegelt hätten. Das Vormundschaftsgericht hätte nur bei Dissens zwischen Arzt und Betreuer eingeschaltet werden müssen, allerdings hätte es in diesem Fall das Gutachten eines Sachverständigen einholen müssen. Ein dritter Antrag wurde 2007 unter Federführung von Joachim Stünker (SPD) erarbeitet und im Jahre 2008 veröffentlicht. Auch dieser Gesetzesentwurf sah keine Reichweitenbegrenzung vor, eine Patientenverfügung sollte unabhängig von Art und Stadium der Erkrankung gelten können mit der formalen Voraussetzung der Schriftform. Das Vormundschaftsgericht sollte lediglich bei einem Dissens zwischen Arzt und Betreuer eingeschaltet werden, es müsste jedoch im Gegensatz zum Zöller-Entwurf vor seiner Entscheidung kein Gutachten einholen. In allen drei Entwürfen sollten jeweils §§ 1901 und 1904 BGB geändert werden. Am 29.05.2009 wurde unter der Leitung von Hubert Hüppe (CDU) zusätzlich ein Antrag auf Verzicht auf ein Gesetz eingebracht. Am 18.06.2009 entschied sich die Mehrheit des Bundestages für den Gesetzesentwurf der Gruppe um Joachim Stünker. Die anwesenden Abgeordneten der SPD, der FDP und der Partei Die Linke stimmten zum großen Teil für den Stünker-Entwurf und sicherten so die Mehrheit, die Vertreter der CDU/CSU stimmten mit nur einer Ausnahme gegen diesen Entwurf, fünf Abgeordnete enthielten sich bei dieser Abstimmung. Die Rolle des Betreuers gewann mit der Verabschiedung des Gesetzes an Bedeutung. Das Gesetz sieht vor, dass der Betreuer anhand der Patientenverfügung (bei Nichtvorliegen anhand des mutmaßlichen Willens des Betreuten) prüfen muss, ob „ diese Festlegungen auf die aktuelle Lebens- und Behandlungssituation zutreffen“297. Das Vormundschaftsgericht muss nur eingeschaltet werden, wenn zwischen behandelndem Arzt und Betreuer ein Dissens über die Behandlung des Betreuten beziehungsweise den Abbruch einer lebensverlängernden Maßnahme herrscht.
Seit Implementierung eines Qualitätsmanagement-Systems nach DIN EN ISO 9001 führt die Klinik für Anästhesiologie, Intensivmedizin und Schmerztherapie am Klinikum der Johann Wolfgang Goethe-Universität in Frankfurt am Main kontinuierlich Maßnahmen zur Qualitätsverbesserung durch. Hierzu zählen als klassisches Element des Qualitätsmanagements Befragungen sogenannter interessierter Parteien. Neben den Patienten stellen, vor allem auf einer Intensivstation, die Angehörigen der Patienten, häufig in Funktion eines gesetzlichen Betreuers, wichtige Partner in der Therapie dar. Bisher sind jedoch für diese Zielgruppe keine validen Befragungsinstrumente vorhanden. Nach Eröffnung der neuen Intensivstation C1 im Jahr 2008 soll eine standardisierte Befragung der Angehörigen intensivpflichtiger Patienten bezüglich deren Erwartungen an das Personal und den Aufenthalt des Patienten auf der Intensivstation durchgeführt werden. Ebenso soll die vom Personal antizipierte Erwartungshaltung der Angehörigen erfasst und im Sinne des GAP-Modells von Parasuraman et al. evaluiert werden. Ziel der vorliegenden Arbeit ist es, ein geeignetes Befragungsinstrument (C1GAP) zu entwickeln und durch geeignete Pretests zu validieren. Nach Identifizierung übergeordneter Themenkomplexe für die Befragung wurde der erste Entwurf eines anonymen Fragebogens für Angehörige mit insgesamt 82 Items verteilt auf 8 Themenkomplexe erstellt. Hieraus wurden anschließend Fragebögen für die Personalgruppen des ärztlichen Dienstes, der Pflege und des Außendienstpersonals am Empfangsschalter erstellt. Zur Information der Teilnehmer über die Intention und den Ablauf der Befragung wurden ein Begleitschreiben des Institutsdirektors Prof. Dr. Dr. K. Zacharowski sowie ein Extrablatt mit Informationen zum Datenschutz beigefügt. Zur Validierung des Fragebogens wurden Pretests in Form von kognitiven Interviews durchgeführt. Aus den kognitiven Interviews ergaben sich neben einer überwiegenden Zustimmung zu Form und Inhalt der Befragung inhaltliche Verbesserungsvorschläge, die in der finalen Überarbeitung des Fragebogens umgesetzt werden konnten. Der validierte, endgültige Fragebogen für Angehörige enthält insgesamt 81 Items, welche auf die Themenkomplexe „Rahmenbedingungen“, „Kommunikation mit Ärzten“, „Kommunikation mit dem Pflegepersonal“, „Information über Behandlungsziele und -ablauf“, „Beteiligung bei Therapieentscheidungen“, „Beurteilung weiterer Betreuungsangebote“, „Verlegung und Entlassung“ sowie „Angaben zur Person“ verteilt sind. Die Fragebögen für die Personalgruppen der Ärzte, Pflegekräfte und des Servicepersonals enthalten zwischen 26 und 61 Fragen zu den genannten Themenkomplexen. Anders als durch reine Zufriedenheitsbefragungen können mit Hilfe des vorliegenden Fragebogens Daten über die Erwartungshaltung von Angehörigen intensivpflichtiger Patienten gewonnen werden und im Vergleich zur vom Personal der Intensivstation C1 antizipierten Erwartungshaltung der Angehörigen einer GAP-Analyse unterzogen werden. Diese Daten können im Rahmen der Qualitätssicherungsmaßnahmen an der Klinik für Anästhesiologie, Intensivmedizin und Schmerztherapie zur Optimierung der Arbeitsabläufe und Leistungsprozesse sowie zur Ressourcenallokation verwendet werden. So kann letztendlich die Versorgung unserer Patienten auf der Intensivstation C1 nachhaltig verbessert werden.
Mitte des 19. Jahrhunderts demonstrierte John Snow anhand differenzierter Beobachtungen zur Cholera in London, wie epidemiologisches Wissen und gezielte Maßnahmen zur Bewältigung öffentlicher Gesundheitsprobleme beitragen können. Rund 150 Jahre später sieht sich die Bevölkerung einem stetig wachsenden globalen Güter- und Personenverkehr gegenüber, welcher auch Krankheitserregern eine interkontinentale Ausbreitung innerhalb weniger Stunden ermöglicht, wie eindrucksvoll am Beispiel SARS im Jahre 2003 deutlich wurde. Nationale Beispiele, allen voran die Salmonellen-Epidemie in Fulda im Jahre 2007, zeigen, welche bedeutungsvolle Rolle die Infektionsepidemiologie und die -hygiene auch im 21. Jahrhundert einnimmt. Das frühzeitige Erkennen und ein effizientes Eingreifen durch die Öffentlichen Gesundheitsbehörden sind zur Eindämmung einer Epidemie unabdingbar. Die Verknüpfung medizinischer und geographischer Daten kann Beides wesentlich beschleunigen und ermöglicht die frühzeitige Erkennung eskalierender Infektionsherde. Ziel der vorliegenden Pilotstudie ist die Entwicklung einer Schnittstelle zur Implementierung und Analyse meldepflichtiger Infektionskrankheiten in einem geomedizinischen Informationssystem. Erstmals im Öffentlichen Gesundheitsdienst wird diese Verknüpfung technisch mittels eines Geoinformationssystems realisiert, welches die Georeferenzierung mithilfe von Regionalidentifikationsnummern und der anschließende Visualisierung der im Gesundheitsamt anfallenden krankheitsbezogenen Daten ermöglicht. Der Datentransfer von dem im Amt für Gesundheit genutzten Datenbankprogramm Gumax® zu dem im Vermessungsamt der Stadt Frankfurt am Main probaten Geoinformationssystem Office-GIS gelingt über einen SQL-Server, einem Datenbankmanagementsystem, welches das Speichern, Bearbeiten und Analysieren vergleichsweise großer Datenmengen ermöglicht. Anschließend können Meldeort und Wohnort des an einer nach §§ 6, 7 IfSG meldepflichtigen Infektionserkrankung Erkrankten in der Stadtplan-, Liegenschaftskarte oder Luftbildaufnahme visualisiert werden. Hierüber lassen sich zudem personen- und objektbezogene Krankheitsquellen (z. B. Restaurant, Schule, Kindergarten, Krankenhaus) eruieren. Diese Daten können effizient genutzt werden, um schnell und dezidiert in ein Krankheitsgeschehen eindämmend eingreifen zu können. Mit diesem System könnten auch bioterroristische Anschläge wesentlich schneller erkannt werden, da die Ausbreitungsmodalitäten beispielsweise vom verwendeten Agens, meteorologischen, tageszeitlichen und demographischen Gegebenheiten abhängen. Diesen zusätzlichen Größen soll in erweiterten technischen Realisationen dieses Systems Rechnung getragen werden.
Frühere Studien haben gezeigt, dass während des hämorrhagischen Schocks freie Radikale gebildet werden. Diese reaktiven Sauerstoffverbindungen und reaktiven Stickstoffverbindungen spielen eine ursächliche Rolle beim Multiorganversagen. ZIEL: Es sollte die Hypothese überprüft werden, ob die enterale Applikation eines polyphenolhaltigen Extraktes des chinesischen Grünen Tees (Camellia sinensis/GTE) die Bildung freier Radikale verringert, die Organschäden und die Mortalität bei Ratten nach hämorrhagischen Schock und Reperfusion beeinflusst. METHODE: Gruppen von weiblichen Sprague Dawley Ratten wurden entweder mit 100 mg GTE/kg Körpergewicht oder Placebo zwei Stunden vor dem hämorrhagischen Schock gavagiert. Die Hypothese wurde anhand zweier Schockmodelle überprüft: 1.) Nicht-Überlebensmodell: Entnahme von Blut bis ein mittlerer arterieller Blutdruck von 40 mmHg erreicht war, gefolgt von zunehmender Entnahme über eine Stunde bis dann ein mittlerer arterieller Druck von 28 mmHg erreicht war (schwerer hämorrhagischer Schock), 2.) Überlebensmodell: Entnahme von Blut bis ein mittlerer arterieller Blutdruck von 40 mmHg erreicht war, welcher dann für eine Stunde konstant gehalten wurde (moderater hämorrhagischer Schock). Alle Ratten wurden dann über eine Stunde mit 60% des bis dahin entnommenen Blutes plus das doppelte Volumen hiervon als Ringerlaktat- Lösung reperfundiert. 10 Minuten und zwei Stunden nach Ende der Reperfusion wurden Blutproben entnommen. 18 Stunden nach Reperfusion wurden die Lebern zur Zytokinmessung und Bestimmung von 3-Nitrotyrosin mittels ELISA sowie zur immunhistochemischen Darstellung von 4-Hydroxynonenal entnommen. ERGEBNISSE: Im schweren hämorrhagischen Schock stieg die Überlebensrate im Beobachtungszeitraum von 18 Stunden von 20% (2 von 10) bei placebobehandelten Ratten und auf 70% (7 von 10) bei mit GTE behandelten Ratten (p < 0.02). Im moderaten hämorrhagischen Schock war die Überlebensrate höher (80%) und es bestand kein Unterschied zwischen mit GTE und placebobehandelten Gruppen. Im moderaten hämorrhagischen Schock stieg jeweils die Alaninaminotransferase (ALT) 10 Minuten und zwei Stunden nach Reperfusion auf 345 ± 12 und 545 ± 13 IU/l. Die Behandlung mit GTE verringerte die ALT-Freisetzung auf 153 ± 9 und 252 ± 12 IU/l 10 Minuten und zwei Stunden nach Reperfusion (p < 0,01). TNF-α im Lebergewebe war in placebobehandelten Ratten höher (5,76 ± 0,62 pg/mg) im Vergleich zu GTE gavagierten Ratten (4,02 ± 0,26 pg/mg, p < 0,05). IL-1β im Lebergewebe war ebenfalls bei placebobehandelten Ratten höher (0,8 ± 0,18 pg/mg) im Vergleich zu GTE behandelten Ratten (0,37 ± 0,07 pg/mg, p < 0,05). Analoges galt für IL-6 (6,93 ± 0,48 vs. 5,15 ± 0,58 pg/mg, p < 0,04). Auch 3-Nitrotyrosin war in den Lebergeweben der placebobehandelten Ratten höher (1,88 ± 0,51 pg/mg) als in den GTE behandelten Ratten (0,63 ± 0,23 pg/mg, p < 0,04). Immunhistochemische Färbung von Lebergewebe, welches 18 Stunden nach Reperfusion zur Darstellung von 4-Hydroxynonenal entnommen wurde und welches als Maß für die Lipidperoxidation gilt, sank von 4,81 ± 0,99 % in placebobehandelten Ratten auf 1,46 ± 0,42 % in GTE behandelten Ratten (p < 0,02). SCHLUSSFOLGERUNG: Enterale Applikation von GTE Polyphenolen erscheint im hämorrhagischen Schock und Reperfusion von Vorteil.
Das ideopathische Parkinson-Syndrom ist eine der häufigsten neurodegenerativen Erkrankungen. Im letzten Jahrhundert begann man therapeutisch mit der Substituion von L-Dopa. Bei fotgeschrittener Krankheitsprogression und höheren Medikamentendosierungen kommt es zu vermehrten Nebenwirkungen (Dyskinesien, On-off-Fluktuationen etc.) Eine neuartige Therapiepotion ergab sich Anfang des 20. Jahrhunderts mit den neurochirurgischen operativen Verfahren. Diese führten jedoch zu unbefriedigenden Langzeitergebnissen. Mit der Weiterentwicklung der bildgebenden Verfahren und der minimalen Neurochirurgie wurde Anfang der 90er Jahre des letzten Jahrhunderts die Tiefen Hirnstimulation etabliert. Hierbei wurde zu Beginn primär im Nucleus ventralis intermedius thalami (VIM) stimuliert, um so den Parkinson-Tremor zu suppremieren. [48, 49]. Beim hypokinetisch-rigiden Typ gewann die Stimulation von Globus pallidus internus und des Nucleus subthalamicus an Bedeutung [50-54]. In dieser Arbeit wurde die Stoffwechselaktivität mit Hilfe des PET in den Basalganglien sowie im Kortex untersucht. Dabei wurde als Tracer 18F-2-Fluoro-Desoxy-D-Glucose (18FDG) verwendet. Es wurde unterschieden zwischen präoperativem Stoffwechsel sowie der Veränderung des Glucosemetabolismus unter THS, im Vergleich zu einer Kontrollgruppe. Ein weiteres Ziel dieser Arbeit war die Bestimmung der postoperativen Elektrodenlage. In dieser Arbeit konnte unter THS eine signifikante Reduzierung des UPDRS Teil III Scores nachgewiesen werden. Bezüglich der Lage der aktiven Elektrodenpole ergab sich folgendes Bild: 19 von 25 Polen lagen im Nucleus subthalamicus (76%), 6 Pole lagen dagegen oberhalb des STN im Bereich der Zona incerta (24%). Diese Daten bestätigen die Ergebnisse früherer Studien [79, 80]. Weiterhin konnte mit dieser Arbeit gezeigt werden, daß es unter THS im Bereich der Elektrodenregion sowie im STN und in dem direkt verbundenen GP zu einem stimulierenden Effekt kommt. Die THS ist daher vom Wirkmechanismus von den läsionellen Verfahren der stereotaktischen Neurochirurgie zu unterscheiden. Im STN zeigte sich ein Mikroläsioneffekt mit postoperativ verminderten 18FDG Werten. Unter Stimulation kam es dagegen zu einer Normalisierung des im Vergleich zur Kontrollgruppe verminderten Glucosestoffwechsels im STN. Zusammenfassend gilt: Die THS führt über eine veränderte Aktivität der Feuerungsmuster der Neurone zu einer längerfristigen Modulation der Basalganglienaktivität. In den kortikalen Arealen kam es durch die Operation oder die THS zu folgenden Veränderungen: Im assoziativen Kortex zeigte sich ein verminderter Stoffwechsel im Vergleich zur Kontrollgruppe, dieser konnte jedoch durch die Stimulation nicht signifikant veränder werden. Im limbischen Kortex zeigte sich in den BA 20 und 24 ein krankheitsbedingter Hypermetabolismus, wobei es bei ersterem zu keinem Mikroläsionseffekt- oder Stimulationseffekt kam, im Bereich der BA 24 jedoch zu einem signifikanten Mikroläsionseffekt mit einem im Vergleich zur Kontrollgruppe verminderten Hypometabolismus. In der BA 32 konnte ein krankheitsbedingter Hypometabolismus nachgewiesen werden, dieser verstärkt sich postoperativ. Ein Stimulationsefffekt fehlte. Es konnte gezeigt werden, daß es unter Stimulation im Bereich des Brodmann Areals 32 zu einem Abfall des Metabolismus kam, dies korreliert mit einer Abnahme des Wortverständnisses [110]. Für den motorischen Kortex konnte folgendes nachgewiesen werden: Weder duch die Operation noch durch die Stimulation kam es zu einer Normalisierung des krankheitsbedingten hypometabolen Glucosestoffwechsels in der BA 4, unter Stimulation kam es darüber hinaus zu einer weiteren Minderung des lokalen nCMRGlc. Im Bereich des sensorischen Kortex zeigten die IPS-Patienten einen verminderten Glucosemetabolismus. Dies bestätigt die Ergebnisse früherer Studien [40, 101]. In diesem Areal kommt es durch die Operation zu einer tendenziellen Normalisierung der verminderten nCMRGlc-Werte. Ein Stimulationseffekt ist ebenfalls nachweisbar. So zeigte sich unter THS ein Abfall des Stoffwechsels. Zusammenfassend kann festgestellt werden, daß es unter THS zu einer Modulation der Basalganglienschleifen sowie des Kortex kommt. Dieses ununterscheidet die THS eindeutig von den läsionellen neurochirurgischen Verfahren.
Borrelia lusitaniae, eine vorwiegend im Mittelmeerraum/ Südwesteuropa vorkommende Borrelienspezies des B. burgdorferi s.l.-Komplexes, wird derzeit als eine potentiell humanpathogene Genospezies diskutiert. Für vergleichende Studien stehen derzeit vorwiegend Zeckenisolate und nur zwei Patientenisolate zur Verfügung. Im Rahmen dieser Arbeit wurden insgesamt 16 Isolate, darunter ein Patientenisolat aus verschiedenen Regionen Portugals und Süddeutschlands im Bezug auf ihre Serumempfindlichkeit/-resistenz gegenüber humanem Serum und der Fähigkeit Komplementregulatoren aus Serum zu binden, untersucht. Anhand der erhaltenen Ergebnisse konnte gezeigt werden, dass B. lusitaniae, mit Ausnahme des Stammes IP-N1, als serumsensible Genospezies klassifiziert werden kann. Alle Isolate aktivierten die Komplementkaskade hauptsächlich über den alternativen Weg wobei massiv Komplementkomponenten auf der Zelloberfläche deponiert wurden. Die effiziente Aktivierung und Ablagerung des terminalen Komplementkomplexes führte zur vermehrten Ausbildung sogenannter Blebs, Ausstülpungen der äußeren Membran, was auf eine effiziente Lyse der Borrelienzellen hinwies. Obwohl serumsensibel, waren alle Isolate in der Lage, den löslichen Komplementregulator des alternativen Weges, Faktor H aus dem Serum zu binden. Allerdings konnte nur bei 4 der 16 untersuchten Isolate eine schwache komplementregulatorische Aktivität von zellgebundenem Faktor H durch den Nachweis spezifischer C3b-Spaltprodukte bestätigt werden. Diese Ergebnisse lassen vermuten, dass Faktor H in seiner Eigenschaft als Komplementregulator inhibiert ist. Durch weiterführende Analysen konnte ein Faktor H-bindendes Protein von 16 kD bei B. lusitaniae MT-M8 identifiziert und charakterisiert werden. Dieses als BlCRASP-3 bezeichnete Protein war in der Lage, Faktor H über dessen C-terminale SCR-Domänen 19-20 zu binden. Im Vergleich zu anderen mit Faktor H interagierenden Proteinen war die Bindung sehr schwach und erreichte nur ca. 16% der Bindungsstärke von BbCRASP-3, was eine nicht nachweisbare Kofaktoraktivität von an BlCRASP-3 gebundenem Faktor H erklären könnte. Sequenzanalysen und Untersuchungen mit verschiedenen Proteasen identifizierten BlCRASP-3 als ein auf der Oberfläche von B. lusitaniae lokalisiertes Lipoprotein, welches eindeutig zur heterologen Erp-Proteinfamilie gehört. Interessanterweise ist bei BlCRASP-3 jener Bereich am C-Terminus konserviert, der als Faktor H-Bindungsstelle erachtet wird. Die nicht konservierten Austausche einzelner Aminosäuren innerhalb der vermuteten Bindungsregion und das Fehlen höher geordneter Strukturen, wie z.B. coiled-coils, könnten die stark reduzierte Bindungskapazität von Faktor H an BlCRASP-3 erklären. Zusammenfassend lässt sich feststellen, dass die schwache Bindung von Faktor H und die Inhibition der komplementregulatorischen Aktivität von Faktor H, als Ursachen für den fehlenden Schutz vor der durch Komplement vermittelten Lyse angenommen werden kann, wodurch die untersuchten B. lusitaniae-Isolate einen serumsensiblen Phänotyp aufweisen. Des Weiteren konnten bei allen untersuchten B. lusitaniae Isolaten erp-homologe Gensequenzen auf Plasmiden unterschiedlicher Größe nachgewiesen werden. Manche Isolate wiesen multiple erp-Loci auf. Durch PCR konnten erp-homologe Gensequenzen amplifiziert werden, die für ErpL/ErpY-orthologe Proteine kodieren und nicht mit Faktor H interagieren. Welche Funktion diese Proteine für Borrelien besitzen bleibt weiterhin ungeklärt. Es ist denkbar, dass diese Proteine bei der Erregerpersistenz oder dem Immunescape in der Eidechse als natürlichem Wirt eine wichtigen Rolle spielen oder Borrelien ermöglichen, sich an andere Reservoirwirte anzupassen.
Einleitung: Patienten nach operativen Eingriffen haben ein hohes Risiko in Folge von nosokomialen Infektionen, Wundinfekten oder Nahtdehiszensen eine Sepsis zu entwickeln. Die Sterblichkeitsraten des septischen Schocks haben sich mit 40-60% in den letzten 20 Jahren kaum verändert. Der Zeitpunkt der Diagnose und damit der frühzeitige Beginn v.a. einer kausalen, aber auch einer frühzeitigen supportiven Therapie sind entscheidende Determinanten der Überlebenswahrscheinlichkeit. Die vorliegende Arbeit untersucht erstmalig, ob IL-22, ein Mitglied der IL-10 Familie und, zur angeborenen Immunität gehörend, zur besseren Differenzierung von Inflammation und Infektion bei Patienten im perioperativen Kontext geeignet ist. Material & Methoden: 115 Patienten wurden in einem Zeitraum zwischen November 2005 und November 2007 in drei Gruppen untersucht. Nach Genehmigung durch die Ethikkommission wurden nach entsprechender Einwilligung durch die Patienten, oder die gesetzlichen Betreuer, zum einen Patienten mit schwerer Sepsis [n= 36], elektiven großen viszeralchirurgischen Eingriffen (CAB) [n= 31] und Patienten bei orthotoper Lebertransplantation (LTX) [n= 48] rekrutiert. Es wurden Blutproben prä-, postoperativ sowie an den ersten fünf postoperativen Tagen entnommen. Die Proben wurden unmittelbar nach Abnahme kühl zentrifugiert, aliquotiert und anschließend bei -70°C gelagert. Parallel wurden Blutkulturen angefertigt und Procalcitonin, IL-6, IL-10, Lipopolysaccharid-bindendes Protein (LBP), C-reaktives Protein (CRP) und Leukozyten sowie ein Standardlabor bestimmt. Mittels ELISA in Sandwichtechnik bestimmten wir in nachfolgenden Labormessungen die IL-22 Konzentrationen. IL-6, IL-10 und LBP wurden mittels Immulite® gemessen. Die Daten der Hämodynamik wurden entsprechend einem Protokoll erhoben und in einer Datenbank gespeichert. Ergebnisse: Große, elektive viszeralchirurgische Eingriffe sowie die orthotope LTX haben keinen Einfluss auf Serumkonzentrationen von IL-22. Die Blutspiegel liegen sowohl prä-, als auch postoperativ nahe unter der Nachweisgrenze von 10pg/ml (CAB 7,3pg/ml, LTX 9,4pg/ml). Patienten mit einer schweren Sepsis hatten im Vergleich zu Patienten nach viszeralchirurgischen Eingriffen signifikant höhere IL-22 Konzentrationen im Serum (75pg/ml, p= 0,003, Mann-Whitney-Test). Bei Unterteilung nach dem Sepsisfokus hatten Patienten mit einer vom Abdomen ausgehenden Infektion einen Median von 101,6pg/ml, bei Sepsis pulmonaler Genese eine signifikant niedrigere IL-22 Konzentration von 56,9pg/ml (p= 0,037). Die Stimulation von IL-22 hält postoperativ nach Fokussanierung bei Patienten mit abdomineller Sepsis an, so dass ein Abfall in den ersten fünf postoperativen Tagen bis auf 30% des Ausgangswertes beobachtet werden kann. Auch bei den LTX Patienten zeigt sich, wenn auch nicht signifikant, dass eine bakterielle Infektion (primäre Sepsis) zu einer deutlichen Stimulation von IL-22 führt (9,4pg/ml versus 49,7pg/ml bei Sepsis). Quo ad vitam führt IL-22 bei LTX Patienten in der 1-Jahresüberlebenswahrscheinlichkeit zu einer signifikanten Reduktion des Überlebens, wenn die präoperativen IL-22 Serumspiegel über 100pg/ml liegen. Eine kausale Verknüpfung kann zum jetzigen Zeitpunkt nicht hergestellt werden. Der MELD Score (Model for end-stage liver disease) korreliert mit den erhobenen IL-22 Werten, so dass auch ein MELD > 30 mit erhöhten IL-22 Spiegeln einhergeht. Zusammenfassung: IL- 22 eignet sich im postoperativen Verlauf nach viszeralchirurgischen Eingriffen zur Detektion von Patienten mit schweren Komplikationen. Bei Erhöhung des IL-22 Serumspiegels >100pg/ml kann von einer Darmperfusionsstörung bzw. peritonealen Reizung ausgegangen werden. Unsere Daten weisen weiter darauf hin, dass bei schweren Perfusionsstörungen bis hin zu kompletter Ischämie einzelner Darmabschnitte Werte von >500pg/ml erreicht werden. Hingegen führen eine primäre Sepsis sowie Pneumonien zu einer IL-22 Stimulation mit Serumspiegeln zwischen 50 und 100pg/ml. Eine Korrelation mit anderen Markern der Inflammation war bei relativ kleinen Fallzahlen nicht zu beobachten. Lediglich auffällig erscheinen hohe IL-22 Spiegel, welche eher mit einer Leukopenie einhergehen als mit einer Leukozytose. Ist IL-22 bei Patienten vor Lebertransplantation erhöht, d.h. unabhängig einer Sepsis bei >100 pg/ml, ist die 1-Jahres Überlebenswahrscheinlichkeit signifikant erniedrigt. Dies korreliert entsprechend einer Überlebenswahrscheinlichkeit mit einem MELD>30 vor Transplantation. Hiermit ist zu prüfen, ob eine ggf. längerfristige Aktivierung der angeborenen Immunität bei Leberzirrhose vor Transplantation auf das Überleben nach Transplantation einen wesentlichen Einfluß hat. Eine entsprechende Anpassung der Therapie vor Transplantation könnte dann möglicherweise das eingeschränkte Überleben positiv beeinflussen.
Das Studium der Medizin umfasst eine sehr heterogene Zusammenstellung von Fächern. Die große Anzahl unterschiedlicher Leistungsnachweise im klinischen Studium macht es dabei fast unmöglich, sich auf alle Fächer intensiv vorzubereiten, so dass vom Studenten eine Auswahl getroffen werden muss. Bisher liegen keine Untersuchungen dazu vor, nach welchen Kriterien Studenten ihren Lernaufwand einteilen. Anhand der fachspezifischen Prüfungsleistungen von etwa 1000 Medizinstudenten der Johann Wolfgang Goethe-Universität Frankfurt/Main mit dem Beginn des klinischen Studiums zwischen dem Sommersemester 2003 und dem Wintersemester 2005/2006 wurde untersucht, welche Korrelationen zwischen den 33 Fachnoten des klinischen Studienabschnitts vorliegen, die durch schriftliche Prüfungen ermittelt wurden. Dazu wurden die Noten der Erstprüfung verwendet, bei erst im Wiederholungsversuch bestandenen Fächern wurde für Korrelationen die Note auf 5 gesetzt. Zusätzlich wurde untersucht, ob es Unterschiede der Prüfungsleistungen zwischen den Studentenkohorten gibt, die zum Wintersemester (überwiegend Regelzeitstudenten) oder Sommersemester (keine Regelzeitstudenten) den klinischen Studienabschnitt beginnen. Für diese Berechnungen wurden alle Studenten in Kohorten zusammengefasst, die zum gleichen Zeitpunkt mit dem klinischen Studium begannen. Zur Klassifizierung von Fächern wurden diese nach inhaltlichen Gesichtspunkten zusammengefasst (internistische Fächer, operative Fächer, neurologische Fächer, Reproduktionsblock); daneben wurde eine Gruppierung nach Relevanz im Staatsexamen vorgenommen (Kernfächer des Studiums, Nebenfächer). Die Ergebnisse legen nahe, dass die Studenten kein interessensgesteuertes Lernen anwenden, wie sich an den relativ niedrigen Korrelationen zwischen inhaltlich ähnlichen Fächern zeigt. Dagegen zeigen sich hohe Korrelationen zwischen den Kernfächern des Curriculums, die eine große Fragenanzahl im Staatsexamen besitzen, sowie zwischen Fächern, die im gleichen Zeitraum gelehrt und geprüft wurden. Niedrige Korrelationen (auch negativ) wurden nur für wenige Fächer gefunden, bei denen keine inhaltliche Übereinstimmung vorliegt und offensichtlich keine Bedeutung für das Staatsexamen angenommen wird. Andererseits spricht die deutliche Korrelation zwischen Innerer Medizin und Pädiatrie dafür, dass eine inhaltliche Übereinstimmung in relevanten Fächern den Prüfungserfolg beeinflussen kann, auch wenn die Prüfungen zu unterschiedlichen Zeitpunkten stattfinden. Als Nebenergebnis wird ein deutlicher Leistungsunterschied zwischen den Kohorten gefunden, die im Wintersemester bzw. im Sommersemester ihr klinisches Studium beginnen; hierbei haben die Kohorten ohne Studenten in der Regelstudienzeit deutlich schlechtere Noten. Diese Leistungsunterschiede sind in den Kernfächern mit einer angenommenen großen Relevanz für das Staatsexamen besonders ausgeprägt. Insgesamt bestätigen die Ergebnisse die aus anderen Fächern bekannten Daten, dass von den Charaktereigenschaften nur der Parameter „Fleiß/Gewissenhaftigkeit“ mit einem schnellen, erfolgreichen Studium korreliert, während andere Persönlichkeitseigenschaften keinen Bezug zum Studienerfolg haben. Die Lernsteuerung durch Fleiß mit dem Kriterium „Prüfung zum gleichen Zeitpunkt“ steht in einem Gegensatz zur Tatsache, dass etwa 50% der Studenten bereits zum Studienbeginn genaue Vorstellungen über ihr späteres ärztliches Tätigkeitsfeld haben.
Die vorliegende Arbeit beinhaltet die tierexperimentelle Evaluierung von zwei Fragestellungen innerhalb eines Tiermodels. a) Zum einen sollten die Möglichkeiten der vaskulären MR-gesteuerten Interventionen am Model der Carotis-PTA in vivo evaluiert und optimiert, und zum anderen b) die Auswirkungen von intrakraniellen CO2-Embolien bei Herzoperationen unter CO2-Protektion evaluiert werden. Insgesamt wurden an 22 Hausschweinen Gefäßinterventionen unter MRT-Kontrolle durchgeführt. Die Punktion der A. iliaca communis, als Voraussetzung für beide Fragestellungen erfolgte im Angiographieraum. Hier erfolgte auch die Positionierung der Interventionsmaterialien im Zielgefäß, der A. carotis communis. Über das Hybridsystem erfolgte der Transport in den MRT, in dem die unterschiedlichen Interventionsmaterialien getestet und die MRT-Sequenzen angepasst werden konnten. Im zweiten Teil der Arbeit wurden über einen in der A. carotis communis liegenden Katheter unterschiedliche Mengen CO2 oder Luft intracerebral appliziert. Durch eine Diffusionssequenz (DWI) konnten die hierdurch verursachten Effekte auf das Gehirngewebe beobachtet werden. Eine lokale hyperintense Zunahme in der DWI um mehr als 20% wurde als signifikant, in Bezug auf das Vorliegen einer Gehirnischämie bezeichnet. Im Rahmen der 22 Tierexperimente des interventionell, radiologischen Teils konnten die Interventionsmaterialien gut über die entwickelte Echtzeitsequenz dargestellt werden. Durch die Weiterentwicklung dieser Sequenz konnten letztendlich sowohl die Bewegungen, als auch die Öffnungsvorgänge der Ballonkatheter mittels Echtzeitbildgebung dargestellt werden. Darüber hinaus konnten Inteventionsmaterialien bezüglich ihrer Eignung für die MR-Angiographie bewertet werden. Unsere Studie konnte zeigen, dass Interventionen im Bereich der A.carotis communis unter MR-Kontrolle möglich sind. Dies gelingt bislang jedoch nur durch passive Darstellung der Intervenionsmaterialien durch deren Suszeptibilitätsartefakte. Allerdings bedarf es noch der Entwicklung von Interventionsmaterialien, hier vor allem Führungsdrähte, welche nicht magnetisch leitend sind um eine Gefährdung des Patienten auszuschließen. Im herzchirurgischen Teil konnten 16 Tiere eingeschlossen werden. Diese wurden je nach Aplikationsgas und -menge in 3 Gruppen unterteilt: Gruppe I: Gruppe II: Gruppe III: Bei allen Tieren wurden Signalanhebungen in der Diffusionssequenz in der ipsi- und kontralateralen Hemisphäre, deren Persistenz über 25 Minuten, sowie klinische Symptome registriert. Herauszustellen sind die deutlich unterschiedlichen klinischen Reaktionen der Gruppe I zu den Gruppen II und III in unserer Studie. Die Kreislaufreaktionen, die in der Gruppe I bei 4 von 5 Tieren bis zum Kreislaufstillstand reichten, wurden von deutlichen, bilateralen Signalveränderungen in der DWI begleitet. In diesen Fällen muss von einem irreversiblen, großen cerebralen Insult ausgegangen werden. Lediglich bei 2 von 11 Tieren der beiden CO2 Gruppen, waren die Signalanhebungen progredient und dehnten sich in den späten Messungen auch auf die kontralaterale Hemisphäre aus. Bei allen übrigen Tieren dieser Gruppen waren nur leichte Signalanhebungen nach 10 Minuten zu erkennen. Daraus ist zu schließen, dass mit keinen bleibenden Schädigungen der Gehirnzellen zu rechnen ist, da die Ischämiezeit deutlich unter 15 Minuten lag.
Entnahmestrategien subgingivaler Plaqueproben für mikrobiologische Gensonden-Tests: 4 oder 6 Proben?
(2010)
Für die systemische Antibiotikagabe in der Therapie spezieller Parodontitisformen ist nicht die subgingivale Flora einzelner Taschen, sondern ein repräsentatives Bild der subgingivalen Flora des jeweiligen Patienten relevant. Aus Kostengründen werden Proben aus mehreren Taschen zusammengefasst und als sogenannte „gepoolte“ Probe ausgewertet (Flemmig et al. 1998, Beikler et al. 2005). Die gepoolte Auswertungsstrategie bietet für den Nachweis von A. actinomycetemcomitans, T. forsythia, P. gingivalis und T. denticola eine zumindest gleichwertige Nachweissicherheit wie Einzelauswertungen der Proben (Schacher et al. 2007). Die Probenentnahme aus der tiefsten Tasche eines jeden Quadranten (MT4) erwies sich als relativ verlässliche Methode, um Parodontalpathogene - bei Patienten die bisher keine Parodontitistherapie hatten -, nachzuweisen (Mombelli et al. 1991, 1994, Haffajee & Socransky 1992). Neuere Untersuchungen anderer Arbeitsgruppen konnten zeigen, dass die Entnahme von subgingivalen Plaqueproben an den 6 tiefsten Stellen (MT6), die höchste Prävalenz ergeben (Beikler et al. 2006). Allerdings erhöht die Entnahme von 6 statt 4 Proben den Aufwand. Bislang gab es nur Studien, die einen Vergleich zwischen 4 und 6 Stellen nur anhand von PCR-basierter Analyse, untersuchten (Himmer et al. 2009). Ziel dieser Studie war der Vergleich von Zahl und Nachweishäufigkeit von Parodontalpathogenen, bei Patienten mit aggressiver (AgP) oder generalisierter schwerer chronischer Parodontitis (ChP), mittels gepoolten subgingivalen Plaqueproben aus den tiefsten Taschen pro Quadrant und pro Sextant, mithilfe eines 16S rRNA-Gensonden-Tests. Insgesamt wurden bei 50 Patienten (30 weiblich) mit einer unbehandelten aggressiven (n=16) oder generalisierten schweren chronischen Parodontitis (n= 34) klinische Befunde erhoben und vor antiinfektiöser Therapie von jeweils den tiefsten Taschen jedes Quadranten (MT4) bzw. jedes Sextanten (MT6) subgingivale Plaqueproben für mikrobiologische Analysen gewonnen. Dazu wurden an 4 Stellen jeweils 2 sterile Papierspitzen gleichzeitig in den parodontalen Taschen platziert. Jeweils 1 Papierspitze aus jeder Tasche wurde mit den 3 Proben aus den anderen Taschen gepoolt (MT4). Die jeweils verbleibenden 4 Papierspitzen wurden mit 2 weiteren Papierspitzen aus den tiefsten Taschen der 2 verbliebenen Sextanten gepoolt (MT6). MT4 und MT6 wurden zum Nachweis von Aggregatibacter actinomycetemcomitans (AA), Porphyromonas gingivalis (PG), Tannerella forsythia (TF) und Treponema denticola (TD) mit einem 16S rRNS-Gensonden-Test verschickt. Für die statistische Analyse wurden die Bakterienzahlen logtransformiert. Mit MT6 wurde A. actinomycetemcomitans statistisch signifikant häufiger (46%) und in höheren Mengen (2,53±2,79) nachgewiesen als mit MT4 (32%/1,67±2,48) (P=0,035/P=0,002). Die Nachweishäufigkeiten und Durchschnittszahlen für PG, TF und TD waren generell hoch (>95%/>6,0), d.h. sie wurden insgesamt häufiger und in höheren Zahlen nachgewiesen als AA. Somit ergaben sich für die Keime PG, TF und TD keine statistisch signifikanten Unterschiede zwischen MT4 und MT6 hinsichtlich der Nachweishäufigkeit. Nur TF wird durch die Entnahmestrategie MT6 in statistisch signifikant höheren Zahlen nachgewiesen als mit MT4. Innerhalb der Grenzen der vorliegenden Studie können folgende Schlüsse gezogen werden: 1) Beim Gebrauch eines 16S rRNS Gensonden-Tests, ist die Nachweishäufigkeit und Zahl von A. actinomycetemcomitans bei der Entnahmestrategie MT6 gegenüber MT4 erhöht. Die Probenentnahme der tiefsten Tasche je Sextant (MT6) erscheint günstiger als die je Quadrant (MT4). 2) Die Nachweishäufigkeiten von P. gingivalis, T. forsythia und T. denticola lagen bei allen Patienten, die in dieser Studie untersucht wurden, bei mehr als 95%. Auch wurden diese Keime in höheren Mengen nachgewiesen, d.h. die logarithmierten Bakterienzahlen lagen bei 6.0. Diese Studie wurde von der Firma IAI Pado, Zuchwil, Schweiz unterstützt.
Einleitung: Es kommt immer wieder vor, dass Patienten mit Schmerzen in der Brust, im Arm oder Rücken, mit Übelkeit oder anderen Symptomen eines möglichen Herzinfarktes zu ihrem Hausarzt oder dem Notärztlichen Dienst gehen und mit einer falschen Diagnose und der damit verbundenen falschen medizinischen Behandlung nach Hause geschickt werden. Tritt dann aufgrund solch einer fehlerhaften Diagnose der Tod ein, stellt sich hinterher die Frage warum der Herzinfarkt nicht schon früher erkannt wurde und ob eine fachgerechte, rechtzeitige Behandlung das Leben des Betroffenen hätte retten oder ihm zumindest unnötige Schmerzen ersparen können. Material und Methode: Grundlage der vorliegenden Arbeit sind die Sektionsprotokolle des Zentrums der Rechtsmedizin des Klinikums der Goethe-Universität Frankfurt am Main. Über die institutsinternen Datenprogramme „Obduktio“ und „Sektio“, wurden sämtliche Daten zu Todesfällen gesammelt, bei denen als Todesursache ein Herzinfarkt festgestellt werden konnte und die in dem Zeitraum vom 1.1.1994 bis 31.12.2007 durch Ärztinnen und Ärzte der Frankfurter Rechtsmedizin obduziert wurden. Zusätzlich standen für die Auswertung folgende Unterlagen zu Verfügung: Sektionsprotokolle mit allen rechtsmedizinischen Zusatzuntersuchungen, Ermittlungsergebnisse der Polizei (soweit diese aus den Akten hervorgehen), staatsanwaltschaftliche Akten (inklusiver klinischer Gutachten, soweit in Auftrag gegeben) und Gerichtsurteile (wenn diese bis zum Abschluss der Arbeit vorlagen). Auf diese Weise konnten 38 Fälle von verkannten Herzinfarkten festgestellt werden. Ergebnisse: Von den 38 Verstorbenen waren 16 Frauen und 22 Männer. 21 (55%) waren unter und 17 (44,7%) über 50 Jahre alt. Bei 20 der 38 Patienten (52,6%) erfolgte die ärztliche Konsultation an einem Freitagnachmittag, Samstag oder Sonntag. 20 Verstorbene wurden von einem Notarzt oder ärztlichen Notdienst behandelt. Von den untersuchten 38 Fällen verstarben 13 Patienten in den frühen Morgen- und Vormittagsstunden zwischen 6 und 12 Uhr. 9 Patienten verstarben zwischen 12 und 17 Uhr. 11 verstarben in den Abendstunden zwischen 17 und 22 Uhr und 4 Patienten in den Nachtstunden zwischen 22 und 6 Uhr morgens. Fünfmal wurde ein 12 Kanal-EKG entsprechend den Leitlinien der WMF abgeleitet. Bei 29 der 38 Fälle wurde eine Reanimation durchgeführt. Bei den untersuchten Fällen zeigte sich ein durchschnittliches Herzgewicht bei den Frauen von 370 g, wobei sich ein Durchschnittsalter von 50,1 Jahren und eine Durchschnittsgröße von 165 cm fanden, bei einem durchschnittlichen BMI von 25,5 kg/m2. Bei den untersuchten männlichen Fällen lag das durchschnittliche Herzgewicht bei 499 g und das Durchschnittsalter bei 51,6 Jahren bei einer Durchschnittsgröße von 172 cm und einem durchschnittlichen BMI von 22,4 kg/m2 Bei beiden Geschlechtern zeigt sich ein deutlich erhöhtes Herzgewicht im Vergleich zu den physiologisch Daten bei „Gesunden“. Diagnostisch wurden die Ursachen der Symptome von Seiten der Hausärzte am ehesten im muskuloskeletalen (fast 37% der untersuchten Fälle) oder gastrointestinalen Bereich (30% der bearbeiteten Fälle) vermutet, danach am ehesten an pulmonale Ursachen (5% der Fälle) gedacht. Ein psychischer Hintergrund als Auslöser für die Symptome wurde nur in einem Fall vermutet, allerdings war bei der Verstorbenen auch eine psychiatrische Grunderkrankung vorbekannt. Bei 21% der Fälle wurde keine klare Arbeitsdiagnose gestellt. Diese Patienten wurden hauptsächlich mit Schmerzmedikamenten meist nicht steroidale Antirheumatika (NSAR) behandelt, also am ehesten im Sinne einer möglichen muskuloskeletalen Erkrankung. In 11 Fällen wurde von Seiten der jeweilig zuständigen Staatsanwaltschaft Anklage erhoben. Von diesen 11 erhobenen Anklagen wurde in 9 Fällen das Ermittlungsverfahren nach § 170 Abs.2 StPO eingestellt. Ein Verfahren wurde am Landgericht Frankfurt verhandelt und es kam zu einem rechtskräftigen Urteil. Die angeklagte Ärztin wurde aufgrund eines unnötig aufrechterhaltenden Schmerzzustandes zu einer Geldstrafe von 1500,- DM sowie einer Bewährungsstrafe von einem Jahr verurteilt. Bei einem etwas länger zurückliegenden Verfahren aus dem Jahre 1994 waren die Akten bereits vernichtet worden und der Ausgang des Ermittlungsverfahrens war nicht mehr nachvollziehbar. Es ist aber davon auszugehen, dass auch dieses Verfahren eingestellt wurde. Diskussion: Herz-Kreislauf-Krankheiten sind weiterhin die häufigste Todesursachen bei Frauen und Männern in Deutschland. Zudem führen sie nicht selten durch einen vorzeitigen Tod unter 70 Jahren zu einem erheblichen Verlust (potenzieller) Lebensjahre. Die hier ermittelte Fallzahl von n= 38 erscheint nicht sehr repräsentativ, zumal auch noch die hohe Selektion bias mitbedacht werden muss. Allerdings muss man zusätzlich eine wahrscheinlich sehr hohe Dunkelziffer berücksichtigen, da es zu einer deutlichen Selektion der Verstorbenen bezüglich einer Obduktion durch die jeweiligen behandelnden Ärzte kommt. Insgesamt ist von einer relativ großen Anzahl verdeckter Fälle auszugehen, die nicht obduziert werden und somit die eigentlichen Gründe, die letztendlich zum Tod des Patienten führten oftmals unerkannt bleiben. Bezüglich der Anzahl der geschriebenen EKGs muss die Frage gestellt werden, ob die geringe Anzahl von geschriebenen EKGs nur einen Zufallsbefund der hier untersuchten Fälle darstellen und ansonsten bei vergleichbaren Fällen regelmäßig ein EKG geschrieben wird, oder ob wirklich in den meisten Fällen bei Patienten mit einer unklaren Symptomatik eher auf ein EKG verzichtet wird. Ein weiterer auffälliger Aspekt ist, dass sich das Durchschnittsalter der 38 Verstorbenen bei ca. 51,3 Jahren befindet, und damit deutlich unter dem bundesweiten Durchschnittsalter von > 65 Jahren bei Herzinfarktverstorbenen liegt. Bezüglich des Zusammenhanges zwischen BMI und Herzgewicht lässt sich interessanter Weise eine deutliche Auffälligkeit bzgl. des Herzgewichtes der untersuchten Verstorbenen feststellen. In beiden Geschlechtern fand sich bei über 80% der Untersuchten ein teilweise deutlich über das physiologische Herzgewicht reichendes Herzgewicht bei durchschnittlich normwertigem BMI. Im Zusammenhang mit den hier ermittelten Daten kann ansatzweise überlegt werden, ob evtl. Ultraschalluntersuchungen zur Bestimmung des Herzgewichtes und der Wanddicke zur Diagnostische Abklärung bei fraglichen Brustschmerzen und unauffälligem EKG gehören sollten, um die Gefahr eines evtl. drohenden Infarktes zeitnah eingrenzen zu können. Sicherlich bedarf es hierfür aber noch weiterer Untersuchungen mit größeren Fallzahlen. Bezüglich der strafrechtlichen Konsequenzen ist zu sagen, dass bisher ein verkannter Herzinfarkt mit tödlichen Ausgang ohne strafrechtliche Konsequenzen geblieben ist, da der kausale Zusammenhang zwischen ärztlichem Fehlverhalten und dem Tod des Patienten nicht mit an Sicherheit grenzender Wahrscheinlichkeit nachgewiesen werden konnte mit Ausnahme des einen erwähnten Falles am Landgericht Frankfurt/Main. Ein möglicher neuer Ansatz ist jedoch zunehmend erkennbar. In den letzten staatsanwaltlich untersuchten Fällen zeichnet sich ein Trend zur verstärkten Einzelfallanalyse, bei welcher ausdrücklich die Frage nach einer möglichen längeren Überlebenszeit in den Vordergrund gestellt wird, wenn durch erforderliche, mögliche und unverzügliche Intervention eingegriffen worden wäre. Im Oktober 2007 stellte der BGH erstmalig in einem offiziellen Urteil fest, dass jeden Bereitschaftsarzt klar umrissene diagnostische Pflichten treffen. Auch wenn weiterhin nicht mit an Sicherheit grenzender Wahrscheinlichkeit nachgewiesen werden kann, dass der Tod eines Patienten hätte vermieden werden können, so ist doch in Zukunft die Frage nach einer möglichen Pflichtverletzung bei der durchgeführten Diagnosestellung und –sicherung bei einem Behandlungsfehlervorwurf mit zu berücksichtigen.
Ziele: In dieser Arbeit sollte die Wirkung von Cyclopamin auf das Wachstumsverhalten von Leukämiezellen untersucht werden. Dabei galt es zu klären, ob eine Hemmung des Wachstumsverhaltens über eine, durch Cyclopamin induzierte Inhibition des sogenannten Hedgehog-Signalweges erfolgt. Weiterhin war die Wirkung von Cyclopamin auf Lymphozyten gesunder Spender zu prüfen, um eine mögliche Selektivität auf maligne Zellen aufzuzeigen.
Das Philadelphia-Chromosom (Ph) ist das zytogenetische Korrelat der Translokation t(9;22). 95% der chronisch myeloischen Leukämien (CML) und 20-25% der akuten lymphatischen Leukämien (ALL) des Erwachsenen sind Ph-positiv (Ph+). Bei der t(9;22) kommt es zur Fusion des abl -locus auf Chromosom 9 und des bcr-locus auf Chromosom 22. Dies führt zur Bildung des chimären bcr/abl Gens, welches für das BCR/ABL Fusionsprotein kodiert, das für die Pathogenese der Ph+ Leukämien verantwortlich gemacht wird. Das ABL-Protein ist eine nicht-Rezeptor Tyrosinkinase, die eine wichtige Rolle in der Signaltransduktion und der Regulation des Zellwachstums spielt. Im BCR/ABL-Fusionsprotein wird die Kinase-Aktivität von ABL, die im Normalfall streng reguliert ist, durch die Fusion mit BCR konstitutiv, das heißt andauernd, aktiviert. Dadurch kommt es zur Deregulierung vielfältiger intrazellulärer Signalwege, was die maligne Transformation hämopoetischer Zellen zur Folge hat. Mit dem spezifischen ABL-Kinaseinhibitor Imatinib steht seit wenigen Jahren ein tumorzellspezifischer Wirkstoff für die Therapie der Ph+ Leukämien zur Verfügung, der bei der Mehrzahl der Patienten zur hämatologischen Vollremission führt. Insbesondere bei Patienten mit CML-Blastenkrise und Ph+ ALL kommt es durch klonale Expansion Imatinib-resistenter Zellen jedoch zu einem frühen Therapie-refraktären Rezidiv der Krankheit. Aufgrund der Problematik Imatinib-resistenter Rezidive wurden und werden "Nachfolger" von Imatinib mit dem Ziel entwickelt, die hohe Spezifität beizubehalten und wesentlich höhere Affinitäten zu erreichen. Derzeit befinden sich vielversprechende Substanzen in klinischen Studien: Nilotinib (Nilotinib, Novartis, Basel) ist ein spezificher ABL-Kinase Inhibitor der eine ca. 20-mal höhere Affinität gegenüber BCR/ABL hat als Imatinib. Dasatinib (BMS-354825, Bristol-Myers Squibb; New York) hat eine 325-fach höhere Affinität als Imatinib und wurde ursprünglich als Src-Kinase Inhibitor entwickelt. Die sehr hohe Affinität für die ABL-Kinase wurde erst später festgestellt (O'Hare et al., 2005b). Bei beiden Substanzen konnte eine Wirksamkeit auf die meisten klinisch relevanten Imatinib-resistenten BCR/ABL-Mutationen gezeigt werden (O'Hare et al., 2005b). Die Mutation T315I bildet die wichtigste Ausnahme. Ziel dieser Arbeit war es, die Grundlagen für neue, tumorzellspezifiche Therapiestrategien für die Behandlung BCR/ABL-positiver Leukämien, sowie deren imatinibresistenten Mutationen zu legen. Die Oligomerisierung spielt für die Aktivierung von BCR/ABL eine grundlegende Rolle und wird durch die N-terminale BCR-coiled-coil Region vermittelt. In unserer Arbeitsgruppe konnte eindeutig gezeigt werden, dass die Oligomerisierungsdomäne von BCR/ABL ein therapeutischer Angriffspunkt für ein kleines Peptid, der Helix-2, für die Behandlung Ph+ Leukämien darstellt. Der Einfluss der Helix-2 auf die Oligomerisierung des BCR/ABL Wildtyps und der damit verbundenen Sensitivitätssteigerung gegenüber Imatinib wurde in unserer Arbeitsgruppe genauestens untersucht und führte zu folgender Fragestellung: Welchen Einfluss hat die Helix-2 auf BCR/ABL Mutationen? Inwieweit ist es möglich die Imatinibresistenz bestimmter Mutationen durch Helix-2 Peptide zu vermindern oder zu überwinden? Welchen Einfluss hat die Helix-2 auf die Wirkung des Kinaseinhibitors Dasatinib verglichen mit Imatinib? Von den drei ausgewählten Punktmutationen Y253F, E255K und T315I war es bei zweien, nämlich den Mutationen Y253F und E255K, möglich die Imatinibresistenz nach Einbringen der Helix-2 in die Zellen zu überwinden. In Gegenwart von Dasatinib konnte durch die Helix-2 Peptide keine Sensitivitätssteigerung erreicht werden. Dies ist durch das verschieben des Gleichgewichtes von der aktiven hin zur inaktiven Konformation der ABL-Kinase durch die Helix-2 Peptide und durch die unterschiedlichen Angriffspunkte der zwei Tyrosinkinaseinhibitoren zu erklären. So bindet Dasatinib an der aktiven ABL-Kinase, Imatinib an der inaktiven ABL-Kinase. Die Mutation T315I warf durch ihre Resistenz gegenüber den Helix-2 Peptiden und ihrer Unabhängigkeit von der Tyrosinkinaseaktivität, eine neue Fragestellung bezüglich ihrer Arbeitsweise auf, welche im zweiten Teil dieser Arbeit untersucht wurde: Ist die 185(BCR=ABL)-T315I Mutation unabhängig von ihrer Tyrosinkinaseaktivität? Um dieser Fragestellung nach zu gehen untersuchten wir das Transformationpotential von unmutiertem p185(BCR=ABL) Deletionsmutanten, denen die Oligomerisierungsdomäne, die Coiled-Coil Domäne fehlt, und deren dazugehörigen Mutationen Y253F, E255K und T315I, denen ebenfalls die CC-Domäne fehlt. Nach Analyse aller Ergebnisse zeigte sich, dass die Mutation T315I in allen Versuchen eine Ausnahme darstellte und in allen Zellsystemen trotz fehlender CC-Domäne in der Lage ist die Zellen zu transformieren. Diese Tatsache beweist, dass die Mutation T315I unabhängig von ihrer Tyrosinkinaseaktivität das Potential zur Transformation besitzt. Die weitere Untersuchung dieser Mutation und ihrer Arbeitsweise könnte in Zukuft neue Wege aufweisen um die Aktivität dieser Mutation anzugreifen und therapeutisch gegen sie vorzugehen.
Hintergrund und Zielsetzung: Die Multiple Sklerose (MS) ist die häufigste chronisch-entzündliche Erkrankung des zentralen Nervensystems (ZNS) mit einem klinisch sehr heterogenen Erscheinungsbild. Sie ist durch zeitlich und örtlich disseminiert auftretende Entmarkungsherde hauptsächlich in der weißen Substanz gekennzeichnet. Obwohl die Läsionen im gesamten ZNS auftreten, ist u. a. das Corpus Callosum (CC) frühzeitig und häufig betroffen. Oft ist es erst nach vielen Jahren möglich, den weiteren Verlauf der Erkrankung abzuschätzen. Allerdings ist die Entzündungsaktivität im Frühstadium der MS stärker als im späteren Verlauf. Daher ist es wichtig, gerade zu Anfang der MS einen Frühmarker zu haben, um schon entsprechend früh mit einer krankheitsmodifizierenden Behandlung beginnen zu können, um Behinderungen möglichst gering zu halten. Die vorliegende Arbeit fokussiert auf jene Fasern des CCs, die die beiden motorischen Areale (M1) verbinden, denn die Intaktheit des motorischen CCs ist ausschlaggebend für bimanuelle Bewegungen. Diese transkallosalen motorischen Verbindungen (TMVs) im humanen CC liegen weiter kaudal als beim Rhesusaffen. Unbeantwortet blieb bisher die Frage, ob auch beim Menschen die TMVs, ähnlich wie beim Rhesusaffen, eine somatotope Organisation im CC aufweisen. Ziel der vorliegenden Arbeit war, in einem multimodalen integrativen Ansatz das motorische CC auf struktureller sowie funktioneller und behavioraler Ebene bei gesunden Probanden sowie Multiple Sklerose Patienten zu untersuchen. Methoden: 12 gesunde Probanden und 13 Patienten mit Multipler Sklerose wurden untersucht. Die Untersuchungen umfassten Bildgebung mit Magnet Resonanz Tomographie (MRT) und funktioneller MRT (fMRT) zur Identifizierung der funktionellen Areale von Händen, Füßen und Lippen im M1 und diffusionsgewichtete MRT/Diffusions-Tensor MRT (DTI) zur Feststellung der fraktionalen Anisotropie (FA)-Werte und der Hauptdiffusionsrichtung von Wasser. Mithilfe der DTI konnten die Faserverläufe in jedem Voxel bestimmt werden. Dies war die Grundlage für die ebenfalls durchgeführte Fasertraktographie. In mehreren Traktographieschritten wurden die Fasern, die über das CC die Areale der Hände, Füße und Lippen im M1 verbinden, sichtbar gemacht. So konnten gezielt die FA-Werte im CC gemessen und die Lage der Faserbündel bestimmt werden. Desweiteren wurde die interhemisphärische Inhibition (IHI) zwischen den Handarealen von M1 als Maß für die effektive Konnektivität des CC mittels transkranieller Magnetstimulation (TMS) in einem etablierten Doppelpuls-TMS-Protokoll untersucht. In einem weiteren Versuchsteil wurden behaviorale Tests durchgeführt. Elektromyographische Spiegelaktivität wurde bei einer unimanuellen Aufgabe im homonymen Muskel der „Spiegelhand“ als Maß für interhemisphärische motorische Hemmung untersucht. Koordinationstests umfassten die bimanuelle temporale Koordination (BTK) mittels bimanuellem Fingertapping und Labyrinth-Test. Durch schnellstmögliches Fingertappen mit dem rechten, dem linken und simultan mit beiden Zeigefingern wurde sowohl uni- als auch bimanuelle Koordination und Schnelligkeit überprüft. Resultate: Die Hand- und Fuß-TMVs befanden sich durchweg im posterioren Truncus und/oder dem Isthmus des CC mit den Hand-TMVs etwas mehr ventral und anterior der Fuß-TMVs. Bei einem Probanden konnten die Lippenfasern dargestellt werden, die am weitesten anterior lagen und bis in den anterioren Truncus reichten. Bei der Analyse der FA-Werte der Hand-TMVs lagen die Werte der Patienten durchschnittlich signifikant niedriger als die der Kontrollen. Die IHI bei kurzem Interstimulus-Intervall (SIHI) war bei Patienten signifikant erniedrigt im Vergleich zu den Kontrollen, die IHI bei langem Interstimulus-Intervall (LIHI) war dagegen zwischen den Gruppen nicht unterschiedlich. Bei der elektromyographischen Spiegelaktivität zeigten sich keine signifikanten Unterschiede zwischen den Gruppen sondern lediglich ein Trend zu höheren Werten bei den Gesunden. Bei der BTK hielten die Patienten die Phasenrelationen genauer ein mit einer geringeren Streuung als die Kontrollen. Beim Labyrinth-Versuch und beim schnellstmöglichen Fingertappen zeigten sich keine signifikanten Unterschiede zwischen den Gruppen. Die lineare Regressionsanalyse zeigte bei den Kontrollen eine signifikante Korrelation zwischen den mittleren FA-Werten der Hand-TMVs und der Stärke der SIHI. Bei den Patienten zeigte sich keine solche Korrelation. Zwischen SIHI bzw. LIHI und elektromyographischer Spiegelaktivität wurden bei den Kontrollen nicht aber bei den Patienten inverse Korrelationen gefunden. Schlussfolgerung: Durch die Kombination der verschiedenen Untersuchungsmethoden konnte die frühzeitige Schädigung des CCs bei MS auf verschiedenen Ebenen nachgewiesen und gleichzeitig die Möglichkeit einer nicht-invasiven Verlaufskontrolle geschaffen werden, die eine frühe Abschätzung des weiteren Verlaufes der MS ermöglichen kann. Dies wird aktuell in einem longitudinalen Versuchsdesign weiter untersucht.
Markt- und wettbewerbsorientierte Reformstrategien in den Krankenhaussystemen zahlreicher Industrieländer haben Befürchtungen vor einer kommerzialisierten Krankenhausversorgung hervorgebracht. Dieser Beitrag unterbreitet einen analytischen Interpretationsrahmen zur Erklärung der internationalen Verbreitung dieser Reformstrategien und versucht die behaupteten negativen Effekte von Kommerzialisierungsprozessen auf Versorgungsqualität und Zugänglichkeit zu untersuchen. Gestützt auf einen Vergleich eines idealtypischen Kommerzialisierungsmodells mit dem institutionellen und organisatorischen Wandel im deutschen Krankenhaussystem kommt der Beitrag zu dem Schluss, dass Kommerzialisierungsprozesse in der Krankenhausversorgung bislang noch begrenzt sind. Obwohl ein markt- und wettbewerbsbasierter Umbau der Governancestrukturen zu beobachten ist und Krankenhäuser zu einer Kommerzialisierungsstrategie gedrängt werden, lässt sich aufgrund einer unzureichenden Daten- und Forschungslage bislang nicht empirisch feststellen, ob die Kommerzialisierungsprozesse zu einer Verschlechterung der Qualität und Zugänglichkeit der Krankenhausversorgung geführt haben.
Die Sicherung der Atemwege ist eine der wichtigsten Aufgaben des mit dem Atemwegsmanagement beauftragten Arztes, da eine fehlgeschlagene Intubation und sich über längere Zeit erstreckende Intubationsversuche schnell zu einer kritischen Hypoxie führen können. Gelingt eine endotracheale Intubation mittels konventioneller Larnygoskopie mit dem Macintosh-Spatel unerwartet nicht, stehen verschiedene supraglottische Atemwegshilfen wie z.B. die Larynxmaske zur Atemwegssicherung zur Verfügung. Falls sich jedoch aus verschiedenen Gründen der Einsatz eines supraglottischen Atemwegs verbietet und die Notwendigkeit einer endotrachealen Intubation besteht, muss eine andere Intubationsmethode als die konventionelle Laryngoskopie gewählt werden. Das Standardverfahren für den erwartet schwierigen Atemweg, die Intubation mit dem flexiblen Endoskop am spontan atmenden Patienten, eignet sich nicht für den unerwartet schwierigen Atemweg. Hierfür werden die Intubationslarynxmaske, Videolaryngoskope, Führungsstäbe mit Transillumination und verschiedene starre Fiberoptiken wie das Bonfils Intubationsfiberskop oder das Laryngoskop nach Bullard eingesetzt. Der Erfolg des Bonfils Intubationsfiberskops am unerwartet schwierigen Atemweg und am erwartet schwierigen Atemweg, basierend auf einer Reihe klinischer Faktoren, wurde bereits bewiesen. Es ist jedoch nicht bekannt, ob sich das Instrument für einen klar definierten schwierigen Atemweg im Sinne einer eingeschränkten Mundöffnung und eingeschränkten Beweglichkeit in der Halswirbelsäule eignet. Ziel der vorliegenden Studie war es zu untersuchen, ob sich das Bonfils Intubationsfiberskop für den Einsatz am schwierigen Atemweg, simuliert durch einen Immobilisationskragen, eignet. Nach Einwilligung der Ethikkommission wurde die Studie an 76 Patienten durchgeführt, die sich einem elektiven gynäkologischen Eingriff unterzogen. Nach der Simulation des schwierigen Atemwegs durch Anlegen eines Immobilisationskragens wurden jeweils 38 Patienten randomisiert entweder mittels direkter Laryngoskopie oder dem Bonfils Intubationsfiberskop intubiert. Die erfolgreiche Platzierung des Endotrachealtubus mit dem jeweiligen Instrument war der primäre Zielparameter der Studie. Nach Immobilisierung der Halswirbelsäule betrug die maximale Mundöffnung 2,6 cm ± 0,7 cm in der Macintosh-Gruppe und 2,6 cm ± 0,8 cm in der Bonfils-Gruppe. Mit dem Laryngoskop mit Macintosh-Spatel konnten 15/38 Patienten (39,5%) erfolgreich intubiert werden, mit dem Bonfils Intubationsfiberskop konnten 31/38 Patienten (81,6%) erfolgreich intubiert werden (P<0,05). Die benötigte Zeit bis zur erfolgreichen Platzierung des Endotrachealtubus war mit dem Laryngoskop geringer (53 ± 22 s) als mit dem Bonfils Intubationsfiberskop (64 ± 24 s), dieser Zeitunterschied besitzt jedoch weder statistische, noch klinische Relevanz. In der vorliegenden Studie konnte gezeigt werden, dass das Bonfils Intubationsfiberskop der direkten Laryngoskopie mit Macintosh-Spatel an Patienten mit eingeschränkter Mundöffnung und immobilisierter Halswirbelsäule überlegen ist.
Leben bedeutet eine fortdauernde Anpassung an Umweltbedingungen durch ein hoch entwickeltes Informationsverarbeitungssystem. Diese Anpassung wird durch das neuroendokrine und autonome Nervensystem gewährleistet. Eine tages- und jahreszeitliche Organisation des neuroendokrinen und autonomen Systems findet durch das Photoneuroendokrine System (PNS) statt. Erst in jüngster Zeit konnte gezeigt werden, dass neben peptidergen Substanzen auch lipiderge Signalmoleküle des Endocannabinoidsystems eine essentielle Rolle bei der interzelluären Kommunikation spielen. Hierbei zählen Anandamid (AEA) und 2-Arachidonoylglycerol (2-AG) zu den umfassend erforschten Endocannabinoiden. ...
Die Gamma-Glutamyl-Carboxylase spielt eine Schlüsselrolle im menschlichen Organismus, da sie für die posttranslationale Modifikation sämtlicher Vitamin-K-abhängiger Proteine verantwortlich ist. Ein hereditärer Mangel aller Vitamin-K-abhängigen Faktoren aufgrund eines Defekts in der Gamma-Glutamyl-Carboxylase (VKCFD1) ist sehr selten und geht mit einer gesteigerten Blutungsneigung einher. Aktuelle Arbeiten zeigen eine weitere Manifestation von Mutationen im Gamma-Glutamyl-Carboxylase-Gen, die ein dermatologisches Krankheitsbild, ähnlich der Pseudoxanthoma elasticum, darstellt. In diesen Fällen zeigen die Patienten sowohl dermatologische Effloreszenzen im Sinne der PXE als auch eine Verminderung der Vitamin-K-abhängigen Faktoren. Es wird vermutet, dass die PXE-ähnlichen Hautveränderungen auf eine Funktionsstörung des Matrix-Gla-Proteins zurückzuführen sein könnten. In der vorliegenden Arbeit wurde eine Mutationsdiagnostik bei vier Patienten mit kongenitalem Mangel aller Vitamin-K-abhängigen Gerinnungsfaktoren durchgeführt. Insgesamt wurden dabei fünf Mutationen nachgewiesen, davon vier Missense-Mutationen und eine Stopp-Mutation. Zwei der Patienten wiesen eine „compound Heterozygotie“ auf. Bei den gefunden Mutationen wurden drei im Rahmen dieser Arbeit erstmals aufgezeigt, die anderen zwei waren in der Literatur bereits beschrieben. Bei einer der Mutationen konnte ein „Founder“-Effekt in Bezug auf einen anderen Patienten aus der Literatur nachgewiesen werden. Sollte zukünftig diese Mutation in Deutschland vorkommen und sich auch auf die „Founder“-Mutation zurückführen lassen, böte sich dieser Mechanismus als eine Erklärung für das gehäufte Vorkommen der VKCFD Typ 1 in Deutschland an. Ein Hinweis auf eine PXE-like Disorder konnte bei keinem der Patienten nachgewiesen werden. Zusätzlich wurde die genetische Variabilität des Gamma-Glutamyl-Carboxylase-Gens in der Normalbevölkerung untersucht. Für die Untersuchungen wurde zunächst die DNA einer phänotypisch unauffälligen Kontrollgruppe, bestehend aus 200 gesunden Blutspendern, auf Genvariationen im GGCX-Gen analysiert. Nach der Isolierung und der Amplifikation der DNA wurde mit sämtlichen Proben zunächst ein Mutations-Screening mittels dHPLC durchgeführt. Auffällige Abschnitte und solche, bei denen häufige und/oder mehrere Polymorphismen bereits bekannt waren, wurden sequenziert. Auf diese Weise wurden acht Polymorphismen in den codierenden bzw. die Exone flankierenden Genabschnitten nachgewiesen. Davon wurden zwei erstmals beschrieben (c.43+33T>A; c.1288-38T>C). Schließlich sollte mit dieser Arbeit versucht werden zu klären, wie eine möglichst effiziente Diagnostik von Mutationen bzw. Polymorphismen des GGCX-Gens möglich ist. In unseren Untersuchungen wurde sowohl mit der dHPLC (Wave-System) als Screening-Methode gearbeitet als auch Genabschnitte sequenziert. Mittels der dHPLC kann ein hohes Probenaufkommen in kurzer Zeit mit vergleichsweise geringem Aufwand und vergleichsweise geringeren Kosten (ca. 30 € pro Genuntersuchung vs. Komplettsequenzierung ca. 300 €) bewältigt werden. Bei Genabschnitten mit vielen oder häufigen Polymorphismen ist dies ineffektiv, weil es nur das Vorhandensein einer Veränderung, nicht jedoch die Veränderung selbst beschreiben kann. Daher empfiehlt es sich, beide Methoden zu kombinieren, welches sich als die effizienteste und rationalste Methode für die Mutationsdiagnostik darstellt. Die Ergebnisse der vorliegenden Arbeit sind von grundsätzlichem Interesse für die biomedizinische Forschung. Eventuell wird es damit dann möglich sein, Krankheitsentstehungen und ihre Verläufe bei Mutationen der Gamma-Glutamyl-Carboxylase besser zu verstehen und damit eine noch effektivere und nebenwirkungsärmere Therapie einzusetzen.
In der vorliegenden Arbeit wurde in einer Fall-Kontroll-Studie mit 483 Fällen und 300 Kontrollen das Risiko für die berufsbedingte Supraspinatussehnenruptur durch Arbeiten auf oder über Schulterniveau untersucht. Dabei ergab sich eine statistisch signifikante Risikoerhöhung durch das Arbeiten auf oder über Schulterniveau. Eine Dosis-Antwortbeziehung zeigte einen Zusammenhang der Ereignisse. Am stärksten war die Risikoerhöhung bei Patienten, die lebenslang kumulativ mindestens 3195 Stunden auf oder über Schulterniveau arbeiteten. Die adjustierte Odds Ratio dafür betrug 2,1 (CI 1,2-3,7), das Ergebnis ist statistisch signifikant. Neben dem beruflichen Arbeiten auf oder über Schulterniveau gibt es andere Faktoren, die die Entstehung einer Rotatorenmanschettenruptur begünstigen. Dabei sind Alter, Heben/Tragen von Lasten über 20 kg und Arbeiten mit handgeführten vibrierenden Werkzeugen zu nennen. Deshalb wurden die Daten hinsichtlich dieser Faktoren adjustiert. Auch einige Sportaktivitäten können das Risiko für die Rotatorenmanschettenruptur erhöhen. Deshalb wurden die Daten auch für Geräteturnen, Kugelstoßen, Speer- und Hammerwerfen, Ringen und Tennis adjustiert, und die sportliche Anstrengung wurde als Confounder behandelt. Die Ergebnisse stehen im Einklang mit Ergebnissen früherer Studien, die ebenfalls eine Risikoerhöhung für die Entstehung der Rotatorenmanschettenruptur durch Arbeiten auf oder über Schulterniveau zeigen. Eine genaue Dosis, die zu dieser Risikoerhöhung führt, wurde in der Literatur bisher nicht genannt. Die vorliegende Arbeit liefert die Evidenz für die Annahme eines erhöhten Risikos der Ruptur der Sehne des M. supraspinatus bei Arbeiten auf oder über Schulterniveau. Weiterhin besteht ein Potential für eine primäre Prävention, indem Arbeiten auf oder über Schulterniveau möglichst ganz vermieden wird. Daher sollte die Ruptur der Sehne des M. supraspinatus als eigene Berufskrankheit in die Liste der Berufskrankheiten aufgenommen und die Betroffenen bei kumulativem Arbeiten von mindestens 3200 Stunden auf oder über Schulterniveau entschädigt werden.
Zur Korrektur der Myopie bietet die refraktive Chirurgie prinzipiell die Möglichkeiten entweder die Kornea zu modulieren oder eine phake Intraokularlinse einzusetzen. Bei der Beseitigung einer hochgradigen Myopie von über 6 dpt haben sich jedoch die pIOL durchgesetzt. Besonders irisfixierte Linsen weisen sehr gute Refraktionsergebnisse bei einem geringen Komplikationsprofil auf. Zwei Modelle der Artisan-Linse (optische Zone 5 mm n = 48, optische Zone 6 mm n = 264) wurden in 312 Augen von 176 hochgradig myopen Probanden in der Universitätsaugenklinik Frankfurt am Main eingesetzt. Die Untersuchung und Auswertung erfolgte hinsichtlich der Refraktionsqualität und Komplikationsrate. Zur Beurteilung der Refraktion wurden die Standardparameter der refraktiven Chirurgie (Sicherheit, Wirksamkeit, Vorhersagbarkeit und Stabilität) gemessen und analysiert. Bei Erhebung und Analyse des Komplikationsprofils wurde besonderes Augenmerk auf den Verlust der EZD gerichtet. Die Untersuchungen wurden präoperativ, nach einem Tag, einer Woche, einem Monat und anschließend im Jahresrhythmus durchgeführt. Der präoperative mittlere BKSM von 0,82 wurde bei keiner Folgeuntersuchung unterschritten, so dass der Sicherheitsindex stets über 1 betrug. Kein Patient verlor mehr als eine Zeile beim BKSM. Ein UKSM von 0,8 oder mehr wurde nach einem Jahr in 78%, nach zwei Jahren in 81%, nach drei Jahren in 76%, nach vier Jahren in 60% und nach fünf Jahren in 65% der Fälle beobachtet. Im Vergleich dazu betrug der präoperative BKSM bei 78% der Augen 0,8 oder mehr. Die Vorhersagbarkeit erwies sich innerhalb des gesamten Beobachtungszeitraums als sehr hoch. Bei vier der fünf Jahreskontrollen lagen alle Augen (98% bei der 3-Jahresuntersuchung) innerhalb einer Spannweite von ± 2 dpt und stets mindestens 86% der Augen innerhalb von ± 1 dpt der angestrebten refraktiven Korrektur. Das mittlere sphärische Äquivalent betrug präoperativ -11,24 ±4,46 dpt. Einen Monat nach der Implantation der irisfixierten Linse ergab sich ein Wert von -0,54 ±0,55 dpt. Es kam zu keinen größeren Veränderungen der Refraktion während des Nachbeobachtungszeitraums (Minimum: -0,78 dpt nach fünf Jahren; Maximum: -0,41 dpt nach einem Jahr). Im Mittel betrug die präoperative Endothelzellzahl 2751 ±331 Zellen/mm2 (2004 bis 3508) und verringerte sich durchschnittlich um 2,6% / Jahr auf 2387 ±322 Zellen/mm2 (1605 bis 3164) nach fünf Jahren. Bei Auswertung der EZD der konsekutiven Kohorte wurde an zwei Augen ein Verlust von über 30% registriert (34% bzw. 38%). An keinem Auge wurde ein intrastromales Korneaödem oder eine Trübung der Hornhaut festgestellt. Eine signifikante Assoziation zwischen Pigmentdispersion und erhöhtem intraokularem Druck konnte beobachtet werden (p = 0,047). Schwere Nebenwirkungen wie eine chronische Entzündung oder Glaukom sind nicht aufgetreten. An 9 Augen mußte eine Reenklavation erfolgen, ursächlich hierfür war in einem Fall eine Dezentrierung, in einem anderen eine Iritis und in den übrigen Fällen zu wenig eingehaktes Irisgewebe in den Linsenhaptiken. Eine Explantation war an keinem Auge indiziert. Um ein besseres Refraktionsergebnis zu erzielen, wurde in 21 Augen mittels LASIK und in 9 Augen mittels LRI nachkorrigiert. Diese Langzeitergebnisse der irisfixierten Linse zur Korrektur einer hochgradigen Myopie erweisen sich hinsichtlich Sicherheit, Wirksamkeit, Vorhersagbarkeit und Stabilität als sehr gut. Im Vergleich zum natürlichen Verlust der EZD ist dieser nach Einsatz der pIOL signifikant erhöht, so dass bei jüngeren Patienten strengere Ausschlusskriterien eingeführt werden sollten. Insgesamt erweist sich aber die irisfixierte Linse als eine sehr sichere und komplikationsarme Option zur Beseitigung einer hochgradigen Myopie.
Thema der vorliegenden Studie ist die Evaluation der Betazellfunktion bei Patienten mit Diabetes mellitus Typ 2, für deren Bestimmung es bisher keine einfach anwendbare Methode gibt. Die Clamp-Methode erfordert eine kontinuierliche Überwachung und ist daher nicht geeignet für die Anwendung in der täglichen Klinikroutine. Nateglinide ist ein Derivat der Aminosäure D-Phenylalanin, das durch direkte Wirkung an den Betazellen der Langerhanns’schen Inseln des Pankreas die Insulinsekretion vor allem in der frühen Phase der Freisetzung stimuliert. Ziel der Arbeit war die Überprüfung eines Nateglinide-stimulierten oralen Glucosetole-ranztests als Instrument zur ambulanten Bestimmung der stimulierbaren Betazellkapa-zität sowie sekundär die Bestimmung von Grenzwerten für Blutzucker und Insulinsek-retion für die Entscheidung der Therapieeskalation einer oralen Therapie hin zu einer Insulin(unterstützten) Therapie. Im Rahmen dieser Studie führten wir an 30 gesunden Kontrollpersonen und 45 Patien-ten mit Diabetes mellitus Typ 2, die entweder diätetisch oder mit oralen Antidiabetika behandelt wurden, einen modifizierten oralen Glucosetoleranztest (50g) von dreistün-diger Dauer durch, der mit der Gabe von 120mg Nateglinide kombiniert wurde. Es erfolgte die Bestimmung der Basalwerte von Glucose, Insulin und C-Peptid sowie der Spiegel nach 30, 60, 120 und 180 Minuten. Aus den Ergebnissen wurden der HOMA-IR, HOMA-ß-cell-Index sowie die AUC von Insulin, C-Peptid und Glucose bestimmt. Die gesunden Kontrollpersonen wiesen zu allen Testzeitpunkten signifikant niedrigere Glucosewerte auf als die Patienten mit Typ-2-Diabetes (Maximum Glucose: 125,05±25,97 vs. 234,78±64,58mg/dl, p<0,001 und AUC Glucose: 15197,25±2798,9 vs. 34022,05±11142,17mg/dl, p=0,02), die zudem ihr Blutzuckermaximum zu einem späteren Testzeitpunkt erreichten (35,25±17,61 vs. 63,33±31,76 min, p<0,001). Zum Testzeitpunkt 120 Minuten konnte bei 18 Patienten mit Typ-2-Diabetes ein norm-wertiger Blutglucosespiegel <120mg/dl bestimmt werden, 7 hatten Werte vereinbar mit einer IGT und 20 wiesen diabetische Blutglucosespiegel >200mg/dl auf. Es fiel eine signifikante Korrelation vom Zeitpunkt der maximalen Insulinsekretion und dem Blutglucosemaximum auf. Je später der Zeitpunkt der maximalen Insulin- bzw. C-Peptid-Sekretion erreicht wird, desto höher ist die maximale Blutglucosekonzentration. Adipöse Patienten (BMI >30kg/m2) hatten während des gesamten Testverlaufs höhere Blutglucosewerte und eine geringere stimulierbare Insulinsekretionsleistung als die Patienten mit einem niedrigeren BMI. Die untersuchten Patienten mit Typ-2-Diabetes lassen sich in drei Gruppen unterteilen: eine mit vorherrschendem Insulinsekretionsdefizit (Maximum C-Peptid <4ng/ml, n=6), eine mit führender Insulinresistenz (HOMA-IR>2,5, n=16) und eine Gruppe mit einer Kombination aus beiden Störungen (n=3). Die Patienten mit kombinierter Störung hat-ten einen höheren HbA1c als die anderen Gruppen (10,2%±2,38 vs. 6,66%±0,46 und 6,91%±1,24, n.s.) und wiesen über den gesamten Testverlauf höhere Blutglucosewerte auf. Mit dem Ziel, eine Hilfestellung bei der Entscheidung einer Therapieintensivierung bzw. –umstellung auf eine Insulintherapie zu geben, wurde ein Score aufgestellt, der die Parameter Blutzuckerspiegel zum Testzeitpunkt 120 min, maximaler C-Peptidspiegel, HOMA-IR sowie den Steigerungsfaktor von basalem zu maximalem C-Peptidspiegel umfasst. Beurteilt anhand der dort erreichten Punktzahl zeigen einerseits 23 der unter-suchten Patienten ein suffizientes Ansprechen auf die orale antihyperglykämische The-rapie, was die Fortführung der oralen Diabetestherapie unterstützt. Andererseits er-reichten auch 6 Patienten einen Punktebereich, bei dem von einer unzureichenden Betazellsekretion auszugehen ist und somit ein hohes Risiko für ein Sekundärversagen der oralen Diabetestherapie besteht, so dass eine Therapieumstellung auf eine Insu-lin(unterstützte) Therapie empfohlen wird. Basierend auf der limitierten Anzahl an Daten, die wir erhoben haben, empfehlen wir die Umstellung auf eine Insulintherapie, wenn im Nateglinide-Test mindestens drei der folgenden vier Punkte zutreffen: • Blutglucose zum Zeitpunkt 120min >200mg/dl • HOMA-IR >4 • Maximales C-Peptid <4ng/ml • Stimulierte C-Peptid-Steigerung <2fach Die hiesige Studie zeigt, dass der Nateglinide-Test ein in der täglichen Klinikroutine praktikables Instrument zur Evaluation der residualen Betazellfunktion darstellt. Er er-möglicht die gleichzeitige Beurteilung der noch vorhandenen Insulinsekretionskapazität und der Insulinresistenz bei Patienten mit Typ-2-Diabetes. In Kombination mit dem vorgestellten Score kann er helfen, eine Progression des Diabetes mellitus Typ 2 zu verhindern, indem der Zeitpunkt für den Beginn einer Insulintherapie genauer definiert wird.
Das Ziel dieser retrospektiven Untersuchung ist, die medikamentöse Therapie des neonatalen Entzugsyndroms mittels Clonidin und Chloralhydrat mit der sehr häufig angewendeten Kombinationstherapie aus Morphin und Phenobarbital zu vergleichen. Im dem Zeitraum zwischen 1998 und 2008 wurden in unserer Klinik 133 Neugeborene mit einem neonatalen Entzugssyndrom behandelt. Bei allen Patienten handelte es sich um Neugeborene drogenabhängiger Mütter, welche während der Schwangerschaft mit Methadon substituiert wurden. Bei 29 Patienten wurde eine Therapie mit Clonidin und Chloralhydrat und bei 64 Patienten eine Entzugstherapie mittels Morphin und Phenobarbital durchgeführt. In der Clonidingruppe konnte eine signifikant kürzere Behandlungsdauer (Median: 14 d vs. 35 d) festgestellt werden. Entsprechend war auch die gesamte Aufenthaltsdauer in der Clonidingruppe deutlich kürzer (Median: 32 d vs. 44 d). Außerdem konnte in der Clonidingruppe ein deutlich milderer Verlauf der Entzugssymptomatik festgestellt werden.
Der Mediziner Prof. Charles Dinarello, 66, von der University of Colorado erhielt den mit 100 000 Euro dotierten Paul Ehrlich- und Ludwig Darmstaedter-Preis 2010. Der mit 60 000 Euro dotierte Paul Ehrlich-Nachwuchspreis ging an die Frankfurter Biologin Prof. Amparo Acker-Palmer, 41, vom Exzellenzcluster »Makromolekulare Komplexe« Frankfurt.
Blut-Untersuchungen ziehen sich wie ein roter Faden durch die verschiedenen Abteilungen des Frankfurter Instituts für Rechtsmedizin. Ob mit dem Skalpell, durch scharfsinnige Beobachtung oder Hightech-Laboranalytik: Spezialisierte Rechtsmediziner können einen Tathergang anhand von Blutspurenverteilungsmustern rekonstruieren, Toxikologen messen im Blut betäubende oder giftige Substanzen, Molekularbiologen ordnen Blutspuren über DNA-Profi le Personen zu und versuchen, mit molekulardiagnostischen Methoden unklare Todesursachen aufzuklären. Zwei konstruierte Todesfälle gewähren einen forensischen Blick auf das Blut.