Refine
Year of publication
- 2010 (151) (remove)
Document Type
- Doctoral Thesis (151) (remove)
Has Fulltext
- yes (151)
Is part of the Bibliography
- no (151)
Keywords
- Arbeitsgedächtnis (2)
- NMR-Tomographie (2)
- working memory (2)
- - (1)
- Abruf (1)
- Acrylamid (1)
- Adrenalektomie (1)
- Angiographie (1)
- Anisotrope Diffusion (1)
- Anzapfsyndrom (1)
Institute
- Medizin (151) (remove)
Das Chronic Care Model (CCM) stellt eine Zusammenfassung evidenzbasierter Erkenntnisse dar, um die Versorgung chronisch Erkrankter zu optimieren. Diverse Messinstrumente sind in den letzten Jahren zur Erfassung des Implementierungserfolges des CCM aus Sicht der Leistungserbringer und der Patienten entwickelt worden. Einen Ansatz zur Erfassung, inwiefern die im CCM beinhalteten Dimensionen angewendet werden, stellt das Patient Assessment of Chronic Illness Care (PACIC- 5A) dar. Dieses Instrument wurde im englischsprachigen Raum entwickelt und primär im amerikanischen Gesundheitssystem eingesetzt. Es besteht in der ursprünglichen Fassung aus 20 Items und erfragt in fünf Subskalen CCM-konkordante Aspekte: Patientenaktivierung, Leistungserbringerstruktur / Entscheidungshilfen, Zielsetzung, Problemlösung / Beratung, Follow-up / Koordination. Die erweiterte Version aus 26 Items erlaubt zusätzlich zur Beurteilung der Erfüllung des CCM die Analyse der Umsetzung im Sinne des 5A-Modells, eines behaviouristischen Ansatzes zur Verhaltensänderung. Ziel dieser Arbeit war es, den Fragebogen in die deutsche Sprache ohne Verlust des semantischen Inhaltes zu übersetzen und an einer primärmedizinischen Population im deutschen Gesundheitssystem zu evaluieren. Eine weitere Zielsetzung war, den Implementierungsgrad des CCM-Konstruktes im spezifischen Fall der Major Depression zu erkunden. Hierzu wurde das übersetzte PACIC-5A im Rahmen der im Institut für Allgemeinmedizin der Universitätsklinik Frankfurt durchgeführten ProMPT-Studie zur Betreuung von Patienten mit Major Depression an insgesamt 509 Patienten erprobt. Hiervon wurden 436 Patienten in die Studie eingeschlossen. Hierauf erfolgte die Überprüfung der psychometrischen Eigenschaften. Die statistischen Messergebnisse, hinsichtlich innerer Konsistenz (Cronbach´s α) und Trennschärfe (korrigierte Item-Skala-Korrelation), ergaben gute und mit der aktuellen Literatur übereinstimmende Resultate. Die konvergente Validität des PACIC-5A wurde anhand des primärmedizinisch validen Fragebogens EUROPEP (European Project on Patient Evaluation of General Practice Care) geprüft. Das Ergebnis zeigte hohe Korrelationen vor allem in den inhaltlich vergleichbaren Skalen, wie z.B. Skala „Patientenaktivierung“ aus dem PACIC-5A und Skala „Information und Unterstützung“ des EUROPEP. Die diskriminierenden Fähigkeiten des Fragebogens wurden durch die geringen korrelativen Eigenschaften mit Skalen des EUROPEP, welche andere Dimensionen erörtern, nachgewiesen. Zusätzlich ermöglichte der Vergleich der Mittelwerte der einzelnen Skalen des PACIC-5A zwischen dem Kontroll- und Interventionsarm eine zusätzliche Beurteilung der diskriminierenden Potenz. Das PACIC-5A ist bis jetzt vorrangig an Patienten mit chronischen Erkrankungen aus dem organischen Formenkreis (z.B. Osteoarthritis, Diabetes Mellitus) angewendet und validiert worden. Die kongruente Anwendung des PACIC-5A auf Erkrankte mit Major Depression ist ein limitierender Aspekt. Hier besteht weiterer Forschungsbedarf. Für eine optimale Patientenversorgung in der Primärmedizin ist es essentiell, primärmedizinisch valide Instrumente den Hausärzten zur Verfügung zu stellen.
Das visuelle Arbeitsgedächtnis (AG) kann visuelle Information enkodieren, über eine kurze Zeitperiode aktiv halten und mit neu wahrgenommener Information vergleichen. Dadurch ermöglicht es eine Reihe höherer kognitiver Funktionen ( z.B. Kopfrechnen). Störungen des visuellen AGs sind ein relevantes Symptom neurologischer und psychiatrischer Erkrankungen. Die funktionellen und neuronalen Prozesse, die dem visuellen AG unterliegen, stellen eine fundamentale Frage der kognitiven Neurowissenschaft dar. Bisherige Forschung hat bereits einen großen Beitrag zum Verständnis der Vorgänge während der Enkodierungs- und Halte-Phase des AGs geleistet. Die neuronalen Korrelate der Wiedererkennung (WE) hingegen sind relativ unbekannt. Ziel der vorliegenden Studie war es, die neuronalen Mechanismen der WE anhand zweier Modulationen (Gedächtnisbelastung und Ähnlichkeit zwischen Merk- und Test-Stimulus) zu erforschen. Den neuronalen Grundlagen von Ähnlichkeit zwischen wurde bislang nahezu keine Beachtung geschenkt, ihre Untersuchung stellte deshalb eine wesentliche Motivation der Arbeit dar. Da erhöhte Gedächtnislast bei einer endlichen Anzahl an Stimuli zu einer erhöhten Anzahl an möglichen ähnlichen Test-Stimuli und auf diese Weise zu einer erhöhten Ähnlichkeit zwischen Merk- und Test-Stimulus führen kann, sind die Effekte beider Modulationen konfundiert. Es sollte deshalb zusätzlich der Nachweis für einen ähnlichkeitsunabhängigen Lasteffekt erbracht werden. Im Rahmen der vorliegenden Dissertation stand der zeitliche Ablauf der zu erwartenden kortikalen Aktivationen im Mittelpunkt des Interesses. Aus diesem Grund kam die Magnetenzephalographie (MEG) mit ihrem hervorragenden zeitlichen und guten räumlichen Auflösungsvermögen zum Einsatz. Die neuronale Aktivität von 17 Probanden wurde mittels MEG erfasst. Zusätzlich wurden Verhaltensdaten (VD) in Form von Reaktionszeit (RZ) und Korrektheit (KH) der Antworten aufgezeichnet. Als Stimuli dienten 15 verschiedene Farben, die einmal den gesamten Farbkreis abbildeten. 1 oder 3 verschiedenfarbige Quadrate dienten als Merk-Stimuli und ein farbiges Quadrat, das einem der vorher gezeigten glich (G), ihm ähnlich (Ä) oder unähnlich (U) war, folgte als Test-Stimulus. Die Probanden antworteten per Fingerheben aus einer Lichtschranke, ob der Test-Stimulus dem Merk-Stimulus glich (G) oder nicht glich (Ä, U). Insgesamt führten die 2 Belastungsmodulationen und die 3 Ähnlichkeitsmodulationen zu einem 2 x 3 Design, das eine Untersuchung der Haupteffekte und Interaktionen von Ähnlichkeit und Last ermöglichte. Die Ergebnisse der VD decken sich mit früheren Erkenntnissen, die mit ansteigender Gedächtnislast und Ähnlichkeit von einer signifikanten Verminderung der KH der Antworten sowie einer signifikanten Zunahme der RZ berichteten. Zusätzlich konnte eine signifikante Interaktion beider Modulationen beobachtet werden. Mit zunehmender Gedächtnislast verlängerte sich die RZ, bzw. verminderte sich die KH der Antworten für gleiche Testreize stärker als für ungleiche (Ä, U). Es konnten wesentliche neue Erkenntnisse über die neuronalen Korrelate der WE im visuellen AG gewonnen werden. Für die Ähnlichkeits-Modulation konnten drei zeitlich, räumlich und funktionell distinkte Ereigniskorrelierte-Felder (EKF)-Komponenten detektiert werden: eine frühe Komponente, die stärker auf U im Vergleich zu Ä und G Stimuli ansprach, eine mittlere, die mit der Schwierigkeit der Aufgabe assoziiert war sowie eine späte Komponente, die als Korrelat einer kategorialen Entscheidung interpretiert wurde. Diese Ergebnisse replizieren Befunde von Studien über die Entscheidungsfindung und die summierte Ähnlichkeit im Langzeitgedächtnis (LZG) und liefern gleichzeitig neue Hinweise für eine funktionelle Dissoziation verschiedener Komponenten der WE im visuellen AG. Die WE scheint aus der Berechnung der summierten Ähnlichkeit, der Entscheidungsfindung sowie der Evidenzevaluation unter schwierigeren Bedingungen zu bestehen. Es gelang außerdem der Nachweis eines ähnlichkeitsunabhängigen Effektes der Lastmodulation. Es konnte eine bilateral parieto-okzipitale sowie eine linksseitig fronto-temporale Aktivierung erfasst werden, die wahrscheinlich allgemeinen Schwierigkeitseffekten entsprechen. Unter ansteigender Gedächtnisbelastung kam es zu einer Zunahme der Amplitude beider Aktivitäten. Diese Ergebnisse bestätigen Befunde über die Amplitudenentwicklung während der Halte-Phase, die als Heranziehung zusätzlicher Ressourcen unter schwierigeren Bedingungen gedeutet wurden. Die EKF-Daten konnten jedoch keine Bestätigung des in den VD nachgewiesenen Interaktionseffektes bringen. Vielversprechende Ansätze für zukünftige Studien bieten eine präzisere Bestimmung der räumlichen Verteilung sowie eine weitere Evaluation der kognitiven Funktion der neuronalen Aktivität der Ähnlichkeit, da die Ähnlichkeit zwischen Merk- und Test-Stimulus eine entscheidende Rolle bei der Beschränkung der WE-Leistung einzunehmen scheint.
Patienten, die sich einer Bypassoperation am offenen Herzen unterziehen erleiden häufig kognitive Beeinträchtigungen durch Mikroembolien, insbesondere ausgelöst durch Luft. Ins Operationsfeld eingeleitetes Kohlendioxid soll durch seine physikalischen Eigenschaften protektiv auf die kognitiven Funktionen wirken. In die Studie waren 69 Patienten eingeschlossen, die sich jeweils einer aortokoronaren Bypassoperation unter Einsatz der Herz-Lungen-Maschine unterzogen. Es erfolgte randomisiert die Einteilung in eine Kontrollgruppe und eine protegierte Gruppe. Am ersten präoperativen und am fünften postoperativen Tag wurde jeweils eine Testbatterie aus sechs verschiedenen Einzeltest mit den Patienten durchgeführt. Als neurokognitives Defizit wurde eine Verschlechterung der Ergebnisse um mindestens 20% im Vergleich zu den präoperativen Werten in zwei oder mehr Einzeltests definiert. Intraoperativ wurde durch einen Zweikanal-Ultraschall-Mikroblasendetektor, der in den Kreislauf der Herz-Lungen-Maschine eingeschaltet war, ein Monitoring von Größe und Anzahl der entstehenden Gasblasen durchgeführt. Die Gruppen wiesen bezüglich der klinischen Parameter keine signifikant unterschiedlichen Werte auf. Der einzig signifikante Unterschied in den gemessenen Werten der Mikrobubbles ist eine Reduktion der Gasblasen zwischen Kanal I und Kanal II in beiden Gruppen. Dies beweist das Vorhandensein und die Funktionsfähigkeit des arteriellen Filters. Jedoch lässt sich ein Trend zur Verringerung von Blasenanzahl und Blasenvolumen unter Verwendung von CO2 erkennen. Die neurokognitiven Tests konnten keine signifikanten Unterschiede zwischen den Gruppen ausmachen. Somit war kein signifikanter Vorteil für die aortokoronare Bypassoperation unter Protektion durch CO2 auszumachen. Der Neuroscore als Instrument zur Objektivierung eines neurokognitiven Defizits ist diskussionsbedürftig. Da Studien, z. B. im Bereich der minimalinvasiven Chirurgie, den Vorteil von CO2 belegen ist die Anwendung zur Protektion weiter zu empfehlen Jedoch fehlt der endgültige Beweis für den Benefit speziell bei der aortokoronaren Bypassoperation.
Die kontrastmittelverstärkte MRT hat in den letzten Jahren als Bildgebungsmethode in der abdominellen Diagnostik eine zunehmende Bedeutung in der klinischen Patientenversorgung gewonnen. Neben der Entwicklung neuer Geräte mit schnellen Untersuchungssequenzen in Atemstillstand, hat auch der Einsatz von MRT-Kontrastmitteln entscheidend dazu beigetragen. Mit der Entwicklung neuer Kontrastmittel - höher konzentriert – stellt sich die Frage, ob und wie sich diese von den Standardkontrastmitteln hinsichtlich der Kontrastierung von Organparenchym, Organläsion und Gefäßen unterscheiden. Diese Studie konzentrierte sich auf mögliche Unterschiede zwischen dem neuen höher konzentrierten Kontrastmittel Gadobutrol und dem Standardkontrastmittel Gd-DTPA im Hinblick auf die Charakterisierung von Nierenläsionen. Gadobutrol 1,0 M (Gadovist®, Schering AG, Deutschland), ein hochmolares Gd-Chelat, hat im Vergleich zu herkömmlichem niedermolaren Gd-DTPA (Magnevist®, Bayer Schering Pharma, Deutschland) einen größeren Effekt auf die Verkürzung der T1-Relaxationszeit bei geringerer Osmolalität und Viskosität. Die höhere Konzentration ermöglicht eine Reduktion des Kontrastmittelvolumens und damit einen kompakteren Bolus. Ziel dieser Studie war die Evaluierung des höher konzentrierten Gadobutrols (1,0 molar) im Vergleich zum niedermolekularen Standardkontrastmittel Gd-DTPA (0,5 molar) in der MRT-Nierendiagnostik hinsichtlich der Differenzierung von Nierenläsionen. Außerdem sollen die erzielten Ergebnisse genutzt werden, um die klinischen Anwendungsmöglichkeiten von Gadobutrol erweitern zu können. Die Ergebnisse der vorliegenden interindividuellen Phase-III-Studie basieren auf der MRT-Untersuchung und Auswertung von 30 Patienten mit verschiedenen Nierenläsionen (benigne und maligne) vor und nach Applikation von Gadobutrol 1,0 M bzw. Gd-DTPA 0,5 M. Die Wahl des Kontrastmittels erfolgte nach einer randomisierten Zuordnung. Hierbei erhielten 15 Patienten Gadobutrol 1,0 M und 15 Patienten Gd-DTPA 0,5 M. Die MRT-Befunde wurden mit einem definierten Goldstandard korreliert. Die Applikation beider Kontrastmittel erfolgte nach der automatisierten Bolusmethode, damit eine dynamische Bildgebung ermöglicht werden konnte. Dabei konnte für beide KM eine gute Verträglichkeit evaluiert werden. Die Ergebnisse dieser Studie haben gezeigt, dass bezüglich der Kontrastierung des Nierenparenchyms signifikante Unterschiede zwischen den untersuchten Gadolinium-Chelaten bestehen. Hierbei zeigte sich in der T1-gewichteten Gadobutrol-verstärkten Dynamik während der nephrographischen Phase eine stärkere Anreicherung in Nierenrinde und Nierenmark mit einem langsameren Übertritt des Kontrastmittels ins Nierenbeckenkelchsystem im Vergleich zur Gd-DTPA-verstärkten Bildgebung. Die stärkere Kontrastierung des Nierenmarks während dieser wichtigen Phase ermöglichte eine bessere Abgrenzung und Sichtbarkeit der Nierenläsionen zum umliegenden Gewebe. Die Nierenläsionen zeigten Unterschiede in der Kontrastmittelaufnahme, mit einem Trend für höhere Werte für die Gadobutrol-Gruppe. Gleiche Resultate ergaben sich für die Gefäßkontrastierung. Hier zeigte Gadobutrol-verstärkte Bildgebung keine wesentliche Erhöhung des arteriellen und venösen Gefäßsignals gegenüber dem Standardkontrastmittel Gd-DTPA. Unter Verwendung beider Kontrastmittel konnte eine gute Bildqualität erzielt werden. Jedoch erzielte dabei das höher konzentrierte Gadobutrol höhere Werte im Vergleich zu dem Standardkontrastmittel Gd-DTPA. Ferner zeigte sich für den Gadobutrol-Kontrast eine verbesserte Abgrenzbarkeit der Nierenläsionen. Bezüglich der diagnostischen Sicherheit in der Differenzierung der Nierenläsionen ließ sich zwischen den beiden Kontrastmitteln kein wesentlicher Unterschied feststellen. Die Ergebnisse dieser Studie weisen darauf hin, dass Gadobutrol 1,0 M als höher konzentriertes MR-Kontrastmittel ein gut geeignetes Kontrastmittel zur Detektion und Differenzierung von Nierenläsionen ist. Es kann ebenso wie das bis jetzt verwendete niedermolare Kontrastmittel Gd-DTPA 0,5 M bei der Abklärung von Nierenpathologien mittels MRT eingesetzt werden.
Hämorrhagischer Schock / Reperfusion (H/R) induziert eine inflammatorische Antwort, die zu hepatozellulären Schäden und einem Multiorganversagen führen kann. In vorhergehenden Studien wurde demonstriert, dass H/R die Phosphorylierung von mitogen aktivierten Stress Kinasen (MAPKs), spezifisch c-JUN und ERK, bewirkt; - eine Reaktion, die ebenfalls mit Leberschäden assoziiert ist. Kürzlich wurde ein spezifisches, zellgängiges, protease-resistentes Peptid, D-JNKI-1, entwickelt, welches die c-JUN N-terminale Kinase (JNK) inhibiert. Ziel der vorliegenden Arbeit war es darzustellen, ob D-JNKI-1 durch eine spezifische Inhibierung der JNK den Leberschaden und das Inflammationsgeschehen nach H/R im Tiermodell verringern kann. Als methodischer Ansatz diente ein H/R-Modell an männlichen Sprague-Dawley Ratten. Nach Vorbehandlung mit D-JNKI-1 bzw. NaCl wurde ein hämorrhagischer Schock induziert und durch Reperfusion nach 1 h beendet. Nach 2 h wurden Gewebe- und Blutproben entnommen. Plasmawerte der Alaninaminotransferase, Kreatinkinase, Laktatdehydrogenase und des Interleukin-6 wurden untersucht, die Gewebeproben wurden histochemisch bzw. immunhistochemisch auf Organschäden (Nekrose und Apoptose) und Inflammationsgeschehen (Neutrophileninfiltration der Leber) untersucht, sowie die relative Proteinexpression der aktivierten Stresskinase JNK mittels spezifischer Detektion des phosphorylierten c-Jun im Western Blot quantifiziert. Diese Arbeit stellt die Rolle von D-JNKI-1 als Peptidinhibitor der JNK während H/R dar. H/R führt zu apoptotischen und nekrotischen Zelluntergängen, beides Vorgänge, welche zumindest zum Teil durch JNK gesteuert sind und mittels D-JNKI-1 reduziert werden können. Eine Hemmung der JNK vor einem hämorrhagischen Schock verringert zudem das Ausmaß der Schäden am Lebergewebe, die Produktion von freien Sauerstoffradikalen sowie die Aktivierung pro-inflammatorischer Signalkaskaden im Tiermodell. Diese Erkenntnisse könnten mit die Grundlage eines möglichen therapeutischen Ansatzes in der Verhinderung der Konsequenzen von H/R bilden.
Hintergrund: Träger eines bestimmten Haplotyps des Gens der GTP Cyclohydrolase (GCH1) gaben im Anschluss an eine Diskektomie nach chronischer lumbaler Radikulopathie weniger Schmerzen an und hatten in experimentellen Schmerzmessungen höhere Schmerzschwellen. Die ex-vivo GCH1-Hochregulierung und BH4-Produktion nach Forskolinstimulierung war reduziert, während die Grundwerte der BH4-Konzentration nicht verändert waren. Diese Beobachtungen legen nahe, dass der Haplotyp hauptsächlich Veränderungen zeigt, wenn das GCH1-System provoziert wird. Diese Studie zielt darauf ab, (1) diese Hypothese zu testen und (2) die schmerzprotektiven Eigenschaften, die diesem Haplotyp zuvor zugeschrieben wurden in unabhängigen Rahmen zu reproduzieren. Methodik: Hierzu wurden experimentelle Schmerzmodelle mit Sensitisierung (lokale Hautentzündung, topische Capsaicinapplikation) und ohne Sensitisierung (punktuell-mechanischer Druck, stumpfer Druck, thermischer und elektrischer Schmerz) an 10 homozygoten Trägern und 22 homozygoten Nichtträgern des angeblich schmerzprotektiven GCH1-Haplotyps durchgeführt. GCH1-, iNOS-Hochregulierung und BH4-Produktion wurden ex-vivo in Leukozyten nach LPS-Stimulation für 24 Stunden ermittelt. Ergebnisse: Träger dieses GCH1-Haplotyps hatten höhere Schmerzschwellen für punktuell-mechanischen Druck (von Frey Haare) im Anschluss an eine lokale Hautentzündung (18.1 ± 11.3 vs. 9 ± 2.8 g; p = 0.005) und im kleineren Rahmen für thermischen Schmerz nach Hyperalgesieinduktion durch Capsaicincreme (35.2 ± 0.9 vs. 36.6 ± 2.4 _C; p = 0.026). Dem hingegen konnten bei den Schmerzmodellen ohne Sensitisierung keine genotypabhängigen Effekte beobachtet werden. GCH1-, BH4 und iNOS-Hochregulierung in Leukozyten nach 24-stündiger LPS-Stimulation waren vermindert bei Trägern des GCH1-Haplotyps, woraus sich schließen lässt, dass sich die Genotypgruppen im Hinblick auf die Regulationsvorgänge im Biopterinstoffwechsel unterscheiden. Schlussfolgerung: Diese Studie bestätigt die vorherigen Befunde, dass eine verminderte GCH1-Funktion oder GCH1-Induzierbarkeit als Folge von genetischen Polymorphismen einen schmerzprotektiven Effekt mit sich bringt. Als Erweiterung der Vorresultate zeigt diese Arbeit, dass sich der schmerzprotektive Effekt vorzugsweise in Schmerzmodellen mit Sensitisierung ausprägt. Dies legt eine besondere Rolle von BH4 bei spezifischen Schmerzprozessen nahe.
Einleitung: Patienten nach operativen Eingriffen haben ein hohes Risiko in Folge von nosokomialen Infektionen, Wundinfekten oder Nahtdehiszensen eine Sepsis zu entwickeln. Die Sterblichkeitsraten des septischen Schocks haben sich mit 40-60% in den letzten 20 Jahren kaum verändert. Der Zeitpunkt der Diagnose und damit der frühzeitige Beginn v.a. einer kausalen, aber auch einer frühzeitigen supportiven Therapie sind entscheidende Determinanten der Überlebenswahrscheinlichkeit. Die vorliegende Arbeit untersucht erstmalig, ob IL-22, ein Mitglied der IL-10 Familie und, zur angeborenen Immunität gehörend, zur besseren Differenzierung von Inflammation und Infektion bei Patienten im perioperativen Kontext geeignet ist. Material & Methoden: 115 Patienten wurden in einem Zeitraum zwischen November 2005 und November 2007 in drei Gruppen untersucht. Nach Genehmigung durch die Ethikkommission wurden nach entsprechender Einwilligung durch die Patienten, oder die gesetzlichen Betreuer, zum einen Patienten mit schwerer Sepsis [n= 36], elektiven großen viszeralchirurgischen Eingriffen (CAB) [n= 31] und Patienten bei orthotoper Lebertransplantation (LTX) [n= 48] rekrutiert. Es wurden Blutproben prä-, postoperativ sowie an den ersten fünf postoperativen Tagen entnommen. Die Proben wurden unmittelbar nach Abnahme kühl zentrifugiert, aliquotiert und anschließend bei -70°C gelagert. Parallel wurden Blutkulturen angefertigt und Procalcitonin, IL-6, IL-10, Lipopolysaccharid-bindendes Protein (LBP), C-reaktives Protein (CRP) und Leukozyten sowie ein Standardlabor bestimmt. Mittels ELISA in Sandwichtechnik bestimmten wir in nachfolgenden Labormessungen die IL-22 Konzentrationen. IL-6, IL-10 und LBP wurden mittels Immulite® gemessen. Die Daten der Hämodynamik wurden entsprechend einem Protokoll erhoben und in einer Datenbank gespeichert. Ergebnisse: Große, elektive viszeralchirurgische Eingriffe sowie die orthotope LTX haben keinen Einfluss auf Serumkonzentrationen von IL-22. Die Blutspiegel liegen sowohl prä-, als auch postoperativ nahe unter der Nachweisgrenze von 10pg/ml (CAB 7,3pg/ml, LTX 9,4pg/ml). Patienten mit einer schweren Sepsis hatten im Vergleich zu Patienten nach viszeralchirurgischen Eingriffen signifikant höhere IL-22 Konzentrationen im Serum (75pg/ml, p= 0,003, Mann-Whitney-Test). Bei Unterteilung nach dem Sepsisfokus hatten Patienten mit einer vom Abdomen ausgehenden Infektion einen Median von 101,6pg/ml, bei Sepsis pulmonaler Genese eine signifikant niedrigere IL-22 Konzentration von 56,9pg/ml (p= 0,037). Die Stimulation von IL-22 hält postoperativ nach Fokussanierung bei Patienten mit abdomineller Sepsis an, so dass ein Abfall in den ersten fünf postoperativen Tagen bis auf 30% des Ausgangswertes beobachtet werden kann. Auch bei den LTX Patienten zeigt sich, wenn auch nicht signifikant, dass eine bakterielle Infektion (primäre Sepsis) zu einer deutlichen Stimulation von IL-22 führt (9,4pg/ml versus 49,7pg/ml bei Sepsis). Quo ad vitam führt IL-22 bei LTX Patienten in der 1-Jahresüberlebenswahrscheinlichkeit zu einer signifikanten Reduktion des Überlebens, wenn die präoperativen IL-22 Serumspiegel über 100pg/ml liegen. Eine kausale Verknüpfung kann zum jetzigen Zeitpunkt nicht hergestellt werden. Der MELD Score (Model for end-stage liver disease) korreliert mit den erhobenen IL-22 Werten, so dass auch ein MELD > 30 mit erhöhten IL-22 Spiegeln einhergeht. Zusammenfassung: IL- 22 eignet sich im postoperativen Verlauf nach viszeralchirurgischen Eingriffen zur Detektion von Patienten mit schweren Komplikationen. Bei Erhöhung des IL-22 Serumspiegels >100pg/ml kann von einer Darmperfusionsstörung bzw. peritonealen Reizung ausgegangen werden. Unsere Daten weisen weiter darauf hin, dass bei schweren Perfusionsstörungen bis hin zu kompletter Ischämie einzelner Darmabschnitte Werte von >500pg/ml erreicht werden. Hingegen führen eine primäre Sepsis sowie Pneumonien zu einer IL-22 Stimulation mit Serumspiegeln zwischen 50 und 100pg/ml. Eine Korrelation mit anderen Markern der Inflammation war bei relativ kleinen Fallzahlen nicht zu beobachten. Lediglich auffällig erscheinen hohe IL-22 Spiegel, welche eher mit einer Leukopenie einhergehen als mit einer Leukozytose. Ist IL-22 bei Patienten vor Lebertransplantation erhöht, d.h. unabhängig einer Sepsis bei >100 pg/ml, ist die 1-Jahres Überlebenswahrscheinlichkeit signifikant erniedrigt. Dies korreliert entsprechend einer Überlebenswahrscheinlichkeit mit einem MELD>30 vor Transplantation. Hiermit ist zu prüfen, ob eine ggf. längerfristige Aktivierung der angeborenen Immunität bei Leberzirrhose vor Transplantation auf das Überleben nach Transplantation einen wesentlichen Einfluß hat. Eine entsprechende Anpassung der Therapie vor Transplantation könnte dann möglicherweise das eingeschränkte Überleben positiv beeinflussen.
In der vorliegenden Arbeit wurden 494 endodontisch behandelte Zähne aus der studentischen Ausbildung des Zentrums der Zahn-, Mund- und Kieferheilkunde der Universität Frankfurt am Main retrospektiv ausgewertet und eine Langzeitprognose erhoben. Die Überlebenszeit der Zähne wurde bezüglich des Einflusses der Behandlungsparameter auf die Prognose analysiert. Die Auswahl der Patientenfälle erfolgte nach dem Zufallsprinzip. Jede begonnene Wurzelkanalbehandlung kam unabhängig von der Ausgangssituation zur Auswertung, sofern ein vorgegebenes standardisiertes Behandlungsprotokoll zur Anwendung kam. Im Unterschied zu vielen Studien wurde die Extraktion als Misserfolg gewertet und als finales Ereignis definiert. Vom Patientenpool in dieser Arbeit wurden die Parameter Alter, Geschlecht, behandelter Zahn, radiologische und klinische Ausgangssituation, Ausgangsbefunde und Diagnose, Kofferdamverwendung, Sitzungen, provisorische Füllungen, Stiftinsertion und prothetische Versorgungen erfasst und der Überlebensanalyse nach Kaplan-Meier zugeführt. Die Irrtumswahrscheinlichkeit wurde mit dem Log-Rang-Test ermittelt und ausgewertet. Bei 449 Patienten wurde die Wurzelkanalbehandlung nach vorgegebener standardisierter Therapie mit manueller Aufbereitung und lateraler Kondensation unter Verwendung des Sealers AH Plus® oder AH 26® (Dentsply DeTrey, Konstanz) durch unterschiedliche Behandler abgeschlossen. In 55 Fällen wurde eine Revisionsbehandlung durchgeführt. 45 Zähne wurden aus unterschiedlichen Gründen vor Beendigung der Therapie extrahiert. Diese Gruppe wurde mit den übrigen Zähnen bezüglich der Parameter der Therapie verglichen, um Gründe für die vorzeitige Zahnentfernung offen zulegen. Der Nachuntersuchungszeitraum umfasste bis zu 21 Jahren. Die Recall-Rate erreichte 58,1% bei einer Nachkontrollzeit von 5 Jahren und 25,6% bei 10 Jahren und liegt damit auf hohem Niveau. Die durchschnittliche Überlebenswahrscheinlichkeit der Zähne lag bei 76% nach 5 Jahren und 44% nach 20 Jahren. Statistisch signifikant mehr Extraktionen vor Beendigung der Wurzelkanalbehandlung fanden sich bei Molaren, bei Perkussionsempfindlichkeit vor Trepanation, bei symptomatischen Zähnen mit LEO, bei Therapie ohne Kofferdamverwendung, bei mehr als 10 Sitzungen mit anschließendem provisorischem Verschluss sowie bei Frauen. Hinsichtlich der Unterschiede in der Überlebenserwartung erwiesen sich nur die Parameter Altersstruktur und Stift- beziehungsweise Einzelkronenversorgung als signifikant. Die Zähne in der Gruppe der 41 bis 60-Jährigen zeigten eine deutlich bessere Überlebenswahrscheinlichkeit als die Zähne der Patientengruppe der 61 bis 80-Jährigen. Mit Einzelkrone versorgte Zähne zeigten einen signifikant besseren Langzeiterfolg unabhängig von einer Versorgung mit Wurzelkanalstift. Alle übrigen ausgewerteten Parameter des Ausgangszustandes, der Wurzelkanalbehandlung sowie die Diagnose der einzelnen Zähne waren hinsichtlich des Unterschiedes der Überlebenswahrscheinlichkeit nicht signifikant. Diese Studie ermittelte die Überlebenswahrscheinlichkeit von endodontisch behandelten Zähnen aus der studentischen Ausbildung. Für die angewandte Standardtherapie wurde eine Erfolgsangabe ermittelt, welche zukünftige Vergleiche mit Therapiealternativen zulässt. Die Ergebnisse dieser Studie ermitteln die postendodontische Versorgung als den wesentlichen Parameter für den Langzeiterfolg wurzelkanalbehandelter Zähne. Auf diesem Gebiet sollte deshalb weiter Forschung betrieben werden.
Viele bösartige Tumore wie das kolorektale Karzinom oder das Mamma-Karzinom metastasieren in die Leber. Je nach Primarius kommen unterschiedliche Therapiestrategien in Frage. Die Laserinduzierte Thermotherapie (LITT) gehört neben vielen anderen minimalinvasiven Therapieformen zu den Thermotherapien und stellt eine Ergänzung zur Operation oder Chemotherapie dar und kann auch besonders bei isoliertem Leberbefall als alleinige Therapiestrategie angewandt werden. Vorteile sind die ambulante Durchführbarkeit und eine geringe Komplikationsrate. Nach CT-gesteuerter Punktion der Metastasen wird die Therapie unter Online-Monitoring im MRT mittels thermosensitiver Sequenzen überwacht. Unter Einwirkung der Laserphotonen auf das Lebergewebe kommt es durch Energieabsorption zu einer Erwärmung und Zerstörung des tumorösen Gewebes. Da der Energiebedarf zur Zerstörung der Metastasen auch bei volumengleichen Läsionen sehr schwankt, galt es anhand dieser Arbeit herauszufinden, ob ein Zusammenhang zwischen dem Energiebedarf und der im CT gemessenen Leberdichte besteht. Hierzu wurden 168 Patienten mit 279 Lebermetastasen unterschiedlicher Herkunft in die Studie eingeschlossen, die sich im Zeitraum von März 2006 bis März 2007 einer LITT-Behandlung unterzogen hatten. 55,4 % der Patienten waren mit einer Transarteriellen Chemotherapie (TACE) vorbehandelt, die aufgrund einer Reduzierung des Blutflusses in der Leber zu einem geringeren Energiebedarf führt. Vor der jeweiligen Laserung wurde im Punktions-CT die Leberdichte anhand der Hounsfieldeinheiten und im 24 h-MRT, sowie in den Kontrolluntersuchungen nach 3, 6 und 12 Monaten das Volumen der induzierten Nekrose bestimmt. Der benötigte Energiebedarf konnte aus der Anzahl, der Laufzeit und der Leistung der Laser errechnet werden. Bei Betrachtung der mittleren Nekrosevolumina konnte ein Rückgang in den Kontrolluntersuchungen verzeichnet werden. Dies spricht für Rezidivfreiheit bei der Mehrzahl der Metastasen an der jeweils gelaserten Stelle. Die Analyse der Überlebenszeiten nach der ersten LITT ergab bei einem Beobachtungszeitraum von 25 Monaten im Gesamtkollektiv eine mittlere Überlebenszeit von 21 Monaten, sowie eine kumulative Überlebensrate von 83,33 %. Patienten mit Metastasen des colorektalen Karzinoms wiesen im Mittel eine Überlebenszeit von 22 Monaten und eine Überlebensrate von 86,11 %, die des Mamma-Karzinoms ebenfalls eine mittlere Überlebenszeit von 22 Monaten und eine Überlebensrate von 84,91 % am Ende des Beobachtungszeitraumes auf. HCC-Patienten überlebten im Mittel 19 Monate und hatten eine Überlebensrate von 76,74 % nach 24 Monaten. Hieraus ergeben sich Überlebenszeiten, die deutlich über denen weiterer minimalinvasiver Verfahren, wie der Radiofrequenzablation oder der Mikrowellentherapie liegen. Ein direkter Vergleich mit den konventionellen Therapiemöglichkeiten, wie der chirurgischen Resektion oder der Chemotherapie gelingt bei unterschiedlichen Studiendaten, sowie -voraussetzungen nur schwer. Überlegen ist die LITT gegenüber der chirurgischen Resektion jedoch in der Krankenhausverweildauer und der geringen Invasivität. Gegenüber einer Chemotherapie ist die LITT hinsichtlich einer fehlenden systemischen Therapiekomponente im Nachteil. Nach anfänglicher Untersuchung des Gesamtkollektivs wurden die Patienten in 2 Gruppen unterteilt. Hierbei war das Unterscheidungsmerkmal die Vorbehandlung mit der TACE. Es wurde jeweils die Korrelation des Energiebedarfs mit der Nekrosengröße und den Hounsfieldeinheiten geprüft. Nachdem sich im Gesamtkollektiv und auch in den Untergruppen kein statistisch signifikanter linearer oder einfach exponentieller Zusammenhang zeigte, konnte nach Einteilung der Hounsfieldeinheiten in Dichtebereiche, sowie Berechnung eines mittleren Energiebedarfs nach erneuter Korrelationsberechnung ein positiver Zusammenhang gezeigt werden, so dass bei steigender Gewebsdichte von einem Mehrbedarf an Energie ausgegangen und eine Laserapplikatorenanzahl anhand der Gewebsdichte berechnet werden kann. Da die Streubreite der Werte um den Mittelwert jedoch sehr groß ist, ist fraglich, ob die Berechnung im Vorfeld der Therapie einen Nutzen für die Kosten- und Zeiteffizienz der LITT erbringt. Beim Vergleich des Energiebedarfes der 2 Untergruppen zeigte sich deutlich ein um ca. 0,5 kJ/cm3 niedriger Energiebedarf in der Gruppe der vorembolisierten Patienten, sowie eine im Durchschnitt höhere Gewebsdichte der TACE-Patienten aufgrund geringerer Durchblutung des Lebergewebes nach der Embolisation.
Laut BQS (Bundesgeschäftsstelle Qualitätssicherung) nimmt die Anzahl der durchgeführten Hüftendoprothesenerstimplantationen kontinuierlich zu (2006: 146.853; 2008: 157.350), bedingt nicht zuletzt durch die demographische Entwicklung (zunehmende Alterung der Gesellschaft). Die auftretenden Komplikationen nach solchen Operationen legen es nahe, an einer weiteren Optimierung des Behandlungsverfahrens zu arbeiten. Dabei wurde bisher kaum untersucht, inwieweit bei einer Hüftprothesenimplantation das Rotationsprofil der unteren Extremität die Prothesenauswahl bzw. die Prothesengestalt beeinflussen sollte. Das Resultat der Messung anthropometrischer Rotationsverhältnisse durch Bestimmung des Antetorsionswinkels (AT oder ATWinkel) und Unterschenkelrotationswinkels (UR oder UR-Winkel) an der unteren Extremität und deren Inbezugsetzung zueinander wird in dieser Studie „Rotationsprofil“ genannt. Ein solches Rotationsprofil wird allerdings in der CT-basierten Individualendoprothetik des Hüftgelenks routinemäßig erhoben und sein Ergebnis in die Prothesenrekonstruktion oder -auswahl eingearbeitet. Der Grund für diese Vorgehensweise liegt in der Überlegung, dass es – bei einer wie üblich vorgenommenen Ausrichtung z. B. einer Geradschaftprothese an der Kniekondylenebene – unter Umständen postoperativ zu einer tatsächlichen Retrotorsion bzw. zu Einschränkungen des Bewegungsumfangs im Hüftgelenk kommen kann. Theoretisch ist in extremen Fällen nicht nur eine Luxation des Hüftkopfs vorstellbar, sondern auch eine mittelfristig induzierte Lockerung der Prothese, bedingt durch eine suboptimale Anpassung des ATWinkels im Rahmen der Planung des Prothesendesigns, und damit eine veränderte Krafteinleitung in das proximale Femur. In der hier vorgestellten Studie wird anhand eines größeren Patientenkollektivs, bei dem die Indikation für eine Hüftgelenksprothese aufgrund einer primären oder sekundären Coxarthrose gestellt worden war, das Rotationsprofil an der betroffenen Extremität im CT ermittelt. In dem Patientenkollektiv sollte zunächst eine mögliche geschlechtsspezifische Beziehung zwischen den Variablen AT und UR nachgewiesen werden. Erstmalig wurde eine Analyse des Rotationsprofils in verschiedenen Subgruppen hinsichtlich des Alters (vier Subgruppen) und der Größe des Antetorsionswinkels (fünf Subgruppen) durchgeführt. Es wurde die Hypothese überprüft, ob ein hoher AT-Winkel mit einem hohen UR-Winkel korreliert.
Zahlreiche Studien haben gezeigt, dass sich trotz der Verwendung von Dentinadhäsiven in deninbegrenzten Klasse-II-Kavitäten keine randspaltfreien Füllungen erzielen lassen. Die Ergebnisse dieser in-vitro-Studie zeigen dies ebenfalls, dass mit Dentinadhäsiven der fünften und sechsten Generation keine komplett spaltfreien Kompositfüllungen im Dentin hergestellt werden können. Zu diesem Schluss kam auch Manhart, J. et al 2000. Selbst bei Anwendung moderner Dentinadhäsivsysteme unter Einhaltung aller Verarbeitungsvorschriften lässt sich das Zustandekommen einer Komposit-Dentinhaftung in Klasse-II-Kavitäten nicht mit Sicherheit vorhersagen. Bei allen getesteten Dentinadhäsiven wurde an den Kavitätenrändern Farbstoffpenetration nachgewiesen. Die Farbstoffpenetration zeigte an den Kavitäten die Tendenz von approximal nach pulpal geringer zu werden. Optibond Solo mit Füllstoffgehalt erreichte in der Farbstoffpenetration am zervikalenFüllungsrand mit (54,54 %) und ohne (31,89 %) Liquorsimulation die besten Resultate. Auch am oralen Füllungsrand hatte Optibond Solo mit (36,38 %) und ohne (37,09 %) Liquorfluss die besten Ergebnisse. An der vestibulären Kavitätengrenze waren Optibond Solo und Syntac Sprint an der Spitze: mit Liquorsimulation Syntac Sprint 32,68 %, Optibond Solo 38,42 %; ohne Liquorsimulation Syntac Sprint 35,97 %, Optibond Solo 35,3 %. Alle Ränder zusammen betrachtet, wies ebenfalls Optibond Solo die geringste Farbstoffpenetration auf: mit Liquor 43,2 %, ohne Liquor 34,72 %. Das wasserhaltige Syntac SC belegte den letzten Platz bei Auswertung aller Ränder zusammen mit Liquor 82,89 %, ohne Liquorsimulation war hingegen Etch & Prime 3.0 absolutes Schlusslicht (80,03 %). Das schlechteste Ergebnis erreichte Syntac SC ebenfalls am vestibulären Füllungsrand ohne (75,59 %) und mit Liquorsimulation (81,16 %), sowie zervikal mit Liquor (95,32 %). Syntac SC konnte genauso mit der angewandten Moist-bonding-Technik in der REM (20 % "perfekte Ränder" vor und 8 % nach Thermocycling) nur den letzten Platz einnehmen. Das acetonbasierende Adhäsiv Syntac Sprint erlangte in der REM sowohl vor (77 %) als auch nach (76 %) Temperaturwechselbadbelastung den höchsten Anteil an "perfekten Rändern", gefolgt von Optibond Solo mit 65 % vor und 50 % nach Thermocycling. Die Temperaturwechselbadbelastung hatte Einfluss auf die Qualität der Randadaptation. Bei allen untersuchten Dentinadhäsiven reduzierte sich der prozentuale Anteil an perfekten Rändern nach Thermocycling im Vergleich zuvor. Die Qualität des Zustandekommens eines akzeptablen Füllungsrandes ist von der chemischen Zusammensetzung, insbesondere dem enthaltenen Lösungsmittel, dem Füllstoffgehalt und der Dentinfeuchtigkeit abhängig. Die Durchführung der Simulation des Liquors führte am zervikalen Rand bei Syntac SC (ohne: 92,54 %; mit: 95,32 %), Optibond Solo (ohne: 31,89 %; mit: 54,55 %) und Scotchbond 1 (ohne: 63,44 %; mit: 83,24 %) zur erhöhten Farbstoffpenetration - im Falle von Etch & Prime 3.0 (ohne: 93,11 %; mit: 86,42 %), Syntac Sprint (ohne: 81,98 %; mit: 73,75 %) und Prime & Bond NT (ohne: 88,86 %; mit: 81,01 %) jedoch zu einer verringerten Penetration des Methylenblaus.
Hintergrund: Epoxyeicosatriensäuren (Epoxyeicotrienoic acids, EETs) sind antihypertensiv, anti-inflammatorisch, anti-proliferativ und pro-fibrinolytisch wirksam. Die lösliche Epoxid-Hydrolase (soluble epoxid hydrolase, sEH) wandelt EETs in ihre korrespondierenden, weniger aktiven Diole (DHETEs) um. Das legt die Vermutung nahe, dass eine Steigerung der EET-Spiegel durch sEH-Inhibition eine Strategie zur Verhinderung von Endorganschäden sein kann. Wir untersuchten den Effekt der sEH-Inhibition im Modell der chronischen Niereninsuffizienz bei der Maus. Methoden: Es wurde eine 5/6 Nephrektomie (5/6 Nx) an männlichen SV129 Mäusen durchgeführt um eine chronisch progressive Niereninsuffizienz zu induzieren. Postoperativ wurden die Tiere in Gruppen randomisiert und mit Placebo (Leitungswasser), einem ACE-Hemmer (Ramipril, 40 mg/kgKG/d), dem sEH-Inhibitor 1471 (15 mg/kgKG/d) und dem CYP-Inhibitor Fenbendazol (15 mg/kgKG/) für 8 Wochen behandelt. Ergebnisse: Verglichen mit den sham-operierten Mäusen induzierte die 5/6 Nx einen arteriellen Hypertonus, eine Proteinurie, Glomerulosklerose und eine erhöhte Sterblichkeit. Wie erwartet führte die Gabe von Ramipril zu einer Blutdrucksenkung, einer verminderten Albuminurie und einer verbesserten Überlebensrate. Fenbendazol senkte die Plasma- Konzentration von einigen EETs, hatte aber keinen Einfluss auf die Progression der Niereninsuffizienz. Überraschenderweise kam es unter sEH-Inhibitor-Therapie zu keiner Blutdrucksenkung in diesem Modell. Im Gegenteil, die Proteinurie war sogar noch verstärkt bei den 5/6 Nx-Tieren unter 1471-Therapie verglichen mit der Placebo-Gruppe. Die Plasma-EET-Spiegel waren >2 mal höher in den 5/6 Nx-Mäusen als in der korrespondierenden sham-Gruppe. Die renale sEH-Expression war in den 5/6 Nx-Mäusen vermindert, eine medikamentöse sEH-Inhibition steigerte die EET-Spiegel in diesen Tieren noch weiter. Bemerkenswert war, dass, ausschließlich in den 5/6 Nx-Gruppen, eine sEH-Inhibition und eine CYP-Inhibition zu einer gesteigerten Konzentration von 5-Hydroxyeicosatriensäure (5-HETE), 12-HETE und 15-HETE führte, welche Lipid Peroxidations- und Lipoxygenase-Produkte sind. Fazit: Im Modell der 5/6 Nephrektomie bei der Maus führt die Hemmung der sEH zu keiner Blutdrucksenkung, sondern zu einer Verschlechterung der Proteinurie. Ursächlich hierfür sind vermutlich die durch die Niereninsuffizienz hervorgerufe Akkumulation von EETs sowie eine Verschiebung des Arachidonsäure-Metabolismus hin zu Lipoxgenase-Produkten mit nierenschädigender Wirkung.
To date it is not clear at which stage of differentiation mature T cell leukaemia/lymphoma is initiated. Previous studies in our group showed that mature T cells are relatively resistant to transformation. We wanted to further investigate the transformation potential of NPM-ALK, p21SNFT and the viral oncoprotein Tax on mature T cells. First, we analyzed the effects on T cell growth in vitro after transducing human T cell lines with gammaretroviral vectors encoding these genes. No growth or proliferation promoting effect of all three genes was observed. In the second part of the project, we transduced murine, mature T cells and/or haematopoietic stem cells (HPCs/HSCs) and transplanted these cells into Rag-1 deficient recipients. All mice transplanted with NPM-ALK transduced monoclonal mature T cells (OT-1) developed leukaemia/lymphoma. In contrast, only few NPM-ALK transduced polyclonal T cell and HPC/HSC transplanted mice developed leukaemia/lymphoma. From the p21SNFT group, only two mice transplanted with transduced OT-1 T cells developed leukaemia/lymphoma, which showed high eGFP and interestingly CD19 expression. No malignancies were observed in Tax transplanted animals so far. Furthermore, the recipients do not show any eGFP marking in the periphery. In conclusion, our results show that compared to polyclonal T cells, monoclonal T cells are transformable after gammaretroviral transfer of NPM-ALK and p21SNFT.
Für eine erfolgreiche Gentherapie ist zunächst ein effizientes Gentransfersystem nötig, das das Transgen in möglichst vielen Zellen einbaut und es aktiv hält. Damit sich dann der Anteil der geschützten Zellen vergrößert, muss eine Selektivität der genmodifizierten Zellen gegenüber den nativen Zellen gegeben sein, wobei die Sicherheit nicht außer Acht gelassen werden darf, da ein ungünstiger Einbau des Transgens eine Insertionsmutagenese und somit Tumoren induzieren kann. Der durch die Arbeitsgruppe von Laer entwickelte retrovirale Vektor M87o codiert den membranständigen Fusionsinhibitor maC46 (membran-anchored C-Peptid 46), der den Eintritt von HIV (Human Immunodeficiency Virus) in die Zielzelle effektiv verhindert. Diese Gentherapie mit M87o wurde in einer klinischen Studie an T-Lymphozyten von 10 weit fortgeschrittenen AIDS (Acquired Immune Deficiency Syndrome)-Patienten durchgeführt, wobei die Therapie gut verträglich war und keine Toxizität zeigte. Allerdings hatten die Patienten auch keinen klaren Vorteil von der Therapie. In der vorliegenden Arbeit wurden SIN Vektoren (Self-inactivating Vektoren) in 5 verschiedenen Konstruktionen getestet, um die optimale Vektordesign zu ermitteln und eine langfristige hohe Expression zu ermöglichen. Da die SIN Vektoren im Vergleich zu konventionellen gammaretroviralen Vektoren ein geringeres Risiko bezüglich der Insertionsmutagenese aufweisen, stellen sie ein sichereres Vektorsystem dar. Um eine bessere Transgenexpression zu erzielen, wurde in den SIN Vektoren entweder ein zellulärer Promotor oder ein viraler SFFV (spleen focus forming virus) als internen Promotor verwendet. Zusätzliche regulatorische Elemente, wie wPRE (Woodchuck Posttranscriptional Regulatory Element), cHS4 (chicken Hypersensitive Site) Insulator und SAR (Scaffold Attachment Region) Element wurden dann in unterschiedlichen Kombinationen zu stärkeren und langanhaltenden Expressionen integriert, wobei wPRE die RNA Prozessierung verbessert und somit die RNA Stabilität erhöht und SAR und cHS4 Insulator dem Silencing entgegenwirken und so die Expression aufrechterhalten. Diese fünf SIN Konfigurationen wurden untereinander und mit dem klassischen gammaretroviralen Vektor M87o bezüglich des Titers, der Expressionsstärke und der Langzeit-Genexpression verglichen. Dazu wurden zunächst humane T-Zelllinien PM-1 und primäre humane T-Zellen als Testzellen verwendet. Die Versuche wurden dann mit murinen T-Zellen wiederholt, die in die immundefiziten Mäuse transplantiert wurden, um die Genexpression in vivo weiter zu verfolgen. Die SIN Konstrukte zeigten jedoch eine deutlich schwächere Expression als die LTR (Long Terminal Repeat)-getriebene Vektoren und nur ein Konstrukt mit dem viralen Promotor und wPRE zeigte eine annähernd so hohe Expression wie die konventionellen Vektoren. Während der virale SFFV Promotor eine höhere Expressionsstärke gegenüber dem zellulären EF1α (Elongationsfaktor 1 alpha) Promotor zeigte, hatte der cHS4 Insulator nur geringfügige Einflüsse sowohl auf den Titer als auch auf die Expressionsstärke. Der Vektor mit dem SAR-Element zeigte zwar die geringsten Titer und Expressionsstärke, aber in Langzeitbeobachtung wies er sowohl in vitro als auch in vivo eine relativ konstante Anzahl von transgenpositiven Zellen auf. SIN Vektoren, in denen mit einer Kombination von wPRE und SAR-Element die RNA Prozessierung verbessert und das methylationsbedingte Silencing verhindert wird, könnten eine weitere Optimierungsmöglichkeit des Gentransfersystems bei der Gentherapie darstellen.
Das West-Nil-Virus (WNV) gehört zur Gruppe des Japan-Enzephalitis-Serokomplexes der Flaviviren, welches in Afrika, Asien und Mittleren Osten sowie in Süd- und Osteuropa seine Verbreitung findet. Das unerwartete Auftreten des Erregers in den USA (New York, 1999) bedingte eine große Zahl an transfusions- sowie transplantations-assoziierten WNV-Infektionen. Derzeit liegen keine Erkenntnisse über die Verbreitung des WNV in der deutschen Blutspenderpopulation vor. Aus diesem Grund war das Ziel dieser Arbeit die Bestimmung der Prävalenz und Inzidenz des Erregers zur Einschätzung der Gefahr von transfusions-assoziierten WNV-Infektionen. Zunächst wurde zur Bestimmung der Prävalenz des Erregers die Sensitivität und Spezifität verschiedener ELISAs (Panbio, Focus und Euroimmun) für die WNV-Antikörpertestung bestimmt. Es zeigte sich, dass WNV starke Kreuzreaktionen mit dem für unsere Breiten relevanten Frühsommer-Meningoenzephalitis-Virus (FSME) aufweist. Aus diesem Grund wurde zusätzlich ein FSME-ELISA sowie als Bestätigungstest ein Neutralisationstest verwendet und ein Testalgorithmus entwickelt. Für die Bestimmung der Inzidenz wurde auf den Grundlagen von Hadfield eine WNV-Reverse Transkriptase-PCR (RT-PCR) entwickelt und etabliert. Die 95% Nachweisgrenze wurde nach der Entwicklung der RT-PCR auf 54Kop./ml WNV-RNA bezogen auf eine Einzelprobe in einem Minipool bestehend aus acht Blutspenden bestimmt. Das Konfidenzintervall beträgt (CI): 42; 6 - 79; 92 Kopien/ml. Zudem wurde die Sensitivität der automatischen Extraktion mittels des auf magnetischen Festphasen beruhenden Separationsmoduls I mit der WNV-RT-PCR ermittelt. Die 95% Nachweisgrenze lag bei 225Kop./ml WNVRNA((CI): 168; 5 - 314; 3 ) bezogen auf eine Einzelprobe in einem Minipool bestehend aus acht Blutspenden. Aufgrund der etwas schlechteren Sensitivität wurde für die Bestimmung der Inzidenz die manuelle Extraktion durchgeführt. Zudem wurde das kommerzielle WNV Procleix Assay der Firma Chiron verwendet, um alle bisher in Europa aufgetretenen WNV-Stämme zu erfassen. Im Sommer 2004 wurde zunächst die Prävalenz des WNV bestimmt. Hierfür wurden 14:000 aus Hessen stammende Blutspenden von gesunden Spendern untersucht. Initial zeigte sich eine hohe Rate an anti-WNV reaktiven (5; 9 %) Blutspenden, wobei nur 0; 03% der Blutspenden im Neutralisationstest als Anti-WNV positiv bestätigt worden. 0; 15% der bestätigten anti-WNV positiven Blutspenden waren hierbei am ehesten mit Reisen in WNV-Epidemiegebiete assoziiert. Die Bestimmung der Inzidenz erfolgt im darauf folgendem Jahr durch die Untersuchung von 10:976 Blutspenden zusammengefasst in 1:372 Minipools mittels WNV RT-PCR. Von 1:372 Minipools wurden 1:247 Minipools mit dem Procleix WNV Assay untersucht. Beide Untersuchungsmethoden konnten keine WNV-positive Blutspende nachweisen. Insgesamt scheint das WNV -wenn überhaupt- nur in verschwindend geringem Maße in der deutschen Blutspenderpopulation zu exisitieren. Somit besteht derzeit keine Gefahr für transfusions-assoziierte WNV-Infektionen. Dennoch wurden importierte WNV-Infektionen aus Endemiegebieten in Deutschland beschrieben. Durch weitere Veränderungen der klimatischen Gegebenheiten wäre die Einschleppung des WNV nach Deutschland in Zukunft durchaus denkbar. Hierfür steht nun eine für das Spenderscreening taugliche Real-time PCR zür Verfügung, so dass jederzeit ein Blutspenderscreening auf WNV eingeführt werden kann.
Einleitung: Schwer verletzte Patienten nach Trauma (ISS > 16) sind häufig in Folge der Verletzungen über mehrere Tage beatmet. 40% dieser Patienten weisen eine Lungenkontusion auf. Mit zunehmender Beatmungsdauer steigt das Risiko einer Ventilator-assoziierten Pneumonie (VAP). Zeitgleich findet eine Reparation des Lungengewebes statt. Eine zeitnahe antiinfektive Therapie bei Verdacht auf eine VAP zu initiieren ist schwierig. Derzeit existiert kein validierter Parameter oder Score, der eine sichere Diskriminierung zwischen Infektion und Inflammation zulässt. Triggering receptor on myeloid cells (TREM-1) ist ein Rezeptor des angeborenen Immunsystems und wurde im Jahr 2000 erstmalig beschrieben. Sein löslicher Anteil, sTREM-1, ist in der bronchoalveolären Lavage (BAL) bei Patienten mit Pneumonie signifikant erhöht (> 200pg/ml). Es liegen keine Daten zu sTREM-1 bei Patienten nach Lungenkontusion vor. Unklar ist, ob sTREM-1 als Pneumonie-Marker nach Lungenkontusion geeignet ist. Material & Methoden: Nach Zustimmung der Ethikkommission und Einwilligung durch einen Angehörigen wurden prospektiv 42 Patienten mit Thoraxtrauma rekrutiert. Am ersten (im Median 15h nach dem Trauma) und an den Behandlungstagen zwei, drei, fünf, sechs und sieben wurden bei allen Patienten über den Tubus mit einem Aero-Jet Katheter BAL (20ml Spülung) gewonnen und zeitgleich Serumproben entnommen. Die Messung der sTREM-1-Konzentration erfolgte mittels Sandwich-ELISA in Doppelbestimmung (Quantikine sTREM-1 Immunoassay; Firma R&D Systems). Die Serum-Konzentrationen der Interleukine (IL) 6 und 10 sowie des Lipopolysaccharid bindenden Proteins (LBP) wurden mittels Immulite® bestimmt. Die Diagnose Pneumonie wurde retrospektiv mittels Clinical Pulmonary Infection Score (CPIS) gestellt: CPIS > 6 Pneumonie, ≤ 6 keine Pneumonie. Ergebnisse & Diskussion: 15 Stunden nach Trauma wurde der sTREM-1 Spiegel in der BAL, bei im Verlauf pulmonal klinisch unauffälligen Patienten, im Median mit 219pg/ml bestimmt. Im Weiteren stieg sTREM-1 im Median nach 24h auf 575pg/ml an und zeigte ähnliche Konzentrationen im Beobachtungszeitraum. Der Schweregrad der Lungenkontusion korreliert mit der Höhe des sTREM-1-Spiegels in der BAL 40h nach Trauma. Patienten mit schwerer Lungenkontusion (im Median 2240pg/ml) haben signifikant höhere Werte gegenüber Patienten ohne Kontusion (Median 217pg/ml), oder geringer Kontusion (Median 339pg/ml). Am Tag der Diagnosestellung Pneumonie (CPIS > 6, n= 9) zeigten die betroffenen Patienten einen signifikant erhöhten sTREM-1-Spiegel in der BAL (Median 2145pg/ml, p < 0,05) im Vergleich zum Tag vor der Pneumonie (Median 588pg/ml). Wird der cut off für sTREM-1 bei 800pg/ml festgelegt ergibt sich eine Sensitivität von 87% und eine Spezifität von 38%. Eine positive BAL weist im Vergleich zu einer negativen BAL signifikant höhere sTREM-1-Konzentrationen (Median 1492pg/ml vs. 971pg/ml, p < 0,05) auf. Die Sensitivität (85%) ist hoch, die Spezifität (51%) gering. Somit ist sTREM-1 nicht nur durch eine Infektion, sondern auch durch eine Gewebeschädigung mit Einblutung und Inflammation stimulierbar. sTREM-1 ist durch die kontusionsbedingte Stimulation in der ersten Woche nach Trauma ungeeignet, um sicher zwischen einer Pneumonie und einer kontusionsbedingten Inflammation zu unterscheiden. Zytokine und akute Phase Proteine (IL-6, LBP, Procalcitonin) sind bekanntermaßen ebenfalls nicht zur sicheren Diskriminierung einer Infektion geeignet. In Kombination mit sTREM-1 lassen sich jedoch zur Diagnosestellung einer Pneumonie vergleichbare Werte für Sensitivität und Spezifität erreichen wie mittels CPIS Score, wobei der CPIS nur retrospektiv ermittelt werden kann. Die Laborparameter liegen bereits am Tag des Verdachts auf eine Infektion vor. Die klinische Entscheidung zur Initiierung einer Antiinfekitvatherapie korrelierte weder mit dem CPIS noch mit den Inflammationsparametern. Drei von neun Patienten erhielten trotz steigenden Entzündungszeichen und einem CPIS > 6 keine Antiinfektiva. In der Konsequenz könnte eine Kombination aus IL-6 und LBP im Serum, sTREM-1 in der BAL und klinischen Parameter des CPIS eine sensitive und spezifische Entscheidungshilfe für eine antiinfektive Therapie bei Polytrauma und Verdacht auf eine VAP werden.
Die vorliegende Dissertationsschrift befasst sich mit der molekulargenetischen Analyse zweier Basalganglienerkrankungen. Zum einen wurden Patienten mit M. Parkinson genetisch untersucht, zum anderen Patienten mit autosomal dominanter zervikaler Torsionsdystonie. Die Aufgabe bestand in der passenden Wahl der Methode zur jeweiligen humangenetischen Fragestellung. Der erste Teil handelte von der Suche der krankheitsverursachenden Mutation für die autosomal dominante zervikale Torsionsdystonie mit Spätmanifestation auf Chromosom 18p (Kandidatenlokus DYT7). Die erkrankte Familie deutscher Herkunft zeigt dystone Symptome mit Betonung auf kraniozervikale und brachiale Körperabschnitte und ist somit die weltweit einzige bekannte Familie mit Vererbung dieser ansonsten sporadisch auftretenden Erkrankung. Die PCR-Sequenzierung der Kandidatengene ZFP161, LOC390828, NDUFV2 und PTPRM auf dem DYT7 Lokus erbrachte bei den sieben erkrankten Familienmitgliedern im Vergleich zu nicht verwandten Kontrollen (Ehepartner und 96 Kontrollen der Blutbank) keinen Aminosäureaustausch, der ausschließlich bei den erkrankten Probanden zu finden war. Technisch konzentrierte sich diese Untersuchung auf die Amplifizierung und anschließende Sequenzierung jedes einzelnen Exons in den zu untersuchenden Proben, und die Bestätigung einer putativen Mutation mittels Verdau der PCR-Produkte durch Restriktionsendonukleasen. Die Auswahl der Kandidatengene erfolgte aufgrund der Annahme pathobiochemischer Mechanismen, die durch andere Formen der vererbten Torsionsdystonie oder zellbiologische Experimente als krankheitsverursachend gelten. Auch wenn keine Mutation gefunden wurde, so konnten bereits bekannte und neue single nucleotide polymorphisms (SNP) etabliert werden. Die zweite Thematik befasste sich mit der Frage, ob das bereits bekannte Parkinson-Gen UCH-L1 auf dem PARK5 Lokus krankheitsverursachend für den autosomal dominanten M. Parkinson in einer spanischen Familie ist. Diese parametrische Kopplungsanalyse wurde mithilfe der heißen Polyacrylamid-Gelelektrophorese (PAGE) durchgeführt. Dabei konnte in allen Patienten und den Verwandten ersten Grades über Analyse der Mikrosatelliten nördlich und südlich der Kandidatenregion (UCH-L1) in einem Bereich sehr niedriger Rekombinationswahrscheinlichkeit eine Haplotypisierung erfolgen. Die Haplotypisierung zeigte nicht die erforderliche Identifizierung eines Krankheitsallels bei allen betroffenen Probanden. Somit ist hier neben der einzig bekannten deutschen PARK5 Familie keine weitere Familie mit UCH-L1 Mutation bestätigt worden. Dementsprechend ist die Ätiologie dieser Erkrankung in dieser Familie noch unklar, was aber der Bedeutung des Ubiquitin-Proteasom Systems in der Parkinson-Entität keinen Abbruch getan hat. Da alle anderen autosomal dominanten Parkinson-Loci ausgeschlossen sind, muss sich die Ursache für den M. Parkinson in dieser Familie in einem heute noch unbekannten Gen befinden. Weitere Untersuchungen im Rahmen eines Genomscans sind aufgrund der geringen Fallzahl nicht möglich. Die letzte Aufgabe dieser Arbeit bestand in der Durchführung einer Assoziationsstudie mit den putativen PINK1 (PARK6) Interaktoren NME4 und MTIF3 für den mehrheitlich sporadisch auftretenden M. Parkinson. Dabei wurden in zwei unabhängigen Studiengruppen mit insgesamt 453 sporadischen Parkinsonpatienten und 370 Kontrollen jeweils zwei SNPs auf gekoppelte Vererbung mit der Erkrankung untersucht. Der Unterschied zwischen den Testgruppen bestand im Studiendesign, da zum einen mit den Patienten nicht verwandte Kontrollen und zum anderen verwandte Kontrollen verwendet wurden. Die mit beiden Studientypen normalerweise auftretenden Probleme durch Stratifikation bzw. erniedrigte statistische Power konnten durch Kombination der Studien ausgeglichen werden. Das Methodenspektrum umfasste PCR und Restriktionsverdau, was zum Auffinden eines Kopplungsungleichgewichts für das Gen MTIF3 führte. Ein heterozygoter Basenaustausch für den Polymorphismus rs7669 erhöht signifikant das Relative Risiko an M. Parkinson zu erkranken, wohingegen der homozygote Basenaustausch das Krankheitsrisiko des Trägers signifikant erniedrigt. Bezüglich des Relativen Risikos wurde der Effekt der molekularen Heterosis nachgewiesen. Bei diesem mitochondrial lokalisierten Gen handelt es sich um einen Initiator der mitochondrialen Translation. Demzufolge besteht hier Einfluss auf die Homöostase und somit Funktionalität der Atmungskettenkomplexe, die als bedeutend für die Pathogenese des M. Parkinson angesehen werden. Die Verbindung zum mitochondrial lokalisierten PINK1 besteht aufgrund seiner Kinase-Aktivität in der An- und Abschaltung des mitochondrialen Translations - Initiationsfaktors. Aber auch die Wichtigkeit von NME4 konnte in dieser Studie trotz fehlender Assoziation nicht ausgeschlossen werden, da vorangehende experimentelle Ergebnisse dieses Protein bereits in den PINK1 Signalweg zuordnen konnten. MTIF3 könnte wohlmöglich ein wichtiger genetische Risikofaktor für den idiopathischen M. Parkinson sein. Es bleibt abzuwarten, ob zukünftige genetische und zellbiologische Experimente die Wichtigkeit, die in diesem Protein zu liegen scheint, bestätigen können.
Die Hämodialyse ist ein etabliertes Verfahren zur Behandlung der terminalen Niereninsuffizienz. Sowohl in Deutschland, als auch international, ist eine Zunahme der Erkrankungshäufigkeit für die terminale Niereninsuffizienz festzustellen, in erster Linie aufgrund einer diabetischen oder hypertonen Nephropathie. Die arteriovenöse Fistel (AVF) hat sich als beste Form des Gefäßzuganges für die Hämodialyse erwiesen. Eine mögliche Komplikation der AVF ist das Dialyseshunt assoziierte Steal-Syndroms (DASS). Die Inzidenz des DASS wird in der Literatur mit 1-8% angegeben, als Risikofaktoren gelten unter anderem Alter und Diabetes mellitus- gerade die Faktoren, die auch für die Zunahme der Nierenerkrankungen verantwortlich sind. Daher ist für die Zukunft mit einem Anstieg der Inzidenz für das DASS unter den über einen Shunt dialysierten, terminal niereninsuffizienten Patienten zu rechnen. Die einzig erfolgsversprechende Behandlung des DASS erfordert ein chirurgisches Vorgehen, andernfalls drohen irreversible trophische Störungen. Ziel der Therapie ist die Beseitigung der Ischämie unter Erhalt der Shuntfunktion. In der vorgestellten Bi-Centerstudie konnten 76 DRIL- Prozeduren ausgewertet werden, die zwischen Mai 1996 und Januar 2008 in der Klinik für Gefäß- und Endovascularchirurgie der Johann Wolfgang Goethe-Universität Frankfurt und in der Chirurgischen/Gefäßchirurgischen Klinik des St. Martinus- Hospitals Olpe an 69 Patienten durchgeführt worden sind. Dabei konnte gezeigt werden, dass die erstmals von Schanzer et al. 1988 beschriebene DRIL- Prozedur geeignet ist, dieses Therapieziel auch langfristig zu erfüllen. Die kombinierte Offenheitsrate sowohl des DRIL- Bypasses als auch des Shunts post DRIL-Prozedur mit Regression oder Beseitigung der Ischämiesymptomatik betrug nach 6 Monaten 89,5%, nach 12 Monaten 80,2% und nach 5 Jahren 60,8%. Die theoretischen Überlegungen zum Verständnis der beim DASS vorliegenden hämodynamischen Verhältnisse erklären die Effektivität der Prozedur und die Überlegenheit gegenüber anderen Verfahren. Schlussfolgerung: Trotz des überwiegend betroffenen multimorbiden Patientenguts ist die technische Durchführbarkeit der DRIL-Prozedur erprobt, sicher und führt zum prompten und nachhaltigen Verschwinden der Ischämiebeschwerden, ohne die Shuntfunktion zu kompromittieren. Aus diesem Grund gehört die DRIL- Prozedur in das Portfolio jedes Shuntchirurgen.
Einleitung: Diese Arbeit vergleicht den Goldstandard der Knochendichtemessung die dual x-ray absorptiometry mit Daten, die durch Vermessungen der Claviculae bds. eines Patientenkollektivs am Röntgenthorax zu dessen Evaluation bzw. zur eventuellen Frakturvorhersagbarkeit. Material und Methoden: Auf den Röntgenbildern wurde die Länge und die Mitte der Claviculae bestimmt, die ROI, die region of interest, befindet sich in der Mitte. Dort wurden mit einem Kaliper der äußere ( outer periostal width / OPW ) und der innere Durchmesser ( inner endostal width / IEP ) gemessen. Für den CCT subtrahiert man den IEW vom OPW, für den %CCT teilt man den CCT durch den OPW. Alle durch die DXA-Messung ermittelten Werte der LWS sowie der Hüften in Form von BMD, bone mineral density, und BMC, bone mineral concentration, wurden korreliert mit der CCT, der combined cortical thickness und der %CCT der rechten und der linken Claviculae, die durch das Vermessen des Röntgenbildes ermittelt wurden. Ergebnisse: Beim Vergleich aller Werte konnte eindeutig eine fehlende Korrelation, also weder eine negative noch eine positive Korrelation, festgestellt werden. Diskussion: Im Vergleich zu vorhergehenden Arbeiten ergibt sich die Bestätigung, dass das konventionelle Röntgenbild keine geeignete Methode ist, die Diagnose der Osteoporose allein zu stellen.Diese Arbeit vergleicht den Goldstandard der Knochendichtemessung die dual x-ray absorptiometry mit Daten, die durch Vermessungen der Claviculae bds. eines Patientenkollektivs am Röntgenthorax zu dessen Evaluation bzw. zur eventuellen Frakturvorhersagbarkeit.
Die arterielle Hypertonie stellt einen bedeutenden Risikofaktor für kardiovaskuläre Erkrankungen dar, ihrer Therapie kommt daher ein hoher Stellenwert zu. Die Medikamentengruppe der Betablocker ist traditionell ein wichtiger Teil der medikamentösen Therapie, in dieser Arbeit wurde untersucht, inwiefern weiterhin ein Einfluss auf die diastolische Funktion, die Leistungsfähigkeit und die Sekretion der natriuretischen Peptide ANP und BNP besteht. Insgesamt wurden 102 Hypertoniepatienten mit zwischen 25 und 75 Jahren untersucht, alle Patienten hatten eine erhaltene systolische linksventrikuläre Pumpfunktion. Es erfolgte ein Gruppenvergleich zwischen den Patienten, die einen Betablocker einnahmen (n = 56) oder nicht (n = 46). Alle Patienten unterzogen sich eine Anamnese, einer Spiroergometrie, einer Echokardiographie samt Bestimmung der diastolischen Funktion und einer Lungenfunktionsprüfung. Laborchemisch wurden unter anderem die Hormone proANP und NT-proBNP erhoben. Zwischen den beiden Gruppen gab es keine signifikanten Unterschiede hinsichtlich Alter, Geschlecht, NYHA-Klasse oder den kardiovaskulären Risikofaktoren. Bei den Patienten ohne Betablocker bestand mit 21,4 % vs. 6,5 % (p = 0,034) signifikant häufiger die Diagnose einer koronaren Herzerkrankung. Bei der Begleitmedikation gab es keine relevanten Unterschiede in Bezug auf die Substanzen oder die Dosierung. Echokardiographisch ergab sich keine Gruppendifferenz für die diastolische Funktion. In der Spiroergometrie zeigte sich unter Betablockertherapie mit 118 vs.142 Watt (p = 0,019) ein Unterschied in der erreichten Leistung, die maximale Herzfrequenz war mit 128 vs. 142/Min (p < 0,001) ebenfalls erniedrigt. Die systolische Blutdrucksenkung war mit Betablockern sowohl in Ruhe (127 vs. 134 mmHg, p = 134) als auch unter Belastung effektiver. Mit 0,28 vs. 0,25 ml/kg (p = 0,002) war der Sauerstoffpuls pro Kg fettfreien Körpergewichts als Maß für das Schlagvolumen unter Betablockern erhöht. Bei den Patienten unter Betablocker-Medikation waren die Serum-Werte für sowohl proANP (2892 vs. 1839, p < 0,001) als auch NT-proBNP (107 vs. 39, p < 0,001) signifikant erhöht. In der multivariaten Analyse ergaben sich unter Betablockern für ANP das Alter und der HbA1c als unabhängige Prädiktoren, für BNP sind es die NYHA-Klasse und eine Mikroalbuminurie. Ohne Betablocker haben für ANP das Alter und die Belastbarkeit eine unabhängigen prädiktiven Wert, für BNP sind es das HDL, die Größe es linken Atriums und die Belastbarkeit. In Konklusion trägt die Einnahme von Betablockern zu einer effektiveren Blutdrucksenkung bei, vermindert die Belastbarkeit und senkt die Herzfrequenz. Einen Einfluss auf die diastolische Funktion konnten wir nicht zeigen. Die natriuretischen Peptide ANP und BNP sind unter Betablockade erhöht.
Hintergrund: Die klinische Wirksamkeit einer pharmakochirurgischen Kombinationstherapie zur Behandlung des diabetischen Makulaödems (DMÖ) bestehend aus einer posterioren Kernvitrektomie mit Entfernung von 1,5 ml liquefiziertem Glaskörper und zeitgleicher isovolumetrischer Injektion von 1,25 mg Bevacizumab und 8 mg Triamcinolon wurde in der vorliegenden Arbeit analysiert. Methodik: Daten von 73 Augen (60 Patienten; 65,4 ± 10,4 Jahre) mit einem DMÖ nach pharmakochirurgischer Kombinationstherapie wurden analysiert. Untersucht wurde neben dem Visus und der zentralen Makuladicke die Notwendigkeit von Re-Interventionen und dem Einsatz der konventionellen Verfahren (Laser, klassische 3port ppV). Wir unterschieden zwischen Gruppe I (n=38): nicht-proliferative DR (NPDR) ohne ischämische Makulopathie (I.M.); Gruppe II (n=17): NPDR mit I.M. und Gruppe III (n=18): proliferative DR mit oder ohne I.M. Die Kontrollintervalle betrugen im Median 9 Wochen (ca. 2 Monate, T1), 25 Wochen (ca. 6 Monate, T2) und 44 Wochen (ca.10 Monate, T3) nach Intervention. Ergebnisse: Die präoperativen Sehschärfen betrugen 0,52 ± 0,21 logMAR in Gruppe I, 0,99 ± 0,5 logMAR in Gruppe II, 0,77 ± 0,42 logMAR in Gruppe III. In Gruppe I verbesserte sich der Visus nach 2 Monaten zunächst auf 0,45 ± 0,21 logMAR (T1; p=0,7), nach 6 Monaten (T2) hochsignifikant auf 0,36 ± 0,16 logMAR (p<0,01) und blieb zum Zeitpunkt T3 stabil (0,36 ± 0,1 logMAR; p=1,0). Die Gruppe II zeigte zum Zeitpunkt T1 eine signifikante Visusbesserung auf 0,64 ± 0,18 logMAR (p<0,05) und war mit 0,77 ± 0,43 logMAR (T2; p>0,05) und 0,82 ± 0,4 logMAR (T3; p>0,05) leicht rückläufig. In der Gruppe III wurde zum Zeitpunkt T1 ein nicht-signifikante Visusverbesserung auf 0,53 ± 0,24 logMAR (p=0,08) erreicht, während nach 6 Monaten einen Visus von 0,62 ± 0,29 logMAR (p=0,6) und nach 10 Monaten mit 0,72 ± 0,34 logMAR (p=0,9) nahezu den Ausgangsvisus erreicht wurde. Die präoperativen Makuladicken betrugen 386,6 μm in Gruppe I, und 418,65 μm in Gruppe II und 385,17 μm in Gruppe III. Das Makulaödem konnte in allen 3 Gruppen bereits nach 2 Monaten hochsignifikant reduziert: -110μm (-28%; p<0,01) und im erreichten Niveau stabilisiert werden. 27,4 % der Augen (20/73) benötigten nach durchschnittlich 6,3 Monate eine Re-Intervention und 32,9 % benötigten im Verlauf eine Lasertherapie. Schlussfolgerung: Durch die pharmakochirurgische Kombinationstherapie konnte kurz- und mittelfristig eine Reduktion des Makulaödems mit Visusverbesserung in der Mehrzahl der Augen erreicht werden. Die Notwendigkeit von Re-Interventionen konnte zudem signifikant reduziert werden. Durch einen möglichen synergistischen Effekt kann diese Behandlungsmethode bestehende Therapieoptionen sinnvoll ergänzen und erweitern.
Die Nierentransplantation ist die Therapie der Wahl bei terminaler Niereninsuffizienz. Alle anderen Nierenersatzverfahren (chron. intermittierende Hämodialyse oder Bauchfelldialyse) reichen nicht an die Effizienz und den Komfort einer Transplantatniere heran. Trotz allem stellen verzögerte Funktionsaufnahme (delayed graft function, DGF), Abstoßungen und begrenzte Funktionsdauer heute noch Probleme der Nierentransplantation dar. Interleukin-18, ein wichtiger Mediator der angeborenen und erworbenen Immunantwort und zugleich ein Zytokin, das bei Ischämie-Reperfusionsschaden und akutem Nierenversagen vermehrt ausgeschüttet wird, könnte in diesem Zusammenhang von Bedeutung sein. Bekannt ist, dass zwei Promotorpolymorphismen (-607C/A und -137G/C) die Blutspiegel von Interleukin-18 beeinflussen können. Ziel dieser Dissertation ist es, den Einfluss der Interleukin-18- Genotypen auf die Prädisposition zu Nierenerkrankungen bzw. bestimmte Grunderkrankungen bei terminaler Niereninsuffizienz zu untersuchen. Außerdem wurde vor allem der Einfluss der Interleukin-18 Polymorphismen auf den Transplantationserfolg überprüft, gemessen an DGF, Transplantatüberleben und Patientenüberleben. Zu diesem Zweck wurden bei 233 Nierentransplantierten und bei 222 nierengesunden Organspendern die IL-18 Genotypen bestimmt. Zudem wurden die benötigten klinischen Daten aus den Krankenakten der Patienten entnommen und anschließend mittels statistischer Verfahren mit den Genvarianten in Korrelation gesetzt. Zwar war die Verteilung der Genotypen zwischen Transplantierten und Nierengesunden nicht unterschiedlich, wir konnten jedoch zeigen, dass das -137C-Allel bzgl. Autoimmunerkrankungen prädisponierend wirkt, aber hinsichtlich der diabetischen Nephropathie einen protektiven Einfluss hat. Im Falle des SNP -607C/A erwiesen sich das C-Allel hinsichtlich Autoimmunerkrankungen und das AAllel bzgl. diabetischer Nephropathie als schützend. Es stellte sich weiterhin heraus, dass der Wildtyp des IL-18 SNP’s (-607CC/-137GG) vor einer verzögerten Funktionsaufnahme des Transplantats (DGF) bewahrt. Ein direkter Einfluss der Polymorphismen auf die Langzeitfunktion des Transplantats konnte nicht nachgewiesen werden. Patienten mit DGF zeigten aber auch noch in den ersten drei Jahren nach der Transplantation eine deutlich schlechtere Nierenfunktion als Transplantierte mit unproblematischem postoperativem Verlauf. Obwohl sich die Nierenfunktion der DGF- und Nicht-DGF-Patienten nach drei Jahren wieder einander anglich, waren Patienten, deren Transplantat die Funktion verzögert aufnahm, einem höheren Mortalitätsrisiko ausgesetzt und verstarben durchschnittlich früher als die Vergleichsgruppe mit sofortigem Funktionsbeginn, wobei die Nicht-DGF-Patienten bei Transplantation durchschnittlich etwas jünger waren. Dies zeigt deutlich die Relevanz dieser frühen Phase für den Langzeitverlauf und die Bedeutung der IL-18-Genotypisierung, mit deren Hilfe man für DGF prädisponierte Patienten frühzeitig erkennen und spezifisch behandeln könnte, um so deren Prognose günstig zu beeinflussen. Weitere prospektive Studien sind aber nötig, um die gewonnenen Erkenntnisse zu sichern und so den Erfolg einer Nierentransplantation und damit die Lebensqualität der Patienten weiter zu verbessern.
Die Sicherheit der Blutprodukte befindet sich gegenwärtig durch die Einführung von Spenderselektion, die Durchführung einer unbezahlten Spende, der Möglichkeit eines freiwilligen Spenderselbstausschlusses, der Einführung von Antikörpertests, von Antigentests, von Kombinationstests und auch der Einführung von Minipool-NAT auf einem sehr hohen Qualitätsniveau, so dass Fremdbluttransfusionen heute als Mittel der ersten Wahl zu betrachten sind. In dieser Arbeit wurde die gegenwärtige Bedeutung eines Blutspenderscreenings mit Surrogatmarkern an einem konkreten klinischen Fallbeispiel, bei welchem eine Übertragung von HCV einzig und allein durch erhöhte ALT-Werte verhindert werden konnte, analysiert. Neben der Entwicklung einer Sequenzierungsmethode für HCV-positive Plasmen fand zusätzlich eine Genotypisierung der HCV-positiven Spende des vorliegenden klinischen Falles statt. Abschließend erfolgte eine Bewertung der aktuellen Wertigkeit von Surrogatmarkern in Gegenwart von spezifischen molekularbiologischen Testmethoden wie der Realtime-PCR für das Spenderscreening. Basierend auf der Spenderdatei der Jahre 1997-2006 des Blutspendedienstes Baden-Württemberg–Hessen wurde unter Einbeziehung des QALY eine Kosten-Nutzen-Analyse für den Surrogatmarker ALT und weitere Screeningparameter (Pool-PCR, HCV-AK, EP-PCR) durchgeführt. In diesem konkreten klinischen Fall wurde eine HCV-Infektion durch ALT zwar verhindert, die Ergebnisse dieser Arbeit legen jedoch dar, dass keine Korrelation zwischen erhöhten ALT-Werten und weiteren Infektionsparametern besteht. Aufgrund von spezifischen Nachweisverfahren ist ein zusätzliches Screening mit Surrogatmarkern weder medizinisch noch ethisch gerechtfertig.
HINTERGRUND: Die BioPhysio™ (Edwards Lifescience LLC, Irvine, CA) Bioprothese wurde konstruiert um die hämodynamischen Eigenschaften bisher verfügbarer gerüsttragender Aortenklappenprothesen weiter zu verbessern. Ein flexibles Nitinolgerüst, welches die natürlichen Bewegungen der Aortenwurzel während des Herzzyklus zulässt und trotzdem einfach implantiert werden kann, ist die Hauptinnovation dieser Prothese. Das Ziel dieser Studie ist die klinische Evaluation dieser neuen Prothese. METHODEN: Zwischen Dezember 2004 und August 2005 wurden 50 BioPhysio Aortenklappenprothesen implantiert. Das mittlere Alter der Patienten betrug 75,9 ± 5,1 Jahre. Klinische Ergebnisse, Klappenöffnungsflächen, transvalvuläre Gradienten und der Rückgang der Linksventrikelhypertrophie wurden echokardiographisch vor der Entlassung, nach sechs Monaten, zwölf Monaten und 24 Monaten nachuntersucht. ERGEBNISSE: Die Gesamtsterblichkeit betrug 14,3% (n=6), wobei nach zwölf Monaten 9,5% (n=4) und nach 24 Monaten 4,8% (n=2). Alle Todesfälle waren nicht klappenbezogen. Ein Patient erlitt zwei Jahre nach der Operation eine Endokarditis und wurde erneut operiert. Es gab keine Fälle von Herz- oder Nierenversagen. Die Bioprothese zeigte gute hämodynamische Eigenschaften. Eine signifikante Reduktion des mittleren Gradienten auf 15,1 ± 8,3 mmHg konnte erzielt werden. Die mittlere Klappenöffnungsfläche betrug 1,5 ± 0,7 cm² und die mittlere Ejektionsfraktion 60,7 ± 7,2%. Es traten keine Aorteninsuffizienzen auf. Die New York Heart Association Funktionsklasse verbesserte sich bei allen Patienten und es konnte eine signifikante Reduktion des Linksventrikelmasseindex von 185,7 ± 49,6 g/m² festgestellt werden. KONKLUSION: Die klinische Darbietung der neuen BioPhysio Bioprothese ist vergleichbar mit den konventionellen gerüstlosen Herzklappenprothesen. Durch ihr einzigartiges Design ist sie jedoch schneller und einfacher zu implantieren als konventionelle gerüstlose Prothesen.
Die Ausbreitung von HIV stellt ein kontinuierlich wachsendes Problem dar [132]. Durch Einführung der hochaktiven antiretroviralen Therapie (HAART) konnte die Morbidität und Mortalität der HIV-Infektion deutlich gesenkt werden, jedoch limitieren Resistenzbildungen des Virus und Toxizität der Medikamente den Erfolg. Eine mögliche Therapiealternative bietet die HIV-Gentherapie. Hierbei werden Zellen eines Patienten genetisch modifiziert, so dass sie ein antivirales Genprodukt exprimieren. In der Arbeitsgruppe von Laer (Georg-Speyer-Haus, Frankfurt) wurde der retrovirale Vektor M87o entwickelt, der das antivirale, membranverankerte Peptid maC46 kodiert. Dieses hemmt als Fusionsinhibitor effizient den Viruseintritt von HIV. Als Zielzellen einer HIV-Gentherapie können neben TLymphozyten, den eigentlichen Zielzellen von HIV, auch deren Vorläufer, die hämatopoetischen Stammzellen, verwendet werden. Durch Generierung der gesamten Hämatopoese sollte dies zur Expression des antiviralen Transgens in allen Blutzelllinien führen. Besonders wichtig hierbei ist, dass die Funktion der hämatopoetischen Stammzellen durch die genetische Modifikation möglichst nicht gestört wird. Ziel der vorliegenden Arbeit war es daher, toxische Effekte von M87o auf die Repopulierungsfähigkeit hämatopoetischer Stammzellen auszuschließen. Neben den Toxizitätsanalysen sollte auch die Langzeitexpression des retroviralen Vektors nach Transplantation genetisch modifizierter T- und Stammzellen untersucht werden. Eine stabile Expression des Transgens ist vor allem in T-Lymphozyten als Hauptzielzellen von HIV ausschlaggebend für den Erfolg der Gentherapie. Daher war ein weiteres Ziel dieser Arbeit, die Transgenexpression in vivo besonders in T-Lymphozyten im Verlauf zu untersuchen. Hierzu wurden in einem syngenen Mausmodell hämatopoetische Stammzellen mit dem retroviralen Vektor M87o transduziert und in bestrahlte Rag1-defiziente Mäuse transplantiert. Damit mögliche toxische Effekte von M87o auf die Hämatopoese nicht durch den Anteil untransduzierter Zellen im Transplantat maskiert werden, wurde in einer Versuchgruppe der Anteil transduzierter Stammzellen durch MACS-Sortierung auf über 95% angehoben. bAls Kontrollgruppen wurden untransduzierte, aber gleichermaßen kultivierte Stammzellen sowie mit dem Kontrollvektor M87c transduzierte Stammzellen transplantiert. Im folgenden Beobachtungszeitraum von 18-20 Wochen wurde regelmäßig das periphere Blut der Empfängertiere analysiert sowie nach Tötung der Tiere die einzelnen Zellpopulationen der hämatopoetischen Organe Blut, Lymphknoten und Milz charakterisiert. Hierbei konnte keine Toxizität durch M87o nachgewiesen werden. Zwar wurde für M87o-angereicherte Stammzelltransplantate eine verminderte bzw. verzögerte Lymphozytenrepopulierung beobachtet, dies war jedoch wahrscheinlich auf eine eingeschränkte „Fitness“ der Stammzellen durch den Sortierungsprozess und eine geringere Zellzahl im Transplantat zurückzuführen. M87o-transduzierte Stammzellen waren schließlich in der Lage, die komplette Lymphopoese zu generieren. Im Blut, Lymphknoten und Milz der Rezipienten konnten NK-, T- und B-Zellen nachgewiesen werden. Die lymphatische Differenzierung wurde also durch M87o nicht beeinträchtigt. Eine Aussage über die Toxizität von M87o auf die Myelopoese konnte leider nicht getroffen werden. Nach subletaler Bestrahlung der Empfängertiere und damit nur teilweisen Ablation des endogenen Knochenmarks wurden die meisten Zellen der myeloischen Linie durch die Wirts-Stammzellen generiert. Es müssen somit hinsichtlich der Unbedenklichkeit von M87o noch weitere präklinische Untersuchungen erfolgen, bei denen durch letale Bestrahlung der Empfängertiere lediglich die durch Spenderzellen differenzierte Myelopoese analysiert werden kann. Bei den Untersuchungen zur Transgenexpression nach Transplantation genetisch modifizierter Stammzellen konnte eine Langzeitexpression des maC46-Peptids auf allen lymphatischen Zelllinien (T-, B- und NK-Zellen) nachgewiesen werden. Dies zeigt also, dass eine stabile und effiziente Integration des Transgens und somit eine langfristige Expression in vivo möglich ist. Im Verlauf konnten jedoch bei nahezu allen Tieren fallende Anteile M87o-exprimierender Lymphozyten nachgewiesen werden. Dieser beobachtete Expressionsverlust war variabel hinsichtlich des zeitlichen Auftretens sowie zelltypabhängig. Die höchsten Anteile M87o-exprimierender Zellen zeigten sich innerhalb der B-Lymphozyten. Im Rahmen der M87o-Expressionsanalyse nach Transplantation genetisch modifizierter T-Lymphozyten wurden T-Lymphozyten mit unterschiedlicher Transduktionseffizienz in Rag1-defiziente Mäuse transplantiert. Unterschiede in der Langzeitexpression in Abhängigkeit von der ins Genom integrierten Kopienzahl des Vektors konnten hierbei nicht eindeutig gezeigt werden. Bei einigen Tieren konnte eine relativ langfristige in vivo Expression des maC46-Peptids nachgewiesen werden, bei anderen hingegen nachlassende Transgenexpressionen. Insgesamt war die Aussagekraft hier jedoch durch eine nach Transplantation auftretende schwere Kolitis bei den Versuchstieren und somit limitierte Beobachtungszeit stark eingeschränkt.
Die Novellierung des Hochschulrahmengesetzes zum Wintersemester 2005/06 hat den Universitäten die Möglichkeit eröffnet, 60 Prozent der Studierenden direkt auszuwählen und damit intensiv in die Konzeption der zahnmedizinischen Studienplatzvergabe einzugreifen. Vor diesem Hintergrund war das Ziel dieser Untersuchung, sowohl objektive schulische Parameter als auch außerschulische Prädiktoren (soft skills) zu eruieren, welche voraussichtlich für ein erfolgreiches Studium, definiert aus guten Noten und Einhaltung der Regelstudienzeit, sprechen. Dazu wurde nach einer Pilotuntersuchung an 114 Kongressteilnehmern der AFDT-Tagung in Bad Homburg (heutige DGFDT) eine Befragung an 260 Studierenden und 64 Mitarbeitern/übrige an der Universität Frankfurt/Main (Zahnärztliches Universitäts-Institut) durchgeführt und die gewonnen Ergebnisse in Korrelation mit den erbrachten universitären Leistungen gesetzt. Die Bewerberzahlen für das Zahnmedizinstudium belaufen sich auf ein Viertel der Mediziner in Frankfurt/Main. Daraus resultieren in Hinblick auf den Untersuchungszeitraum von einem Jahr zwangsläufig geringere Datenmengen und damit unweigerlich Einschränkungen in der statistischen Zuverlässigkeit. Anhand der Ergebnisse und der erhobenen Daten des Studierendenfragebogens wurde der tendenzielle Prototyp des Zahnmedizinstudierenden ermittelt, welcher voraussichtlich erfolgreich, d.h. schnell und gut sein Studium bewältigen wird. Hierbei handelt es sich um eine Zusammenfassung von zum größten Teil nicht signifikanten, deskriptiv gewonnenen Ergebnissen, welche in ihrer so aufgezeigten Gesamtheit keinen Impuls zur Selektion bieten sollen, sondern lediglich schwache Tendenzen zur Standortbestimmung aufzeigen. Hiernach handelt es sich bei dem erfolgreich Studierenden um eine weibliche Person. Sie belegt während ihrer gymnasialen Schulzeit in Hessen oder im Ausland die Leistungskursfächer Mathematik und Chemie, absolviert das große Latinum und belegt bis zum Ende der Oberstufe das Fach Musik. Die Schülerin widmet der Schulzeit voll und ganz ihre Aufmerksamkeit und investiert deshalb keine Zeit in außerschulische Aktivitäten (soft skills). Während der Oberstufe entscheidet sich die psychisch stabile und nie krank werdende Frau dazu, Zahnmedizin zu studieren, und schließt ihr Abitur mit einer Durchschnittsnote ab, die deutlich besser ist als 2,33. Unter den Familienmitgliedern der Studentin befindet sich kein Zahnarzt oder Zahntechniker, wohl aber ein Arzt. Nach dem Abitur bildet sie sich zunächst noch zur Zahntechnikerin weiter und vollzieht dann das Studium der Zahnmedizin ohne BAföG zu beziehen oder arbeiten zu müssen. Trotz allem muss natürlich in Bezug auf die soft skills festgehalten werden, dass durchaus Studierende ermittelt wurden, welche hervorragende Ergebnisse im Studium erzielten und sich zudem bezüglich außerschulischer Aktivitäten engagierten und herausragende Leistungen (z.B. Preisträger) vollbrachten. Die Ergebnisse bei den Mitarbeitern/übrige zeigen vor allem zwei Tendenzen. Zum einen schnitten diese im Vergleich zu den Studierenden in allen Prüfungsbereichen besser ab und zum anderen zeigt sich ebenso der Trend dahingehend, dass eine Abnahme der Angaben von soft skills eher mit einem erfolgreichen Studium korreliert. Als Hauptgrund sieht der Autor hier die "Erfolgsdruckunabhängigkeit", d.h. es besteht bei diesen nicht der Zwang, sich gegenüber anderen Mitarbeitern behaupten zu müssen, wie es verständlicherweise unter Wettbewerbsdruck vieler Studierender zu finden ist. Eindeutige Ergebnisse liegen bei den Kohorten mit der Zahntechnikerausbildung vor. Sowohl bei den Studierenden als auch bei den Mitarbeitern/übrige zeigt sich ein eindeutig besseres Abschneiden im Physikum im Bereich der Zahnersatzkunde, was eine wichtige Hürde im Verlauf des Zahnmedizinstudiums darstellt. Letztlich sieht der Autor den "goldenen Weg" zur Studierendenauswahl nur in der Kombination von Abiturdurchschnittsnote und manuellen Geschicklichkeitstests, plus Bonifikation derjenigen Studierenden mit Zahntechnikerausbildung. Soft skills können maximal einen Hinweis auf ein erfolgreiches Studium geben, eine signifikante Aussage konnte aber in keinem Fall gefunden werden.
Clinical application of transcranial Doppler for detection of cerebral emboli during cardiac surgery
(2010)
Objective: Neurologic injury is one of the most damaging complications for cardiac surgery. How to decrease neurologic impairment by improving perioperative monitoring remains a challenge for both cardiac surgeons and anesthetists. For this reason, transcranial doppler (TCD) has been widely used in cerebral monitoring during cardiac surgery. In this study, two experiments of clinical application of TCD for detection of cerebral emboli during cardiac surgery were to be done. One was “Solid and gaseous cerebral emboli during valvular surgery are significantly reduced with axillary artery cannulation”. The other was “Do intraoperative cerebral embolic signals differ between valvular surgery (VS) and CABG”. Methods: In experiment one, 20 valve and combined procedures with aortic cannulation (AoC group) were compared to 18 procedures with axillary cannulation (AxC group) in a prospective non-randomized study. In experiment two, 18 VS patients and 18 CABG patients were matched by extracorporeal circulation (ECC) time retrospectively. Intraoperative monitoring of both middle cerebral arteries was performed with TCD discriminating between solid and gaseous embolic signals (ES). Results: In experiment one, the AxC group had less solid ES than the AoC group (38±22 vs 55±25, P<0.05), but no significant difference was found in gaseous (501±271 vs 538±333, P>0.05) and total (539 ± 279 vs 593 ± 350, P>0.05) ES. The AxC group had less solid ES during arterial cannulation (2.1±1.5 vs 6.6±3.6, P<0.05) and during aortic cross-clamp time (4.4 ±3.1 vs 10.2 ± 5.1, P<0.05) than the AoC group. During ECC, gaseous ES was not significantly different between groups (398±210 vs 448±291, P>0.05). However, AxC showed less gaseous ES (85±68 vs 187±148, P<0.05) and less gaseous ES per minute (1.8±1.5 vs 4.5±3.2, P<0.05) during weaning off extracorporeal circulation than the AoC group. No significant difference in gaseous ES (313±163 vs 261±189, P>0.05) and gaseous ES per minute (3.1±2.2 vs 2.8±2.2, P>0.05) was found between groups from bypass start to aortic declamping. No neurologic complications occurred. In experiment two, no significant difference was found in solid (38±20 vs 40±26, P>0.05) or gaseous (457±263 vs 412±157, P>0.05) ES between the VS and CABG group during the whole recording time. During ECC, solid ES (20±10 vs 24±19, P>0.05) and gaseous ES (368±230 vs 317±157, P>0.05) were comparable between groups. Specifically, during weaning off ECC, the VS group had more gaseous ES/min (5.6±3.6 vs 3.1±1.2, P<0.05) than the CABG group. But this difference in gaseous ES/min was not significant during the period from bypass start to aortic declamping (2.5±1.8 vs 3.0±1.8, P>0.05). Conclusion: Cerebral embolization does occur during cardiac surgery. Through these two experiments, we demonstrated the feasibility and importance of clinical application of transcranial doppler for detection of cerebral emboli during cardiac surgery. Due to the diversity in clinical application of TCD, it is impossible to compare the number of ES between different research centers. More unified standards should be drawn in order to make wider clinical application possible. Up till now, no robust evidence shows the correlation between intraoperative ES and postoperative neurological impairment. The research on intraoperative ES and postoperative neurological impairment should rely on a complete concept.
Die kongenitale HCMV-Infektion ist der wichtigste Auslöser geistiger Retardierung viraler Genese und ist für die meisten neurosensorischen Hörstörungen nicht genetischen Ursprunges verantwortlich. Die Entwicklung neuer Strategien zur Prävention der HCMV-Infektion bei Neugeborenen ist also von höchster Dringlichkeit. Die Einführung von universellen Screeningprogrammen bei Neugeborenen könnte die frühzeitige Erkennung einer Infektion und somit einen frühen therapeutischen Einsatz ermöglichen. Um dies in die Praxis umsetzen zu können, wird jedoch eine Vereinfachung der Probengewinnung und die Entwicklung einer schnellen und sensitiven Nachweismethode benötigt. Die Anwendbarkeit von verschiedenen im Handel für DNA-Analysen angebotenen Filterpapieren zur Sammlung von Urinproben für die HCMV-Diagnostik mittels PCR wurde untersucht und mit Referenzmethoden verglichen. Es wurden zwei mit Reagenzien behandelten Papiere, das Indicating FTA® Classic Card (Ind FTA Filterpapier) und das FTA® Elute (FTA Elute Filterpapier) und ein unbeschichtetes Papier, das 903® Specimen Collection Paper (903-Filterpapier) eingesetzt. Insgesamt waren alle Papiere leicht einzusetzen, gut verträglich und die Gewinnung von Proben gestaltete sich problemlos. Dilutionsreihen aus Zellkulturüberstand aus einer mit dem HCMV-Laborstamm AD169 infizierten Fibroblastenkultur wurden zur Sensitivitätsbestimmung der Methode eingesetzt. Während bei der Anwendung der Indicating FTA® Classic Cards die Nachweisgrenze der Methode bei 4.000 Kopien/ml lag, wurden beim FTA® Elute- und 903® Specimen Collection-Paper noch Proben mit 400 Kopien/ml erfasst. Ferner wurden 70 klinische Proben mittels Ind. FTA-Papier getestet und 10 mittels FTA Elute- und 903-Filterpapier. Die Sensitivität der Methode betrug im Vergleich zum "Shell Vial Assay" 43,2% beim Einsatz des Ind. FTA-, 60% beim 903- und 70% beim FTA Elute-Filterpapiers. Im Vergleich zur PCR aus mit Qiagen isoliertem Urin erreichte die Methode eine Sensitivität von jeweils 58,3% mit Ind. FTA-, 50% mit dem 903-, und 83,3% mit FTA Elute-Filterpapier. Eine Korrelation zwischen Viruslast in der Filterpapier-Probe und in der mit Qiagen isolierten Urinprobe bestand nur beim FTA Elute Filterpapier. Der Nachweis von HCMV-DNA aus auf FTA Elute-Filterpapier getrockneten Urinproben scheint ein vielversprechender Ansatz in der HCMV-Diagnostik zu sein. Um diese Methode für epidemiologische und/oder diagnostische Zwecke empfehlen zu können, müssten noch umfangreichere klinische Studien durchgeführt werden.
Methodik und Material: Injektion von Kolonkarzinomzellen der Zellreihe CC531 subkapsulär in den linken Leberlappen bei 36 männlichen WAG-Ratten (Gewicht 180-220g). Induziert wurden zwei unterschiedlich starke Tumorkonzentrationen: Gruppe A (n = 18, Injektion von 1 Mio. Tumorzellen) und Gruppe B (n = 18, Injektion von 4 Mio. Tumorzellen). Messung der Tiere nach 14 Tagen am CT Siemens Somatom Sensation 64 und Analyse des Tumorvolumens mit dem Volume Viewer Plus von Centricity AW Suite. Unterschiedlich starkes Wachstum der Lebertumore führte zu einer Einteilung der Ratten in Gruppe A(1,2) (n = 12): Tumorvolumen <3,5cm3 und Gruppe B(1,2) (n = 12): Tumorvolumen ≥3,5cm3. Die volumenbezogene Therapie erfolgte an Tag 15 wie folgt: Bei jeweils 6 Tieren der Gruppen A1 und 6 Tieren der Gruppe B1 wurde eine systemische Chemotherapie mit 0,1mg/ml Mitomycin C (Standardtherapie) durchgeführt. Die andere Hälfte der Tiere (6 Tiere der Gruppe A2 und 6 Tiere der Gruppe B2) erhielten die doppelte Konzentration von 0,2mg/ml (< 10% der letalen Dosis). 6 Tiere dienten der pathologischen Auswertung, weitere 6 Tiere dienten als Kontrollgruppe. An Tag 25 erfolgte eine erneute Bestimmung des Tumorvolumens. Ergebnisse: Die Therapie wurde von allen Ratten gut toleriert. Das durchschnittliche Tumorvolumen betrug in A (1,2) 2,18cm3 +/- 0,82 (range: 0,55 – 3,42) und in Gruppe B (1,2) 4,52cm3 +/- 0,82 (range: 3,72 – 5,86). Das CT-follow up an Tag 25 ergab, dass eine erhöhte Mitomycinkonzentration zu einer Tumorregression von 20,55 % in der Gruppe A2, 21,03 % in B1 und 46,61% in B2 führte. In der Gruppe A1 zeigte sich ein Progress des Tumorvolumens von 51,38%. Schlussfolgerung: Chemotherapeutika werden in Abhängigkeit von Körpergewicht, Körpergröße und Körperoberfläche verabreicht. Einen neuartigen Ansatz stellt die tumorvolumenadaptierte Chemotherapie (TVACT) mit Mitomycin C dar, da große Tumorvolumen eine bessere Ansprechbarkeit auf Mitomycin C zeigen als kleinere. Die TVACT ist somit eine neue relevante Behandlungsoption bei der Behandlung von malignen Tumoren im Tiermodell. Hinsichtlich der wachsenden Bedeutung neuer Staging Systeme im avanzierten kolorektalen Karzinom sollte das Tumorvolumen auch als prognostischer Faktor berücksichtigt werden.
1. Hintergrund und Ziel der Studie: Bei der Thrombolysetherapie des akuten ischämischen Schlaganfalls ist die Dosierung des Thrombolytikums strikt an das Körpergewicht des Patienten gebunden. Dies ist notwendig um die Effektivität der Therapie zu gewährleisten und um das Auftreten von Blutungskomplikationen weitestgehend zu verhindern. Aufgrund unterschiedlichster Faktoren, wie beispielsweise Einschränkungen des Bewusstseinszustands, oder aber Aphasie und Dysarthrie, sind viele potentielle Lyse-Patienten jedoch nicht in der Lage, ihr Körpergewicht dem behandelnden Arzt mitzuteilen. In vielen Fällen fehlen in der Akutsituation die Zeit, sowie die entsprechenden technischen Möglichkeiten, insbesondere bettlägerige Patienten zu wiegen. Folglich wird das Körpergewicht oftmals vom Arzt nach Augenmaß abgeschätzt, was erwiesenermaßen mit Ungenauigkeiten verbunden ist. Ziel der Studie war es, Approximationsmethoden zu entwickeln, die das Körpergewicht des Patienten anhand einfach erhältlicher anthropometrischer Maße zuverlässig zu bestimmen vermögen. 2. Methoden: Auf Grundlage anthropometrischer Daten einer bevölkerungsbasierten Population von 6.954 erwachsenen Probanden wurden, mittels linearer Regression, Approximationsformeln zur Abschätzung des Körpergewichts erstellt. Diese Formeln beinhalteten die Parameter „Körpergröße“, „Bauchumfang“ und „Hüftumfang“, sowie teilweise das Lebensalter der Person. Die verwendeten Parameter stellten allesamt unabhängige Prädiktoren des Körpergewichts dar. Die geschlechtsspezifischen Formeln wurden anschließend anhand einer unabhängigen Gruppe von 178 Patienten (90 Männer, 88 Frauen, Durchschnittsalter: 67,3 Jahre [±15,6 Jahre]) validiert. Einschlusskriterium war hierbei die Verdachtsdiagnose eines Schlaganfalls bei einer notfälligen stationären Aufnahme in die neurologischen Klinik des Klinikums der Johann-Wolfgang Goethe Universität Frankfurt am Main im Zeitraum April bis August 2006. Unter Verwendung des Goldstandards „Wiegung“, wurde die Genauigkeit der anthropometrischen Gewichtsapproximationen mit der Genauigkeit von jeweils zwei unabhängigen visuellen Schätzungen von in der Schlaganfall-Thrombolyse erfahrenen Ärzten verglichen. Für die klinische Nutzung wurden Approximationshilfen (ein Internet-Rechner und Nomogramme) entwickelt, die den Gebrauch der anthropometrischen Approximationsformeln erleichtern sollen. 3. Ergebnisse: Unter Verwendung der anthropometrischen Approximationsformeln konnten genauere Abschätzungen des wahren Körpergewichts erzielt werden, als durch rein visuelle Schätzung. Für die einfachsten und gleichzeitig genauesten Approximationsformeln (Approximationsmodell 1) betrug die durchschnittliche absolute Abweichung vom gewogenem Körpergewicht 3,1 kg (± 2,6 kg). Die Formeln waren somit signifikant genauer als die beiden Schätzungen durch Ärzte (Schätzung 1: 6,5 kg [± 5,2 kg], Schätzung 2: 7,4 kg [± 5,7 kg]; p < 0,001 für die Genauigkeitsvergleiche zwischen der jeweiligen Schätzung und der Approximation). Die Verwendung der Approximationsformeln reduzierte den Anteil aller Schätzungen, die mehr als 10% vom wahren Körpergewicht abwichen, von 31,5% (Schätzung 1) bzw. 40,4% (Schätzung 2) auf 6,2% (Approximationsmodell 1). In lediglich einem Fall (0,6%) wich das approximierte Gewicht mehr als 20% vom wahren Körpergewicht ab, wohingegen dies in 4,6% (Schätzung 1), respektive 8,5% (Schätzung 2) der Fälle für die Schätzungen zutraf. Die Benutzung der auf den Approximationsformeln basierenden Nomogramme führte zu keiner relevanten Verschlechterung der Schätzgenauigkeit (durchschnittliche absolute Abweichung vom gewogenen Körpergewicht 3,11 kg [± 2,69 kg], Anteil der Fehlschätzungen > 10% des Körpergewichts: 7,3%). Mit einer durchschnittlichen absoluten Abweichung vom wahren Körpergewicht von 2,7 kg (± 2,4 kg) und einem Anteil von 3,4% der Gewichtsschätzungen mit einer Abweichung von mehr als 10% vom wahren Gewicht, waren lediglich die Gewichtsangaben der Patienten selbst genauer als die anthropometrischen Approximationen. Die Messung der anthropometrischen Parameter dauerte durchschnittlich 99,5 Sekunden (± 36,7 s), für die Berechnung des Körpergewichts mittels Nomogramm wurden im Durchschnitt 56,7 Sekunden (± 15,3 s) benötigt. Die Übereinstimmung der Messergebnisse zwischen verschiedenen Untersuchern war hoch (Intraclass correlation Coefficients [ICC] für Körperlänge: 0,9978 [95% Konfidenzintervall 0,9954 - 0,9991], ICC für Bauchumfang: 0,9891 [0,9771 - 0,9953], ICC für Hüftumfang: 0,9921 [0,9836 - 0,9966]). 4. Schlussfolgerung: Durch die Verwendung von Approximationsformeln, basierend auf einfach bestimmbaren anthropometrischen Messgrößen (Körperlänge, Bauch- und Hüftumfang) ist es möglich, innerhalb kurzer Zeit eine relativ genaue Abschätzung des Körpergewichts von Schlaganfallpatienten zu erhalten. In Situationen, in denen das Körpergewicht des Patienten nicht umgehend erfragbar oder durch Wiegung bestimmbar ist, kann die vorgeschlagene Approximationsmethode helfen, grobe Schätzfehler und in der Folge Dosierungsfehler bei dosiskritischen Medikamenten zu minimieren.
Seit Einführung der Operationen mit HLM vor etwa 50 Jahren haben zahlreiche Veränderungen von Komponenten zu Fortschritten bezüglich einer verbesserten Biokompatibilität der EKZ geführt (Daniel S 1996; Gu Y 1993). Die EKZ ist nach wie vor eine Voraussetzung für die Mehrzahl der Herzoperationen und ist mit einer systemischen inflammatorischen Reaktion verbunden (SIRS), welche für eine postoperative Organdysfunktion verantwortlich sein kann. Herz-, Lungen- und Nierenfunktion als auch Gerinnungssystem sind in verschiedenem Ausmaß betroffen (Kirklin JK (1983); Westaby S 1987). Dieser Ganzkörperschaden ist ein multifaktorieller Prozess, der hauptsächlich durch den Kontakt von Blut mit fremden Oberflächen verursacht wird und sowohl zu einer Aktivierung der Leukozyten als auch der Komplementkaskade führt (Gourlay T 2001; Levy JH 2003). In Zeiten der minimal-invasiven Herzchirurgie besteht nun nicht nur die Absicht, das chirurgische Trauma zu reduzieren, sondern auch die pathologischen Auswirkungen der EKZ zu minimieren. Deshalb führten neuartige Konzepte und Strategien zur Entwicklung minimierter extrakorporaler Zirkulationssysteme, die vor allem durch reduzierte Fremdoberflächen und geringeres Primingvolumen charakterisiert sind (von Segesser LK 2003). Das CorX™ System folgt diesem Konzept und besteht aus einem geschlossenen System mit sehr geringere Oberfläche, einer integrierten Pumpe mit Oxygenator und einem Luftelimierungssystem. Außerdem wird weder ein Kardiotomie-Reservoir noch eine perikardiale Saugung verwendet, um den zusätzlichen Blutluftkontakt zu vermeiden. Das Ziel dieser Untersuchung war, dass CorX™ System in einer prospektiv randomisierten Studie mit einer konventionellen HLM in Bezug auf perioperative klinische und biochemische Parameter bei koronararteriellen Bypassoperationen in einem Niederigrisiko Patientenkollektiv zu vergleichen. 200 Patienten wurden entweder der CorX™ System-Gruppe (n = 100, Gruppe A) oder der Standard-HLM-Gruppe (n = 100, Gruppe B) zugeteilt. Neben der Auswertung von perioperativen Daten und routinemäßigen Blutproben waren vor allem die Lungenfunktion und der Myokardschaden Gegenstand dieser Untersuchung. Die PMNElastase und TCC dienten dazu, die inflammatorische Reaktion zu beurteilen. Demographische und operative Patientendaten unterschieden sich zwischen beiden Gruppen nicht, sie waren daher vergleichbar. Die postoperative Lungenfunktion zeigte postoperativ keinen signifikanten Unterschied in beiden Gruppen. Zwar war der Oxygenierungsindex in der ersten postoperativen Messung in der CorX-Gruppe signifikant niedriger, dies hatte aber keine Auswirkungen auf die Ergebnisse der Lungenfunktionstests am 5. postoperativen Tag. In der CorX™-Gruppe beobachteten wir verminderte CK-MB Werte postoperativ, was auf einen signifikant niedrigeren Herzmuskelzelluntergang hinweist. Auch dieses Ergebnis hatte aber keine klinische Relevanz. Eine Stunde nach HLM waren sowohl PMN-Elastase als auch TCC signifikant niedriger in Gruppe A im Vergleich zu Gruppe B (PMNE:76±44ng/ml vs 438±230ng/ml, p<0,0001; TCC: 16±8IU/ml vs 29±19IU/ml, p<0,0001). Dies zeigt eine deutlich verminderte inflammatorische Reaktion in der CorX-Gruppe auf, welche sich aber klinisch in diesem Niedrigrisikopatientengut nicht ausgewirkt hat. Die klinischen Ergebnisse hinsichtlich Morbidität und Mortalität, Intensiv- und Krankenhausaufenthalt waren nicht signifikant unterschiedlich im Gruppenvergleich. Das CorX™ System ist sicher und erfordert nur eine kurze Trainingsperiode für das chirurgische Team. Es wurde von den Kardiotechnikern gut angenommen und sogar gegenüber der konventionellen HLM favorisiert. Die inflammatorische Reaktion nach EKZ war signifikant reduziert, jedoch gab es bei Niedrigrisikopatienten keinen messbaren Unterschied bei Betrachtung der klinischen Ergebnisse. Die Reduktion der inflammatorischen Reaktion durch den Einsatz einer minimierten HLM könnte bei Hochrisikopatienten aber von großer Bedeutung sein.
In der vorliegenden Studie wurde die Erfolgsrate der intrauterinen Insemination im Hinblick auf die andrologischen Parameter analysiert. Der praktische Teil dieser Arbeit bestand darin, einen Fragebogen mit allen interessierenden Merkmalen zu erstellen. Anschließend wurden die Patientendaten aller im Jahre 2003 mittels intrauteriner Insemination in der Frauenklinik der Johann Wolfgang Goethe-Universität Frankfurt am Main behandelter Paare, anhand des erstellten Fragebogens erfasst. Die zusammengetragenen Daten wurden in einer Excel-Datentabelle ausgewertet und anschließend anhand des Chi-Quadrat-Vierfeldertests auf ihre statistische Signifikanz hin überprüft. Das Nichtschwangerenkollektiv, welches sich aus 197 Paaren zusammensetzte, wurde mit dem Schwangerenkollektiv, bestehend aus 35 Paaren, verglichen. Insgesamt wurden 475 Behandlungszyklen durchgeführt. Es kam insgesamt zu 36 Schwangerschaften (2 Schwangerschaften davon bei einem Paar nach Abort in der ersten Schwangerschaft), woraus eine Schwangerschaftsrate von 15,5 % resultiert und eine Wahrscheinlichkeit einer Schwangerschaft pro Behandlungszyklus 7,6 % errechnet wurde. Als die wichtigsten prognostischen Faktoren haben sich folgende Parameter herausgestellt. Erstens die Anzahl an schnell progressiven Spermien im Ejakulat. Es sollten mindestens 1 Million sein, sind weniger als 1 Millionen schnell progressiver Spermien vorhanden, kann mittels intrauteriner Insemination zwar eine Schwangerschaft erzielt werden, jedoch ist die Erfolgsaussicht deutlich geringer. Zweitens der Grad der Teratozoospermie. Eine moderate Teratozoospermie zeigte ein gutes Outcome bei der intrauterinen Insemination, wohingegen bei Paaren mit einer schweren Teratozoospermie die intrauterine Insemination kritisch betrachtet werden muss. In dieser Studie lag die Grenze bei 6 % Normalformen. Paaren mit mindestens 6 % Normalformen im Ejakulat kann zu einer intrauterinen Insemination geraten werden. Somit lässt sich zusammenfassend aus dieser Studie schlussfolgern, dass die intrauterine Insemination als eine im Vergleich zur IVF und ICSI relativ gering invasive und kostengünstige Methode bei moderater andrologischer Sterilität immer noch als Behandlung der ersten Wahl in Betracht kommt. Bei einer schweren männlichen Sterilität sollte die Indikation strenger gestellt werden und Alternativmethoden, wie z. B. die ICSI, als primäre Behandlungsoption zum Einsatz kommen.
Einleitung: Die allgemeine Häufigkeit der Hernien liegt bei 2 bis 4% der Bevölkerung, wobei etwa 75% Leistenhernien sind. Ziel dieser Studie war die Beschreibung der Morbidität nach standardisierter modifizierter Operation nach Lichtenstein mit Verwendung eines selbsthaftenden Netzes. Der Vergleich dieses Kollektivs mit Daten aus der Literatur, in welchen zur Behandlung einer Leistenhernie die herkömmliche Technik nach Lichtenstein angewandt wurde, stellte das sekundäre Studienziel dar. Material und Methoden: Ein von Juli 2007 bis Dezember 2007 therapiertes Patientengut aus 100 Männern und 11 Frauen des Herz-Jesu-Krankenhauses in Fulda wurde detailliert retrospektiv aufgearbeitet und mit den Ergebnissen anderer Arbeitsgruppen verglichen. Die Patienten wurden einmal nach sechs sowie ein weiteres Mal nach 12 Monaten einbestellt, untersucht und mittels standardisiertem Fragebogen zu ihrem postoperativen Verlauf befragt. Die Altersgrenzen zum Zeitpunkt der operativen Versorgung lagen bei 20 und 91 Jahren, der Altersmedian betrug 59. Die Operation nach Lichtenstein ist eines der bevorzugten Verfahren in der Leistenhernienchirurgie. Ergebnisse: Intraoperativ wurde bei 88 Patienten (79,3 %) der Nervus genitofemoralis geschont, bei 23 Patienten (20,7 %) wurde er durchtrennt. Die postoperativen Komplikationen wurden im eigenen Kollektiv unterteilt nach perioperativen (in den ersten 7 Tagen postoperativ), frühen (7. bis 28. Tag postoperativ) und späten Komplikationen (28. Tag bis 12. Monat postoperativ) erfasst. Nur bei einem Patienten kam es auf Grund eines behandlungspflichtigen Hämatoms zu einer unmittelbaren Komplikation. Kein Patient beklagte eine frühe Komplikation, jedoch kam es bei fünf Patienten zu späten Komplikationen. Vier Patienten klagten über ein Rezidiv. Die Diagnose Nervenkompressionssyndrom wurde bei insgesamt drei Patienten gestellt. Die Verbindung zu einer Durchtrennung des Nervus genitofemoralis konnte bei einem Patienten hergestellt werden. Der Median der Operationsdauer lag bei 35 Minuten. Durchschnitt (Mittelwert) betrug die Krankenhausverweildauer 2,2 Tage. Kein Patient verstarb im postoperativen Verlauf. Schlussfolgerung: Die in dieser Arbeit beschriebene modifizierte Lichtenstein-Technik ist eine Innovation der Hernienchirurgie. Der Einsatz eines teilresorbierbaren und selbstfixierenden Zweikomponenten-Maschengewebe aus monofilem Polypropylen und Polylaktatsäure stellt eine kleine Revolution der operativen Versorgung von Leistenhernien dar. Die ersten Ergebnisse zeigen im Vergleich mit Literaturangaben, dass insgesamt mit einer ähnlichen perioperativen Komplikationsrate zu rechnen ist. Momentan liegen erst Einjahreszahlen vor, daher muss auf eine abschließende Beurteilung, vor allem der postoperativen Schmerzsymptomatik sowie Rezidivrate, zum jetzigen Zeitpunkt verzichtet werden. Erfreulich ist das Fehlen von intraoperativen Komplikationen im eigenen Krankengut. Auch erscheint eine deutliche Reduktion der Operationsdauer bei mit der Technik vertrauten Operateuren möglich zu sein. Eine statistisch signifikante Reduktion der Rezidivhäufigkeit nach Lichtenstein-Eingriff konnte durch die neue Technik noch nicht beobachtet werden. Zur Zeit sind die in der Literatur beschriebenen Rezidivraten noch auf einem ähnlichen Niveau. Abschließend zeigt die Beurteilung der selbst erhobenen Daten und ihr Vergleich mit den angeführten Studien, dass der Einsatz eines selbsthaftenden Netzes bedenkenlos als Alternative zur Fixierung mittels Fibrinkleber, Naht- oder Klammermaterial empfohlen werden kann.
Die mikroskopische Anatomie sowie die pathologische Anatomie bilden einen wichtigen Baustein der Ausbildung von Medizin- und Zahnmedizinstudenten. Da die zeitlichen und personellen Kapazitäten in den Instituten für Pathologie bzw. Anatomie keine vierundzwanzigstündige Betreuung erlauben, bestand der Wunsch, ein zeit- und ortsunabhängiges webbasiertes und interaktives multimediales Lernprogramm zu entwickeln. Es sollte den Studierenden beim Erlernen der Histologie und Histopathologie helfen und die Präsenzveranstaltungen am Mikroskop und Vorlesungen Ergänzen. Das Lernprogramm wurde mit zahlreichen hochauflösenden Bildern aller histologischen Präparate, die Bestandteil der Histologie- und Histopathologiekurse sind, in verschiedenen Vergrößerungen ausgestattet und in die Kurse des Frankfurter Curriculum für Medizin- und Zahnmedizin integriert. Darüber hinaus wurden alle histologischen Webseiten mit den entsprechenden histopathologischen Seiten verlinkt und umgekehrt. Ein Autorensystem zur Aktualisierung, Korrektur und Erweiterung der Programme wurde entwickelt. Mit der Hilfe der Evaluation durch die Studierenden wurde das System im Verlauf stark verbessert. Die hohe Zahl der Zugriffe auf die Website über das Internet (500.000 – 800.000 im Monat) weist auf die hohe Akzeptanz und Beliebtheit des Programms hin. Im wesentlichen zeigt die vorliegende Arbeit, dass internet-basierte Multimedia-Projekte von Studierenden verwendet werden und ihnen helfen, komplexe Sachverhalte der Histologie und Histopathologie zu erlernen. Die enge Verzahnung zwischen histologischen und histopathologischen Themen und Präparaten ermöglicht Studierenden der vorklinischen Fächer, über krankheitsbedingte Veränderungen zu erfahren, Studierende der klinischen Fächer hingegen können das histologische Basiswissen rekapitulieren. Das Autorensystem kann zur Entwicklung weiterer webbasierter Anwendungen, wie z. B. Virtuelle Mikroskopie oder Wissensprüfungsprogramme für die Histologie/Histopathologie, verwendet werden.
Die vorliegende Promotionsarbeit fokussiert auf das transfusionsbedingte Infektionsrisiko bezüglich Hepatitis B-Virus Infektionen. Da das Restinfektionsrisiko bezüglich Hepatitis B deutlich höher als das Restinfektionsrisiko bezüglich Hepatitis C oder HIV-Virus Infektionen anzusehen ist, konzentriert sich die vorliegende Arbeit auf den Stellenwert von Anti-HBc Antikörper für das Blutspenderscreening. In der vorliegenden Arbeit wurden zunächst unterschiedliche Anti-HBs Screening Assays synoptisch bezüglich der Sensitivität und Spezifität sowie anderer Test-Parameter miteinander verglichen und die Prävalenz und Infektiosität Anti-HBc-Ak positiver Blutspenden des Blutspendedienstes Hessen / Baden-Württemberg untersucht. Anschließend erfolgte eine Screening an fünf unterschiedlichen Standorten in Deutschland zur Prävalenz von Anti-HBc sowie zum Prozentsatz von chronisch infizierten Hepatitis B positiven Spendern. Anhand von Lookback Untersuchungen von chronisch infizierten Anti-HBc positiven und HBV DNA positiven Spendern konnte untersucht werden, inwieweit die Transfusion dieser niedrig virämischen Spender zu einer Übertragung von Hepatitis B in der Vergangenheit geführt hat. Darüber hinaus wurde eine Fall-Kontroll-Studie durchgeführt, mit der Fragestellung, inwieweit allein das Vorhandensein von Hepatitis B Antikörper (Anti-HBc Antikörper und Anti-HBe Antikörper) ohne Nachweis von HBV DNA, bereits ein erhöhtes Transfusionsrisiko darstellt. Zusätzlich wurden Daten bezüglich der heutigen Relevanz der HBs-Ag Testung im Blutspendewesen erhoben. Anschließend wurden alle drei für die Doktorarbeit relevanten Screeningparameter bezüglich Hepatitis B für das Blutspenderscreening (HBV Minipool PCR, HBs-Ag Test und Anti-HBc Test) bezüglich der Kosten pro gewonnenen QALY (Quality Adjusted Life Years) berechnet und wieder synoptisch miteinander verglichen. In der abschließenden Diskussion wurden unterschiedliche Screening Szenarien auf ihre Wertigkeit bezüglich der Sicherheit der Blutprodukte sowie auf ihre Kosten-Nutzen-Analyse hin betrachtet. Festgestellt wurde, dass durch die Anti-HBc-Ak Diagnostik im Blutspendewesen eine erhöhte Sicherheit bezüglich einer transfusionsbedingten HBV Transmission erzielt werden kann. Unter ca. 1,4 Millionen untersuchten Spendern konnten 21 HBV DNA positive Spender (alle niedrige HBV DNA Konzentrationen) ermittelt werden. Bei keinem der jeweiligen Empfänger konnte eine Infektion bestätigt werden, bei einem wäre sie möglich gewesen. Dabei konnte gezeigt werden, dass sich das PRISM® HBcore™ Testsystem wegen guter Sensitivität aber auch gleichzeitig guter Spezifität (signifikant besser als PRISM® HBc™) am besten zur Anti-HBc-Ak Routinetestung im Blutspendedienst eignet und selbst bei sehr hohem Probenaufkommen bewährt hat. Im Vergleich unterschiedlicher Testsysteme hatte der AxSym® CORE™ die höchste analytische Sensitivität, im weiteren Vergleich schnitten die untersuchten Assays annähernd gleich ab, zwischen dem PRISM® HBcore™ und PRISM® HBc™ konnte kein weiterer signifikanter Unterschied festgestellt werden. Des weiteren konnte gezeigt werden, dass Anti-HBc-Ak einen guten und sinnvollen Parameter zur HBV Diagnostik darstellt, der, in Verbindung mit der Pool-PCR, eventuell sogar die HBs-Ag Testung abzulösen in der Lage ist. Anhand der im Rahmen dieser Studie erhobenen Daten wären alle HBs-Ag positiven Blutprodukte auch mittels der Pool-PCR und Anti-HBc-Ak Diagnostik identifiziert worden. Darüber hinaus wurden einige HBV positive Blutprodukte mit diesen Verfahren erkannt, die mittels der klassischen HBs-Ag Testung übersehen worden wären. Bestätigt Anti-HBc-Ak positive Spender lassen sich anhand zusätzlicher serologischer Parameter (Anti-HBe-Ak und Anti-HBs-Ak) und wiederholter Testung bestimmen und so auch bestätigen; Die gemessenen S/CO-Werte der einzelnen untersuchten Testsysteme sind in der Lage einen Hinweis auf eine mögliche unspezifische Anti-HBc-Ak Reaktivität geben, so dass in Verbindung mit zusätzlichen HBV Parametern (z.B. Anti-HBe-Ak), die Richtigkeit des Ergebnisses besser eingeschätzt werden kann. Mittels Testung auf weitere HBV Marker (Einzelproben-PCR, Anti-HBs-Ak) können, wie es bereits gesetzlich geregelt wurde, Anti-HBc-Ak positive Blutprodukte durch ein „Re-Entry“ Verfahren wieder der Patientenverwendung zugeführt werden, ohne das HBV Transmissionsrisiko zu erhöhen. Die vorliegende Studie bestätigt diese Annnahme: Es konnte keine einzige HBV Transmission durch Anti-HBc-Ak positives Blut bewiesen werden, welches HBV PCR negativ (Sens. < 5,6 IU/ml) war. Die Prävalenz der Anti-HBc-Ak positiven Blutspender betrug vor Einführung der Anti-HBc-Ak Testung ca. 1,61%, im Spenderkollektiv wird sie aber wegen Selektionierung in den nächsten Jahren stark rückläufig sein.
Die mediane Sternotomie ist in der Kardio-Chirurgie der wichtigste Zugang zum Herzen. Postoperative Wundheilungsstörungen in diesem Bereich sind seltene, jedoch gefürchtete Komplikationen, die zu schwerwiegenden Konsequenzen führen können. Die zunächst einfache oberflächliche Wundheilungsstörung kann sich verkomplizieren und über eine Osteomyelitis des Sternums zu einer Mediastinitis mit eventuell letalen Konsequenzen führen. Aktuell geben unterschiedliche Autoren eine Inzidenz von 1 % – 8 % an. Die Mortalität der Sternumosteitis wird dabei zwischen 10 % und 30 % angegeben. Wird der Pathomechanismus der Erkrankung zu einem Algorithmus zusammengefasst, so kann sich über einen descendierenden Verlauf eine oberflächliche Wundheilungsstörung zu einer Sternumosteitis und schließlich zu einer Mediastinitis entwickeln. Natürlich kann sich die Infektion auch ascendierend ausbreiten. Über eine Infektion des Mediastinums oder des Sternums kann sich eine Infektion über die Weichteile bis an die Körperoberfläche ausdehnen. Der typische Patient, der eine Wundheilungsstörung erleidet ist in aller Regel polymorbide. Besonders bei diesem Patientenkollektiv sind eine kurze Behandlungsdauer und eine schnelle, postoperative Rehabilitation für das Ergebnis vorrangig. Ist der gewählte Therapieplan nicht aggressiv genug, so kommt es häufig zu chronischen Erkrankungen mit Fistelungen und einem konsekutiven Fortschreiten der Infektion in Weichteilen und Knochen. Neben medizinischen Gesichtspunkten kommen auch der wirtschaftliche Aspekte zu tragen. Wiederholte Operationen, lange Liegezeiten auf der Intensivstation und wiederholte sowie langwierige Rehabilitationsphasen sind nur wenige Beispiele der kostenintensiven Therapiebestandteile. Aufgrund der schwer beherrschbaren Infektsituation ist eine konsequent aggressive, definitive und zuverlässige Versorgung der infizierten Wunden von höchster Priorität. Dabei spielt es keine Rolle, ob es sich dabei um Wundheilungsstörungen im Bereich der Haut- und Unterhautweichteile, des Sternums oder des Mediastinums handelt. Zur Behandlung der Wundheilungsstörung nach medianer Sternotomie existieren verschiedene Behandlungsansätze und Therapieoptionen. Diese reichen von einfachen Debridements mit Sekundärvernähungen über Spül-Saug-Drainagen mit Antibiotika versetzen Lösungen bis hin zu Sternumteilresektionen, Vakuumverbänden und komplexen Lappenplastiken. ...
Die Applikation von Medikamenten zur konservativen Behandlung von Patientinnen mit ektopen Schwangerschaften ist weltweit seit vielen Jahren im klinischen Alltag erfolgreich eingesetzt worden. Am erfolgreichsten zeigte sich über die Jahre, die medikamentöse Methotrexatgabe. Dies wurde eindrucksvoll in in-vivo und in in-vitro Studien bewiesen. Ausgangsbedingungen für die vorliegende Untersuchung sind die zahlreichen experimentellen Untersuchungen zur Wirkung von Prostaglandinen auf den mütterlichen Organismus (speziell glatte Muskelzellen der Blutgefäße, des Uterus und Tubenmuskulatur sowie das Corpus luteum) und die zahlreichen klinischen Fallberichte und Studien zur Anwendung von Prostaglandinen zur Behandlung der EUG. In vitro Studien zu der Wirkweise von Prostaglandinen auf ektopes Schwangerschaftsgewebe gibt es nur in geringer Zahl. Da Prostaglandin E2 in der Geburtshilfe einen festen Platz in der Geburtsinduktion und Zervixreifung hat, haben wir Prostaglandin E2 in vitro auf seine Wirkung auf ektopes Trophoblastengewebe untersucht. In der hier vorgelegten Arbeit sollte die Fragestellung überprüft werden, inwieweit eine medikamentöse Wirkung von Prostaglandin E2 Dinoproston auf Trophoblastengewebe aus extrauterinen Schwangerschaften in einem standardisierten Gewebekultursystem besteht. Aus operativ gewonnenen Extrauteringraviditäten des ersten Trimenons wurde Choriongewebe extrahiert, und in unterschiedlichen Konzentrationen der Wirkstoff Prostaglandin E2 Dinoproston 12 Stunden nach Kulturansatz den Gewebekulturen zugesetzt. Eine weitere Choriongewebekulturzellreihe wurde erst am 6. Tag mit Prostaglandin E2 behandelt. Das durch die Throphoblastenzellen sezernierte Humane Chorion Gonadotropin (HCG) wurde den Kulturen alle zwei Tage entnommen und gemessen. Alle Kulturen zeigten Sekretion von HCG innerhalb der ersten 16 Tage. Das Ergebnis dieser Versuchsreihen zeigte, dass weder die unterschiedlichen Prostaglandin E2-Konzentrationen, noch der Zeitpunkt der Zugabe, eine signifikante Auswirkung auf die HCG Sekretion von ektopen Schwangerschaften hat. Die Kontrollgruppe mit intrauterinem Trophoblastenmaterial bestätigt die fehlende Wirkung auf Throphoblastengewebe in der Zellkultur.
Despite sensible guidelines for the use of opioid analgesics, respiratory depression remains a significant risk with a possibility of fatal outcomes. Clinicians need to find a balance of analgesia with manageable respiratory effects. The ampakine CX717 (Cortex Pharmaceuticals, Irvine, CA, USA), an allosteric enhancer of glutamate-stimulated AMPA receptor activation, has been shown to counteract opioid-induced respiratory depression in rats while preserving opioid-induced analgesia. Adopting a translational approach, we orally administered 1500 mg of CX717 to 16 male healthy volunteers in a placebo controlled double-blind study. Starting 100 min after CX717 or placebo intake, alfentanil was administered by computerized intravenous infusion targeting a plateau of effective alfentanil plasma concentrations of 100 ng/ml. One hour after start of opioid infusion, its effects were antagonized by intravenous injection of 1.6 mg of the classical opioid antidote naloxone. Respiration was quantified prior to drug administration (baseline), during alfentanil infusion and after naloxone administration by (i) counting the spontaneous respiratory frequency at rest and (ii) by employing hypercapnic challenge with CO2 rebreathing that assessed the expiratory volume at a carbon dioxide concentration in the breathable air of 55% (VE55). Pain was quantified at the same time points, immediately after assessment of respiratory parameters, by (i) measuring the tolerance to electrical stimuli (5 Hz sine increased by 0.2 mA/s from 0 to 20 mA and applied via two gold electrodes placed on the medial and lateral side of the mid-phalanx of the right middle finger) and (ii) by measuring the tolerance to heat (increased by 0.3°C/s from 32 to 52.5°C applied to a 3 x 3 cm2 skin area of the left volar forearm, after sensitization with 0.15 g capsaicin cream 0.1%). CX717 was tolerated by all subjects without side effects that would have required medical intervention. We observed that CX717 was approximately as effective as naloxone in reversing the opioid induced reduction of the respiratory frequency. Despite the presence of high plasma alfentanil concentrations, the respiratory frequency decreased only by 8.9 ± 22.4% when CX717 was pre-administered, which was comparable to the 7.0 ± 19.3% decrease observed after administration of naloxone. In contrast, after placebo pre-administration the respiratory rate decreased by 30.0 ± 21.3% (p=0.0054 for CX717 versus placebo). In agreement with this, periods of a very low respiratory frequency of <= 4 min-1 under alfentanil alone were shortened by ampakine pre-dosing by 52.9% (p=0.0182 for CX717 versus placebo). Furthermore, VE55 was decreased during alfentanil infusion by 55.9 ± 16.7% under placebo preadministration but only by 46.0 ± 18.1% under CX717 pre-administration (p=0.017 for CX717 versus placebo). Most importantly, in contrast to naloxone, CX717 had no effect on opioid induced analgesia. Alfentanil increased the pain tolerance to electrical stimuli by 68.7 ± 59.5% with placebo pre-administration. With CX717 pre-administration, the increase of the electrical pain tolerance was similar (54.6 ± 56.7%, p=0.1 for CX717 versus placebo). Similarly, alfentanil increased the heat pain tolerance threshold by 24.6 ± 10.0% with placebo pre-administration. Ampakine co-administration had also no effect on the increase of the heat pain tolerance of the capsaicin-sensitized skin (23.1 ± 8.3%, p=0.46 for CX717 versus placebo). The results of this study allow us to draw the conclusion, that opioid induced ventilatory depression can be selectively antagonized in humans by co-administering an ampakine. This is the first successful translation of a selective antagonism of opioidinduced respiratory depression from animal research into application in humans. Ampakines, namely CX717, thus are the first selective antidote for opioid-induced respiratory depression without loss of analgesia, available for the use in humans.
Die Diskussion um die Patientenverfügung in der Bundesrepublik Deutschland geht bis in die 1970er Jahre zurück, seit Mitte der 90er Jahre nahm sie an Intensität zu. Meilensteine ihrer Entwicklung waren die Entscheidungen des BGH im Kempten-Fall (1994), im Frankfurter Fall (1998) und im Lübeck-Fall (2003). Nach dem Lübeck-Fall mehrten sich die Stimmen, wonach der Gesetzgeber das Betreuungsrecht ändern und die Patientenverfügung gesetzlich verankern sollte. Ein Entwurf des Bundesjustizministeriums aus dem Jahr 2004 erreichte jedoch nicht den Deutschen Bundestag, er wurde dem Gesetzesentwurf unter der Leitung von Joachim Stünker angegliedert. Erst Anfang des Jahres 2007 erhielt die Diskussion mit einer Orientierungsdebatte Einzug in das Deutsche Parlament. In den Jahren 2007 bis 2008 wurden dann drei Gesetzesentwürfe zum Thema Patientenverfügung in den Bundestag eingebracht. Der erste Entwurf wurde im Mai 2007 unter Federführung von Wolfgang Bosbach (CDU) veröffentlicht. In ihm waren Formvorschriften für die Patientenverfügung verankert. Diese müsse in schriftlicher Form vorliegen sowie eine Unterschrift oder ein notariell beglaubigtes Handzeichen enthalten. Ein Widerruf der Patientenverfügung wäre jederzeit und ohne weiteres sowohl mündlich als auch zum Beispiel durch Gesten möglich gewesen. Der Gesetzesentwurf beinhaltete eine Reichweitenbegrenzung. Eine lebensverlängernde Maßnahme hätte demnach nur abgebrochen beziehungsweise nicht eingeleitet werden dürfen, wenn der Patient ein irreversibel zum Tode führendes Grundleiden gehabt hätte oder mit an Sicherheit grenzender Wahrscheinlichkeit das Bewusstsein nicht wiedererlangen würde. Eine unmittelbare Todesnähe wäre nicht notwendig gewesen. Ende 2008 wurde dieser Entwurf basierend auf einem Änderungsantrag unter Federführung von Katrin Göring-Eckardt (Bündnis90/Die Grünen) modifiziert. Es sollte ein zweistufiges Modell geben. Für eine Patientenverfügung mit Reichweitenbegrenzung sollten die gleichen Formvoraussetzungen wie im bisherigen Entwurf gelten, es sollte jedoch auch eine Patientenverfügung ohne Reichweitenbegrenzung möglich sein, für die schärfere Voraussetzungen gelten sollten, zum Beispiel eine regelmäßige Aktualisierungs- und Beratungspflicht. Ein zweiter Gesetzesentwurf entstand unter Federführung von Wolfgang Zöller (CSU) im Jahre 2007. Dieser Entwurf sah keine Reichweitenbegrenzung vor. Die Patientenverfügung sollte unabhängig von Art und Stadium der Erkrankung gelten. Weiterhin wären nicht nur schriftliche Verfügungen möglich gewesen, auch Tonträger oder Videos wären zu berücksichtigen gewesen, wenn sie eindeutig den Willen des Patienten gespiegelt hätten. Das Vormundschaftsgericht hätte nur bei Dissens zwischen Arzt und Betreuer eingeschaltet werden müssen, allerdings hätte es in diesem Fall das Gutachten eines Sachverständigen einholen müssen. Ein dritter Antrag wurde 2007 unter Federführung von Joachim Stünker (SPD) erarbeitet und im Jahre 2008 veröffentlicht. Auch dieser Gesetzesentwurf sah keine Reichweitenbegrenzung vor, eine Patientenverfügung sollte unabhängig von Art und Stadium der Erkrankung gelten können mit der formalen Voraussetzung der Schriftform. Das Vormundschaftsgericht sollte lediglich bei einem Dissens zwischen Arzt und Betreuer eingeschaltet werden, es müsste jedoch im Gegensatz zum Zöller-Entwurf vor seiner Entscheidung kein Gutachten einholen. In allen drei Entwürfen sollten jeweils §§ 1901 und 1904 BGB geändert werden. Am 29.05.2009 wurde unter der Leitung von Hubert Hüppe (CDU) zusätzlich ein Antrag auf Verzicht auf ein Gesetz eingebracht. Am 18.06.2009 entschied sich die Mehrheit des Bundestages für den Gesetzesentwurf der Gruppe um Joachim Stünker. Die anwesenden Abgeordneten der SPD, der FDP und der Partei Die Linke stimmten zum großen Teil für den Stünker-Entwurf und sicherten so die Mehrheit, die Vertreter der CDU/CSU stimmten mit nur einer Ausnahme gegen diesen Entwurf, fünf Abgeordnete enthielten sich bei dieser Abstimmung. Die Rolle des Betreuers gewann mit der Verabschiedung des Gesetzes an Bedeutung. Das Gesetz sieht vor, dass der Betreuer anhand der Patientenverfügung (bei Nichtvorliegen anhand des mutmaßlichen Willens des Betreuten) prüfen muss, ob „ diese Festlegungen auf die aktuelle Lebens- und Behandlungssituation zutreffen“297. Das Vormundschaftsgericht muss nur eingeschaltet werden, wenn zwischen behandelndem Arzt und Betreuer ein Dissens über die Behandlung des Betreuten beziehungsweise den Abbruch einer lebensverlängernden Maßnahme herrscht.
Borrelia lusitaniae, eine vorwiegend im Mittelmeerraum/ Südwesteuropa vorkommende Borrelienspezies des B. burgdorferi s.l.-Komplexes, wird derzeit als eine potentiell humanpathogene Genospezies diskutiert. Für vergleichende Studien stehen derzeit vorwiegend Zeckenisolate und nur zwei Patientenisolate zur Verfügung. Im Rahmen dieser Arbeit wurden insgesamt 16 Isolate, darunter ein Patientenisolat aus verschiedenen Regionen Portugals und Süddeutschlands im Bezug auf ihre Serumempfindlichkeit/-resistenz gegenüber humanem Serum und der Fähigkeit Komplementregulatoren aus Serum zu binden, untersucht. Anhand der erhaltenen Ergebnisse konnte gezeigt werden, dass B. lusitaniae, mit Ausnahme des Stammes IP-N1, als serumsensible Genospezies klassifiziert werden kann. Alle Isolate aktivierten die Komplementkaskade hauptsächlich über den alternativen Weg wobei massiv Komplementkomponenten auf der Zelloberfläche deponiert wurden. Die effiziente Aktivierung und Ablagerung des terminalen Komplementkomplexes führte zur vermehrten Ausbildung sogenannter Blebs, Ausstülpungen der äußeren Membran, was auf eine effiziente Lyse der Borrelienzellen hinwies. Obwohl serumsensibel, waren alle Isolate in der Lage, den löslichen Komplementregulator des alternativen Weges, Faktor H aus dem Serum zu binden. Allerdings konnte nur bei 4 der 16 untersuchten Isolate eine schwache komplementregulatorische Aktivität von zellgebundenem Faktor H durch den Nachweis spezifischer C3b-Spaltprodukte bestätigt werden. Diese Ergebnisse lassen vermuten, dass Faktor H in seiner Eigenschaft als Komplementregulator inhibiert ist. Durch weiterführende Analysen konnte ein Faktor H-bindendes Protein von 16 kD bei B. lusitaniae MT-M8 identifiziert und charakterisiert werden. Dieses als BlCRASP-3 bezeichnete Protein war in der Lage, Faktor H über dessen C-terminale SCR-Domänen 19-20 zu binden. Im Vergleich zu anderen mit Faktor H interagierenden Proteinen war die Bindung sehr schwach und erreichte nur ca. 16% der Bindungsstärke von BbCRASP-3, was eine nicht nachweisbare Kofaktoraktivität von an BlCRASP-3 gebundenem Faktor H erklären könnte. Sequenzanalysen und Untersuchungen mit verschiedenen Proteasen identifizierten BlCRASP-3 als ein auf der Oberfläche von B. lusitaniae lokalisiertes Lipoprotein, welches eindeutig zur heterologen Erp-Proteinfamilie gehört. Interessanterweise ist bei BlCRASP-3 jener Bereich am C-Terminus konserviert, der als Faktor H-Bindungsstelle erachtet wird. Die nicht konservierten Austausche einzelner Aminosäuren innerhalb der vermuteten Bindungsregion und das Fehlen höher geordneter Strukturen, wie z.B. coiled-coils, könnten die stark reduzierte Bindungskapazität von Faktor H an BlCRASP-3 erklären. Zusammenfassend lässt sich feststellen, dass die schwache Bindung von Faktor H und die Inhibition der komplementregulatorischen Aktivität von Faktor H, als Ursachen für den fehlenden Schutz vor der durch Komplement vermittelten Lyse angenommen werden kann, wodurch die untersuchten B. lusitaniae-Isolate einen serumsensiblen Phänotyp aufweisen. Des Weiteren konnten bei allen untersuchten B. lusitaniae Isolaten erp-homologe Gensequenzen auf Plasmiden unterschiedlicher Größe nachgewiesen werden. Manche Isolate wiesen multiple erp-Loci auf. Durch PCR konnten erp-homologe Gensequenzen amplifiziert werden, die für ErpL/ErpY-orthologe Proteine kodieren und nicht mit Faktor H interagieren. Welche Funktion diese Proteine für Borrelien besitzen bleibt weiterhin ungeklärt. Es ist denkbar, dass diese Proteine bei der Erregerpersistenz oder dem Immunescape in der Eidechse als natürlichem Wirt eine wichtigen Rolle spielen oder Borrelien ermöglichen, sich an andere Reservoirwirte anzupassen.
Einleitung: Eine frühe Unterscheidung zwischen ischämischem Schlaganfall und intrazerebraler Blutung durch die Verwendung eines Biomarker-Tests könnte bereits in der prähospitalen Phase eine fallspezifische Akuttherapie ermöglichen. Basierend auf einzelnen Messungen in der Akutphase des Schlaganfalls konnten wir zeigen, dass ein Anstieg des sauren glialen Faserproteins (GFAP) im peripheren Blut von Patienten mit intrezerebraler Blutung wesentlich früher messbar ist als bei Patienten mit ischämischem Schlaganfall. Das Ziel der vorliegenden Studie war, das diagnostische Zeitfenster des Serum- GFAP- Spiegels zur Differenzierung zwischen intrazerebralen Blutung und ischämischen Schlaganfall zu charakterisieren. Materialien und Methoden: In diese prospektive Studie wurden 63 Schlaganfallpatienten eingeschlossen, die innerhalb von 6 Stunden nach Symptombeginn in der Klinik eintrafen. Mithilfe bildgebender Verfahren wurde bei 18 dieser Patienten eine intrazerebrale Blutung und bei 45 der Patienten ein ischämischer Schlaganfall diagnostiziert. Zu den Zeitpunkten von 1, 2, 3, 4, 6, 12, 24 und 48 Stunden nach Symptombeginn wurden den Patienten Blutproben entnommen (wenn sie zu dieser Zeit zur Verfügung standen). Im Serum dieser Proben wurde mittels eines ELISA-Tests die GFAP-Konzentration bestimmt. Ergebnisse: Innerhalb der ersten 24 Stunden nach Symptombeginn blieben die medianen GFAP-Werte im Serum der Ischämie-Patienten unterhalb der Nachweisgrenze. Die GFAP-Konzentrationen im Serum von Patienten mit intrazerebraler Blutung hingegen waren bereits im Zeitraum zwischen 2 und 6 Stunden nach Symptombeginn signifikant höher als beim ischämischen Schlaganfall. (p<0,001 für alle 4 Zeitpunkte). Unter der Verwendung der receiver operating characteristic curve Analyse lag die diagnostische Sicherheit von GFAP zur Differenzierung zwischen ischämischem und intrazerebraler Blutung bei >0,80 innerhalb des 2-6 Stunden Zeitfensters. Die GFAP-Werte von Patienten mit intrazerebraler Blutung korrelierten zum Zeitpunkt zwei Stunden nach Symptombeginn mit dem Blutungsvolumen (r=0,755, p=0,007). Zusammenfassung: In dieser Untersuchung konnte gezeigt werden, dass das Zeitfenster von 2-6 Stunden nach Symptombeginn bezüglich der Verwendung eines GFAP-Tests für die Differenzierung zwischen ischämischem Schlaganfall und intrazerebraler Blutung geeignet zu sein scheint. In der sehr frühen Phase des Schlaganfalls (etwa <2 Stunden) ist die Sensitivität des Tests zur Erkennung intrazerebraler Blutungen jedoch eher gering, was die Verwendung eines GFAP-Tests in der prähospitalen Phase limitiert.
Nicht hämolytische Transfusionsreaktionen (NHTR) sind eine häufige Komplikation der Transfusion von Blut und Blutkomponenten. Als Ursachen der NHTR gelten sowohl von Leukozyten freigesetzte Zytokine, die in den Blutkomponenten enthalten sind und während der Herstellung und Lagerung freigesetzt werden, als auch durch HLA-Antikörper verursachte Reaktionen gegen Leukozytenantigene. Im Rahmen eines etablierten Hämovigilanz-Systems werden NHTR dem Blutspendedienst gemeldet. Mit den daraufhin durchgeführten Untersuchungen kann die Ursache der Transfusionsreaktion in vielen Fällen nicht geklärt werden. In der vorliegenden Arbeit wurden daher die in den 10 Jahren von 1996 – 2006 gemeldeten NHTR systematisch in Bezug auf die Häufigkeit und die festgestellten Ursachen ausgewertet. Insgesamt wurden im o.g. Zeitraum 1595 Transfusionsreaktionen gemeldet, was einer Häufigkeit von 0,05% aller Transfusionen entsprach. Vor Einführung der Leukozytendepletion (2001) waren Erythrozytenkonzentrate – im Untersuchungszeitraum von 1996 – 1998 – signifikant häufiger mit einer NHTR assoziiert (4,09/10.000 Transfusionen) als Thrombozytenkonzentrate (2,64/10.000 Transfusionen) oder gefrorenes Frischplasma (2,05/10.000 Transfusionen). Vermutlich ist diese höhere NHTR-Rate bei Erythrozytenkonzentraten auf die relativ hohe Kontamination mit Leukozyten zurückzuführen. Allerdings ging die Anzahl der nicht hämolytischen Transfusionsreaktionen im Institut Frankfurt insgesamt nach Einführung der Leukozytendepletion nicht zurück. Im Gegenteil war die Häufigkeit nach Einführung der Leukozytenfiltration (5,66/10.000 Transfusionen) sogar höher als vorher (4,43/10.000 Transfusionen). Dies könnte darauf zurückzuführen sein, dass durch die gleichzeitige Einführung der gesetzlich vorgeschriebenen Meldepflicht mehr NHTR gemeldet wurden. Als weitere mögliche Ursachen einer Transfusionsreaktion wurden das in Blutbeuteln vorhandene Allergen Di(-2-ethylhexyl)phtalat (DEHP) und das in Infusionssystemen enthaltene Allergen Toluylen-2,4-diisocyanat (TDI) angesehen. Beide können im Rahmen einer Bluttransfusion den Patienten übertragen werden. Hierzu wurden 154 NHTR auf spezifische IgE-Antikörper gegen Phthalsäureanhydrid und TDI untersucht. In einem Fall konnten spezifische Antikörper gegen Phthalsäureanhydrid (CAP-Klasse 2) und in einem weiteren Fall gegen TDI (CAP-Klasse 2) ermittelt werden. Hieraus konnte jedoch nicht retrospektiv geschlossen werden, dass der jeweils vorliegende Antikörper für die NHTR verantwortlich war. Neben diesen beiden positiv getesteten Fällen wurden zusätzlich ausgewählte Transfusionsempfänger mit einer frischen und nicht geklärten NHTR (n = 12) in vitro mit verschiedenen Konzentrationen von DEHP und TDI restimuliert. In keinem der Fälle führte die Restimulation mit DEHP und TDI zu einer Degranulation basophiler Granulozyten als Ausdruck einer allergischen Reaktion. Eine allergische Reaktion von Transfusionsempfängern gegen in Beuteln oder Transfusionsbestecken enthaltenes DEHP oder TDI kann somit zwar nicht sicher ausgeschlossen werden, scheint aber als Ursache für bisher ungeklärte NHTR keine signifikante Rolle zu spielen.
Verschiedene Studien konnten bereits demonstrieren, dass Versuchspersonen dazu tendieren, ihre Aufmerksamkeit eher zu Gesichtern mit bedrohlichem Ausdruck als zu solchen mit neutralem Ausdruck zu orientieren. In der vorliegenden Studie wurde mittels neurokognitiver Verhaltensexperimente versucht, diesen als „Attentional Bias“ in Millisekunden messbaren Ef-fekt zu replizieren und unter Wahrnehmungsbedingungen von unbewusst bis bewusst zu un-tersuchen. Entscheidend war hierbei, in wie weit die verschiedenen Wahrnehmungsbedingun-gen zu einem Attentional Bias unterschiedlicher Stärke oder sogar verschiedener Polarität führen, i.e. einer Hinwendung oder einer Abwendung der Aufmerksamkeit gegenüber bedrohlichen Gesichtern. Die Gegenüberstellung von bewusster und unbewusster Wahrnehmung bedrohlicher Gesichter stand hierbei im Kontext der Hypothese, dass unbewusst und bewusst wahrgenommene bedrohliche Gesichter über zwei verschiedene neuroanatomische Wege verarbeitet werden und deshalb die Orientierung der Aufmerksamkeit unterschiedlich beeinflussen. Zur Messung des Attentional Bias wurde die „Dot-Probe-Aufgabe“ verwendet. Um die verschiedenen Wahrnehmungsbedingungen zu stellen wurden dabei vier verschiedene Präsenta-tionszeiten (17, 34, 100 und 400 ms) sowie die Technik der Rückwärtsmaskierung benutzt. Da in anderen Studien häufig ein Einfluss der Ängstlichkeit von Probanden auf deren Aufmerksamkeitsorientierung dargestellt werden konnte, wurde auch eine Gruppierung der Probanden in hoch-, niedrig- und durchschnittlich ängstliche vollzogen; dies jedoch primär in dem Interesse, die Ängstlichkeit als entscheidende Einflussgröße ausschließen und möglichst allgemeingültige Aussagen machen zu können. Unter unbewusster Wahrnehmung (17 ms Präsentationszeit) zeigte sich ein signifikanter, negativer Attentional Bias von -5,46 ms (t (29) = -2,57, p = 0,02), hingegen waren die Attentional Bias-Werte bei den längeren Präsentationszeiten nicht signifikant von Null verschieden. Für die Präsentationszeit als eigener Faktor zeigte sich ein marginal signifikanter Einfluss auf den Attentional Bias (F (3, 87) = 2,20, p = 0,09). Die nach Gruppierung der Probanden in über-, unter- und durchschnittlich ängstliche erfolgte Auswertung konnte sowohl für die unter- wie auch die überdurchschnittlich ängstlichen Probanden (nicht jedoch für die durchschnittlich ängstlichen) einen Trend zu einer Abwendung der Aufmerksamkeit von bedrohlichen Gesichtern bei unbewusster Wahrnehmung zeigen. Angesichts dieses Befundes bleibt offen, wie sehr die Gesamtergebnisse gerade durch diese Gruppen geprägt worden sind. Die Ergebnisse lassen darauf schließen, dass unter Bedingungen unbewusster Wahrnehmung bedrohliche Gesichter zu einer Abwendung der Aufmerksamkeit (negativer Attentional Bias) führen. Dies steht im klaren Kontrast zu den Ergebnissen von Mogg und Bradley (1999a) und Fox (2002). Es wird somit in Frage gestellt, dass bedrohliche Gesichter bei unbewusster Wahrnehmung Aufmerksamkeit auf sich ziehen und nicht zu einer Abwendung dieser führen. Weiter deuten die Ergebnisse darauf hin, dass bei zunehmendem Einfluss bewusster Wahrnehmung zwischen bedrohlichen und neutralen Gesichtern kein Unterschied bezüglich ihrer Wirkung auf die Aufmerksamkeitsorientierung besteht. Verschiedene Ansätze werden hier als mögliche Erklärung eines negativen Attentional Bias bei unbewusster Wahrnehmung diskutiert. Die unterschiedliche Richtung der Aufmerksamkeitsorientierung unter bewusster im Vergleich zu unbewusster Wahrnehmung spricht für eine frühe, unbewusst erfolgende, grobe Ver-arbeitung bedrohlicher Gesichter, sowie eine später erfolgende, komplexere Verarbeitung die-ser, welche mit einer Neubewertung einhergeht. Im Kontext der bestehenden Literatur macht das Ergebnis der Studie deutlich, dass die Zusammenhänge zwischen der Orientierung unserer Aufmerksamkeit, emotionalen visuellen Eindrücken und unserem Bewusstsein noch nicht ausreichend geklärt sind. Es bedarf weiterer Forschung
In der vorliegenden Arbeit zur Bestandsaufnahme der Debatte um den ärztlich assistierten Suizid werden vier Kernprobleme untersucht und eine abschließende Stellungnahme vorgelegt: (1) Ein Einblick in strafrechtliche und standesrechtliche Regelungen zeigt, dass die Gesetzeslage ebenso Raum für Unsicherheiten und Ungewissheit über eine drohende Strafe lässt wie auch die standesrechtliche, in den Bundesländern uneinheitliche Handhabung. Vor allem ist die Berechtigung zum Entzug der Approbation unterschiedlich geregelt. Um darüber Klarheit zu erreichen, wurde eine entsprechende Anfrage an die Justiziare der Landesärztekammern gerichtet. Insgesamt war die Bereitschaft zur Antwort groß, die Aussagen sind jedoch generell nicht eindeutig, so dass die berufsrechtliche Lage nach wie vor und wenig transparent bleibt. (2) Im Überblick dieser Arbeit fällt die Diskrepanz zwischen einer weitgehend liberalen juristischen Position einerseits und einer strikt ablehnenden Haltung der Ärzteschaft andererseits auf. Daher wird die zentrale These der „Unärztlichkeit“ einer Suizidassistenz hinterfragt. Dies erscheint hinsichtlich der damit zum Ausdruck gebrachten Befürchtung, dass das Rollenbild des Arztes Schaden nehmen könnte, ein ernstzunehmendes Argument. Im Rahmen der vorliegenden Arbeit ist besonders die Tragfähigkeit hinsichtlich des freiwilligen, ernstlichen Suizids eines zurechnungsfähigen erwachsenen Patienten von Interesse, der aufgrund schwersten Leidens im terminalen Erkrankungsstadium, ohne psychische Grunderkrankung, sein Leben mit ärztlicher Hilfe beenden will. Die Analyse zeigt, dass das ärztliche Ethos hinsichtlich der Begleitung von schwer kranken Patienten bzw. Sterbenden durch eine ärztliche Suizidassistenz nicht verletzt werden muss, solange der Arzt nicht die Tatherrschaft übernimmt. (3) Nach der Zurückweisung des Arguments der „Unärztlichkeit“ werden weitere Pro- und Contra-Argumente der aktuellen Debatte in Deutschland dargestellt und ebenfalls im Hinblick auf das terminale Stadium erörtert. Dabei zeigt sich, dass keines der Argumente alleine eine eindeutige und verpflichtende Handlung nach sich ziehen könnte. Als wesentliche Herausforderungen bleiben der Hinweis auf das ärztliche Selbstverständnis einerseits und das objektiv nicht linderbare Leiden eines Patienten andererseits. (4) Schließlich wird die vielfach geforderte Lockerung der Garantenstellung des Arztes mit gleichzeitiger standesrechtlicher Billigung des ärztlich assistierten Suizids für ganz spezielle, seltene Ausnahmefälle analysiert. Unter Berücksichtigung und Kontrolle strenger Kriterien könnte so ein denkbarer Kompromiss erreicht und vor allem für betroffene terminal Erkrankte mit unerträglichem Leid ein Ausweg geschaffen werden, der es ihnen ermöglicht, nicht alleine sterben zu müssen. Einem Dammbruch kann ebenso vorgebeugt werden wie dem aktuellen Sterbetourismus. (5) Als Ergebnis der Befassung mit den Argumenten muss man jedoch erwarten, dass die Ärzteschaft auf absehbare Zeit die Assistenz zum Suizid keinesfalls in den ärztlichen Aufgabenbereich integrieren wird. Sie wird sich allerdings auf längere Sicht damit auseinandersetzen müssen, dass es ihre eigenen medizinischen Erfolge sind, die das Sterben heutzutage oftmals besonders in die Länge ziehen. Wenn die Ärzteschaft sich dieser schwerwiegenden Problematik nicht öffnet, werden es andere tun. Dies muss kein Nachteil für die Reinerhaltung der ärztlichen Rolle sein. Für den einzelnen Arzt kann es aber ein höchst belastender Gewissenskonflikt werden, wenn er seinen Patienten in dieser Not alleine lässt. Schließlich ist mit einer puristischen Haltung auch die Gefahr verbunden, dass im Verborgenen nicht zu kontrollierende Handlungen vorgenommen werden.
Morphin-6-Glukuronid (M6G) ist ein aktiver Metabolit von Morphin. Er ist mitverantwortlich für die analgetische und toxische Wirkung nach einer Morphinverabreichung. M6G wird aktuell in klinischen Phase-III-Studien getestet und möglicherweise zukünftig als ein alternatives Schmerzmittel zu Morphin zur Behandlung postoperativer Schmerzen eingeführt. Seine zentralnervösen Opioideffekte könnten sich aufgrund einer erhöhten Konzentration im zentralen Nervensystem (ZNS) als Folge einer erhöhten M6G Blutkonzentration und/ oder einem erhöhten ZNS Transport an der Blut-Hirn-Schranke verstärken. M6G scheint Substrat zahlreicher transmembranöser Transporter zu sein, die u.a. an der Blut-Hirn-Schranke, Niere oder Leber lokalisiert sind. An der Blut-Hirn-Schranke pumpen diese Transporter M6G aktiv aus dem ZNS zurück in das Blut. Die Hemmung der Transporteraktivität könnte somit eine potentielle Ursache einer erhöhten ZNS Konzentration von M6G mit der Folge vermehrter Nebenwirkungen unter Morphin bzw. Morphin-6-Glukuronid Administration sein. Wir untersuchten die Auswirkungen einer pharmakologischen Hemmung der transmembranösen Transporter P-Glykoprotein, sowie den Probenecid sensitiven Transportern multidrug resistance proteins (MRPs), organic anion transporters (OATs) und organic anion transporter polypeptides (OATPs) auf die Rückenmarkkonzentration und antinozizeptiven Effekte von M6G in Ratten. PSC 833 bzw. Probenecid wurden als Inhibitoren von P-Glykoprotein bzw. Probenecid sensitiven Transportern verwendet. Die Rückenmarkkonzentration von M6G wurde direkt mittels in vivo Mikrodialyse durch eine transversal in das Hinterhorn des Rückenmarks implantierten Sonde gemessen. 20 Ratten erhielten M6G als intravenöse Infusion für 8 Stunden, jeweils 5 von diesen bekamen zusätzlich eine Infusion mit PSC 833 oder Probenecid. Die antinozizeptiven Effekte von M6G wurden durch den Formalinschmerztest während der 8. Stunde der M6G Infusion in weiteren Verhaltensexperimenten bestimmt. Dabei wurde die Dosisabhängigkeit der antinozizeptiven Effekte von M6G mit oder ohne PSC 833 bzw. Probenecid im Vergleich mit PSC 833 alleine, Probenecid alleine und Placebo untersucht. In den Mikrodialyseexperimenten wurde unter P-Glykoprotein Hemmung mit PSC 833 eine nahezu dreifach höhere M6G Rückenmarkkonzentration gemessen, während die Blutplasmakonzentration nur um den Faktor 1.2 erhöht war. Die Folge war eine Verdoppelung des Konzentrationsverhältnis Rückenmark zu Blutplasma (von 0.08 ± 0.03 für M6G alleine auf 0.17 ± 0.08 für M6G mit PSC 833). Die antinozizeptiven Effekte von M6G in den Verhaltensexperimenten waren signifikant erhöht unter P-Glykoprotein Hemmung. Die Inhibition Probenecid sensitiver Transporter verursachte einen gleichmäßigen Anstieg der Blutplasma und Rückenmarkgewebekonzentration um den Faktor 1.4, ohne Veränderung des Konzentrationsverhältnis Rückenmark zu Blutplasma (0.081 ± 0.034 für M6G alleine, 0.082 ± 0.021 für M6G mit Probenecid). Die Verabreichung von Probenecid mit M6G zeigte eine signifikante Reduktion der Anzahl der Flinches im Formalinschmerztest um den Faktor 2.5 im Vergleich zu M6G alleine. Mit dieser Arbeit wurde gezeigt, dass Morphin-6-Glukuronid ein Substrat des Transporters P-Glykoprotein in Ratten ist. Die Verabreichung des P-Glykoprotein Inhibitors PSC 833 erhöhte die Penetration von M6G aus dem Blut in das zentrale Nervensystem und verstärkte dadurch seine antinozizeptive Wirkung. Dieser Effekt ist an der Blut-Hirn-Schranke lokalisiert. Weiterhin wurde demonstriert, dass der Blut-Hirn-Schranken Transport von Morphin-6-Glukuronid nicht durch Probenecid sensitive Transporter beeinflusst wird. Die Verabreichung von Probenecid verstärkte zwar die antinozizeptive Wirkung von M6G aufgrund eines Anstiegs der M6G Rückenmarkkonzentration, jedoch als Folge einer erhöhten Blutplasmakonzentration. Da M6G hauptsächlich in den Urin ausgeschieden wird, ist dieser Effekt wahrscheinlich in der Niere lokalisiert und vermindert die systemische Elimination von M6G. Somit ist M6G ein Substrat Probenecid sensitiver Transporter in Ratten, aber nicht an der Blut-Hirn-Schranke. Da viele Medikamente Inhibitoren von P-Glykoprotein oder Probenecid sensitiven Transportern sind, kann deren gleichzeitige Verabreichung mit Morphin bzw Morphin-6-Glukuronid zu erhöhten M6G ZNS Konzentrationen und Toxizität führen. Die Identifizierung dieser Transporter bedingten Interaktionen in unserer Arbeit kann helfen Medikamentenwechselwirkungen zwischen Inhibitoren und Morphin/ M6G zu vermeiden und die Patientensicherheit unter einer Morphin bzw. Morphin-6-Glukuronid Schmerztherapie zu steigern. Weitere Untersuchungen dieser Interaktionen im Menschen sind nötig, da sie klinisch von großer Bedeutung sind.
Nikotinabhänigkeit und -abstinenz sind mit erniedrigtem bzw. erhöhtem Körpergewicht assoziiert. Dem Nucleus arcuatus kommt eine Schlüsselrolle bei der Körpergewichtsregulation zu, und es wurde bereits gezeigt, dass eine inadäquate Genexpression in diesem hypothalamischen Kerngebiet zu Adipositas führen kann. Obwohl bekannt ist, dass Nikotin die Genexpression im Hypothalamus beeinflussen kann, sind die genauen Mechanismen, die zu den anorektischen Effekten führen, noch weitgehend unbekannt. Diese Studie wurde durchgeführt, um eine Methode zu etablieren, mit der umfassende und informative Genexpressionsprofile im Nucleus arcuatus - unter anderem - in Abhänigkeit von Nikotinwirkungen erstellt werden können. Hierzu wurden Microarrays mit einer limitierten Zahl an Genen hergestellt, für die teilweise bereits Informationen zu Nikotin-abhängiger Gegenregulation verfügbar waren. Fünfundzwanzig Fischer-Ratten wurden miniosmotische Pumpen implantiert, die entweder Nikotin (9mg/kg Körpergewicht/ Tag) oder physiologische Kochsalzlösung freisetzten. Nach einer Woche wurde ein Teil der Tiere getötet, während bei den übrigen Tieren die Effekte einer dreitägigen Nikotinabstinenz untersucht wurden. Die Nikotinbehandlung war mit einer reduzierten Gewichtszunahme sowie einer erhöhten Rektaltemperatur (p=0,001) assoziiert. Die Nikotinabstinenz führte dagegen zu einer gesteigerten Gewichtszunahme (p=0,012), einer erniedrigten Rektaltemperatur sowie einer höheren Serumglukosekonzentration (p=0,028). Für die Serumkonzentrationen von Insulin, Leptin, Cholesterin oder Triglyceriden konnten keine signifikanten Unterschiede aufgezeigt werden, was möglicherweise aber auf die relativ geringe Anzahl an Versuchstieren zurückzuführen ist. Mit den Microarray-Studien ließen sich die vorbeschriebenen Daten für die Nikotin-abhängige Regulation der Genexpression von NPY sowie teilweise auch von POMC bestätigen. Darüberhinaus konnten neue Informationen im Hinblick auf die Nikotinabhängige Regulation der Genexpression von AGRP, LepRb, Insulinrezeptor, MC3R, NPY-Y5-Rezeptor, Prohormone-Convertase-1, POMC und SOCS-3 gewonnen werden. Zusätzlich zu den neuen Daten stellen wir somit einen methodischen Ansatz vor, mit dem Expressionsprofile für viele hundert hypothalamischen Genen in Abhängigkeit von Manipulationen des Körpergewichts erstellt werden können, um so dann tiefgreifende Einsichten in die neuronalen molekularen Mechanismen der Körpergewichtskontrolle nehmen zu können.
Summary: Information and communication is critical to the successful management of infectious diseases because an effective communication strategy prevents the surge of anxious patients who have not been genuinely exposed to the pathogen ('low risk patients') affecting medical infrastructures (1) and the future transmission of the infectious agent (2). Surge of low risk patients: The arrival of large numbers of low risk patients at hospitals following an infectious diseases emergency would be problematic for three main reasons. First, it would complicate the situation at hospitals receiving exposed patients, delaying the treatment of the acutely ill, creating difficulties of crowd control and tying up medical resources. Second, for the low risk patients themselves, attending hospital following an infectious disease emergency might increase their risk of exposure to the agent in question. Third, the needs of low risk patients may be poorly attended to at hospitals which are already overstretched dealing with medical casualties. Future transmission: Obtaining early information about symptoms and isolating infected patients is the most effective strategy to interrupt the chain of infection in the public in the absence of specific prophylaxis or treatment. Particularly at the beginning of an outbreak, these nonpharmaceutical interventions play an important role in enabling the early detection of signs or symptoms and in encouraging passengers to adopt appropriate preventive behaviour in order to limit the spread of the disease. This thesis includes two papers dealing with this problem: The first part is a systemic literature review of information needs following an infectious disease emergency (Anthrax, SARS, Pneumonic Plague). The key question was: what are the information needs of the public during an infectious disease emergency? The second part is an empirical investigation of information needs and communication strategies at the airport during the early stage of the Influenza Pandemic. The key question here was: what communication strategies help to meet the information needs and to enable the public to behave appropriately and responsibly? Conclusions: Evidence from the anthrax attacks in the United States suggested that a surge of low risk patients is by no means inevitable. Data from the SARS outbreak illustrated that if hospitals are seen as sources of contagion, many patients with non-bioterrorism related health care needs may delay seeking help. Finally, the events surrounding the Pneumonic Plague outbreak of 1994 in Surat, India, highlighted the need for the public to be kept adequately informed about an incident to avoid creating rumours. Clear, consistent and credible information is key to the successful management of infectious disease outbreaks. The results of the empirical investigation suggested that the desire for information is a reflection of current anxiety and does not mirror the objective scientific assessment of exposure. The airport study showed that perceived information needs were directly related to anxiety – the least anxious did not require any further information, the most anxious reported significant information needs concerning medical treatment, public health management and the assessment of the ongoing situation – irrespective of their actual exposure. A communication strategy only focussing on the 'real' exposed individuals neglects the information needs of those worrying about having contracted the virus and seeking medical attendance. Effective communication strategies should enable the general public to detect early signs or symptoms and provide them with behaviour advice to prevent the further transmission of the infectious agent. These include the provision of clear information about the incident, the symptoms and what to do to prevent the further transmission, detailed and regularly updated information in various media formats (telephone, internet, etc.) and rapid triage at hospital entrances to guide patients to the appropriate medical infrastructures. Relevance: These research findings could contribute to a shift in the organisational and communicative approach responding to infectious diseases outbreaks and could be considered relevant for future risk communication and policy decision making.
In der vorliegenden Arbeit konnten wir in den einzelnen Lipidfraktionen die gleichen Unterschiede zeigen, die bereits in anderen Untersuchungen aufgezeigt worden waren. Vor allem in den Phospholipiden, im Plasma und in den Erythrozyten ließen sich für die cis-Linolensäure (C18:2ω6c), die Arachidonsäure (C20:4ω6) und die Docosahexaensäure (C22:6ω3) Erniedrigungen beschreiben. Auch in den Cholesterylestern und den Triglyceriden, die als direkte Nahrungsfette gewertet werden können, zeigt sich diese Verteilung, so dass von einer Unterversorgung mit diesen Fettsäuren ausgegangen werden muß. Die Ergebnisse zeigen, dass bereits wenige Fettsäuren zur Beurteilung der Fettsäure-Situation bei Cystische Fibrose-Patienten ausreichen, so dass in Folgeuntersuchungen auf die Auswertung bei Cystische Fibrose-Patienten aller Fettsäuren verzichtet werden kann. Die Gruppen sollten zur Stabilisierung und besseren Reproduzierbarkeit der Werte vergrößert werden. In Folgeuntersuchungen sollte die Ernährung und der Ernährungstatus dokumentiert werde. Die Patienten in unserer Gruppe hatten alle die gleiche Mutation (ΔF 508) und waren adäquat ernährt. Im Einzelnen lässt sich jedoch nicht mehr sagen in welcher Form und Menge Fett zugeführt worden waren. Die Verteilungsmuster in den Triglyceriden und den Cholesterylestern lassen jedoch eindeutig, wie schon in der Literatur beschrieben, auf einen essentiellen Fettsäuremangel schließen. Keiner der Patienten erhielt eine zusätzliche Substitution mit ultralangkettigen mehrfach ungesättigten Fettsäuren der ω3/ω6- Familien. Es lässt sich nur mit Hilfe der Literatur diskutieren welche Ursachen bei unseren Patienten für den essentiellen Fettsäuremangel verantwortlich sind, da unsere Arbeit lediglich eine Erhebung über den Ist-Zustand darstellt. Für die Klärung der Malabsorption müssten Untersuchungen angeschlossen werden, die mit einer Substitution von ultralangkettigen mehrfach ungesättigten Fettsäuren einhergehen. Das Membranverhalten und Rezeptorverhalten kann über die Messung der Phospholipide konkretisiert werden. Im Bezug auf die inflammatorische Antwort könnten die Leukotriene und andere Mediatoren der inflammatorischen Antwort parallel gemessen werden. Als weiteres Ergebnis zeigten sich bei den von uns untersuchten Cystische Fibrose-Patienten im Vergleich zur Kontrollgruppe keine oder nur in Spuren vorhandene trans-Fettsäuren.
Das C-reaktive Protein (CRP) ist ein systemischer Marker für unspezifische Infektionen und wird bei einer Entzündungsreaktion in der Leber produziert. Seine Serum-Konzentration steigt im Rahmen einer Immunreaktion innerhalb von 24 - 48 Stunden auf ein vielfaches an und induziert zahlreiche Prozesse des Immunsystems. Erhöhte CRP-Werte konnten als Risikofaktor für kardiovaskuläre Erkrankungen identifiziert werden. Zahlreiche Querschnittsstudien konnten erhöhte Serum-CRP-Werte bei Parodontitispatienten im Vergleich zu gesunden Kontrollpersonen finden. Der Anstieg des Serum-CRP könnte ursächlich an den Zusammenhängen zwischen Parodontitis und kardiovaskulären Erkrankungen beteiligt sein. Die Neutrophile Elastase ist ein weiterer systemischer Parameter, der im Rahmen chronischer Entzündungsreaktionen, wie der chronischen obstruktiven Lungenerkrankung (COPD), erhöhte Werte annimmt. Zahlreiche Studien konnten erhöhte Leukozytenzahlen bei Parodontitispatienten finden. Bisher wurde von den meisten Studien die Erhöhung des CRP-Wertes, sowie weiterer anderer Entzündungsparameter im Zusammenhang mit Parodontitis untersucht. Nach unserem Kenntnisstand konnten lediglich erhöhte Elastase-Werte im Zusammenhang mit Gingivitis gezeigt werden. Ziel der Untersuchung: Vergleich der Entzündungsparameter (CRP, Elastase, Leukozytenzahl, LBP, IL-8, IL-6) bei parodontal gesunden Probanden (Pro) und Patienten mit aggressiver (AgP) und chronischer Parodontitis (ChP). Methode: Es wurden 30 Pro (Sondierungstiefe (ST) < 3,6 mm oder < 5 mm ohne Bluten auf Sondieren (BOP), BOP < 10 %), 31 Patienten mit ChP (ST ≥ 3,6 mm und Attachmentverlust (AL) ≥ 5 mm ≥ 30 % der Stellen, Alter ≤ 35 Jahre) und 29 Patienten mit AgP (klinisch gesund (d.h. keine Allgemeinerkrankungen, die für Parodontitis prädisponieren), ST ≥ 3,6 mm > 30 % der Stellen, röntgenologischer Knochenabbau von ≥ 50 % der Wurzellänge an ≥ 2 Zähnen, Alter ≥ 18 Jahre und ≤ 35 Jahre) wurden klinisch auf folgende parodontologische Parameter untersucht: Entzündungsbefund, Plaquebefund, ST, AL, BOP. Bei allen Patienten wurde der BMI erhoben und Blutproben zur Bestimmung von CRP (untere Nachweisgrenze: 0,01 mg/dl), Elastase, Leukozytenzahl, LBP, IL-8 und IL-6 entnommen. Ergebnisse: Es wurden 30 Pro (16 Frauen, 8 Raucher), 31 Patienten mit ChP (12 Frauen, 10 Raucher) und 29 Patienten mit AgP (16 Frauen, 9 Raucher) eingeschlossen. Die Ergebnisse der CRP-Konzentration (Pro: 0,10 ± 0,12; ChP: 0,17 ± 0,23; AgP: 0,55 ± 0,98 mg/dl [p < 0,001]), der Elastase-Werte (Pro: 10,0 ± 4,7; ChP: 17,1 ± 12,3; AgP: 32,0 ± 14,6 mg/dl [p < 0,001]) unterschieden sich in allen drei Gruppen signifikant, wohingegen keine signifikanten Unterschiede in der Leukozytenzahl und der Konzentrationen von IL-8 festzustellen war. Die Werte für LBP (p < 0,01) waren signifikant höher in der AgP-Gruppe als in der Pro-Gruppe und der ChP-Gruppe (Pro = ChP < AgP). Die IL-6 Konzentration war in der Kontrollgruppe signifikant niedriger (p < 0,001) als in den Testgruppen (Pro < ChP = AgP). Die unterschiedlichen CRP-Werte in den Testgruppen sind teilweise durch den BMI zu erklären (p = 0,003). Schlussfolgerung: Die Konzentrationen für Serum-CRP und Elastase sind signifikant erhöht bei Patienten mit aggressiver Parodontitis im Vergleich zu parodontal gesunden Probanden als auch zu Patienten mit chronischer Parodontitis. Erhöhte Serum-CRP-Werte könnten bei Patienten mit aggressiver Parodontitis zu einem erhöhten kardiovaskulären Risiko beitragen.