Refine
Year of publication
Document Type
- Doctoral Thesis (1403) (remove)
Language
- German (1403) (remove)
Is part of the Bibliography
- no (1403)
Keywords
- HIV (6)
- Brustkrebs (5)
- Hepatitis C (5)
- NMR-Tomographie (5)
- Depression (4)
- Glioblastom (4)
- Immunsuppression (4)
- Nierentransplantation (4)
- Polytrauma (4)
- Prostatakarzinom (4)
Institute
- Medizin (1403) (remove)
In der vorliegenden Arbeit wurden die Proteine Vlp15/16 und GlpQ aus B. miyamotoi hinsichtlich ihrer Eigenschaft, mit Plasminogen zu interagieren, charakterisiert.
Da einige Fälle von ZNS-Beteiligungen bei B. miyamotoi-Infektionen berichtet wurden, ist anzunehmen, dass diese Borrelienspezies über molekulare Mechanismen zur Überwindung der Blut-Hirn-Schranke verfügt. Eine solche Strategie könnte die Bindung wirtseigener Proteasen wie z.B. Plasminogen sein, um Komponenten der extrazellulären Matrix zu degradieren und dadurch die Dissemination des Erregers zu erleichtern.
Während Vmps, zu welchen auch Vlp15/16 gehört, als membranständige Proteine durch Variation der antigenen Oberflächenmatrix zur Immunevasion des Erregers beitragen, ist GlpQ bei der Hydrolyse von Phospholipiden in den Zellstoffwechsel eingebunden. Trotz dieser unterschiedlichen Funktionen, die den beiden Proteinen zukommen, binden beide Moleküle Plasminogen. Die Eigenschaften dieser Interaktion wurden in dieser Arbeit im Detail untersucht. Die Ergebnisse zeigen, dass Vlp15/16 und GlpQ Plasminogen konzentrationsabhängig binden und die Dissoziationskonstanten (Vlp15/16:Kd = 354 nM ± 62 nM; GlpQ: Kd = 413 nM ± 72 nM) für beide Proteine im Bereich der Serumkonzentration von 2 µM liegen. Darüber hinaus konnte gezeigt werden, dass den beiden Proteinen unterschiedliche Mechanismen zugrunde liegen, Plasminogen zu binden. Während die erhobenen Daten für Vlp15/16 darauf hindeuten, dass Lysin-Reste essenziell für die Interaktion sind, scheinen bei GlpQ ionische Wechselwirkungen von Bedeutung zu sein.
Um die Beteiligung von C-terminal lokalisierten Lysin-Resten für die PlasminogenBindung von GlpQ nachzuweisen, wurden Varianten mit einzelnen Lysin-Substitutionen an zwei unterschiedlichen Positionen (333 und 334) sowie eine Variante mit einer Zweifach-Substitution (GlpQ-K333A-K334A) generiert. Die Bindungsanalysen ergaben, dass insbesondere der Lysin-Rest an Position 334 bei der Interaktion mit Plasminogen beteiligt ist.
Die funktionellen Analysen zeigten, dass das an Vlp15/16 beziehungsweise GlpQ gebundene Plasminogen zu Plasmin aktiviert werden konnte und darüber hinaus dazu in der Lage war, das physiologische Substrat Fibrinogen zu degradieren.
Abschließend wurde die Plasminogen-Bindung an nativen B. miyamotoi-Zellen mittels Immunfluoreszenz-Mikroskopie nachgewiesen.
Die Ergebnisse dieser Arbeit weisen Vlp15/16 und GlpQ als Plasminogen-bindende Proteine aus, mit deren Hilfe B. miyamotoi befähigt ist, Komponenten der extrazellulären Matrix zu degradieren und somit prinzipiell zur Dissemination des Erregers beizutragen.
Einleitung: Feedback ist ein elementarer Bestandteil effektiven Lernens, auch im Medizinstudium, insbesondere beim Erlernen praktischer Fertigkeiten. Feedback kann in verschieden Formen gegeben werden, die Einfluss auf das Erlernen und Behalten der Fertigkeit haben.
Videofeedback, auf der Grundlage von Videoaufzeichnungen einer Tätigkeit, erscheint hierbei eine effektive Methode zum Verstärken des Lerneffektes bei komplexen praktischen Fertigkeiten darzustellen.
Das Ziel der vorliegenden Arbeit war die vergleichende Effektivitätsanalyse von Videofeedback im Vergleich zu mündlichem Feedback auf das Erlernen des sterilen Arbeitens bei der Wundversorgung als Beispiel für eine komplexe praktische Fertigkeit.
Methode: Medizinstudierende an der Goethe-Universität Frankfurt am Main absolvieren im Rahmen ihrer curricularen Ausbildung im 2. bzw. 3. klinischen Semester das dreiwöchige Blockpraktikum Chirurgie. Hierbei durchlaufen sie das einwöchige „Training praktischer Fertigkeiten“ im Skillslab. Im Rahmen dieses aus 12 Modulen bestehenden Trainings absolvieren die Studierenden unter anderem das Modul „Wundversorgung“. In dieser 210-minütigen Trainingseinheit erlernen und üben sie die Versorgung einer einfacher Schnittwunden (von der Anamnese über das sterile Abdecken bis zum Anlegen des Verbandes) unter Anleitung und Supervision eines Peer-Tutors.
Im Rahmen der vorliegenden Arbeit wurden die Studierenden in eine Interventions- und eine Kontrollgruppe randomisiert. Die Interventionsgruppe wurde beim Üben auf Video aufgezeichnet. Im Anschluss erhielten die Studierenden anhand der Videoaufzeichnung Feedback durch einen Peer-Tutor. Die Kontrollgruppe erhielt nach dem Üben Feedback durch den Peer-Tutor ohne Videoaufzeichnung.
Direkt im Anschluss an das Modul absolvierten die Studierenden zwei strukturierte checklistenbasierte formative Prüfungsstationen im Sinne von zwei Objective Structured Clinical Examination-Stationen (OSCE); 2 bis 3 Monate nach dem Training erfolgte die zweite Datenerhebung im Rahmen des summativen curricularen OSCE als Abschlussprüfung des Blockpraktikums Chirurgie.
Ergebnisse: Insgesamt nahmen 107 Studenten an der vorliegenden Studie teil. Am Messzeitpunkt 1 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe. Am Messzeitpunkt 2 mussten an der Prüfungsstation „Wundversorgung“ 39 Studierende durch veränderte und damit nicht mehr vergleichbare Prüfungsbedingungen ausgeschlossen werden. An der zweiten Prüfungsstation konnten alle Studierenden in die Auswertung inkludiert werden. Auch am Messzeitpunkt 2 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe.
Schlussfolgerung: Im Kontext des curricularen chirurgischen Training praktischer Fertigkeiten konnte für das Erlernen des sterilen Arbeitens kein Unterschied zwischen reinem mündlichen Feedback und Videofeedback nachgewiesen werden.
Vergleichende enzymatische Untersuchungen an Schlangengiften von Bothrops asper und Crotalus atrox
(2004)
An 36 Schlangengiften der Vipernarten Crotalus atrox und Bothrops asper wurden jeweils acht Enzymbestimmungen durchgeführt: Argininester-Hydrolase, Casein- und Hide-Powder-Azure-Hydrolyse, Fibrinogen-Koagulase, Humanplasma-Koagulase, L-Aminosäureoxidase, Phosphodiesterase und Phospholipase A2. 14 Schlangengifte von Bothrops asper wurden zudem mittels Anionenaustausch-Chromatographie fraktioniert und die einzelnen Fraktionen auf ihre proteolytische Aktivität und die Fähigkeit, Humanplasma zu koagulieren, untersucht. Es zeigten sich trotz ähnlicher Lebensumstände der Tiere sowie des standardisierten Umgangs mit den Schlangengiften auch innerhalb einer Art erhebliche Variationen in den Enzymaktivitäten. Bei nur zwei Giften von Bothrops asper gelang es, das Enzym mit Casein-Hydrolyse-Aktivität in jeweils einer einzigen Fraktion anzureichern. Alle anderen fraktionierten Lanzenottern- Gifte wiesen diese Enzymaktivität gleich in mehreren oder allen Fraktionen auf. Humanplasma-Koagulase-Aktivität war ausnahmslos in jeder einzelnen Fraktion der untersuchten Gifte nachweisbar. Wahrscheinlich bewirkt ein komplexes Zusammenspiel gleich mehrer Faktoren oder Enzyme im Gift die Blutgerinnung. Fraktionen mit hoher proteolytischer Aktivität für Casein zeigten nicht zwangsweise hohe prokoagulatorische Aktivität. Die Enzyme mit Casein- Hydrolyse-Aktivität scheinen also nicht für die thrombinähnlichen Eigenschaften der Gifte verantwortlich zu sein. Die hier erneut bestätigte Heterogenität in der Zusammensetzung von Schlangengiften führt zu folgendem Schluss: Vor der Immunisierung eines Vesuchstieres zur Gewinnung eines Antiserums sollten die verwendeten Gifte auf ihre Enzym- sowie biologischen Aktivitäten untersucht werden.
Bei einer Behandlung mit festsitzenden Apparaturen stehen für Zahnverschiebungen in mesio-distaler Richtung und zur Okklusionseinstellung seit 1993 als Alternative zu Gummiringen aus Latex Zugfedern aus der Nickel-Titan-Legierung Sentalloy zur Verfügung. Die vorliegende Untersuchung zeigt die materialtechnischen Besonderheiten der beiden Werkstoffe auf und beschreibt die Vor- und Nachteile in der klinischen Anwendung der Gummizüge und der Federn. Es wurden Gummizüge aus Latex von Ormco Dental (Glendora) in den Grössen 3/16, 1/4 und 5/16 inch in jeweils drei verschiedenen Stärken sowie pseudoelastische, Ni-Ti-Federn von GAC Int. Inc. (New York) untersucht. Dazu wurden in der Universalprüfmaschine Zwick 1421 die Kennlinien der verschiedenen Kraftelemente aufgezeichnet. Darüber hinaus wurde der Kraftabfall der Gummizüge durch isometrische Dehnung und durch Wechsellastversuche bestimmt sowie der Einfluss einer thermischen Alterung auf die Gummizüge untersucht. In einem Wechsellastversuch mit pseudoelastischen Federn wurde die Anzahl der Federbrüche innerhalb von 480.000 zyklischen Belastungen registriert. Die untersuchten Gummizüge zeigten eine für elastische Materialien typische Hysterese form der Kennlinie. Die Kennlinien pseudoelastischer Zugfedern wiesen eine Transformationshysterese mit einer über mehrere Millimeter annähernd konstanten Kraftabgabe auf. Bei Dehnung von Gummizügen derselben Grösse zeigten stärkere Gummizüge grössere Abweichungen in der Kraftentfaltung als schwächere Gummizüge. Insgesamt lagen solche Streubreiten zwischen 26% und 33%. Bei Dauerbelastung der Gummizüge blieb die Kraftabgabe der Gummizüge nach geringem initialen Abfall annähernd konstant. Es wurde nachgewiesen, dass die Kraftabgabe der Gummizüge bei isometrischer Dehnung innerhalb von 24 Stunden zwischen 8% und 15% fällt. Bei Wechsellastversuchen mit insgesamt 30.000 Lastwechseln verloren die Gummizüge etwa 10% - 15% ihrer Ursprungskraft. Thermische Alterung zeigte keinen Einfluss auf die Kraftentfaltung der Gummizüge. Grundsätzlich wiesen beide Materialien eine Temperaturabhängigkeit der Kennlinie auf. Während sich bei beiden Materialien die Hysteresefläche der Kennlinie bei höheren Temperaturen verschmälert, wird bei pseudoelastischen Federn zudem das Plateau der Kennlinie zu deutlich höheren Kraftwerten hin verschoben. Im Wechsellastversuch mit pseudoelastischen Federn kam es trotz gleichförmiger, axialer Belastung häufig zum spontanen Bruch der Federn. Die Kennlinie wies nach Wechselbelastung eine schmalere Hysteresefläche und ein zu geringeren Kraftwerten hin verschobenes Plateau der Kennlinie auf.
Hintergrund: Der interventionelle Verschluss stellt für viele Patienten mit Vorhofseptumdefekt eine wichtige Alternative zur Operation dar. Jedoch ist dieses Verfahren noch relativ jung, so dass wenige Langzeitstudien bezüglich des Outcomes nach interventionellem Verschluss existieren. In dieser Studie wird das Langzeit-Outcome hinsichtlich der kardiopulmonalen Belastbarkeit beider Verschlussmethoden miteinander verglichen. Der Idee, eine spiro-ergometrische Untersuchung durchzuführen, lag die Vermutung zugrunde, dass es möglicherweise durch die Thorakotomie bei der Operation zu einer pulmonalen Restriktion kommen kann. Methoden: Es wurden insgesamt 52 Patienten untersucht, bei denen zwischen 1993 und 2002 in Frankfurt am Main ein Vorhofseptumdefekt verschlossen wurde. Die spiroergometrische Untersuchung fand ½ Jahr bis 9 Jahre nach Verschluss des Vorhofseptumdefektes statt. Bei 25 Patienten wurde der Defekt operativ verschlossen, bei 27 mittels interventionellem Verschluss. Das Alter der Patienten lag zwischen 6 und 59 Jahren. Die spiroergometrischen Daten wurden auf einem Fahrradergometer in halbliegender Position nach dem Protokoll von Godfrey erhoben. Hierbei wurde vor allem die Sauerstoff-aufnahme (VO2), die Kohlendioxidabgabe (VCO2), das Tidalvolumen (Vt) und das Atemminutenvolumen (VE) kontinuierlich ermittelt. Ergebnisse: Ein statistisch signifikanter Unterschied bezüglich des Alters und des Geschlechts lag zwischen den beiden Gruppen nicht vor. Es konnte auch kein signifikanter Unterschied bezüglich der maximalen Belastbarkeit, maxi-maler Herzfrequenz, des Tidalvolumens, der Sauerstoffaufnahme und der Kohlendioxidabgabe festgestellt werden. Praktische Schlussfolgerungen: Der interventionelle und der operative Verschluss haben hinsichtlich der kardiopulmonalen Belastbarkeit ein ver-gleichbares gutes Langzeitergebnis. Beide Verfahren weisen in Bezug auf andere Punkte (Invasivität, Komplikationsrate, Erfolgsrate, Kosten etc) sowohl Vor- als auch Nachteile auf. Jedoch ist durch die geringere Invasivität sowie durch das Ausbleiben der Narbenbildung die subjektive Einschränkung der Patienten mit interventionellem Verschluss deutlich geringer, so dass diese Methode wenn möglich die Methode der 1. Wahl darstellen sollte.
Ziel dieser Arbeit war es festzustellen, inwiefern im Rahmen der Diagnostik des Gastroösophagealen Refluxes mit pulmonaler Relevanz anhand des einen, oder anderen Diagnostik-Verfahrens Vorhersagen über die Ergebnisse der jeweils anderen diagnostischen Möglichkeiten gemacht werden können. Bei den hierbei üblichen Untersuchungsmethoden handelt sich es um die pH-Metrie, die BAL, sowie die oMDP. So sollten insbesondere folgende Fragen geklärt werden: Ist die 2-Punkt pH-Metrie der oMDP in der Diagnostik des pulmonal relevanten GÖR bei Kindern überlegen? Kann die pH-Metrie eine chronische Aspiration erkennen? Kann die 2-Punkt pH-Metrie eine Aussage über die pulmonale Relevanz des GÖR machen? Zur Untersuchung wurden Daten verwandt, die von Patienten im Alter von 3 Monaten bis 16 Jahren stammten, welche in den Jahren 1992 bis 1999 in der Universitätskinderklinik Frankfurt am Main wegen einer chronischen Bronchitis untersucht wurden. Bei allen Patienten wurde im Vorfeld eine Cystische Fibrose (Schweißtest, Pilocarpin-Iontophorese), eine Fremdkörperaspiration, eine Ciliendysfunktion (Cilienbeweglichkeit und -frequenz im Phasenkontrastmikroskop), ein humoraler und zellulärer Immundefekt, sowie ein exogenes Asthma bronchiale (Atopie) als Ursache für die Symptomatik ausgeschlossen. So konnte ein Kollektiv von 817 Patienten zusammengestellt werden. Aus dieser Gruppe wurden in einem ersten Schritt die Patienten ausgewählt, welche sowohl einer 2-Punkt pH-Metrie, als auch einer BAL unterzogen wurden, was zu einer Untergruppe von 400 Kindern führte. Ebenso wurde für die Untersuchung auf eine Beziehung zwischen 2-Punkt pH-Metrie und oMDP (n=511) und zwischen BAL und oMDP (n=358) verfahren. In einem weiteren Schritt wurden die Untersuchungsergebnisse in Korrelation zum Alter der untersuchten Patienten gesetzt, um so eine mögliche Altersabhängigkeit der Untersuchungsergebnisse nachweisen, oder ausschließen zu können. Die Arbeit erbrachte folgende Ergebnisse: 1. Es besteht keine signifikante Korrelation der Ergebnisse der LLAM aus der BAL mit den Parametern der 2-Punkt pH-Metrie. Dies gilt auch für die Voraussetzung, daß nur eindeutig pathologische Ergebnisse in einer der beiden Untersuchungen, oder in beiden Untersuchungen gleichzeitig bewertet wurden. 2. Die Parameter der 2-Punkt pH-Metrie korrelieren untereinander hochsignifikant (p=0.01). 3. Es besteht keine signifikante Korrelation der Ergebnisse der oMDP mit den Parametern der 2-Punkt pH-Metrie. Ausnahme: Die Altersgruppe der 3 Monate bis 2-Jährigen (positive Korrelation, p=0.05). 4. Das Alter korreliert signifikant negativ mit der Anzahl der Refluxe, sowie der Fraktionszeit (p=0.01) am oMP in der 2-Punkt pH-Metrie. Weiter korreliert es signifikant negativ mit der Anzahl der Refluxe > 5 min. am oMP (p=0.05). 5. Das Alter korreliert hochsignifikant positiv mit dem Anteil der fettspeichernden AM in der BAL (p=0.01). Unsere Ergebnisse zeigen also, dass sich kein Zusammenhang zwischen den Ergebnissen der pH-Metrie und jenen der BAL herstellen lässt. Dies gilt ebenso für die erhobenen Daten in ihrer Gesamtheit, sowie unter den oben genannten Ausschluskriterien. Ebenso konnte kein Zusammenhang zwischen den Ergebnissen der pH-Metrie und der oMDP hergestellt werden. Auch der Vergleich zwischen BAL und oMDP ergab keinen signifikanten Zusammenhang. Die signifikante Altersabhängigkeit der Anzahl der Refluxe am oMP, sowie der Fraktionszeit (beide korrelieren negativ mit dem Alter), sowie die hochsignifikante positive Korrelation der LLAM (Bewertungskriterium der BAL) mit dem Alter werfen Fragen auf. Vorausgesetzt die Bestimmung der LLAM ist eine ausreichend sensitive Methode zur Diagnostik einer chronischen Aspiration, so wäre eine gleichsinnige Entwicklung der 2-Punkt pH-Metrie-Parameter mit dem Anteil der LLAM mit dem Alter zu erwarten. Dies wird in unserer Untersuchung jedoch nicht nachgewiesen. Es gilt also, in weiteren Untersuchungen zu klären, inwiefern es sich hierbei um physiologische Veränderungen mit zunehmendem Alter handelt, bzw. wie sich die Ergebnisse in einer asymptomatischen Population verhalten. Daraus folgt also, daß die pH-Metrie weder Aussagen über das zu erwartende Ergebnis einer BAL, noch der oMDP machen kann, oder umgekehrt. Jede der Untersuchungen muss unter ihrer ganz spezifischen Fragestellung angewandt werden. So bleibt, wie in den wesentlichen Arbeiten der Literatur gefordert (Dobhan, Castell 1993; Sondheimer 2000,) die pH-Metrie der Goldstandard zur Diagnostik des GÖR. Die oMDP ist ein Mittel zur Diagnostik von Motilitätsstörungen, oder Hernien im Bereich des Ösophagus und die BAL sollte reevaluiert werden, hinsichtlich ihrer Aussagekraft in der Diagnostik der chronischen Aspiration. Die eingangs gestellten Fragen müssen also wie folgt beantwortet werden: Die 2-Punkt pH-Metrie ist der oMDP in der Diagnostik des pulmonal relevanten GÖR nur insofern überlegen, als daß sie gastro-ösophageale Refluxe über einen längeren Zeitraum dokumentieren kann. Sie ist nicht in der Lage eine Aspiration zu erkennen und kann somit keine Aussage über die pulmonale Relevanz des GÖR machen.
Vergleichende Untersuchung von phaken Vorder- und Hinterkammerlinsen zur Korrektur der Myopie
(2007)
Zur Korrektur der Fehlsichtigkeit kommen neben der refraktiven Hornhautchirurgie immer mehr auch linsenchirurgische Verfahren zum Einsatz. Die Implantation phaker Linsen spielt darunter eine große Rolle. Ziel dieser retrospektiven nicht randomisierten Studie war es, drei phake intraokulare Linsen zur Korrektur hoher Myopie im Beobachtungszeitraum von einem Jahr zu untersuchen. Untersucht wurden hierbei Stabilität, Vorhersagbarkeit, Sicherheit, Effizienz, Endothelzelldichte, Intraokularer Druck, Kontrastsehen, Stabilität des Linsensitzes sowie die Morphologie der Pupille. Insgesamt wurde in elf myope Augen die kammerwinkelgestützte Vorderkammerlinse Bausch & Lomb NuVita, in 25 myope Augen die Irisklauenlinse Ophtec Artisan und in 25 myope Augen die sulcusfixiete Hinterkammerlinse STAAR ICL von einem erfahrenen Operateur (Prof. Dr. med. T. Kohnen) implantiert. Postoperativ wurde nach einer Woche, einem Monat, drei Monaten und einem Jahr die Refraktion, der intraokulare Druck sowie die Position der pIOLs, sowie nach einem Jahr die Endothelzellzahl, das Kontrastsehen und der Pupillendurchmesser bestimmt. Die Endothelzellzahl wurde teils mit dem konfokalen Mikroskop (ConfoScan P4; Tomey, Erlangen, Deutschland), teils mit einem Kontaktspiegelmikroskop (EM 1100; Tomey, Erlangen) bestimmt und manuell ausgewertet. Das Kontrastsehen wurde mit dem Pelli-Robson-Chart getestet. Die Position der Linse wurde mittels Scheimpflugbildern und Infrarot-Retroilluminationsbildern mit dem Anterior Eye Segment Analysis System (EAS-1000, Fa. Nidek, Gamagori, Japan) untersucht und anschließend mit der zugehörigen Software ausgewertet. Anhand der Spaltbilder wurde die Berechnung des Abstandes der pIOL zu Kornea und Linse durchgeführt und anhand der Retroilluminationsaufnahmen eine Rotation der pIOL um die optische Achse ausgemessen. Die Irisfotographie erfolgte teils mit einer Spaltkamera (Carl Zeiss, Oberkochen/Württemberg, Deutschland), teils mit einer Mavica MVC-CD500 Digitalkamera (Sony, Tokyo, Japan). Die Pupillen wurden mit einem handelsüblichen Geodreieck mit Milimetereinteilung ausgemessen. Die refraktiven Ergebnisse wie auch der intraokulare Druck wurden mit Datagraph med ® (Version 2.7; Ingenieurbüro Pieger, Wendelstein, Deutschland) ausgewertet. Die statistischen Auswertungen erfolgten mit BiAS für Windows Version 8.0 (Dr. H. Ackermann, Universitätsklinikum Frankfurt am Main, Deutschland). Der bestkorrigierte Visus verbesserte sich in der NuVita-Gruppe nach drei Monaten in 82 %, nach einem Jahr in 80 % der Fälle, in der Artisan-Gruppe nach drei Monaten in 82 %, nach einem Jahr in 77 %,in der ICL-Gruppe nach drei Monaten 86 %, nach einem Jahr in 95 %. Kein Auge verlor an bestkorrigiertem Visus. Der unkorrigierte Visus war in der NuVita-Gruppe nach drei Monaten in 63 % 0,5 oder besser, nach einem Jahr in 90 % der Fälle. In der Artisan-Gruppe erreichten nach drei Monaten 100 % einen Visus von 0,5 oder besser, nach einem Jahr 95 %. In der ICL-Gruppe erreichten nach drei Monaten 78 % einen s.c. Visus über 0,5, nach einem Jahr 84 %. Der Effizienzindex lag in der NuVita-Gruppe nach drei Monaten bei 1,07, nach einem Jahr bei 1,11, in der Artisan-Gruppe nach drei Monaten bei 1,03, nach einem Jahr bei 1,06 und in der ICL-Gruppe nach drei Monaten bei 1,06 und 1,07 nach einem Jahr. Nach einem Jahr lagen in der NuVita-Gruppe 90 % bei einem sphärischen Äquivalent von ±1,0 dpt, in der Artisan-Gruppe 85,7 % und in der ICL-Gruppe 70,8 %. In der NuVita-Gruppe kam es zu einer mittleren Regression von -0,74 dpt innerhalb eines Jahres, in der Artisan-Gruppe von +0,01 dpt und in der ICL-Gruppe von +0,04 dpt. Beim Kontrastsehen konnten keine signifikanten Änderungen beobachtet werden. Der intraokulare Druck blieb auch nach Implantation der pIOLs im Mittel im Normbereich. Ein kurzer postoperativer Anstieg ließ sich in einem Fall (9 %) in der NuVita-Gruppe beobachten, in einem Fall (9 %) in der NuVita-Gruppe kam es zu einem akuten Winkelblockglaukom. In der Artisan-Gruppe kam es in 8 %, in der ICLGruppe in 20 % zu einer passageren intraokularen Druckerhöhung innerhalb des ersten postoperativen Monats. Bei der Hinterkammerlinse kam es innerhalb von einem Jahr zu einer ständigen Abnahme des Abstandes zwischen der kristallinen Linse und der pIOL, so dass nach einem Jahr bei vier Augen kein Abstand mehr nachweisbar war. Obwohl die NuVita-Linsen in vier Fällen eine Rotation von über 10° ze igte, war im Vergleich zu den anderen Linsenmodellen kein signifikanter Unterschied nachweisbar. Ein Jahr postoperativ kam es nur in der NuVita-Gruppe zu einer signifikanten Pupillenverziehung Glare und Halos traten in der NuVita-Gruppe bei 18,2 %, in der Artisan-Gruppe bei 48 % und in der ICL-Gruppe bei 20 % auf. Ein Patient in der ICL-Gruppe (4 %) entwickelte eine anteriore subkapsuläre Linsentrübung, in der Artisan-Gruppe kam es bei einer Patientin (4,7 %) zu einer Netzhautblutung aufgrund eines Netzhautforamens. Alle drei Verfahren sind sichere, effektive und vorhersagbare Verfahren bei der Korrektur der hohen Myopie mit guter refaktiver Stabilität nach einem Jahr. Die Bewegung der Hinterkammerlinse in Richtung der kristallinen Linse ist jedoch ein ernstzunehmendes Problem. Nur die NuVita-Linse wies ein Jahr nach Implantation eine signifikante Pupillenverziehung auf. Es sind jedoch Langzeitstudien nötig, um die kurzfristigen ermutigenden Ergebnisse zu bestätigen.
Borrelia lusitaniae, eine vorwiegend im Mittelmeerraum/ Südwesteuropa vorkommende Borrelienspezies des B. burgdorferi s.l.-Komplexes, wird derzeit als eine potentiell humanpathogene Genospezies diskutiert. Für vergleichende Studien stehen derzeit vorwiegend Zeckenisolate und nur zwei Patientenisolate zur Verfügung. Im Rahmen dieser Arbeit wurden insgesamt 16 Isolate, darunter ein Patientenisolat aus verschiedenen Regionen Portugals und Süddeutschlands im Bezug auf ihre Serumempfindlichkeit/-resistenz gegenüber humanem Serum und der Fähigkeit Komplementregulatoren aus Serum zu binden, untersucht. Anhand der erhaltenen Ergebnisse konnte gezeigt werden, dass B. lusitaniae, mit Ausnahme des Stammes IP-N1, als serumsensible Genospezies klassifiziert werden kann. Alle Isolate aktivierten die Komplementkaskade hauptsächlich über den alternativen Weg wobei massiv Komplementkomponenten auf der Zelloberfläche deponiert wurden. Die effiziente Aktivierung und Ablagerung des terminalen Komplementkomplexes führte zur vermehrten Ausbildung sogenannter Blebs, Ausstülpungen der äußeren Membran, was auf eine effiziente Lyse der Borrelienzellen hinwies. Obwohl serumsensibel, waren alle Isolate in der Lage, den löslichen Komplementregulator des alternativen Weges, Faktor H aus dem Serum zu binden. Allerdings konnte nur bei 4 der 16 untersuchten Isolate eine schwache komplementregulatorische Aktivität von zellgebundenem Faktor H durch den Nachweis spezifischer C3b-Spaltprodukte bestätigt werden. Diese Ergebnisse lassen vermuten, dass Faktor H in seiner Eigenschaft als Komplementregulator inhibiert ist. Durch weiterführende Analysen konnte ein Faktor H-bindendes Protein von 16 kD bei B. lusitaniae MT-M8 identifiziert und charakterisiert werden. Dieses als BlCRASP-3 bezeichnete Protein war in der Lage, Faktor H über dessen C-terminale SCR-Domänen 19-20 zu binden. Im Vergleich zu anderen mit Faktor H interagierenden Proteinen war die Bindung sehr schwach und erreichte nur ca. 16% der Bindungsstärke von BbCRASP-3, was eine nicht nachweisbare Kofaktoraktivität von an BlCRASP-3 gebundenem Faktor H erklären könnte. Sequenzanalysen und Untersuchungen mit verschiedenen Proteasen identifizierten BlCRASP-3 als ein auf der Oberfläche von B. lusitaniae lokalisiertes Lipoprotein, welches eindeutig zur heterologen Erp-Proteinfamilie gehört. Interessanterweise ist bei BlCRASP-3 jener Bereich am C-Terminus konserviert, der als Faktor H-Bindungsstelle erachtet wird. Die nicht konservierten Austausche einzelner Aminosäuren innerhalb der vermuteten Bindungsregion und das Fehlen höher geordneter Strukturen, wie z.B. coiled-coils, könnten die stark reduzierte Bindungskapazität von Faktor H an BlCRASP-3 erklären. Zusammenfassend lässt sich feststellen, dass die schwache Bindung von Faktor H und die Inhibition der komplementregulatorischen Aktivität von Faktor H, als Ursachen für den fehlenden Schutz vor der durch Komplement vermittelten Lyse angenommen werden kann, wodurch die untersuchten B. lusitaniae-Isolate einen serumsensiblen Phänotyp aufweisen. Des Weiteren konnten bei allen untersuchten B. lusitaniae Isolaten erp-homologe Gensequenzen auf Plasmiden unterschiedlicher Größe nachgewiesen werden. Manche Isolate wiesen multiple erp-Loci auf. Durch PCR konnten erp-homologe Gensequenzen amplifiziert werden, die für ErpL/ErpY-orthologe Proteine kodieren und nicht mit Faktor H interagieren. Welche Funktion diese Proteine für Borrelien besitzen bleibt weiterhin ungeklärt. Es ist denkbar, dass diese Proteine bei der Erregerpersistenz oder dem Immunescape in der Eidechse als natürlichem Wirt eine wichtigen Rolle spielen oder Borrelien ermöglichen, sich an andere Reservoirwirte anzupassen.
Es war Gegenstand dieser Arbeit, die Zahl und das Vorkommen der Sporen der Bacillus Spezies im Vergleich zu anderen Parameter in der Trinkwasseruntersuchung die bisher im §37 des Infektionsschutzgesetzes eingesetzt wurden an 288 Wasserproben von verschiedenen Wassergewinnungsanlagen und Trinkwassersystemen nachzuweisen, um das Verhalten der Sporen der Bacillus Spezies in diesen Bereichen zu beschreiben und mit den bisher üblichen Keimen der Trinkwasseruntersuchung in Beziehung zu setzen. Es sollte überprüft werden, ob eine Korrelation zwischen der Koloniezahl und der Zahl der aeroben Sporenbildner nachgewiesen werden kann. Es wurden 77 Wasserproben aus dem Leitungswassersystem der Uni-Klinik Frankfurt entnommen und auf Vorkommen von Sporen der Bacillus Spezies, Koloniezahl, E. coli und Coliformen Bakterien untersucht. Alle 77 Wasserproben konnten bei einem Erfahrungsrichtwert von 10 KBE in 100 ml Trinkwasser und einer Koloniezahl von 100 pro 1ml Trinkwasser als zufrieden stellend angesehen werden. An keine der Proben konnte ein Wachstum von E. coli festgestellt werden, an 7 Wasserproben konnten Coliforme Bakterien nachgewiesen werden. Es konnte keine Korrelation zwischen Sporen der Bacillus Spezies und der Koloniezahl beim Leitungswassersystem der Uni-Klinik Frankfurt festgestellt werden. Von den 113 untersuchten Flachbrunnen von privaten Haushalten (Oberflächenwasser), konnten nach den strengen Trinkwasserverordnungsrichtlinien nur 60 Proben als zufrieden stellend bezeichnet werden, da aber diese Wassergewinnungsanlagen hauptsächlich zur Bewässerung dient, ist es unbedenklich. An keine der Wasserproben konnten Coliforme Bakterien nachgewiesen werden, und an 10 Wasserproben konnte E. coli nachgewiesen werden. Bei diesen Wassergewinnungsanlagen konnte eine Korrelation zwischen Sporen der Bacillus Spezies und der Koloniezahl nachgewiesen werden. Es wurden 82 Grundwasserproben der Stadtwerke Hanau entnommen, davon waren 35 Wasserproben gechlort und aufbereitet, 28 Wasserproben ungechlort und aufbereitet und 19 Proben waren ungechlortes Rohwasser. Vergleicht man die Werte der einzelnen Wasserarten miteinander, so stellt man fest, dass die Sporenzahl fast identisch ist, Werte zwischen 0-32 pro 100 ml Wasser. Die Aufbereitung und Chlorung des Wassers verändert die Sporenzahl nicht. Die Koloniezahl ist bei Rohwasser aber deutlich höher als bei aufbereiteten und gechlorten Wasser. Der Höchstwert bei gechlorten und aufbereiteten Wasser betrug 200 Kolonien pro 100 ml Wasser, bei aufbereiteten und ungechlorten Wasser stieg der Wert auf 4800 Kolonien an und bei Rohwasser sogar auf 5500 Kolonien pro 100 ml Wasser. In nur einer Rohwasserprobe konnte E. coli nachgewiesen werden, keine der Proben enthielt Coliforme Bakterien. Der Wert des Korrelationskoeffizienten war beim ungechlorten Rohwasser am Höchsten und beim aufbereiteten und gechlorten Wasser am niedrigsten. Vergleicht man die 6 Wasserproben des Oberflächenwassers der Wahnbach Talsperre mit den 4 Proben des Mains und des Rheins miteinander, so stellt man fest, dass in allen Wasserproben alle untersuchten Bakterienarten nachweisbar waren. Die höchste Koloniezahlkonzentration von 1.420.000 pro 100 ml wurde im Oberflächen-wasser des Mains nachgewiesen, der zweithöchste Wert von 960.000 pro 100 ml war im Oberflächenwasser des Rheins. Die höchste Sporenzahl von 26.000 pro 100 ml wurde in der Wasserprobe der Wahnbach Talsperre ermittelt, der Main und der Rhein hatten fast identische Werte zwischen 2700 und 5800 Sporen pro 100 ml Wasser. Der höchste Korrelationskoeffizient wurde hier bei den Wasserproben der Wahnbach Talsperre ermittelt, der niedrigste Wert wurde bei den Wasserproben des Rheins ermittelt. Auf Grund ihres differenzierten Nährstoffbedarfs kann sich die Gattung Bacillus in nährstoffärmeren Biotopen nicht vermehren und befinden sich deshalb vermehrt in Oberflächenwasser und den oberen Erdschichten. Sie stellen im Grundwasser und den Folgebereichen seiner Nutzung einen Indikator für den Grad der Kontamination des Wassers mit Abfallstoffen dar. Obwohl der Nachweis der Sporen der Bacillus Spezies sehr leicht erbracht werden kann, und in jedem Stadium der Untersuchung nachweisbar ist, muß bei der Entnahme der Wasserprobe sehr vorsichtig gearbeitet werden, da es in den oberen Bodenschichten leicht zu einer Einschleppung der Sporen der Bacillus Spezies kommen kann und somit zu einer Ver-fälschung der Ergebnisse. Bei Korrekter Probeentnahme ist aber die Aussagekraft der Sporen der Bacillus Spezies sehr hoch. Ein Vorteil der Auszählung der Sporen ist, dass die analytische Methode nur Sporen misst, andere Bakterienformen werden nicht gezählt. Die Auszählung der Sporen und der Koloniezahl sind zwei der wertvollsten Parameter der Wasserqualität. Die Konzentration der Sporen liegt im Grundwasser und seinem Folgebereich zwischen 0,39 und 1,81 pro 100 ml Wasser. In Oberflächenwasser liegt die Konzentration der Sporen der Bacillus Spezies zwischen 1050 und 4500 pro 100 ml Wasser. Die ermittelten Werte dieser Arbeit entsprechen fast alle den Normwerten. Das Vorkommen aller im Rahmen dieser Arbeit untersuchten Bakterienarten mit sehr hoher Bakterienanzahl konnte nur in den nährstoffreichen Oberflächenwasserproben von Rhein, Main und der Wahnbach Talsperre nachgewiesen werden. Von den 288 untersuchten Wasserproben können 264 Proben unter Betrachtung der Grenzwerte als hygienisch einwandfrei bezeichnet werden. Nach dem heutigen Stand der Literatur ist der Nachweis der Sporen der Bacillus Spezies ein wertvoller und aussagekräftiger Parameter für den Grad der Wasserverschmutzung mit Abfallstoffen, er ist ein Maß für die Effizienz der Aufbereitung bzw. der Kontamination des Grundwassers und somit ein geeigneter Parameter für die hygienische Trinkwasseruntersuchung.
In der vorliegenden Arbeit wurde ein tierexperimentelles Wundheilungsmodell etabliert, welches nach Kultivierung und Transplantation autologer Keratinozyten auf einer biologische Trägermembran aus Hyaluronsäure ein Vergleich mit verschiedenen Wundauflagen im Rahmen einer standardisierten Wundbehandlung erlaubte. Acht narkotisierten Schweinen wurden paravertebral 6 Polytetraflouroethylen-Kammern implantiert und die entstandenen Vollhautwunden mit verschiedenen Wundauflagen konditioniert. Parallel dazu erfolgte die Gewinnung und Kultivierung autologer Keratinozyten auf dem Zellkulturträger Laserskin – einer Hyaluronsäureestermembran. Die Transplantation der Zellen erfolgte 1 Woche nach Wundsetzung und anschließend wurden die Wunden mit den verwendeten Wundauflagen Jelonet, Schaumstoff und Hyalofill-F, einem Hyaluronsäureesterfleece, zweitägig über einen Zeitraum von 3 Wochen behandelt. Zu fest definierten Zeitpunkten erfolgten die vergleichenden photooptischen Dokumentationen und histologischen Untersuchungen (Hämatoxilin-Eosin-Färbung, Bindegewebsfärbung nach Goldner, Elastika-Anfärbung nach Weigert) der Wunden. Zur Bestimmung der biomechanischen Narbenqualität wurde das exzidierte Narbengewebe am Versuchsende 21 Tage nach Transplantation mechanischen Zugversuchen im Laserextensiometer zugeführt und die Zugfestigkeit und Dehnung bei Maximalspannung des Gewebes bestimmt. Sowohl die mikro- und makroskopischen als auch die biomechanischen Eigenschaften der untersuchten Wunden zeigten unabhängig von dem untersuchten Tier, der untersuchten Wunde bzw. der Wundbehandlung und unabhängig vom Zeitpunkt das einheitliche Bild eines neu entstandenen Narbengewebes ohne Anzeichen einer Epithelneubildung und ohne signifikante Unterschiede hinsichtlich der Zugfestigkeit und des Dehnungsverhaltens. Verschiedene Ursachen mögen für die ausbleibende Reepithelialisierung verantwortlich sein. Es konnte jedoch mit Hilfe der hier vorgestellten Wundheilungsstudie mit verschiedenen Wundauflagen an einem Hausschweinemodell eine systematische, reproduzierbare und standardisierte Methode entwickelt werden, um Narbengewebe hinreichend zu beschreiben. Weitere Anstrengungen werden noch notwendig sein, um die Lücke zwischen tierexperimentellen Studien und bereits klinisch erfolgreich angewandten Transplantation autologer Keratinozyten beim Menschen zu schließen.
In dieser Arbeit wurde im Rahmen einer großen prospektiven, internationalen, multizentrischen, doppelblinden und randomisierten Studie an einer Subgruppe von 44 Patienten mit elektiver Hüftgelenkersatzoperation die Plättchenadhäsivität an silikonisiertem Glas untersucht. Ziel der Gesamtstudie war es, die Effiezienz von drei unterschiedlichen Hirudin-Dosen im Vergleich zu der üblichen Behandlung mit unfraktioniertem Heparin in der antithrombotischen Wirkung zu prüfen. 12 Patienten erhielten 2 x 10 mg, 10 Patienten 2 x 15 mg, 11 Patienten 2 x 20mg Hirudin und 11 Patienten 3 x 5000 IE unfraktioniertes Heparin. Bei allen Patienten wurde am 10. postoperativen Tag eine Phlebographie vorgenommen. Bei 6 Patienten stellte man phlebografisch eine Beinvenenthrombose ohne klinische Symptome fest. Der Plättchenadhäsivitätindex stieg unspezifisch in allen Gruppen am 1.postoperativen Tag an und fiel am 3./4. postoperativen Tag wieder mehr oder weniger gleich stark ab. Präoperativ sowie am 1. und 3./4. postoperativen Tag wurden zusätzlich folgende Parameter bestimmt: aPTT, Heptest, Fibrinogen und F VIII assoziertes Antigen. APTT stieg in beiden Gruppen an. Fibrinogen und F VIII stiegen postoperativ deutlich an. Da aber dieser Anstieg sowohl bei der Thrombosegruppe als auch bei der Nicht-Thrombosegruppe auftrat, hatten auch diese Werte keinen prädiktiven Wert. Der Heptest stieg minimal in beiden Gruppen. Dieser Test ist auch verwendbar zur Überwachung einer Behandlung mit Thrombinhemmern.
Größere Knochendefekte, Pseudarthrosen oder verzögerte Frakturheilungen erfordern
die Transplantation von autologer Spongiosa mit dem Nachteil schmerzhafter
Entnahmedefekte. Die biologische Wertigkeit alternativer und osteokonduktiv
wirkender Knochenersatzmaterialien sollte in der vorgelegten Arbeit in vitro beurteilt
werden. Hierbei sollten Adhäsion und Funktion mesenchymaler Stammzellen (MSC)
und endothelialer Progenitorzellen (EPC) alleine und in Co-Kultur untersucht werden.
Während die MSCs auf Scaffolds die Knochenneubildung fördern können, wird
angenommen, dass die zusätzliche Verwendung von EPCs die Gefäßeinsprossung
zusätzlich fördert. Zur Anwendung kamen Tutoplast® als humaner Knochenersatz,
Cerabone® als boviner Knochenersatz, drei verschiedene Tricalciumphophate (ß-TCP:
Chronos® und Vitoss®; -TCP BioBase®) und ein mit Silikon-beschichtetes
Hydroxylapatit (Actifuse®). Hierzu wurde die Zahl der adhärenten Zellen auf den
verschiedenen Matrices fluoreszenzmikroskopisch ermittelt. Außerdem wurde die
metabolische Aktivität der Zellen auf den Knochenersatzstoffen mit dem MTT-Test
untersucht sowie mittels RT-PCR nachgewiesen, ob sich die Zellen weiter
differenzieren und ihre Fähigkeit beibehalten. Darüberhinaus wurden die einzelnen
Knochenersatzstoffe in der Zusammenschau mit den adhärenten Zellen
elektronenmikroskopisch bewertet.
Grundsätzlich konnten erhebliche Unterschiede sowohl zwischen den einzelnen
Knochenersatzstoffen als auch zwischen den untersuchten Zellpopulationen
festgestellt werden. Bei alleiniger Besiedlung mit MSCs ist festgestellt worden, dass
Tutoplast® die höchsten Adhäsionsraten, gekoppelt mit einer guten
Stoffwechselaktivität im MTT-Test und bei der Expression der osteogenen Proteine
cbfa-1 und Osteocalcin aufweist. Diese Ergebnisse wurden durch die REM bestätigt, die
eine fibrillenähnliche Struktur von Tutoplast® zeigt und somit eine fast flächige
Adhäsion ermöglicht. Chronos® zeigt als einziges Knochenersatzmaterial ebenfalls eine
gute Adhäsion, Funktion und Morphologie, während die anderen Tricalciumphophate,
Actifuse® und Cerabone® deutlich abfielen.
Interessanterweise findet sich bei der reinen EPC-Gruppe ein ganz anderes Ergebnis.
Hier zeigt Actifuse® eine sehr gute Zelladhäsion, gefolgt von Biobase®. Dies bestätigt
sich auch im MTT-Test und bei der mRNA-Expression endothelialer Proteine, wie dem
von Willebrandt Faktor und VEGF. Die Ergebnisse der Co-Kultur zeigen hingegen
wiederum Tutoplast® und Chronos® mit guten Ergebnissen, interessanterweise aber
auch Actifuse® und Biobase® mit deutlicher Überlegenheit gegenüber den allseits
schlecht abschneidenden Produkten Cerabone® und Vitoss®. Während Tutoplast® und
Chronos® in der Co-Kultur höhere Anteile an MSCs aufwiesen, konnte bei Actifuse®
und Biobase® ein relativ hoher Anteil an EPCs festgestellt werden. Alleine bei Chronos®
konnte ein synergistischer Effekt der Co-Kultur in Bezug auf die adhärenten Zellzahl
festgestellt werden, die gegenüber der Einzelkultur über die Zeit stabil blieb. In der
Summe sind die Zelladhäsionen, -funktionen und Genexpressionen bei den vier
wirksamen Knochenersatzmaterialien in dieser Gruppe statistisch nicht
unterschiedlich.
Die Ergebnisse zeigen, dass bei der Verwendung von osteokonduktiven
Knochenersatzmaterialien deren spezifische Auswirkungen auf die Zelladhäsion und
Funktion berücksichtigt werden muss. Sowohl die Funktion der EPCs im Hinblick auf
eine vaskulären Anschluss des neugebildeten Knochens wie auch der MSCs im Hinblick
auf eine osteogene Differenzierung sollten optimal sein. Die in dieser Studie
festgestellten Effekte konnten bereits in einer in vivo Studie an einem critical size
Femurdefektmodell bestätigt werden, indem die kombinierte Anwendung von EPCs
und MSCs auf Chronos® die beste Frakturheilung zeigte.
Abschließend kann festgehalten werden, dass man bei der Verwendung des richtigen
Scaffolds mit den geeigneten Zellen einen adäquaten Knochenersatz induzieren kann,
der mittelfristig zu einer Vermeidung der schmerzhaften Entnahme von Spongiosa aus
dem Beckenknochen führen kann.
Die menschliche Kommunikation von Angesicht zu Angesicht findet hauptsächlich auf audiovisueller Ebene statt. Normalerweise liefert der Gesprächspartner sowohl visuelle als auch auditorische Information. Es ist einfacher jemanden zu verstehen, wenn ein visueller Eingang vorliegt, weil visuelle Signale wie Mund- oder Zungenbewegungen komplementäre Informationen zum auditorischen Eingang liefern. In dieser Studie wurden die Hypothesen aufgestellt, dass (I) sowohl die Spracherkennung als auch die Stimmenerkennung bei fehlendem visuellem Eingang durch Zugriff auf visuelle Sprecher-spezifische Informationen optimiert werden kann und, dass (11) diese Optimierung auf Gehirnarealen für die visuelle Gesichtsverarbeitung beruht. Diesen Hypothesen wurde mit Hilfe von Verhaltenstests und der funktionellen Bildgebung in zwei Gruppen nachgegangen: Probanden mit einer mangelnden Fähigkeit, Gesichter zu erkennen (Prosopagnosie), und entsprechende Kontrollprobanden. Die Ergebnisse zeigten, dass das Beobachten einer bestimmten Person beim Reden für 2 min die darauffolgende rein auditorische Spracherkennung sowie die Stimmenerkennung verbessert. Bei beiden Gruppen, sowohl bei den Prosopagnostikern als auch bei den Kontrollprobanden, konnten die verbesserten Verhaltensdaten beim Erkennen des Sprachinhalts auf ein Areal zurückgeführt werden, das für die Verarbeitung von Gesichtsbewegungen zuständig ist. Bessere Verhaltensdaten bei der Stimmenerkennung konnten nur bei den Kontrollprobanden nachgewiesen werden, was auf einem Areal beruht, das der Verarbeitung der Gesichtserkennung zugeordnet wird. Diese Befunde stellen gängige unisensorische Modelle der Sprachverarbeitung infrage, da hier gezeigt werden konnte, dass das Gehirn selbst bei der rein auditorischen Spracherkennung auf zuvor gelernte audiovisuelle Zusammenhänge zurückgreift um die Kommunikation zu optimieren. Das legt die Möglichkeit nahe, dass dieser Optimierung Sprecher-spezifische audiovisuelle interne Modelle zugrunde liegen, welche benutzt werden, um ein sprechendes Gesicht zu simulieren.
Atherosklerotische Stenosen der Karotiden sind eine häufige Erkrankung mit variablem Verlauf und stellen durch ihre potentielle Emboligenität einen wichtigen Risikofaktor für zerebrale Ischämien dar. Klinische und paraklinische Parameter helfen, das individuelle Schlaganfallrisiko bei Patienten mit hochgradigen ACI-Stenosen einzuschätzen, das unmittelbar nach einem thrombembolischen Ereignis besonders hoch ist. Als histomorphologisches Korrelat dieser "Vulnerabilität" wird die Ruptur der fibrotischen Deckplatte der Plaque propagiert, die häufiger bei symptomatischen Patienten nachzuweisen ist. Sie korreliert mit der Infiltration der Gefäßwand durch aktivierte Leukozyten, die über molekulare und zelluläre Interaktionen die Zell- und Bindegewebskomposition der Plaque verändern können. Die strukturelle Integrität atherosklerotischer Läsionen beruht auf der extrazellulären Vernetzung von kollagenem Bindegewebe, das überwiegend von phänotypisch veränderten glatten Gefäßmuskelzellen produziert wird. Eine Hypothese besagt, dass die im Rahmen der Inflammation stattfindende Zunahme proapoptotischer Mediatoren über eine Ausdünnung der zellulären und bindegewebigen Strukturen zu einem Verlust an mechanischer Stabilität führt und somit eine symptomatische Ruptur begünstigt. Da der Nachweis einer Ruptur mit Exponierung des thrombogenen nekrotischen Kerns allerdings nur in einem Teil der symptomatischen Plaques und umgekehrt auch in einem Teil der asymptomatischen nachgewiesen werden kann, ist aber bislang unklar, ob o.g. Abläufe in der humanen Karotis-Atherosklerose tatsächlich mit einer klinischen Relevanz einhergehen. In der vorliegenden Arbeit wurde daher das Auftreten der Apoptose von glatten Gefäßmuskelzellen (mittels DNA in situ end labeling Technik, TUNEL-Färbung) in 38 prospektiv gesammelten Endarterektomie-Präparaten hochgradiger Karotisstenosen quantitativ erfasst und statistisch in Beziehung gesetzt zu Parametern der Plaque-Instabilität, klinisch definiert durch kürzliche (< 60 Tage zurückliegende) ischämische Ereignisse (n=19) und histopathologisch definiert über den Nachweis einer Plaque-Ruptur (n=14). Außerdem wurde eine morphometrische Analyse der einzelnen Plaque-Komponenten durchgeführt und deren Ergebnisse zu den zellulären und klinischen Parametern in Beziehung gesetzt. Die Morphometrie ergab keine signifikanten Unterschiede zwischen symptomatischen vs. asymptomatischen und rupturierten vs. unrupturierten Plaques was die Größe der fibrotischen Deckplatte, die durchschnittliche Dicke (Kern-Lumen-Distanz) und die dünnsten bzw. dicksten Stellen der Deckplatte anbelangt. Anzahl und Konzentration apoptotischer glatter Muskelzellen war deutlich (p<0,001) erhöht in symptomatischen, klinisch instabilen, Karotisplaques. Allerdings waren die Apoptose-Raten in Präparaten, die eine Plaque-Ruptur aufwiesen, nicht signifikant erhöht. Darüber hinaus fand sich kein Hinweis darauf, dass erhöhte Apoptose-Raten zu einem quantifizierbaren Verlust glatter Gefäßmuskelzellen in der fibrotischen Deckplatte führen. Auf dem Boden dieser Ergebnisse kann gefolgert werden, dass erhöhten Apoptose-Raten glatter Gefäßmuskelzellen in der humanen Atherosklerose offenbar eine tragende Bedeutung bei der Entwicklung thrombembolischer Ereignisse zukommt. Allerdings wird die Annahme, dass erhöhte Apoptose-Raten über einen Verlust an glatten Gefäßmuskelzellen Einfluss auf die morphometrischen Eigenschaften der fibrotischen Deckplatte atherosklerotischer Karotis-Läsionen nehmen und zu deren Ausdünnung führen durch die vorliegende Untersuchung nicht gestützt. Vielmehr scheint es plausibel, dass die Apoptose glatter Muskelzellen im Rahmen inflammatorischer Prozesse Einfluss auf die Komposition der Karotisplaque nimmt und so über eine Desintegration der zellulären und bindegewebigen Bestandteile zu reduzierter mechanischer Widerstandskraft und Rupturneigung führt.
Ausgangspunkt für diese Arbeit war die Fragestellung ob eine periprothetische Osteopenie nach zementfreiem endoprothetischem Hüftgelenksersatz durch die Bestimmung von Knochenresorptionsmarkern im Serum, hier speziell der osteoklastenspezifischen aktiven Isoform 5b der Tartrat resistenten sauren Phosphatase (TRAP 5b) diagnostizierbar ist. Außer der Tartrat resistenten sauren Phosphatase wurden gleichzeitig das Osteocalcin, die Knochenspezifische Alkalische Phosphatase sowie die Serum Cross Laps mitgemessen. Die Blutentnahmen erfolgten an den 17 ausgewählten Patienten erstmalig am Tage vor der Operation als Blutreferenzwert. Die weiteren Blutentnahmen wurden 2 Wochen, 3, 6, 8, 12, 16 und 26 Wochen postoperativ durchgeführt. Gleichzeitig wurde eine Messung der periprothetischen Knochendichte mit dem etablierten Verfahren der DEXA durchgeführt. Diese Messungen erfolgten 1,2,8,16 und 26 Wochen nach der Operation in den 7 Arealen um die Prothese nach GRUEN. Um eine generelle Änderung der Knochendichte erfassen und somit eine Beeinflussung der ermittelten Ergebnisse auszuschließen bzw. erkennen zu können wurde präoperativ sowie 26 Wochen postoperativ eine Knochendichtemessung der Lendenwirbelkörper 1-4 durchgeführt. Die durchgeführten Messungen zeigten einen signifikanten postoperativen Anstieg der Konzentrationen des Knochenresorptionsmarkers TRAP 5b, der sich parallel zu dem Knochendichteabfall in den 7 Arealen um die Prothese nach GRUEN verhielt. Als Schlussfolgerung aus den erzielten Ergebnissen kann man sagen, dass der Knochenresorptionsmarker TRAP 5b in der Lage ist, sensitiv die in der frühen postoperativen Phase nach Hüftendoprothesenimplantation auftretende Osteopenie im Bereich des Prothesenschaftes anzuzeigen.
Um die Privatsphäre der Kinder und deren Eltern zu schützen, wurden die Fotos der Kinder aus dieser PDF-Datei entfernt. Interessierte Eltern oder Fachleute können die vollständige Arbeit als PDF-Datei (11 MB) zum Download bei http://www.leona-ev.de/piper/ oder chrispiper@freenet.de anfordern. Chromosomenstörungen gehören mit einer Häufigkeit von 1,8/1000 Neugeborene zu den häufigeren angeborenen Störungen. Die Mehrzahl der betroffenen Kinder stirbt bereits intrauterin in der Frühschwangerschaft, weil schon Nidation bzw. die frühe Embryonalentwicklung durch die Chromosomenstörung verhindert werden. Etwa 50% aller Spontanaborte sind durch eine Chromosomenstörung verursacht. Einige Chromosomenstörungen wie z.B. komplette Trisomie 14 oder 16 führen immer zu einem Abort, so daß keine die normale Schwangerschaft überlebenden Patienten bekannt sind. Bei den Trisomien 13 und 18 enden 95% der Schwangerschaften mit einem Abort, bei der häufigeren Trisomie 21 sterben 80% der Patienten intrauterin. Von den lebendgeborenen Kindern mit Chromosomenaberrationen sterben wiederum viele schon im ersten Lebensjahr, zumeist aufgrund schwerer Fehlbildungen, insbesondere Herzfehlern und Nierenfehlbildungen. Während der Phänotyp der häufigeren Chromosomenstörungen gut bekannt ist, gibt es bis auf die Trisomie 21 nur wenige Untersuchungen zu ihrem Verlauf. Systematische Daten zur psychomotorischen Entwicklung der Patienten, zu Komplikationen, zu möglichen Therapien sowie zur Effektivität der Therapien fehlen völlig. So wird auch heute noch in vielen Arztbriefen davon ausgegangen, daß Kinder mit Trisomie 13 oder 18 innerhalb der ersten Lebensmonate versterben und deshalb werden Therapien - wenn überhaupt - nur verzögert oder partiell eingeleitet. Darüber hinaus wird den Eltern durch die Prognose eines schnellen und frühen Todes ein Verlauf suggeriert, der im Einzelfall eben nicht eintreten muß. Die Beziehung zum Patienten, die Erwartungen an den Patienten sowie der Umgang mit dem Patienten, die gesamte Lebensplanung einer Familie und viele Dinge mehr werden dadurch in eine nicht gerechtfertigte Richtung gelenkt. Bei einigen Patienten führte falsche Voraussage eines „baldigen frühen Todes“ soweit, daß die Eltern und die Umgebung ständig darauf wartete, daß der Patient stirbt und die Diagnose von Eltern und Ärzten bezweifelt wurde als das Kind die ersten Lebensjahre überlebte. Mehrfach wurden deshalb Chromosomenanalysen wiederholt, um die Diagnose zu überprüfen. Gerade in unserer Zeit, in der die Intensivmedizin und die operativen Techniken auch Patienten mit komplexen Fehlbildungen ein Überleben ermöglichen, gibt es deshalb immer mehr Patienten mit Chromosomenstörungen, die ein höheres Lebensalter erreichen. Daraus folgt unmittelbar, daß mehr Daten über ältere Patienten mit Chromosomenstörungen gewonnen werden müssen, um bessere und individuellere Therapien zu entwickeln.
Die Stellung der Breitensportart Rudern als gesundheitsfördernde Sportform ist in der Literatur gleichlautend positiv beschrieben. Im leistungsorientierten Rudersport müssen neben den Verletzungen und Fehlbeanspruchungen der eigentlichen Sportart die unabdingbaren Nebentrainingsformen berücksichtigt werden. In den neunziger Jahren vollzog sich ein trainingsmethodischer Wandel, die Einführung eines erschwinglichen Rudersimulators und eine technische Weiterentwicklung im Boots- und Ruderbau. Einhergehend kam es zu einer geänderten Belastungsphysiologie, so daß neue Untersuchungen sinnvoll erscheinen. Die vorliegende Arbeit erhebt über den retrospektiven Zeitraum von vier Jahren explorativ das Auftreten von Verletzungen und Fehlbeanspruchungen, wobei deren Qualität und Verteilung in den Trainingsformen Wasser-, Ergometer-, Kraft-, Hallen-, Rad-, Lauftraining und die unter dem Punkt "Sonstige" zusammengefaßten übrigen Trainingsformen registriert wurden. Diese Studie beschreibt trainingsformspezifische Fehlbeanspruchungen und Verletzungen sowie deren Auftreten bei den Beobachtungseinheiten Geschlecht, Leistungsgruppe und Gewichtsklasse. Im Rahmen der Diskussion werden Möglichkeiten und Ansätze zur Prävention erörtert und aufgezeigt. Erfaßt wurden bei einer Rücklaufrate von 44% anhand von auf Meisterschaften und Wettkämpfen ausgeteilten sowie an Bundes- und Landestrainer versendeten tabellarischen Fragebögen die Daten von 110 Wettkampfruderern. Als Kriterium der Aufnahme in diese Studie galt die Teilnahme an nationalen Meisterschaften oder ein der Altersklasse angepaßter wöchentlicher Trainingsumfang. Die Zuordnung der Sportler in die jeweilige Beobachtungseinheit der beiden Leistungsgruppen erfolgte aufgrund von Kaderzugehörigkeit, Teilnahme an internationalen Meisterschaften und zeitlichem Umfang des wöchentlich realisierten Trainings. Der Trainingsumfang der Ruderer beläuft sich in dieser Studie im Durchschnitt auf 12,8 Stunden reiner Belastungszeit pro Woche. Korrelierend zu den verschiedenen Jahreszeiten gestaltet sich das Training der Ruderer unterschiedlich. Im sogenannten Sommertraining, das die Wettkampfperiode beinhaltet, liegt der Schwerpunkt auf der eigentlichen Sportart, was anhand der Trainingsgewichtung von über 77% des Gesamttrainingsumfanges bestätigt wird. Einzig das Krafttraining wird in diesem Zeitraum mit 11% des Umfanges noch erwähnenswert häufig betrieben. Während des aus Übergangs- und Vorbereitungsperiode bestehenden Wintertrainings überwiegen die Nebentrainingsformen deutlich. Das Rudern selbst wird nur zu dem geringen Anteil von knapp 30% des Trainingsumfanges betrieben, wobei das für leistungsorientierte Ruderer unabdingbare Krafttraining in diesem Zeitraum mit 27% den zweitgrößten Stellenwert hat. Neben dem ebenfalls mit großen Anteilen betriebenem Ergometer- und Lauftraining ist in Anbetracht der hohen Beschwerderate beim Hallensport noch der Trainingsanteil von 7% zu erwähnen. Bei 249.480 erfaßten Belastungsstunden wurden bei 57% der Sportler Verletzungen und bei jedem Athleten Fehlbeanspruchungen erfaßt. Die dominierenden Verletzungsformen waren muskuläre Prellungen und Zerrungen sowie Schädigungen der Bandstrukturen der Sprunggelenke in Form von Bänderdehnungen und -Rupturen. Traumen größeren Schwergrades wurden, von der einen bei den sonstigen Trainingsformen aufgetretenen Lendenwirbelkörperfraktur abgesehen, in dieser Studie nicht gefunden. Als die mit Abstand verletzungsreichste Sportform mit erheblichen trainingsbegrenzenden Konsequenzen erweist sich der Hallensport, wobei eine für Ballsportarten typische Lokalisationshäufigkeit am Sprunggelenk aufzufinden war. Männliche Athleten und Hochleistungssportler wiesen jeweils höhere Verletzungsraten als ihre Vergleichpartner auf. Beim Rudern fand sich als sportartspezifisches und zugleich geringfügiges Trauma die bei rudertechnischer Unzulänglichkeit entstehenden Hautabschürfungen der Handknöchel. Schädigungen der Bandstrukturen der Sprunggelenke fanden sich in dieser Sportform nicht. Joggen und die nicht näher erfragten "sonstigen" Sportformen zogen bevorzugt Distorsionen der Sprunggelenke nach sich, wohingegen Rad-, Kraft- und Ergometertraining vereinzelt zu Verletzungen in Form von muskulären Zerrungen führten. Im Vordergrund der Beschwerdesymptomatiken der erfaßten Fehlbeanspruchungen fand sich in allen Trainingsformen eine hohe Betroffenenrate von muskulären Verspannungen. Als ruderspezifisch zu bezeichnende Fehlbelastungen lagen bei 89% der Ruderer subepidermale Blasenbildungen im Bereich zwischen distaler Hohlhandbeugefalte, Grundgliederbeugefalten sowie auf den Grund- und Mittelphalangen vor. Weiterhin fanden sich sportartspezifisch hohe Beschwerderaten der Lendenwirbelsäule und der Kniegelenke sowie im etwas geringeren Umfang Überlastungen der Sehnenstrukturen der Handgelenke ("rower's wrist"). Neben der eigentlichen Sportform treten Fehlbeanspruchungen gleicher Symptomatik beim Ergometer- und Krafttraining auf, wobei die Betroffenenraten korrelierend mit dem geringeren Trainingsumfang niedriger liegen. Athletinnen und Schwergewichte weisen beim Ergometertraining eine deutlich erhöhte Beschwerderate auf. Das Lauftraining führte bei Athleten gehäuft zu Beschwerdesymptomatiken der Kniegelenke. Der aus Art und Umfang der Konsequenzen zugewiesene Schweregrad der erfaßten Verletzungen und Fehlbeanspruchungen zeigt zwischen Geschlecht, Leistungsklasse und Gewichtsklasse teils deutliche Differenzen. Bei ähnlicher Verteilung der Schweregrade der Verletzungen beider Geschlechter waren männliche Athleten zu höherem Anteil von Fehlbeanspruchungen leichten und zu kleineren des schweren Typs betroffen. Bei den Leistungsgruppen finden sich nur geringe Unterschiede der Schweregrade von Verletzungen. Bezüglich der Fehlbeanspruchungen fanden sich bei den Hochleistungssportlern signifikant vermehrt mittelschwere Formen, wohingegen Leistungssportler eher leichte und schwere Fehlbelastungsformen erlitten. Schwergewichte waren vermehrt von schweren Verletzungen betroffen, wohingegen Leichtgewichte zu größeren Teilen mittelschwere angaben. Bezogen auf die Fehlbeanspruchungen fanden sich bei den schwergewichtigen Sportlern charakteristisch vermehrt mittelschwere Formen und bei den Leichtgewichten geringfügig vermehrt leichte. Eine Prävention von Verletzungen ist im leistungsorientiertem Rudersport in besonderem Maße durch Überdenken der Struktur des Hallentrainings möglich. Fehlbeanspruchungen und chronische Überlastungsschäden können insbesondere durch Korrektur von Bewegungsabläufen, Reduzierung biomechanisch ungünstiger Belastungen, durchdachter Trainingsmethodik und regelmäßige sportmedizinische Überwachungen vermindert werden.
Für diese retrospektive Studie wurden 157 Sportlerinnen in den Sportarten Fußball, Handball und Basketball über ihre Verletzungen und Fehlbelastungsfolgen in einem Erfassungszeitraum von 4 Jahren befragt. Die Sportlerinnen wurden in die Leistungsklassen Hochleistungssport und Leistungssport eingeteilt.
Die Probandinnen waren im Fußball durchschnittlich 22,2 Jahre alt, hatten im Schnitt 12,7 Trainingsjahre hinter sich und trainierten 7,9 Stunden in der Woche mit einem prozentualen Krafttrainingsanteil von 23%. Die Wettkampfanzahl pro Jahr lag bei durchschnittlich 32,7. Die relativ kleine Anzahl von 7 Hochleistungsfußballerinnen kann diese Werte als zu niedrig verfälscht haben.
Im Handball lag das Durchschnittsalter bei 25,1 Jahren, 16,3 Trainingsjahren und 8,9 Wochenstunden Training mit 16% Krafttrainingsanteil. Die Zahl der Wettkämpfe betrug durchschnittlich 33,4 pro Jahr.
Die Basketballerinnen waren durchschnittlich 23,6 Jahre alt, seit 12,7 Jahren im Training und von 9,7 Stunden Wochentraining zu 18% im Kraftraum. Sie absolvierten 41,6 Wettkämpfe im Jahr.
Im Erfassungszeitraum von 4 Jahren trat bei fast allen Sportlerinnen, bis auf 4 Leistungssportlerinnen im Fußball, mindestens einmal akut eine Verletzung auf, bei allen jedoch mindestens einmal eine Fehlbelastungsfolge. Das heißt, dass 97% der Befragten mindestens einmal akut verletzt waren, in Sportarten aufgeteilt, dass zu 100% im Handball und Basketball jede Sportlerin mindestens einmal verletzt war.
Im Fußball ergab sich eine Verletzungshäufigkeit von 2,18 akuten Verletzungen, bzw. 2,25 Fehlbelastungsfolgen pro Jahr. Auf je 100 Belastungsstunden gab es 0,47 Verletzungen bzw. 0,50 Fehlbelastungsfolgen pro Jahr. Die Handballerinnen hatten eine Verletzungshäufigkeit von 2,55 pro Jahr und 2,12 Fehlbelastungsfolgen. Auf 100 Belastungsstunden entspricht dies einer Verletzungshäufigkeit von 0,53 akuten Verletzungen pro Spielerin und 0,43 Fehlbelastungsfolgen pro Jahr.
Im Basketball lag die Verletzungshäufigkeit bei 1,89 akuten Verletzungen und bei 1,71 Fehlbelastungsfolgen, bzw. bei 0,35 akuten Verletzungen und bei 0,32 Fehlbelastungsfolgen bezogen auf 100 Belastungsstunden.
Hochleistungssportlerinnen waren aufgrund des relativ hohen Trainingsumfanges und der Wettkampfbelastung gegenüber den Leistungssportlerinnen pro Jahr absolut gesehen häufiger verletzt und mussten mit mehr Fehlbelastungsfolgen rechnen.
Pro Belastungsstunde zeigten jedoch die Leistungssportlerinnen mehr
Sportverletzungen und auch Fehlbelastungsfolgen. Ein erhöhtes Trainingspensum bzw. Wettkampfpensum bedeuten also nicht gleichviel mehr Verletzungen.
Rund 52% aller akuten Verletzungen waren leichte Verletzungen ohne notwendige Sportpause oder ärztliche Behandlung, etwa 28% waren mittelschwer, d.h. sie machten eine Sportpause von kürzer als 2 Wochen und/oder eine Behandlung durch einen Arzt notwendig und etwa 19% waren schwerer Art mit ärztlicher Behandlung und einer Sportpause von länger als 2 Wochen.
77% aller Fehlbelastungsfolgen waren leichte, rund 20% mittelschwer und lediglich ca. 3% aller Fehlbelastungsfolgen schwer. Todesfälle oder Invaliditätsfälle konnte diese Studie nicht erfassen.
Die meisten Verletzungen ereigneten sich im Wettkampf mit ca. 52% im Vergleich zu etwa 48% im Training. Da nun aber die Wettkampfzeit deutlich geringer ist als die Trainingszeit, ergab sich in den einzelnen Sportarten folgende Relation: im Fußball liegt der Faktor, der eine Aussage über die erhöhte Verletzungswahrscheinlichkeit im Wettkampf macht, bei 9, im Basketball bei 17 und im Handball ergab sich der Faktor 20. Diese Zahlen verdeutlichen die erhöhte Risikobereitschaft und damit
Verletzungsgefahr im Wettkampf.
Die häufigsten Verletzungen betrafen die Muskeln mit über 30% aller Verletzungen, insbesondere im Fußball und Handball, gefolgt von Gelenkverletzungen wie Supinationstraumata im oberen Sprunggelenk, besonders im Fußball und Basketball, und Distorsionen der Finger, besonders Handball und Basketball. Die meisten Fehlbelastungsfolgen zeigten sich an Gelenken, wie Hüftgelenk und Sprunggelenk im Fußball, Schulter-, Ellenbogen- und Kniegelenk im Handball und Sprung- und Kniegelenk im Basketball.
Die meisten der oben aufgeführten Beschwerden zogen keine weiteren
Konsequenzen wie Trainingsausfall oder Notwendigkeit einer ärztlichen Behandlung nach sich, sie sollten jedoch Anlass dafür sein, diese als erste Warnsymptome des Körpers zu erkennen, um weitere Schäden vermeiden zu können. Rund 3% aller Verletzungen oder Fehlbelastungsfolgen waren Frakturen, insbesondere im Fußball traten Zehen-, Clavicula-, Nasenbein- und Kieferfrakturen auf. 10% aller Frakturen waren Stressfrakturen.
Die meisten akuten Verletzungen ereigneten sich an der unteren Extremität mit über 50, in allen drei Sportarten, am häufigsten im Fußball (66% im Leistungssport und 59% im Hochleistungssport) und Basketball (67% im Hochleistungssport und 55% im Leistungssport). Auch die Fehlbelastungsfolgen waren an der unteren Extremität am häufigsten, im Basketball 67%, im Handball über 50% und im Fußball 48%.
Die obere Extremität war bei allen drei Sportarten (Fußball 18%, Handball und Basketball je 35%) am zweithäufigsten Ort akuter Verletzungen. Nur im Handball waren auch die Fehlbelastungsfolgen am zweithäufigsten betroffen. Dies war der Rumpf mit 36% im Fußball und 20% im Basketball.
Akute Verletzungen in der Kopfregion traten mit 14% im Fußball, mit 12% im Handball und mit knapp 5% im Basketball auf. Fehlbelastungsfolgen waren nur im Fußball mit fast 10% erwähnenswert.
Der Rumpf war in allen drei Sportraten selten akut verletzt, im Fußball mit fast 3% Anteil an allen akuten Verletzungen noch am häufigsten. Fehlbelastungsfolgen in der Rumpfregion traten bei den Handballerinnen mit fast 11% am seltensten auf.
Die meisten akuten Verletzungen pro Spielerin und Jahr zogen sich die Hochleistungsspielerinnen im Vergleich zu den Leistungssportlerinnen zu, im Fußball mit 2,68, im Handball mit 2,55 und Basketball mit 2,42 pro Spielerin und Jahr. Bei den Leistungssportlerinnen verletzten sich akut pro Jahr mit 2,54 Verletzungen die Handballerinnen, mit 2,08 die Fußballerinnen und mit 1,7 Verletzungen die Basketballerinnen.
Auf je 100 Belastungsstunden, Trainings- und Wettkampfstunden addiert, verletzten sich mit 0,58 akuten Verletzungen pro Jahr am häufigsten die Handballerinnen aus dem Leistungsbereich, gefolgt von den Fußballerinnen mit 0,48 Verletzungen im Leistungs- und 0,45 im Hochleistungsbereich. Die Handballerinnen im Spitzenbereich waren 0,34mal im Jahr akut verletzt. Mit 0,31 im Hochleistungsbereich bzw. 0,37 im Leistungsbereich verletzten sich die Basketballerinnen am seltensten.
Insgesamt gesehen verletzten sich am häufigsten pro Jahr und Spielerin die Handballerinnen mit durchschnittlich 2,55 Verletzungen, die Fußballerinnen mit 2,18 und die Basketballerinnen mit 1,89 Verletzungen.
Auf 100 Belastungsstunden ergab sich die gleiche Reihenfolge.
Die meisten Fehlbelastungsfolgen traten mit 2,54 pro Spielerin und Jahr im Hochleistungsbereich der Fußballerinnen auf und mit 2,48 im Handball des Spitzenbereichs. Mit 1,79 im Leistungsbereich bzw. 1,48 im Hochleistungsbereich waren die Basketballerinnen am seltensten verletzt.
Auf 100 Belastungsstunden zeigt sich mit 0,52 pro Spielerin und Jahr bei den Fußballleistungsspielerinnen die größte Verletzungshäufigkeit, gefolgt von den Handballerinnen im gleichen Leistungsniveau. Mit 0,19 Fehlbelastungsfolgen waren die Basketballerinnen im Hochleistungsbereich am seltensten verletzt.
Alle Sportlerinnen in der jeweiligen Sportart, zusammen betrachtet, zeigen, dass die Fußballerinnen mit 2,48 Fehlbelastungsfolgen pro Jahr zu rechnen haben, Handballerinnen mit 2,12 und Basketballerinnen mit 1,71 Fehlbelastungsfolgen.
Der überwiegende Teil aller akuten Verletzungen und Fehlbelastungsfolgen blieb für die Spielerinnen ohne Konsequenzen, d.h. sie hatten keine Sportpause und benötigten keinen Arztbesuch, in dieser Studie als leichte Verletzungen/Fehlbelastungsfolgen definiert.
Etwa jede vierte Verletzung bei den Basketballerinnen war von schwerer Art, d.h. eine Sportpause von länger als 2 Wochen und eine ärztliche Behandlung waren notwendig, darunter z. Bsp. Außenbandrupturen am oberen Sprunggelenk und Meniskusschäden. Etwa jede fünfte akute Verletzung, wie z. Bsp. Commotio cerebri, Nasenbeinfrakturen oder Distorsionen des Schultergelenkes, zwang die Fußballerinnen und Handballerinnen zu einer zweiwöchigen Sportkarenz.
Schwere Fehlbelastungsfolgen, wie z.B. Stressfrakturen der Tibia, hatten in allen drei Sportarten nur einen verschwindend geringen Anteil.
Vor Beginn eines leistungsmäßig-betriebenen Sports sollte eine sportärztliche Untersuchung durchgeführt werden, um Verletzungen und Überlastungsschäden, die aufgrund von anatomischen Varianten oder pathologischen Bewegungsmustern entstehen könnten, zu vermeiden, bzw. zu reduzieren. Pathologische Befunde bei Jugendlichen können Grund dafür sein, dass vom leistungsmäßigen Spiel abzuraten ist, um Sportschäden zu vermeiden.
Am Anfang sollte die Sportlerin für Materialbeschaffung fachkundigen Rat einholen, um mit optimalem Schutz (z. Bsp. Schienbeinschützer, hohe Basketballschuhe) einer Verletzung vorzubeugen.
Anatomische Varianten und Fehlstellungen des Bewegungsapparates sollten durch entsprechendes Material (z. Bsp. Einlagen, Sprunggelenksorthesen, Tape), aber auch durch ein gezieltes, individuelles Kraft-, Koordinations- und Techniktraining ausgeglichen werden. Besonders der Ausgleich einer muskulären Dysbalance im Bereich der Sprunggelenke (z. Bsp. Supinationstraumata) könnte das Verletzungsrisiko in dieser Region reduzieren.
Das Tapen bestimmter Gelenke (z. B. twin-taping an den Fingern) oder das sog. „physiologische Tapen“ sollte fachkundig angeleitet und ausgeführt werden.
Fehlerhafte Technik, mangelnde Kondition und mangelnder Trainingsaufbau sind ebenfalls Ursache für Verletzungen und Überlastungsschäden.
Somit ist die Zusammenarbeit von Ärzten, Trainern, Sportpsychologen und Physiotherapeuten von großer Bedeutung, um auf ausreichende Regenerationszeiten, realistische Zielsetzungen in der Rehabilitation, gesunde und richtige Ernährung sowie auf einen gutstrukturierten Trainingsaufbau achten zu können.
Im leistungsmäßig-betriebenen Sport ist die Risikobereitschaft immer hoch, so dass besonders im Auftreten von weiteren Faktoren wie Konzentrationsschwäche, Müdigkeit, mangelhaften Materials, fehlerhafter Ernährung etc. ein erhöhtes Verletztungspotential vorliegt.
Der überwiegende Anteil aller in dieser Studie erfassten Verletzungen trat während eines Wettkampfes auf, auch durch den Einfluss des Gegners. Um den Anteil an den Verletzungen, die aufgrund von Regelwidrigkeiten entstanden sind, zu reduzieren, sind von den Schiedsrichtern diese Regelverstöße konsequent zu ahnden, bzw. die Spielregeln durch die Sportverbände zu ändern.
Die vorliegende Arbeit befasst sich mit Verletzungen im leistungsorientierten Kanusport. Deutsche Kanusportler der Disziplinen Rennsport, Slalomsport und Wildwasserabfahrt, unterteilt in die Kategorien Kajak und Kanadier, sollten die Verletzungen der letzten 4 Jahren vor dem Befragungszeitraum 2005 bis 2006 angeben. Ziel war es herauszufinden, welche Verletzungen für jede Kategorie und Disziplin sportarttypisch waren, ob es Unterschiede zwischen den Kategorien und Disziplinen gab, welche trainierte (Begleit-)Sportart die höchste Verletzungsrate hatte und welche endogenen und psychosozialen Faktoren Einfluss auf die Verletzungen hatten. Zu den häufigsten Verletzungen im leistungsorientierten Kanusport zählten die Handgelenkschmerzen, Blasen- und Hornhautbildung an Händen und Füßen, Schulterschmerzen, insbesondere das subakromiale Impingementsyndrom, Blockierungen der Brust- und Halswirbelsäule, Schmerzen im Lendenwirbelsäulenbereich, Dysästhesien der Beine, Knieschmerzen, Muskelkrämpfe, Muskelverspannungen und Muskel- und Sehnenverkürzungen. An Blasenbildung und Hornhautbildung an den Händen sowie Muskelverspannung litten die meisten Sportler aller Kategorien und Disziplinen. Die meisten Sportler der Kajakkategorien litten an Schulterschmerzen, Handgelenkschmerzen und Dysästhesien der Beine. Knieschmerzen und Schmerzen in der Lendenwirbelsäule erlitten die meisten Sportler im Kajak Renn- und Abfahrtssport. Hornhautbildung an den Füßen betraf überwiegend die Kajak-, Renn- und Slalomsportler. Blockierungen im Bereich der Hals- und Brustwirbelsäule sowie das subakromiale Impingementsyndrom erlitten nur mehr als 25% der Kajak Rennsportler. Die meisten Sportler aller Kanadierkategorien klagten über Knieschmerzen. Dysästhesien der Beine und Muskelkrämpfe gaben die meisten Kanadiersportler in den Disziplinen Slalom und Abfahrt an. Von Handgelenkschmerzen waren überwiegend nur die Kanadierrennsportler betroffen. Die Kanadierslalomsportler gaben Schulterschmerzen und Muskel-/Sehnenverkürzung an. Die Arbeit ergab, dass die meisten Verletzungen im Rahmen des Kanu- und Krafttrainings erlitten wurden. Die wenigsten Verletzungen passierten beim Training auf dem Kanuergometer. Dies lag unter anderem auch am geringen Anteil des Kanuergometertrainings am Gesamttraining. Die Sportler stellten die Verletzungen überwiegend mit den endogenen Faktoren Übermüdung, mangelndes Warm-up und fehlerhafte Technik in Zusammenhang. Psychosoziale Faktoren konnten die meisten Sportler nicht in Zusammenhang mit Verletzungen bringen. Einige Sportler gaben hierzu jedoch sozialen Stress und Wettkampfstress an.
Hintergrund und Fragestellung: Für Menschen mit Depression gestaltet sich der Zugang zu adäquater Versorgung oft schwierig. Sie müssen sich in einer äußerst komplexen Versorgungslandschaft mit vielen Behandlungsoptionen und verschiedenen Anlaufstellen orientieren, sind aber aufgrund der Depressionssymptome teilweise nicht in der Lage, sich selbst aktiv um ihre Behandlung zu kümmern. Für Frauen der ersten Einwanderergeneration konnte gezeigt werden, dass diese zwar mindestens ebenso häufig an Depression erkranken wie Menschen ohne Migrationshintergrund, aber nicht im gleichen Maße an Versorgungsangeboten teilhaben wie die restliche Bevölkerung. Ziel ist es daher, mehr darüber zu erfahren, wie Migrantinnen den Zugang zu Versorgung bei Depression erleben und welche Schwierigkeiten und Verbesserungswünsche sie haben. Es sollen konkrete Ansatzpunkte zur Verbesserung der Versorgung aufgezeigt werden.
Methodisches Vorgehen: Es wurden zwölf teilstrukturierte qualitative Einzelinterviews mit Migrantinnen der ersten Einwanderergeneration geführt, die aufgrund von Depression in Deutschland behandelt wurden. Die Auswertung der Interviews erfolgte mittels qualitativer Inhaltsanalyse.
Ergebnisse: Die Teilnehmerinnen beschreiben zahlreiche Unsicherheiten und Ängste beim Versorgungszugang, den sie als zu schwierig, kompliziert und langwierig erleben. Konkrete Schwierigkeiten sind fehlendes Wissen zu Depressionssymptomen und Behandlungsoptionen, der Umgang mit Stigmatisierung und Vorurteilen, mangelnde Behandlungskoordination und Beratung insbesondere beim Zugang zu ambulanter Psychotherapie, lange Wartezeiten sowie Verständigungsschwierigkeiten. Die Teilnehmerinnen wünschen sich bessere Beratung und Informationsmöglichkeiten zu geeigneten Behandlungsoptionen, niedrigschwelligere Behandlungsangebote, sprachliche Unterstützung insbesondere zu Beginn der Behandlung sowie Aufklärungskampagnen zum Thema Depression für die breite Öffentlichkeit.
Diskussion: Beim Versorgungszugang von Migrantinnen mit Depression besteht Verbesserungsbedarf. Die beschriebenen Schwierigkeiten und Wünsche sollten bei der Planung von Versorgungsangeboten und bei der Behandlung stärker berücksichtigt werden. Konkrete Ansatzpunkte für eine bessere Versorgung sind entstigmatisierende, öffentlichkeitswirksame Informationskampagnen zu den Symptomen und der Behandlung von Depression sowie muttersprachliche Informationsmaterialien für Patientinnen und Patienten zu Depression, den Versorgungsangeboten und den relevanten Grundlagen des Gesundheits- und Sozialsystems. Auch sprachliche Unterstützung im Einzelfall, etwa durch professionelle Sprachmittlerdienste, sollte bei Bedarf ermöglicht werden. Darüberhinaus sind individuelle Unterstützungsangebote bei der Behandlungskoordination und beim Zugang zu ambulanter Psychotherapie nötig sowie mehr Aufmerksamkeit und Einfühlungsvermögen der Behandlerinnen und Behandler für individuell bestehende Vorbehalte und Ängste von Personen mit Migrationshintergrund.
An der Chirurgischen Klinik des Bürgerhospitals wurden 58 Patienten, davon 38 Frauen und 19 Männer, in dem Zeitraum von 1/2001 bis 8/2003 aus unter-schiedlicher Indikation und angemessen dem präoperativen Befund an der Schilddrüse operiert. Die mitentnommenen Schilddrüsen-Isthmi wurden separiert und getrennt immunhistochemisch auf Calcitonin, Chromogranin A, CGRP (Calcitonin-Gene-Related-Peptid) und CEA (Carcino-Embryonales-Antigen) untersucht mit der Fragestellung der C-Zell-Freiheit des Isthmus im chirurgischen Krankengut und daraus möglicherweise resultierendem innovativen Operationsverfahren bei erhöhtem Serumcalcitonin. Dem Gesamtkollektiv wurden konsekutiv 35 Patienten mit einem unbekannten oder nicht erhöhten Serum-Calcitoninwert (Gruppe A), dann im Verlauf 23 Patienten selektiv systematisch mit einem präoperativ erhöhten Serum-Calcitoninwert (Gruppe B) zugefügt. Die immunhistochemische Untersuchung der Isthmi zeigte in keinem Fall eine Positivität für Calcitonin, der als spezifischer C-Zell-Marker gilt. 44,8% aller Isthmi waren positiv für Chromogranin A und 62% für CGRP, CEA-positiv waren nur 3 Isthmi. Signifikant häufiger positiv für Chromogranin A und CGRP waren Isthmi der Patienten mit C-Zell-Hyperplasie als Isthmi bei Patienten mit medullärem Schilddrüsenkarzinom der Seitenlappen. Die Ursache ist bis dato ungeklärt. Chromogranin A, CGRP und CEA gelten als unspezifische Marker, können aber auch in C-Zellen positiv sein. Bis heute ist kein Fall einer Calcitonin-negativen und gleichzeitig Chromogranin A-, CGRP- und CEA-positiven C-Zelle beschrieben worden, so dass wir anhand unserer Studie am chirurgischen Patientengut einen Nachweis eines C-Zell-freien Isthmus liefern, der jedoch endokrine Zellen beinhaltet, deren genaue Funktion in der Schilddrüse nicht bekannt sind. Der Median der präoperativen basalen Serum-Calcitoninwerte der Gruppe B lag bei patho-histologisch nachgewiesener C-Zell-Pathologie-Freiheit bei 19,5 pg/ml (10-36,4), stimuliert bei Median 85 pg/ml (53-206,4), bei Patienten mit einer C-Zell-Hyperplasie lag der basale Median bei 25,5 pg/ml (16-75), der stimulierte Median lag bei 134 pg/ml (57,8-208), bei Patienten mit medullärem Schilddrüsenkarzinom lag der basale Median bei 523,1pg/ml (71-11360), der stimulierte Median lag bei 994pg/ml (189-11400). In Anbetracht dessen haben unsere Ergebnisse eine klinische Relevanz im Hinblick auf mögliche Modifikationen der Operationsverfahren vor allem bei Knotenstrumen, die mit leicht erhöhtem Serum-Calcitonin einhergehen oder bei prophylaktischen Operationen bei genetisch positiven Patienten. Eine Verlaufskontrolle ist mit Bestimmung des Serum-Calcitonins möglich, ein Zweiteingriff (im Falle eines patho-histologisch nachgewiesenen medullären Mikrokarzinoms) jederzeit und mit geringem Komplikationsrisiko durchführbar.
Toll-like Rezeptoren (TLRs) spielen als Pathogen-Erkennungsrezeptoren eine wichtige Rolle und vermitteln die angeborene Immunität. Nach Erkennung spezifischer Pathogene lösen sie in der Rezeptor tragenden Zelle eine Entzündungsreaktion aus und es kommt unter anderem zur Aktivierung von Proteinkinasen, des Transkriptionsfaktors NF-κB und zur Sekretion von Zytokinen. Während der TLR4 für die Erkennung von Lipopolysacchariden (LPS) verantwortlich ist, dient der TLR2 unter anderem als Rezeptor für Peptidoglycan, Lipoteichonsäure und Lipoproteine von gram-positiven Bakterien. In dieser Dissertation wurde das Vorkommen der TLR2 und TLR4 in den circumventriculären Organen (CVO), speziell im Subcommissuralorgan (SCO), untersucht. Im Hinblick darauf, dass die circumventriculären Organe durch das Fehlen einer Blut-Hirn-Schranke gekennzeichnet sind, ist das Vorkommen einer Abwehr durch das angeborene Immunsystem im Sinne von TLR2 und TLR4 von besonderem Interesse gewesen. Zur Darstellung der Verteilung der beiden Rezeptoren wurden immunhistochemische Färbungen an Gewebeschnitten von Wistar-Ratten durchgeführt.
Es konnte ein Vorkommen beider Rezeptor-Typen in den circumventriculären Organen und dem Plexus choroideus nachgewiesen werden. Vor allem zeigt sich ein verstärktes Vorkommen von TLRs an Gefäßen und dem fenestrierten Endothel der circumventriculären Organe sowie den umgebenden perivaskulären Räumen. Das SCO zeigte vor allem dort eine starke Tingierung, wo es in Kontakt zu den Ependymzellen des dritten Ventrikels steht. Die Rezeptoren scheinen auf Eventualitäten an prädisponierten Stellen entwickelt zu sein. Dies ermöglicht eine sofortige Abwehrreaktion auch bei raschem Eindringen von Pathogenen. Es wurden kaum immunreaktive Neurone oder Perikaryen gefunden, was auf eine Auseinandersetzung der Pathogene im zentralen Nervensystem (ZNS) mit den Epithelbarrieren spricht. Die frühzeitige Inhibition der Schadenskaskade durch die TLRs bereits an den Gefäßen der CVOs könnte neuroprotektive Bedeutung haben.
Hintergrund: Die Atheroskleroseexpression unterscheidet sich nicht nur in unterschiedlichen Gefässbetten (koronar, zerebrovaskulär, peripher), sondern auch innerhalb des peripheren Gefässbettes. Der zugrundeliegende Mechanismus für unterschiedliche Atherosklerose-Phänotypen mit proximalem (iliakale Arterien) oder distalem (infragenikuläre Arterien) Atheroskleroseverteilungsmuster ist bis jetzt noch nicht abschliessend geklärt.
Zielsetzung: Das Ziel dieser monozentrischen retrospektiven Kohortenstudie ist es, den Zusammenhang zwischen kardiovaskulären Risikofaktoren und dem Atheroskleroseverteilungs-muster bei Patienten mit PAVK zu untersuchen. Dafür werden symptomatische Patienten mit extremen Atherosklerosephänotypen (proximale vs. distale Atherosklerose) genauer untersucht.
Methodik: Für diese Querschnittsstudie wurden Daten von 15’000 Patienten, welche sich im Zeitraum von 2000-2018 aufgrund einer symptomatischen PAVK einer primären endovaskulären Rekanalisation an den unteren Extremitäten unterziehen liessen, ausgewertet. Dabei wurden die Patienten herausgefiltert, welche angiographisch ein proximales (iliakal) oder distales (krural) Atheroskleroseexpressionsmuster aufwiesen. Von diesen Personen wurden in der Datenbank personen- und gesundheitsbezogene klinischen Angaben extrahiert. In einer multiplen logistischen Regressionsanalyse mit Rückwärtselimination der unabhängigen Variablen wurde der Einfluss verschiedener kardiovaskulärer Risikofaktoren mit proximaler oder distaler Atherosklerosexpression ermittelt.
Resultate: Von insgesamt 637 indentifizierten Patienten (29% Frauen) mit einer primären endovaskulären Rekanalisation hatten 351 (55%) ein proximales und 286 (45%) ein distales Atheroskleroseverteilungsmuster. Weibliches Geschlecht (OR 0.33, (95%CI 0.20-0.54), p=0.011), aktiver Nikotinkonsum (OR 0.16, (95%CI 0.09-0.28), p<0.001), vormaliger Nikotinkonsum (OR 0.33, (95%CI 0.20-0.57), p<0.001), Hypertriglyzeridämie (OR 0.76, (95%CI 0.60-0.96), p=0.021) waren assoziiert mit einem proximalen Befall. Diabetes mellitus (OR 3.25, (95%CI 1.93-5.46), p<0.001), chronische Niereninsuffizienz (OR 1.18, (95%CI 1.08-1.28), p<0.001) und höheres Alter (OR 1.31, (95%CI 1.06-1.61), p=0.011) waren hin-gegen mit einem distalen Befall assoziiert. Andere Faktoren wie Body Mass Index, arterielle Hypertonie, HDL-, LDL-Cholesterin zeigten keine Assoziation mit den untersuchten atherosklerotischen Prädilektionsstellen. Die Resultate der primären Analysen konnten mit den Subgruppenanalysen (Geschlecht, Nikotinkonsum, Diabetes) bestätigt werden.
Schlussfolgerung: Für distale (krurale) Atherosklerose wurden als Hauptrisikofaktoren Diabetes mellitus und chronische Niereninsuffizienz ermittelt. Obwohl kardiovaskuläre Risikofaktoren auf das gesamte Gefässbett wirken, lassen sich aus den Daten in Bezug auf das Atheroskleroseverteilungsmuster eine geschlechtspezifische und eine individuelle Suszeptibilität für kardiovaskuläre Risikofaktoren vermuten. Ausserdem deuten die Daten darauf hin, dass die PAVK mindestens zwei verschiedene atherosklerotische Phänotypen aufweist.
Einleitung: Aufgrund von steigendem internationalen Reiseverkehr werden tropentypische Erkrankungen wie Malaria auch nach Deutschland importiert. Dadurch gewinnen Maßnahmen zur Vorbeugung und Behandlung der Malaria zunehmend an Bedeutung. Wir untersuchten, wie eine medikamentöse Malariaprophylaxe bei Reisen in Malariahochrisikogebiete (WHO Zone- C) von den Reisenden tatsächlich vertragen wurde, um Informationen über die Häufigkeiten und Gründe für prophylaxeassoziierte Nebenwirkungen zu erhalten und somit eine Verbesserung der Beratungen zu ermöglichen. Methoden: Mefloquin (Lariam®), Doxycyclin (Doxycyclin®), Chloroquin+Proguanil (Resochin®+Paludrine®) oder Atovaquon/Proguanil (Malarone®) wurden bei Reisenden im Alter von 18-80 Jahren (Durchschnittsalter 40 Jahre) zur Prophylaxe eingesetzt. Die Reisenden wurden im Zeitraum Mai 2001 bis September 2004 in der Impfambulanz des Instituts für Medizinische Virologie der Universität Frankfurt am Main beraten und retrospektiv mittels eines Fragenbogens zur individuellen Verträglichkeit befragt. Ergebnisse: Insgesamt wurden 850 Fragebögen ausgegeben, 483 konnten ausgewertet werden. Unter den Teilnehmern waren 248 (51,35%) weibliche und 215 (44,51%) männliche Teilnehmer. Lariam® erhielten 228 (47,20%) Teilnehmer, Malarone® 194 Personen (40,17%) Resochin®+Paludrine® verwendeten 32 (6,63%) Reisende, Doxycyclin® 29 Personen (6,00%). Die Anwender von Resochin®+Paludrine® hatten den geringsten Anteil an Nebenwirkungen (21,88 %), die Anwender von Doxycyclin® den höchsten Anteil (48,28%). Bei den Anwendern von Malarone® oder Lariam®, gaben 23,20% bzw. 37,28% Teilnehmer Nebenwirkungen an. Die höchste Compliance zeigten die Reisenden, die Malarone® (87,63%) einnahmen, die niedrigste Compliance die Anwender von Resochin®+Paludrine® (56,25%). Die Compliance unter Lariam® und Doxycylin® betrug 78,07% bzw 68,96%. Der Nebenwirkungsanteil war unter den weiblichen Reisenden (71,11%) gegenüber den männlichen Reisenden (26,67%) nur in der Gruppe, die Malarone® einnahm, erhöht. Die Mehrzahl aller Teilnehmer (n=320) nahm die Prophylaxe zu den Mahlzeiten ein. In allen Prophylaxegruppen war der Anteil an Nebenwirkungen bei mahlzeitenunabhängiger Einnahme (n=128) geringer mit Ausnahme der Untergruppe der männlichen Probanden, die Malarone® einnahmen. Hier lag der Anteil an Nebenwirkungen bei mahlzeitenabhängiger Einnahme bei 14,29%, bei mahlzeitenunabhängiger Einnahme bei 25%. Die Mehrheit der Teilnehmer nahm während der Einnahme der Prophylaxe Alkohol zu sich (n=361), dabei gaben die Anwender von Lariam® (36,97%) und Doxycyclin® (38,10%) seltener Nebenwirkungen an. Bei den alkoholabstinenten Teilnehmern (n=90) lag der Nebenwirkungsanteil bei Lariam® bei 40,82% und bei Doxycyclin® bei 66,67%. Bei Resochin®+Paludrine® fand sich kein Unterschied, bei Malarone® waren die Nebenwirkungen bei den alkoholabstinenten Teilnehmern geringer. Bei den weiblichen Teilnehmerinnen zeigte sich, dass die Teilnehmerinnen der Lariam® (36,59%) der Doxycyclin® (50,0%) und der Resochin®+Paludrine® (16,67%) Gruppe, die während der Einnahmezeit der Prophylaxe Alkohol zu sich genommen hatten, seltener Nebenwirkungen hatten. Bei Malarone® konnte kein bedeutender Abfall der Nebenwirkungshäufigkeit beobachtet werden (32,50% gegenüber 31,25%). Bei den alkoholabstinenten Teilnehmerinnen lag der Nebenwirkungsanteil bei Lariam® bei 45,83%, bei Resochin®+Paludrine® bei 50% und bei Doxycyclin® bei 75%. In der Doxycyclin®-Gruppe war der Anteil an Nebenwirkungen bei den Teilnehmern erhöht (77,75%), die das Auftreten von Nebenwirkungen vorab befürchtet hatten. Dies konnte in den anderen Prophylaxegruppen nicht beobachtet werden. In der Lariam®-Gruppe traten gastrointestinale Symptome, neurologisch-psychiatrische Nebenwirkungen (34,62%) sowie Beschwerden des Herz-Kreislaufsystemes (8,65%) auf. Die Anwender von Malarone® gaben gastrointestinale (35,71%) und neurologisch-psychiatrische Beschwerden (18,37%) sowie Kreislaufstörungen, ohne kardiale Symptome, an. Bei den Reisenden, die Resochin® +Paludrine® oder Doxycyclin® verwendeten, traten überwiegend gastrointestinale Beschwerden (28,57% bzw. 48%) auf. Neurologisch-psychiatrischen Symptome oder Beschwerden des Herzkreislaufsystemes wurden nicht genannt. Unter den Teilnehmern, die über psychiatrische Nebenwirkungen berichtet hatten, war der Anteil an weiblichen und männlichen Reisenden gleich. Insgesamt 16 Teilnehmer (3,29%), aus allen Prophylaxegruppen, erkrankten an Malaria. Reiseziel war stets das tropische Afrika. Bei den Anwendern von Lariam® traten sechs Erkrankungen (2,63%) auf, dabei wurden von vier Teilnehmern hatten die Prophylaxe korrekt duchgeführt. In den Gruppen mit Malarone®- oder Doxycyclin®-Prophylaxe berichtete jeweils ein Teilnehmer (0,51% bzw. 3,45%) bei korrekter Prophylaxe über eine Malariaerkrankung. Bei den Reisenden, die Resochin+Paludrine® verwendet hatten, traten in zwei Fällen (6,25%) Malariaerkrankungen auf. Ein Reisender hatte die Prophylaxe korrekt durchgeführt. Diskussion: Bei Reisen in Malariahochrisikogebiete, mit einer Aufenthaltsdauer von mindestens fünf Tagen, sind eine Expositions- und Chemoprophylaxe empfehlenswert. 31,47% unserer Probanden gaben Nebenwirkungen an, 2,07% der Teilnehmer erkrankten an Malaria. Die Auswahl der Chemoprophylaxe muss unter Berücksichtigung der individuellen Kontraindikationen sowie der jeweils vorherrschenden Resistenzsituationen in den Malariaendemiegebieten erfolgen. Wichtig ist dabei eine umfassende Information der Reisenden um die Akzeptanz zu steigern und die Eigenverantwortung zu stärken.
Die Verwendung von transkriptionellen Elementen des FXIIIA Gens zur Erhöhung der FVIII-Expression in megakaryozytischen und monozytischen Zellen. Berücksichtigt man den direkten Zugang zum Blutstrom, den immunologischen Hintergrund und die Beteiligung an der Blutgerinnung, wären Megakaryozyten und monozytische Zellen optimale Zielzellen für eine Gentherapie der Hämophilie A. Dennoch waren die Versuche, rFVIII in primären hämatopoetischen Zellen unter Verwendung eines CMV-Promoters zu exprimieren, bisher nicht effektiv. Ein Teil des Fehlschlagens wird der nur unzureichenden Transkription der CMVPromoter in hämatopoetischen Zellen zugeschrieben. Um die FVIII-Expression in hämatopoetischen Zellen zu verbessern, wurden regulatorische Elemente des FXIIIA-Gens in die FVIII-Expressionsvektoren einkloniert. Die Enhancer-Region (enh) und die 5’untranslatierte Region des FXIIIAGens wurden, einzeln und in Kombination, vor dem CMV-Promoter des Expressionplasmids pcDNA3.1 einkloniert. Zusätzlich zu den verstärkenden Elementen und den Promotern wurden sowohl B-Domänen-deletierter FVIII (BDD FVIII) als auch die Vollversion des FVIII („full length“ FVIII) in die Expressionsplasmide eingebaut. Die fertigen Vektoren wurden in die megakaryozytische Zelllinie K562, die humane embryonale Nierenzelllinie 293T und in CD14-Monozyten transfiziert. Als Methoden dienten die Elektroporation (Amaxa) und die Lipofektion (FuGene 6). Die Transduktionseffizienz wurde über fluoreszierende Proteine (EGFP-cDNA [N2]) gemessen, deren Sequenz in die Zellen als Kontrolle mittransfiziert wurde. Die FVIII-Expressionslevel wurden über chromogene Assays und RT-PCR analysiert. Mit dieser Studie war es uns möglich zu zeigen, dass die FVIII-Expressionsrate unter Verwendung der 5’untranslatierten Region des FXIIIA-Gens in Megakaryozyten und monozytischen Zellen signifikant gesteigert werden kann.
Dank neuer Diagnoseverfahren zeigt die Inzidenz der Krebserkrankungen einen zunehmenden Verlauf. Durch verbesserte Methoden in der chirurgischen und medikamentösen Therapie wird aus einer ehemals tödlichen, häufig eine chronische Krankheit. Immer mehr Patienten leben jahrelang mit ihrer Erkrankung. Die Erhaltung der Lebensqualität bei diesem steigenden Patientenkollektiv rückt immer mehr in den Fokus der Wissenschaft. Ziele der Forschung auf diesem Gebiet bestehen darin, die Nebenwirkungen der Therapiemaßnahmen zu minimieren oder sie durch zusätzliche Therapieoptionen zu mildern. Sport bzw. Bewegung ist dabei eine der möglichen unterstützenden Maßnahmen sowohl noch während der Therapie als auch in der Zeit danach. Obwohl noch bis in die 90er-Jahre die Meinung verbreitet war, dass körperliche Aktivität das Tumorwachstum fördern und die Effekte der Chemotherapie negativ beeinflussen könnte, werden heute in immer mehr Studien die positiven Auswirkungen eines moderaten Ausdauertrainings auf körperliche und psychische Parameter bei Krebskranken nachgewiesen. Das Verlieren der körperlichen Integrität, die funktionellen Einschränkungen und Nebenwirkungen der Therapie lassen die Psyche des Patienten nicht unberührt – psychopathologische Komorbiditäten können die Folge sein. Folglich nimmt die Lebensqualität aufgrund der physischen und psychischen Einschränkungen ab. Die vorliegenden Studie untersucht, ob und inwieweit sich durch Sport bzw. Bewegung ein positiver Einfluss auf die Verbesserung der psychischen Belastung und der Lebensqualität bei Krebspatienten erzielen lässt. Zur Untersuchung dieser Fragestellung wurde eine heterogene Stichprobe, bestehend aus 70 Patienten, davon 38 (54,3%) Frauen, herangezogen. Die Patienten hatten verschiedene Krebsarten, befanden sich in unterschiedlichen Stadien und erhielten entweder eine kurative oder eine palliative Therapie. Nach einer sportmedizinischen Untersuchung der körperlichen Leistungsfähigkeit wurde den Patienten eine individualisierte Sportempfehlung und -anleitung für ein moderates selbstständiges Ausdauertraining ausgesprochen. Zuvor wurde ein Interview durchgeführt und die Patienten wurden gebeten, psychometrische Fragebögen zu bearbeiten. Vier bis sechs Wochen nach dem Beginn der Sportintervention wurde erneut die körperliche Leistung im sportmedizinischen Institut untersucht, ein zweites Interview durchgeführt und psychometrische Fragebögen vom Patienten bearbeitet. Die Interviews wurden durchgeführt, um in einer weiteren Studie ausgewertet zu werden. Mit den Fragebögen SCL-K-9, POMS und EORTC QLQ-C30 wurden die psychische Belastung, die emotionale Befindlichkeit und die Lebensqualität vor und vier bis sechs Wochen nach dem Sportprogramm erfasst. Dabei stellte sich eine signifikante Reduktion des mittels SCL-K-9 erfassten psychischen Befindens und eine Verbesserung der Skala Müdigkeit des POMS heraus. Die mittels EORTC QLQ-C30 erfasste Lebensqualität ergab eine signifikante Verbesserung der Skalen Globaler Gesundheitsstatus/ Lebensqualität, Kognitive Funktion, Soziale Funktion, Fatigue und Schlaflosigkeit. Die Untersuchung oben genannter psychischer Parameter bei der Gruppe der Brustkrebspatientinnen, die die größte homogene Gruppe innerhalb der Krebsdiagnosen der Stichprobe darstellte, ergab eine signifikante Senkung der psychischen Belastung. Die Untersuchung der Effekte soziodemographischer und medizinischer Merkmale wie Geschlecht, Alter, Stadium und palliative vs. kurative Therapie auf signifikante Änderungen der psychischen Parameter durch Sport wiesen keine Signifikanz auf. Dies könnte sowohl an der zu kleinen Stichprobe als auch an der inhomogenen Verteilung der Patienten innerhalb der Merkmalsgruppen liegen, sodass unklar bleibt, ob diese Merkmale einen Prädiktor für die signifikanten Verbesserungen durch Sport darstellen und ob sie sich aufgrund der statistischen Gegebenheiten signifikant erfassen ließen. Dieser Aspekt sollte zukünftig genauer untersucht werden. Insgesamt hat die Sportintervention durchschnittlich bei keiner der untersuchten Skalen der psychischen Parameter zu einer Verschlechterung bei der Gesamtstichprobe der in diese Arbeit eingeschlossener Krebspatienten geführt. Vielmehr ist es entweder zu einer signifikanten Verbesserung gekommen oder, wenn auch nicht signifikant, doch mit eindeutigen Tendenzen in Richtung Besserung der Stimmung und der Lebensqualität durch Sport und das unabhängig von Art, Stadium oder Therapie der Krebserkrankung. Somit fügt sich diese Arbeit in die Reihe der Studien ein, die die positive Wirkung des Sports bei Krebskranken bestätigt. Sport bzw. Bewegung sollten zukünftig als unterstützende Maßnahme in der Therapie und Betreuung krebskranker Menschen eingesetzt werden, um sowohl körperliche als auch psychische Beschwerden und insbesondere die Fatigue zu lindern.
ZIELSETZUNG: Die postoperative kardiale Ventrikelfunktion ist stark mit den Auswirkungen der kardialen Ischämie und den Auswirkungen der extrakorporalen Zirkulation (EKZ) assoziiert. Um die alleinigen Auswirkungen der EKZ auf die postoperative linksventrikuläre Herzfunktion zu untersuchen, wurde ein Leitfähigkeitskatheter verwendet mit dem die linksventrikuläre Funktion mit Hilfe der Druck-Volumen Beziehung vor und nach EKZ erfasst werden konnte. METHODEN: 22 drei Wochen alte Schweine wurden sternotomiert und einer normothermen EKZ von 1 h ausgesetzt. Der Leitfähigkeitskatheter wurde in den linken Ventrikel eingeführt. Die endsystolische Druck-Volumen-Beziehung (ESPVR), der linksventrikuläre enddiastolische Druck (LVEDP) und der systemische Gefässwiderstand (SVR) wurden in Ruhephasen vor und 15 Min nach EKZ in Gruppe A (n=11) gemessen. Gruppe B (n=11) diente als Kontrollgruppe ohne EKZ. ERGEBNISSE: Vor der Implementierung der EKZ wurden in beiden Gruppen keine signifikanten Unterschiede efunden. Als Mass für eine eingeschränkte LV Funktion wurde eine signifikant niedrigere Steigung der ESPVR (mmHg/ml) in der EKZ-Gruppe nach Abgang von der HLM im Vergleich zur Kontrollgruppe festgestellt (1,69 ± 0,51 vs. 1,86 ± 0,55; p<0.0081). In der EKZ-Gruppe war der maximale Druckanstiegsgeschwindigkeits- Index dP/dtmax index (mmHg/sec/kg) signifikant erniedrigt (1596,10 ± 339,51 vs. 2045,0 ± 205,57; p<0.03). In Gruppe A war die Steigung der EDPVR (mmHg/ml) signifikant erniedrigt (7,21 ± 2,20 vs. 5,43 ± 1,36; p = 0,0293), während der LVEDP (mmHg) signifikant erhöht war (11,67 ± 2,59 vs. 5,39 ± 0,92; p<0.001). Zudem konnte ein signifikant niedrigerer systemischer Gefässwiderstand- Index(SVR)(dyn.sec.cm-5/kg) in der Kontrollgruppe gemessen werden (1407,30 ± 176,44 vs. 1676,94 ± 312,96; p<0.0001). SCHLUSSFOLGERUNG: Auch ohne ischämischen Arrest führt der Einsatz der EKZ zu einer signifikanten Einschränkung der LV Funktion in der frühen post EKZ Phase. Dies sollte bei der Entscheidungsfindung für die Wahl der Operationsstrategie bedacht werden.
Das ideopathische Parkinson-Syndrom ist eine der häufigsten neurodegenerativen Erkrankungen. Im letzten Jahrhundert begann man therapeutisch mit der Substituion von L-Dopa. Bei fotgeschrittener Krankheitsprogression und höheren Medikamentendosierungen kommt es zu vermehrten Nebenwirkungen (Dyskinesien, On-off-Fluktuationen etc.) Eine neuartige Therapiepotion ergab sich Anfang des 20. Jahrhunderts mit den neurochirurgischen operativen Verfahren. Diese führten jedoch zu unbefriedigenden Langzeitergebnissen. Mit der Weiterentwicklung der bildgebenden Verfahren und der minimalen Neurochirurgie wurde Anfang der 90er Jahre des letzten Jahrhunderts die Tiefen Hirnstimulation etabliert. Hierbei wurde zu Beginn primär im Nucleus ventralis intermedius thalami (VIM) stimuliert, um so den Parkinson-Tremor zu suppremieren. [48, 49]. Beim hypokinetisch-rigiden Typ gewann die Stimulation von Globus pallidus internus und des Nucleus subthalamicus an Bedeutung [50-54]. In dieser Arbeit wurde die Stoffwechselaktivität mit Hilfe des PET in den Basalganglien sowie im Kortex untersucht. Dabei wurde als Tracer 18F-2-Fluoro-Desoxy-D-Glucose (18FDG) verwendet. Es wurde unterschieden zwischen präoperativem Stoffwechsel sowie der Veränderung des Glucosemetabolismus unter THS, im Vergleich zu einer Kontrollgruppe. Ein weiteres Ziel dieser Arbeit war die Bestimmung der postoperativen Elektrodenlage. In dieser Arbeit konnte unter THS eine signifikante Reduzierung des UPDRS Teil III Scores nachgewiesen werden. Bezüglich der Lage der aktiven Elektrodenpole ergab sich folgendes Bild: 19 von 25 Polen lagen im Nucleus subthalamicus (76%), 6 Pole lagen dagegen oberhalb des STN im Bereich der Zona incerta (24%). Diese Daten bestätigen die Ergebnisse früherer Studien [79, 80]. Weiterhin konnte mit dieser Arbeit gezeigt werden, daß es unter THS im Bereich der Elektrodenregion sowie im STN und in dem direkt verbundenen GP zu einem stimulierenden Effekt kommt. Die THS ist daher vom Wirkmechanismus von den läsionellen Verfahren der stereotaktischen Neurochirurgie zu unterscheiden. Im STN zeigte sich ein Mikroläsioneffekt mit postoperativ verminderten 18FDG Werten. Unter Stimulation kam es dagegen zu einer Normalisierung des im Vergleich zur Kontrollgruppe verminderten Glucosestoffwechsels im STN. Zusammenfassend gilt: Die THS führt über eine veränderte Aktivität der Feuerungsmuster der Neurone zu einer längerfristigen Modulation der Basalganglienaktivität. In den kortikalen Arealen kam es durch die Operation oder die THS zu folgenden Veränderungen: Im assoziativen Kortex zeigte sich ein verminderter Stoffwechsel im Vergleich zur Kontrollgruppe, dieser konnte jedoch durch die Stimulation nicht signifikant veränder werden. Im limbischen Kortex zeigte sich in den BA 20 und 24 ein krankheitsbedingter Hypermetabolismus, wobei es bei ersterem zu keinem Mikroläsionseffekt- oder Stimulationseffekt kam, im Bereich der BA 24 jedoch zu einem signifikanten Mikroläsionseffekt mit einem im Vergleich zur Kontrollgruppe verminderten Hypometabolismus. In der BA 32 konnte ein krankheitsbedingter Hypometabolismus nachgewiesen werden, dieser verstärkt sich postoperativ. Ein Stimulationsefffekt fehlte. Es konnte gezeigt werden, daß es unter Stimulation im Bereich des Brodmann Areals 32 zu einem Abfall des Metabolismus kam, dies korreliert mit einer Abnahme des Wortverständnisses [110]. Für den motorischen Kortex konnte folgendes nachgewiesen werden: Weder duch die Operation noch durch die Stimulation kam es zu einer Normalisierung des krankheitsbedingten hypometabolen Glucosestoffwechsels in der BA 4, unter Stimulation kam es darüber hinaus zu einer weiteren Minderung des lokalen nCMRGlc. Im Bereich des sensorischen Kortex zeigten die IPS-Patienten einen verminderten Glucosemetabolismus. Dies bestätigt die Ergebnisse früherer Studien [40, 101]. In diesem Areal kommt es durch die Operation zu einer tendenziellen Normalisierung der verminderten nCMRGlc-Werte. Ein Stimulationseffekt ist ebenfalls nachweisbar. So zeigte sich unter THS ein Abfall des Stoffwechsels. Zusammenfassend kann festgestellt werden, daß es unter THS zu einer Modulation der Basalganglienschleifen sowie des Kortex kommt. Dieses ununterscheidet die THS eindeutig von den läsionellen neurochirurgischen Verfahren.
Alle lebenden Organismen sind in der Lage, sich an den re-gelmäßigen Wechsel von Licht und Dunkelheit und den zeitli-che Veränderungen im Takt der Jahreszeiten anzupassen. Die-se Synchronisierung der Aktivitäts- und Ruhephasen, sowie von physiologischen Stoffwechselprozessen an die vorgegebe-nen tageszeitlichen und saisonalen Zyklen findet beim Säu-getier in der inneren Uhr im Nucleus Suprachiasmaticus (SCN) statt. Das Licht, als wichtigster Zeitgeber für die Synchronisation der inneren Uhr, findet Eingang zum SCN über die Retina und den retinohypothalamischen Trakt (RTH), der Glutamat als Neurotransmitter nutzt. Ist dieses System fehlerhaft, führt dies zu Störung der oben beschriebenen Anpassungsprozesse. Dies hat eine gestörte Homöostase des Organismus zu Folge, aus denen sich wiederum Veränderungen im Tag/Nacht- Rhythmus, Schlafstörungen und depressive Ver-stimmungen ergeben können. Die genannten Symptome decken sich mit den Frühsymptomen den neurodegenerativen Erkran-kung Morbus Parkinson.
Ziel der vorliegenden Arbeit war es, Störungen im photoneu-roendokrinen System, insbesondere Veränderungen in der Re-tina an den photosensitiven Ganglienzellen mit dem Photo-pigment Melanopsin und dem SCN bei transgene Mäuse mit dem humanen alpha-Synuclein zu untersuchen. Hierbei wurden transgene Mäuse mit dem gesunden humanen alpha-Synuclein (Wildtyp) und transgene Mäuse mit der für Parkinson spezi-fischen Mutation im alpha-Synuclein Ala53Thr (A53T) vergli-chen.
Die immunochemischen Untersuchungen an Retina und SCN zei-gen einen signifikanten Anstieg der alpha-Synuclein Immun-reaktion bei der A53T Maus im Vergleich zum Wildtyp.
Parallel dazu wurden Unterschiede in Bezug auf das Photo-pigment Melanopsin zwischen den beiden Gruppen untersucht. Melanopsin ist lichtsensitiv und trägt, durch Übermittlung der aktuellen Lichtverhältnisse über den retinohypothalami-schen Trakt zum SCN, zur Synchronisation der circadianen Rhythmik bei. Durch den in dieser Arbeit nachgewiesene Me-lanopsindefizit und des deutlich reduzierten Vglut2 im hy-pothalamischen Trakt der A53T Maus lässt sich die Hypothese ableiten, dass möglicherweise die Überexpression des mu-tierten alpha-Synuclein in der Retina einen Untergang von melanopsinhaltigen Ganglienzellen herbeiführt und dadurch die Synchronisation der inneren Uhr durch Licht gestört ist. Diese Hypothese wird durch die Aktivitätsprofile ge-stützt, die durch die Aufzeichnung der lokomotorischen Ak-tivität der Tiere erstellt wurden.
Da in beiden Gruppen unter Dauerdunkel (DD) ein endogener zirkadianer Rhythmus beobachtet werden konnte, lässt dies auf die Funktionstüchtigkeit der inneren Uhr im SCN schlie-ßen. Im anschließenden Versuch die endogene Rhythmik an exogenen Reize anzupassen, zeigte sich bei dem A53T Stamm eine fehlende Synchronisierung an vorgegebene Lichtverhält-nisse mit gesteigerter Tagaktivität und reduzierten Schlaf-phasen. Somit trägt der fehlerhaft verarbeitete Lichtreiz bei A53T Mutanten zur Destabilisierung des zirkadianen Rhythmus der Lokomotion bei. Trotz des gestörten glutama-tergen Signalweges im retinohypothalamischen Trakt konnten keine Unterschiede in der Expression der Homerproteine zwi-schen Wildtyp und A53T unter Standard-Photoperiode und nach Schlafdeprivation nachgewiesen werden.
Die vorliegenden Befunde liefern Erkenntnisse zur Entste-hung der Frühsymptome bei Morbus Parkinson. Dies könnte neue Ansatzpunkte für die Therapie und Linderung von Schlafstörungen sowie Veränderungen im Tag/Nachtrhythmus liefern.
In einer Verlaufsbeobachtung wurden fünfundzwanzig Patienten der hämatologischen Ambulanz der J. W. v. Goethe-Universität, welche an Hämophilie oder an einer anderen hämatologischen Erkrankung leiden, über einen Zeitraum von November 1992 bis Februar 1995 untersucht. Diese Patienten erhielten nach Aufklärung eine Hirn-SPECT- Untersuchung mit HMPAO oder EDT. Jeweils 3/25 Patienten wurden wegen eines pathologischen Hirn-SPECT Ergebnisses nach 3 Monaten bzw. bei einem auffälligem Befund nach einem halben Jahr nachuntersucht. Bei unauffälligem Ergebnis erhielten die Patienten (13/25) nach einem Jahr eine Kontrolluntersuchung. Insgesamt bekamen achtzehn Patienten eine technisch einwandfreie Zweituntersuchung; eine Patientin erhielt wegen initial deutlicher Befundverbesserung zur Beobachtung fünf Hirn-SPECT Untersuchungen. Vor jeder nuklearmedizinischen Untersuchung wurde ein psychometrischer Test zur Erfassung der Aufmerksamkeit und Vigilanz, der feinmotorischen Fähigkeiten, depressiver Verstimmung und leichter cerebraler Insuffizienzen durchgeführt. Wichtige klinische Daten und immunologische Parameter zur Einteilung in ein CDC-Stadium lagen ebenfalls vor. Die Perfusionsergebnisse wurden visuell nach Filterung und Reorientierung der Daten anhand der orbito-meatalen Linie und der stereotaktischen Transformation und semiquantitativ nach der Methode nach Podreka ausgewertet. In die visuellen Beurteilung flossen die Perfusion des Gehirnes als gesamtes, die Thalamusperfusion und die Defekte in Größe und Lokalisation ein. Die semiquantitative Auswertung bestand aus einer manuellen Einteilung des Gehirns in 18 Regions of Intrest mit anschließender Quantifizierung der Aktivitätsverteilung. Betrachtet wurden hier zum einen ein Abweichen der mean-cts (%) im rechts/links Vergleich >15%, da dies einen cerebralen Defekt anzeigt, zum anderen Gebiete <90% bzw. >110% der mittleren Gesamt-Counts, welche hypo- bzw. hyperperfundierte Regionen darstellten. * Die Daten zeigten im Langzeitverlauf eine Verschlechterung der cerebralen kortikalen Perfusion mit Progredienz der Defekte. Tendenziell bestanden zu Beginn der HIVE vorwiegend fokale cerebrale Minderperfusion mit Betonung der frontalen, im Thalamus gelegenen und der occipitalen Regionen und erst mit Progredienz der Erkrankung diffuse Veränderungen. Bei dem vorliegenden Patientengut lag die stärkste Perfusion occipital gefolgt von temporal und parietal, mit jeweiliger Betonung des Uptake der dominanten Hemisphäre vor. Im Auswertungsverfahren sollten sich Semiquantitative und visuelle Beurteilungen der Ergebnisse ergänzen, um die jeweilige Fehlermöglichkeiten zu minimieren. Die Methode der stereotaktischen Transformation erwies sich hierbei als die zeitaufwendigere aber genauere Methode. Die verwandten Methoden sind jedoch noch nicht robust genug, um sie für Routineuntersuchungen zu benutzen. * Im Vergleich der neuropsychometrischen Test fand sich eine gute Korrelation der kognitiven Leistungstests (ZVT) mit den SPECT-Daten der Thalamusperfusion. Diese Ergebnisse sollten jedoch nur im Zusammenhang mit anderen Studien betrachtet werden, da die Patientenzahl gering war. * Klinische und immunologische Parameter spiegelten eine cerebrale Infektion mit HIV nicht wider. Zusammenfassend ist die Untersuchung der Perfusion des Hirnkortex mit SPECT eine sensitive Methode cerebrale Veränderungen einer HIVE zu diagnostizieren und den Erfolg einer medikamentösen Therapie zu dokumentieren. Gerade aber in der Frühphase der HIVE ist ein solches diagnostisches Verfahren wichtig, da die meisten Patienten asymptomatisch sind und klinische und immunologische Parameter die cerebrale Infektion nicht widerspiegeln. Zudem handelt es sich um ein nicht invasives Verfahren, welches im Bedarfsfall mehrfach angewendet werden kann. Zur Routineanwendung müssten jedoch robustere semiquantitative Auswertverfahren entwickelt werden.
In dieser Studie wurden die Veränderungen der Fibrinolyse während der Geburt bei insgesamt 84 Gebärenden untersucht. Gemessen wurden die Konzentrationen des Plasminogen-Aktivator-Inhibitors, alpha-2-Antiplasmins und Plasminogens mit Hilfe von photometrischen Tests mit chromogenem Substrat kurz vor Geburt, direkt nach Geburt des Kindes, 30 und 90 Minuten nach Lösung der Plazenta bei 41 Spontangebärenden und 43 Sectiopatientinnen. 30 Frauen erhielten kurz vor der Geburt eine Kurzinfusion von einer Millionen KIE Aprotinin (Trasylol®), darunter 15 Spontangebärende und 15 Sectiopatientinnen. Sowohl bei den Spontangebärenden als auch bei den Sectiopatientinnen ohne Gabe von Aprotinin war ein offensichtlicher Abfall der PAI-Konzentrationen nach Geburt zu beobachten, die Konzentrationen für alpha-2-Antiplasmin und Plasminogen blieben im gemessenen Zeitraum unverändert. Nach Gabe von Aprotinin dagegen stieg die PAI-Aktivität sowohl bei den Spontangebärenden als auch bei den Sectiopatientinnen nach Geburt leicht an und fiel dann - im Vergleich zu den Patientinnen ohne Verabreichung von Aprotinin - langsamer und schwächer ab. alpha-2-Antiplasmin stieg bei den mit Aprotinin behandelten Patientinnen nach Geburt an und fiel dann wieder bis auf den Ausgangswert ab, die Plasminogenkonzentrationen blieben im gemessenen Zeitraum weitgehend unverändert. Signifikante Unterschiede zwischen Spontangebärenden und Sectiopatientinnen gab es für alle drei Parameter nicht. Die Veränderungen der Faktoren sprechen für eine erhöhte fibrinolytische Aktivität nach Geburt, die als Reaktion auf die gesteigerte Gerinnung zum gleichen Zeitpunkt zu werten ist. Die Verminderung des Plasminogen-Aktivator-Inhibitors versteht sich als reaktiver Verbrauch durch die bei gesteigerter Gerinnung und folgender Fibrinolyse einsetzende "Anti-Fibrinolyse" durch die entsprechenden Hemmfaktoren. Die Veränderungen des PAI und des alpha-2-Antiplasmin unter Aprotinin sind am ehesten als geringere Beanspruchung des fibrinolytischen Systems zu interpretieren. Abschließend läßt sich aus den Beobachtungen ableiten, daß sich der durch die Plazentalösung ausgelöste Verbrauch von Gerinnungs- und Fibrinolysefaktoren durch die Gabe von Aprotinin reduzieren läßt, ein gerade bei intrapartalen Gerinnungsstörungen erwünschter Effekt.
Ziel dieser Arbeit war die Untersuchung, inwieweit sich die Expression bestimmter Oberflächenmerkmale auf Lymphozyten im peripheren Blut nach einer Transplantation im Rahmen der chronischen Abstoßungsreaktion verändert. Dazu wurde ein etabliertes Modell zur chronischen Abstoßung mit zwei sich genetisch nur gering differierenden Rattenspezies verwendet. Dabei wurden Herzen von Lewis-Ratten heterotop auf Fischer 344-Ratten transplantiert. Die Untersuchung wurde vergleichend unter der immunsuppressiven Behandlung von Cyclosporin A (CsA), Tacrolimus (FK-506) und Mycophenolate mofetil (MMF) sowie einer unbehandelten Gruppe durchgeführt. Über den Zeitraum von 60 Tagen wurden die Oberflächenmerkmale mit durchflusszytometrischen Messungen bestimmt.
Die vorliegende Studie befasst sich mit dem Einfluss minimalinvasiver Zugangswege zur Mitralklappe auf den Herzrhythmus, den Erfolg einer perioperativ durchgeführten Ablation und die postoperative Notwendigkeit eines Herzschrittmachers.
Mitralklappenvitien und deren herzchirurgische Versorgung sind in vielen Fällen mit präoperativ bestehendem oder postoperativ neu auftretendem Vorhofflimmern assoziiert. In den vergangenen Jahrzehnten haben sich neben der medikamentösen Therapie des Vorhofflimmerns und der durch die Mitralklappeninsuffizienz induzierten Herzinsuffizienz verschiedene minimalinvasive chirurgische Zugangswege zur Mitralklappe sowie Ablationsverfahren etabliert und einen kurativen Therapieansatz gebildet.
Die Ablation im Zuge einer Mitralklappenchirurgie ist zu einem alltäglich durchgeführten Verfahren geworden.
Neu auftretendes Vorhofflimmern im Rahmen der Mitralklappenchirurgie kann perioperativ begrenzt sein und konvertiert häufig innerhalb der ersten 6 Wochen spontan in den Sinusrhythmus. Es geht aber mit einer erhöhten Mortalität und Hospitalisierungszeit einher. Das neu auftretende Vorhofflimmern kann jedoch auch persistieren oder erst im Langzeitverlauf entstehen. Auch die Notwendigkeit eines Herzschrittmachers kann durch Mitralklappeneingriffe insbesondere mit additiver Ablation aufgrund der anatomischen Gegebenheiten erhöht sein.
In unserer Arbeit ist von Interesse, ob sich die unten genannten Zugangswege im Hinblick auf das Neuauftreten von Vorhofflimmern im Langzeitverlauf, die Vorhofflimmerrezidivrate nach Ablation und die Schrittmacherrate mit und ohne durchgeführte Ablation unterscheiden.
Die vorliegende Studie umfasst alle Mitralklappenoperationen, die zwischen 1998 und 2015 in der Klinik für Thorax-, Herz- und thorakale Gefäßchirurgie der Universitätsklinik Frankfurt am Main über die folgenden drei minimalinvasiven Zugangswege, durchgeführt wurden: Gruppe A bildeten 300 Patienten, die im genannten Zeitraum über eine anterolaterale Minithorakotomie mittels Chitwood-Klemme operiert wurden. Gruppe B bestand aus 687 Patienten, die über eine partielle obere Sternotomie mit superiorem transseptalem Zugang operiert wurden. Die 219 Patienten, bei denen eine partielle obere Sternotomie mit transcavalem Zugang angewandt wurde, bildeten Gruppe C.
Die Auswertung erfolgte anhand von Patientenakten, internen und externen Untersuchungsbefunden und eines standardisierten Fragebogens im Follow-up. Es erfolgte eine zweite Auswertung nach Propensity Matching, um präoperative signifikante Unterschiede der Gruppen zu egalisieren.
Im Ergebnis konnte in unserer Studie gezeigt werden, dass die atriale Inzision einen entscheidenden Einfluss auf den Ablationserfolg sowie auf die Schrittmacherinzidenz hat. Bekannt war dabei ein höheres Risiko für postoperatives Vorhofflimmern und Schrittmacherimplantationen aufgrund der anatomischen Gegebenheiten bei Gruppe B. Dass jedoch Gruppe C ein signifikant noch höheres Risiko für Schrittmacherimplantationen mit sich bringt, war überraschend und ist derzeit nicht in der Literatur beschrieben.
In der multivariaten Analyse nach Matching waren Gruppe C, eine additive Ablation und das Alter signifikante unabhängige Prädiktoren für Schrittmacherimplantationen. In der logistischen Regression war Gruppe A ein unabhängiger Prädiktor für den Ablationserfolg zum Zeitpunkt der Entlassung. In der Langzeitbeobachtung trat Gruppe C an Stelle von Gruppe A, möglicherweise aufgrund der bei Gruppe A vorliegenden längsten Follow-up-Zeit. Wie schon in der vorliegenden Literatur diskutiert waren auch in unserer Auswertung hohes Alter und eine präoperative linksatriale Vergrößerung unabhängige Prädiktoren für den langfristigen Ablationserfolg.
Es bedarf weiterer vergleichender Studien mit einheitlichen Follow-up-Zeiten, um die hier gezeigten Ergebnisse zu überprüfen. Insbesondere der transcavale Zugang, der sich im negativen Sinne auf die Zahl der Schrittmacherimplantationen auszuwirken scheint, gibt Anlass für weitere Untersuchungen.
Hintergrund: Die häufigsten infektiösen Ursachen für Durchfallerkrankungen sowohl im Kindes- als auch im Erwachsenenalter sind viraler Genese. Dabei werden Rota-, Noro-, Adeno- und Astroviren in absteigender Reihenfolge benannt. Die Diagnose der oft nosokomialen Infektionen erfolgt durch Virusnachweis in Stuhlproben. Material und Methodik: In dieser retrospektiven epidemiologischen Auswertung wurden anhand der Stuhlproben von Gastroenteritispatienten im Zeitraum 2000 – 2008 die Häufigkeitsverteilung der einzelnen Viren sowie saisonale Aspekte untersucht. Bestimmt wurden des Weiteren die Geschlechts- und die Altersverteilung der Patienten. Der überwiegende Anteil der eingesandten Proben entstammte der Universitätsklinik Frankfurt/Main; hinzu kamen Proben von einigen in näherer Umgebung liegenden Gesundheitsämtern, Krankenhäuser und Laborarztpraxen. Ergebnisse: Die laborchemische Effizienz beträgt ca. 10 – 20 %. In Deutschland ist die winterliche Rotavirusinfektion bei Kleinkindern die häufigste Ursache des Brechdurchfalls. An zweiter Stelle stehen im Wechsel Adeno- und Norovirusinfektionen, während Astrovirusinfektionen in den letzten Jahren selten geworden sind. Schlussfolgerung: In Übereinstimmung mit neuen Studien aus anderen Regionen wird belegt, dass Noroviren des Typ 2 heute einen wesentlichen Anteil bei der infektiösen Gastroenteritis stellen und – im Unterschied zu Rotaviren – vor allem ältere Menschen betroffen sind.
Mit ca. 55.000 Neuerkrankungen pro Jahr in Deutschland ist das kolorektale Karzinom bei Frauen und Männern die zweithäufigste Krebserkrankung. Das kolorektale Karzinom ist nach dem Bronchial- karzinom beim Mann und dem Mammakarzinom bei der Frau der zweithäufigste maligne Tumor. (27) Jährlich kommt es zu ca. 30.000 Todesfällen aufgrund dieser Erkrankung. (12) Häufig werden Kolon- karzinome als Zufallsbefund einer Endoskopie oder eines Kolon- kontrasteinlaufs entdeckt. (27) 75 % der Patienten werden unter ini- tial kurativer Intention operiert. (13) Jedoch verläuft diese Krankheit im frühen Stadium oft asymptomatisch, also stellen sich bis zu 30% der Patienten erst mit Metastasierungen vor, wodurch eine 5-Jahres-Überlebensrate von weniger als 5% besteht. (18) Diese Überlebens- rate gilt es zu erhöhen. In vielen Fällen ist die als kurativ geltende Leberresektion aus unterschiedlichen Gründen nicht möglich. Alter- nativ müssen palliative Therapiemöglichkeiten angewandt werden. In dieser Arbeit wurden zwei verschiedene Therapiearten zur Behand- lung der nicht resektablen Lebermetastasen eines kolorektalen Karzinoms untersucht und evaluiert. Die Transarterielle Chemo- embolisation (TACE) wurde mit der Laser-induzierten Thermothera- pie (LITT) verglichen. Im Vordergrund standen die volumetrischen Daten der Lebermetastasen, die als limitierende Faktoren der Überlebenszeit der betroffenen Patienten gelten. In der TACE- Therapiegruppe zeigte sich eine Größenzunahme der Lebermeta- stasen bei 45% (9 von 20) der Patienten, bei 40% (8 von 20) der Patienten ein Wachstumsstillstand, und bei 5% (1 von 20) der Patienten sogar eine Größenreduktion. 10% (2 von 20) der Patienten konnten nicht beurteilt werden. In dieser Arbeit brachten die Unter- suchungen der LITT-Gruppe folgendes Ergebnis. Das Nekrose- volumen der Metastasen reduzierte sich nach 36 Monaten um 92,2%. Ein direkter Vergleich der beiden Therapiegruppen ist aber nicht möglich. Neue Studien zeigen jedoch, dass diese Therapie- verfahren sich ergänzen können. In der vorliegenden Arbeit ist der Verlauf von 20 Patienten nach Chemoembolisation dokumentiert. Die eigenen Werte und evaluierten Ergebnisse wurden ausgewertet und auf die Fragestellung dieser Dissertation hin untersucht. Die Er- gebnisse dieser Arbeit deuten daraufhin, dass zukünftig durch die Transarterielle Chemoembolisation ein Verfahren entwickelt wurde, womit man den Progress der Lebermetastasen verzögern kann, eventuell sogar das Metastasenvolumen verringern kann. Folg- lich besteht die Möglichkeit, die Überlebenszeit der Erkrankten zu erhöhen. Mit dem Hintergrund, dass die Ausdehnung der Leber- metastasen den limitierenden Faktor darstellt für die prognostisch weitaus günstigeren Verfahren, wie die LITT und die, sogar teilweise kurative, Resektion, spielt die TACE eine wichtige Rolle in der Be- handlung der Lebermetastasen durch das kolorektale Karzinom. Schon Penna et al (47) stellten fest, dass die Tumorschrumpfung nach der Verabreichung von präoperativer Chemotherapie und die Verfügbarkeit von ablativen Techniken nun die Behandlung von Metastasen, die initial als nicht resezierbar galten, unter kurativer Intention erlauben. Im Idealfall kommt es dazu, dass durch die TACE-Behandlung eine solche Größenreduktion der einzelnen Lebermetastasen erzielt werden kann, dass eine nachfolgende LITT- Behandlung mit dementsprechend erhöhten Überlebenschancen eingesetzt werden kann.
In der vorliegenden Studie wurde die nasale Applikation von Sufentanil mit Fentanyl verglichen. Hierbei sollte geklärt werden, welches Medikament besser geeignet und analgetisch wirksamer sei, ob Nebenwirkungen auftreten würden und ob sich die neue Nasensprayflasche als praktikabel erweisen würde. Nach Abschluß und Auswertung der Studie lässt sich festhalten, daß die analgetische Potenz von Sufentanil der von Fentanyl überlegen ist. Die Neigung zur Atemdepression ist jedoch höher als in der Gruppe mit Fentanyl. Sufentanil hingegen führt zu einer starken Sedierung des Patienten und ist nur geeignet, wenn eine intensivere Überwachung gewährleistet ist. Gerade im Hinblick auf die Sicherheit scheint daher Fentanyl in einer höheren Dosierung pro Sprühstoß das sicherere Medikament für die patientenkontrollierte Analgesieanwendung zu sein. Im klinischen Alltag wird daher bereits jetzt in Australien ausschließlich Fentanyl in einer Nasensprayflasche verwendet. Nebenwirkungen, allen voran die postoperative Übelkeit, ließen sich mit handelsüblichen Antiemetika gut kontrollieren und waren nicht größer als bei der üblichen intravenösen Applikation von Analgetika des Opioidtyps. Die Nasensprayflasche als Applikator in Glasform und handlicher Größe rief große Zufriedenheit bei den Anwenderinnen und dem Pflegepersonal hervor. Es war keine Geräteeinweisung nötig, außer der, die im Rahmen der Studie durchgeführt wurde, und es gab keine Probleme in der Handhabung. Allerdings sehen wir es als unverzichtbar an, dass die Patientinnen der Nasensprayflasche sowie dem Verfahren der selbstbestimmten Schmerztherapie gegenüber, ein gewisses Verständnis aufbringen sollten. Ein ausführliches Aufklärungsgespräch, welches der Patientin den Ablauf des Verfahrens und die Wirkweise der Methode verdeutlicht, ihr die Möglichkeit gibt, Vertrauen aufzubauen und bestehende Fragen zu klären, ist unerlässlich. Dieses Gespräch sollte auch dem Anästhesisten dazu dienen, die Patientin in Bezug auf ihre Eignung für diese Form der Schmerztherapie zu beurteilen. Der größte Gewinn und Fortschritt dieser Methode sind die Selbstbestimmung und Unabhängigkeit der Patientinnen. Jede einzelne ist in der Lage, sich jederzeit eine angemessene, für ihre individuelle Situation und ihr subjektives Schmerzempfinden passende Menge an Analgetika zuzuführen. Die Unabhängigkeit vom Pflege- oder ärztlichem Personal ist gewährleistet, womit Wartezeiten und Schmerzspitzen vermieden werden können. Die Einschätzung der Krankenschwestern und Pfleger, dass ein Patient bereits ausreichend Schmerzmittel erhalten hätte, wird umgangen und in die Hand der schmerzempfindenden Person selbst gelegt - dem Patienten.
Die Präkonditionierung mit den bakteriellen Zellwandbestandteilen Lipopolysaccharid (LPS) oder Lipoteichonsäure (LTA) führt in vivo zu einer Reduktion der myokardialen Infarktgröße nach Ischämie und Reperfusion (I/R). Hierbei wird durch die Präkonditionierung u.a. die Akkumulation neutrophiler Granulozyten im Ischämiegebiet während der Reperfusionsphase reduziert und somit einer der wichtigsten Mechanismen bei der Entstehung des Reperfusionsschadens am Herzen vermindert. In dieser Studie bedienten wir uns eines ex vivo Modells nach Langendorff mit regionaler I/R und zellfreier Perfusion. Wir konnten erstmalig eine LTA-Präkonditionierung in einem leukozytenfreien System zeigen und somit demonstrieren, dass die LTA-Präkonditionierung Mechanismen involviert, die unabhängig sind von einer Akkumulation neutrophiler Granulozyten. 24 Stunden nach einer Vorbehandlung der Ratten mit LPS, LTA, Kochsalz und/oder Dexamethason wurden die Herzen entfernt und retrograd mit oxygenierter Krebs-Henseleit-Lösung perfundiert. Die Herzen wurden einer 20-minütigen Ischämie, gefolgt von einer 2-stündigen Reperfusionsphase, unterzogen. Das Infarktrisikogebiet (Evans-Blue-Färbung) und das Infarktgebiet (pNBT-Färbung) wurden planimetrisch bestimmt. Die ischämische Präkonditionierung (IPC) wurde als Positivkontrolle unseres Modells verwendet. LTA- und LPS-Präkonditionierung führten - ebenso wie IPC - bei gleicher Dosierung in vergleichbarem Umfang zu einer signifikanten Reduktion der Infarktgröße. Dieser Effekt konnte durch Vorbehandlung mit Dexamethason vollständig aufgehoben werden, so dass gefolgert werden kann, dass die Protektion durch LPS bzw. LTA. von der Modulation der inflammatorischen Vorgänge im Endothel und Myokard mit abhängt.
Oft wurden Aeromonas aus Trinkwassersystemen isoliert und ihre Eigenschaften beschrieben. Mit Hilfe der vorliegenden Arbeit wurden ihre Existenz und ihre Artendiversität in den Biofilmen von Trinkwasserverteilungssystemen in Nordrhein-Westfalen (Deutschland) näher beleuchtet. Hierzu wurden vermehrungsfähige Aeromonas-Arten aus Rohrinkrustationen und Belägen der Rohrinnenoberflächen von Grauguss- und PVC-Trinkwasserrohren isoliert und auf ihre phänotypischen Eigenschaften untersucht. Anhand zahlreicher biochemischer Tests wurden die isolierten Aeromonas-Arten in Unterarten und Biovare unterteilt und mittels Hierarchischer Clusteranalyse weiter klassifiziert. Insgesamt wurden aus fünf der 7 Proben Aeromonas isoliert. Für die Besiedlungsdichte wurden Werte zwischen 24 und 746 KBE/cm2 ermittelt. Eine Abhängigkeit zwischen dem Rohrmaterial (PVC, Grauguss) bzw. dem pH-Wert und der Kolonieanzahl von isolierten Aeromonas konnte nicht festgestellt werden. Während der warmen Jahreszeit wurde in den Belägen eine höhere Koloniezahl von Aeromonas ermittelt. 502 Aeromonas-Kolonien wurden weiter untersucht. Bei 94% der nachgewiesenen Aeromonas-Keime handelte es sich um Aeromonas hydrophila. Außerdem wurden Aeromonas caviae (5%) und Aeromonas sobria (1%) in den Belagssuspensionen identifiziert. Aeromonas caviae nahm in einem System sogar die dominante Rolle ein. Je Probe wurden 120 Aeromonas-Kolonien weiter klassifiziert. Dabei wurden teilweise 35 bzw. 64 Biovare mit unterschiedlichen biochemischen Eigenschaften identifiziert. Bei einigen Proben war die Unterteilung von Aeromonas-lsolaten in weitere Biovare kaum ausgeprägt. Die niedrige Besiedlungsrate und die hohe Anzahl von Biovaren schließen eine Massenvermehrung einzelner Aeromonas innerhalb des Biofilms aus. Vielmehr hat Aeromonas hier nur einen Überlebensraum gefunden. Die hohe Anzahl der Biovare ist auf eine zeitlich versetzte Besiedlung von Aeromonas in den Belagsinkrustationen zurückzuführen.
Hintergrund: Kardiovaskuläre Erkrankungen sind die Haupttodesursache in den Industrienationen. Viele betroffene Patienten haben nur ein geringes Verständnis für ihre Erkrankung. Insbesondere endovaskuläre Eingriffe überschreiten Vorstellungskraft und Verständnis der Patienten häufig um ein Vielfaches. Die ärztliche Eingriffsaufklärung soll den Patienten Einsicht über das Verfahren und mögliche Komplikationen ermöglichen, um dem Patienten autonome Entscheidungen zu erleichtern. In der einschlägigen Literatur wird vielfach diskutiert, wie sich der Aufklärungsprozess komplizierter Prozeduren, wie etwa einer Herzkatheteruntersuchung, optimieren lässt. Jüngst wurden dabei insbesondere moderne Ansätze, wie multimediale Verfahren oder interaktive Tools evaluiert, wobei diese Methoden nach aktueller Studienlage zu einer Verbesserung des Verständnisses und einer Reduktion der Untersuchungsangst führen konnten. Insbesondere Patienten mit geringem Bildungsniveau profitieren dabei von persönlichen Erfahrungen zur Verbesserung des prozeduralen Verständnisses. Diesen Ergebnissen entsprechend, macht es sich die vorliegende Arbeit zur Aufgabe, zu evaluieren, ob sich die Implementierung eines VR-Simulators in den Aufklärungsprozess einer Herzkatheteruntersuchung positiv auf Informiertheit und Untersuchungsangst bei den Patienten auswirkt.
Patienten und Methoden: Nach mündlicher Einwilligung zur Teilnahme an unserer Studie, erhielt ein Teil der Patienten zusätzlich zur herkömmlichen verbalen Aufklärung eine Demonstration des Untersuchungsablaufs einer PCI an einem VR-Simulator. Zusätzlich erhielten diese Patienten die Möglichkeit eine Katheteruntersuchung am Simulator nachzuempfinden. Für unsere Studie verwendeten wir einen VR-Simulator der Firma Xitact® (später Mentice®) mit einer Software der Firma Cathi®. Der Simulationsgruppe wurden 3 verschiedene Komplikationen mittels Abbildungen demonstriert. Im Anschluss beantworteten sowohl die konventionell, als auch die mit Simulation aufgeklärten Patienten einen von uns konzipierten Fragebogen.
Ergebnisse: Beide Gruppen fühlten sich nach der Aufklärung ausreichend informiert. Bezüglich der subjektiven Informiertheit zeigten sich keine signifikanten Unterschiede zur konventionellen Aufklärungsmethode (p=0.11). In der Kontrollgruppe bestanden nach konventioneller Aufklärung, trotz guter subjektiver Informiertheit, bei fast 90% der Patienten weiterhin offene Fragen bezüglich der Untersuchung, während sich diese Diskrepanz in der Simulationsgruppe nicht ergab (p<0.00001). Ferner standen die Patienten der Simulationsgruppe der anstehenden Untersuchung ruhiger gegenüber (0=0.049), während die Patienten der Kontrollgruppe angaben, tendenziell unruhig in die Untersuchung zu gehen (p=0.002). Es boten sich keinerlei Hinweise darauf, dass die Demonstration möglicher Komplikationen zu einer verstärkten Untersuchungsangst geführt hätte. Die Implementierung des Simulators hat sich insgesamt positiv auf das prozedurale Interesse des Patienten ausgewirkt.
Schlussfolgerung: Insgesamt hatte die Implementierung des VR Simulators in die Patientenaufklärung überwiegend positive Effekte und keinerlei negativen Effekte. Im direkten Vergleich zur konventionellen Aufklärung zeigten sich bezüglich der Informiertheit zunächst keine signifikanten Unterschiede zur konventionellen Aufklärungsmethode. Die erhobenen Daten deuten jedoch auf eine Überlegenheit der simulationsgestützten Aufklärung in Bezug auf Verständnis und Untersuchungsangst hin. Festzuhalten ist allerdings der hohe zusätzliche zeitliche Aufwand, mit dem eine simulationsgestützte Aufklärung verbunden ist. Die generelle Implementierung eines VR Simulators allein zum Zwecke der Patientenaufklärung wird daher nur bedingt empfohlen. Kliniken, die bereits über einen VR Simulator verfügen, sollten allerdings erwägen, diesen nicht nur für Ausbildungszwecke zu verwenden, sondern auch zum Zwecke der Patientenaufklärung.
Ziel:
Vergleich der Veränderung der mütterlichen Einstellung zur Geburt anhand von Hebammen geführten Geburtsvorbereitungskursen oder hypnoreflexogenem Training zur Geburtsvorbereitung.
Methode:
Zu Beginn und nach Beendigung der Kurse wurde die mütterliche Einstellung zur Geburt unter Zuhilfenahme des Osgood-Ertel-Eindrucksdifferenzials gemessen. Der Gießen-Test zur Persönlichkeitsbeurteilung wurde einmalig angewendet.
Ergebnisse:
213 Frauen waren in die Studie eingeschlossen. 155 davon nahmen an, von Hebammen geführten, Geburtsvorbereitungskursen teil. 58 Frauen absolvierten ein hypnoreflexogenes Training. Es waren zu Beginn der Kurse keine statistisch signifikanten Unterschiede feststellbar in Bezug auf die Charakteristiken der Teilnehmerinnen sowie im Gießen-Test und in den Ergebnissen des Osgood-Ertel-Eindrucksdifferenzials. Nach der von Hebammen geführten Geburtsvorbereitung wurde die Geburt negativer wahrgenommen(Freudlosigkeit und Trübung in der Valenz-Dimension [p < 0,05]), während die Geburt nach dem Hypnosetraining emotional positiver bewertet wurde (Freude
und Harmonie in der Valenz-Dimension [p < 0,01] sowie Helligkeit [p < 0,05]).
Zusammenfassung:
Hypnoreflexogenes Selbsthypnosetraining zur Geburtsvorbereitung scheint stärkere und positivere mütterliche emotionale Veränderungen in Bezug auf die
Einstellung zur Geburt auszulösen als konventionelle, von Hebammen geführte Geburtsvorbereitungskurse. Weitere retrospektive randomisierte Studien sind nötig, um diese Ergebnisse zu überprüfen.
Webbasierte Bildverteilung in der Radiologie : Performanzmessungen und Anforderungen an die Hardware
(2005)
Meßmethodik für Anzeigezeiten Unsere Ergebnisse zeigen, daß die auf dem Auslesen von Bildschirmpixeln basierende Methode 3 sehr stabil läuft und leicht zu interpretierende Resultate liefert. In dieser Hinsicht ist sie allen anderen Methoden überlegen. Der Zusatzaufwand der Softwareentwicklung machte sich bezahlt. Die auf Leistungsindikatoren (perfmon) basierende Methode 1 wird für Vortests empfohlen. Sie ist leicht zu implementieren, allerdings sind die Ergebnisse schwerer auszuwerten. Zusätzlich kann jedoch die Analyse von Leistungsindikatoren interessante Einblicke in die inneren Abläufe des BVS liefern. Phototransistoren (Methode 2) können angewendet werden, um jeden Einfluß auf das gemessene System auszuschließen. Ergebnisse der Messungen Unsere Ergebnisse zeigen, daß bei der Einführung eines Bildverteilungssystems der pro Zeiteinheit auf den Server übertragenen Datenmenge besondere Beachtung geschenkt werden muß. Folgende Aussagen gehen von einer maximalen Anzeigezeit von 5 Sekunden aus, die für klinische Anwendungen als ausreichend erachtet wird. 1. Hochleistungsfähige Hardware ist auf dem Klient-PC nicht nötig. 2. Rechner, die älter als ein Pentium II mit 350 MHz sind, sollten nur für gelegentliches Nachschlagen verwendet werden. In diesem Fall sollte verlustbehaftete Sekundärkompression verwendet werden, die Auflösung sollte 1280 x 1024 Pixel nicht überschreiten. 3. Auf schnelleren PCs sollte verlustbehaftete Sekundärkompression nur dann verwendet werden, wenn die verfügbare Netzwerkbandbreite unterhalb von 10 Mbit/s liegt. Generell sind 128 MB Arbeitsspeicher oder mehr zu bevorzugen und eine Bildschirmauflösung über 1280 x 1024 kann verwendet werden. 4. Windows 2000 ist auf modernen Rechnern (>PII/350MHz) Windows NT überlegen, auf älteren Rechnern ist Windows NT schneller. Daraus ist abzuleiten, daß zum Erzielen optimaler Ergebnisse auf moderneren Rechnern moderne Betriebssysteme eingesetzt werden sollten. 5. Die Hochladekapazität wird von simultanem Herunterladen geringfügig beeinflußt, hängt aber maßgeblich vom hochgeladenen Bildtyp und der Serverkonfiguration ab. Mit unserem Standardserver kann eine Hochladekapazität von 4 GB/h (96GB/t) erreicht werden. Dies scheint sogar für große Institutionen ausreichend. 6. Das gleichzeitige Hochladen von Bildern bremst die Anzeigezeiten deutlich. Während des Hochladens können nur vier bis sechs Klienten mit Anzeigezeiten von fünf Sekunden versorgt werden. Mit leistungsfähigerer Hardware scheint die Versorgung einer größeren Zahl von Klienten möglich. 7. Da Hochladekapazität und Anzeigezeit von einer stärkeren leistungsfähigeren Serverhardware deutlich profitieren, scheint ein Server mit zwei aktuellen Prozessoren und mindestens 1 GB RAM empfehlenswert. 8. Verlustbehaftete Primärkompression bringt gewisse Vorteile für Hochladekapazität und Anzeigezeit, wird aber nicht empfohlen, um die volle Bildqualität nicht zu verfälschen. Die Entscheidung für oder gegen verlustbehaftete Primärkompression ist jedoch von organisatorischen und rechtlichen Fragen überlagert. 9. Der Prozeß des Hochladens kann mehrere Stunden in Anspruch nehmen, was letztendlich klinisch inakzeptabel wird. Dies kann durch verbesserte Hardware oder eine veränderten BVS-Architektur oder mehrere intelligent zusammenarbeitende Server angegangen werden. 10. Webbasierte Bildverteilungssysteme sollten dezidierte Server für Empfang, Umwandlung und Verteilung der Bilder verwenden, um Hochverfügbarkeit, Performanz und spätere Erweiterbarkeit zu gewährleisten. Auf Empfangsserver kann verzichtet werden, wenn das BVS voll in das PACS integriert wird.
Im Beobachtungsintervall vom 01.01.1985 bis zum 31.12.1995 wurden 49 Patienten ab dem vollendeten 16. Lebensjahr in der Klinik für Allgemein- und Gefäßchirurgie der Johann Wolfgang Goethe Universität Frankfurt/Main aufgrund eines Weichteilsarkoms therapiert. Von diesen wurden 22 Patienten zur Primärtherapie, 5 zur sekundären Herstellung der Radikalität nach extern erfolgter Primäroperation, 21 zur Rezidivtherapie – Lokalrezidiv oder Fernmetastase – und 1 Patienten zur Service- Operation – Einlage eines Expanders vor geplanter adjuvanter Radiatio nach extern erfolgter Primäroperation – eingewiesen. Untersucht wurden in der vorliegenden Studie Sarkomeigenschaften, Patientendaten, Diagnostik, Therapie und Follow up auf ihre Prognosesignifikanz hinsichtlich Lokalrezidivierungs-, Fernmetastasierungsrisiko und Gesamtüberleben. Trotz der relativ niedrigen Patientenzahl in der vorliegenden Studie fanden sich mit der Literatur vergleichbare Ergebnisse der hier untersuchten Sarkomeigenschaften: Die drei häufigsten Sarkomtypen waren Leiomyosarkome (13/49, 26,5%), maligne fibröse Histiozytome (13/49, 26,5%) und Liposarkome (9/49, 18,5%). Konform mit der Literatur zeigten die Liposarkome die signifikant günstigste Gesamtüberlebensprognose (10-Jahres Überlebensrate von 88,89%), was trotz einer hohen Lokalrezidivrate von 66,7% (6/9) mit der geringen Fernmetastasierungsrate von 33% (3/9) in Zusammenhang zu bringen ist. Eine T1-Sarkomgröße nach UICC stellte sich hinsichtlich Lokalrezidivierung und Gesamtüberleben übereinstimmend mit der Literatur als signifikant günstiger Prognosefaktor dar (p=0,031951 und p=0,004346). Es fand sich des weiteren konform mit der Literatur eine Lokalisationsbevorzugung am muskuloskelettalen System mit 57,1% (28/49). Eine muskuloskelettale Sarkomlokalisation stellte sich als statistisch signifikanter Überlebensvorteil heraus (p=0,001704). Die Begründung hierfür ist in der höheren Anzahl an hier befindlichen T1-Sarkomen (13/28, 46,4%) verglichen mit den intraabdominellen Sarkomen (1/21, 4,8%), der höheren adäquaten Operabilität (18/28, 64,3% vs. 8/21, 38,1%) sowie der insgesamt niedrigeren metachronen Fernmetastasierungsrate (12/28, 42,9% vs. 17/19, 89,5%) zu suchen. Eine intrakompartimentale Sarkomlokalisation nach Enneking wurde auch in der vorliegenden Studie als signifikant günstiger Prognosefaktor hinsichtlich Gesamtüberleben bestätigt (p=0,021523) mit einer 10-Jahres Überlebensrate von 78,57% vs. 40,76% für extrakompartimentale Sarkome. Dies lässt sich auf eine deutlich bessere adäquate Operabilität intrakompartimentaler gegenüber extrakompartimentaler Sarkome zurückführen (11/15, 73,3% vs. 15/34, 44,1%), deren allgemeine Eigenschaft es ist, zunächst in Richtung des geringsten Widerstandes innerhalb eines anatomisch definierten Kompartimentes zu wachsen. Analog hierzu konnte auch eine epifasziale Sarkomlokalisation nach den UICC Kriterien von 2002 als statistisch signifikanter Überlebensvorteil (p=0,031622) konform mit der Literatur bestätigt werden...
Hintergrund: Die Verankerung der Kompetenzorientierung und die Betonung der praktisch-klinischen Ausbildung im Rahmen des Medizinstudiums sind zentrale Punkte in den Neuerungen der Ärztlichen Approbationsordnung. Mit der Entwicklung des Nationalen Kompetenzbasierten Lernzielkatalogs Medizin (NKLM) ist ein Rahmenwerk erstellt und verabschiedet worden, das die Inhalte des gesamten Medizinstudiums in Deutschland abbilden und eine Implementierung kompetenzorientierter Lernziele an den Fakultäten forcieren soll. Um diesem Ziel gerecht zu werden, müssen bereits an den Fakultäten vorhandene Lehrveranstaltungen mit dem NKLM abgeglichen und im Rahmen eines Curriculum Mappings kartiert werden. Ziel der vorliegenden Arbeit ist daher die Kartierung der im Frankfurter Blockpraktikum Chirurgie erlernten Kompetenzen im Sinne eines Curriculum Mappings in Anlehnung an die im NKLM formulierten Lernziele. Zudem wurde folgenden Fragestellungen nachgegangen: Welcher Umfang kompetenzorientierter Lernziele kann Studierenden in einem zweiwöchigen Praktikum Chirurgie vermittelt werden? Wie ist die Vermittlung der einzelnen Kapitel des NKLM im Blockpraktikum Chirurgie gewichtet? Gibt es Unterschiede der erreichten Lernziele in Abhängigkeit des Geschlechts der Studierenden, der besuchten Fachrichtung bzw. des besuchten Lehrkrankenhauses?
Material und Methoden: Im Rahmen der vorliegenden Arbeit wurden Medizinstudierende im zweiten bzw. dritten klinischen Semester unmittelbar nach Abschluss ihres Blockpraktikums Chirurgie gebeten, unter Nutzung eines Online-Fragebogens anzugeben, welche der im NKLM formulierten Lernziele sie im zweiwöchigen Blockpraktikum Chirurgie gelernt haben. Somit konnte für jedes Kapitel dargestellt werden, zu welchem prozentualen Anteil die Lernziele dieses Kapitels erreicht worden sind. Zudem wurden die soziodemographischen Daten der Studierenden, die Fachrichtung des Blockpraktikums und das Lehrkrankenhaus erfasst. Die statistische Auswertung erfolgte mit dem Wilcoxon-Mann-Whitney Test und dem Kruskal-Wallis Test.
Ergebnisse: Insgesamt nahmen 81 Studierenden (28 Männer, 53 Frauen) aus dem 2. bzw 3. klinischen Semester an der Studie teil. Insgesamt wurden im zweiwöchigen Blockpraktikum Chirurgie 8,78 ± 5,10% (Min. 1,01%; Max. 29,84%) aller Lernziele von den Studierenden erreicht. Hierbei wurden anteilig die meisten Lernziele in den Kapiteln 5-11 (Abschnitt 1 „Ärztliche Rollen“) mit 29,92 ± 15,22% (Min. 0,00%; Max. 63,10%) vermittelt. Aus Abschnitt 2 („Medizinisches Wissen, klinische Fähigkeiten und professionelle Haltungen“) wurden vor allem die Lernziele der Kapitel 14b „Klinisch-praktische Fertigkeiten“ (15,49 ± 7,78% (Min. 0,00%; Max. 41,30%) und 14c „Ärztliche Gesprächsführung“ (22,98 ± 16,47% (Min. 0,00%; Max. 70,69%) von den Studierenden erreicht. Männer geben durchschnittlich an, mehr Lernziele erreicht zu haben als Frauen (9,84% vs. 8,22%; p=0.104731). Weiterhin haben Studierende, die ihr Praktikum in einem Lehrkrankenhaus mit weniger als 100 chirurgischen Bettenplätzen (10,60 ± 6,75%; Min. 2,33%; Max. 29,84%) oder in einer Rotation (9,95 ± 6,67%; Min. 1,90%; Max. 29,84%) durch mehrere Fachrichtungen absolvierten, angegeben mehr Lernziele erreicht zu haben als andere Studierende insgesamt.
Schlussfolgerung: Das zweiwöchige Blockpraktikum Chirurgie in Frankfurt kann den Studierenden (im Hinblick auf die Gesamtdauer des Medizinstudiums) einen großen Anteil der im NKLM formulierten Lernziele vermitteln. Vor allem die Lernziele der „Ärztlichen Rollen“ und der „klinisch-praktischen Fertigkeiten“ werden erlernt. Die Vermittlung gelingt besonders umfangreich in kleineren Lehrkrankenhäusern. Trotzdem bietet das Blockpraktikum Chirurgie den Teilnehmer nur einen kleinen Einblick in den Fachbereich Chirurgie. Für die Vermittlung von spezifischen chirurgischen Fähigkeiten, Prinzipen chirurgischer Diagnostik und Therapie, sowie Aspekte der „Patientenzentrierten Gesundheitsversorgung“ sind andere Formate notwendig.
Es galt, im Rahmen eines Vergleiches von prae- und bis zu zehn Jahren postoperativ ermittelten Befunddaten den langzeitigen Effekt einer systematischen Parodontitisbehandlung auf den oralen Gesundheitszustand zu ermitteln. Dazu wurden 76 an der Poliklinik für Parodontologie in Frankfurt behandelten und mehrfach nachuntersuchten Patienten (davon 46 Frauen und 30 Männer) im Alter von 36 bis 79 Jahren die jeweiligen Befunddaten (Plaquebelastung, Zahnfleischbluten, Sondiertiefe, Zahnlockerungen, Zahnverlust, Rezessionen und sondierbare Furkationen) im Sinne der Fragestellung ausgewertet. Es ergab sich in der Tat ein jeweils positiver Effekt der Behandlung, am ausgeprägtesten sechs Wochen bis sechs Monate postoperativ festgestellt, danach sich langsam verschlechternd, aber nicht wieder zum Ausgangsbefund zurückfallend. Schlüsselte man die Patienten noch danach auf, ob sie sich nach Therapieende zu regelmäßigen Nachuntersuchungsterminen vorgestellt hatten oder nicht, dann ergab sich ein zwar nur geringgradiger aber dennoch eindeutiger Effekt zugunsten der „Compliance“-übenden Patienten. Allerdings konnte in keinem einzigen Fall eine komplette Wiederherstellung der vollkommenen parodontalen Gesundheit konstatiert werden. Alle Patienten wiesen nach wie vor, wenn auch geringgradige, pathologische Veränderungen der parodontalen Parameter auf, die eine gewisse Nachbehandlung angeraten erscheinen ließen, um späteren Zahnverlust vorzubeugen. Damit wird einmal mehr deutlich, dass die schon eingangs aus der Literatur zitierte Behauptung, bei der Parodontitis handele es sich um eine chronische Erkrankung mit fortlaufender Behandlungsnotwendigkeit, sich auf klinische Erkenntnisse stützen kann.
Die Niere ist das in Deutschland am häufigsten transplantierte Organ. Patienten nach Nierentransplantation haben aufgrund der notwendigen Immunsuppression ein erhöhtes Risiko für Infektionen. Die häufigste Infektion nach einer Nierentransplantation ist die Harnwegsinfektion, eine lebensbedrohliche Verlaufsform mit Entwicklung von Organdysfunktionen bezeichnet man als Urosepsis. Durch die Immunsuppression kann die Erkennung des septischen Krankheitsbildes erheblich erschwert sein, da typische körperliche Reaktionen auf eine Infektion unter Immunsuppression (z.B. Fieber, Tachykardie) verändert ablaufen.
Im Rahmen einer Sepsis laufen parallel pro- und antiinflammatorische Prozesse ab. Ein Überwiegen der antiinflammatorischen Prozesse kann zur Entwicklung einer „Sepsis-induzierten Immunsuppression“ führen, welche ein deutliches Mortalitätsrisiko darstellt, da sie zur fehlenden Sanierung des Infektionsfokus sowie zur Entwicklung sekundärer (z.T. opportunistischer) Infektionen führen kann. Ein zentraler antiinflammatorischer Prozess ist die Apoptose von CD4 und CD8 Lymphozyten. Die Möglichkeit der therapeutischen Beeinflussung dieses immunsupprimierten Zustandes ist aktuell Gegenstand zahlreicher Studien. Ziele der vorliegenden Arbeit waren die Überprüfung, ob sich der Abfall der Lymphoyztenzahl/eine Lymphopenie im Rahmen einer Infektionsepsiode auch in der immunsupprimierten Patientenklientel nach Nierentranplantation darstel-len lässt. Des Weiteren sollte diskutiert werden, ob der Nachweis einer reduzierten CD4/8 Lymphozytenzahl geeignet sein kann, diagnostisch die Infektionssituation einzuschätzen und ggf. die immunsuppressive Therapie anzupassen.
In dieser retrospektiven Kohortenanalyse wurden die Daten von nierentransplantierten Patienten ausgewertet, welche in den Jahren 2010 und 2011 im Universitätsklinikum der Goethe-Universität Frankfurt am Main aufgrund einer Harnwegsinfektion (n=47) oder Urosepsis (n=75) behandelt wurden. Es erfolgte ein Ver-gleich der CD4/CD8 Lymphozytenzahl vor, während und nach einer Infektions-episode. Ergänzend wurden die Häufigkeit einer CMV-Reaktivierung/-Infektion sowie das ursächliche bakterielle Erregerspektrum mit zugehörigem Antibiotika-resistenzmuster erhoben.
Sowohl Patienten mit Urosepsis als auch mit Harnwegsinfektion zeigten einen signifikanten Abfall der CD4 Lymphozyten im Rahmen der Infektionsepisode (p<0,01; p<0,05). Patienten mit Urosepsis zeigten zudem einen signifikanten Abfall der CD8 Lymphozyten (p<0,01). Patienten mit Erregernachweis in der Blutkultur zeigten signifikant niedrigere CD4/8 Lymphozyten während der Infek-tionsepisode (p<0,05) als Patienten mit negativer Blutkultur. Eine niedrige CD4/8 Lymphozytenzahl korrelierte besser mit einem Erregernachweis mittels Blutkultur als das Erfüllen der SIRS Kriterien. Mit Behandlung der Infektionsepi-sode zeigte sich ein Wiederanstieg der CD4/8 Lymphozytenzahlen. Unter Re-duktion/Pausieren der immunsuppressiven Therapie kam es zu keiner Abstoßungsreaktion/keinem Versterben eines Patienten im Rahmen der Infektionsepisode. Zu einem CMV-DNA Nachweis kam es bei 15 Patienten (20%) der Gruppe Urosepsis sowie 8 Patienten (17%) der Gruppe Harnwegsinfektion während der Infektionsepisode. Sowohl in Urin- als auch Blutkulturen waren E.coli gefolgt von Enterokokken die häufigsten nachgewiesenen Erreger. E.coli fanden sich signifikant häufiger in Urin- und Blutkulturen bei Urosepsis, Enterokokken signifikant häufiger in Urinkulturen bei Harnwegsinfektionen. Es zeigten sich hohe Antibiotikaresistenzraten insbesondere gegenüber Cotrimoxazol (59% der E.coli) und Fluorchinolonen (45% der E.coli, 82% der Enterokokken). 11% der E.coli und 62% der Klebsiellen waren als 3MRGN Erreger zu klassifizieren, 15% der Klebsiellen als 4MRGN mit Carbapenemresistenz.
Zusammenfassend lässt sich auch bei immunsupprimier-ten/nierentransplantierten Patienten im Rahmen einer Infektionsepisode ein signifikanter Abfall der CD4/8 Lymphozyten nachweisen. Das Reduzieren/Pausieren der immunsupressiven Therapie erscheint anhand der vorgelegten Daten sinnvoll, ein Monitoring der CD4/8 Lymphozytenzahl könnte zur Therapiesteuerung geeignet sein. Im Rahmen weiterer prospektiver Studien könnte eine Erarbeitung eines festen Schemas der Anpassung der immunsuppressiven Therapie an eine bestimmte CD4/8 Lymphozytenzahl sinnvoll sein. Passend zur Vergleichsliteratur waren E.coli und Enterokokken die am häufigsten nachgewiesenen Erreger. Die hohen Antibiotikaresistenzmuster unterstreichen die Notwendigkeit, das lokale Erregermilieu zu kennen, um möglichst passend kalkuliert antibiotisch behandeln zu können.
Hintergrund: ei der Behandlung des lokal-begrenzten PCa stellen die radikale Prostatektomie sowie die definitive Radiotherapie den aktuellen Therapiestandard dar. Die Effektivität der High-Dose-Rate(HDR)-Brachytherapie (BRT) als Monotherapie in der kurativen Behandlung des lokalisierten PCa wird im Zusammenhang mit aktuellen Literaturdaten bekräftigt. Die vorliegende Arbeit berichtet die onkologischen Ergebnisse sowie der Langzeittoxizität eines 3-Implantat-Protokolls mittels alleiniger HDR-BRT in der Behandlung von Patienten mit lokal-begrenztem Prostatakarzinom.
Patienten und Methoden: Von Februar 2008 bis Dezember 2012 wurden 450 konsekutive Patienten mit klinisch lokalisiertem Prostatakarzinom mit einer HDR-Monotherapie behandelt. Alle Patienten erhielten drei transperineale Einzel-Fraktion-Implantate von 11, 5 Gy, die an ein intraoperatives echtzeit-transrektales ultraschall-definiertes Planungsbehandlungsvolumen bis zu einer physikalischen Gesamtdosis von 34,5 Gy mit interfraktionärem Intervall von 21 Tagen appliziert wurden. Das biochemische Versagen wurde gemäß der Phoenix Consensus Criteria und die urogenitale/gastrointestinale Toxizität unter Verwendung der Common Toxicity Criteria for Adverse Events Version 3.0 definiert.
Ergebnisse: Die mediane Nachbeobachtungszeit betrug 56,3 Monaten (4,4-91,7 Monate). Die 60- und 90-monatigen Gesamtüberlebensraten, die biochemische Kontrolle und die metastasenfreien Überlebensraten betrugen 96 %, 95 %, 99 % bzw. 94 %, 92 % und 97 %. Die Toxizität wurde pro Ereignis erfasst. Späte Grad-2- und 3-urogenitalen Komplikationen traten bei 14,2 % bzw. 0,8 % der Patienten auf. Ein Patient zeigte Inkontinenz Grad 4, welche mittels permanenter Urostomie behandelt werden musste. Späte Grad-2-gastrointestinale Toxizität betrug 0,4 % und keine Instanzen von Grad-3 oder höherer Spätfolgen wurden gemeldet.
Schlussfolgerung: Unsere Ergebnisse bestätigen die HDR-Brachytherapie als eine sichere und effektive monotherapeutische Behandlungsmethode für klinisch lokalisierten Prostatakrebs.
Ziel: Nebennierenraumforderungen können sonographisch mit guter Sensitivität und Spezifität erkannt werden. Ziel der vorliegenden Studie war es, die Wertig-keit der Kontrastmittel-Sonographie (CEUS = contrast enhanced ultrasound) unter Verwendung von Zeit-Intensitäts-Kurven für die Charakterisierung von Nebennierenraumforderungen zu bewerten.
Material und Methoden: 108 Patienten mit 116 Raumforderungen der Neben-niere erhielten einen Ultraschall der Nebenniere, inklusive einer Kontrastmittel-Sonographie mit dem Kontrastmittel SonoVue®. Die Kontrastmitteldynamik wurde mittels Zeit-Intensitätskurven aufgezeichnet. Anhand der Kontrastmittel-anflutungszeit wurden folgende vier Kontrastmittelanreicherungsmuster ver-wendet, welche in einer Pilotstudie1 entwickelt wurden: Anreicherungsmuster I = früh arterielle Kontrastmittelanreicherung, Anreicherungsmuster II = arterielle Kontrastmittelanreicherung, Anreicherungsmuster III = späte Kontrastmittelan-reicherung, Anreicherungsmuster IV = keine Kontrastmittelanreicherung. Zu-sätzlich erhielten alle Patienten eine Beurteilung der Nebenniere durch ein zweite Bildgebendes Verfahren (Computertomographie (CT) oder Magnetresonanztomographie (MRT)) sowie eine laborchemische Hormondiagnostik. In Fällen mit malignitätsverdächtigem Befund erfolgte eine Biopsie oder Adrenalektomie.
Ergebnisse: CEUS- Anreicherungsmuster I und II konnten bei allen Patienten mit primärem oder sekundärem Malignom der Nebenniere (n = 16) nachgewie-sen werden. Die Sensitivität der CEUS für die Diagnose einer malignen Neben-nierenraumforderung betrug 100% (95% CI [75; 100]) und die Spezifität 67% (95% CI [56; 75]). Bei 40 Nebennierenraumforderungen war die Histologie die Referenzmethode. In 68% dieser Nebennierenraumforderungen waren MRT/CT und CEUS kongruent in der Beurteilung der Dignität. Schlussfolgerung: Die Kontrastmittel-Sonographie ist eine nützliche ergän-zende Methode in der Aufarbeitung von Nebennierenraumforderungen mit exzellenter Sensitivität für die Diagnose eines Malignoms.
Die MRT/MRA spielt in der klinischen Diagnostik des thorakalen Gefäßsystems bisher nur eine untergeordnete Rolle. Ziel der vorliegenden Dissertation war es, die Untersuchungstechnik der MRT für entsprechende Fragestellungen zu optimieren, und im Vergleich mit anderen bildgebenden Verfahren, insbesondere CT und Sonographie, die der MRT eigenen Möglichkeiten und Limitationen aufzuzeigen. Um die von dem Geräteherstellern vorgegebenen Untersuchungsprotokolle zu optimieren, wurde zunächst der Einfluß der verschiedenen Untersuchungsmodalitäten (EKG-Triggerung, Schichtorientierung) auf die Bildqualität an 40 gesunden Probanden überprüft. Die optimierten Sequenzprotokolle wurden sodann bei 130 Patienten mit primären Erkrankungen und Anomalien der thorakalen Gefäße (Aortenaneurysmata, Aortenbogenanomalien, Aortenisthmusstenosen, Aortendissektionen, Pulmonalarterienektasien, Pulmonalarterienschlingen, Scimitar-Syndrom, AV-Malformationen) und 72 Patienten mit sekundärer Beteiligung der thorakalen Gefäße (bei Bronchialkarzinomen, Non-Hodgkin-Lymphomen, Oesophaguskarzinomen, Morbus Hodgkin, verschiedenen soliden Tumoren, Arteriitiden) angewandt. Durch Vergleich der mit den verschiedenen bildgebenden Verfahren erzielten Ergebnisse wurde die Wertigkeit der MRT/MRA ermittelt. Probandenuntersuchungen: Obwohl bei der EKG-Triggerung keine der möglichen Kombinationen von Körperlagerung und Elektrodenpositionierung einen prinzipiellen Vorteil bot, erwies sich die konventionelle Kombination (Rückenlagerung, Brustelektroden) als am wenigsten störanfällig. Eine von der Längsachse des Magnetfeldes abweichende Elektrodenanordnung, z.B. entlang der elektrischen Achse des Herzens, kann nicht empfohlen werden. Um eine optimale Abbildungsqualität zu gewährleisten, müssen für verschiedene vaskuläre Strukturen bestimmte Schichtorientierungen ausgewählt werden. Beispielsweise gelingt die Darstellung des Aortenbogens am besten in parasagittaler Schichtung, entsprechend der LAO-Projektion des Herzkatheters. Bei der Evaluierung des Potentials der MRT zur dynamischen 3-D-Visualisierung des Herzens und der thorakalen Gefäße erwies sich die koronare Schichtung als bester Kompromiss zwischen Meßzeitaufwand und Rekonstruktionsqualität. Dagegen war die MIP-Ansicht, unabhängig von der ausgewählten Schichtorientierung, diagnostisch unbrauchbar. Patientenuntersuchungen: Für jede einzelne Patientengruppe wurden optimierte minimale und erweiterte Sequenzprotokolle definiert. Der limitierende Faktor bei der MRT ist der Zustand des Patienten, dem die Dauer der Untersuchung interaktiv angepaßt werden muß. Hier darf insbesondere für die Auswahl und die Optimierung der Sequenzparameter keine Zeit verloren gehen. Bei den meist kindlichen Gefäßmißbildungen stellt die MRT, neben der transthorakalen und transoesophagealen Sonographie, das Untersuchungsverfahren der Wahl dar. Mit beiden Verfahren ist in der Regel eine suffiziente Beurteilung der Fehlbildungen möglich. In Fällen mit komplexen Fehlbildungen allerdings gelingt eine abschließende Beurteilung meist nur in der Synopsis der Ergebnisse beider Verfahren. Bei entzündlichen oder malazischen Trachealveränderungen muß häufig zusätzlich eine Tracheo- bzw. Bronchoskopie durchgeführt werden. Das Ausmaß einer Trachealstenosierung kann in der Mehrzahl der Fälle mittels MRT mit hinreichender Genauigkeit bestimmt werden. Bei den MRT-Untersuchungen der Patienten mit Aortenaneurysmata wurden ähnlich gute Ergebnisse wie von anderen internationalen Arbeitsgruppen erzielt. Infolge der relativ langen Akquisitionszeiten der MRT ergeben sich für die dissezierenden Aortenaneurysmata allerdings häufig durch Pulsationsartefakte bedingte Limitationen in der Detailgenauigkeit. Aufgrund der schnelleren Scanzeit ermöglicht die CT hier meist eine artefaktfreiere Darstellung. Nachteile der CT aber sind die Strahlenbelastung und die potentielle Nierenschädigung durch Kontrastmittel. In der Gruppe der Patienten mit sekundärer Beteiligung der thorakalen Gefäße werden mit MRT/MRA, CT und Dopplersonographie gleich gute Ergebnisse erzielt. Bei Klärung der Frage einer Gefäßinfiltration oder der Analyse von entzündlichen Gefäßveränderungen dagegen ergibt sich ein Vorteil für die MRT. Von der technischen Weiterentwicklung der MRT/MRA ist eine Erweiterung der diagnostischen Möglichkeiten auch im Bereich des thorakalen Gefäßsystems zu erwarten.
Background: Nicotine, a component of cigarette smoke, has been implicated in the pathogenesis of lung disease. We examined whether nicotine can change the activity of angiotensin-converting enzyme (ACE), an enzyme that plays an important role in the pathophysiology of atherosclerosis and hypertension. Angiotensin converting enzyme, Dipeptidyl-carboxypeptidase is a glycoproteinpeptidyldipeptid-hydrolase, which devided Histidylleucin-dipeptid of angiotensin I, a relatively inactive Dekapeptide. ACE is located on cell surfaces. Highest concentration of ACE are found in lung and kidney. Determination of ACE serum activity is an established tool for diagnosis and therapy control of pulmonary and extrapulmonary disease. The effect of cigarette smoking on ACE serum activity in healthy subjects is subject of controversial discussion. Aim of this study was to evaluate the effect of chronic cigarette consumption on ACE serum activity in healthy subjects. Angiotensin I will be converted in Angiotensin II, a highly vasoconstriktor. In addition ACE inactivates bradykinin. Increased ACE activity values occur in the serum of patients with active sarcoidosis, smokers, in premature babies with respiratory distress syndrome, and in adults with tuberculosis, Gaucher-Syndrom and a number of other medical conditions of the lung. Material and methods: In this study the significance of angiotensin converting enzyme (ACE) was tested in 250 healthy smokers and non smokers aged between 17 and 65 years. Individual smoking habits were ruled out by a questionnaire. The concentration of ACE was founded by measurements on Hitachi 917 Analyzer. Additionally ASAT, ALAT and GT were determined by conventional methods. The following independent variables were studied: investigative material, antikoagulantien influence of drugs and temperature. Result: ACE concentrations were increased identically in smokers and sarcoidosis patients. By a specificity of 95% and sensitivities between 72% and 90% are detected in each of the groups. ACE serum activities were within their normal limits (8-58U/L) in smokers and non smokers. No sex-related differences of ACE activity were observed in non smokers. The values of ACE serum activity were significantly (Kruskal: p<0,001) higher in smokers than in non smokers. Corresponding to differences of smoking habits slight but not significant differences of ACE were observed between male and female smokers. In smokers a strong correlation between individual smoking habits was similar in male and female smokers. Values of all additionally determined laboratory parameters were also within their normal limits. No significant differences were observed for ASAT, ALAT and g GT between smokers and non smokers of both sexes. ACE activity should be measured on the day of blood collection. The influence of temperature on the stability of the material is considerable; the room temperature shows a decrease in concentration. By storage at -20°C and below there is a visible increase in concentration. Conclusion: It is shown that there is an increase of ACE activity as a function of cigarette consummation. Non specific metabolic factors others than smoking can be excluded by normal values of ASAT, ALAT and g GT. The data suggest, that individual smoking habits should be considered for the interpretation of ACE serum activity.
In Deutschland leiden 10-20% der Erwachsenen unter Allergien, wovon 16-36% durch Inhalationsallergene verursacht werden, von denen die Birkenpollen die hauptsächliche Ursache der allergischen Rhinitis vom Frühling bis Frühsommer in Mitteleuropa sind. Als häufigste Typ 1 Allergie ist die Birkenpollenallergie in 70% der Fälle mit einer kreuzreagierenden Nahrungsmittelallergie verbunden. Die Studienlage und die stetig steigende Inzidenz atopischer Erkrankungen weisen auf die außerordentliche Bedeutsamkeit einer effizienten Diagnostik hin, wobei die in-vitro Diagnostik neben Anamnese und Hauttests eine immer bedeutendere Rolle spielt. Mit Tests wie dem Westernblot können einzelne Allergenepitope größenmäßig erfasst und sichtbar gemacht werden. Diese genaue Differenzierung der Proteinbestandteile des Allergenspektrums erlaubt eine exaktere Einschätzung des Antikörperspektrums jedes einzelnen Patienten. In dieser vorliegenden Studie soll die Wertigkeit der Westernblot-Technologie im Rahmen der in-vitro Diagnostik pollenassoziierter Nahrungsmittelallergien bezüglich der Sensitivität, Spezifität, Praktikabilität und des Epitopspektrums bei Patienten mit pollenassoziierter Nahrungsmittelallergie beurteilt werden. Mit dem Pricktest und einer ausführlichen Anamnese als Auswahlverfahren wurden 30 Patienten einer Kontrollgruppe, 30 einer Gruppe für Birkenpollen-Allergiker und 32 einer Gruppe für Birkenpollen-Allergiker mit pollenassoziierter Nahrungsmittelallergie zugeordnet. Zusätzlich wurden die korrespondierenden Seren zuerst mit dem Immulite 2000® (Festphasen-basierender Chemilumineszens-Immunoassay) der Firma DPC-Biermann (Bad Nauheim) auf Birkenpollenallergene und kreuzreagierende Nahrungsmittelallergene getestet. Danach wurden die Seren mit dem Westernblot AlaBLOT®, DPC-Biermann (Bad Nauheim) und dem AlaBlot® Allergenstreifen des spezifischen Birkenpollenallergens T3 untersucht, zu dessen Auswertung eine nach WHO-Nomenklatur angefertigte Schablone verwendet wurde. Die Ergebnisse der Tests wurden mittels deskriptiver statistischer Methoden analysiert. Es konnte gezeigt werde , dass die Wertigkeit der Westernblot Technologie (Alablot Spezifisches IgE®, DPC Biermann, Bad Nauheim) im Rahmen der in-vitro Diagnostik von Birkenpollenallergien und birkenpollenassoziierter Nahrungsmittelallergien vergleichbar ist mit der spezifischen IgE-Technologie (Immulite 2000®, DPC Biermann, Bad Nauheim). Bei Birkenpollenallergikern erreichten beide Tests eine identische Sensitivität von 93%. In der Effizienz übertraf der Westernblot den spezifischen IgE-Test sogar in einem Fall: Mit Bet v 6 erreichte er eine höhere Effizienz mit 99,3% als der spezifische IgE-Test. Der Immulite 2000 erreichte eine Effizienz von 96,7%. Mit Bet v 1 und Bet v 2 erreicht der Westernblot eine 95% Effizienz und lag damit nur knapp unter dem spezifischen IgE-Test. Bei den Birkenpollenallergikern mit pollenassoziierter Nahrungsmittelallergie war die Sensitivität ebenfalls bei beiden diagnostischen Tests identisch mit 100%. Ebenso identische Werte wiesen beide Tests in der Spezifität von 100% auf. In der Effizienz lag der Westernblot nur kurz hinter dem spezifischen IgE-Test. Der spezifische IgE-Test erreichte eine Effizienz von 100% und der Westernblot 98,4%. Mit dem Westernblot wurde kein spezifisches Birkenpollen-Allergenepitop identifiziert, das speziell bei Patienten mit pollenassoziierter Nahrungsmittelallergie auftrat und somit ein Identifikationsepitop wäre. Die Epitopverteilung war bei Pollenallergikern und pollenassoziierten Nahrungsmittelallergikern ähnlich. Allerdings bestand ein Unterschied der beiden Allergikerkollektive in der mittleren Anzahl der Epitope. Die durchschnittliche Anzahl von allergenen Epitopen lag bei den Seren der Patienten mit pollenassoziierter Nahrungsmittelallergie mit 6,06 Epitopen deutlich über dem der reinen Pollenallergiker mit 3,83 Epitopen. Obwohl der Westernblot Nachteile in der Praktikabilität gegenüber dem spezifischen IgE-Test aufweist, stellt er durch die vergleichbaren Sensitivitäten und Spezifitäten und die Fähigkeit, Antikörper gegen einzelne Antigenbestandteile zu differenzieren, eine Alternative zum spezifischen IgE-Test in der Diagnostik von Birkenpollenallergikern mit oder ohne pollenassoziierte Nahrungsmittelallergie dar. Der höhere Durchschnitt an Epitopen bei Patienten mit pollenassoziierter Nahrungsmittelallergie erleichtert in der Diagnostik die schnellere Abgrenzung gegenüber reinen Pollenallergikern und beweist das Vorliegen eines komplexen Sensibilisierungsspektrums. Durch den Westernblot könnte durch die exakte Differenzierung der Allergenspektren eine individuellere spezifische Immuntherapie („patient-tailored-therapy“) ermöglicht werden, was besonders für Allergiker mit einem komplexen Sensibilisierungsspektrum von großer Relevanz wäre. Nach Identifikation der für den jeweiligen Patienten relevanten Epitope könnte die spezifische Immuntherapie an das Sensibilisierungspektrum angepasst werden und dadurch irrelevanten oder sogar unerwünschten Immunantworten vermieden werden
Wertigkeit des intraoperativen Neuromonitorings bei Re- und Rezidiveingriffen an der Schilddrüse
(2005)
Ziel der Studie: In der vorliegenden prospektiven, nicht randomisierten Untersuchung wurde der Einfluß des intraoperativen Neuromonitorings im Rahmen der Operation an der Rezidivstruma und dem Re-Eingriff an der Schilddrüse und den Nebenschilddrüsen herausgearbeitet. Ergebnisse: In der Zeit von Januar 2000 bis August 2002 wurden im Bürgerhospital 110 konsekutive Patienten an 167 Halsseiten an der Rezidivstruma oder einem Re-Eingriff am Hals wegen eines im Primäreingriff entdeckten Karzinoms, eines Rezidiv-Karzinoms, eines Karzinoms im Rezidiv oder einem Hyperparathyreoidismus in einer Rezidiv-Situation operiert. Es erfolgte die systematische, prospektive Dokumentation der anatomischen Situation des Nervus Recurrens (s.u.) und des intraoperativen Neuromonitorings neben den üblichen, im OP-Bericht dokumentierten Details mittels Protokollbögen. Bei allen Patienten wurde das intraoperative Neuromonitoring zur elektromyographischen Überprüfung des Nervus laryngeus recurrens angewendet. 73 (66%) Patienten wurden aufgrund einer benignen Ursache erneut an der Schilddrüse operiert, in 38 (34%) Fällen lag eine maligne Erkrankung als Operationsindikation zugrunde. Hiervon waren 28 (73%) der Operationen Komplettierungs-Eingriffe, 4 (11%) ein Rezidiv-Karzinom und 6 (16%) ein Karzinom im Rezidiv. 150 (90%) zu operierende Schilddrüsenlappen lagen cervikal, 8 (5%) retrosternal, 7 (4) intrathorakal und 2 (1%) retrotracheal. Die 17 nicht cervikal gelegenen Schilddrüsenlappen oder Nebenschilddrüsen konnten in 16 Operationen (94%) von cervikal operiert werden, 1 mal (6%) war eine Sternotomie erforderlich. Hinsichtlich der Verläufe des Nervus recurrens in Beziehung zum Narbengewebe wurde eine in unserer Klinik übliche Einteilung getroffen: Typ X (10 (6%)) bedeutet, daß der Nerv sich nicht darstellen ließ. Verlaufstyp A (47 (28%)) beschreibt einen in anatomisch normaler Lage befindlicher Nerv. Von Typ B (110 (66%)) spricht man, wenn der Nerv ins Narbengewebe einbezogen ist. Findet man ihn dorsal in der Narbe, liegt ein Typ B1 (64 (58% von n=110)) vor, laterale in der Narbe gelegene Verläufe nennt man B2 (38 (35%)) und ein ventral in der Narbe befindlicher Nerv wird als B3 (8 (7%)) klassifiziert. Es traten folgende Komplikationen auf: tödliche Verläufe und Wundinfekte gab es keine, Tracheotomien waren nicht erforderlich. Eine revisionsbedürftige Nachblutung wurde beobachtet sowie 13 (11%) permanente Hypocalcämien und 7 (6,4%, n=110 Pat., 4,2%, n=167 N.a.R.) permanente Recurrensparesen mit einer Resektion des Nerven aus oncologischer Notwendigkeit (ergibt 6, entsprechend 5,5%, n=110 Pat., 3,6%, n=167 N.a.R.). Das intraoperative Neuromonitoring wurde bei allen Operationen angewandt. Von 150 Stimulationen über den Nervus recurrens ergaben 136 ein positives Signal, 14 mal konnte kein elektrisches Potential ausgelöst werden. 126 Nerven mit intraoperativ positivem Signal waren intakt, 11 waren trotz fehlendem elektrischem Impuls gesund. 10 Nerven hatten frühpostoperative Paresen trotz Vorhandensein eines Signals, 3 mal trat eine Parese auf bei Nerven, die intraoperativ kein Signal weitergeleitet hatten. War ein elektrisches Potential auslösbar, bildeten sich von den 10 Lähmungen 8 zurück, ohne blieben alle drei bestehen. 61 mal wurde allein der Nervus vagus stimuliert. 54 Signale standen 7 stummen Stimulationsversuchen gegenüber. Von den stimulierbaren Nerven hatten 50 keine Parese, 4 mal waren auch die ohne EMG-Signal gesund. Frühpostoperative Lähmungen wurden 4 mal trotz positiver Stimulation beobachtet, wobei davon eine permanent war. Wurde kein Signal ermittelt, war der Nerv 3 mal passager und 2 mal permanent gelähmt. Die Ergebnisse zeigen, daß ein gesunder Nerv relativ sicher als solcher erkannt wird. Allerdings ist die Wahrscheinlichkeit, einen geschädigten Nerven intraoperativ wirklich als defekt zu erkennen, relativ gering. Schlußfolgerung: Eine sichere Prognose hinsichtlich der postoperativen Recurrensfunktion ist nicht möglich, wohl aber eine prognostische Aussage bezüglich der Rückbildungs-Wahrscheinlichkeit einer Parese. Die Methode konnte im vorliegenden Kollektiv keine Senkung der Recurrenspareserate bewirken. Allerdings wurde die Notwendigkeit der visuellen Darstellung des Nervus recurrens als Goldstandard bekräftigt.
Ziel der vorliegenden Arbeit war es ein in vitro Modell mit verschiedenen Zellkulturen zunächst zu erschaffen, anhand dessen man pathologische Erkenntnisse für die anschließende Untersuchung von Blutkomponenten von herzchirurgischen Patienten, die mit Hilfe der Herz-Lungen-Maschine [HLM] operiert wurden, gewinnen wollte. Die dabei anschließend untersuchten Blutkomponenten der Patienten waren neutrophile Granulozyten [PMN], die für endotheliale Dysfunktionen und damit Störungen der interzellulären Kontakte an der Blut-Hirn-Schranke [BHS] verantwortlich gemacht werden. Für die Untersuchungen wurden ausschließlich Western Blots verwendet mit deren Hilfe man die Änderungen der Expression der einzelnen Zell-Zell-Proteine nachgewiesen hat. Als Modelle für die interzellulären Kontakte dienten Zellkulturmodelle, an denen die jeweils dominierenden Kontakttypen untersucht wurden.
Am Modell der „Adherens Junction“ [AJ] mit humanen umbilikalvenösen Zellen [HUVEC] stellte sich heraus, dass eine Stimulation dieser Zellen mit TNF-α und eine anschließende Kokultivierung mit agonistischen CD29 AK stimulierten polymorphkernigen Granulozyten [PMN] zu einer Veränderung, im Sinne einer reduzierten Expression, von AJ und „Tight Junction“ [TJ] Molekülen führte. Dabei ist bekannt, dass β1 –Integrin [CD29] abhängige Mechanismen bei von herzchirurgischen Patienten stammenden PMN im Rahmen von Transmigrationsvorgängen eine Rolle spielen und durch einen CD29-inhibierenden Antikörper blockierbar sind.
Eine Kombination von TNF-α und agonistischen CD29 Antikörper zusammen beeinflußt die Barrierefunktion mehr als die Einzelsubstanzen.
Außerdem wurde der Natrium-Protonen-Austauscher Hemmer Cariporid [HOE642] mit seinen aus in vivo bekannten Zell-Zell-Kontakt-stabilisierenden Effekt untersucht. Hierbei wurden CACO-2 Zellen benutzt, die besonders stark TJ exprimieren. Es zeigte sich, dass dieser Stoff im Stande ist, die TJ bei paralleler Anwendung von PMA, einem Endothelschranken Modulierer, zu stabilisieren. In einer unabhängigen Studie sah man ebenfalls, dass die S100-B Werte im Blut durch diese Substanz gesenkt wird. Eine andere Zelllinie wurde allerdings nicht untersucht.
Versuche mit Stimuli zeigten, dass PMA vorstimulierte MVEZ in Kokultur mit unbehandelten PMN von gesunden Probanden fähig sind, AJ Proteine in ihrer Verteilung zu modulieren. Das gleiche Ergebnis konnte auch bei mit niedriger Konzentration (1U /ml) TNF-α stimulierte MVEZ mit unbehandelten PMN von gesunden Probanden für AJ und TJ Proteine gezeigt werden.
Bei Stimulation der MVEZ mit TNF-α und Stimulation der PMN mit PMA kam es zu Änderungen an beiden Zell-Zell-Kontakt Typen, wobei eine zeitkinetische Komponente relevant zu sein scheint.
Bei Doppelstimulation der Endothelzellen und der Leukozyten mit PMA kam es ohne Signifikanz der Dauer zu einer Minderproduktion der AJ Moleküle β-Catenin und VE-Cadherin.
Zudem ist auch interessant festzustellen, dass mikrovaskuläre Endothelzellen, die mit einer Konzentration TNF-α ab 50U /ml aktiviert werden, ohne weiteren Granulozyteneinfluss bereits modulierende Effekte auf die interzellulären Kontakte erfahren.
Versuche mit Patienten PMN, die zu unterschiedlichen Zeitpunkten der Operation abgenommen und mit MVEZ vom Schwein kokultiviert wurden, wiesen Hinweise auf eine funktionelle Beeinträchtigung der Zell-Zell-Kontakte auf.
Die Kombination eines niedrig dosierten Lokalanästhetikums mit dem Opioid Sufentanil zur Patientinnen kontrollierten Epiduralanalgesie (PCEA) gewährleistet eine exzellente geburtshilfliche Schmerztherapie. Bislang konnte die minimale Sufentanilkonzentration in Kombination mit Ropivacain, die eine effektive Analgesie zur schmerzarmen Geburt in Form einer PCEA gewährleistet, nicht bestimmt werden. Verglichen wurden drei verschiedene Sufentanildosierungen im Bezug auf ihre analgetische Wirksamkeit zur schmerzarmen Geburt. Zusätzlich wurden erstmals die maternalen und neonatalen Plasmakonzentrationen für Sufentanil kombiniert verabreicht mit Ropivacain nach PCEA zur schmerzarmen Geburt bestimmt. Nach institutioneller Ethikkommissionsgenehmigung und schriftlicher Aufklärung sowie Einverständniserklärung wurden 74 Patientinnen, (ASA I und II, Einlingsschwangerschaft, Hinterhauptslage, 30 ± 6 Jahre, 77 ± 12 kg, 167 ± 7 cm, 39 ± 2 SSW) in diese prospektive, randomisierte Doppelblindstudie eingeschlossen. Die Patientinnen erhielten 0,16% Ropivacain in Kombination mit 0,25 (n = 29), 0,5 (n = 23) oder 0,75 Mikrogramm/mL (n = 22) Sufentanil. 30 Minuten nach Gabe der Volldosis, bestehend aus 16 mg Ropivacain plus 10 Mikrogramm Sufentanil, wurde die PCEA-Pumpe (Basalrate 4 mL/h, Bolus 3 mL, Lockout-Zeit: 15 min, maximal Dosis/h: 16mL) mit den drei unterschiedlichen Sufentanildosierungen gestartet. Bis zu sechs Stunden nach Beginn der PCEA wurde die Gesamtmenge an appliziertem Ropivacain und Sufentanil, die Schmerzintensität der Schwangeren (Visuelle Analog Skala, VAS 0-100 mm), der Anteil der Schwangeren mit breakthrough pain (VAS-Score > 40) und die mütterliche Zufriedenheit mit dem Verfahren bestimmt. Nach der Abnabelung des Neugeborenen wurde 5 mL maternales Blut aus der Venenverweilkanüle und 5 mL Blut aus der Nabelschnurarterie des Kindes entnommen. Das Plasma wurde durch Zentrifugation separiert und bis zur Analyse bei –40 °C asserviert. Die Sufentanilplasmaspiegelbestimmung erfolgte mit Hilfe einer Flüssigkeitschromatographie, kombiniert mit Elektrospray-Ionisierung-Tandem-Massenspektrometrie (LC-ESI-MS/MS) und deuteriertem Sufentanil, [2H5]-Sufentanil, als internem Standard. Die untere Nachweisgrenze der neuen Bestimmungsmethode liegt bei 0,25 pg/mL (12,5 fg on column) und ist damit deutlich empfindlicher als bei bisherigen Nachweisverfahren (Schmidt 2006, Martens-Lobenhoffer 2002 und Loftus 1995). Es gab zwischen den drei Gruppen keine Unterschiede in den demographischen Daten, bei der Geburtsdauer und der Gesamtmenge an verabreichten Ropivacain. Im Bezug auf die angeforderten und applizierten Boli pro Stunde gab es zwischen den drei Gruppen keine statistisch signifikanten Unterschiede. Zu keinem Zeitpunkt gab es einen statistisch signifikanten Unterschied bezüglich der Schmerzintensität der Schwangeren (VAS-Score), der Inzidenz an breakthrough pain und der mütterlichen Zufriedenheit. Dosisabhängig bestand zwischen den drei Gruppen ein statistisch signifikanter Unterschied sowohl im Bezug auf die applizierte Sufentanilmenge (p < 0,001), als auch bei den maternalen und neonatalen Sufentanilplasmakonzentrationen (p < 0,001) zum Zeitpunkt der Geburt. Für die Gruppe mit der niedrigsten Sufentanilkonzentration ließ sich eine niedrigere Sectiorate als erwartet nachweisen (s. Tab. 15). .... Tabelle 15: Angaben in der jeweiligen Einheit, als Median und Inter-Quartil-range. PCEA = Patientinnen kontrollierte epidurale Analgesie, min = Minuten und VAS = Visuelle Analog-Skala. Die drei Sufentanildosierungen (0,25, 0,5 und 0,75 Mikrogramm/mL) bewirken eine vergleichbar gute Analgesie und exzellente Patientinnenzufriedenheit. Auf Grund dieser Untersuchungsergebnisse kann die Kombination von 0,25 Mikrogramm/mL Sufentanil mit Ropivacain 0,16%, als PCEA zur schmerzarmen Geburt verabreicht, empfohlen werden. Auch bei prolongiertem Geburtsverlauf (> 6 h PCEA) kann das Dosislimit in der Produktinformation von 30 Mikrogramm Sufentanil sicher eingehalten werden. Die maternalen und neonatalen Sufentanilplasmakonzentrationen liegen, selbst bei längerem Geburtsverlauf mit überschreiten des oberen Dosislimits, im niedrigen Picogrammbereich und damit niedriger als bei bisher publizierten Daten (Brodner 2000, Loftus 1995 und Cohen 1996). Ob die epidural verabreichte Sufentanildosierung einen Einfluss auf den Entbindungsmodus ausübt, können nur Studien mit variabler Opioidkonzentration und deutlich höherer Fallzahl klären.
Wirksamkeit von Articain und Lidocain bei verschiedenen Verfahren der zahnärztlichen Lokalanästhesie
(2003)
Articain und Lidocain sind die in der Zahnheilkunde am häufigsten verwendete Lokalanästhetika. Beide Substanzen besitzen eine ähnliche lokalanästhetische Wirksamkeit, sind jedoch in unterschiedlich konzentrierter Lösung im Handel. Articain ist das einzige Lokalanästhetikum, das einerseits in hoher Konzentration (4 %), andererseits mit gering konzentriertem Adrenalin-Zusatz (1:200.000 und 1:400.000) verfügbar ist. Lokalanästhetika werden nach der Wirkung dosiert. Wenn die lokalanästhetische Wirkung aufgrund zu geringer Konzentration von Lokalanästhetikum oder Vasokonstriktor unzureichend ist, kann durch eine Nachinjektion in der Regel eine vollständige Wirkung erzielt werden. Da bei der intraligamentären Injektionstechnik nur sehr geringe Volumina in den engen Desmodontalspalt injiziert werden können, kann bei dieser Technik eine unzureichende Wirkung nicht durch eine Dosiserhöhung kompensiert werden. Daher erscheint für die intraligamentäre Anästhesie eine höher konzentrierte Lösung als geeignet. In einer Vergleichsuntersuchung sollte die lokalanästhetische Wirkung handelsüblicher Articain- und Lidocain-Lösungen für die intraligamentäre Anästhesie überprfüt werden. In einer 6-fach-cross-over-Untersuchung erfolgte bei 25 gesunden Probanden an einem Prämolaren eine Lokalanästhesie durch submuköse Infiltration und intraligamentäre Injektion mit 4 % Articain mit Adrenalin 1:200.000 bzw. 1:100.000 sowie 2 % Lidocain mit Adrenalin 1:100.000. Die Anästhesietiefe wurde mittels elektrischer Sensibilitätsprüfung bestimmt. Eine vollständige Anästhesie konnte bei Infiltrationsanästhesie in praktisch allen Fällen erzielt werden, die Anästhesiedauer zeigte zwischen den drei lokalanästhetischen Lösungen keine Unterschiede. Bei der intraligamentären Anästhesie zeigten sich deutliche Unterschiede zwischen den 4-prozentigen und der 2-prozentigen Lösung. Sowohl der Anteil der vollständigen Anästhesiewirkung als auch die Dauer der Anästhesie war bei den beiden 4-prozentigen Lösungen deutlich höher als bei der 2-prozentigen Lösung. Aufgrund der Ergebnisse der vorliegenden Untersuchung sind 4- prozentige Articain-Lösungen für die intraligamentäre Anästhesie uneingeschränkt geeignet, wobei die Zubereitung mit der höheren Adrenalin-Konzentration keine Vorteile bietet. Die handelsübliche 2-prozentige Lidocain-Lösung ist aufgrund deutlich geringerer Wirksamkeit für diese Technik weniger geeignet.
Einleitung: Beim allergischen Asthma bronchiale handelt es sich um eine weltweit zunehmende Erkrankung, für die es bislang nur wenige kausale Therapien gibt. In der Therapie chronisch-entzündlicher Erkrankungen wie der chronischen Rhinitis, Sinusitis, Akne vulgaris oder auch dem Asthma bronchiale, werden seit vielen Jahrzehnten autologe Autovaccine eingesetzt und stellen eine effektive Behandlungsoption dar.
Methoden: In einer prospektiven, randomisierten, doppelblinden Studie wurden 31 Probanden mit einem Asthma GINA I° sowie einem positiven Prick-Hauttest und einer positiven bronchialen Allergenprovokation mit Hausstaubmilbe entweder mit einer autologen E. coli Autovaccine (AV) oder einem Placebo über 24 Wochen behandelt, woraufhin eine abschließende Provokationsphase folgte. Als primären Zielparameter bestimmten wir das exhalative Stickstoffmonoxid (eNO) als Marker der bronchialen Entzündung. Die sekundären Zielparameter waren die bronchiale Hyperreagibilität vor und nach Behandlung sowie nach Provokation, das Allergie-Labor (Gesamt-IgE, spezifisches IgE gegen Hausstaubmilbe), die klinische Verträglichkeit sowie die Spätreaktion und der Medikamentenverbrauch in der abschließenden Provokationswoche.
Ergebnisse: Die Patienten der AV-Gruppe (36,7 ppb) fielen unter Behandlung signifikant auf 24,2 ppb ab, während die Placebo-Gruppe (26,8 ppb) mit 30,6 ppb eher angestiegen war. Bezüglich der bronchialen Hyperreagibilität ergab sich in der AV-Gruppe ebenfalls eine deutliche Verbesserung im Vergleich zur Placebo-Gruppe: Placebo 1,17 mg vs. AV 0,51 mg vor Behandlung auf Placebo 1,03 mg vs. AV 0,99 mg nach Behandlung. Sowohl bezüglich der BHR als auch der eNO-Werte konnten diese Ergebnisse unter Provokation nicht bestätigt werden. In beiden Gruppen stieg das eNO unter den abschließenden bronchialen Allergenprovokationen signifikant auf 104,4 ppb in der Placebo-Gruppe und 91,1 ppb in der AV-Gruppe an. Während der abschließenden Provokationsphase zeigten sich in der AV-Gruppe ein signifikant geringerer Salbutamol-Bedarf sowie ein signifikant geringeres Auftreten von Spätreaktionen (LAR) im Vergleich zur Placebo-Gruppe. Es traten nur leichte, selbst limitierende Lokalreaktionen auf.
Diskussion: Die Anwendung einer autologen E. coli Autovaccine war sicher und gut verträglich. Die Ergebnisse zeigten einen positiven Einfluss auf die bronchiale Entzündung und Hyperreagibilität bei leichten Asthmatikern mit Hausstaubmilben-Allergie und stellen so eine neue Behandlungsoption dar. Zum genauen Wirkmechanismus der AV bedarf es weiterer Studien.
Bei der vorliegenden prospektiven und verblindeten klinischen Vergleichsstudie wurde die Wirkung prophylaktisch inhalierten Iloprosts bei 40 Patienten ohne bekannte pulmonale Hypertonie untersucht, die sich einer elektiven chirurgischen Revaskularisierung der Koronargefäße unter Verwendung einer extrakorporalen Zirkulation (EKZ) unterzogen. Bei derartigen Operationen kommt es regelhaft zu einer generalisierten Entzündungsreaktion gefolgt von einer Rechtsherzbelastung unterschiedlichen Ausmaßes, was den postoperativen Verlauf teilweise erheblich kompliziert. Zur Therapie einer in diesem Rahmen aufgetretenen Rechtsherzbelastung hat sich inhaliertes Iloprost bereits vielfach als sehr wirksam erwiesen. Zusätzlich ist seit einiger Zeit auch eine antiinflammatorische Wirkung von Iloprost bekannt. Zielsetzung dieser Studie war es daher herauszufinden, ob auch die prophylaktische Applikation eine vorteilhafte Wirkung auf perioperative Hämodynamik und Oxygenierung sowie auf perioperative Inflammationsreaktion zeigen kann. Dazu wurde vor EKZ 20 Patienten 10µg aerosolisiertes Iloprost per inhalationem appliziert, 20 Patienten der Kontrollgruppe inhalierten 0,9%ige NaCl–Lösung. Nach Ende der EKZ wurden hämodynamische Parameter mittels Pulskonturanalyse (PiCCO®) und dessen Rechtsherz–Erweiterungsmonitors (VoLEF®) protokolliert sowie arterielle und gemischtvenöse Blutgasanalysen durchgeführt. Weiterhin wurden pro– und antiinflammatorische Zytokine (Interleukin–1beta, 6, 8 und 10 sowie Tumor–Nekrose–Faktor alpha) in Blutplasma und bronchoalveolärer Lavageflüssigkeit bestimmt Die Ergebnisse bei den meisten beobachteten Parametern in Studien– und Kontrollguppe unterschieden sich nicht signifikant voneinander. Jedoch zeigte sich in der Studiengruppe ein erhöhtes HZV sowie ein höherer kardialer Funktionsindex als Marker der Inotropie bei gleichzeitig niedrigerem systemischem Gefäßwiderstand. Da diese Wirkung nach Ende der üblichen Wirkdauer von Iloprost auftrat, interpretieren wir dies als einen Hinweis auf eine verbesserte hämodynamische Stabilität durch die prophylaktische Inhalation von Iloprost. Ein weiteres Ergebnis war ein etwas besseres Sauerstoffangebot in der Studiengruppe gegen Ende der Untersuchung. Die Analyse der Zytokinbestimmungen aus Blutplasma und Bronchialsekret konnte keine signifikanten Unterschiede zwischen den beiden Gruppen zeigen, eine antiinflammatorische Wirkung inhalierten Iloprosts konnte hier nicht dargestellt werden. Auch eine relevante Rechtsherzbelastung wurde nicht beobachtet. Da inhaliertes Iloprost seine vorteilhafte Wirkung auf postoperative Hämodynamik und kardiale Pumpleistung vor allem durch Senkung pathologisch erhöhter intrapulmonaler Widerstände entfaltet und eine antiinflammatorische Wirkung erst bei einer Inflammation zum Tragen kommen kann, ist zu erwägen ob nicht der inflammatorische Reiz bei dem untersuchten verhältnismäßig gesunden Patientenkollektiv zu gering war, um die vermuteten Effekte zu zeigen. Im Verlauf der Studie ist kein schwerer Zwischenfall aufgetreten, auch konnte kein nachteiliger Effekt prophylaktisch inhalierten Iloprosts bei dem vorliegenden Patientenkollektiv nachgewiesen werden. Eine Studie, die die Auswirkung von inhaliertem Iloprost auf Hämodynamik, Oxygenierung und Inflammation an kardial vorbelasteten Patienten mit langer Operations– und EKZ–Dauer untersucht, erscheint daher sinnvoll.
Die mediane Sternotomie ist in der Kardio-Chirurgie der wichtigste Zugang zum Herzen. Postoperative Wundheilungsstörungen in diesem Bereich sind seltene, jedoch gefürchtete Komplikationen, die zu schwerwiegenden Konsequenzen führen können. Die zunächst einfache oberflächliche Wundheilungsstörung kann sich verkomplizieren und über eine Osteomyelitis des Sternums zu einer Mediastinitis mit eventuell letalen Konsequenzen führen. Aktuell geben unterschiedliche Autoren eine Inzidenz von 1 % – 8 % an. Die Mortalität der Sternumosteitis wird dabei zwischen 10 % und 30 % angegeben. Wird der Pathomechanismus der Erkrankung zu einem Algorithmus zusammengefasst, so kann sich über einen descendierenden Verlauf eine oberflächliche Wundheilungsstörung zu einer Sternumosteitis und schließlich zu einer Mediastinitis entwickeln. Natürlich kann sich die Infektion auch ascendierend ausbreiten. Über eine Infektion des Mediastinums oder des Sternums kann sich eine Infektion über die Weichteile bis an die Körperoberfläche ausdehnen. Der typische Patient, der eine Wundheilungsstörung erleidet ist in aller Regel polymorbide. Besonders bei diesem Patientenkollektiv sind eine kurze Behandlungsdauer und eine schnelle, postoperative Rehabilitation für das Ergebnis vorrangig. Ist der gewählte Therapieplan nicht aggressiv genug, so kommt es häufig zu chronischen Erkrankungen mit Fistelungen und einem konsekutiven Fortschreiten der Infektion in Weichteilen und Knochen. Neben medizinischen Gesichtspunkten kommen auch der wirtschaftliche Aspekte zu tragen. Wiederholte Operationen, lange Liegezeiten auf der Intensivstation und wiederholte sowie langwierige Rehabilitationsphasen sind nur wenige Beispiele der kostenintensiven Therapiebestandteile. Aufgrund der schwer beherrschbaren Infektsituation ist eine konsequent aggressive, definitive und zuverlässige Versorgung der infizierten Wunden von höchster Priorität. Dabei spielt es keine Rolle, ob es sich dabei um Wundheilungsstörungen im Bereich der Haut- und Unterhautweichteile, des Sternums oder des Mediastinums handelt. Zur Behandlung der Wundheilungsstörung nach medianer Sternotomie existieren verschiedene Behandlungsansätze und Therapieoptionen. Diese reichen von einfachen Debridements mit Sekundärvernähungen über Spül-Saug-Drainagen mit Antibiotika versetzen Lösungen bis hin zu Sternumteilresektionen, Vakuumverbänden und komplexen Lappenplastiken. ...
In der vorliegenden Arbeit werden die angewendeten Kräfte, die von drei Behandlergruppen (Studenten, Zahnärzte und Spezialisten) während der lateralen Kondensation von Guttapercha aufgebracht werden, in Abhängigkeit vom Qualifikationsgrad des Behandlers und der unterschiedlichen Kanalkonizität untersucht. Die Behandlergruppen bestehen aus jeweils 12 Personen. Jeder Proband füllt in folgender Reihenfolge einen vorgefertigten Kunststoffkanal der Konizität .02, .04, .06 und p30 (ProTaper F3) nach der Methode der lateralen Kondensation unter Verwendung von AH plus Sealer und Guttapercha. Dabei werden von einem Kraftsensor die entstehenden vertikalen Kräfte gemessen, aufgezeichnet und dann mittels geeigneter Software hinsichtlich folgender Ergebnisgrößen ausgewertet: • Absolute Maxima der angewendeten Kraft bei Wurzelkanalfüllung • Durchschnittswerte der angewendeten Kraft • Häufigkeitsverteilung der Kraftmesswerte • Zugkraftwerte (Minima der angewendeten Kraft) • Streuungsmaße (Standardabweichung und Varianz) • Anzahl der auftretenden Kraftspitzen pro Kanalfüllung • zugrunde liegende probandenspezifische Füllmuster • Anzahl der zur Kanalfüllung verwendeten Guttaperchastifte • benötigte Kanalfüllzeit Folgende Ergebnisse sind erarbeitet worden: 1. Die 36 Probanden haben durchschnittliche Maximalwerte von 1,10-2,12 kg eingesetzt: Spezialisten wendeten im Mittel 2,12 kg an, Studenten 1,48 kg und Zahnärzte 1,10 kg. 2. Die Durchschnittswerte der eingesetzten Lasten der 36 Probanden liegen zwischen 0,51-0,92 kg: Spezialisten wendeten im Mittel 0,92 kg an, Studenten 0,65 kg und Zahnärzte 0,51 kg. Auch hier kondensieren die Spezialisten mit höheren Kraftwerten. 3. Statistisch signifikante Unterschiede zwischen den Behandlergruppen bestehen bei: • Maximalkraft: bei allen Konizitäten • Durchschnittskraft: bei den Konizitäten .02 und .04 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: bei allen Konizitäten • Kraftspitzen: keine signifikanten Unterschiede 4. Statistisch signifikante Unterschiede zwischen den Kanalkonizitäten bestehen bei: a) Studenten • Maximalkraft: keine signifikanten Unterschiede • Durchschnittskraft: zwischen den Konizitäten .04 und .06 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: keine signifikanten Unterschiede b) Zahnärzten • Maximalkraft: keine signifikanten Unterschiede • Durchschnittskraft: zwischen den Konizitäten .06 und p30 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: keine signifikanten Unterschiede c) Spezialisten • Maximalkraft: zwischen den Konizitäten .04 und .06 • Durchschnittskraft: bei allen Konizitäten bis auf zwischen .02 und .04 sowie zwischen .06 und p30 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: keine signifikanten Unterschiede 5. Es gibt bei den untersuchten Kraftwerten keine signifikanten Unterschiede zwischen weiblichen und männlichen Behandlern. 6. Es wurde ein individuelles Kraftauftragsmuster bei den Behandlern der unterschiedlichen Gruppen festgestellt. 7. Mit ansteigender Konizität werden von allen Behandlergruppen signifikant mehr Guttaperchastifte in den Kanal eingebracht. Zahnärzte tendieren dazu, weniger Guttaperchastifte zu verwenden und die Kanäle schneller zu füllen, als die Probanden der anderen beiden Gruppen.
Hintergrund und Fragestellung Medizinische Fehlerberichtssysteme dienen als Instrument zum Erfassen von Daten aus dem Bereich der Patientensicherheit und sollen das Lernen aus den berichteten Fehlern ermöglichen. Erfahrungen hierzu liegen hauptsächlich aus dem Umfeld der Kliniken vor, für den ambulanten bzw. hausärztlichen Bereich gibt es noch wenige Kenntnisse. Ziel dieser Arbeit ist die Erstellung und Erprobung eines praxistauglichen, deutschsprachigen Fehlerberichts- und Lernsystems für hausärztlich tätige Mediziner/innen. Weiterhin soll die Verwendung und Nutzerakzeptanz nach einem Jahr Betrieb untersucht werden. Methoden Zur Festlegung der Eigenschaften des zu erstellenden Systems wurden drei existierende Berichtssysteme analysiert, eine Befragung der Teilnehmer einer Pilotstudie (PCISME) durchgeführt sowie juristische Aspekte untersucht. Das System wurde mit Hilfe etablierter Softwareentwicklungsmethoden erstellt. Nach einem Jahr Laufzeit wurden Daten zur Verwendung des Systems ermittelt und die veröffentlichten Berichte und abgegebenen Benutzerkommentare insbesondere bezüglich Aussagen zum Feedbacksystem und zur Nutzerfreundlichkeit untersucht. Ergebnisse Im Oktober 2004 wurde mit „Jeder Fehler zählt“ das erste Fehlerberichts- und Lernsystem für Hausärzte in Deutschland freigegeben. Es ist ein komplett offenes, freiwilliges, anonymes und externes System. Die Eingabe der Fehlerberichte erfolgt über ein im Internet frei zugängliches Formular. Ausgesuchte Fehlerberichte werden von wissenschaftlichen Mitarbeitern kommentiert und veröffentlicht. Benutzer können zu den Berichten und in einem Diskussionsforum ebenfalls Kommentare eingeben. Weiterhin werden Berichte und Analysen in Fachzeitschriften publiziert. Im ersten Jahr gingen 149 Berichte ein, laut Aussagen von 23 Benutzern ist das Berichten einfach durchzuführen. Es wurden 11 „Fehler des Monats“ veröffentlicht, zu denen insgesamt 123 Kommentare abgegeben wurden. Zu 43 veröffentlichten „Fehler der Woche“ wurden 146 Kommentare abgegeben. Im Diskussionsforum wurden 46 Einträge vorgenommen. Die Beiträge der Benutzer sind zum weit überwiegenden Teil konstruktiv und sachbezogen und enthalten häufig konkrete Tipps und Hinweise zur Vermeidung von Fehlern. In deutschen und österreichischen Fachzeitschriften wurden insgesamt 11 Berichte publiziert. Diskussion Das System führt Eigenschaften der untersuchten Systeme mit eigenen Ansätzen zusammen. Da wegen der Anonymität der Berichtenden keine Möglichkeit zum Nachfragen besteht, ist für eine gute Verwertbarkeit der Berichte eine möglichst hochwertige textuelle Beschreibung der Ereignisse notwendig. Diese war in der überwiegenden Zahl der Berichte gegeben. Aus Sicht der aktiven Nutzer stellt das System grundsätzlich einen wertvollen Beitrag zur Qualitäts- und Fehlerkultur dar. Schlussfolgerung Die regelmäßige Nutzung der Internetseiten, die dort abgegebenen Kommentare und die Veröffentlichungen der Berichte in den Zeitschriften zeigen, dass auch einzelne Berichte das Lernen aus Fehlern ermöglichen können. „Jeder Fehler zählt“ kann als hypothesengenerierendes System mit vielfältigen Ansätzen zur weiteren Forschung aufgefasst werden. Bereits im ersten Jahr des Betriebs konnten wertvolle Erfahrungen gesammelt werden, die in die kontinuierliche Weiterentwicklung des Systems einfließen. Diese fokussiert auf Verbesserungen der Feedbackmethoden sowie auf eine höhere Nutzung des Systems.
Ziele: Evaluation von Zahnverlust bei Molaren und prognostischen Faktoren für das Überleben von Molaren Material und Methodik: 505 Molaren bei 71 Patienten (durchschnittliches Alter: 46 Jahre; 40 weiblich) wurden untersucht. Die folgenden Einschlusskriterien mussten erfüllt werden: Parodontaltherapie an mindestens einem Molaren, mindestens 5 Jahre Unterstützende Parodontitistherapie, Vorliegen der Dokumentation klinischer präoperativer oder intraaoperativer Befunde der Furkationsbeteiligung (FB). Folgende Parameter wurden erfasst: Patientenbezogen: Alter (I), Ausgangsdiagnose (II), Nikotinkonsumverhalten (III), Gesamtzahl der Zähne vor (IV) und nach Therapie (V), regelmäßige Recallteilnahme (VI), durchgeführte Therapien (VII), bei Verlust von Zähnen (soweit nachvollziehbar) der Extraktionsgrund patientenspezifisch (VIII) sowie der durchschnittliche Plaque-Index (IX). Zahnbezogen: Furkationsbeteiligung, Molarentyp, Kiefer und Knochenabbauindex. Ergebnisse: Zum Zeitpunkt der Ausgangsuntersuchungen wiesen 200 der 505 Molaren keine FB, 116 eine Grad-I-, 122 eine Grad-II- und 67 eine Grad-III-FB auf. 27 Molaren erhielten keine Parodontaltherapie; 127 Molaren wurden nichtchirurgisch und 227 Molaren mit Lappenoperationen therapiert. Bei 14 Molaren wurde eine Tunnelierung durchgeführt, eine Wurzelamputation erfolgte an 20 Molaren, regenerativ wurden 57 Zähne behandelt. 33 Molaren wurden extrahiert. Während der durchschnittlichen Nachuntersuchungszeit von 107 Monaten gingen 38 Molaren verloren. Molaren mit Grad-III-FB wiesen die höchste Verlustrate auf. Das Multilevel „proportional hazard“-Modell konnte den Einfluss von Zigarettenkonsum, den Ausgangsknochenverlust, die Anzahl der verbliebenen Molaren und Grad-III-FB als Risikofaktoren für die Retentionszeit von Molaren aufzeigen. Schlussfolgerung: Insgesamt weisen parodontal behandelte Molaren eine gute Prognose auf. Eine Grad-III-FB führt zu einer signifikanten Verschlechterung der Prognose. Neben der Furkationsbeteiligung beeinflussen Zigarettenkonsum, das Ausmaß des Knochenabbaus und die Anzahl der bereits verlorenen Molaren die Überlebensraten von Molaren negativ. Klinische Relevanz: Wissenschaftliche Gründe für diese Studie: Furkationsbeteiligte Molaren sollen weniger günstig auf eine Parodontaltherapie ansprechen und ein größeres Risiko für Zahnverlust im Vergleich zu Molaren ohne Furkationsbeteiligung oder zu einwurzeligen Zähnen aufweisen. Diese Studie hat zum Ziel, unseren eigenen Patientenpool zu evaluieren und prognostische Faktoren für das Überleben von Molaren zu identifizieren. Hauptergebnisse: Eine Grad-III-FB vor Therapie führt zu einer statistisch signifikanten Verschlechterung der Prognose, insbesondere bei Oberkiefermolaren. Neben der Furkationsbeteiligung sind Rauchen, Knochenverlust vor Therapie, der Zahntyp und die Anzahl der verbliebenen Molaren prognostische Faktoren für das Überleben von Molaren. Praktische Folge: Generell resultiert aus einer Parodontaltherapie eine gute Prognose für Molaren.
Die supratentorielle dekompressive Kraniektomie mit Eröffnung und Erweiterungsplastik der Dura mater ist heutzutage eine wichtige Therapiemaßnahme in der Behandlung des konservativ nicht kontrollierbaren Hirndrucks. Unter Kranioplastik versteht man den chirurgischen Verschluss des entstandenen Knochendefekts zum Schutz des direkt unter der Kopfhaut liegenden Gehirns, zur ästhetischen Wiederherstellung der Konturen sowie zur Verbesserung einer neurologischen Symptomatik („syndrome of the trephined“).
In der vorliegenden Arbeit werden die Daten von insgesamt 242 Patienten, die einer Kranioplastik unterzogen worden waren, retrospektiv analysiert. Die Patienten wurden im Zeitraum 2001-2008 in der neurochirurgischen Abteilung der Städtischen Kliniken Frankfurt am Main-Höchst operiert. Um Aufschluss über das postoperative, funktionelle und kosmetische Ergebnis zu erhalten, wurde im Anschluss an die Aktenauswertung bei diesen Patienten eine telefonische Befragung durchgeführt.
Ziel der Arbeit war es, die bisherigen Erfahrungen der Kalottenplastik und insbesondere der autogenen orthotopen Knochendeckelreimplantation im Hinblick auf die verschiedenen Kranioplastik Zeitpunkte zu untersuchen und unter klinischen Aspekten zu bewerten.
Die Frage des Kranioplastik Zeitpunktes ist essentiell für die Therapieplanung.
Das autologe Schädelknochentransplantat hat bessere Eigenschaften und Qualitäten als alle anderen alloplastischen Materialien. In Anbetracht der perfekten Histokompatibilität, der optimalen biomechanischen Eigenschaften, der guten anatomischen Fusion mit dem umgebenden Knochen und der Möglichkeit der partiellen oder totalen Revitalisation des Transplantats, besteht kein Zweifel, dass der autologe Knochen immer zu verwenden ist, wenn die Möglichkeit dazu besteht.
Die Analyse der Patientengruppen ergab, dass die ultra frühe Kranioplastik der Patienten mit großen Defekten nach dekompressiver Kraniektomie ein besseres Outcome im langfristigen Follow-up hat. Diese Patienten hatten keine gesteigerte Infektions- oder andere Komplikationsraten. Das Timing der Kranioplastik spielt eine Rolle in der Komplikationsrate nur bei den Patienten, die sekundär eine Komplikation erlitten haben. Patienten, die nach der Kraniektomie eine Nachblutung, einen Infarkt oder eine Infektion erlitten haben, hatten eine signifikant höhere Infektionsrate bei ultra früher Kranioplastik. Insbesondere soll betont werden, dass der Trend einer Häufung von Wundheilungsstörungen und Infektionen mit der Folge einer erneuten Explantation des Knochendeckels bei Patienten nach autogener Knochendeckelreimplantation mit mehr als 2 Risikofaktoren und bei Patienten mit kompliziertem Verlauf nach Kraniektomie festgestellt wurde.
Gemäß den Ergebnissen dieser Patientenserie kann die ultra frühe Kranioplastik bei ausgewählten Patienten mittels Reimplantation des Eigenknochens als ein sicheres und hilfreiches Verfahren für die schnellere Rehabilitation und Besserung der neurologischen Funktion und der Prognose bewertet werden. Ähnlich gute Ergebnisse zeigten die Pantienten in der Gruppe 1 der ultra frühen Kranioplastik die aufgrund einer Liquorzirkulationsstörung ein VP Shunt System als kombinierte Therapie in der gleichen Sitzung erhalten haben.
Somit kann zusammenfassend festgehalten werden:
Die Ergebnisse dieser Arbeit bestätigen, dass die Kranioplastik nach einer supratentoriellen dekompressiven Kraniektomie mit Reimplantation des eigenen Schädelknochens zum frühesten möglichen Zeitpunkt ein sicheres und effektives Verfahren darstellt und bei ausgewählten Patienten sogar bessere Ergebnisse als die späte Kranioplastik haben kann. Eine mögliche Erklärung dafür könnte das Auftreten und die Persistenz von neurologischen Defiziten im Rahmen des „syndrome of the trephined“ bei Patienten bieten, bei denen eine späte Kranioplastik durchgeführt wurde. In diesem Patientengut hatten die Patienten mit ultra-früher Kranioplastik das beste neurologische Outcome, die Komplikationsrate war in allen Gruppen vergleichbar.
Um Komplikationen zu vermeiden, sollten Patienten mit einer vorausgegangenen lokalen Infektion spät kranioplastiert werden.
Das neurologische Outcome der Patienten, bei denen ein kombiniertes Verfahren Kranioplastik –VP Shunt durchgeführt wurde, war vergleichbar mit anderen Patientengruppen. Somit ist eine Kranioplastik bei Patienten mit konvexen, über Kalottenniveau prolabierten Kraniektomielappen aufgrund eines Hydrocephalus keine Kontraindikation.
Neuroendokrine Tumoren (NET) sind eine seltene Krankheit mit einem breitgefächerten heterogenen Erscheinungsbild, wodurch sich die Diagnose der Tumoren aus einer Vielzahl aus Gründen häufig um Jahre verzögert (1). In dieser Arbeit analysierten wir einen großen Datensatz in einem tertiären Referenzzentrum (UKF) von 1984-2019, um die Symptomatik vor der Diagnose des Tumors sowie den Zeitraum von der Tumormanifestation bis zur Diagnose weiter zu klären. Für die deskriptiven Analysen kamen SPSS, Cox-Regression und Log-Rank-Test zur Anwendung.
Insgesamt schloss die retrospektive Studie 488 gastroenteropankreastische (GEP)-NET mit 486 Patienten ≥ 18 Jahren ein, wovon knapp mehr als die Hälfte männlich (52,9%) waren. Das mittlere Alter bei Erstdiagnose (ED) betrug 58 Jahre (477/486, 9 unbekannt). Die häufigsten Primärtumorlokalisationen stellten Pankreas (143/488 Patienten) und Dünndarm (145/488 Patienten) dar. Die Mehrheit der NET waren langsam wachsende G1-Tumoren mit einem Ki67 < 3% (155/330). Die Hälfte der Patienten entwickelten im Verlauf Fernmetastasen, wobei die meisten bereits bei der ED vorlagen und insbesondere die Leber als Metastasierungsorgan dominierte. Bei mehr als 60% der Patienten konnten Angaben zur klinischen Symptomatik vor der ED detektiert werden, wovon wiederum mehr als die Hälfte symptomatisch waren. 42% der symptomatischen Patienten zeigten NET-spezifische Symptome (Bauchschmerzen 77/128; 60,2%, Durchfall 51/128; 39,8%, Flush 19/128; 14,8%, Karzinoidsyndrom 8/128; 6,3% Tachykardie 6/128; 4,7%). In der primären bildgebenden Diagnostik dominierten konventionelle Bildgebungen wie Sonographie und Computertomographie (CT), wobei nuklearmedizinische Diagnostik eine Seltenheit darstellte. Mehr als 30% der Tumoren wurden als Zufallsbefunde im Rahmen einer bildgebenden Diagnostik oder Operation diagnostiziert. Die Mehrheit der Patienten stellte sich initial außerhalb unserer Klinik vor, nur etwa 15% wurden innerhalb unserer Klinik insbesondere in der Gastroenterologie vorstellig, wo der NET diagnostiziert wurde.
Die Phase von der Tumormanifestation bis zur ED aller NET betrug im Median 17 Tage. Das Vorhandensein von Fernmetastasen sowie Symptomen führte zu keiner signifikanten Kürzung der Phase und einer schnelleren ED des NET (Median 65,5 vs. 90 Tage, p = 0,4).
Zur Zeit basiert die Behandlung der Infektion mit dem Humanen-Immunschwäche-Virus (HIV) ausschließlich auf einer Chemotherapie, die das Virus nicht eradiziert, sondern in seiner Vermehrung hemmt. Diese Therapie muß lebenslang erfolgen. Die Wirksamkeit der Medikamente ist, auch in einer Kombinationstherapie, durch die Entwicklung von Resistenzen limitiert. Diese begründet sich zum einen in der Selektion resistenter Virusmutanten. Zum anderen weisen experimentell und in Studien gewonnene Ergebnisse auf die Beteiligung zellulärer Faktoren am Therapieversagen hin. Über die Rolle zellulärer Prozesse bei der Resistenzentwicklung gegen die in der HIV-1 Therapie eingesetzten Nukleosidalen-Reverse-Transkriptase-Inhibitoren ist jedoch noch wenig bekannt. NRTIs sind Prodrugs und werden durch zelleigene Kinasen aktiviert. Eine verminderte Expression oder Aktivität dieser Kinasen kann zu subtherapeutischen intrazellulären Wirkspiegeln führen. In der vorliegenden Arbeit wurden anhand einer T-lymphoiden Zellkultur (H9) die zellulären Mechanismen, die nach einer langdauernden Zidovudin (AZT) Exposition eine zelluläre AZT-Resistenz bewirken, und Methoden diese Resistenz zu umgehen bzw. zu verhindern, untersucht. Es zeigte sich, daß die kontinuierliche AZT-Exposition eine verminderte Expression der Thymidinkinase 1 (TK1) bewirkt. Dies führt zu einer verminderten AZT-Phosphorylierung und letztendlich zu geringeren Wirkstoffspiegeln des antiretroviral wirksamen Metaboliten AZT-Triphosphat (AZT-TP). In AZT resistenten H9 Zellen zeigte AZT eine verminderte Zytotoxizität, und eine um mehr als den Faktor 1000 verminderte antiretrovirale Aktivität. Als mögliche Ursachen für die verminderte Expression der TK1 wurden die DNA-Methylierung und die Histon-Deacetylierung, zwei Faktoren, die Hand in Hand die Genexpression auf transkriptioneller Ebene beinflussen, untersucht. AZT resistente Zellen zeigten in immunzytochemischen Färbungen eine starke Histon-Deacetylierung. Die Behandlung resistenter Zellen mit Trichostatin A (TSA), einem Hemmstoff der Histon-Deacetylierung führte jedoch nicht zu einer Erhöhung der TK1 mRNA-Spiegel. Die Behandlung resistenter Zellen mit 5-AZA-C, einem Inhibitor der Methyltransferase 1 (DNMT1) erhöhte sowohl die Expression der TK1 als auch die Zytotoxizität und die antiretrovirale Aktivität von AZT. Darüber hinaus verminderte die gleichzeitige Behandlung von H9 Zellen mit AZT und 5-AZA-C die Resistenzentwicklung gegen AZT erheblich. Weiterhin konnte gezeigt werden, daß in den AZT resistenten Zellen die Expression der „de novo“ Methyltransferasen 3a und 3b (DNMT3a / 3b) erhöht ist. Diese Ergebnisse weisen darauf hin, daß eine „de novo“ Methylierung des TK1-Gens durch die DNMT3a und DNMT3b die Ursache für die verminderte TK1 Expression in AZT resistenten H9 Zellen ist. Zusätzlich wurde in dieser Arbeit gezeigt, daß einige amphiphile Heterodinukleosidphosphate, die nach intrazellulärer Spaltung monophosphorylierte Nukleosidanaloga freisetzen, die AZT Resistenz überwinden können. Die Ergebnisse dieser Arbeit lassen vermuten, daß eine spezifische Hemmung der „de novo“ Methyltransferasen oder der Einsatz monophosphorylierter Substanzen die Wirksamkeit einer antiretroviralen Therapie erheblich verbessern können, indem sie zelluläre Faktoren, die eine Phosphorylierung von AZT vermindern und dadurch zum Versagen von AZT als antiretroviralem Therapeutikum führen, unterdrücken bzw. umgehen.
Plattenepithelkarzinome des oberen Aerodigestivtraktes (SCCHN) sind Karzinome, die in den westlichen Industrienationen mit dem sechsten Rang in den Tumorstatistiken recht häufig sind. Ihre Inzidenz ist positiv mit einem erhöhten Tabak- und Alkoholkonsum und dem männlichen Geschlecht korreliert. Die Standardtherapie besteht in der Regel in einer operativen Sanierung und einer adjuvanten Radio- beziehungsweise Radio-Chemotherapie. Eine Induktionschemotherapie verspricht fortgeschrittene Primärtumoren und Tumoren vor einer operativen Intervention zu verkleinern. Jedoch besteht hierbei immer noch das Problem der hohen Rezidivfreundlichkeit dieser Tumoren, die wahrscheinlich mit der hohen Anzahl an G0-Phase-Zellen korreliert ist. Die vorliegende Arbeit hat die Frage untersucht, ob es möglich ist mit einer vorgeschalteten Stimulation durch Wachstumsfaktoren die Anzahl der G0-Phase-Zellen signifikant zu reduzieren und dadurch die gesamte Population der Tumorzellen sensibler für eine chemotherapeutische Intervention zu machen. Hierbei wurden besonders die Wachstumsfaktoren EGF und Serotonin als Stimulus verwendet. Die untersuchten Chemotherapeutika waren Mab425 und ZD1839, die die Signaltransduktion über einen EGFR-vermittelten Weg blockieren, sowie Docetaxel und Cisplatin, die als zytotoxische Substanzen wirksam sind. Die Untersuchungen wurden in vitro an drei Zelllinien durchgeführt. Detroit-562 und A431 bezogen wir von ATCC. Die Zelllinie UMSCC-10B wurde uns freundlicherweise von Thomas Carey von der University of Michigan zur Verfügung gestellt. Im Rahmen von Sondierungsversuchen stimulierten die Zellen mit IL-6, Serotonin, EGF und GCSF und fanden mit Hilfe der FACS-Analyse heraus, dass eine Kombination von EGF und Serotonin zur am stärksten ausgeprägten Stimulation der von uns untersuchten Zellen führte. In einem dreiphasigen Versuchsablauf wurden vier verschiedene Probengruppen untersucht. Zum einen eine Kontrollgruppe, die weder stimuliert noch chemotherapiert wurde. Eine Gruppe, die vor einer chemotherapeutischen Intervention mit Serotonin und EGF stimuliert wurde. Eine weitere Gruppe, die ausschließlich mit Serotonin und EGF stimuliert wurde und eine Gruppe, die nur eine Chemotherapie erhielt. Nach der Kultivierung der entsprechenden Proben, wurden die Zellen geerntet und zur Weiterverarbeitung vorbereitet. Es wurde mit Hilfe der Western-Blot-Analyse die Aktivität der Proteine untersucht, die an der über EGFR vermittelten Signaltransduktion beteiligt sind. Dazu wurden Antikörper gegen Proteine der Signaltransduktion eingesetzt, die dann mit Hilfe von zweiten Antikörpern erkannt wurden. Zum anderen wurden immunhistochemische Zellausstriche angefertigt mit einer Antikörperfärbung gegen das Kernprotein Ki-67, die uns zwischen proliferierenden und nichtproliferierenden Zellen unterscheiden ließ. Es erfolgte eine Auswertung der Gesamtzellanzahl bezogen auf die Reduktion der G0-Phase-Zellen. Die statistische Auswertung erfolgte mittels des Mann-Withney-U-Tests und des Wilcoxon- Tests. Hierbei lag das Signifikanzniveau bei 5%. Als Ergebnis kann man festhalten, dass eine signifikante Reduktion der Anzahl an G0-Phase-Zellen bei einer Vorstimulation und anschließender Chemotherapie durch Docetaxel oder Cisplatin zu beobachten war. Eine chemotherapeutische Intervention durch Mab425 und ZD1839 führte zwar zu einer Reduktion der Zellanzahl, aber nicht zu vergleichbar signifikanten Ergebnissen wie bei einer Intervention mit Docetaxel oder Cisplatin. Hieraus lässt sich der Schluss ableiten, dass eine chemotherapeutische Intervention auf Basis einer Blockade der durch EGFR vermittelten Signaltransduktion nicht ausreichend ist, es also einer zytotoxischen Komponente bedarf, um die Gesamtzellzahl signifikant zu reduzieren. Trotzdem nicht bei allen untersuchten Chemotherapeutika eine signifikante Reduktion der G0-Phase-Zellen beobachtet werden konnte, zeigten unsere Untersuchungen zum ersten Mal, dass durch eine Stimulation mit Wachstumsfaktoren vor einer chemotherapeutischen Intervention, die Sensibilität der Tumorzellen bei SCCHN für eine Chemotherapie durch eine Reduktion der G0-Phase-Zellen erhöht wird.
Anorexia nervosa stellt mit einer geschätzten Prävalenz von 0,2-1,3 Prozent der Bevölkerung (Hobbs & Johnson, 1996) und einer Mortalitätsrate der Erkrankten von durchschnittlich zehn Prozent (Strober et al., 1997; Hobbs & Johnson, 1996; Nielsen, 2001) eine sehr ernst zu nehmende Erkrankung dar. Das Krankheitsbild ist gekennzeichnet durch ein sehr niedriges Körpergewicht, Verhaltensweisen zur Gewichtsreduktion, Körperschemastörungen und endokrinologischen Störungen (Dilling et al., 2000; American Psychiatric Association, 2000) sowie einer ausge-prägten psychiatrischen Komorbidität (Godart et al., 2000; OBrien & Vincent, 2003). Verschiedene neurobiologische Studien geben Hinweise auf strukturelle Hirnveränderungen (Gagel, 1953; Martin, 1958; Dolan et al., 1988; Krieg et al., 1988; Palazidou et al., 1990; Katzman et al., 1996; Golden et al., 1996; Swazye et al., 1996; Swazye et al., 2003), Dysfunktionen im Neurotransmitterhaushalt (Kaye et al., 1984; Kaye et al., 1999; Bailer et al., 2005; Frank et al., 2005; Bergen et al., 2005) sowie auf eine veränderte neuronale Aktivierung bei Patienten mit Anorexia nervosa (Uher et al., 2005; Sachdev et al., 2008; Seeger et al., 2002; Wagner et al., 2003; Santel et al., 2006, Wagner et al., 2008; Wagner et al.; 2007). Einige Studien liefern zudem Anhaltspunkte, dass bei Patienten mit Anorexia nervosa sowohl Störungen in Regionen der Geschmacksverarbeitung, als auch in Bereichen, die mit dem Belohnungswert der Nahrung in Zusammenhang stehen, vorliegen könnten (Wagner et al., 2007; Wagner et al., 2008). Dabei ist vor allem die Verarbeitung von Fett interessant, da Patienten mit dieser Erkrankung hochka-lorische Nahrungsmittel in der Regel ablehnen (Sunday & Halmi, 1990) und sogar häufig eine Furcht vor derartigen Nahrungsprodukten entwickeln (Fernstrom et al., 1994). Bisher sind noch viele Fragen, die die neuronale Verarbeitung fetthaltiger Sub-stanzen betreffen und Aufschluss über sensorische, hedonische und motivationale Aspekte des Konsums von Fett und Hinweise auf die Genese von Essstörungen geben könnten, ungeklärt. Daher wird in dieser Studie die neuronale Verarbeitung und Bewertung bei der Applikation eines fetthaltigen Stimulus im Kontrast zu einem nicht fetthaltigen Stimulus mit gleicher Viskosität und einem neutralen Stimulus bei 15 remittierten Patientinnen mit Anorexia nervosa im Vergleich zu einer Kontrollgruppe mit 18 Probanden und 14 remittierten Bulimie-Patientinnen mittels funktioneller Magnetresonanztomographie untersucht. In der Anorexie-Gruppe fanden sich in dieser Studie ein signifikant vermindertes Antwortverhalten im anterioren ventralen Striatum (AVS) bezüglich der Kontraste CMC/Wasser und Sahne/Wasser im Vergleich zu den Patientinnen mit Bulimia nervosa. Auch im Vergleich mit der Kontrollgruppe zeigten sich bei den Anore-xie-Patientinnen deutlich geringere Aktivierungen im AVS für CMC und Sahne im Kontrast zu Wasser, die zwar nicht signifikant sind, aber Hinweise auf eine veränderte Aktivierung im Belohnungssystem liefern könnten. Im AVS befindet sich der Nucleus accumbens, der eine zentrale Rolle im Beloh-nungssystem des Gehirns spielt, indem er zielgerichtetes Verhalten durch die In-tegration von Informationen aus limbischen Strukturen und dem präfrontalen Kor-tex reguliert (Goto & Grace, 2008). Eine veränderte Aktivierung im diesem Be-reich bei der Applikation von Nahrungsstimuli, könnte daher zu einer anderen Bedeutung von Nahrung führen und damit eine Änderung des Nahrungskonsums hervorrufen (Berridge et al., 2010), die möglicherweise eine Ursache für die Ge-nese einer Essstörung darstellt. Durch ein besseres Verständnis für das veränderte Empfinden und Verhalten als mögliches Resultat eines gestörten Belohnungssystems bei Anorexie-Patienten, könnte diese Studie neue Ansatzpunkte für therapeutische Strategien liefern, die die Patienten durch kognitive Übungen und verhaltenstherapeutische Interventio-nen dabei unterstützen, die Dysfunktionen im Bewertungs- und Belohnungssys-tem zu erkennen und ihre Verhaltensmuster zu verändern.
Patienten, die sich einer Bypassoperation am offenen Herzen unterziehen erleiden häufig kognitive Beeinträchtigungen durch Mikroembolien, insbesondere ausgelöst durch Luft. Ins Operationsfeld eingeleitetes Kohlendioxid soll durch seine physikalischen Eigenschaften protektiv auf die kognitiven Funktionen wirken. In die Studie waren 69 Patienten eingeschlossen, die sich jeweils einer aortokoronaren Bypassoperation unter Einsatz der Herz-Lungen-Maschine unterzogen. Es erfolgte randomisiert die Einteilung in eine Kontrollgruppe und eine protegierte Gruppe. Am ersten präoperativen und am fünften postoperativen Tag wurde jeweils eine Testbatterie aus sechs verschiedenen Einzeltest mit den Patienten durchgeführt. Als neurokognitives Defizit wurde eine Verschlechterung der Ergebnisse um mindestens 20% im Vergleich zu den präoperativen Werten in zwei oder mehr Einzeltests definiert. Intraoperativ wurde durch einen Zweikanal-Ultraschall-Mikroblasendetektor, der in den Kreislauf der Herz-Lungen-Maschine eingeschaltet war, ein Monitoring von Größe und Anzahl der entstehenden Gasblasen durchgeführt. Die Gruppen wiesen bezüglich der klinischen Parameter keine signifikant unterschiedlichen Werte auf. Der einzig signifikante Unterschied in den gemessenen Werten der Mikrobubbles ist eine Reduktion der Gasblasen zwischen Kanal I und Kanal II in beiden Gruppen. Dies beweist das Vorhandensein und die Funktionsfähigkeit des arteriellen Filters. Jedoch lässt sich ein Trend zur Verringerung von Blasenanzahl und Blasenvolumen unter Verwendung von CO2 erkennen. Die neurokognitiven Tests konnten keine signifikanten Unterschiede zwischen den Gruppen ausmachen. Somit war kein signifikanter Vorteil für die aortokoronare Bypassoperation unter Protektion durch CO2 auszumachen. Der Neuroscore als Instrument zur Objektivierung eines neurokognitiven Defizits ist diskussionsbedürftig. Da Studien, z. B. im Bereich der minimalinvasiven Chirurgie, den Vorteil von CO2 belegen ist die Anwendung zur Protektion weiter zu empfehlen Jedoch fehlt der endgültige Beweis für den Benefit speziell bei der aortokoronaren Bypassoperation.
In der vorliegenden in vitro-Studie wurde der Einfluß von zwei Insertionstechniken auf die zervikale Randqualität von Klasse-II-Kompositrestaurationen unter Zuhilfenahme von Kunststoffmatrizen und Lichtkeilen untersucht. Als weiteren Versuchsparameter wählte man zur Adaptation des Füllungsmaterials neben herkömmlichen Metallinstrumenten zusätzlich modifizierte Biberschwanzpinsel.
Einleitung: Das Arbeiten in einer Notfallsituation ist stark von einer strukturierten Herangehensweise im Patientenmanagement abhängig. Junge Assistenzärzte sind in ihrem Alltag häufig die ersten vor Ort und sollten daher bereits mit Abschluss des Studiums in der Lage sein, häufige Notfallsituationen zu meistern. In den letzten Jahren hat sich die Simulation als hauptsächlich genutzte Methode für die Ausbildung im Fach Notfallmedizin herauskristallisiert, sodass immer mehr Universitäten realitätsnahe Szenarien für die Ausbildung nutzen. Jedoch ist unklar welches Ausmaß an Realitätsnähe in Hinblick auf Kosten/Aufwand-Nutzen-Bilanz sinnvoll ist. Das Ziel der vorliegenden Arbeit ist es, den Effekt von zwei unterschiedlich realitätsnahen Lernumgebungen (Seminarraum vs. realistische Simulationsumgebung) auf die erlernten notfallmedizinischen Kompetenzen zu analysieren. Dazu wurden Krankheitsbilder gewählt, die jedem Arzt in Präklinik, auf Station und im ambulanten Bereich begegnen können und die zügig erkannt und behandelt werden müssen: Asthma, Sepsis und Apoplex.
Material und Methoden: Bei der vorliegenden Arbeit handelt es sich um eine vergleichende Effektivitätsanalyse im crossover-Design. Teilnehmende waren Studierende des 4. Studienjahres der Goethe-Universität Frankfurt am Main, die den 3-TagesNotfallmedizinkurs im Rahmen ihrer curricularen Ausbildung im Querschnittsbereich Notfallmedizin absolvierten. Am ersten Tag durchliefen alle Studierenden ein standardisiertes Skillstraining notfallmedizinischer Basiskompetenzen. An den Folgetagen wurden verschiedene leitsymptombasierte Module vermittelt, die neben der interaktiven Erarbeitung der theoretischen Lerninhalte eine direkte Anwendung in themenspezifischen Szenarien fokussierten. Für die vorliegende Studie wurden die Teilnehmenden in vier Gruppen randomisiert, wobei Gruppen eins und zwei das Training in der Seminarraumumgebung durchliefen, während drei und vier die Szenarien in der realitätsnahen Simulationsumgebung absolvierten. Am dritten Tag fand eine formative Überprüfung der erlernten Fähigkeiten in Form eines OSCEs statt. Bei dieser Überprüfung absolvierten die Gruppen eins und drei in der Seminarraumumgebung und Gruppen zwei und vier im realitätsnahen Umfeld der Simulation das Assessment. Die Datenauswertung erfolgte mit MS Excel und bias.
Ergebnisse und Fazit: Die vorliegende Studie fand zwischen Juli und Oktober 2018 an der Goethe-Universität in Frankfurt am Main statt. 134 Teilnehmer absolvierten die Studie vollständig. Die Ergebnisse zeigen deutliche Unterschiede in der Performance der vier Gruppen, sowohl insgesamt als auch nach Geschlechtern und mit dem van-Elteren-Test. Prozentual betrachtet zeigten die Teilnehmenden der Gruppe 4 (Training und Prüfung im realitätsnahen Umfeld) die höchsten Ergebnisse. Die Realitätsnähe hat einen positiven Einfluss auf die Performance der Studierenden.
This research project investigated how motor activity, such as cycling, influences the acquisition of foreign language vocabulary under two distinct conditions of auditory-motor-synchronisation. In a mixed subject design, 48 participants had to learn 40 Polish-German vocabulary pairs by auditory presentation over headphones in two different conditions, in which they performed motor activity cycling on a bicycle ergometer: in experiment 1, vocabulary was presented in a fixed rhythm while in experiment 2, participants self-initiated the presentation of vocabulary through pedalling. After having listened to the word pairs, they had to perform online vocabulary tests, one directly after the learning session and a second one 24 hours later from home. Additionally, the individual pitch perception preference (i.e. fundamental vs. spectral pitch perception) of the participants was determined.
The results showed that fundamental listeners forgot significantly more vocabulary than spectral listeners during the fixed than during the self-initiated condition. There was no difference within the groups for the self-initiated condition. The analysis of the motor data revealed a significantly more accurate synchronisation for fundamental listeners during the fixed condition. Therefore, this study provides first evidence for the benefit of self-initiated auditory-motor synchronisation in the process of learning a foreign language in adults. It also reveals that pitch preference has an effect on auditory-motor synchronisation.
Bei dem familiären Mittelmeerfieber handelt es sich um eine Krankheit, welche in den betroffenen Ländern eine ähnlich hohe Prävalenz aufweist, wie bei uns z.B. die Zöliakie. Daher ist es wichtig, auch im klinischen Alltag differentialdiagnostisch das FMF mit einzubeziehen. Zwei Drittel der Patienten erkranken bis zum 10. Lebensjahr, 90% bis zum 20. Lebensjahr. Das immer anzutreffende Symptom ist Fieber bis über 39 0C, welches nach wenigen Tagen wieder zurückgeht. Diese Fieberschübe kehren in nicht vorhersagbaren Abständen wieder. Vergesellschaftet ist der Fieberschub fakultativ mit verschiedenen Begleitsymptomen wie Bauchschmerz, Gelenkschmerz, Pleuritis und selten auch Perikarditis. Die immer wiederkehrenden starken Bauchschmerzen mit Peritonitis führen dazu, dass die Kinder häufig laparotomiert und appendektomiert werden. Die Arthritis tritt meist als Monoarthritis von Knie, Sprunggelenk, Hüftgelenk oder Schulter auf. In seltenen Fällen ist auch eine Chronifizierung der Beschwerden beschrieben, was zur Arthrose bis hin zur Notwendigkeit des künstlichen Gelenkersatzes führen kann. Vital bedrohlich wird das FMF jedoch durch die Ausbildung einer Niereninsuffizienz bei Amyloidose. Diese tritt ohne Therapie in ca. 50% der Fälle nach 2 bis 7 Jahren auf. In der Literatur zum FMF sind Beschreibungen des Krankheitsbildes nur aus den typischen Regionen und insbesondere aus Israel zu finden. Eine Übersicht über die Ausprägung des FMF in Deutschland findet sich nicht. In der vorliegenden Arbeit wird aktuell nachgefragt, wie viele Kinder mit FMF bei den Kinderärzten in Hessen und Rheinland-Pfalz in Behandlung sind und wie sich das klinische Erscheinungsbild und die Therapie der Erkrankung darstellt. In zwei Befragungen wurden die im Berufsverband der Kinderärzte zusammengeschlossenen Kinderärzte befragt. Ca. 53% (389) der angeschriebenen Kinderärzte antworteten auf die Umfrage. Es wurde über 28 Kinder berichtet, welche wegen des FMF in Behandlung stehen. Die Appendicitis wurde als Fehldiagnose am häufigsten genannt, dies entspricht den Angaben aus der Literatur, auch wurde in nachvollziehbarer Zahl eine familiäre Belastung angegeben. Entsprechend dem Bevölkerungsanteil im Befragungsgebiet kam der überwiegende Teil (57%) aus der Türkei. Der Ausprägungsgrad der Krankheit variiert jedoch deutlich zu den in der Literatur gemachten Angaben. Die begleitenden Symptome treten insgesamt seltener auf, als wie in der Literatur beschrieben. Hierbei muss jedoch berücksichtigt werden, dass die Angaben in der Literatur sich eventuell auf nicht mit Colchicin therapierte Fa"lle beziehen, während fast alle von uns erfassten Kinder rasch mit Colchicin behandelt wurden. Besonders erfreulich ist die Tatsache, dass keines der gefundenen Kinder unter einer Niereninsuffizenz leidet.
Das akut-auf-chronische Leberversagen (ACLF) entsteht durch eine akute Dekompensation einer vorbestehenden Leberzirrhose mit begleitendem Multiorganversagen und ist durch eine sehr hohe Kurzzeitmortalität gekennzeichnet. Die Kriterien der European Association for the Study of Chronic Liver Failure (EASL-CLIF) definieren in diesem Zusammenhang ein Lungenversagen als Abfall des Horovitz-Quotienten unter 200mmHg oder als Abfall des Quotienten aus SpO2/FiO2 unter 214. Während Lungenfunktionsstörungen als unabhängiger Risikofaktor für Mortalität bei Patienten mit Leberzirrhose belegt sind, wurde die Bedeutung von mechanischer Beatmung und Lungenversagen bisher nicht isoliert untersucht. Ziel der Studie ist die Rolle von mechanischer Beatmung und Lungenversagen im ACLF zu analysieren und eine mögliche Unterinterpretation in den etablierten prädiktiven Modellen zu evaluieren.
Es wurden Daten aus 775 Hospitalisationen mit intensivmedizinischer Behandlung am Universitätsklinikum Frankfurt von insgesamt 498 Patienten mit Leberzirrhose im Zeitraum März 2015 bis Juli 2019 retrospektiv erfasst und ausgewertet. ACLF und Organversagen wurden gemäß EASL-CLIF Kriterien definiert. Es erfolgte die statistische Analyse verschiedener Kohorten, wobei ACLF-Patienten mittels Propensity Score hinsichtlich CLIF-C ACLF Score und Geschlecht gematcht und anhand der pulmonalen Beeinträchtigung in eine dreiarmige Testkohorte bestehend aus 49 Patienten mit Lungenversagen, 49 Patienten mit Schutzintubation und 49 Patienten ohne pulmonale Beeinträchtigung aufgeteilt wurden.
216 Patienten zeigten ein ACLF bei Aufnahme, 121 wurden mechanisch beatmet und 68 hatten ein Lungenversagen. In der gematchten Kohorte (n=147) konnten Lungenversagen (HR 3,0) und mechanische Beatmung (HR 1,7) als unabhängige Risikofaktoren für eine hohe 28-Tage-Mortalität identifiziert werden. Der CLIF-C ACLF Score konnte als bestes Modell für die Vorhersage der Kurzzeitmortalität bestätigt werden (AUROC 0,81), zeigte allerdingt deutliche Schwächen in der Subkohorte der Patienten mit Lungenversagen (AUROC 0,49) und mechanischer Beatmung (AUROC 0,68). Eine Kalibrierung des CLIF-C ACLF Scores für diese beiden Risikofaktoren liefert auch in der Gesamtkohorte aller zirrhotischer Patienten eine signifikant verbesserte prädiktive Performance (AUROC 0,87; p=0,001).
Mechanische Beatmung und Lungenversagen sind im Rahmen eines ACLF mit einer erhöhten Kurzzeitmortalität assoziiert und nur ungenügend in den etablierten Prädiktionsmodellen abgebildet. Die Kalibrierung des CLIF-C ACLF Scores für diese Risikofaktoren führt zu einer verbesserten Vorhersagegenauigkeit.
In der vorliegenden Arbeit wird das Wachstums- und Zelltodverhalten von Tumoren des zentralen Nervensystems untersucht. Des Weiteren wird die Expression verschiedener Apoptose-assoziierter Faktoren in den Präparaten analysiert und mit Normalkontrollen verglichen. Es zeigt sich, dass Apoptose von Tumorzellen aller untersuchter Hirntumore und Malignitätsgrade vollzogen werden kann. Die Rate apoptotischer Zellen ist jedoch sehr variabel und korreliert nicht mit dem Malignitätsgrad der Tumore. Auch besteht keine Korrelation zwischen der Apoptose- und der Proliferationsrate. Die Ergebnisse legen insgesamt nahe, dass die Apoptoserate nicht als Marker für die Malignität von Tumoren des zentralen Nervensystems verwendet werden kann. Auch unter Einbeziehung Apoptose-assoziierter Faktoren ist eine Gradifikation der Tumore hinsichtlich der Malignität nicht möglich. So unterscheiden sich z.B. atypische (WHO-II) und anaplastische (WHO-III) Meningiome quantitativ und qualitativ nicht signifikant voneinander. Es können ebenfalls keine signifikanten Unterschiede hinsichtlich der Expression der untersuchten Apoptose-assoziierten Faktoren, sowie der Apoptose- und Proliferationsraten zwischen Medulloblastomen und primitiven neuroektodermalen Tumoren (PNETs) festgestellt werden. Dies spricht dafür, dass sich diese Tumore lediglich bezüglich ihrer Lokalisation im zentralen Nervensystem unterscheiden. Die Analyse der Apoptose-assoziierten Faktoren zeigt, dass alle untersuchten Faktoren grundsätzlich in allen untersuchten Tumoren vorkommen, während die Normalkontrollen diese Faktoren nicht exprimieren. Der Vollzug der Apoptose findet jedoch nicht in diesem Maße statt, da die Apoptoserate der Tumore (markiert durch TUNEL) stets wesentlich geringer ist als die Expressionsraten der Apoptose-assoziierten Faktoren. Es ist davon auszugehen, dass entdifferenzierte Tumorzellen entweder nur begrenzt in der Lage sind, ihr apoptotisches „Selbstzerstörungsprogramm“ in Gang zu setzen und zu Ende zu führen, oder, dass apoptosehemmende Mechanismen greifen. Um so interessanter wäre es, durch therapeutische Intervention Apoptose zu initiieren. Die Analyse der einzelnen Apoptose-assoziierten Faktoren liefert Hinweise darauf, an welchen Stellen des apoptotischen Systems eine solche Intervention ansetzen könnte: Die hochmalignen WHO-IV-Tumore zeigen eine signifikante Hochregulation der Effektor-Caspasen-3 und -6. Die physiologischen Aktivierungsmechanismen dieser Caspasen z.B. durch Caspase-2 und TNFalpha scheinen in diesen hochmalignen Tumoren jedoch weniger eine Rolle zu spielen, da diese Faktoren hier nur in geringem Ausmaß exprimiert werden. Jedoch könnten modifizierte, per se aktive Caspase-3- und -6-Moleküle eine interessante therapeutische Option zur Behandlung maligner Tumore des zentralen Nervensystems darstellen. Zu beachten ist aber unter anderem, dass z.B. Glioblastome auch geringe Expressionsraten apoptotischer Faktoren im peritumoralen, mikroskopisch nicht infiltrierten Normalgewebe zeigen. Dies könnte für eine peritumorale Dysfunktion des Hirngewebes sprechen. Welche Rolle dies bei der Behandlung mit Apoptose-stimulierenden Agenzien spielt und wie spezifisch die Anwendung solcher Stimulanzien für Tumorgewebe wären, muss Gegenstand weiterer Studien sein. Die untersuchten WHO-II- und –III-Tumore zeigen eine Hochregulation vor allem von Faktoren des extrinsischen Apoptoseweges (z.B. TNFalpha). Die Expressionsraten von TNFalpha korrelieren signifikant mit dem WHO-Grad der untersuchten Tumore. Interessante therapeutische Optionen könnten hier zum einen die Aktivierung des extrinsischen Apoptoseweges über TNFalpha sein, zum anderen könnte man versuchen, eine direkte Aktivierung über modifizierte Effektor-Caspasen herbeizuführen. Insgesamt existieren verschiedene mögliche Angriffsorte innerhalb des apoptotischen Netzwerkes der Zelle für eine thepeutische Intervention bei Tumoren des zentralen Nervensystems. Die Komplexität des Kaskade-artigen Systems legt nahe, dass eine therapeutische Intervention möglichst an dessen Ende erfolgen sollte, um möglichst viele Stör- und Hemmfaktoren zu umgehen.
Ezrin gehört zur Gruppe der Actin-Zytoskelett-bindenden ERM-Proteine und ist in seiner Funktion für Leukozyten gut beschrieben, wo es in Zusammenhang mit der interund intrazellulären Induktion von Apoptose gebracht wurde. Im Kontext der Astrozytenbiologie ist seine Expression mit astrozytärer Aktivierung, der Malignität von Astrozytomen und der Apoptose von Neuronen bei HIV-Encephalitis assoziiert. Die vorliegende Studie untersucht die Expression von Ezrin in Astrozyten bei verschiedenen Demenzerkrankungen mit der Frage nach krankheitsspezifischen astrozytären Aktivierungsphänomenen und einem möglichen Zusammenhang mit neuronaler Apoptose. Hierzu wurden 51 Gehirne von Demenzpatienten und 17 Gehirne von Normalkontrollen des Neurologischen Instituts (Edinger Institut) der Johann Wolfgang Goethe-Universität Frankfurt am Main histopathologisch untersucht. An Schnitten von jeweils 4-6 in Paraffin eingebetteten Gehirnarealen pro Fall wurden eine modifizierte Silberimprägnationsfärbung nach Bielschowsky und immunhistochemische Färbeverfahren für Ezrin, GFAP, HLA-DR, hyperphosphoryliertes Tau-Protein und Ubiquitin angefertigt und semiquantitativ evaluiert. Zur Darstellung von apoptotischen DNA-Strangbrüchen wurde die TUNEL-Methode verwendet. Die hier untersuchte Stichprobe entspricht in Hinsicht auf die Verteilung verschiedener Demenztypen weitgehend der neueren Literatur: Die häufigste Demenzerkrankung war die Alzheimersche Erkrankung mit 84% (N=43), gefolgt von der Demenz mit Lewy-Körperchen mit 35% (N=18), der vaskulären Demenz mit 18% (N=9) und der Frontal–Lobe-Dementia mit 6% (N=3). 47% der Fälle litten an einer Kombination von zwei Demenzerkrankungen. Die astrozytäre Ezrin-Expression zeigt keine signifikante Differenz zwischen verschiedenen Demenzformen. Dies trifft sowohl für singuläre Demenzerkrankungen als auch für Kombinationsdemenzerkrankungen zu. Die astrozytäre Ezrin-Expression korreliert hochsignifikant mit dem Schweregrad der Alzheimerschen Erkrankung, gemessen an der Dichte neuritischer Plaques in Anlehnung an die Klassifikation nach CERAD. Die astrozytäre Ezrin-Expression korreliert hochsignifikant positiv mit der Apoptose von Neuronen unabhängig vom Erkrankungstyp. Im Unterschied zur Ezrin-Immunoreaktivität, die nahezu ausschließlich bei Demenzfällen mit neuronaler Apoptose eine deutliche Erhöhung aufwies, zeigte sich die GFAP- und HLA-DR-Immunoreaktivität bei Demenzfällen generell im Vergleich zu Kontrollfällen deutlich erhöht. Zusammenfassend trägt die Untersuchung der astrozytären Ezrinexpression nicht zur Differentialdiagnose von Demenztypen bei, ist jedoch mit dem Schweregrad von Demenzerkrankungen korreliert. Ezrin fungiert offenbar als Indikator eines spezifischen astrozytären Aktivierungszustandes, der eine Assoziation mit schwerem Gewebeschaden in Form neuronaler Apoptose aufweist. Dieser Aktivierungszustand erwies sich in der vorliegenden Untersuchung als unabhängig vom Krankheitstyp, was für die These spricht, dass eurodegenerative Erkrankungen pathophysiologische Gemeinsamkeiten teilen könnten. Darüber hinaus weisen die Ergebnisse der Studie darauf hin, dass die Aktivierung von Astrozyten kein homogenes Phänomen darstellt, sondern in distinkten Formen assoziiert mit progressiver Gewebsschädigung des ZNS auftreten kann.
Derzeit ist die Frage nach der optimalen Therapie der Lyme-Borreliose noch nicht abschließend geklärt. Fälle von Therapieversagen sind aber für fast alle eingesetzten antibiotischen Substanzen beschrieben. Zudem stellen chronische Verläufe die behandelnden Ärzte immer wieder vor Probleme. Eine genauere Charakterisierung der Antibiotikaempfindlichkeit von Borrelien ist daher wünschenswert, zumal bislang nur wenig über die natürliche Resistenz des Erregers und die pharmakodynamischen Wechselwirkungen zwischen Antibiotika und Borrelien in vivo und in vitro bekannt ist. Neuen, einfach zu handhabenden, standardisierten Tests zur Empfindlichkeitsprüfung antibiotischer Substanzen kommt hierbei eine entscheidende Rolle zu. Das in der vorgelegten Arbeit verwendete kolorimetrische Mikrodilutionsverfahren war benutzerfreundlich in der Anwendung und erwies sich als zuverlässig, reproduzierbar und genau. Die für bekannte Standardsubstanzen ermittelten MHK- und MBK-Werte für Borrelien sind in sehr guter Übereinstimmung mit den Ergebnissen anderer Autoren unter ähnlichen experimentellen Bedingungen. Die hier vorgelegten Ergebnisse zeigen eine verbesserte in-vitro-Aktivität neuerer Fluorchinolone gegen Borrelien. Fluorchinolone wie Gatifloxacin, Sitafloxacin und Gemifloxacin (Klasse-IV-Fluorchinolone) waren bezüglich ihrer in-vitro-MHK-Werte mit denen von einigen beta-Lactam-Antibiotika annähernd vergleichbar. Allerdings lagen die MHK- und MBK-Werte von Mezlocillin und Piperacillin noch deutlich unter denen der genannten Chinolone. Insgesamt zeigten Fluorchinolone der Klassen IV und III eine stärkere in-vitro-Aktivität gegen Borrelien als Aminoglykoside, Ansamycine und Monobactame. Für Chinolone mit guter bis sehr guter Wirksamkeit gegen B. burgdorferi ergab sich folgende Rangfolge: Gemifloxacin (MHK90: 0,12 µg/ml) > Sitafloxacin (MHK90: 0,5 µg/ml); Grepafloxacin (MHK90: 0,5 µg/ml) > Gatifloxacin (MHK90: 1 µg/ml); Sparfloxacin (MHK90: 1 µg/ml); Trovafloxacin (MHK90: 1 µg/ml) > Moxifloxacin (MHK90: 2 µg/ml); Ciprofloxacin (MHK90: 2 µg/ml) > Levofloxacin (MHK90: 4 µg/ml). Im Gesamtvergleich aller Substanzen zeigte sich folgende Rangordnung für Antibiotika mit guter bis sehr guter in-vitro-Aktivität: Mezlocillin (MHK90: kleiner/gleich 0,06 µg/ml); Piperacillin + Tazobactam (MHK90: kleiner/gleich 0,06 µg/ml) > Gemifloxacin (MHK90: 0,12 µg/ml) > Penicillin G (MHK90: 0,25 µg/ml); Meropenem (MHK90: 0,25 µg/ml) > Grepafloxacin (MHK90: 0,5 µg/ml); Sitafloxacin (MHK90: 0,5 µg/ml); Amoxicillin + Clavulansäure (MHK90: 0,5 µg/ml); Imipenem (MHK90: 0,5 µg/ml) > Gatifloxacin (MHK90: 1 µg/ml); Sparfloxacin (MHK90: 1 µg/ml); Clinafloxacin (MHK90: 1 µg/ml); Trovafloxacin (MHK90: 1 µg/ml); Vancomycin (MHK90: 1 µg/ml). Die umfassende statistische Analyse aller experimentell bestimmten MHK- und MBK-Werte für die verschiedenen untersuchten Antibiotika ergab z. T. signifikante Genospezies-spezifische Unterschiede bei der Empfindlichkeit der getesteten Isolate des B. burgdorferi-Komplexes gegen Penicillin G, Meropenem, Mezlocillin, Piperacillin, Amoxicillin, Aztreonam, Sitafloxacin, Grepafloxacin, Gemifloxacin, Norfloxacin, Ofloxacin und Pefloxacin. Insgesamt zeigten B. garinii-Isolate dabei interessanterweise signifikant niedrigere MBK- und z. T. auch niedrigere MHK-Werte als die übrigen eingesetzten Borrelia-Genospezies. Die höchsten MBK-Werte wurden hingegen bei den getesteten B. burgdorferi s. s.-Isolaten beobachtet. Vor dem Einsatz von Fluorchinolonen in der Therapie der Lyme-Borreliose müssen aber zunächst die Ergebnisse von klinischen Studien abgewartet werden. Moderne Chinolone sind als möglicher alternativer Therapieansatz bei Lyme-Borreliose insofern interessant, als sie bekanntermaßen auch gegen andere durch Zecken übertragene Krankheitserreger wie den Erreger der Humanen Granulozytären Ehrlichiose (HGE) und manche Rickettsia spp. wirksam sind.
Schon kurz nach Änderung der Verordnung über das Leichenwesen und der Einführung des neuen Leichenschauscheines in Hessen am 15.4.1996 traten Schwierigkeiten auf, die zunächst auf die Umstellung zurückgeführt wurden. Nachdem auch einige Monate später die Klagen von vielfältiger Seite (Ärzte, Sanitäter, Bestatter, Kriminalpolizei) nicht nachließen, sollte untersucht werden, ob, warum und in welchem Umfang die Handhabung des neuen Leichenschauscheines solche Schwierigkeiten bereitet. Die Untersuchung basierte zum einen auf der Auswertung der Leichenschauscheinen der Verstorbenen, die im Zentrum der Rechtsmedizin in der Zeit von 1.1.31.3.1997 zur Verfügung standen (264 vertrauliche, 161 nichtvertrauliche Teile der Leichenschauscheine) zum anderen auf Interviews mit dem Standesamt, Gesundheitsamt, Kriminalpolizei, Verwaltung der Universitätsklinik und einem Bestatter. Als Gesamtergebnis kristallisierte sich heraus, dass der Leichenschauschein formale Mängel aufweist. Insbesondere die Angabe des Totauffindens ist mit dem Personenstandsgesetz nicht vereinbar, nach dem grundsätzlich die Todeszeit, bzw. der Todeszeitraum angegeben werden muss. Zum anderen war das Fehlen der Rubrik ''Natürlicher Tod'' einer der wesentlichen Mängel, weil häufig von Ärzten auch bei nichtnatürlichem Tod vergessen wurde, die entsprechende Rubrik zu signieren, so dass ohne Vorliegen des vertraulichen Teils der Standesbeamte von einem natürlichen Tod ausgehen musste. In einem Fall ist erst bei der zweiten Leichenschau im Krematorium der wirkliche Sachverhalt aufgeklärt worden, mit entsprechender Störung des Beerdigungsablaufes. Weiterhin ist der Leichenschauschein sehr unübersichtlich angelegt, indem gleiche Angaben sich an verschiedenen Stellen befinden, was dazu führt, dass sie häufig nicht, unvollständig oder falsch ausgefüllt werden. Auch die praktische Handhabung mit verschiedenen Briefumschlägen ohne eindeutige Kennzeichnung führte dazu, dass z.B. der nichtvertrauliche Teil mit in den für den vertraulichen Teil vorgesehenen Umschlag kurvertiert wurde und damit wiederum ein weiteres Herantreten an die Angehörigen notwendig war. Einer der größten Mängel ist darin zu sehen, dass darauf verzichtet wurde eine ''Vorläufige Todesbescheinigung'', wie es in anderen Bundesländern üblich ist, einzuführen. Das bedeutet, dass der Notarzt nach dem Einstellen der Wiederbelebungsmaßnahmen solange warten muss, bis sichere Todeszeichen aufgetreten sind. Dieses ist nicht nur unökonomisch, sondern häufig wegen eines neuen Einsatzes auch nicht durchführbar. Als Mangel ist auch das Fehlen der Warnhinweise (''Schrittmacher'') im vertraulichen Teil zu werten. Dadurch liegen wichtige Informationen dem die zweite Leichenschau bei Feuerbestattung durchführenden Arzt nicht vor. Bei dieser Sachlage scheint es unabdingbar eine Änderung des Leichenschauscheines und des Procedere herbeizuführen. Vorstellbar wäre ein einheitliches Formular der vertreibenden Verlage mit Schwärzungen an den Stellen, die von datenschutzrechtlichem Belang sind. Ferner sollten für sämtliche Formularblätter entsprechend gekennzeichnete Briefumschläge zur Verfügung stehen, so dass grundsätzlich bei jeder Leichenöffnung alle Formulare in einen gesonderten Umschlag kommen. Außerdem sollte noch einmal von gesetzgeberischer Seite überdacht werden, ob eine ''Vorläufige Todesbescheinigung'', wie sie sich in anderen Bundesländern bewährt hat, einzuführen. Letztlich wird auch darüber nachzudenken sein, wie die Qualität der ärztlichen Leichenschau zu verbessern ist. In erster Linie wird es eine Frage bei der Ausbildung der Medizinstudenten sein, die aber zu dieser Zeit die ''Ernsthaftigkeit'' dieser Tätigkeit noch nicht richtig einzuschätzen wissen. Außerdem wird es durch die Reduzierung der Leichenöffnungen und z.T. sehr emotional geführte Rechtsdiskussionen immer schwieriger den Arzt ''in praxi'' auszubilden. Zweifellos ist die Bereitschaft zur Fortbildung bei Ärzten, die die Leichenschau durchführen, später größer, aber hier ist kaum noch eine institutionalisierte, zeitaufwendige Fortbildung möglich. Letztlich muß auch darüber nachgedacht werden, inwieweit nicht vermeidbare Mängel bei der Leichenschau und bei dem Ausfüllen des Leichenschauscheines durch Verhängung von Bußgeldern sanktioniert werden sollte. Schließlich entstehen nicht nur anderen Institutionen (Standes, Gesundheitsamt, statistische Behörden) und Angehörigen durch Mängel bei der Leichenschau erhebliche Beschwernisse und Unkosten. Es kann auch einem Täter bei Verkennung einer Tötung Anlaß zu weiteren entsprechenden Taten geben.
Obwohl zur Diagnostik kognitiver Funktionen bei Patienten mit psychischen Störungen computerisierte neuropsychologische Leistungstests inzwischen das Mittel der Wahl sind, gibt es kaum Untersuchungen, ob es eine besondere Patient-Computer-Interaktion gibt, und ob diese Interaktion Einfluss auf die Ergebnisse neuropsychologischer Leistungstests hat. Aufgrund der spezifischen Psychopathologie depressiver Erkrankungen ist diese Fragestellung hierzu besonders relevant. In der vorliegenden Studie wurde deshalb die Patient-Computer-Interaktion zunächst mit den Variablen Computererfahrung, Computereinstellung und Wahrnehmung der Testsituation operationalisiert. Anschließend wurde geprüft, ob sich depressive Patienten in diesen Variablen von Kontrollpersonen unterscheiden, ob die Computererfahrung und die Computereinstellung jeweils einen Einfluss auf die Ergebnisse von neuropsychologischen Leistungstests haben und ob diese Einflüsse besonders stark bei depressiven Patienten zum Tragen kommen. Es wurden 73 Patienten mit rezidivierend depressiver Störung mit 73 Alters und Geschlecht gematchten Kontrollpersonen verglichen. Die Diagnose erfolgte anhand der Internationalen Diagnose Checklisten nach DSM IV. Zur Erfassung der Patient-Computer-Interaktion wurden der Demographische Fragebogen zu Umgang mit Computern, die Groningen Computer Attitude Scale sowie ein neu entwickelter Fragebogen zur Wahrnehmung der Testsituation eingesetzt. Die umfangreiche neuropsychologische Untersuchung erfolgte mit den Testbatterien NEUROBAT und CANTAB sowie einer Visuomotorischen Tracking-Aufgabe. Depressive Patienten zeigten kognitive Leistungsdefizite gegenüber Kontrollpersonen in einer Gedächtnis Wiedererkennen-, einer Visuomotorischen Tracking- und in einer Arbeitsgedächtnisaufgabe. Die Patienten hatten weniger Computererfahrung, eine weniger positive Computereinstellung und nahmen die Testsituation weniger positiv wahr als Kontrollpersonen, obwohl die Computereinstellung und die Wahrnehmung der Testsituation auch bei den Patienten überwiegend positiv war. Sowohl Patienten als auch Kontrollpersonen mit geringer Computererfahrung oder negativerer Computereinstellung zeigten in einigen neuropsychologischen Tests schlechtere Ergebnisse trotz der statistischen Kontrolle möglicher konfundierender Variablen wie Alter, Geschlecht und Bildung. Die Computererfahrung fungierte dabei von allen Variablen als häufigster Prädiktor zu Erklärung eines Testergebnisses. Depressive Patienten mit negativerer Computereinstellung reagierten langsamer bei den Tests der NEUROBAT-Testbatterie. Ansonsten ergaben sich keine weiteren Interaktionen Gruppe x Computererfahrung bzw. Gruppe x Computereinstellung. Computerisierte neuropsychologische Leistungstests werden von Patienten mit rezidivierend depressiver Störung überwiegend positiv wahrgenommen. Sowohl bei den Patienten als auch bei den Kontrollpersonen haben die Computererfahrung und Computereinstellung stellenweise einen Einfluss auf die Testergebnisse. Die Nichtberücksichtigung dieser Variablen kann somit zur Benachteiligung von Personen führen, die über geringe Computererfahrung oder eine negativere Computereinstellung verfügen. Rezidivierend depressive Patienten sind bei Nichtberücksichtigung dieser Variablen nicht aufgrund ihrer spezifischen Psychopathologie benachteiligt, sondern wegen ihrer geringeren Computererfahrung und negativeren Computereinstellung. Bei der Untersuchung kognitiver Funktionen mit computerisierten neuropsychologischen Leistungstests sollten deshalb zukünftig sowohl bei wissenschaftlichen als auch bei klinischen Fragestellungen immer die Computererfahrung und die Computereinstellung mitberücksichtigt werden.
Meloxicam ist ein neues Antirheumatikum aus der Reihe der Oxicame. Es hemmt nicht nur die rheumatischen Entzündungssymptome, sondern es wirkt zusätzlich der Knochen und Knorpeldestruktion entgegen. Meloxicam zeigt die bisher größte Hemmwirkung auf die Prostaglandinsynthese. Durch die stärkere Hemmung der Cyclooxygenase 2 sind die gastralen Nebenwirkungen deutlich geringer im Vergleich zu den bisher etablierten nichtsteroidalen Antirheumatika. Meloxicam besitzt eine Halbwertszeit von etwa 20 Stunden. Die Metaboliten werden jeweils zur Hälfte über Urin und Fäces ausgeschieden. Diese Studie beschreibt die Pharmakokinetik von Meloxicam bei einmaliger Dosierung von 15 mg an 12 Patienten mit terminaler Niereninsuffizienz im Vergleich zu 12 gesunden Probanden, welche in Alter, Größe und Geschlecht den Patienten entsprachen. Die nüchternen Patienten bekamen am Tag nach der Dialyse morgens eine Kapsel Meloxicam. Über zwei Tage erfolgten regelmäßige Blutentnahmen zur Bestimmung der Plasmakonzentrationen. Zusätzlich erfolgte eine Entnahme nach der nächsten Dialyse zur Kontrolle der Dialysierbarkeit von Meloxicam. Die Plasmakonzentrationen wurden mittels eines spezifischen und validierten HPLCAssays bestimmt. Die Plasmakonzentrationen waren bei den terminal niereninsuffizienten Patienten signifikant geringer ( 14,6 vs. 39,1 µg . h/ml ). Auch die mittlere EliminationsHalbwertszeit war in dieser Gruppe etwas geringer ( 17,9 h vs. 26,1 h ). Die freien Meloxicamkonzentrationen waren dagegen deutlich erhöht im Vergleich zu den gesunden Probanden ( 0,895 % vs. m 0.28 % / w 0,30 % ). Dies drückt sich auch in der mittleren Gesamtclearance aus, welche bei den niereninsuffizienten Patienten signifikant höher war ( 18,9 vs. 7,09 ml/min. ). Meloxicam wird über einen Metabolismus eliminiert, der vermutlich von der freien Plasmakonzentration abhängig ist. Die maximale freie Plasmakonzentration Cmax ist bei den niereninsuffizienten Patienten signifikant höher ( 0,0050 µg/ml vs 0,0026 µg/ml ), während die freie Konzentration AUC 0¥ bei beiden Gruppen nahezu gleich hoch ist ( 0,13 vs 0,11 µg . h/ml ). Patienten mit terminaler Niereninsuffizienz zeigen signifikant geringere Meloxicam Plasmakonzentrationen als die gesunden Vergleichsprobanden, die Konzentration freien Meloxicams, welche das entscheidende Kriterium für Wirkungen und Nebenwirkungen der Substanz darstellt, ist dagegen höher. Daraus folgt, daß Meloxicam bei Patienten mit terminaler Niereninsuffizienz geringer als bei nierengesunden Patienten dosiert werden sollte. Eine Dialysierbarkeit von Meloxicam konnte nicht festgestellt werden. Meloxicam wurde von Patienten und Probanden gut vertragen.
Zur Phänomenologie der Obduktionen im Zentrum der Rechtsmedizin in Frankfurt am Main 1993 - 1995
(2003)
Das Sektionsgut des Zentrums der Rechtsmedizin in Frankfurt am Main der Jahre 1993 bis 1995 wurde anhand der entsprechenden Sektionsprotokolle und -bücher mit Hilfe eines eigens für den rechtsmedizinischen Bereich entwickelten Datenerfassungsprogrammes erfasst und ausgewertet (MÜLLER und BRATZKE, 1993). Im Untersuchungszeitraum wurden insgesamt 4115 Leichen in das Zentrum der Rechtsmedizin eingeliefert, von denen 79,5% (3271 Leichen) obduziert wurden. Bezüglich der Geschlechtsverteilung des gesamten Sektionsgutes betrug der Anteil der Männer 66% und der Frauen 34%. Sowohl bei den natürlichen Todesfällen (62,3%) als auch bei den nichtnatürlichen Todesfällen (70,5%) überwog der Anteil der Männer deutlich. Das Durchschnittsalter aller Obduzierten lag bei 50,7 Jahren. Im Auftrag der Staatsanwaltschaften Frankfurt am Main, Darmstadt mit der Zweigstelle Offenbach, Hanau und Wiesbaden wurden innerhalb der drei Jahre 2031 Leichen obduziert. In 937 Fällen fand eine Feuerbestattungssektion und in 278 Fällen eine Verwaltungssektion statt. Neun Obduktionen wurden im Auftrag einer Versicherung und 16 Obduktionen im Auftrag von Privatpersonen durchgeführt. 53 Todesfälle fielen unter die Kategorie "Sonstiges". Hierunter wurden sowohl 44 "Irrläufer", die zunächst in die Rechtsmedizin eingeliefert wurden, eigentlich aber in der Pathologie seziert werden sollten, sieben amerikanische Staatsbürger, die nach Kenntnis der Nationalität ohne Obduktion oder Besichtigung den amerikanischen Stellen überantwortet wurden, und zwei Fälle von Organteilen zusammengefaßt. 791 Leichen wurden besichtigt. In 50,7% (1660) der Fälle wurde ein nichtnatürlicher Tod, in 43,8% (1432) ein natürlicher Tod festgestellt, in 5,1% (168) blieb die Todesart auch nach der Obduktion unklar. Unter den nichtnatürlichen Todesfällen befanden sich 333 Verkehrstote, 75% waren Männer. In 35% der Fälle handelte es sich bei den Unfallopfern um Fußgänger, die durch einen Pkw, ein anderes Kfz oder ein Schienenfahrzeug erfaßt und getötet wurden. 28% der Todesfälle waren Fahrer und 11% Insassen eines Pkw. Weitere 11% kamen als Radfahrer und 9% als Motorradfahrer ums Leben. 49,5% der Verkehrsunfallopfer starben an den Folgen eines Polytraumas und bei 31% führte ein isoliertes Schädelhirntrauma zum Tode. Die Selbsttötungen stellten mit 30% (492 Fälle) die häufigste Art des nichtnatürlichen Todes dar. Der Suizid durch Erhängen bzw. Strangulation war die meist gewählte Methode (28%), gefolgt vom Tod durch "stumpfe Gewalt" bedingt Sprung aus dem Fenster oder vor einen Zug (24%). Bei 404 Todesfällen handelte es sich um einen Unglücksfall. Hier standen die sog. Drogentoten mit 239 Todesfällen deutlich im Vordergrund. Anhand der rückläufigen Tendenz der Anzahl der Drogentoten werden Chancen und Möglichkeiten einer integrativen gegenüber einer restriktiven Drogenpolitik deutlich. 80 Personen kamen bei einem Haushaltsunfall und 45 Personen, unter ihnen eine Frau, bei einem Arbeitsunfall ums Leben. In den Jahren 1993 bis 1995 wurden 243 Personen Opfer eines Tötungsdeliktes. Der Anteil von 39% Frauen entspricht dabei dem bundesweiten Durchschnitt. Die Zahl der Tötungsdelikte nahm im Untersuchungszeitraum um 15% zu, wobei der weibliche Anteil relativ konstant blieb. Der Vergleich des Sektionsgutes mit den Verstorbenen der Stadt Frankfurt am Main zeigte, daß im Betrachtungszeitraum durchschnittlich 7,2% der verstorbenen Frankfurter Bürger im Zentrum der Rechtsmedizin obduziert wurden. Die Obduktionsfrequenz lag bei den natürlichen Todesfällen bei 4,5% und bei den nichtnatürlichen Todesfällen bei 50,4%. Die vorliegenden Ergebnisse zeigen Enwicklungstendenzen und Auswirkungen bestimmter Maßnahmen in Bereichen wie Straßenverkehr und Drogenpolitik auf und können für andere epidemiologische Untersuchungen zum Vergleich herangezogen werden, ebenso kann durch systematische Sektion ein "Frühwarnsystem" etabliert werden, das zu rechtzeitigen präventiven Maßnahmen Anlass gibt.
Zur Phänomenologie der Obduktionen im Zentrum der Rechtsmedizin in Frankfurt am Main 1996 – 1998
(2005)
Das Sektionsgut im Zentrum der Rechtsmedizin in Frankfurt am Main der Jahre 1996 bis 1998 wurde nach eingehender Analyse der Todesfallakten, mit einem speziell für die rechtsmedizinischen Belange entwickelten Datei-Erfassungsprogramm (MÜLLER, 1992) erfasst und ausgewertet. Es wurden von 1996 bis 1998 insgesamt 3 663 Leichen in das Zentrum der Rechtsmedizin eingeliefert. Davon wurden 2 795 Leichen obduziert (76%). Der männliche Obduktionsanteil überwog mit 64% deutlich dem weiblichen Anteil mit 36%. Das Durchschnittsalter aller obduzierten Leichen lag bei 64 Jahren, während das Durchschnittsalter der gerichtlich Obduzierten 45 Jahre betrug. Gerichtliche Obduktionen lagen im Auftrag der Staatsanwaltschaften Darmstadt, Frankfurt am Main, Hanau, Wiesbaden und Darmstadt / Zweigstelle Offenbach mit 1 707 Fällen vor. In 1023 Fällen fand eine Feuerbestattungssektion statt. In weiteren 38 Fällen kam es zu einer Transplantationssektion. In 14 Fällen wurde eine private Sektion veranlasst. Hinzu kamen 8 Versicherungs- und 5 Verwaltungssektionen. 847 Leichen wurden lediglich besichtigt. 21 Leichen wurden irrtümlich in das Zentrum der Rechtsmedizin eingeliefert (sog. „Irrläufer“). Bei den obduzierten Leichen lag in 48,6% ein natürlicher Tod, in 47,9% ein nichtnatürlicher Tod vor. Eine Kombination aus beiden wurde in 1,1% der Fällen diagnostiziert. Bei 2,4% der Todesfälle konnte die Todesart nicht geklärt werden. Unter den nichtnatürlichen Todesfällen standen 439 Selbsttötungen im Vordergrund, wobei die Todesumstände überwiegend durch Stürze aus der Höhe („stumpfe Gewalt“) bestimmt war (24% der Fälle), gefolgt von Strangulationen und Vergiftungen (jeweils 21%). Bemerkenswert war der Rückgang der obduzierten tödlichen Verkehrsunfälle auf 272 Fälle. Am häufigsten waren Kfz-Fahrer mit 27,5% betroffen. An zweiter Stelle standen Fußgänger / PKW-Unfälle (22,8%). Die Verkehrsunfallopfer verstarben zum größten Teil (42%) an den Folgen eines Polytraumas, in weiteren 37% führte ein isoliertes Schädel-Hirn-Trauma zum Tode. Im Untersuchungszeitraum wurden 170 Opfer von Tötungsdelikten obduziert, wobei 83% durch Mord bzw. Totschlag verstarben (143 Fälle). Die restlichen 17% verteilten sich auf Kindestötung bzw. Tod durch Kindesmisshandlung, tödliche Körperverletzung und Sexualmord (27 Fälle). An Haushaltsunfällen (im eigentlichen Sinne „Unglücksfälle im häuslichen Bereich“) verstarben 101 Personen. Eine Hauptrolle spielte mit 47% die Einwirkung von stumpfer Gewalt durch Stürze an Treppen (weniger von Leitern und aus Fenstern) und Wohnungsbränden in 28% der Fälle, die restlichen 26% verteilten sich auf Haushaltsunfälle durch Einwirkung von Strom, Vergiftungen, Ertrinken, Ersticken und Glasssplitterverletzung. Bei der Analyse von Arbeitsunfällen konnte mit 41 Fällen eine rückläufige Tendenz beobachtet werden. In dieser Auswertung waren Männer betroffen. Die Phänomenologie der Drogentodesfälle verdeutlicht den gesellschaftlichen Panoramawandel der siebziger Jahre. Im Untersuchungszeitraum zeigten sich 151 drogenbedingte Todesfälle. Während 1972 bis 1974 nur 20 Drogentodesfälle obduziert wurden, kam es bereits 1978 bis 1980 zu einem Anstieg auf 147 Todesfälle. Allerdings ist zu beobachten, dass die Drogenfälle zunehmend durch Medikamentenmissbrauch abgelöst werden. Seit 1994 wird der Gebrauch von Amphetaminderivaten (Ecstasy) beschrieben, dessen Konsum eine deutlich steigende Tendenz zeigt (bis 1996 Anstieg auf das dreifache). Bei den natürlichen Todesursachen beherrscht der plötzliche Herztod nach wie vor mit einem Obduktionsanteil von 61% die Sterblichkeitsrate. Einen nicht unwesentlichen Anteil mit 13% nahmen die Lungenerkrankungen ( Pneumonie, Embolie, Tumore ) ein. Tuberkulose spielt im Gegensatz zu früher keine Rolle mehr. Auf plötzliche Säuglings- bzw. Kleinstkindtode entfiel ein Obduktionsanteil von 4%. Der Vergleich des Sektionsgutes mit den Verstorbenen der Stadt Frankfurt am Main zeigte, dass in den Jahren 1996 bis 1998 durchschnittlich 7% der verstorbenen Frankfurter Bürger im Zentrum der Rechtsmedizin obduziert wurden. Der Anteil der außergerichtlichen Obduktionen (in der Regel Feuerbestattungssektion) betrug 4%, im Auftrag der Staatsanwaltschaft Ffm wurden 3% untersucht. Das Durchschnittsalter dieser Obduzierten lag im Mittel 13 Jahre unter dem der gesamten Frankfurter Sterbefälle. Nach Auswertung besonderer nichtnatürlicher Todesfälle ist festzustellen, dass im Untersuchungszeitraum offensichtlich alle Opfer von entdeckten Tötungsdelikten, jedoch nur 63% der in Frankfurter verunglückten Verkehrsunfallopfer, obduziert wurden. Die ausgewerteten Obduktionen geben Einblick über die Entwicklung im Straßenverkehr und der Drogenszene in den betreffenden Jahren und können für andere epidemiologischen Untersuchungen zum Vergleich herangezogen werden.
Zur Phänomenologie der Obduktionen im Zentrum der Rechtsmedizin in Frankfurt am Main 1999 - 2001
(2008)
Die Arbeit enthält eine statistische Auswertung des Sektionsgutes des Zentrums der Rechtsmedizin in Frankfurt/Main von 1999-2001. Durch den Abgleich von Sektionsprotokollen mit den in das Programm Obduktio (MÜLLER und BRATZKE, 1993) eingegebenen Daten, konnte zusätzlich eine institutsinterne Fehleranalyse der Dateneingabe erfolgen. In den Jahren 1999-2001 verzeichnete das Zentrum der Rechtsmedizin in Frankfurt/Main insgesamt 3.956 Leichendurchgänge, bei denen in 2.689 Fällen (68,0%) eine Obduktion durchgeführt wurde. Beim Gesamtleichendurchgang überwog mit 2.514 Leichen (63,6%) der männliche Anteil deutlich gegenüber 1.438 weiblichen Leichen (36,4%). Das Durchschnittsalter aller eingelieferten Leichen betrug 56,4 Jahre, das der Obduzierten 52,9 Jahre. Der größte Teil der Obduktionen (1.822) ging auf gerichtliche Anordnungen zurück. Außerdem wurden 786 Feuerbestattungssektionen, 40 Privatsektionen, 26 Transplantations-, neun Verwaltungs- und sechs Versicherungssektionen durchgeführt. Die Kategorie "Sonstige" beinhaltete 43 Fälle, die nicht obduziert wurden. Bei 1.224 Leichen fand lediglich eine Besichtigung statt. Bezüglich der Todesart ergab sich bei 1.285 Obduktionen (47,8%) ein natürlicher und in 1.205 Fällen (44,8%) ein nichtnatürlicher Tod. Bei 161 Todesfällen (6,0%) blieb die Todesart unklar und 38-mal (1,4%) lag eine kombinierte (natürlich und nichtnatürlich) Todesart vor. Die häufigste natürliche Todesursache stellten die Herz-Kreislauf-Erkrankungen dar (60,6%). Das Durchschnittsalter der natürlich verstorbenen Personen lag mit 60,0 Jahren deutlich über dem der nichtnatürlichen Todesfälle (45,6 Jahre). An erster Stelle der Todesumstände nichtnatürlicher Todesarten standen mit 363 Fällen (30,1%) Selbsttötungen (69,1% Männer und 30,9% Frauen). Die häufigste Form des Suizids war die Strangulationsmethode durch Erhängen (28,4%), gefolgt von Vergiftungen (22,0%) und Tod durch "stumpfe Gewalt" (20,1%). Durch Unglücksfälle kamen 316 Personen (26,2%) ums Leben. Hierunter befanden sich vor allem Drogentote (157 Fälle; 80,9% Männer). Verkehrsunfälle stellten mit 245 Verstorbenen (20,3%; 71,0% Männer) die dritthäufigste Gruppe dar. Den größten Anteil hatten hierbei Kfz-Fahrer (62 Fälle; 88,7% Männer). Kfz-Insassen waren am zweithäufigsten betroffen (46 Fälle; 58,7% Frauen). Fußgänger wurden in 44 Fällen in einen Verkehrsunfall mit letalem Ausgang involviert (54,5% Männer). Die 21-30-jährigen Verkehrsunfallopfer hatten mit 42 Personen (17,1%) den größten Anteil. Die am häufigsten zum Tode führende Verletzung war das Polytrauma (51,0%), gefolgt von Schädel-Hirn-Traumata (29,0%). Zu einer Untersuchung der Blutalkoholkonzentration kam es in 146 Fällen: 29,2% der Männer und 17,5% der Frauen wiesen zum Unfallzeitpunkt einen Wert von mindestens 0,03% auf. Durch ein Tötungsdelikt starben insgesamt 142 Personen (57,0% Männer), was einem Anteil von 11,8% an allen nichtnatürlichen Todesfällen entsprach. Bei der Klassifikation der Tötungsdelikte stellten Mord und Totschlag die häufigsten Delikte dar (71,1%). Die meisten Opfer (19,7%) waren zwischen 41-50 Jahre alt (57,1% Männer). Die Daten für die Jahre 1999-2001 zeigten einen deutlichen Rückgang der Tötungsdelikte um 33,3%. Bei Haushaltsunfällen kamen 52 Personen (55,8% Männer), und bei Arbeitsunfällen 47 Menschen (davon eine Frau) ums Leben. Des Weiteren lagen 19 Fälle (73,7% Frauen) von ärztlichen Kunst- oder Behandlungsfehlern und acht Sportunfälle (100,0% Männer) vor. In 13 Fällen blieb der Todesumstand unklar. Der Vergleich des Sektionsgutes mit den offiziellen Sterbestatistiken der Stadt Frankfurt/Main zeigte, dass im Betrachtungszeitraum durchschnittlich 6,4% der verstorbenen Bürger Frankfurts im Zentrum für Rechtsmedizin obduziert wurden. Von 1999-2001 nahm die Zahl verstorbener Frankfurter Bürger um insgesamt 3,5% ab. Auch die Zahl der obduzierten Leichen aus dem Einzugsgebiet Frankfurt verminderte sich konstant, jedoch wesentlich deutlicher, nämlich um 49,3%. Durch eine nichtnatürliche Todesursache verstarben 910 in Frankfurt gemeldete Personen, von denen 39,7% zur Obduktion gebracht wurden. Von 17.808 natürlichen Todesfällen wurden 4,2% obduziert. Das Durchschnittsalter der verstorbenen Frankfurter Bürger lag bei 75,3 Jahren, während obduzierte Frankfurter nur ein Durchschnittsalter von 60,1 Jahren erreichten. Die institutsinterne Auswertung der fehlerhaften Eingaben in das Datenerfassungsprogramm Obduktio zeigte, dass die häufigsten Eingabefehler das Sterbedatum betrafen (15,0% bezogen auf den Gesamtleichendurchgang), dass dieses jedoch für die Datenanalyse als eher unwichtig einzustufen ist. Ein für die Filterung hingegen sehr wichtiges Kriterium wie die Todesart ("natürlich"/"nichtnatürlich") oder die Sektionsart wurden zu 2,8% bzw. 2,0% falsch eingegeben.
Grundproblematik und Zielstellung: Masern- und Mumpsinfektionen sind als typische Kinderkrankheiten bekannt, die in der Regel komplikationslos verlaufen und eine lebenslange Immunität hinterlassen. Es gibt jedoch, vor allem bei der Erkrankung im Erwachsenenalter oder von kleinen Kindern und immungeschwächten Personen, auch schwerwiegendere Verläufe. Diese bringen häufiger Komplikationen (Masernpneumonie mit einer Häufigkeit von 1:1000, sowie das Enzephalitisrisiko) mit sich, können bleibende Schäden verursachen oder führen selten sogar zum Tod. Aus diesem Grund ist seit 1973 eine Impfung gegen Masern sowie seit 1976 eine Impfung gegen Mumps (in Kombination mit Röteln als MMR seit 1980) öffentlich empfohlen. Diese Ausarbeitung soll nun den Verlauf der Immunitätslage der Bevölkerung in den Jahren 2001 bis 2005 darlegen und das Vorhandensein von etwaigen Immunitätslücken bezüglich dieser Krankheiten untersuchen. Methodik: Zur Bestimmung der Immunität wurden Serumproben ausgewertet, die am Institut für Medizinische Virologie des Universitätsklinikum Frankfurt am Main vom 1. Januar 2001 bis zum 31. Dezember 2005 auf Antikörper gegen Masern (n = 3.405) und Mumps (n = 2.875) untersucht wurden. Bei der Bestimmung der Seroprävalenzen wurde nach Altersgruppe und Geschlecht differenziert. Ergebnisse: Sowohl bei Masern als auch bei Mumps sind bei tendenziell abnehmender Immunität zum Teil erhebliche Immunitätslücken zu finden. Die masernspezifischen Antikörper stiegen zunächst bis zum Jahr 2003 auf 95,7 % Seropositive an, fielen jedoch bis 2005 stetig wieder auf 75,2 % ab. Die immunitätanzeigenden Antikörper gegen Mumps erreichten in keinem der Jahre Werte über 60 %. Im Bezug auf das Geschlecht wiesen in der Regel die Frauen höhere Immunitätsraten auf als die Männer. Im Vergleich der Altersgruppen zeichneten sich bei beiden Krankheiten deutliche Immunitätslücken im Kindesalter sowie bei den Jugendlichen und im jungen Erwachsenenalter ab. Bei den Masern waren nahezu kontinuierlich über den gesamten Untersuchungszeitraum Immunitätslücken bei den Altersgruppen der 1 bis 4 Jährigen und der 15 bis 19 Jährigen erkennbar, die zwischen 20 und 50 % lagen und von 2001 bis 2005 zunahmen. Die Immunität im Erwachsenenalter war grundsätzlich höher als im Kindesalter, zeigte jedoch ebenfalls über die Jahre fallende Tendenzen und nahm 2005 durchschnittliche Werte von knapp 90 % an. Ab dem 60. Lebensjahr sank der Anteil der Seropositiven jedoch wieder auf im Mittel 75 % ab. Bei Mumps lagen die Immunitätsraten im gesamten Kindesalter kaum höher als 70 %, 2005 sogar unter 50 %. Im jungen Erwachsenenalter stieg die Anzahl der Seropositiven dann zögerlich von Werten um die 60 % bei den 20 bis 29 Jährigen auf 80 bis 90 % bei den 40 bis 59 Jährigen an. Ab dem 60. Lebensjahr nahm der Anteil der Seronegativen ähnlich wie bei den Masern zu. Folgerungen: Die vorliegende Arbeit zeigt, dass weiterhin Immunitäts- und Impflücken bei Masern und Mumps bestehen und sich diese sogar bis zum Jahr 2005 in ihrer Größe ausgedehnt haben. Vielmehr als zuvor weisen nun auch höhere Altersgruppen größere Immunitätsdefizite auf. Folge hiervon sind die steigenden Erkrankungszahlen im Erwachsenenalter und die dadurch bedingte Erhöhung der Komplikationsraten im Krankheitsfall. Es gilt also, auch in Anbetracht des von der WHO gesetzten Ziels der Maserneradikation, verstärktes Augenmerk auf den Erhalt und den Ausbau der Populationsimmunität bei Masern und Mumps zu legen. Um weitere Ausbrüche dieser Krankheiten zu verhindern, muss das Impfverhalten in der Bevölkerung dringend verbessert werden. Ziel ist es hierbei, Impfraten von mindestens 95 % für die erste Applikation zu erreichen.
Astrozyten sind außerordentlich vielseitige Zellen, die im Gefüge des zentralen Nervensystems wichtige Rollen in der synaptischen Signalübertragung, im Neurotransmitterstoffwechsel sowie unter anderem in der Regulation der Energiesubstrataufnahme und der lokalen Durchblutung spielen. Die genannten Prozesse weisen eine ausgeprägte Abhängigkeit von lokal verfügbaren Energieäquivalenten auf. Astrozyten können als Reaktion auf verstärkte, umliegende synaptische Aktivität nicht nur anaerobe Stoffwechselwege wie z.B. Glykolyse hochregulieren, sondern weisen auch eine enorme oxidative Verstoffwechselungskapazität auf. Die Mechanismen zur Regulation des oxidativen Stoffwechsels sind z.B. in Hepatozyten oder Muskelzellen genauer beschrieben, wie vieles andere jedoch in Glia untererforscht. Einer der Signalwege zur Aktivierung des obligat aeroben Citratzyklus über das Schlüsselenzym Pyruvatdehydrogenase-Komplex (PDC) führt in Hepatozyten über die Proteinkinase Cδ (PKCδ). Diese bewerkstelligt die Aktivierung der PDC über eine Dephosphorylierung der Pyruvatdehydrogenase (PDH) durch die PDH-Phosphatase 1 (PDP1).
Die selbst in peripheren Astrozytenforsätzen zahlreich vorhandenen Mitochondrien sind bislang in ihrer Funktion und Regulation nur unzureichend untersucht worden. Daher stellte sich die Frage, ob ein solcher PKCδ-vermittelter Signalweg auch in Astrozyten (über die Aktivierung der PDH) zur Aktivierung des mitochondrialen Stoffwechsels führen könnte, insbesondere um auf einen höheren Energiebedarf reagieren zu können.
Nach zahlreichen Versuchen zum Nachweis des Vorliegens der beteiligten Enzyme in der postulierten Signalkaskade wurden primäre Astrozyten mit Glutamat stimuliert, wodurch eine erhöhte synaptische Aktivität in unmittelbarer Umgebung simuliert wurde. Mithilfe von anti-PKCδ-, anti-PDC- und phosphospezifischen anti-phospho-PDC-Antikörpern sowie der Nutzung Objekt-orientierter Bildverarbeitungsmethoden konnte eine Glutamat-induzierte, mitochondriale Translokation der PKCδ mit nachfolgender Dephosphorylierung des PDC (und damit dessen Aktivierung) gezeigt werden. Beide Prozesse, PKCδ-Translokation und PDH-Dephosphorylierung, werden durch den metabotropen Glutamatrezeptor 5 (mGluR5) vermittelt, wie sich durch dessen pharmakologische Inhibition zeigen lässt. Die mitochondriale Translokation der PKCδ und ihre Kinaseaktivität tragen dabei maßgeblich zur Aktivierung des PDC bei, sodass durch das Einwirken von Glutamat eine lokale Modulation des glialen oxidativen Stoffwechsels und der damit verbundenen Produktion von Adenosintriphosphat (ATP) ermöglicht wird. Da Astrozyten (v.a. mit ihren feinen peripheren Fortsätzen) besonders in der Nähe von Synapsen für die Funktionalität von Neuronen essentielle, ATP-verbrauchende Prozesse wie z.B. Glutamattransport aufrechterhalten müssen, ist eine solche Regulation durch Glutamat selbst als Indikator vermehrter synaptischer Aktivität naheliegend. Dabei scheint Glutamat in dualer Funktion sowohl signalgebend die Aktivität des Citratzyklus zu beeinflussen als auch nach Aufnahme in die Zelle selbst als Substrat zum anaplerotischen Einschleusen in den Citratzyklus zur Verfügung zu stehen. Mithilfe von luminometrischen ATP-Assays sowie mGluR- und isoformspezifischen PKC-Inhibitoren konnte gezeigt werden, dass einem durch Glutamat verursachten Abfall der intrazellulären ATP-Spiegel (aufgrund der damit einhergehenden Mehrbelastung der Zelle für Transportprozesse und z.B. Ionenhomöostase) durch die mGluR5/PKCδ-vermittelte Aktivierung der PDH entgegengewirkt werden könnte.
In Zusammenschau könnte der mGluR5/PKCδ/PDH-vermittelte Signalweg gewissermaßen eine Bereitschaft bieten, um für gliale Stoffwechselprozesse die Deckung des Energiebedarfs in Astrozytenfortsätzen bei Aktivität angrenzender Synapsen (im Rahmen des Modells der dreiteiligen Synapse) zu ermöglichen. Eine mögliche pathophysiologische Rolle dieses Mechanismus bei zahlreichen neurodegenerativen Erkrankungen (bei denen häufig ein gestörter Energiestoffwechsel und/oder gliale Dysfunktion vermutet wird) müsste in weiterführenden Studien untersucht werden.
In der vorliegenden Dissertation wird eine Zusammenfassung über den aktuellen Wissensstand zu Aufmerksamkeitsdefizit- /Hyperaktivitätsstörungen sowie bestehenden Therapieoptionen gegeben. Anschließend wird eine eigene Pilotstudie vorgestellt, in welcher zwei nicht-pharmakolgische Interventionen, Neurofeedback (NF, EEG-Biofeedback) und Marburger Konzentrationstraining (MKT), miteinander verglichen werden. In den letzten Jahren hat der Evidenzgrad des Neurofeedbacks kontinuierlich zugenommen. Neurofeedback ist ein verhaltenstherapeutisches Verfahren mit dem Ziel, abhängig vom angewandten Trainings-Protokoll eine entsprechende Veränderung des EEG-Frequenzspektrums oder der ereigniskorrelierten Potentiale bei Patienten zu bewirken. Mittels dieser Modifikationen soll eine Verbesserung der ADHS-Symptomatik bedingt werden. Das Marburger Konzentrationstraining stellt eine kognitiv-behaviorale Gruppentherapie dar, deren Durchführung an das Manual von Krowatschek und Mitarbeiter (2004a) angelehnt wurde. Aus dem natürlichen Patientenzulauf der kinder- und jugendpsychiatrischen Ambulanz der Johann Wolfgang Goethe-Universität wurden 47 Kinder im Alter von 6 bis 14 Jahren mit der Diagnose einer einfachen Aktivitäts- und Aufmerksamkeitsstörung (F90.0) zufällig auf die Interventionen verteilt. Unter gleichen Rahmenbedingungen erhielten 22 Probanden 10 Einzelsitzungen à 45 Minuten NF-Training mit einem Theta/Beta-Protokoll und 25 Probanden 6 Gruppensitzungen des Marburger Konzentrationstrainings à 60 Minuten. Parallel wurde ein Elterntraining mit insgesamt 5 Sitzungen angeboten. Zur Erfassung und Evaluation der ADHS-Kernsymptomatik sowie begleitender Psychopathologien wurden zu zwei Messzeitpunkten T1 (= direkt vor) und T2 (= direkt nach) dem Training sowohl neuropsychologische Testungen (objektive Ebene) durchgeführt als auch Fragebögen an Kinder, Eltern und Lehrer (subjektive Ebenen) verteilt. Die Analysen ergaben für beide Interventionen eine Reduktion der Kernsymptomatik. Wider Erwarten kam es in der NF-Gruppe lediglich zu einer tendenziellen Verminderung impulsiver und hyperaktiver Verhaltensweisen, während die MKT-Gruppe signifikante Ergebnisse für alle Verhaltensbereiche aufwies. Dementsprechend bestätigte eine Vergleichsevaluation, entgegen der ursprünglichen Annahmen eine Überlegenheit der MKT-Bedingung bezüglich der Kernsymptomatik. 125 von 189 Vergleichsanalysen zur Begleitproblematik erbrachten für beide Interventionen signifikante Verbesserungen im schulischen und sozialen Bereich sowie in Bezug auf begleitende Psychopathologien und die Gesamtproblematik. Hier wiederum erwies sich das Neurofeedback im familiären Bereich als überlegen. Auf der Suche nach Prädiktoren zeigten die Variablen „Alter“, „Erziehungsstil“ und „Teilnahme am Elterntraining“ bedeutsame Effekte. So scheinen ältere Kinder eher vom NF, die jüngeren Kinder hingegen vor allem vom MKT zu profitieren. Die Einbeziehung der Eltern ins Training scheint auf jeden Fall sinnvoll zu sein, wobei sich hier keine eindeutigen Rückschlüsse ziehen lassen. Des Weiteren ließ sich bei den Teilnehmern des Marburger Konzentrationstrainings ein prädiktiver Einfluss von Geschlecht und Intelligenzquotient erahnen. In der Zusammenschau konnte für beide Interventionen der Evidenzgrad als Therapie einer Aufmerksamkeitsdefizit- /Hyperaktivitätsstörung erhöht werden. Beide Behandlungen vermindern die Kernsymptomatik, wobei das Neurofeedback scheinbar speziell die Impulskontrolle erhöht während das Marburger Konzentrationstraining einen besonders großen Einfluss auf die Unaufmerksamkeit ausübt. Auch bezüglich der Begleitsymptomatik werden jeweils signifikante Effekte erzielt. Diesbezüglich zeigte sich hier das Neurofeedback im familiären Bereich überlegen. Zum Teil lassen sich die Veränderungen auf spezifische Trainingseffekte zurückführen. Es ergaben sich erstmalig Hinweise auf Prädiktoren. In jedem Fall ist weitere Forschungsarbeit mit größeren Stichproben, angemessenen Kontrollbedingungen und Veränderungsmaßen notwendig. So bleiben noch viele Fragen offen, wie beispielsweise die spezifischen Wirkungsweisen beider Interventionen, entsprechende Rahmenbedingungen, Prädiktoren und die Langfristigkeit der Behandlungsmethoden.
Medizin gehört auch nach über 40 Jahren zu den zulassungsbeschränkten Fächern; die
Zulassung nach Leistung (Abiturnote) und Wartezeit befriedigt dabei nicht vollständig.
Die Eignung alternativer Kriterien für die Studienzulassung wurde bisher kaum
untersucht; angesichts der je nach Bundesland und Leistungsfächern heterogenen
Abituranforderungen wurden bisher auch keine Medizin-spezifischen Kriterien für die
Eignung als Zulassungskriterium untersucht, weder als Teilleistungen des Abiturs noch
als extracurriculare Aktivitäten.
Die vorliegende Studie untersucht die Bedeutung naturwissenschaftlicher Vorkenntnisse
für das Medizinstudium. Hierzu wurden das aktive Wissen in den Fächern Biologie,
Chemie, Physik und Mathematik in einer schriftlichen Klausur mit 40 offenen Fragen
an 3030 Studenten überprüft, was etwa 40% der Studienanfänger des Semesters an 14
Universitäten in Deutschland entsprach. Die Klausur wurde jeweils in den ersten vier
Wochen ihres ersten vorklinischen Semesters im Wintersemester 2004/2005
geschrieben; das Schwierigkeitsniveau der Fragen entsprach dem Lehrstoff der
Klassenstufen 10 bis 12 des Gymnasiums.
Im Durchschnitt beantworteten die Studienanfänger dabei 14,34 der 40 Fragen richtig
(36%). Aufgeteilt in die vier naturwissenschaftlichen Fächer zeigte sich, dass in den
Fächern Biologie und Mathematik jeweils über 40% der Fragen richtig beantwortet
wurden, während der Anteil der richtigen Antworten in den Fächern Chemie und Physik
mit 22% beziehungsweise 19% deutlich niedriger lag.
Die Studienanfänger in der Bundesrepublik Deutschland zeigten erhebliche
Wissenslücken auf. Im Weiteren wird in der vorliegenden Studie der Zusammenhang
zwischen den naturwissenschaftlichen Abiturnoten und -fächern der Studenten, den
naturwissenschaftlichen Kenntnissen (gemäß Klausur) und dem Studienerfolg,
gemessen an den Physikumsnoten, untersucht.
Anzustreben wäre eine bessere Vorbereitung der Studienanwärter in grundlegenden
naturwissenschaftlichen Kenntnissen, entweder in den Gymnasien oder in den ersten
vorklinischen Semestern. Dies könnte durch Medizin-spezifische Aufnahmetests vor Studienbeginn oder durch zusätzlich angebotene, freiwillige oder verpflichtende Kurse
in den naturwissenschaftlichen Fächern erfolgen, um den späteren Studienerfolg zu
gewährleisten beziehungsweise zu verbessern.
1. Analysiert werden die Daten aus dem Pädiatrischen Register für Stammzelltransplantation der Patienten, die nach einer ersten Stammzelltransplantation ein Folgerezidiv erlitten und mit einer zweiten Transplantation behandelt wurden.
2. In dem erfassten Zeitraum von 1988 bis 2007 sind im PRST 158 Patienten als Zweit-SZT nach Folgerezidiv erfasst. Letztlich konnten 106 Patienten in die Analyse aufgenommen werden.
3. Von den 106 pädiatrischen Patienten, die mit einer zweiten Transplantation wegen eines Rückfalls nach erster Transplantation bei ALL, AML und MDS behandelt wurden, haben 33 Patienten (ca. 30 %) ein ereignisfreies Langzeitüberleben erreicht. Aufgrund der vielen frühen Ereignisse fällt die Kaplan-Meier-Überlebenskurve auf errechnete 12 %. Die Nachbeobachtungszeit beträgt dabei im Mittel 27,5 Monate. Ein erneutes Rezidiv führt in der Regel zum Versterben des Patienten an einer Progression der Grunderkrankung. Lediglich 1 Patient mit ALL dieser Gruppe lebt in CR nach 3. Stammzelltransplantation. Dies entspricht einem Overall Survival von 32 %. Diese Daten sind vergleichbar mit den in der Literatur mitgeteilten.
4. Eine Analyse der in Frankfurt betreuten Patienten zeigt, dass nur 20% der Patienten mit Rezidiv nach 1.SZT zu einer 2.SZT gelangen. Auch dies entspricht den in der Literatur berichteten Ergebnissen.
5. Mädchen haben eine bessere Prognose als Jungen, insbesondere Mädchen jünger als 10 Jahre zum Zeitpunkt der Zweiten Transplantation zeigen ein ereignisfreies Überleben von 42 %.
6. Die Toxizitätsanalysen zeigen, dass die Hälfte der Ereignisse durch Transplantations-abhängige Mortalität bedingt ist. Die Verwendung eines Konditionierungsregimes mit reduzierter Intensität und erhofft reduzierter Toxizität verringert interessanterweise nicht die TRM-Rate, wohl aber die Rückfall-Rate.
7. Ein Mindestabstand von 200 Tagen zwischen den beiden Transplantationszeitpunkten führt zu einem signifikant besseren Ergebnis beim ereignisfreien Überleben, dabei kann nicht mit ausreichender Signifikanz gesagt werden, dass die Remissionsdauer nach 1. SZT in unserem Kollektiv von Bedeutung ist für das Langzeitüberleben, auch wenn ein Trend erkennbar ist. Remissionsdauern von mehr als 9 Monaten nach 1.SZT haben keinen zusätzlichen positiven Einfluß auf das Langzeitüberleben.
8. Patienten mit akuter Leukämie müssen vor einer zweiten Transplantation in einer morphologischen Remission sein, um eine realistische Chance auf Heilung zu haben.
9. Patienten, die nach 2003 einer Zweittransplantation unterzogen wurden, schneiden nicht signifikant besser ab, als die vor dem Jahr 2003 transplantierten. Dafür gibt es sicher eine Reihe von Gründen, die analysiertern Gruppen unterliegen aber einem BIAS. Unter anderem ist die Verteilung der Erkrankungen nicht gleich. Aber auch die unterschiedlich langen Remissionszeiträume deuten an, dass vor 2003 eine etwas andere Patientengruppe zweittransplantiert wurde als nach 2003. Die unterschiedlichen Mediane der Zeitintervalle zwischen den beiden Transplantationen mit einem deutlich längeren Zeitintervall in der Gruppe der nach 2003 transplantierten zeigen weiterhin an, dass insgesamt ein anderes therapeutisches Verhalten nach dem Rückfall nach erster Transplantation eingenommen wird und eine längere Intervallbehandlung in das Therapiekonzept eingeschlossen wird.
10. Die Patienten profitieren von akuter GvH bezüglich des ereignisfreien Überlebens. Höhergradige akute GvH führt aber entweder zu TRM oder mündet in ausgedehnter chronischer GvH. Auch chronische GvH bietet einen Schutz vor Rückfall. Aussagen über die Lebensqualität dieser Patienten können aus den gewonnenen Daten nicht gemacht werden.
11. Während ein Spenderwechsel bei 2. SZT offensichtlich nicht zu einem besseren Ergebnis beiträgt, zeigen Transplantationen von einem mismatch Spender und Transplantationen mit einem T-Zell-depletierten Graft ein gleichwertiges Ergebnis zu konventionellen Transplantationen. Die -allerdings sehr- kleine Gruppe der Patienten, die mit RIC konditioniert und von einem CD3/CD19 depletierten Grafteines haploidenten Familienspender transplantiert wurden, haben mit einem Overall Survival von 5/5 und einem EFS von 4/5 ein exzellentes Ergebnis. Ob dieses Behandlungskonzept zu einem besseren Outcome führen kann, muß in Zukunft aber noch an größeren Fallzahlen gezeigt werden.
12. Die in Frankfurt betreuten, lebenden Patienten zeigen durchweg eine zufriedenstellende bis gute Lebensqualität. Eine Frankfurter Patientin ist an eine ausgedehnten chronischen GvH nach langem schwerem Verlauf mit sehr eingeschränkter Lebensqualität gestorben.
13. Zweitmalignome sind ausser dem detailliert beschriebenen Frankfurter Patienten keine weiteren bisher berichtet worden. Nach den PRST- Daten ist ein Folge-Rezidiv nach erster Stammzelltransplantation bei ALL, AML und MDS therapeutisch keine ausweglose Situation und ein erneuter kurativer Behandlungswunsch der Patienten und ihrer Familien sollte unterstützt werden. Um aussagefähige Daten zu erhalten, sind allerdings prospektiv durchgeführte Studien erforderlich, die neben der Frage der optimalen SZT-Modalitäten zusätzlich auch Aussagen zur Lebensqualität treffen können müssen.
In der vorliegenden Arbeit soll der Ursprung der typischen Hirn-Gliederung bei Wirbeltieren (die sich auch beim Gehirn des Menschen findet) untersucht werden. Es wurde der Versuch gemacht, die evolutive Entwicklung des Wirbeltier-Gehirns bis zu einem sehr frühen Zeitpunkt zurückzuverfolgen. Zu diesem Zweck wurde das vordere (rostrale) Ende des Zentralnervensystems (ZNS) des adulten Lanzettfisches (Branchiostoma lanceolatum, B. lanceolatum), einem Verwandten der Wirbeltiere, mit verschiedenen histologischen Methoden (diverse Färbungen, Tracing, Rasterelektronenmikroskopie) untersucht. Mittels der gewonnenen Daten konnten die Zytoarchitektur und die topografischen Beziehungen der Zellgruppen in diesem Bereich beschrieben werden. Der histologische Aufbau des erwachsenen ZNS gab Hinweise darauf, wie sich einzelne Strukturen im larvalen ZNS durch die Metamorphose verändern. Embryonale Genexpressions-Muster, die bei Wirbeltieren bestimmte, morphologisch unterscheidbare Abschnitte des Gehirns charakterisieren, finden sich auch bei der Branchiostoma-Larve. Ihnen konnte ein charakteristisches Muster im histologischen Aufbau des ZNS bei erwachsenen Tieren zugeordnet werden. Die Unterteilung und die gefundenen Zellgruppen zeigen teilweise Gemeinsamkeiten zu Strukturen im Wirbeltier-Gehirn, eine direkte Homologisierung ist allerdings problematisch. Es wurde daher auf kladistischer Grundlage der Versuch gemacht, über eine Zusammenschau von Merkmalen das ancestrale ZNS des letzten gemeinsamen Vorfahren von Lanzettfischen und Wirbeltieren zu rekonstruieren.
In der vorliegenden Studie wurden fünf Dentinadhäsive (Prime & Bond, Optibond Solo, Scotchbond, Syntac Single Component und Syntac Sprint) sowie ein Gemisch aus Phosphor- und Flusssäure bezüglich ihrer Zytotoxizität anhand des Agar-Diffusionstests mit humanen Gingivafibroblasten untersucht. In den Vorversuchen wurden die zu testenden Haftvermittler auf sterilen Deckgläsern angesetzt, den gezüchteten Zellen ausgesetzt und deren Reaktion mittels Mikroskop beurteilt. Mittels dieser Vorversuche sollte untersucht werden, inwieweit überhaupt eine Zytotoxizität unter den zu testenden Mitteln vorlag oder ob es auch Mittel gab, die gar nicht toxisch auf die Zellen wirkten. In den ersten drei Hauptversuchen wurden die Dentinscheiben der Größe 500 mikro m, 400 mikro m, 300 mikro m, 200 mikro m und 100 mikro m zur Konditionierung mit dem Gemisch aus Phosphor- und Flusssäure vorbehandelt, mit dem jeweiligen Haftvermittler nach Vorschrift bedeckt und nachfolgend auf die gezüchteten Zellen aufgelegt. Der vierte Versuch diente dem direkten Vergleich zwischen dem in dieser Studie verwendeten Ätzgemisch und dem in einer vergleichbaren Studie verwendeten Ätzmittel Conditioner 36. In der vorliegenden Studie konnte eine Zytotoxizität aller untersuchten Dentinadhäsive und auch des untersuchten Gemischs aus Phosphor- und Flusssäure beobachtet werden. In der Gruppe der Dentinadhäsive schnitt das Material Optibond Solo am besten ab, gefolgt von Scotchbond, Prime & Bond und Syntac Single Component. Die stärkste Zytotoxizität wies das Material Syntac Sprint auf. Auch das Ätzmittelgemisch aus Phosphor- und Flusssäure war im Vergleich zu dem Testpartner Conditioner 36 gleich schädlich für die Gingivafibroblastenzellen.
In der vorliegenden Studie wurden 7 Dentin-Adhäsive (Adper Prompt-L-Pop, Prompt L-Pop, Xeno III, I-Bond, One-up-Bond, Prime&Bond NT, Scotchbond 1) bezüglich ihrer Zytotoxizität anhand primärer Gingivafibroblasten im Zellkulturtest untersucht. Die Studie wurde in Vorversuche und Hauptversuche unterteilt. Die Vorversuche dienten unter anderem dazu, im vornherein den pH-Wert zu bestimmen und die Dentin-Adhäsive auf ihre Viskosität in der Petrischale hin zu untersuchen. In den Hauptversuchen wurden die Eluate nach 24 und nach 48 Std. anhand der Parameter „lebende Zellen“ und „tote Zellen“ mittels des Cell Counters ausgewertet. Dem gegenüber stehen deskriptive Ergebnisse die keine statistische Relevanz haben. Die Ergebnisse bezüglich der Zytotoxizität lassen sich wie folgt zusammenfassen: • Scotchbond1, I-Bond und Prime&Bond NT weisen signifikant weniger lebende Zellen auf als die Zellkontrolle. Zueinander erwiesen sich die Materialien als nicht signifikant unterschiedlich. • Adper Prompt-L-Pop, Prompt-L-Pop, Xeno III und One-up-Bond sind bezüglich der Parameter „lebende Zellen“ und „tote Zellen“ nicht signifikant unterschiedlich zur Zellkontrolle. • Der Parameter „tote Zellen“ ergab keinerlei statistische Signifikanz. • Die qualitative Auswertung stimmt mit der quantitativen Ergebnisdarstellung überein. Unter der Limitation dieser in-vitro-Studie kann keine Empfehlung für die klinische Anwendung der Dentinadhäsive „Scotchbond 1“, „I-Bond“ und „Prime&Bond NT“ abgegeben werden.
Die Zöliakie ist eine immunvermittelte Systemerkrankung, die durch den Konsum glutenhaltiger Nahrung ausgelöst werden kann. Hierbei spielen sowohl eine genetische Prädisposition als auch verschiedene Umweltfaktoren eine Rolle. Die wissenschaftliche und gesellschaftliche Relevanz der Zöliakie hat in den letzten 25 Jahren zunehmend an Bedeutung gewonnen. Was man heute über die Erkrankung weiß, ist Ergebnis einer Vielzahl von Studien und Veröffentlichungen.
Ziel dieser Arbeit war anhand von szientometrischen Analysen ein umfassendes Bild über diese Forschungslandschaft zu erstellen. Es wurden dabei sowohl quantitative als auch qualitative Analyseverfahren zur Anwendung gebracht.
In der vorliegenden Arbeit zur Bestandsaufnahme der Debatte um den ärztlich assistierten Suizid werden vier Kernprobleme untersucht und eine abschließende Stellungnahme vorgelegt: (1) Ein Einblick in strafrechtliche und standesrechtliche Regelungen zeigt, dass die Gesetzeslage ebenso Raum für Unsicherheiten und Ungewissheit über eine drohende Strafe lässt wie auch die standesrechtliche, in den Bundesländern uneinheitliche Handhabung. Vor allem ist die Berechtigung zum Entzug der Approbation unterschiedlich geregelt. Um darüber Klarheit zu erreichen, wurde eine entsprechende Anfrage an die Justiziare der Landesärztekammern gerichtet. Insgesamt war die Bereitschaft zur Antwort groß, die Aussagen sind jedoch generell nicht eindeutig, so dass die berufsrechtliche Lage nach wie vor und wenig transparent bleibt. (2) Im Überblick dieser Arbeit fällt die Diskrepanz zwischen einer weitgehend liberalen juristischen Position einerseits und einer strikt ablehnenden Haltung der Ärzteschaft andererseits auf. Daher wird die zentrale These der „Unärztlichkeit“ einer Suizidassistenz hinterfragt. Dies erscheint hinsichtlich der damit zum Ausdruck gebrachten Befürchtung, dass das Rollenbild des Arztes Schaden nehmen könnte, ein ernstzunehmendes Argument. Im Rahmen der vorliegenden Arbeit ist besonders die Tragfähigkeit hinsichtlich des freiwilligen, ernstlichen Suizids eines zurechnungsfähigen erwachsenen Patienten von Interesse, der aufgrund schwersten Leidens im terminalen Erkrankungsstadium, ohne psychische Grunderkrankung, sein Leben mit ärztlicher Hilfe beenden will. Die Analyse zeigt, dass das ärztliche Ethos hinsichtlich der Begleitung von schwer kranken Patienten bzw. Sterbenden durch eine ärztliche Suizidassistenz nicht verletzt werden muss, solange der Arzt nicht die Tatherrschaft übernimmt. (3) Nach der Zurückweisung des Arguments der „Unärztlichkeit“ werden weitere Pro- und Contra-Argumente der aktuellen Debatte in Deutschland dargestellt und ebenfalls im Hinblick auf das terminale Stadium erörtert. Dabei zeigt sich, dass keines der Argumente alleine eine eindeutige und verpflichtende Handlung nach sich ziehen könnte. Als wesentliche Herausforderungen bleiben der Hinweis auf das ärztliche Selbstverständnis einerseits und das objektiv nicht linderbare Leiden eines Patienten andererseits. (4) Schließlich wird die vielfach geforderte Lockerung der Garantenstellung des Arztes mit gleichzeitiger standesrechtlicher Billigung des ärztlich assistierten Suizids für ganz spezielle, seltene Ausnahmefälle analysiert. Unter Berücksichtigung und Kontrolle strenger Kriterien könnte so ein denkbarer Kompromiss erreicht und vor allem für betroffene terminal Erkrankte mit unerträglichem Leid ein Ausweg geschaffen werden, der es ihnen ermöglicht, nicht alleine sterben zu müssen. Einem Dammbruch kann ebenso vorgebeugt werden wie dem aktuellen Sterbetourismus. (5) Als Ergebnis der Befassung mit den Argumenten muss man jedoch erwarten, dass die Ärzteschaft auf absehbare Zeit die Assistenz zum Suizid keinesfalls in den ärztlichen Aufgabenbereich integrieren wird. Sie wird sich allerdings auf längere Sicht damit auseinandersetzen müssen, dass es ihre eigenen medizinischen Erfolge sind, die das Sterben heutzutage oftmals besonders in die Länge ziehen. Wenn die Ärzteschaft sich dieser schwerwiegenden Problematik nicht öffnet, werden es andere tun. Dies muss kein Nachteil für die Reinerhaltung der ärztlichen Rolle sein. Für den einzelnen Arzt kann es aber ein höchst belastender Gewissenskonflikt werden, wenn er seinen Patienten in dieser Not alleine lässt. Schließlich ist mit einer puristischen Haltung auch die Gefahr verbunden, dass im Verborgenen nicht zu kontrollierende Handlungen vorgenommen werden.
Einleitung: Empathie ist ein entscheidender Faktor mit direktem Bezug auf das therapeutische Outcome in der Arzt-Patienten Beziehung. Die Ausbildung junger Mediziner:innen ist jedoch sehr fachlich orientiert, soziale Fähigkeiten werden nur in geringem Ausmaß gelehrt. Am Fachbereich Medizin der Goethe Universität Frankfurt wurden Simulationspatient:innen (SPs) bisher hauptsächlich in Prüfungen eingesetzt, nicht aber in der Lehre. Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob der Einsatz von SPs in der curricularen Lehre im Fach Chirurgie zur Vermittlung von strukturierten chirurgischen Anamnese- und Aufklärungsgesprächen umsetzbar ist, ob dieses einen Einfluss auf das empathische Verhalten der Studierenden hat, und ob es bei der gezeigten Empathie einen Unterschied zwischen SPs und reale Patient:innen (RPs) gibt. Zusätzlich wird untersucht, ob der Einsatz von SPs einen Einfluss auf den Lernerfolg in kommunikationsbasierten Prüfungen hat.
Methoden: Studienteilnehmende waren Studierende im 3. klinischen Semester am Fachbereich Medizin der Goethe Universität, die aktuell ihr curriculares Blockpraktikum Chirurgie absolvierten. Im Rahmen des Blockpraktikums Chirurgie durchliefen die Studierenden das ‚Training Praktischer Fertigkeiten‘ und hierbei das Modul ‚Kommunikation (Anamnese und Aufklärung)‘. Das Modul dauerte insgesamt 210 Minuten und setzte sich aus theoretischen Einheiten sowie praktischen Übungen (Rollenspielen) zusammen. Die Studienteilnehmenden wurden in 3 Studiengruppen randomisiert. Alle Teilnehmenden füllten zunächst zwei Fragebögen zum selbsteingeschätzten Empathielevel aus und lernten die identischen theoretischen Inhalte des Moduls. In den Rollenspielen trainierte Gruppe 1 mit SPs und wusste auch, dass es sich um SPs handelt. Gruppe 2 übte ebenfalls mit SPs, ging aber davon aus, dass es sich um reale Patient:innen handelte (Inkognito Patient:innen = IPs), Gruppe 3 übte mit RPs und war auch darüber informiert. Im Anschluss wurden die Studierenden anhand eines 10-Items Fragebogen in Hinblick auf die gezeigte Empathie durch die (Simulations-)-Patient:innen bewertet. Der Lernerfolg wurde anhand der Ergebnisse des Chirurgie-OSCE’s, den die Teilnehmenden 5-12 Wochen nach dem Modul absolvierten, ausgewertet.
Ergebnisse: Es zeigten sich signifikante Unterschiede bei dem vom Patienten wahrgenommenen Empathielevel zwischen Gruppe 1 (SP) und 2 (IP) und 1 (SP) und 3 (RP), nicht aber zwischen Gruppe 2 (IP) und 3 (RP). In dieser Konstellation wurden Studierende, welche mit RPs übten oder zumindest davon ausgingen, signifikant weniger empathisch bewertet. Es zeigten sich signifikante Unterschiede in der Eigeneinschätzung zwischen Männern und Frauen, nicht aber in der Fremdeinschätzung. Es gab keine signifikanten Unterschiede in den Ergebnissen der kommunikationsbasierenden Stationen der Chirurgie-OSCE zwischen den einzelnen Gruppen.
Schlussfolgerung: Der Einsatz von SPs im Hinblick auf den Lernerfolg in kommunikationsbasierenden Prüfungen ist gerechtfertigt und eine gute Möglichkeit, um Studierenden das Üben von Gesprächssituationen realistisch zu ermöglichen, ohne dabei akut klinische Patient:innen rekrutieren zu müssen. Dabei muss aber beachtet werden, dass das empathische Verhalten der Studierenden ein anderes ist, wenn sie mit RPs arbeiten, beziehungsweise davon ausgehen, mit einem RP zu arbeiten. Zur Förderung der Empathie sollten RPs und Feedback durch diese früh in die studentische Lehre implementiert werden.
In zahlreichen Studien konnte ein tumorwachstumshemmender Effekt der überwiegend in Fischöl vorkommenden Omega-3-Fettsäuren, insbesondere der Eikosapentaensäure (EPA), belegt werden. In den bisher vorliegenden Studien wurde überwiegend der Effekt freier Fettsäuren auf das Wachstum von Tumorzellen untersucht. Ziel dieser Studie war es deshalb, den Effekt einer Fettemulsion mit komplexer Triglyzeridstruktur, die als solche auch am Patienten im Rahmen einer parenteralen Ernährung Anwendung findet, auf das Wachstum der Pankreaskarzinomzelllinie Mia-Paca-2 und der Kolonkarzinomzelllinie Caco-2 zu untersuchen, und die zugrundeliegenden Mechanismen für die erhobenen Effekte zu evaluieren. • Die in der vorliegenden Studie eingesetzte Fischölemulsion hemmte die Proliferation sowohl der Pankreaskarzinomzelllinie Mia-Paca-2 als auch der Kolonkarzinomzelllinie Caco-2 dosis- und zeitabhängig. Dieser Effekt war auf eine Zunahme der Apoptoseinduktion und eine Blockierung der Zellen in der S- und G2/M-Phase des Zellzyklus zurückzuführen. Tumorzellen sind in der Lage, durch Expression von Wachstumsfaktoren ihr Zellwachstum selbständig zu stimulieren. Eine bedeutende Rolle scheint in diesem Zusammenhang der epidermale Wachstumsfaktor (EGF) zu spielen. Bei zahlreichen Tumoren kann eine Überexpression des membranständigen EGF-Rezeptors nachgewiesen werden. Es gibt Hinweise, dass die Modifikation der Lipidkomposition zellulärer Membranen durch ein verändertes Angebot an mehrfach ungesättigten Fettsäuren mit einer Änderung der Aktivität von Membranrezeptoren einhergeht. In weiterführenden Experimenten wurde deshalb der Einfluß von EGF auf das Wachstum der mit der Omega-3-fettsäurereichen Fischölemulsion vorbehandelten Pankreaskarzinomzelllinie Mia-Paca-2 untersucht. • Eine Präinkubation der Mia-Paca-2 Zellen mit der Omega-3-fettsäurereichen Fischölemulsion führte zu einer Umkehrung des wachstumsfördernden Effektes von EGF. Eine entscheidende Determinante in der Entwicklung und dem Wachstum von Tumoren ist deren Sensitivität gegenüber chemotherapeutischer Behandlung. Das Auftreten von chemotherapieresistenten Tumorzellen ist häufig limitierender Faktor für eine erfolgreiche zytostatische Therapie. In einem weiteren Versuchsansatz sollte deshalb der Fragestellung nachgegangen werden, ob eine Verbesserung der Wirksamkeit gängiger Chemotherapeutika in der Antitumortherapie von Pankreas- und Kolonkarzinomen nach kombinierter Behandlung mit der Fischölmulsion zu erwarten ist. • Der Einsatz der Fischölemulsion in Kombination mit Gemcitabin und 5-FU bei Mia-Paca-2 Zellen bzw. Caco-2 Zellen führte zu einem additiven wachstumshemmenden Effekt. Die Ergebnisse der vorliegenden Arbeit belegen, dass Omega-3-fettsäurereiche Lipidemulsionen eine sinnvolle adjuvante therapeutische Maßnahme in der Behandlung des Pankreas- und Kolonkarzinoms darstellen können.
Das Sturge-Weber Syndrom ist eine kongenitale neuroektodermale Erkrankung aus dem Formenkreis der Phakomatosen mit einer Inzidenz von eins auf 50.000 Neugeborene ohne familiäre Häufung und ohne bestimmte ethnische- und Geschlechtszugehörigkeit. Es ist gekennzeichnet durch leptomeningeale Angiomatose, Glaukome und Feuermale im Ausbreitungsgebiet des Trigeminusnervs. Klinisch manifestiert es sich durch Krampfleiden, neurologische Defizite, Glaukomanfälle, migräneartige Kopfschmerzen, schlaganfallartige Ereignisse und mentale Retardierung. Da die Erkrankung mit Vergrößerung der leptmeningealen Angiome progredient ist, wurde in dieser Arbeit der Frage nach angiogenen Prozessen in diesen Angiomen nachgegangen. Immuhistochemisch untersucht und semiquantitativ ausgewertet wurden die Proteine der angiogenen Faktoren VEGF, VEGFR-1 und-2, NP-1, Tie-2, Hif-1a und Hif-2a. Für alle Faktoren zeigten sich erhöhte Expressionslevel im Vergleich zu den Epilepsie- Negativkontrollen. Zudem zeigte sich eine erhöhte Proliferations- und Apoptoserate in den leptomeningealen Angiomen und den intraparenchymalen Gefäßen des darunterliegenden Cortex’. Die Ergebnisse sprechen für das Vorhandensein aktiver angiogener Prozesse in leptomeningealen Angiomen bei Sturge-Weber Syndrom Patienten. Als Arbeitsmodell wird vorgeschlagen, dass eine endothelzellintrinsische Hif Aktivierung (intrinsischer Signalweg) die Gefäße für eine erhöhte VEGF Stimulation (extrinsischer Signalweg) empfänglich macht und somit zu Erhalt und Progredienz der Angiome beiträgt. Eine therapeutische Option könnte eine antiangiogene Strategie zur Eindämmung oder Regression der Angiome darstellen.
Während des Alterungsprozesses kommt es u.a. im Gehirn zu einem signifikanten Verlust
postmitotischer Zellen, was zu Hirnleistungsstörungen im Alter führen kann.
Der Grund für diesen Zellverlust durch Apoptose könnte sein, dass es im Alter zu erhöhtem
oxidativen Streß und zu einer Veränderung in der Konzentration der an der Apoptose beteiligten
Proteine und Faktoren kommt. Diese Studie befaßt sich mit der neuronalen Apoptose und den daran
beteiligten Proteinen und Regulatoren. Ziel war es, herauszufinden, ob es im Alter zu einer
gesteigerten Apoptoserate im Hippokampus und zu einer Veränderung der Konzentration von
Proteinen kommt, die das Auftreten bzw. die Hemmung der Apoptose begünstigen könnte.
Untersucht wurden die Hippokampi von Pavianen als mögliches Primaten-Modell für altersbedingte
Pathologien, die das menschliche Gehirn betreffen können.
Um apoptotische Zellen im Hippokampus der Paviane nachzuweisen, wurde mit der TUNEL-Methode
gearbeitet und mittels Immunhistochemie untersucht, welchen Effekt das Alter auf die Verteilung der
Immunreaktivität von Cytochrom C, AIF, Bax, Bcl-2, Caspase-3 sowie von XIAP, einem Inhibitor der
Apoptose, hat. Auch die Immunreaktivität der Enzyme PARP und ICAD wurde dargestellt. Die
Ergebnisse zeigen, dass in den Hippokampi der gealterten Paviane das anti-apoptotische Protein Bcl-2
in unveränderter Reaktivität vorlag und das pro-apoptotische Protein Bax hochreguliert war. Es gab
eine Umverteilung und möglicherweise Freisetzung von Cytochrom C, jedoch aber keine Aktivierung
von Caspase-3. Diese Ergebnisse zeigen eine gewebepezifische Änderung des Bcl-2/Bax-
Verhältnisses in den Hippokampi der alten Primaten, die zur Beeinflussung der Cytochrom CFreisetzung
beitragen, ohne jedoch zur Apoptose der Zelle zu führen. Apoptotische Zellen konnten
mittels TUNEL-Färbung nicht nachgewiesen werden. Das könnte damit zusammenhängen, dass
XIAP, ein inhibitorisches Regulatorprotein der Apoptose, bei den gealterten Pavianen hochreguliert
war, ebenso wie das DNA-Reparaturenzym PARP. Auch das Enzym ICAD, welches in aktivierter
Form während der Apoptose wesentlich zum Chromatinabbau beiträgt zeigte im Alter eine erhöhte
Aktivität. Da in einer Studie über Tau-Pathologie im Hippokampus von Pavianen für das Auftreten
dieser Pathologie ein Zusammenhang mit dem Alter nachgewiesen werden konnte, und man weiß,
dass Zellen in der Nähe der β-Amyloidablagerung bei M.Alzheimer durch Apoptose absterben, wurde
mit Hilfe der Immunfloureszenz die Reaktivität des Enzyms Neprelysin untersucht, welches für den
β-Amyloidablagerung zuständig ist. Dieses war in seiner Reaktivität in den Hippokampi
der älteren Paviane im Gegensatz zu der in den Hippokampi der jüngeren Primaten erniedrigt, was auf
eine altersbedingte Disposition zu diesen Plaques hinweist.
Bei der chronisch venösen Insuffizienz (CVI) handelt es sich um einen im Bereich der unteren Extremität lokalisierten varikösen Symptomenkomplex bestehend aus Beschwerden wie Schmerzen, Schwere-, Spannungsgefühl, Juckreiz uvm. Dazu kommen stadienabhängig trophische Hautveränderungen, bedingt durch veränderte Kapillarmorphologie und -dichte. Diese Veränderungen können, je nach Ausprägungsgrad, von Hyperpigmentation über Dermatitis, Corona phlebectatica paraplantaris, Atrophie blanche bis hin zum floriden Ulcus cruris venosum reichen.
In der Bundesrepublik Deutschla nd leiden ca. 10-15 Millionen Menschen an einer manifesten CVI. Der CVI kommt aufgrund ihrer hohen Prävalenz eine hohe sozialmedizinische und sozialökonomische Bedeutung zu. Der pathophysiologische Mechanismus, der der CVI zugrunde liegt, ist bei Hinzukommen von begünstigenden Faktoren, z.B. Orthostasebelastung, in der Entwicklung von insuffizienten Venenabschnitten oder Insuffizienzpunkten im Bereich der Venenklappen oder anderen am Rücktransport des Blutes zum Herzen beteiligten Mechanismen zu suchen.
Eine Vielzahl von Therapieverfahren, wie etwa operative Eingriffe und Sklerosierungen, sind auf die Ausschaltung dieser Insuffizienzpunkte ausgerichtet. Diese Verfahren sind gründlich erforscht und durch klinische Studien wohldokumentiert. Ihre Grenzen liegen zum einen in möglichen Nebenwirkungen, zum anderen in der grundlegend chronisch degenerativen Natur der Erkrankung, deren Ursachen durch solche Therapieformen nicht erfasst werden.
Andere, nicht invasive und meist physikalische Therapieformen zielen auf eine Verbesserung der subjektiv empfundenen Lebensqualität ab. So ist etwa die Wirksamkeit von kalten hydrotherapeutischen Anwendungen wie Knie- oder Beingüssen, Wassertreten, Lehm-Wadenwickeln oder wechselwarmen Anwendungen nach Kneipp auf die subjektiven Beschwerden mehrfach beschrieben und in evidenten Studien belegt worden.
Wie es sich in diesem Zusammenhang mit der Wirksamkeit kalter Lehmpackungen, so wie sie als ortsgebundenes Heilmittel in Kurbädern Anwendung finden, verhält, ist hingegen bis dato nicht systematisch ergründet worden. Um diesen Mangel zu beheben, wurde die vorliegende randomisierte, kontrollierte Studie zur Wirksamkeit von kalten Lehmpackungen auf die Beine von CVI-Patienten entworfen. In dieser Studie wurden zum einen die Wirkungen dieser Behandlungsform auf die subjektiv erfassten Größen Lebensqualität, Schmerzen und Stauungsbeschwerden ermittelt, unter Anwendung des SF (short form) 36-Fragebogens und der visuellen Analogskala (VAS). Als Hauptzielgröße wurde die subjektiv empfundene Lebensqualität gewählt. Zum anderen wurden die objektiven Messparameter Knöchel-, Wadenumfang, transkutan gemessener Sauerstoffpartialdruck und die venöse Wiederauffüllzeit als Nebenzielgrößen erfasst.
Im direkten Anschluss an die Therapie lassen sich signifikante Verbesserungen der subjektiven Messparameter verzeichnen. Diese fallen bei den krankheitsspezifischen Faktoren und im körperlichen Lebensqualitätsprofil deutlicher aus als im psychischen Lebensqualitätsprofil. Innerhalb des körperlichen Lebensqualitätsprofils wiederum zeigen sich die deutlichsten Verbesserungen bei der körperlichen Rollenfunktion, gefolgt von den körperlichen Schmerzen. Das psychische Lebensqualitätsprofil weist die deutlichste Verbesserung bei der emotionalen Rollenfunktion auf. Diese Ergebnisse lassen sich in der vorliegenden Kombination vor dem Hintergrund der Beobachtungen erklären, dass zum einen die CVI eine chronisch degenerative körperliche Erkrankung ist, deren Effekte sich vornehmlich in körperlichen und psychischen Funktionalitätseinbußen manifestieren, und dass sich zum anderen das Patientenkollektiv der Studie durch fortgeschrittenes Alter und einen insgesamt unterdurchschnittlichen gesundheitlichen Allgemeinzustand auszeichnet. Alter und gesundheitlicher Allgemeinzustand wiederum gehen in erster Linie mit dauerhaft empfundenen Beeinträchtigungen der körperlichen und psychischen Rollenfunktionen einher. Durch die Lehmpackungen gelingt nun eine Reduktion der Schmerzen und anderer Beeinträchtigungen der körperlichen Befindlichkeit (Schweregefühl, Juckreiz). Diese Verbesserungen machen es dem Patienten möglich, seine an ihn gestellten Rollenerwartungen besser zu erfüllen.
Die erreichten positiven Effekte auf die subjektiven Parameter tendieren nach drei Monaten wieder in Richtung Ausgangswert, ohne diesen jedoch zu erreichen, so dass sich eine gewisse Nachhaltigkeit des Therapieeffektes zeigt. Die objektiven Messparameter tendieren in Richtung einer Verbesserung (Ausnahme: venöse Wiederauffüllzeit rechts), erreichen jedoch kein hinreichendes Signifikanzniveau. Um diesbezüglich ein aussagekräftiges Ergebnis zu erhalten, wären ggf. eine Vergrößerung der Stichprobe und andere bzw. verfeinerte Messmethoden angebracht.
Schon zu Beginn der Schizophrenieforschung ist man immer wieder auf Fälle gestoßen, die sich nicht oder nur schwer kategorisieren ließen. So erkannte bereits Kraepelin (1920) das Problem von Symptomkonstellationen, die sich nicht eindeutig in sein dichotomes Modell von „Dementia praecox“ und „manisch-depressivem Irresein“ (1896) einfügten. Es handelte sich um Patienten, die schizophrene Symptome und affektive Störungen im Wechsel oder aber auch gleichzeitig aufwiesen. In den folgenden Jahren gab es viele Bezeichnungen für derlei Phänomene. Es wurde von „Mischpsychosen“, einem „intermediären Bereich“ oder von „atypischen Psychoseformen“ gesprochen. Kurt Schneider (1980) bezeichnete sie als „Zwischenfälle“, Kasanin (1933) prägte den heute verwandten Begriff der „schizoaffektiven Psychosen“. Betrachtet man nun Langzeitverläufe über viele Jahre, so können in einigen Fällen Übergänge von der einen in die andere nosologische Entität beobachtet werden. Häufiger und besser belegt handelt es sich um Syndromwechsel von einer primär affektiven Störung hin zu einer schizophrenen Psychose. Wobei Marneros (1991) im Rahmen seiner großen Langzeitstudie, die den Verlauf affektiver, schizoaffektiver und schizophrener Psychosen miteinander vergleicht, deutlich darauf hinweist, dass sich keine typische Richtung eines Syndromwechsels oder Bevorzugung eines bestimmten Verlaufs belegen lässt. In unserer katamnestisch Studie beschäftigen wir uns ausführlich mit fünf Langzeitverläufen, die einen Übergang einer eindeutig diagnostizierten Schizophrenie mit mehreren Schüben und Exarcerbationen in eine bipolare Störung zeigen. Es handelt sich um eine explorative Arbeit, die bei allen Patienten eine mehr als 20-jährige Krankheitsgeschichte beleuchtet. Im Mittelpunkt stand die Untersuchung vieler sorgfältig geführter Krankenakten, die sowohl Aufzeichnungen der behandelnder Psychiater und Pflegekräfte enthielten, als auch Zusatzmaterialien wie Briefe, Postkarten und Bilder umfassten. Als wesentliches Mittel zum Herausstellen des Syndrom wechsels bzw. des Strukturwandels diente uns die genaue Betrachtung der erlaufspsychopathologie. Ergänzt wurden unsere Beobachtungen bezüglich der Krankheitsverläufe durch eigene Einschätzungen und Beurteilungen der Patienten, die in einem freien Interview in den Jahren 2002 und 2003 erhoben wurden. In allen fünf Fällen war ein eindeutiger Wandel der Symptomatik zu erkennen, welcher als solcher auch von den untersuchten Patienten empfunden und in den Interviews eindrücklich beschrieben wurde. Es zeigte sich bei allen fünf männlichen Patienten mit einem durchschnittlichen Ersterkrankungsalter von 22,6 Jahren, dass die erste Manie im Durchschnitt nach 10,4 Jahren und eine erste Depression im Durchschnitt nach folgenden 8,2 Jahren auftrat. Da nach dem Syndromwechsel Symptome aus dem schizophrenen Formenkreis bis heute fehlen, lässt sich in unseren Fällen die Bezeichnung als schizoaffektive Psychose nicht halten. Es handelt sich also um einen Syndromwechsel im Sinne eines Entitätenwechsels, der über Jahre hinweg stabil bleibt. Auch der Ausgang der Erkrankung unterstreicht unsere Beobachtung. Bei allen Patienten ist sowohl subjektiv als auch objektiv ein positiver Ausgang festzustellen. Dieses Phänomen deckt sich mit den Ergebnissen der vielfältig durchgeführten Studien zum besseren Ausgang von affektiven als von schizophrenen Erkrankungen. Konsequenterweise führte eine Phasenprophylaxe mit Lithium in allen Fällen zu einem Behandlungserfolg. In der Literatur fehlen bisher sorgfältig recherchierte und über viele Jahre belegte Krankheitsverläufe mit dem beschriebenen Strukturwandel der Erkrankung. Die Frage, womit ein solcher Übergang zusammenhängen könnte, kann derzeit nicht beantwortet werden. Diskutiert wird die Wirkung von Neuroleptika, hier vor allem deren depressiogene Potenz. Wenn man diese depressiogene Wirkung verantwortlich machen wollte, wäre nach dem Übergang in eine affektive Störung zunächst eine depressive Phase zu erwarten. Das Gegenteil ist bei unseren Patienten der Fall: alle unsere Patienten entwickelten nach einem durchschnittlichen Intervall von 10,4 Jahren zuerst eine Manie und dann im weiteren Verlauf eine Depression. Mit Hilfe eines psychodynamischen Erklärungsversuches könnte der Strukturwandel als ein Prozess verstanden werden, der dazu diente, der drohenden Ich-Destruktion und – Fragmentierung entgegenzuwirken und über Jahre zur Entwicklung eines höheren psychischen Strukturniveaus der Patienten geführt hat. Es bleibt in jedem Fall festzuhalten, dass weitere Studien auf dem Forschungsgebiet des Syndromwechsels wünschenswert wären, um dem Wesen des Wandels und auch der damit verbundenen klinisch relevanten therapeutischen Konsequenzen näherzukommen.
In dieser Studie wurden Patienten untersucht, die einen malignen Hirninfarkt erlitten hatten und mit Hilfe der dekompressiven Hemikraniektomie behandelt wurden. Es wurden die funktionelle Beeinträchtigung, die Körperbehinderung und die Lebensqualität untersucht. Die Patienten wurden sechs Monate nach dem Ereignis kontaktiert, um eine Nachuntersuchung durchzuführen. Dabei wurden die Patienten bezüglich ihrer Beeinträchtigung, Körperbehinderung und Lebensqualität beurteilt. Die Studie beinhaltete 36 Patienten. Daraus resultiert eine Überlebensrate von 64%. Bei 10 Patienten wurde die Beeinträchtigung mit dem Barthel Index mit 50 Punkten beurteilt. In drei Fällen betrug der BI 90 Punkte. Die Mehrheit der Patienten (12) zeigte ernste Beeinträchtigungen (BI<50). Die Behinderung korrelierte negativ mit dem Patientenalter. 16 Patienten waren nicht in der Lage zu gehen und benötigten bei der täglichen Arbeit Hilfe, was einen mRS von 4 oder 5 Punkten entspricht. Keiner der Patienten erreichte einen unabhängigen Status. Patienten, die eine höhere BI-Punktezahl hatten, waren signifikant jünger, hatten weniger schwere Beeinträchtigungen bei der Krankenhausaufnahme, wurden kürzer mechanisch ventiliert und verließen die Intensivstation früher. Die Schwere der Angst oder der Depression korrelierte dabei signifikant mit der Schwere der Behinderung. Die dekompressive Hemikraniektomie verbessert die Überlebensrate dramatisch, reduziert aber nicht die Größe des Infarktvolumens. Die Mehrzahl der Patienten wurde durch den Infarkt deutlich in ihrem Leben beeinträchtigt. Insgesamt ist die Lebensqualität reduziert.