Refine
Year of publication
- 2010 (178) (remove)
Document Type
- Doctoral Thesis (139)
- Article (14)
- Part of Periodical (11)
- Contribution to a Periodical (4)
- Part of a Book (3)
- Conference Proceeding (3)
- Working Paper (2)
- Book (1)
- Periodical (1)
Language
- German (178) (remove)
Is part of the Bibliography
- no (178) (remove)
Keywords
- Myokarditis (2)
- NMR-Tomographie (2)
- Nachweismethoden (2)
- Perikarditis (2)
- myocarditis (2)
- pericarditis (2)
- test methods (2)
- "NS"-Euthanasie (1)
- - (1)
- Abruf (1)
Institute
- Medizin (178) (remove)
Hintergrund: Epoxyeicosatriensäuren (Epoxyeicotrienoic acids, EETs) sind antihypertensiv, anti-inflammatorisch, anti-proliferativ und pro-fibrinolytisch wirksam. Die lösliche Epoxid-Hydrolase (soluble epoxid hydrolase, sEH) wandelt EETs in ihre korrespondierenden, weniger aktiven Diole (DHETEs) um. Das legt die Vermutung nahe, dass eine Steigerung der EET-Spiegel durch sEH-Inhibition eine Strategie zur Verhinderung von Endorganschäden sein kann. Wir untersuchten den Effekt der sEH-Inhibition im Modell der chronischen Niereninsuffizienz bei der Maus. Methoden: Es wurde eine 5/6 Nephrektomie (5/6 Nx) an männlichen SV129 Mäusen durchgeführt um eine chronisch progressive Niereninsuffizienz zu induzieren. Postoperativ wurden die Tiere in Gruppen randomisiert und mit Placebo (Leitungswasser), einem ACE-Hemmer (Ramipril, 40 mg/kgKG/d), dem sEH-Inhibitor 1471 (15 mg/kgKG/d) und dem CYP-Inhibitor Fenbendazol (15 mg/kgKG/) für 8 Wochen behandelt. Ergebnisse: Verglichen mit den sham-operierten Mäusen induzierte die 5/6 Nx einen arteriellen Hypertonus, eine Proteinurie, Glomerulosklerose und eine erhöhte Sterblichkeit. Wie erwartet führte die Gabe von Ramipril zu einer Blutdrucksenkung, einer verminderten Albuminurie und einer verbesserten Überlebensrate. Fenbendazol senkte die Plasma- Konzentration von einigen EETs, hatte aber keinen Einfluss auf die Progression der Niereninsuffizienz. Überraschenderweise kam es unter sEH-Inhibitor-Therapie zu keiner Blutdrucksenkung in diesem Modell. Im Gegenteil, die Proteinurie war sogar noch verstärkt bei den 5/6 Nx-Tieren unter 1471-Therapie verglichen mit der Placebo-Gruppe. Die Plasma-EET-Spiegel waren >2 mal höher in den 5/6 Nx-Mäusen als in der korrespondierenden sham-Gruppe. Die renale sEH-Expression war in den 5/6 Nx-Mäusen vermindert, eine medikamentöse sEH-Inhibition steigerte die EET-Spiegel in diesen Tieren noch weiter. Bemerkenswert war, dass, ausschließlich in den 5/6 Nx-Gruppen, eine sEH-Inhibition und eine CYP-Inhibition zu einer gesteigerten Konzentration von 5-Hydroxyeicosatriensäure (5-HETE), 12-HETE und 15-HETE führte, welche Lipid Peroxidations- und Lipoxygenase-Produkte sind. Fazit: Im Modell der 5/6 Nephrektomie bei der Maus führt die Hemmung der sEH zu keiner Blutdrucksenkung, sondern zu einer Verschlechterung der Proteinurie. Ursächlich hierfür sind vermutlich die durch die Niereninsuffizienz hervorgerufe Akkumulation von EETs sowie eine Verschiebung des Arachidonsäure-Metabolismus hin zu Lipoxgenase-Produkten mit nierenschädigender Wirkung.
Die mediane Sternotomie ist in der Kardio-Chirurgie der wichtigste Zugang zum Herzen. Postoperative Wundheilungsstörungen in diesem Bereich sind seltene, jedoch gefürchtete Komplikationen, die zu schwerwiegenden Konsequenzen führen können. Die zunächst einfache oberflächliche Wundheilungsstörung kann sich verkomplizieren und über eine Osteomyelitis des Sternums zu einer Mediastinitis mit eventuell letalen Konsequenzen führen. Aktuell geben unterschiedliche Autoren eine Inzidenz von 1 % – 8 % an. Die Mortalität der Sternumosteitis wird dabei zwischen 10 % und 30 % angegeben. Wird der Pathomechanismus der Erkrankung zu einem Algorithmus zusammengefasst, so kann sich über einen descendierenden Verlauf eine oberflächliche Wundheilungsstörung zu einer Sternumosteitis und schließlich zu einer Mediastinitis entwickeln. Natürlich kann sich die Infektion auch ascendierend ausbreiten. Über eine Infektion des Mediastinums oder des Sternums kann sich eine Infektion über die Weichteile bis an die Körperoberfläche ausdehnen. Der typische Patient, der eine Wundheilungsstörung erleidet ist in aller Regel polymorbide. Besonders bei diesem Patientenkollektiv sind eine kurze Behandlungsdauer und eine schnelle, postoperative Rehabilitation für das Ergebnis vorrangig. Ist der gewählte Therapieplan nicht aggressiv genug, so kommt es häufig zu chronischen Erkrankungen mit Fistelungen und einem konsekutiven Fortschreiten der Infektion in Weichteilen und Knochen. Neben medizinischen Gesichtspunkten kommen auch der wirtschaftliche Aspekte zu tragen. Wiederholte Operationen, lange Liegezeiten auf der Intensivstation und wiederholte sowie langwierige Rehabilitationsphasen sind nur wenige Beispiele der kostenintensiven Therapiebestandteile. Aufgrund der schwer beherrschbaren Infektsituation ist eine konsequent aggressive, definitive und zuverlässige Versorgung der infizierten Wunden von höchster Priorität. Dabei spielt es keine Rolle, ob es sich dabei um Wundheilungsstörungen im Bereich der Haut- und Unterhautweichteile, des Sternums oder des Mediastinums handelt. Zur Behandlung der Wundheilungsstörung nach medianer Sternotomie existieren verschiedene Behandlungsansätze und Therapieoptionen. Diese reichen von einfachen Debridements mit Sekundärvernähungen über Spül-Saug-Drainagen mit Antibiotika versetzen Lösungen bis hin zu Sternumteilresektionen, Vakuumverbänden und komplexen Lappenplastiken. ...
Das Studium der Medizin umfasst eine sehr heterogene Zusammenstellung von Fächern. Die große Anzahl unterschiedlicher Leistungsnachweise im klinischen Studium macht es dabei fast unmöglich, sich auf alle Fächer intensiv vorzubereiten, so dass vom Studenten eine Auswahl getroffen werden muss. Bisher liegen keine Untersuchungen dazu vor, nach welchen Kriterien Studenten ihren Lernaufwand einteilen. Anhand der fachspezifischen Prüfungsleistungen von etwa 1000 Medizinstudenten der Johann Wolfgang Goethe-Universität Frankfurt/Main mit dem Beginn des klinischen Studiums zwischen dem Sommersemester 2003 und dem Wintersemester 2005/2006 wurde untersucht, welche Korrelationen zwischen den 33 Fachnoten des klinischen Studienabschnitts vorliegen, die durch schriftliche Prüfungen ermittelt wurden. Dazu wurden die Noten der Erstprüfung verwendet, bei erst im Wiederholungsversuch bestandenen Fächern wurde für Korrelationen die Note auf 5 gesetzt. Zusätzlich wurde untersucht, ob es Unterschiede der Prüfungsleistungen zwischen den Studentenkohorten gibt, die zum Wintersemester (überwiegend Regelzeitstudenten) oder Sommersemester (keine Regelzeitstudenten) den klinischen Studienabschnitt beginnen. Für diese Berechnungen wurden alle Studenten in Kohorten zusammengefasst, die zum gleichen Zeitpunkt mit dem klinischen Studium begannen. Zur Klassifizierung von Fächern wurden diese nach inhaltlichen Gesichtspunkten zusammengefasst (internistische Fächer, operative Fächer, neurologische Fächer, Reproduktionsblock); daneben wurde eine Gruppierung nach Relevanz im Staatsexamen vorgenommen (Kernfächer des Studiums, Nebenfächer). Die Ergebnisse legen nahe, dass die Studenten kein interessensgesteuertes Lernen anwenden, wie sich an den relativ niedrigen Korrelationen zwischen inhaltlich ähnlichen Fächern zeigt. Dagegen zeigen sich hohe Korrelationen zwischen den Kernfächern des Curriculums, die eine große Fragenanzahl im Staatsexamen besitzen, sowie zwischen Fächern, die im gleichen Zeitraum gelehrt und geprüft wurden. Niedrige Korrelationen (auch negativ) wurden nur für wenige Fächer gefunden, bei denen keine inhaltliche Übereinstimmung vorliegt und offensichtlich keine Bedeutung für das Staatsexamen angenommen wird. Andererseits spricht die deutliche Korrelation zwischen Innerer Medizin und Pädiatrie dafür, dass eine inhaltliche Übereinstimmung in relevanten Fächern den Prüfungserfolg beeinflussen kann, auch wenn die Prüfungen zu unterschiedlichen Zeitpunkten stattfinden. Als Nebenergebnis wird ein deutlicher Leistungsunterschied zwischen den Kohorten gefunden, die im Wintersemester bzw. im Sommersemester ihr klinisches Studium beginnen; hierbei haben die Kohorten ohne Studenten in der Regelstudienzeit deutlich schlechtere Noten. Diese Leistungsunterschiede sind in den Kernfächern mit einer angenommenen großen Relevanz für das Staatsexamen besonders ausgeprägt. Insgesamt bestätigen die Ergebnisse die aus anderen Fächern bekannten Daten, dass von den Charaktereigenschaften nur der Parameter „Fleiß/Gewissenhaftigkeit“ mit einem schnellen, erfolgreichen Studium korreliert, während andere Persönlichkeitseigenschaften keinen Bezug zum Studienerfolg haben. Die Lernsteuerung durch Fleiß mit dem Kriterium „Prüfung zum gleichen Zeitpunkt“ steht in einem Gegensatz zur Tatsache, dass etwa 50% der Studenten bereits zum Studienbeginn genaue Vorstellungen über ihr späteres ärztliches Tätigkeitsfeld haben.
Leben bedeutet eine fortdauernde Anpassung an Umweltbedingungen durch ein hoch entwickeltes Informationsverarbeitungssystem. Diese Anpassung wird durch das neuroendokrine und autonome Nervensystem gewährleistet. Eine tages- und jahreszeitliche Organisation des neuroendokrinen und autonomen Systems findet durch das Photoneuroendokrine System (PNS) statt. Erst in jüngster Zeit konnte gezeigt werden, dass neben peptidergen Substanzen auch lipiderge Signalmoleküle des Endocannabinoidsystems eine essentielle Rolle bei der interzelluären Kommunikation spielen. Hierbei zählen Anandamid (AEA) und 2-Arachidonoylglycerol (2-AG) zu den umfassend erforschten Endocannabinoiden. ...
HINTERGRUND: Die BioPhysio™ (Edwards Lifescience LLC, Irvine, CA) Bioprothese wurde konstruiert um die hämodynamischen Eigenschaften bisher verfügbarer gerüsttragender Aortenklappenprothesen weiter zu verbessern. Ein flexibles Nitinolgerüst, welches die natürlichen Bewegungen der Aortenwurzel während des Herzzyklus zulässt und trotzdem einfach implantiert werden kann, ist die Hauptinnovation dieser Prothese. Das Ziel dieser Studie ist die klinische Evaluation dieser neuen Prothese. METHODEN: Zwischen Dezember 2004 und August 2005 wurden 50 BioPhysio Aortenklappenprothesen implantiert. Das mittlere Alter der Patienten betrug 75,9 ± 5,1 Jahre. Klinische Ergebnisse, Klappenöffnungsflächen, transvalvuläre Gradienten und der Rückgang der Linksventrikelhypertrophie wurden echokardiographisch vor der Entlassung, nach sechs Monaten, zwölf Monaten und 24 Monaten nachuntersucht. ERGEBNISSE: Die Gesamtsterblichkeit betrug 14,3% (n=6), wobei nach zwölf Monaten 9,5% (n=4) und nach 24 Monaten 4,8% (n=2). Alle Todesfälle waren nicht klappenbezogen. Ein Patient erlitt zwei Jahre nach der Operation eine Endokarditis und wurde erneut operiert. Es gab keine Fälle von Herz- oder Nierenversagen. Die Bioprothese zeigte gute hämodynamische Eigenschaften. Eine signifikante Reduktion des mittleren Gradienten auf 15,1 ± 8,3 mmHg konnte erzielt werden. Die mittlere Klappenöffnungsfläche betrug 1,5 ± 0,7 cm² und die mittlere Ejektionsfraktion 60,7 ± 7,2%. Es traten keine Aorteninsuffizienzen auf. Die New York Heart Association Funktionsklasse verbesserte sich bei allen Patienten und es konnte eine signifikante Reduktion des Linksventrikelmasseindex von 185,7 ± 49,6 g/m² festgestellt werden. KONKLUSION: Die klinische Darbietung der neuen BioPhysio Bioprothese ist vergleichbar mit den konventionellen gerüstlosen Herzklappenprothesen. Durch ihr einzigartiges Design ist sie jedoch schneller und einfacher zu implantieren als konventionelle gerüstlose Prothesen.
Die kontrastmittelverstärkte MRT hat in den letzten Jahren als Bildgebungsmethode in der abdominellen Diagnostik eine zunehmende Bedeutung in der klinischen Patientenversorgung gewonnen. Neben der Entwicklung neuer Geräte mit schnellen Untersuchungssequenzen in Atemstillstand, hat auch der Einsatz von MRT-Kontrastmitteln entscheidend dazu beigetragen. Mit der Entwicklung neuer Kontrastmittel - höher konzentriert – stellt sich die Frage, ob und wie sich diese von den Standardkontrastmitteln hinsichtlich der Kontrastierung von Organparenchym, Organläsion und Gefäßen unterscheiden. Diese Studie konzentrierte sich auf mögliche Unterschiede zwischen dem neuen höher konzentrierten Kontrastmittel Gadobutrol und dem Standardkontrastmittel Gd-DTPA im Hinblick auf die Charakterisierung von Nierenläsionen. Gadobutrol 1,0 M (Gadovist®, Schering AG, Deutschland), ein hochmolares Gd-Chelat, hat im Vergleich zu herkömmlichem niedermolaren Gd-DTPA (Magnevist®, Bayer Schering Pharma, Deutschland) einen größeren Effekt auf die Verkürzung der T1-Relaxationszeit bei geringerer Osmolalität und Viskosität. Die höhere Konzentration ermöglicht eine Reduktion des Kontrastmittelvolumens und damit einen kompakteren Bolus. Ziel dieser Studie war die Evaluierung des höher konzentrierten Gadobutrols (1,0 molar) im Vergleich zum niedermolekularen Standardkontrastmittel Gd-DTPA (0,5 molar) in der MRT-Nierendiagnostik hinsichtlich der Differenzierung von Nierenläsionen. Außerdem sollen die erzielten Ergebnisse genutzt werden, um die klinischen Anwendungsmöglichkeiten von Gadobutrol erweitern zu können. Die Ergebnisse der vorliegenden interindividuellen Phase-III-Studie basieren auf der MRT-Untersuchung und Auswertung von 30 Patienten mit verschiedenen Nierenläsionen (benigne und maligne) vor und nach Applikation von Gadobutrol 1,0 M bzw. Gd-DTPA 0,5 M. Die Wahl des Kontrastmittels erfolgte nach einer randomisierten Zuordnung. Hierbei erhielten 15 Patienten Gadobutrol 1,0 M und 15 Patienten Gd-DTPA 0,5 M. Die MRT-Befunde wurden mit einem definierten Goldstandard korreliert. Die Applikation beider Kontrastmittel erfolgte nach der automatisierten Bolusmethode, damit eine dynamische Bildgebung ermöglicht werden konnte. Dabei konnte für beide KM eine gute Verträglichkeit evaluiert werden. Die Ergebnisse dieser Studie haben gezeigt, dass bezüglich der Kontrastierung des Nierenparenchyms signifikante Unterschiede zwischen den untersuchten Gadolinium-Chelaten bestehen. Hierbei zeigte sich in der T1-gewichteten Gadobutrol-verstärkten Dynamik während der nephrographischen Phase eine stärkere Anreicherung in Nierenrinde und Nierenmark mit einem langsameren Übertritt des Kontrastmittels ins Nierenbeckenkelchsystem im Vergleich zur Gd-DTPA-verstärkten Bildgebung. Die stärkere Kontrastierung des Nierenmarks während dieser wichtigen Phase ermöglichte eine bessere Abgrenzung und Sichtbarkeit der Nierenläsionen zum umliegenden Gewebe. Die Nierenläsionen zeigten Unterschiede in der Kontrastmittelaufnahme, mit einem Trend für höhere Werte für die Gadobutrol-Gruppe. Gleiche Resultate ergaben sich für die Gefäßkontrastierung. Hier zeigte Gadobutrol-verstärkte Bildgebung keine wesentliche Erhöhung des arteriellen und venösen Gefäßsignals gegenüber dem Standardkontrastmittel Gd-DTPA. Unter Verwendung beider Kontrastmittel konnte eine gute Bildqualität erzielt werden. Jedoch erzielte dabei das höher konzentrierte Gadobutrol höhere Werte im Vergleich zu dem Standardkontrastmittel Gd-DTPA. Ferner zeigte sich für den Gadobutrol-Kontrast eine verbesserte Abgrenzbarkeit der Nierenläsionen. Bezüglich der diagnostischen Sicherheit in der Differenzierung der Nierenläsionen ließ sich zwischen den beiden Kontrastmitteln kein wesentlicher Unterschied feststellen. Die Ergebnisse dieser Studie weisen darauf hin, dass Gadobutrol 1,0 M als höher konzentriertes MR-Kontrastmittel ein gut geeignetes Kontrastmittel zur Detektion und Differenzierung von Nierenläsionen ist. Es kann ebenso wie das bis jetzt verwendete niedermolare Kontrastmittel Gd-DTPA 0,5 M bei der Abklärung von Nierenpathologien mittels MRT eingesetzt werden.
Selbstverletzendes Verhalten – die selbst herbeigeführte Verletzung des eigenen
Körpers – wird bisher in diagnostischen Manualen nicht als eigenständiges
Krankheitsbild geführt, sondern lediglich als Symptom verschiedener psychischer
Krankheitsbilder, wie Essstörungen, Abhängigkeitsstörungen, Zwangsstörungen und
vor allem als ein Kriterium der Borderline Persönlichkeitsstörung, erwähnt. Aufgrund
dessen beschäftigte sich die vorliegende Arbeit ausschließlich mit dem
Symptomkomplex Selbstverletzendes Verhalten und suchte erstmalig nach einem
gemeinsamen Korrelat des Phänomens auf neuronaler Ebene. Im Kontext der
vorliegenden Untersuchung wurden zehn Patienten mit Selbstverletzendem Verhalten
ausgewählt und zunächst gebeten unter Zuhilfenahme der Selbstbeurteilungs-
Fragebögen DSHI und SHBQ ihre Selbstverletzung und mögliche suizidale Handlungen
zu charakterisieren. In einem Interview wurden die Patienten zu ihrer psychischen
Krankengeschichte befragt, der HADS-D diente der Erfassung von Komorbiditäten.
Anschließend erfolgte eine Messung der zehn Selbstverletzer sowie zehn gesunder
Kontrollprobanden mittels funktioneller Magnetresonanztomographie während einer
visuellen Präsentation von symptomspezifischen Stimuli. Im Rahmen eines Blockdesigns
wurden Bilder mit selbstverletzenden und suizidalen Szenen randomisiert
dargeboten. Die emotionale Bedeutsamkeit und Valenz der gezeigten Bilder wurden
anschließend mithilfe eines Post-fMRT-Befragungsbogens eruiert.
Die Auswahl der Patienten nach dem Selbstverletzenden Verhalten und nicht nach der
Diagnose war ebenso wie das Design mit selbstverletzenden und suizidalen Stimuli
einzigartig. Die Ergebnisse dieser innovativen Studie offenbarten bei den Patienten
beim Betrachten der selbstverletzenden Szenen eine gesteigerte Aktivität eines weit
gefächertes Netzwerkes von Gehirnarealen, die eine essenzielle Rolle in der
Verarbeitung von Emotionen spielen. Dazu zählen vor allem limbische Strukturen wie
Amygdala und Hippocampus, aber auch frontale Areale, im Besonderen der
präfrontale Cortex. Diese Strukturen sind vergleichbar mit denen, die bei einer
Borderline Persönlichkeitsstörung neuronal verändert sind. Die Präsentation der
suizidalen Bilder rief ebenfalls eine Mehraktivierung der genannten Regionen hervor,
allerdings in einem geringeren Ausmaß.
Im Zusammenhang mit den selbstverletzenden Szenen ist vor allem die erstmalige
Darstellung von Arealen, die dem Belohnungssystem zuzuordnen sind und teilweise
Bestandteil dopaminerger Bahnen sind, hervorzuheben. So präsentierten sich die
Substantia nigra, Teile des Mesenzephalons und vor allem die Basalganglien verstärkt
aktiviert. Dies deutet darauf hin, dass erstmalig neuronale Strukturen abgebildet
wurden, die spezifisch für das Selbstverletzende Verhalten sind. Da die erhöhte
Aktivität der genannten Gehirnareale mit der neuronalen Momentaufnahme eines
Suchtkranken vergleichbar ist, wäre eine mögliche Einordnung der Selbstverletzung in
die bestehende Kategorie der Abhängigkeitserkrankungen naheliegend. Die
beschriebene Studie legt den Zusammenhang zwischen Selbstverletzenden Verhalten
und einer Abhängigkeitsstörung zum ersten Mal in dieser Form dar, so dass
weitergehende Untersuchungen in diese Richtung notwendig sind. Jedoch wird mittels
der Resultate der funktionellen Magnetresonanztomographie ein besseres Verständnis
des komplexen Charakters der Erkrankung ermöglicht und Veränderungen in der
Behandlung und dem individuellen Umgang mit dem Selbstverletzer müssen in
Betracht gezogen werden. Weiterhin verdeutlichen die Studienresultate, dass die
Etablierung der Erkrankung als eigenständiger Symptomkomplex in gängige Diagnostikund
Behandlungsmanuale in Zukunft unumgänglich sein wird.
Das Philadelphia-Chromosom (Ph) ist das zytogenetische Korrelat der Translokation t(9;22). 95% der chronisch myeloischen Leukämien (CML) und 20-25% der akuten lymphatischen Leukämien (ALL) des Erwachsenen sind Ph-positiv (Ph+). Bei der t(9;22) kommt es zur Fusion des abl -locus auf Chromosom 9 und des bcr-locus auf Chromosom 22. Dies führt zur Bildung des chimären bcr/abl Gens, welches für das BCR/ABL Fusionsprotein kodiert, das für die Pathogenese der Ph+ Leukämien verantwortlich gemacht wird. Das ABL-Protein ist eine nicht-Rezeptor Tyrosinkinase, die eine wichtige Rolle in der Signaltransduktion und der Regulation des Zellwachstums spielt. Im BCR/ABL-Fusionsprotein wird die Kinase-Aktivität von ABL, die im Normalfall streng reguliert ist, durch die Fusion mit BCR konstitutiv, das heißt andauernd, aktiviert. Dadurch kommt es zur Deregulierung vielfältiger intrazellulärer Signalwege, was die maligne Transformation hämopoetischer Zellen zur Folge hat. Mit dem spezifischen ABL-Kinaseinhibitor Imatinib steht seit wenigen Jahren ein tumorzellspezifischer Wirkstoff für die Therapie der Ph+ Leukämien zur Verfügung, der bei der Mehrzahl der Patienten zur hämatologischen Vollremission führt. Insbesondere bei Patienten mit CML-Blastenkrise und Ph+ ALL kommt es durch klonale Expansion Imatinib-resistenter Zellen jedoch zu einem frühen Therapie-refraktären Rezidiv der Krankheit. Aufgrund der Problematik Imatinib-resistenter Rezidive wurden und werden "Nachfolger" von Imatinib mit dem Ziel entwickelt, die hohe Spezifität beizubehalten und wesentlich höhere Affinitäten zu erreichen. Derzeit befinden sich vielversprechende Substanzen in klinischen Studien: Nilotinib (Nilotinib, Novartis, Basel) ist ein spezificher ABL-Kinase Inhibitor der eine ca. 20-mal höhere Affinität gegenüber BCR/ABL hat als Imatinib. Dasatinib (BMS-354825, Bristol-Myers Squibb; New York) hat eine 325-fach höhere Affinität als Imatinib und wurde ursprünglich als Src-Kinase Inhibitor entwickelt. Die sehr hohe Affinität für die ABL-Kinase wurde erst später festgestellt (O'Hare et al., 2005b). Bei beiden Substanzen konnte eine Wirksamkeit auf die meisten klinisch relevanten Imatinib-resistenten BCR/ABL-Mutationen gezeigt werden (O'Hare et al., 2005b). Die Mutation T315I bildet die wichtigste Ausnahme. Ziel dieser Arbeit war es, die Grundlagen für neue, tumorzellspezifiche Therapiestrategien für die Behandlung BCR/ABL-positiver Leukämien, sowie deren imatinibresistenten Mutationen zu legen. Die Oligomerisierung spielt für die Aktivierung von BCR/ABL eine grundlegende Rolle und wird durch die N-terminale BCR-coiled-coil Region vermittelt. In unserer Arbeitsgruppe konnte eindeutig gezeigt werden, dass die Oligomerisierungsdomäne von BCR/ABL ein therapeutischer Angriffspunkt für ein kleines Peptid, der Helix-2, für die Behandlung Ph+ Leukämien darstellt. Der Einfluss der Helix-2 auf die Oligomerisierung des BCR/ABL Wildtyps und der damit verbundenen Sensitivitätssteigerung gegenüber Imatinib wurde in unserer Arbeitsgruppe genauestens untersucht und führte zu folgender Fragestellung: Welchen Einfluss hat die Helix-2 auf BCR/ABL Mutationen? Inwieweit ist es möglich die Imatinibresistenz bestimmter Mutationen durch Helix-2 Peptide zu vermindern oder zu überwinden? Welchen Einfluss hat die Helix-2 auf die Wirkung des Kinaseinhibitors Dasatinib verglichen mit Imatinib? Von den drei ausgewählten Punktmutationen Y253F, E255K und T315I war es bei zweien, nämlich den Mutationen Y253F und E255K, möglich die Imatinibresistenz nach Einbringen der Helix-2 in die Zellen zu überwinden. In Gegenwart von Dasatinib konnte durch die Helix-2 Peptide keine Sensitivitätssteigerung erreicht werden. Dies ist durch das verschieben des Gleichgewichtes von der aktiven hin zur inaktiven Konformation der ABL-Kinase durch die Helix-2 Peptide und durch die unterschiedlichen Angriffspunkte der zwei Tyrosinkinaseinhibitoren zu erklären. So bindet Dasatinib an der aktiven ABL-Kinase, Imatinib an der inaktiven ABL-Kinase. Die Mutation T315I warf durch ihre Resistenz gegenüber den Helix-2 Peptiden und ihrer Unabhängigkeit von der Tyrosinkinaseaktivität, eine neue Fragestellung bezüglich ihrer Arbeitsweise auf, welche im zweiten Teil dieser Arbeit untersucht wurde: Ist die 185(BCR=ABL)-T315I Mutation unabhängig von ihrer Tyrosinkinaseaktivität? Um dieser Fragestellung nach zu gehen untersuchten wir das Transformationpotential von unmutiertem p185(BCR=ABL) Deletionsmutanten, denen die Oligomerisierungsdomäne, die Coiled-Coil Domäne fehlt, und deren dazugehörigen Mutationen Y253F, E255K und T315I, denen ebenfalls die CC-Domäne fehlt. Nach Analyse aller Ergebnisse zeigte sich, dass die Mutation T315I in allen Versuchen eine Ausnahme darstellte und in allen Zellsystemen trotz fehlender CC-Domäne in der Lage ist die Zellen zu transformieren. Diese Tatsache beweist, dass die Mutation T315I unabhängig von ihrer Tyrosinkinaseaktivität das Potential zur Transformation besitzt. Die weitere Untersuchung dieser Mutation und ihrer Arbeitsweise könnte in Zukuft neue Wege aufweisen um die Aktivität dieser Mutation anzugreifen und therapeutisch gegen sie vorzugehen.
Ziel der vorliegenden Arbeit ist es die computergestützte, lichtoptometrische Gesichtsscannung ‚Primos body‘ zur dreidimensionalen Weichteilvermessung des Gesichts gegenüber der althergebrachten, manuellen Gesichtvermessung durch das ‚Clinometer nach Dr. Behrend‘ für den Bereich der Kieferorthopädie zu evaluieren. An dieser Untersuchung haben insgesamt 42 gesunde Erwachsene im Alter zwischen 24 und 51 Jahren teilgenommen. Um die optimalen Versuchsanordnungen sowie die Untersucher-Intervariabilität der Geräte festzustellen sind Voruntersuchungen durchgeführt worden. Bestandteil der Hauptuntersuchungen ist es mittels beider Apparaturen definierte Winkel zu vermessen und vergleichend auszuwerten. Für beide Messreihen kommen Landmarken im Bereich der Gesichtsmitte (Glabella, Nasenspitze und Hauptpogonion) zur Anwendung. Bezüglich Primos body werden zusätzlich die Abbildungen lächelnder sowie nicht lächelnder Gesichter (l- und nl- Messreihe) softwaregestützt nach definierten Winkeln ausgewertet. Die Voruntersuchungen ergeben, dass für das Clinometer die Methode „Fläche – Kopfhalterung“ als die sicherste Variante bezüglich der Reproduzierbarkeit der Messwerte einzustufen ist. Zur zusätzlichen Fixierung des Clinometers sollte daher zukünftig eine Kopfhalterung eingesetzt werden. Ferner sollte es auf eine Fläche aufgelegt werden. Abgesehen davon besagen die statistischen Auswertungen, dass das Clinometer nach Dr. Behrend einer häheren Untersucher-Intervariabilität unterliegt, als das Primos body. Die Untersucher-Intervariabilität des Clinometers liegt aber in einer klinisch wenig relevanten Größenordnung (<1°).
Für die Messungen der Hauptuntersuchungen mittels des Primos bodys sind folgende Winkel gewählt worden: Die erste Halbgerade stellt immer die Bipupillarlinie dar, die zweiten Halbgeraden werden gebildet aus den Verbindungslinien zwischen 1) Glabella und Nasenspitze (BN); 2) Glabella und Hauptpogonion (BK); 3) den beiden äußeren Augenwinkeln (BäA); 4) den bei-den Mundwinkeln (BM); 5) den beiden inneren Augenwinkeln (BiA); 6) Glabella und dem Interincisalpunkt (BI) sowie 7) den beiden Eckzahnspitzen (BE).
Der Winkel BN hat in den l- und nl-Messreihen die größte Distanz zur Symmetrieebene, beim Lächeln verändert er sich am stärksten und bezüglich der Standardabweichung unterliegt er der größten Streuung. Der Winkel BäA unterliegt der kleinsten Distanz zur 0°-Ebene, verändert sich beim Lächeln am wenigsten und weist bezüglich der Standardabweichung die geringste Streuung auf. Der Winkel BK konnte vom Untersucher am präzisesten bestimmt werden, dem Winkel BE wird hingegen die größte Ungenauigkeit zugeschrieben. Die Gesichter der Probanden dieser Studie werden beim Lächeln nicht symmetrischer oder asymmetrischer. Vielmehr nähert sich die Veränderung einer Gauß`schen Normalverteilung an. Der Winkel BK verändert sich beim Lächeln signifikant stärker, wenn er in nicht lächelnder Stellung weit von der Symmetrieebene entfernt ist (Spearman-Rho-Test: p=0,015). Für alle anderen Winkel sind keine Signifikanzen diesbezüglich festzustellen. Auch gilt für BK: Die Gesichter der Frauen der Studie sind sowohl in der nl- als auch l-Messreihe bezüglich des Winkels BK signifikant symmetrischer als die der Männer (Wilcoxon-Mann-Whitney-U-Tests: p<0,05). Der Bland-Altman-Test ergibt, dass der Winkel BK eher mit dem Ästhetikwinkel vergleichbar ist als der Winkel BN. Für zukünftige Vermessungen mit dem Clinometer sollte die Gesichtsmitte daher eher durch Hinzuziehen der Kinnmitte, als der Nasenachse zur Bestimmung des Ästhetikwinkels miteinbezogen werden. Weiterführend ist die softwaregestützte Gesichtsvermessungsmethode mit Primos body bezüglich der Messgenauigkeit dem Clinometer überlegen. Die vorliegende Dissertation kann somit ein neues bildgebendes Verfahren im Bereich der dreidimensionalen Gesichtsvermessung spe-ziell für das kieferorthopädische und kieferchirurgische Gebiet vorstellen, mit Hilfe jener zahlreiche Anwendungsmöglichkeiten in Diagnostik, Planung, Therapie und Nachsorge bestehen. Zusätzlich sollen die Ergebnisse Anstoß für weitere Forschungen im Bereich der dreidimensionalen Gesichtsvermessung sein um zukünftig invasive bildgebende Verfahren ersetzten zu können.
Die Wirkungen von Acrylamid beschäftigen seit Jahrzehnten Mediziner, Toxikologen, Biologen und Analytiker. Zwar konnte eine kanzerogene Wirkung beim Tier eindeutig nachgewiesen werden, der Nachweis dieser Wirkung beim Menschen ist aber bis heute nicht erbracht. Bis 2000 wurde angenommen, dass Acrylamid ausschließlich technisch erzeugt vorkommt und der Mensch Acrylamid nur aus dieser Quelle aufnimmt. Hierauf beruhen Grenz- und Richtwerte auf nationaler und internationaler Ebene, sowohl am Arbeitsplatz als auch für Trinkwasser und Verpackungsmaterialien. Neben dem Acrylamidgehalt in technischen Produkten, Wasser und Luft gelang der Nachweis der aufgenommenen Acrylamidmenge über Acrylamid-Hämoglobin-Addukte im Blut erst 1995, nachdem der Acrylamid-Metabolismus aufgeklärt worden war und die analytischen Methoden verfeinert waren. Die Annahme, dass Acrylamid ausschließlich in technischen Prozessen gebildet wird, war jedoch nicht vereinbar mit Erkenntnissen, dass auch Probanden einen erhöhten Acrylamidspiegel im Blut aufzeigten, die nicht mit Acrylamid am Arbeitsplatz in Kontakt gekommen waren. Im Jahr 2002 gelang es eindeutig nachzuweisen, dass Acrylamid in vielen, meist alltäglich verzehrten Lebensmitteln abhängig von der Zubereitungsart zu finden ist. Mit Hilfe einer verbesserten Analytik konnten schließlich hohe Acrylamidmengen in zahlreichen, vor allem frittierten Lebensmitteln, belegt werden, die die Belastung aus technischen Quellen oft weit überschritten. Die Tatsache, dass die Nahrung der allgemeinen Bevölkerung deutlich Acrylamid-belastet ist, hat die Bewertung der Acrylamid-Toxizität und die Maßnahmen zum Gesundheitsschutz nachhaltig verändert. Durch den späten Nachweis der Acrylamid-Aufnahme mit Lebensmitteln sind viele frühere Annahmen für die Gesundheitsbewertung irrig, die hieraus gezogenen Schlußfolgerungen nicht haltbar. Seit 2002 ist die Reduktion der Lebensmittelbelastung in den Mittelpunkt gerückt, die Arbeitsplatzbelastung hat - mit Ausnahme der Schleimhautreizung - keine weitere Berücksichtigung erhalten. Die hohe Belastung von Lebensmitteln stellt bisherige Richtlinien und Expositionsauflagen in Frage, der fehlende bisherige epidemiologische Nachweis, der aus Tierversuchen eindeutig nachweisbaren Karzinogenität stellt für Acrylamid auch die bisherigen Modell-Annahmen der Krebsentstehung durch Umweltschadstoffe in der „one hit-Hypothese“ in Frage.
Viele bösartige Tumore wie das kolorektale Karzinom oder das Mamma-Karzinom metastasieren in die Leber. Je nach Primarius kommen unterschiedliche Therapiestrategien in Frage. Die Laserinduzierte Thermotherapie (LITT) gehört neben vielen anderen minimalinvasiven Therapieformen zu den Thermotherapien und stellt eine Ergänzung zur Operation oder Chemotherapie dar und kann auch besonders bei isoliertem Leberbefall als alleinige Therapiestrategie angewandt werden. Vorteile sind die ambulante Durchführbarkeit und eine geringe Komplikationsrate. Nach CT-gesteuerter Punktion der Metastasen wird die Therapie unter Online-Monitoring im MRT mittels thermosensitiver Sequenzen überwacht. Unter Einwirkung der Laserphotonen auf das Lebergewebe kommt es durch Energieabsorption zu einer Erwärmung und Zerstörung des tumorösen Gewebes. Da der Energiebedarf zur Zerstörung der Metastasen auch bei volumengleichen Läsionen sehr schwankt, galt es anhand dieser Arbeit herauszufinden, ob ein Zusammenhang zwischen dem Energiebedarf und der im CT gemessenen Leberdichte besteht. Hierzu wurden 168 Patienten mit 279 Lebermetastasen unterschiedlicher Herkunft in die Studie eingeschlossen, die sich im Zeitraum von März 2006 bis März 2007 einer LITT-Behandlung unterzogen hatten. 55,4 % der Patienten waren mit einer Transarteriellen Chemotherapie (TACE) vorbehandelt, die aufgrund einer Reduzierung des Blutflusses in der Leber zu einem geringeren Energiebedarf führt. Vor der jeweiligen Laserung wurde im Punktions-CT die Leberdichte anhand der Hounsfieldeinheiten und im 24 h-MRT, sowie in den Kontrolluntersuchungen nach 3, 6 und 12 Monaten das Volumen der induzierten Nekrose bestimmt. Der benötigte Energiebedarf konnte aus der Anzahl, der Laufzeit und der Leistung der Laser errechnet werden. Bei Betrachtung der mittleren Nekrosevolumina konnte ein Rückgang in den Kontrolluntersuchungen verzeichnet werden. Dies spricht für Rezidivfreiheit bei der Mehrzahl der Metastasen an der jeweils gelaserten Stelle. Die Analyse der Überlebenszeiten nach der ersten LITT ergab bei einem Beobachtungszeitraum von 25 Monaten im Gesamtkollektiv eine mittlere Überlebenszeit von 21 Monaten, sowie eine kumulative Überlebensrate von 83,33 %. Patienten mit Metastasen des colorektalen Karzinoms wiesen im Mittel eine Überlebenszeit von 22 Monaten und eine Überlebensrate von 86,11 %, die des Mamma-Karzinoms ebenfalls eine mittlere Überlebenszeit von 22 Monaten und eine Überlebensrate von 84,91 % am Ende des Beobachtungszeitraumes auf. HCC-Patienten überlebten im Mittel 19 Monate und hatten eine Überlebensrate von 76,74 % nach 24 Monaten. Hieraus ergeben sich Überlebenszeiten, die deutlich über denen weiterer minimalinvasiver Verfahren, wie der Radiofrequenzablation oder der Mikrowellentherapie liegen. Ein direkter Vergleich mit den konventionellen Therapiemöglichkeiten, wie der chirurgischen Resektion oder der Chemotherapie gelingt bei unterschiedlichen Studiendaten, sowie -voraussetzungen nur schwer. Überlegen ist die LITT gegenüber der chirurgischen Resektion jedoch in der Krankenhausverweildauer und der geringen Invasivität. Gegenüber einer Chemotherapie ist die LITT hinsichtlich einer fehlenden systemischen Therapiekomponente im Nachteil. Nach anfänglicher Untersuchung des Gesamtkollektivs wurden die Patienten in 2 Gruppen unterteilt. Hierbei war das Unterscheidungsmerkmal die Vorbehandlung mit der TACE. Es wurde jeweils die Korrelation des Energiebedarfs mit der Nekrosengröße und den Hounsfieldeinheiten geprüft. Nachdem sich im Gesamtkollektiv und auch in den Untergruppen kein statistisch signifikanter linearer oder einfach exponentieller Zusammenhang zeigte, konnte nach Einteilung der Hounsfieldeinheiten in Dichtebereiche, sowie Berechnung eines mittleren Energiebedarfs nach erneuter Korrelationsberechnung ein positiver Zusammenhang gezeigt werden, so dass bei steigender Gewebsdichte von einem Mehrbedarf an Energie ausgegangen und eine Laserapplikatorenanzahl anhand der Gewebsdichte berechnet werden kann. Da die Streubreite der Werte um den Mittelwert jedoch sehr groß ist, ist fraglich, ob die Berechnung im Vorfeld der Therapie einen Nutzen für die Kosten- und Zeiteffizienz der LITT erbringt. Beim Vergleich des Energiebedarfes der 2 Untergruppen zeigte sich deutlich ein um ca. 0,5 kJ/cm3 niedriger Energiebedarf in der Gruppe der vorembolisierten Patienten, sowie eine im Durchschnitt höhere Gewebsdichte der TACE-Patienten aufgrund geringerer Durchblutung des Lebergewebes nach der Embolisation.
Determinanten der Langzeitprognose von Patienten mit implantierbaren Cardioverter-Defibrillatoren
(2010)
Die Effektivität der ICD-Therapie in der Verhinderung des Plötzlichen Herztodes ist unbestritten. Implantierbare Defibrillatoren können ventrikuläre Tachykardien und Kammerflimmern mit hoher Sicherheit beenden und damit den Plötzlichen Herztod mit sehr hoher Wahrscheinlichkeit verhindern. Die vorliegende Studie untersuchte Determinanten der Langzeitprognose von Patienten nach ICD-Implantation. Dabei zeigte sich in unserer Studie bei einer jährlichen Mortalität von 7,2% eine Sterblichkeit am Plötzlichen Herztod von < 1% pro Jahr, was den Nutzen des ICD unterstreicht. Bei der Analyse der Mortalitätsparameter waren ein hohes Alter der Patienten, fortgeschrittene Herzinsuffizienz mit entsprechendem NYHA-Stadium sowie eine deutlich eingeschränkte linksventrikuläre Ejektionsfraktion gute Vorhersagevariablen für die Prognose nach ICD-Implantation mit hohem prädiktiven Wert für die Mortalität. Ebenso scheint die ICD-Indikation ein wichtiger Parameter für die Langzeitprognose zu sein (sekundärprophylaktisch ICD-implantierte Patienten verstarben signifikant häufiger als Patienten, die zur Primärprophylaxe mit einem ICD versorgt wurden), primärprophylaktische Patienten stellen ein Patientenkollektiv mit per se besserer Prognose dar. Bezüglich der Auswertung des Auftretens adäquater Therapien erwiesen sich männliches Geschlecht, hohes Alter, Einnahme antiarrhythmischer Medikation sowie die sekundärprophylaktische ICD-Indikation als bedeutsame Parameter für eine erhöhte ICD-Interventions-Wahrscheinlichkeit. Zur Frage der prognostischen Bedeutung adäquater Therapien zeigte sich, dass im Auftreten adäquater Therapien ebenfalls eine gute Vorhersagevariable für die Langzeitprognose zu sehen ist. Die Auftretenswahrscheinlichkeit von adäquaten ICD-Therapien korrelierte jedoch nichtsignifikant mit dem Plötzlichen Herztod und somit scheinen vorhergehende ICD-Interventionen kein erhöhtes Risiko für diesen darzustellen. Die technische Weiterentwicklung hat in den letzten Jahren zu einer Größenreduktion der ICD´s, zur Vereinfachung der Systemimplantation mit verschwindend geringen peri- und postoperativen Komplikations- und Mortalitätsraten sowie durch die Verlängerung der Systemlebensdauer zum zunehmenden Einsatz von implantierbaren Defibrillatoren als bevorzugte Therapieform mit unbestrittener Effektivität in der Terminierung lebensbedrohlicher Arrhythmien, geführt. Trotzdem wären zukünftig prospektive Studien zur weiteren Risikostratifizierung und Evaluation möglicher diagnostischer Marker zur noch genaueren Abgrenzung von Hochrisikopatienten wünschenswert. Zukünftiges Ziel sollte es zudem sein, diejenigen Patientenpopulationen sicher zu identifizieren, die zwar ein geringeres individuelles Risiko haben dem Plötzlichen Herztod zu erliegen, jedoch absolut gesehen häufiger daran versterben.
Die akustische Mikroskopie stellt ein neuartiges bildgebendes Verfahren zur zerstörungsfreien Werkstoffprüfung dar, das erst seit kurzem in der Medizin eingesetzt wird und bei dem reflektierte Ultraschallwellen zur Bilderzeugung verwendet werden. Auf diese Weise können neue Informationen bezüglich der Materialparameter des untersuchten Gewebes erlangt werden. Neben einer enorm großen Bandbreite an möglichen Auflösungen bietet diese Technik die Möglichkeit, opake Objekte zu durchdringen und ihr Inneres abzubilden. Durch seine nicht-destruktive Art und die Notwendigkeit einer Kopplungsflüssigkeit bietet diese mikroskopische Methode zudem die Option lebende Zellen und Gewebe zu untersuchen. Das Ziel der durchgeführten Arbeit war es, die Interpretation von akustischen Bildern des menschlichen Gewebes zu erleichtern. Zu diesem Zweck analysierten wir SAM-Abbildungen von Knochengewebe im Vergleich zu anderen Untersuchungsverfahren. Neben einer qualitativen Bewertung der Morphologie gleichartiger Strukturen wurden ausgedehnte morphometrische Messungen und energiedispersive Röntgenanalysen durchgeführt. Als Methoden für den qualitativen Vergleich wurden konventionelle mikroskopische Techniken wie Polarisations-, Fluoreszenz-, Durchlicht-, Auflicht- und Rasterelektronenmikroskopie sowie Mikroradiographie vergleichend verwendet. Der morphometrische Vergleich erfolgte zwischen ultraschall- und auflichtmikroskopisch erzeugten Abbildungen. Weiterhin wurde die Beziehung zwischen akustischen Grauwertdarstelllungen und energiedispersiven Röntgenanalysen bewertet. Als Untersuchungsmaterial dienten Mandibulaknochen von sieben Beagle-Hunden. Die Mandibula eines jeden Hundes wurde beidseits mittels Osteoskalpell nach Sachse (Bien Air, CH-Biel) und CO2-Laser (entwickelt im Center of Advanced European Studies and Research, D-Bonn) am Margo ventralis im unbezahnten Kieferabschnitt osteotomiert. Nach einer dreiwöchigen Heilungsphase wurden die Knochen entnommen und vor der Schnittfertigung in Polymethylmethacrylat eingebettet. Beim qualitativen Vergleich der Morphologie gleichartiger Strukturen fanden sich bei SAM-Abbildungen und bei Aufnahmen, die mit den anderen mikroskopischen Techniken erzeugt wurden, weitgehende Übereinstimmungen hinsichtlich gröberer morphologischer Merkmale wie Umriss, flächiger Ausdehnung und Lage von Perforationen. Diese Gemeinsamkeiten konnten sowohl an Kallusgewebe als auch an osteonalem Knochen beobachtet werden. Unterschiede fanden sich hinsichtlich feinerer morphologischer Merkmale wie der geometrischen Übereinstimmung im Detail und der flächigen Ausdehnung bei höherer Vergrößerung. Zudem stellte sich die Binnenstruktur von Kallus und osteonalem Knochengewebe differenzierter dar als mit Hilfe der anderen mikroskopischen Techniken. Morphometrische Messungen zeigten, dass Strukturen, die im Bereich des Osteotomiespalts gemessen worden waren, im Ultraschallbild tendenziell größer abgebildet werden als in Auflichtaufnahmen. Im Gegensatz dazu wurden Strukturen im Bereich des kortikalen Knochens im ultraschallmikroskopischen Bild eher unterschätzt. Diese Ungenauigkeit bei der Abbildung von Strukturen im Ultraschallbild lässt sich am ehesten dadurch erklären, dass durch unterschiedliche Eindringtiefen des Ultraschalls auch unterschiedlich dicke Ebenen der Probe abgebildet werden. Wird eine dickere Schicht der Probe durch das akustische Mikroskop dargestellt als durch das Auflichtmikroskop, so kann es zu einer Überschätzung der Strukturen kommen und umgekehrt. Anhand energiedispersiver Röntgenanalysen konnte ebenfalls gezeigt werden, dass die Zunahme des Calcium- bzw. des Phosphorgehalts nicht alleine eine Aufhellung der Grautöne im Ultraschallbild verursachen kann. Auch der Vergleich mit Abbildungen der Elektronenmikroskopie ließ Unterschiede der Grauwerte erkennen. Demzufolge wird das akustische Bild nicht nur durch den Mineralgehalt, die Dichte und die atomare Zusammensetzung des Knochengewebes beeinflusst. Damit konnte mit der vorliegenden Untersuchung nachgewiesen werden, dass die Ultraschallmikroskopie ein neuartiges Verfahren darstellt, mit dem sich Knochen nicht nur in seiner Mikrostruktur morphologisch darstellen lässt, sondern mit der sich auch neuartige Informationen über funktionelle Parameter auf Nanoebene gewinnen lassen. Die Bedeutung dieser enormen Möglichkeiten sind im Moment noch nicht abschätzbar, weitere Untersuchungen müssen folgen.
Die Diskussion um die Patientenverfügung in der Bundesrepublik Deutschland geht bis in die 1970er Jahre zurück, seit Mitte der 90er Jahre nahm sie an Intensität zu. Meilensteine ihrer Entwicklung waren die Entscheidungen des BGH im Kempten-Fall (1994), im Frankfurter Fall (1998) und im Lübeck-Fall (2003). Nach dem Lübeck-Fall mehrten sich die Stimmen, wonach der Gesetzgeber das Betreuungsrecht ändern und die Patientenverfügung gesetzlich verankern sollte. Ein Entwurf des Bundesjustizministeriums aus dem Jahr 2004 erreichte jedoch nicht den Deutschen Bundestag, er wurde dem Gesetzesentwurf unter der Leitung von Joachim Stünker angegliedert. Erst Anfang des Jahres 2007 erhielt die Diskussion mit einer Orientierungsdebatte Einzug in das Deutsche Parlament. In den Jahren 2007 bis 2008 wurden dann drei Gesetzesentwürfe zum Thema Patientenverfügung in den Bundestag eingebracht. Der erste Entwurf wurde im Mai 2007 unter Federführung von Wolfgang Bosbach (CDU) veröffentlicht. In ihm waren Formvorschriften für die Patientenverfügung verankert. Diese müsse in schriftlicher Form vorliegen sowie eine Unterschrift oder ein notariell beglaubigtes Handzeichen enthalten. Ein Widerruf der Patientenverfügung wäre jederzeit und ohne weiteres sowohl mündlich als auch zum Beispiel durch Gesten möglich gewesen. Der Gesetzesentwurf beinhaltete eine Reichweitenbegrenzung. Eine lebensverlängernde Maßnahme hätte demnach nur abgebrochen beziehungsweise nicht eingeleitet werden dürfen, wenn der Patient ein irreversibel zum Tode führendes Grundleiden gehabt hätte oder mit an Sicherheit grenzender Wahrscheinlichkeit das Bewusstsein nicht wiedererlangen würde. Eine unmittelbare Todesnähe wäre nicht notwendig gewesen. Ende 2008 wurde dieser Entwurf basierend auf einem Änderungsantrag unter Federführung von Katrin Göring-Eckardt (Bündnis90/Die Grünen) modifiziert. Es sollte ein zweistufiges Modell geben. Für eine Patientenverfügung mit Reichweitenbegrenzung sollten die gleichen Formvoraussetzungen wie im bisherigen Entwurf gelten, es sollte jedoch auch eine Patientenverfügung ohne Reichweitenbegrenzung möglich sein, für die schärfere Voraussetzungen gelten sollten, zum Beispiel eine regelmäßige Aktualisierungs- und Beratungspflicht. Ein zweiter Gesetzesentwurf entstand unter Federführung von Wolfgang Zöller (CSU) im Jahre 2007. Dieser Entwurf sah keine Reichweitenbegrenzung vor. Die Patientenverfügung sollte unabhängig von Art und Stadium der Erkrankung gelten. Weiterhin wären nicht nur schriftliche Verfügungen möglich gewesen, auch Tonträger oder Videos wären zu berücksichtigen gewesen, wenn sie eindeutig den Willen des Patienten gespiegelt hätten. Das Vormundschaftsgericht hätte nur bei Dissens zwischen Arzt und Betreuer eingeschaltet werden müssen, allerdings hätte es in diesem Fall das Gutachten eines Sachverständigen einholen müssen. Ein dritter Antrag wurde 2007 unter Federführung von Joachim Stünker (SPD) erarbeitet und im Jahre 2008 veröffentlicht. Auch dieser Gesetzesentwurf sah keine Reichweitenbegrenzung vor, eine Patientenverfügung sollte unabhängig von Art und Stadium der Erkrankung gelten können mit der formalen Voraussetzung der Schriftform. Das Vormundschaftsgericht sollte lediglich bei einem Dissens zwischen Arzt und Betreuer eingeschaltet werden, es müsste jedoch im Gegensatz zum Zöller-Entwurf vor seiner Entscheidung kein Gutachten einholen. In allen drei Entwürfen sollten jeweils §§ 1901 und 1904 BGB geändert werden. Am 29.05.2009 wurde unter der Leitung von Hubert Hüppe (CDU) zusätzlich ein Antrag auf Verzicht auf ein Gesetz eingebracht. Am 18.06.2009 entschied sich die Mehrheit des Bundestages für den Gesetzesentwurf der Gruppe um Joachim Stünker. Die anwesenden Abgeordneten der SPD, der FDP und der Partei Die Linke stimmten zum großen Teil für den Stünker-Entwurf und sicherten so die Mehrheit, die Vertreter der CDU/CSU stimmten mit nur einer Ausnahme gegen diesen Entwurf, fünf Abgeordnete enthielten sich bei dieser Abstimmung. Die Rolle des Betreuers gewann mit der Verabschiedung des Gesetzes an Bedeutung. Das Gesetz sieht vor, dass der Betreuer anhand der Patientenverfügung (bei Nichtvorliegen anhand des mutmaßlichen Willens des Betreuten) prüfen muss, ob „ diese Festlegungen auf die aktuelle Lebens- und Behandlungssituation zutreffen“297. Das Vormundschaftsgericht muss nur eingeschaltet werden, wenn zwischen behandelndem Arzt und Betreuer ein Dissens über die Behandlung des Betreuten beziehungsweise den Abbruch einer lebensverlängernden Maßnahme herrscht.
Einleitung: Eine frühe Unterscheidung zwischen ischämischem Schlaganfall und intrazerebraler Blutung durch die Verwendung eines Biomarker-Tests könnte bereits in der prähospitalen Phase eine fallspezifische Akuttherapie ermöglichen. Basierend auf einzelnen Messungen in der Akutphase des Schlaganfalls konnten wir zeigen, dass ein Anstieg des sauren glialen Faserproteins (GFAP) im peripheren Blut von Patienten mit intrezerebraler Blutung wesentlich früher messbar ist als bei Patienten mit ischämischem Schlaganfall. Das Ziel der vorliegenden Studie war, das diagnostische Zeitfenster des Serum- GFAP- Spiegels zur Differenzierung zwischen intrazerebralen Blutung und ischämischen Schlaganfall zu charakterisieren. Materialien und Methoden: In diese prospektive Studie wurden 63 Schlaganfallpatienten eingeschlossen, die innerhalb von 6 Stunden nach Symptombeginn in der Klinik eintrafen. Mithilfe bildgebender Verfahren wurde bei 18 dieser Patienten eine intrazerebrale Blutung und bei 45 der Patienten ein ischämischer Schlaganfall diagnostiziert. Zu den Zeitpunkten von 1, 2, 3, 4, 6, 12, 24 und 48 Stunden nach Symptombeginn wurden den Patienten Blutproben entnommen (wenn sie zu dieser Zeit zur Verfügung standen). Im Serum dieser Proben wurde mittels eines ELISA-Tests die GFAP-Konzentration bestimmt. Ergebnisse: Innerhalb der ersten 24 Stunden nach Symptombeginn blieben die medianen GFAP-Werte im Serum der Ischämie-Patienten unterhalb der Nachweisgrenze. Die GFAP-Konzentrationen im Serum von Patienten mit intrazerebraler Blutung hingegen waren bereits im Zeitraum zwischen 2 und 6 Stunden nach Symptombeginn signifikant höher als beim ischämischen Schlaganfall. (p<0,001 für alle 4 Zeitpunkte). Unter der Verwendung der receiver operating characteristic curve Analyse lag die diagnostische Sicherheit von GFAP zur Differenzierung zwischen ischämischem und intrazerebraler Blutung bei >0,80 innerhalb des 2-6 Stunden Zeitfensters. Die GFAP-Werte von Patienten mit intrazerebraler Blutung korrelierten zum Zeitpunkt zwei Stunden nach Symptombeginn mit dem Blutungsvolumen (r=0,755, p=0,007). Zusammenfassung: In dieser Untersuchung konnte gezeigt werden, dass das Zeitfenster von 2-6 Stunden nach Symptombeginn bezüglich der Verwendung eines GFAP-Tests für die Differenzierung zwischen ischämischem Schlaganfall und intrazerebraler Blutung geeignet zu sein scheint. In der sehr frühen Phase des Schlaganfalls (etwa <2 Stunden) ist die Sensitivität des Tests zur Erkennung intrazerebraler Blutungen jedoch eher gering, was die Verwendung eines GFAP-Tests in der prähospitalen Phase limitiert.
Zielsetzung: Die Evaluation der transarteriellen Chemoembolisation (TACE) bei nicht resektablen primären (CCC) und sekundären (Lebermetastasen verschiedener Primärtumoren) Lebermalignomen anhand des lokalen Tumoransprechens, des klinischen Ansprechens und der Überlebensdaten. Material und Methodik: Im Zeitraum vom 1999 bis 2009 wurden in unserem Tumorzentrum 898 Patienten mit CCC und Lebermetastasen mittels TACE behandelt. Die behandelten Tumorentitäten waren im Einzelnen das cholangiozelluläre Karzinom (CCC) (n=46; 5,1%) sowie Lebermetastasen des: kolorektalen Karzinoms (CRC) (n=463; 51,7%), Mammakarzinoms (n=208; 23,2%), Aderhautmelanoms (n=33; 3,7%), Nierenzellkarzinoms (n=22; 2,5%), neuroendokrinen Karzinoms (NET) (n=48; 5,4%), Magenkarzinoms (n=25; 2,8%), Ovarialkarzinoms (n=30; 3,3%) und nicht-kleinzelligen Bronchialkarzinoms (NSCLC) (n=21; 2,3%). Als Zytostatika wurden Mitomycin C (8 mg/m²), Gemcitabine (1000 mg/m²), Irinotecan (150 mg/m²) und Cisplatin (60 mg/m²) verwendet. Als Embolisat wurden Lipiodol und Microsphären (EmboCept®) verwendet. Mindestens drei TACE Sitzungen pro Patient wurden in vierwöchigen Abständen ambulant durchgeführt. Das radiologische Tumoransprechen wurde mittels Magnetresonanztomographie (MRT) und/oder Computertomographie (CT) bestimmt und nach den RECIST-Kriterien klassifiziert. Das klinische Ansprechen wurde im Verlauf der Behandlung in neoadjuvant, palliativ und symptomatisch eingeteilt. Die Überlebensdaten wurden nach der Kaplan-Meier-Methode berechnet. Ergebnisse: Die Mindestzahl der durchgeführten TACE war drei. Bei 46 Patienten mit CCC wurden bei 11% PR, bei 60,7% SD und bei 28,3% PD bei einer medianen Überlebenszeit von 14,5 Monaten dokumentiert. 2,2% der Patienten wurden neoadjuvant, 73,9% palliativ und 23,9% symptomatisch behandelt. Bei 463 Patienten mit Lebermetastasen des CRC wurden bei 14,7% PR, bei 48,2% SD und bei 37,1% PD dokumentiert. Die mediane Überlebenszeit lag bei 14 Monaten. 12,9% der Patienten wurden neoadjuvant, 72,4% palliativ und 14,7% symptomatisch behandelt. Bei 208 Patienten mit Lebermetastasen des Mammakarzinoms wurden bei 13% PR, bei 50,5% SD und bei 36,5% PD bei einer medianen Überlebenszeit von 18,5 Monaten dokumentiert. Die Patienten wurden zu 18,75% neoadjuvant, zu 15,38% symptomatisch und zu 65,87% palliativ behandelt. Bei Patienten mit Lebermetastasen des Aderhautmelanoms wurden bei 15,2% PR, bei 42,4% SD und bei 42,4% PD dokumentiert. Die mediane Überlebenszeit betrug 18 Monate. Die klinische Situation war zu 3% neoadjuvant, zu 24,2% symptomatisch und zu 72,8% palliativ. Bei Patienten mit Lebermetastasen des Nierenzellkarzinoms wurden bei 13,7% PR, bei 59% SD und bei 27,3% PD bei einer medianen Überlebenszeit von 6,6 Monaten dokumentiert. Die klinische Situation war zu 81,8% palliativ und zu 18,2% symptomatisch. Bei Patienten mit Lebermetastasen des NET wurden bei 18,8% PR, bei 52,1% SD und bei 29,1% PD dokumentiert. 81,2% der Patienten wurden palliativ und 18,8% symptomatisch behandelt. Patienten mit Lebermetastasen des Magenkarzinoms hatten eine mediane Überlebenszeit von 10,5 Monaten. SD wurde bei 60% und PD bei 40% dokumentiert. 76% der Patienten wurden palliativ und 24% symptomatisch behandelt. Bei den Patientinnen mit Lebermetastasen des Ovarialkarzinoms wurden bei 20% PR, bei 26,7% SD und bei 53,3% PD dokumentiert. Die mediane Überlebenszeit betrug 23,7 Monate bei folgendem klinischen Ansprechen: 13,3% symptomatisch und 86,7% palliativ. Für Patienten mit Lebermetastasen des NSCLC wurden bei 14,3% PR, bei 47,6% SD und bei 38,1% PD bei medianer Überlebenszeit von 11,7 Monaten dokumentiert. Die Patienten wurden wie folgend behandelt: 81% palliativ und 19% symptomatisch. Schlussfolgerung: TACE bei primären (CCC) und sekundären (Lebermetastasen verschiedener Primärtumoren) Lebermalignome stellt ein gut verträgliches, minimal invasives, lokoregionales Verfahren dar, das zu einem guten Tumoransprechen, Lebensverlängerung sowie Verminderung der Symptomatik führt.
In dieser Studie konnte deutlich gezeigt werden, dass TS eine größere psychische Belastung vorweisen, als die Norm. Sie neigen stärker zur Somatisierung und sind insgesamt zwanghafter, ängstlicher,aggressiver und depressiver. Dies spricht für eine große psychische Belastung, die am ehesten von den schwierigen Begleitumständen und der enormen Bandbreite einer Geschlechtsidentitätsstörung herkommen. Durch die Reaktionen im privaten und beruflichen Umfeld verändern sich bodenständige Strukturen, wie Verhältnis zu den Eltern, Partnerschaftsverhältnisse und Freundschaften. Ein vermindertes Selbstwertgefühl entsteht konsekutiv aus der sozialen Ausgrenzung und dem langen Verlauf zwischen Diagnosestellung und Therapie mit einem Endergebnis. Das verminderte Selbstwertgefühl spielt eine große Rolle im Hinblick auf die Therapie. Denn 50 % der TM und 100 % der TF korrelieren die Geschlechtsidentität mit dem Äußeren und streben deshalb als Therapieziel eine Geschlechtsangleichung an. Dass in diesen Fällen das Selbstwertgefühl durch eine operative Geschlechtsangleichung gesteigert und deutlich verbessert werden kann konnte jedoch in dieser Studie nicht bewiesen werden. Ob das nun mit oft unzureichenden Operationsergebnissen zusammenhängt bleibt zunächst offen. Green und Blanchard 2000; van Kesteren, Gooren und Megens 1996 belegten bereits, dass nicht alle TS eine Geschlechtsangleichung anstreben. Somit sind diese Ergebnisse relativ konform mit den Ergebnissen dieser Studie. Eine weitere Rolle spielt das elterliche Erziehungs- und Beziehungsverhalten. Die meisten TS haben sowohl zum Vater als auch zur Mutter konflikthafte Beziehungen. Wobei in dieser Studie vor allem imponierte, dass TF ein konflikthafteres Verhältnis vor allem zur Mutter haben und weniger emotionale Wärme erfahren haben. Ob die Geschlechtsidentitätsstörung ursächlich für die konflikthaften Elternbeziehungen ist oder die konflikthafte Elternbeziehung erst durch ein Outcome der TS entstanden ist konnte nicht hinreichend geklärt werden, wäre aber für die Frage der elterlichen Erziehung als Ursache der TS sehr interessant. Des Weiteren konnte diese Studie zeigen, dass es zwischen TF und TM nur einen signifikanten Unterschied gibt und zwar, dass TF weniger emotionale Wärme durch die Mutter erfahren haben. Ansonsten unterscheiden sich TF von TM nicht wesentlich in punkto psychische Belastung, Selbstwertgefühl und Einfluss der elterlichen Beziehung auf die GIS. Weiterhin konnte in dieser Studie belegt werden, dass sich bereits operierte TS von noch nicht operierten TS nicht unterscheiden. Auch hier zeigt sich kein Unterschied im Hinblick auf die psychische Belastung und das Selbstwertgefühl bei bereits noch nicht operierten TS im Vergleich zu bereits operierten. Das Grundleiden bleibt das Gleiche, offen bleibt zu diskutieren, ob ein unzureichendes Operationsergebnis daran Schuld trägt oder die Tatsache, dass viele TS sich nicht nur zu EINEM Geschlecht zugehörig fühlen. Diese Tatsache konnte in dieser Arbeit eruiert werden und sollte weiterhin ein Diskussionspunkt hinsichtlich voreiliger geschlechtsangleichender Therapiemaßnahmen sein. Es gelang bedauerlicherweise nicht signifikante Korrelate/Risikofaktoren in direktem Bezug auf TS zu ermitteln. Die ermittelten signifikanten Korrelate sind nicht spezifisch für das Kollektiv der TS. Somit sind mangelndes Selbstwertgefühl und Attraktivitätsempfinden, sowie zunehmende Unsicherheit und Besorgnis auch begleitende Faktoren in anderen Patientenkollektiven (Tumorpatienten nach OP und Chemo, Brandopfer etc.). Für viele TS wäre es erstrebenswert nicht als „anders“ oder „krank“ gesehen zu werden, um ein höheres Ansehen in unserer Gesellschaft zu gewinnen. Jedoch gäbe es gar keine Unterschiede zu TS, dann würde vielen TS die Behandlungsgrundlage, nämlich eine Geschlechtsangleichung, genommen werden. Wenn auch nicht alle TS an einer Geschlechtsangleichung interessiert sind, gibt es wiederum TS, die auf die Diagnose Transsexualität angewiesen sind. Es gibt keine Diagnose ohne Krankheit und umgekehrt. Standardisierte Persönlichkeitstests sind nicht auf den individuellen Einzelfall zugeschnitten, sondern erfassen allgemeine, generalisierte Parameter. Jeder Fall von Transsexualität ist ein individueller Einzelfall. Ergebnisse eines Standardtests werden sich somit nicht pauschalisieren lassen. Die in o.g. Veröffentlichungen gemachten Angaben zu Transsexuellen sind durch das Sammeln vieler Einzelfälle in einem Zeitraum von mehreren Jahren entstanden (Balint 1960 und Becker 2003). Auf die Schnelle lässt sich da kein Psychopathologisches Profil erstellen. Viele Patienten befinden sich jahrelang vor und nach Geschlechtsangleichenden Maßnahmen in psychologischer Betreuung. Die psychologische Betreuung ist und bleibt somit das non plus ultra im Hinblick auf Diagnostik, Mit-Therapie und eigentlich fast lebenslange Begleitung. Die psychologische Betreuung ist und bleibt somit das non plus ultra im Hinblick auf Diagnostik, Mit-Therapie und eigentlich fast lebenslange Begleitung.
1. Hintergrund und Ziel der Studie: Bei der Thrombolysetherapie des akuten ischämischen Schlaganfalls ist die Dosierung des Thrombolytikums strikt an das Körpergewicht des Patienten gebunden. Dies ist notwendig um die Effektivität der Therapie zu gewährleisten und um das Auftreten von Blutungskomplikationen weitestgehend zu verhindern. Aufgrund unterschiedlichster Faktoren, wie beispielsweise Einschränkungen des Bewusstseinszustands, oder aber Aphasie und Dysarthrie, sind viele potentielle Lyse-Patienten jedoch nicht in der Lage, ihr Körpergewicht dem behandelnden Arzt mitzuteilen. In vielen Fällen fehlen in der Akutsituation die Zeit, sowie die entsprechenden technischen Möglichkeiten, insbesondere bettlägerige Patienten zu wiegen. Folglich wird das Körpergewicht oftmals vom Arzt nach Augenmaß abgeschätzt, was erwiesenermaßen mit Ungenauigkeiten verbunden ist. Ziel der Studie war es, Approximationsmethoden zu entwickeln, die das Körpergewicht des Patienten anhand einfach erhältlicher anthropometrischer Maße zuverlässig zu bestimmen vermögen. 2. Methoden: Auf Grundlage anthropometrischer Daten einer bevölkerungsbasierten Population von 6.954 erwachsenen Probanden wurden, mittels linearer Regression, Approximationsformeln zur Abschätzung des Körpergewichts erstellt. Diese Formeln beinhalteten die Parameter „Körpergröße“, „Bauchumfang“ und „Hüftumfang“, sowie teilweise das Lebensalter der Person. Die verwendeten Parameter stellten allesamt unabhängige Prädiktoren des Körpergewichts dar. Die geschlechtsspezifischen Formeln wurden anschließend anhand einer unabhängigen Gruppe von 178 Patienten (90 Männer, 88 Frauen, Durchschnittsalter: 67,3 Jahre [±15,6 Jahre]) validiert. Einschlusskriterium war hierbei die Verdachtsdiagnose eines Schlaganfalls bei einer notfälligen stationären Aufnahme in die neurologischen Klinik des Klinikums der Johann-Wolfgang Goethe Universität Frankfurt am Main im Zeitraum April bis August 2006. Unter Verwendung des Goldstandards „Wiegung“, wurde die Genauigkeit der anthropometrischen Gewichtsapproximationen mit der Genauigkeit von jeweils zwei unabhängigen visuellen Schätzungen von in der Schlaganfall-Thrombolyse erfahrenen Ärzten verglichen. Für die klinische Nutzung wurden Approximationshilfen (ein Internet-Rechner und Nomogramme) entwickelt, die den Gebrauch der anthropometrischen Approximationsformeln erleichtern sollen. 3. Ergebnisse: Unter Verwendung der anthropometrischen Approximationsformeln konnten genauere Abschätzungen des wahren Körpergewichts erzielt werden, als durch rein visuelle Schätzung. Für die einfachsten und gleichzeitig genauesten Approximationsformeln (Approximationsmodell 1) betrug die durchschnittliche absolute Abweichung vom gewogenem Körpergewicht 3,1 kg (± 2,6 kg). Die Formeln waren somit signifikant genauer als die beiden Schätzungen durch Ärzte (Schätzung 1: 6,5 kg [± 5,2 kg], Schätzung 2: 7,4 kg [± 5,7 kg]; p < 0,001 für die Genauigkeitsvergleiche zwischen der jeweiligen Schätzung und der Approximation). Die Verwendung der Approximationsformeln reduzierte den Anteil aller Schätzungen, die mehr als 10% vom wahren Körpergewicht abwichen, von 31,5% (Schätzung 1) bzw. 40,4% (Schätzung 2) auf 6,2% (Approximationsmodell 1). In lediglich einem Fall (0,6%) wich das approximierte Gewicht mehr als 20% vom wahren Körpergewicht ab, wohingegen dies in 4,6% (Schätzung 1), respektive 8,5% (Schätzung 2) der Fälle für die Schätzungen zutraf. Die Benutzung der auf den Approximationsformeln basierenden Nomogramme führte zu keiner relevanten Verschlechterung der Schätzgenauigkeit (durchschnittliche absolute Abweichung vom gewogenen Körpergewicht 3,11 kg [± 2,69 kg], Anteil der Fehlschätzungen > 10% des Körpergewichts: 7,3%). Mit einer durchschnittlichen absoluten Abweichung vom wahren Körpergewicht von 2,7 kg (± 2,4 kg) und einem Anteil von 3,4% der Gewichtsschätzungen mit einer Abweichung von mehr als 10% vom wahren Gewicht, waren lediglich die Gewichtsangaben der Patienten selbst genauer als die anthropometrischen Approximationen. Die Messung der anthropometrischen Parameter dauerte durchschnittlich 99,5 Sekunden (± 36,7 s), für die Berechnung des Körpergewichts mittels Nomogramm wurden im Durchschnitt 56,7 Sekunden (± 15,3 s) benötigt. Die Übereinstimmung der Messergebnisse zwischen verschiedenen Untersuchern war hoch (Intraclass correlation Coefficients [ICC] für Körperlänge: 0,9978 [95% Konfidenzintervall 0,9954 - 0,9991], ICC für Bauchumfang: 0,9891 [0,9771 - 0,9953], ICC für Hüftumfang: 0,9921 [0,9836 - 0,9966]). 4. Schlussfolgerung: Durch die Verwendung von Approximationsformeln, basierend auf einfach bestimmbaren anthropometrischen Messgrößen (Körperlänge, Bauch- und Hüftumfang) ist es möglich, innerhalb kurzer Zeit eine relativ genaue Abschätzung des Körpergewichts von Schlaganfallpatienten zu erhalten. In Situationen, in denen das Körpergewicht des Patienten nicht umgehend erfragbar oder durch Wiegung bestimmbar ist, kann die vorgeschlagene Approximationsmethode helfen, grobe Schätzfehler und in der Folge Dosierungsfehler bei dosiskritischen Medikamenten zu minimieren.
Der Typ 1 Diabetes ist eine klinisch heterogene Erkrankung. Sowohl die genetischen Faktoren als auch die Umwelt wirken bei der Entstehung der autoimmunologischen Prozesse dieser Erkrankung zusammen. Die Fragestellung der vorgestellten Untersuchung war, inwieweit sich ein Einfluss der exogenen Faktoren auf das Risiko des T1D der Betroffenen äußert und sich nachweisen lässt. Als Determinante der Veränderung der Umwelt diente die Migrationsbewegung der Bevölkerung. Die derzeitige Forschungslage bietet, trotz den seit Jahrzehnten geführten kontroversen Diskussionen dieser Frage, keine Klärung der Kausalitäten in der Pathogenese des T1D. Aus der vorliegenden Arbeit ergibt sich ein Hinweis auf einen möglichen Risikoanstieg von T1D bei Probanden mit einem Migrationshintergrund. Dabei wurden zum Einen die Überlegungen der Hygienehypothese berücksichtigt. Zum Anderen scheint ein Abfall der Vitamin D-Konzentration – aufgrund der geringeren Sonneneinstrahlung, die durch eine meist von Süd nach Nord verlaufende Migrationsbewegung bedingt ist – als ein möglicher Risikofaktor. Untersucht wurde eine Stichprobe von insgesamt 187 Typ 1 Diabetikern. Zur Erfassung der möglichen Maßparameter der gestellten Hypothese wurde ein Fragebogen verwendet und die Befragung fand in Form eines Telefoninterviews statt. Die klinischen Daten wurden den Krankenakten entnommen. Die rekrutierte Gesamtkohorte wurde entsprechend dem Migrationsstatus in Gruppen der Einheimischen aus der Bundesrepublik Deutschland (D), der Migranten (M) und der Kinder von Migranten (KM) getrennt. Für die definierten Teilkollektive konnte ein signifikanter Zusammenhang zwischen dem Migrationsstatus und dem Erkrankungsalter gefunden werden: (D) mit 22 Jahren, (KM) mit 11 Jahren und (M) mit 35 Jahren; p < 0,001. Die beobachtete Verschiebung des Manifestationsalters bei Probanden mit einem Migrationshintergrund könnte auf den Einfluss der Umweltfaktoren bei gegebener genetischer Prädisposition hindeuten und somit die Hypothese dieser Studie bestätigen. Andererseits könnte dieses Phänomen durch die selektive Zuweisung von deutschen/migrierten Patienten in das Diabetestherapiezentrum bzw. die Ambulanz der Universitätsklinik bedingt sein. Der Tabakkonsum konnte als ein Risikofaktor nicht bestätigt werden. Desweiteren entwickelte die meist gefährdete Gruppe „Kinder von Migranten“ den Diabetes bevor ein Einstieg ins Raucherleben stattfand (Manifestationsalter bei (KM): 11 Jahre vs. durchschnittliches Einstiegsalter ins Rauchen 11,6 Jahre). Die Belastung durch das Passivrauchen im elterlichen Haushalt unterschied sich weder in Bezug auf den Gruppenvergleich, noch zur Allgemeinbevölkerung. Es wurde eine geringere Prävalenz von zusätzlichen Erkrankungen unter den Migranten in der zweiten Generation beobachtet, die wahrscheinlich auf dem allgemein jüngeren Alter der Probanden beruht. Im Gegensatz dazu ist die Verteilung der Autoimmunopathien zwischen den Gruppen gleich. Die autoimmune Thyreoiditis kommt am häufigsten vor und betrifft fast ausschließlich die Frauen. Aufgrund des höheren Alters bei der Manifestation des T1D unter den männlichen Probanden kann das männliche Geschlecht als ein Risikofaktor in dieser Studie nicht bestätigt werden. Das Alter der Eltern bei der Migration scheint ebenso, wie der Abstand zwischen der Migration und der Schwangerschaft bzw. der Geburt des Kindes, keinen Einfluss auf das Risiko einer früher einsetzenden Diabetesmanifestation bei den Kindern zu spielen. Ein Vitamin D-Mangel wurde bei den einheimischen Patienten mit T1D nicht so häufig wie bei solchen mit Migrationshintergrund beobachtet, was ein höheres Risiko in der letzteren Gruppe bedingen könnte. Dies muss jedoch an einer größeren Stichprobe untersucht werden. Die vorgelegte Untersuchung ist deshalb ein Pilotprojekt einer größer angelegten Folgestudie.
Ziel der vorliegenden Arbeit war es, Qualität und Struktur der notärztlichen Versorgung von Patienten mit akutem Koronarsyndrom im Rahmen des „Netzwerks Herzinfarkt“ im Zeitraum vom 01.04. – 31.12. 2003 zu beurteilen. Hierzu wurden aus den von der Rettungsleitstelle zur Verfügung gestellten Daten 1588 Notarzteinsätze ausgewählt, die dem Notruf nach einem akuten Koronarsyndrom entsprechen könnten. Aus diesen 1588 Einsatzprotokollen wurden 506 herausgefiltert, bei denen die notärztliche Diagnose tatsächlich einem akuten Koronarsyndrom entsprach; diese wurden der definitiven Bearbeitung zugeführt. Zunächst wurde die gesamte Dokumentation im DIVI-Einsatzprotokoll auf Vollständigkeit und Schlüssigkeit überprüft, in einem zweiten Schritt dann die Qualität der medikamentösen und Basisversorgung der Patienten beurteilt. In diesen Bereichen waren die wesentlichen Ergebnisse die ausgesprochen ungenaue Dokumentation der Einsatzzeiten sowie der Anamnese und die in 37,5% aller Fälle fehlende Anfertigung eines 12-Ableitungs-EKG´s. Bei der Therapie fiel ein allgemein sehr zurückhaltender Einsatz von Betablockern, ASS und Heparin auf. Ein Vergleich der präklinisch als akuter Myokardinfarkt diagnostizierten Patientengruppe mit der restlichen Stichprobe erbrachte keine signifikanten Unterschiede bezüglich der untersuchten Parameter. Die Sensitivität der notärztlichen Infarktdiagnostik betrug 98,4%, die Spezifität 78,6%. Die benötigten prästationären und innerklinischen Zeiten (Arztkontakt bis zur Einlieferung, contact-balloon, door-balloon-Zeit) blieben im Rahmen bzw. deutlich unter den von den Leitlinien der Deutschen Gesellschaft für Kardiologie geforderten Zeiten. Im Follow-Up-Beobachtungszeitraum (6 Monate) wiesen 97,6% der Rettungsdienstpatienten ein komplikationsloses Überleben auf. Signifikante Ergebnisse konnten bei der Evaluation der Bedeutung der notärztlichen Fachrichtung für die Behandlungsqualität gezeigt werden. So schnitten die Einsatzprotokolle von Chirurgen und Allgemeinmedizinern in der durchgeführten allgemeinen Beurteilung deutlich schlechter ab als die der Internisten und Anästhesisten. Dieser Trend bestätigte sich auch in der konkreten Analyse der medikamentösen Therapie, jeweils gemessen an den gültigen Leitlinien. Insgesamt war die Qualität der notärztlichen Behandlung der Patienten mit akutem Koronarsyndrom als in den genannten Punkten verbesserungsbedürftig, in den übrigen Parametern jedoch als gut anzusehen. Insbesondere im Hinblick auf die notärztliche Fachrichtung scheint eine strukturiertere Weiterbildung zum Erwerb der Zusatzbezeichnung „Notfallmedizin“ empfehlenswert. Die niedrige Komplikationsrate der präklinisch als akuter Myokardinfarkt diagnostizierten und direkt ins Interventionszentrum verbrachten Patienten im Follow-Up-Zeitraum und der deutliche Unterschied zu den Transferpatienten illustriert den Behandlungsbenefit, der aus einer verzögerungsfreien interventionellen Therapie des akuten Myokardinfarkts resultiert.
Die Rolle von Antiepileptika im Zusammenhang mit dem Auftreten letaler kardialer Arrhythmien wird kontrovers diskutiert. Zum aktuellen Zeitpunkt ist bei Patienten mit Epilepsie die Ursache für die im Vergleich zur Normalbevölkerung erhöhte Mortalität nicht hinreichend geklärt. Die Ätiologie und Pathophysiologie des Sudden unexpected death in epilepsy patients (SUDEP) ist nur teilweise bekannt, wodurch die Durchführung präventiver Maßnahmen nur bedingt möglich ist. Es konnten bestimmte Risikofaktoren für das Auftreten eines SUDEP identifiziert werden, wobei unter anderem die antikonvulsive Polytherapie einen unabhängigen Risikofaktor darstellt. Bezüglich der pathogenetischen Mechanismen spielen neben der Entstehung eines neurogenen pulmonalen Ödems und einer zentralen Apnoe auch kardiale Arrhythmien eine bedeutende Rolle. Valproinsäure als ein sehr häufig eingesetztes Antiepileptikum wird verdächtigt, eine Verlängerung der QT-Zeit im Elektrokardiogramm (EKG) zu bewirken. Eine Verlängerung der Plateauphase des Aktionspotentials führt zu einer instabilen Repolarisation, wodurch einfallende frühe Nachdepolarisationen bereits wieder ein Aktionspotential auslösen können. Ein erworbenes Long-QT-Syndrom (LQTS), zu dem auch die medikamentenbedingte QT-Verlängerung zählt, birgt das Risiko, durch die Auslösung von Herzrhythmusstörungen im Sinne von Torsade de Pointes an einem plötzlichen Herztod zu versterben. Im Rahmen dieser prospektiven Studie wurden 50 Kinder mit Epilepsie unter der Therapie mit Valproinsäure bezüglich des Auftretens kardialer Nebenwirkungen untersucht. Das Studienprotokoll beinhaltete ein standardisiertes EKG mit Bestimmung der Zeiten, Lagetypen, Hypertrophie- und Schädigungszeichen. Parallel wurde die Dosierung von Valproinsäure und deren Plasmaspiegel bestimmt. Ziel der vorliegenden Arbeit war es herauszufinden, ob die antikonvulsive Therapie mit Valproinsäure durch die Auslösung eines medikamentenbedingten LQTS zu einem erhöhten kardialen SUDEP-Risko bei pädiatrischen Epilepsiepatienten führen könnte. Die 25 weiblichen und 25 männlichen Patienten im mittleren Alter von 12,2 Jahren wurden wegen verschiedener Epilepsieformen behandelt. Sie nahmen Valproinsäure durchschnittlich über eine Zeitdauer von 5,8 Jahren ein (Range 3 Monate bis 32 Jahre), wobei 58% eine Monotherapie, 26% in Zweier- und 16% eine Dreier-56 Kombinationstherapie erhielten. Die durchschnittliche Dosierung lag bei 26,6 mg/ kgKG/ Tag (Range 10,5 bis 63,8 mg/ kgKG/ Tag), der im Plasma gemessene Valproinsäure-Spiegel zwischen 19,7 und 147,4 μg/ml (Mittelwert 88,8 ± 24,3 μg/ml; Median 91 μg/ml). Die gemessenen EKG-Zeiten lagen alle im altersentsprechenden Normbereich: --> PR-Intervall: Range 100-170 ms, Median: 124 ms, Mittelwert: 126,7 ± 18,5 ms --> QRS-Dauer: Range 56-108 ms, Median 79 ms, Mittelwert 79,94 ± 11,3 ms --> QT-Zeit: Range 264-400 ms, Median 348 ms, Mittelwert 343,34 ± 35,9 ms -->QTc-Zeit (Normwert < 440 ms bei Jungen und < 460 ms bei Mädchen): Range 377-433 ms, Median 403 ms, Mittelwert 402,9 ± 11,1 ms. Bezüglich der Lagetypen fanden sich bei 42% ein Indifferenz-, bei 46% ein Steil- und bei 8% ein Linkstyp. Bei einem Patienten mit Tuberöser Sklerose lag ein Rechtstyp vor. Dieser wies einen vollständigen Rechtsschenkelblock auf, welcher bei Zustand nach reseziertem Rhabdomyom des rechten Ventrikels durch die operative Durchtrennung des Reizleitungssystems verursacht wurde. Den Ergebnissen dieser Untersuchung zufolge lassen sich bei Kindern unter Therapie mit Valproinsäure keine Veränderungen im EKG, insbesondere keine QT-Verlängerungen, als möglicher Risikofaktor für eine kardiale Arrhythmie nachweisen. Aus diesen Daten lässt sich schlussfolgern, dass dieses Antiepileptikum nicht das Risiko erhöht, an einem QT-bedingten SUDEP zu versterben. Trotz eines erhöhten Risikos unter einer antiepileptischen Polytherapie kann bisher nicht von einer erhöhten Inzidenz durch die Therapie mit einem bestimmten Antikonvulsivum ausgegangen werden. Weitere Untersuchungen sind notwendig, um die Rolle der einzelnen Pharmaka in diesem Zusammenhang besser einschätzen zu können. Bisher ist davon auszugehen, dass eine gute Anfallskontrolle das SUDEP-Risiko entscheidend verringert. Bis der Pathomechanismus des SUDEP detaillierter geklärt ist, gelten eine Optimierung der antiepileptischen Therapie und eine Vermeidung von bisher bekannten Risikofaktoren als sinnvollste präventive Maßnahmen. Abschließend ist festzuhalten, dass sich im Rahmen dieser Untersuchung bei Kindern unter antikonvulsiver Therapie mit Valproinsäure kein Hinweis auf QT-Verlängerungen als möglicher Risikofaktor für einen SUDEP fand.
Die minimalinvasive Herzchirurgie ist an der Universität Frankfurt seit Ende der 90er Jahre ein etabliertes Verfahren zur Therapie von Mitralklappenvitien. Dabei kommen die rechtslaterale Minithorakotomie und die partielle oberer Sternotomie mit Verwendung der Herz-Lungen-Maschine zum Einsatz. In der Klinik für Thorax-, Herz- und thorakale Gefäßchirurgie in Frankfurt wurde von Januar 1998 bis Dezember 2005 bei 331 Patienten die Mitralklappe rekonstruiert bzw. ersetzt, und zwar über die rechtsseitige Minithorakotomie in 231 Fällen, über die partielle Sternotomie bei 100 Patienten. Ziel der vorliegenden Studie war die Evaluierung perioperativer und postoperativer Komplikationen. Perioperativ starben lediglich in der Chitwood-Gruppe 3 Patienten. Das Langzeitüberleben beider Gruppen nähert sich dem der Normalbevölkerung. Hinsichtlich des Zieles dieser Operationen, die Wiederherstellung der Funktion der Mitralklappe, wurden an der Universität Frankfurt, im Vergleich mit bereits vorliegenden Studien, ähnlich gute Ergebnisse erzielt. Früh- und Spätkomplikationen traten bei beiden Operationsverfahren selten auf. Dies wird vor allem an der geringen Reoperationsrate deutlich. Bei der Nachuntersuchung zeigten sich im Vergleich zum präoperativen Zustand der Patienten hochsignifikante Verbesserungen hinsichtlich NYHA-Klassifikation, also der allgemeinen Leistungsfähigkeit. Die erfassten Patienten konnten auch von der Verbesserung der Ventrikelfunktionsparameter profitieren, worin sich die beiden Gruppen nicht unterschieden. Obwohl die postoperativen Ergebnisse gut waren, gilt doch hervorzuheben, dass es zu einigen Problemen gekommen ist: 6 Patienten der Chitwood-Gruppe, deren Mitralklappe mit Hilfe einer Fraterplastik rekonstruiert wurde, mussten reoperiert werden. Daher wurde die Technik der Fraterplastik seit März 2003 nicht mehr eingesetzt. Die dargestellten Ergebnisse aus der Literatur belegen die Effektivität der beiden minimalinvasiven Therapieformen im Hinblick auf Überleben, spätere Leistungsfähigkeit sowie peri- und postoperativer Komplikationen. Beide Methoden haben bewiesen, für ausgewählte Patienten eine sichere Alternative zur medianen Sternotomie zu sein. Durch die Komplexität des Verfahrens nach Chitwood werden heute die meisten minimalinvasiven Eingriffe über die partielle obere Sternotomie durchgeführt. Inzwischen wurde ihre Anwendbarkeit auf Notfallpatienten und Kombinationseingriffe an den Herzklappen ausgeweitet.
Die arterielle Hypertonie stellt einen bedeutenden Risikofaktor für kardiovaskuläre Erkrankungen dar, ihrer Therapie kommt daher ein hoher Stellenwert zu. Die Medikamentengruppe der Betablocker ist traditionell ein wichtiger Teil der medikamentösen Therapie, in dieser Arbeit wurde untersucht, inwiefern weiterhin ein Einfluss auf die diastolische Funktion, die Leistungsfähigkeit und die Sekretion der natriuretischen Peptide ANP und BNP besteht. Insgesamt wurden 102 Hypertoniepatienten mit zwischen 25 und 75 Jahren untersucht, alle Patienten hatten eine erhaltene systolische linksventrikuläre Pumpfunktion. Es erfolgte ein Gruppenvergleich zwischen den Patienten, die einen Betablocker einnahmen (n = 56) oder nicht (n = 46). Alle Patienten unterzogen sich eine Anamnese, einer Spiroergometrie, einer Echokardiographie samt Bestimmung der diastolischen Funktion und einer Lungenfunktionsprüfung. Laborchemisch wurden unter anderem die Hormone proANP und NT-proBNP erhoben. Zwischen den beiden Gruppen gab es keine signifikanten Unterschiede hinsichtlich Alter, Geschlecht, NYHA-Klasse oder den kardiovaskulären Risikofaktoren. Bei den Patienten ohne Betablocker bestand mit 21,4 % vs. 6,5 % (p = 0,034) signifikant häufiger die Diagnose einer koronaren Herzerkrankung. Bei der Begleitmedikation gab es keine relevanten Unterschiede in Bezug auf die Substanzen oder die Dosierung. Echokardiographisch ergab sich keine Gruppendifferenz für die diastolische Funktion. In der Spiroergometrie zeigte sich unter Betablockertherapie mit 118 vs.142 Watt (p = 0,019) ein Unterschied in der erreichten Leistung, die maximale Herzfrequenz war mit 128 vs. 142/Min (p < 0,001) ebenfalls erniedrigt. Die systolische Blutdrucksenkung war mit Betablockern sowohl in Ruhe (127 vs. 134 mmHg, p = 134) als auch unter Belastung effektiver. Mit 0,28 vs. 0,25 ml/kg (p = 0,002) war der Sauerstoffpuls pro Kg fettfreien Körpergewichts als Maß für das Schlagvolumen unter Betablockern erhöht. Bei den Patienten unter Betablocker-Medikation waren die Serum-Werte für sowohl proANP (2892 vs. 1839, p < 0,001) als auch NT-proBNP (107 vs. 39, p < 0,001) signifikant erhöht. In der multivariaten Analyse ergaben sich unter Betablockern für ANP das Alter und der HbA1c als unabhängige Prädiktoren, für BNP sind es die NYHA-Klasse und eine Mikroalbuminurie. Ohne Betablocker haben für ANP das Alter und die Belastbarkeit eine unabhängigen prädiktiven Wert, für BNP sind es das HDL, die Größe es linken Atriums und die Belastbarkeit. In Konklusion trägt die Einnahme von Betablockern zu einer effektiveren Blutdrucksenkung bei, vermindert die Belastbarkeit und senkt die Herzfrequenz. Einen Einfluss auf die diastolische Funktion konnten wir nicht zeigen. Die natriuretischen Peptide ANP und BNP sind unter Betablockade erhöht.
Nachweis von fetaler DNA (Rhesus-Gene) im maternalen Plasma mittels verschiedener Nachweismethoden
(2010)
Die Entdeckung zellfreier fetaler DNA im maternalen Plasma führte in der noninvasiven Pränataldiagnostik zu neuen Methoden. Dazu gehört die PCR-Testung von cffDNA, die eine verlässliche non-invasive diagnostische Methode für ein antenatales Screening von Rh-negativen Schwangeren bietet. Die Ergebnisse dieser Studie zeigen, dass anhand einer automatisierten Extraktion fetaler DNA - in Verbindung mit einer PCR - eine zuverlässige Vorhersage des fetalen Rhesus-Faktors bzw. Geschlechts möglich ist. Dies wurde durch die Untersuchung von 25 Rh-negativen Schwangeren verifiziert. Mit der FACS™-Methode, die als Alternative bei der Bestimmung des Rh-Faktors untersucht wurde, konnten - aufgrund der unspezifischen Bindung des FITC-Antikörpers - keine hinreichenden Ergebnisse erzielt werden. Anhand des verwendeten Extraktionsautomaten (chemagic® MSM I) konnte mit hoher Effizienz fetale DNA isoliert werden. Die untersuchten manuellen Extraktionsverfahren hingegen erwiesen sich für einen antenatalen Massentest bzw. die Implementierung in die klinische Routine als eher ungeeignet, da diese zum einen mit einem erhöhten Zeitaufwand verbunden waren, und zum anderen die isolierte Menge an cffDNA für eine PCR-Testung nicht ausreichte. Die Anzahl der maternalen Plasmaproben, die in dieser Arbeit untersucht wurden, reicht nicht aus um zu belegen, dass die untersuchten Methoden die gleiche Sicherheit bieten, wie die generelle Immunprophylaxe. Daher sind weitere groß angelegte Feldstudien notwendig.
Die Hämodialyse ist ein etabliertes Verfahren zur Behandlung der terminalen Niereninsuffizienz. Sowohl in Deutschland, als auch international, ist eine Zunahme der Erkrankungshäufigkeit für die terminale Niereninsuffizienz festzustellen, in erster Linie aufgrund einer diabetischen oder hypertonen Nephropathie. Die arteriovenöse Fistel (AVF) hat sich als beste Form des Gefäßzuganges für die Hämodialyse erwiesen. Eine mögliche Komplikation der AVF ist das Dialyseshunt assoziierte Steal-Syndroms (DASS). Die Inzidenz des DASS wird in der Literatur mit 1-8% angegeben, als Risikofaktoren gelten unter anderem Alter und Diabetes mellitus- gerade die Faktoren, die auch für die Zunahme der Nierenerkrankungen verantwortlich sind. Daher ist für die Zukunft mit einem Anstieg der Inzidenz für das DASS unter den über einen Shunt dialysierten, terminal niereninsuffizienten Patienten zu rechnen. Die einzig erfolgsversprechende Behandlung des DASS erfordert ein chirurgisches Vorgehen, andernfalls drohen irreversible trophische Störungen. Ziel der Therapie ist die Beseitigung der Ischämie unter Erhalt der Shuntfunktion. In der vorgestellten Bi-Centerstudie konnten 76 DRIL- Prozeduren ausgewertet werden, die zwischen Mai 1996 und Januar 2008 in der Klinik für Gefäß- und Endovascularchirurgie der Johann Wolfgang Goethe-Universität Frankfurt und in der Chirurgischen/Gefäßchirurgischen Klinik des St. Martinus- Hospitals Olpe an 69 Patienten durchgeführt worden sind. Dabei konnte gezeigt werden, dass die erstmals von Schanzer et al. 1988 beschriebene DRIL- Prozedur geeignet ist, dieses Therapieziel auch langfristig zu erfüllen. Die kombinierte Offenheitsrate sowohl des DRIL- Bypasses als auch des Shunts post DRIL-Prozedur mit Regression oder Beseitigung der Ischämiesymptomatik betrug nach 6 Monaten 89,5%, nach 12 Monaten 80,2% und nach 5 Jahren 60,8%. Die theoretischen Überlegungen zum Verständnis der beim DASS vorliegenden hämodynamischen Verhältnisse erklären die Effektivität der Prozedur und die Überlegenheit gegenüber anderen Verfahren. Schlussfolgerung: Trotz des überwiegend betroffenen multimorbiden Patientenguts ist die technische Durchführbarkeit der DRIL-Prozedur erprobt, sicher und führt zum prompten und nachhaltigen Verschwinden der Ischämiebeschwerden, ohne die Shuntfunktion zu kompromittieren. Aus diesem Grund gehört die DRIL- Prozedur in das Portfolio jedes Shuntchirurgen.
Hintergrund: Untersuchungen bezüglich Tablettenlast, Sturzereignisse und unangemmessener Dosierung bei Niereninsuffizienz wurden bei Patienten in Pflege-und Altenheimen durchgeführt. Daten von Heimbewohnern im zunehmenden ambulanten Pflegebereich, speziell aus Deutschland wurden hier erörtert. Material und Methoden: Wir evaluierten Patienten, die täglich durch einen ambulanten Pflegedienst versorgt wurden (Kohorte 1, N=102, Alter: Median 80 Jahre) oder Pflege ausschließlich von Angehörigen erhielten (Kohorte 2, N=102, Alter: Median 76 Jahre) an V1 als Ausgangspunkt, nach 6 Monaten (V2) und 12 Monaten (V3). Ergebnisse: An Visite 1 wiesen die Patienten aus Kohorte 1 im Median 5 (range 3-15), an Visite 3 im Median 6 (range 3-17) Verordnungen auf. Es konnten keine Unterschiede bezüglich der Anzahl und des Verordnungsmusters zwischen beiden Kohorten beobachtet werden. An Visite 1 war bei 30/102 Patienten aus Kohorte 1 ein Kreatininwert vorhanden, welcher innerhalb der letzten 6 Monate erhoben wurde, 13/30 Patienten wiesen eine eGFR < 50 ml/min. auf. 6/34 Medikamenten, welche der Anpassung an die Nierenfunktion bedürfen, wurden nicht angemessen dosiert. Seltene Kontrollen der Nierenfunktion und nicht angemessene Dosierung wurden auch an anderen Visiten und ferner bei Kohorte 2 beobachtet. Innerhalb eines Jahres 29/75 mobilen Patienten aus Kohorte 1 hatten ein Sturzereignis, 18/29 dieser Patienten wiesen eine regelmäßige Verordnung von Benzodiazepinen auf, während ein Benzodiazepin bei 6/46 Patienten regelmäßig verordnet wurde, welche kein Sturzereignis aufwiesen (Chi-test p= 0.004). In Kohorte 2 war die Anzahl der gestürzten Patienten geringer (19/84 mobilen Patienten, p= 0.028). 11/19 Patienten hatten eine Benzodiazepinverordnung, im Gegensatz zu 5/65 Patienten, die nicht gestürzt sind (Chi-test p=0.001). Schlussfolgerung: Es muss geklärt werden, ob ein Pflegedienst zur Arzneimitteltherapiesicherheit der Patienten beitragen kann, z. B. durch Überprüfung der Medikamentenpläne und Organisation zusätzlicher Laborwertkontrollen.
Diese retrospektive Aktenstudie hatte die Zielsetzung, diejenigen Mütter von
frühgeborenen Kindern mit einem Gestationsalter von 25 bis einschließlich 30 Wochen
zu identifizieren, die bezüglich der Muttermilchernährung und des Stillen, sowie der
Entwicklung des Trinkverhaltens besondere Unterstützung während des stationären
Aufenthalts benötigen.
Insgesamt werden in den Jahren 2003 bis 2005 an der Universitätskinderklinik 143
Kinder im Alter von 24 bis 30 Schwangerschaftswochen behandelt.
Auf 72 dieser Kinder trafen die Einschlusskriterien der Studie zu: Geburtsalter von 25
bis 30 Schwangerschaftswochen, ein Geburtsgewicht von größer 600g, keine
Fehlbildungen, sowie geboren in der Universitätsklinik Frankfurt am Main und gesund
nach Hause entlassen, keine mütterlichen oder kindlichen Kontraindikationen zum
Stillen, mütterliche Bereitschaft zum Stillen.
Bei diesen Kindern wurden nun anhand der Krankenakten verschiedene Charakteristika
notiert und analysiert.
Sie wurden zum einen bezüglich der Muttermilchernährung, sowie zum anderen
aufgrund der Entwicklung des Trinkverhaltens in Gruppen eingeteilt.
Anschliessend wurden die Gruppen miteinander verglichen und die signifikanten
Unterschiede herausgearbeitet.
Zunächst wurde ein Vergleich zwischen den Mutter-Kind-Paaren mit einer
erfolgreichen und denjenigen mit einer nicht-erfolgreichen Muttermilchernährung
durchgeführt.
Wir definierten die erfolgreiche oder nicht erfolgreiche Muttermilch-Ernährung über
den Anteil der Muttermilch an der Ernährung am Entlassungstag.
Bei den erfolgreichen Mutter-Kind-Paaren war dieser Anteil größer gleich 80% der
Nahrung, bei den nicht erfolgreichen kleiner gleich 20%.
Von den 72 auswertbaren Kindern konnten 43% (n=31) der erfolgreichen und 39%
(n=28) der nicht-erfolgreichen Gruppe zugeordnet werden. 18% (n=13) der Kinder
waren nicht-klassifizierbar, da ihr Muttermilchanteil am Entlassungstag zwischen 20%
und 80% lag.
Es zeigten sich insbesondere signifikante Unterschiede bei den mütterlichen
Charakteristika. Die erfolgreichen Mütter waren älter, kamen an mehr Tagen zu Besuch
und führten mehr Känguruhpflege durch. Bei der Herkunft der Mütter zeigte sich, dass
in der Gruppe der erfolgreichen Mutter-Kind-Paare weniger Mütter mit einem anderen
ethnischen Hintergrund waren, als in der nicht-erfolgreichen Gruppe. Bezüglich der
kindlichen Charakteristika konnte festgestellt werden, dass in der erfolgreichen Gruppe
weniger Kinder an einer nekrotisierenden Enterokolitis erkrankten, als in der nichterfolgreichen
Gruppe.
Die beiden Gruppen unterschieden sich nicht in den kindlichen Charakteristika
Gestationsalter, Geburtsgewicht und der initialen Erkrankungsschwere.
Bei der Entwicklung des Trinkverhaltens wurde die Gruppe der 72 Kinder bezogen auf
den Zeitpunkt „gesamte Nahrungsmenge getrunken“ unterteilt. Es wurden zwei
Gruppen gebildet: die erste beinhaltete die Kinder, die die gesamte Nahrungsmenge zu
einem frühen Zeitpunkt getrunken haben, mit einem Alter von weniger als 36 Wochen,
dies waren 22 Kinder (31%). Die zweite Gruppe enthielt die Kinder die diesen
Zeitpunkt später erreichten, in einem Alter größer 36 Wochen, diese Gruppe bestand aus
34 Kindern (47%). Die übrigen 16 Kinder (22%) erreichten diesen Zeitpunkt mit einem
Alter von genau 36 Wochen.
Hier wurden ebenfalls die kindlichen und mütterlichen Charakteristika beider Gruppen
miteinander verglichen und die signifikanten Unterschiede herausgearbeitet.
Es zeigte sich, dass die Erkrankungsschwere in der späten Gruppe deutlich höher war,
als in der frühen Gruppe. So verbrachten die Kinder die früh die gesamte
Nahrungsmenge getrunken haben, deutlich weniger Tage auf der Intensivstation,
wurden an weniger Tagen beatmet und hatten einen niedrigeren CRIB-Score. Zudem
erkrankte in der frühen Gruppe kein Kind an einer Bronchopulmonalen Dysplasie,
während dies in der späten Gruppe neun der Kinder betraf. Weitere Auffälligkeiten
zeigten sich bei den mütterlichen Merkmalen, die Mütter in der frühen Gruppe führten
an deutlich weniger Tagen die Känguruhpflege durch und wurden seltener per
Kaiserschnitt entbunden als die Mütter der späten Gruppe.
Bezüglich der Charakteristika Gestationsalter, Geschlechtsverteilung, Alter der Mutter,
Herkunft der Mutter, Erstschwangerschaft, Besuchstage, sowie erfolgreiche
Muttermilchernährung zeigte sich kein signifikanter Unterschied.
In dieser Studie zeigt sich also, dass sowohl die jüngeren als auch ausländischen Mütter
mehr Unterstützung bei der Durchführung einer erfolgreichen Muttermilchernährung
benötigen. Zudem wurde deutlich, dass es bei kranken Kindern schwieriger ist, diese
aufrechtzuerhalten als bei gesunden Kindern. Hier bedarf es ebenfalls einer besonderen
Unterstützung der Mütter durch das Fachpersonal auf der Station.
Die Känguruhpflege hat einen positiven Einfluss auf die Muttermilchernährung und die
Wichtigkeit dieser Pflege sollte den Eltern nochmals verdeutlicht werden. Zudem
sollten Eltern, die diese Methode bisher weniger durchgeführt haben, davon überzeugt
und bei der Durchführung verstärkt unterstützt werden.
Es ist außerdem wichtig den Müttern eine Möglichkeit zu geben ihre Sorgen und Ängste
insbesondere bezüglich des Stillens und der Känguruhpflege zu äußern, so dass diesen,
wenn möglich, entgegengewirkt werden kann.
Ein Ansatzpunkt wäre beispielsweise mehr Privatssphäre, gerade für die Mütter, die aus
Scham oder kulturell-religiösem Hintergrund in der Öffentlichkeit der Station die
Känguruhpflege oder das Stillen nicht durchführen. Dabei sollte jedoch nie die
Sicherheit der kleinen Patienten vernachlässigt werden.
Bei der Entwicklung des Trinkverhaltens spielen vor allem kindlichen Faktoren eine
Rolle welche durch das Personal kaum zu beeinflussen sind.
Daher besteht eine der wenigen Möglichkeiten darin, Mütter mit besonders kranken
Kindern, verstärkt bei den Trinkversuchen ihres Kindes anzuleiten, um den Übergang
von der Sondenernährung zum Trinken eventuell zu erleichtern.
Hier könnte den Müttern gezeigt werden, wie sie während des Känguruhens durch
Stimulationen ihres Kindes die Koordination von Atmen, Saugen und Schlucken
fördern und damit das Trinkverhalten verbessern.
Zudem werden Mütter, deren Kinder später trinken, häufig per Kaiserschnitt entbunden.
Auch hier gilt es, Überlegungen anzustellen, wie ein möglichst früher Kontakt
hergestellt werden kann.
Die Muttermilchernährung trägt zu einer gesunden Entwicklung der Kinder bei und
sollte das angestrebte Ziel sein. Deswegen sollte immer versucht werden sie im Rahmen
der Möglichkeiten zu fördern.
Das West-Nil-Virus (WNV) gehört zur Gruppe des Japan-Enzephalitis-Serokomplexes der Flaviviren, welches in Afrika, Asien und Mittleren Osten sowie in Süd- und Osteuropa seine Verbreitung findet. Das unerwartete Auftreten des Erregers in den USA (New York, 1999) bedingte eine große Zahl an transfusions- sowie transplantations-assoziierten WNV-Infektionen. Derzeit liegen keine Erkenntnisse über die Verbreitung des WNV in der deutschen Blutspenderpopulation vor. Aus diesem Grund war das Ziel dieser Arbeit die Bestimmung der Prävalenz und Inzidenz des Erregers zur Einschätzung der Gefahr von transfusions-assoziierten WNV-Infektionen. Zunächst wurde zur Bestimmung der Prävalenz des Erregers die Sensitivität und Spezifität verschiedener ELISAs (Panbio, Focus und Euroimmun) für die WNV-Antikörpertestung bestimmt. Es zeigte sich, dass WNV starke Kreuzreaktionen mit dem für unsere Breiten relevanten Frühsommer-Meningoenzephalitis-Virus (FSME) aufweist. Aus diesem Grund wurde zusätzlich ein FSME-ELISA sowie als Bestätigungstest ein Neutralisationstest verwendet und ein Testalgorithmus entwickelt. Für die Bestimmung der Inzidenz wurde auf den Grundlagen von Hadfield eine WNV-Reverse Transkriptase-PCR (RT-PCR) entwickelt und etabliert. Die 95% Nachweisgrenze wurde nach der Entwicklung der RT-PCR auf 54Kop./ml WNV-RNA bezogen auf eine Einzelprobe in einem Minipool bestehend aus acht Blutspenden bestimmt. Das Konfidenzintervall beträgt (CI): 42; 6 - 79; 92 Kopien/ml. Zudem wurde die Sensitivität der automatischen Extraktion mittels des auf magnetischen Festphasen beruhenden Separationsmoduls I mit der WNV-RT-PCR ermittelt. Die 95% Nachweisgrenze lag bei 225Kop./ml WNVRNA((CI): 168; 5 - 314; 3 ) bezogen auf eine Einzelprobe in einem Minipool bestehend aus acht Blutspenden. Aufgrund der etwas schlechteren Sensitivität wurde für die Bestimmung der Inzidenz die manuelle Extraktion durchgeführt. Zudem wurde das kommerzielle WNV Procleix Assay der Firma Chiron verwendet, um alle bisher in Europa aufgetretenen WNV-Stämme zu erfassen. Im Sommer 2004 wurde zunächst die Prävalenz des WNV bestimmt. Hierfür wurden 14:000 aus Hessen stammende Blutspenden von gesunden Spendern untersucht. Initial zeigte sich eine hohe Rate an anti-WNV reaktiven (5; 9 %) Blutspenden, wobei nur 0; 03% der Blutspenden im Neutralisationstest als Anti-WNV positiv bestätigt worden. 0; 15% der bestätigten anti-WNV positiven Blutspenden waren hierbei am ehesten mit Reisen in WNV-Epidemiegebiete assoziiert. Die Bestimmung der Inzidenz erfolgt im darauf folgendem Jahr durch die Untersuchung von 10:976 Blutspenden zusammengefasst in 1:372 Minipools mittels WNV RT-PCR. Von 1:372 Minipools wurden 1:247 Minipools mit dem Procleix WNV Assay untersucht. Beide Untersuchungsmethoden konnten keine WNV-positive Blutspende nachweisen. Insgesamt scheint das WNV -wenn überhaupt- nur in verschwindend geringem Maße in der deutschen Blutspenderpopulation zu exisitieren. Somit besteht derzeit keine Gefahr für transfusions-assoziierte WNV-Infektionen. Dennoch wurden importierte WNV-Infektionen aus Endemiegebieten in Deutschland beschrieben. Durch weitere Veränderungen der klimatischen Gegebenheiten wäre die Einschleppung des WNV nach Deutschland in Zukunft durchaus denkbar. Hierfür steht nun eine für das Spenderscreening taugliche Real-time PCR zür Verfügung, so dass jederzeit ein Blutspenderscreening auf WNV eingeführt werden kann.
Schlangengifte enthalten einen ganzen Arzneischrank voller hochwirksamer Stoffe, die binnen kurzer Zeit zu Schock, Lähmung oder unstillbaren Blutungen führen können. Forscher interessieren sich vor allem für Verbindungen, welche die Blutgerinnung hemmen, denn sie könnten pharmakologisch interessante Leitstrukturen für neue Wirkstoffe sein, die das Risiko eines Herzinfarkts, Gehirnschlags und anderer Thrombosen mindern.
Patienten, die sich einer elektiven Operation unterziehen müssen und an einer Leberzirrhose als Vorerkrankung leiden, haben ein deutlich erhöhtes Risko für die Entwicklung postoperativer Komplikationen. Die Auswirkungen einer vorbestehenden Leberzirrhose und/oder eines Alkoholabusus (als typischer Riskofaktor für die Entwicklung einer Leberzirrhose) auf das Outcome schwerverletzter Patienten wurden in der folgenden Studie, unter Berücksichtigung der multizentrischen und anonymisierten Datenbank des Traumaregisters der Deutschen Gesellschaft für Unfallchirurgie, untersucht. Dazu verglichen wir retrospektiv Polytraumapatienten (ISS ≥ 18) mit Alkoholabusus und Leberzirrhose mit einem gesunden Vergleichskollektiv. Letztlich erfüllten 13,527 Patienten die Einschlusskriterien, von 713 (5,3%) einen Alkoholabusus und 91 (0,7%) eine gesicherte Leberzirrhose aufwiesen. Die Gruppe der Leberzirrhotiker zeigte neben einer höheren Rate an Organ- und Multiorganversagen gegenüber der RISC-Prognose eine signifikant erhöhte Krankenhausmortalität (31% gegenüber prognostizierten 19%), wodurch dieser in seiner Verwendung als Prognosescore für verletzte leberzirrhotische Patienten deutlich limitiert wird. In der Matched Pair Analyse unterschieden sich die Patienten mit einer Leberzirrhose verglichen zum Kontrollkollektiv signifikant in Bezug auf Einzel- (Herz, Leber, Niere, Gerinnung) und Multiorganversagen, sowie in der Gesamtmortalität. Die Ergebnisse verdeutlichen die fatalen Auswirkungen einer Leberzirrhose auf das Outcome nach Polytrauma und fordern eine diesbezügliche Evaluierung der Trauma- und Prognosescores (wie z.B. RISC) zur besseren Risikoprofilabschätzung eines Schwerverletzten. Bei den Alkoholikern kam es zwar ebenfalls zu durchschnittlich mehr Organausfällen im Vergleich zur Kontrollgruppe, jedoch war die Krankenhausmortalität gleich. Überraschenderweise verstarben in der Alkoholgruppe innerhalb der ersten 24 Stunden nach Trauma die wenigsten Patienten. Inwieweit dabei Alkohol als möglicher Modulator der posttraumatischen Immunreaktion eine Rolle spielt, konnte bis dahin allerdings nicht beantwortet werden. In einer weiteren Studie wurden deshalb die Interleukin-6 und Interleukin-10 Serumkonzentrationen von 34 alkoholintoxikierten Polytraumapatienten (ISS ≥ 16) des Universitätsklinikums Frankfurt am Main von Aufnahme bis Tag 5 nach Trauma untersucht und mit einer gematchten Gruppe von 15 nüchternen Schwerverletzten verglichen. Während die Alkoholgruppe im Schockraum einen Trend zu erniedrigten IL-6 Konzentrationen aufwies, stiegen diese im posttraumatischen Verlauf immer weiter an und waren am Tag 4 und 5 signifikant gegenüber der nüchternen Gruppe erhöht. Das antiinflammatorische Zytokin IL-10 hingegen zeigte im Gruppenvergleich während des gesamten posttraumatischen Verlaufs keine signifikanten Unterschiede. Die Studie verdeutlicht, dass akute Alkoholintoxikation die Immunantwort des Körpers nach schwerem Trauma moduliert, hier nachgewiesen in einer veränderten Il-6 Antwort im zeitlichen Verlauf bis zum 5. posttraumatischen Tag. Dennoch sind weitere Untersuchung im komplexen Zusammenspiel des janusköpfigen Zytokins IL-6 und anderer hauptsächlich antiinflammatorischer Mediatoren wie z.B. IL-4, IL-11, TGF-β und IL-13 in zusätzlicher Korrelation zum klinischen Outcome notwendig, um die komplexe Immunantwort des Körpers nach Trauma zu verstehen. Letztlich gilt es noch herauszufinden, ob IL-6 als prognostischer Mediator oder Parameter im klinischen Verlauf nach Polyrauma verwendet werden kann.
Die menschliche Kommunikation von Angesicht zu Angesicht findet hauptsächlich auf audiovisueller Ebene statt. Normalerweise liefert der Gesprächspartner sowohl visuelle als auch auditorische Information. Es ist einfacher jemanden zu verstehen, wenn ein visueller Eingang vorliegt, weil visuelle Signale wie Mund- oder Zungenbewegungen komplementäre Informationen zum auditorischen Eingang liefern. In dieser Studie wurden die Hypothesen aufgestellt, dass (I) sowohl die Spracherkennung als auch die Stimmenerkennung bei fehlendem visuellem Eingang durch Zugriff auf visuelle Sprecher-spezifische Informationen optimiert werden kann und, dass (11) diese Optimierung auf Gehirnarealen für die visuelle Gesichtsverarbeitung beruht. Diesen Hypothesen wurde mit Hilfe von Verhaltenstests und der funktionellen Bildgebung in zwei Gruppen nachgegangen: Probanden mit einer mangelnden Fähigkeit, Gesichter zu erkennen (Prosopagnosie), und entsprechende Kontrollprobanden. Die Ergebnisse zeigten, dass das Beobachten einer bestimmten Person beim Reden für 2 min die darauffolgende rein auditorische Spracherkennung sowie die Stimmenerkennung verbessert. Bei beiden Gruppen, sowohl bei den Prosopagnostikern als auch bei den Kontrollprobanden, konnten die verbesserten Verhaltensdaten beim Erkennen des Sprachinhalts auf ein Areal zurückgeführt werden, das für die Verarbeitung von Gesichtsbewegungen zuständig ist. Bessere Verhaltensdaten bei der Stimmenerkennung konnten nur bei den Kontrollprobanden nachgewiesen werden, was auf einem Areal beruht, das der Verarbeitung der Gesichtserkennung zugeordnet wird. Diese Befunde stellen gängige unisensorische Modelle der Sprachverarbeitung infrage, da hier gezeigt werden konnte, dass das Gehirn selbst bei der rein auditorischen Spracherkennung auf zuvor gelernte audiovisuelle Zusammenhänge zurückgreift um die Kommunikation zu optimieren. Das legt die Möglichkeit nahe, dass dieser Optimierung Sprecher-spezifische audiovisuelle interne Modelle zugrunde liegen, welche benutzt werden, um ein sprechendes Gesicht zu simulieren.
Borrelia lusitaniae, eine vorwiegend im Mittelmeerraum/ Südwesteuropa vorkommende Borrelienspezies des B. burgdorferi s.l.-Komplexes, wird derzeit als eine potentiell humanpathogene Genospezies diskutiert. Für vergleichende Studien stehen derzeit vorwiegend Zeckenisolate und nur zwei Patientenisolate zur Verfügung. Im Rahmen dieser Arbeit wurden insgesamt 16 Isolate, darunter ein Patientenisolat aus verschiedenen Regionen Portugals und Süddeutschlands im Bezug auf ihre Serumempfindlichkeit/-resistenz gegenüber humanem Serum und der Fähigkeit Komplementregulatoren aus Serum zu binden, untersucht. Anhand der erhaltenen Ergebnisse konnte gezeigt werden, dass B. lusitaniae, mit Ausnahme des Stammes IP-N1, als serumsensible Genospezies klassifiziert werden kann. Alle Isolate aktivierten die Komplementkaskade hauptsächlich über den alternativen Weg wobei massiv Komplementkomponenten auf der Zelloberfläche deponiert wurden. Die effiziente Aktivierung und Ablagerung des terminalen Komplementkomplexes führte zur vermehrten Ausbildung sogenannter Blebs, Ausstülpungen der äußeren Membran, was auf eine effiziente Lyse der Borrelienzellen hinwies. Obwohl serumsensibel, waren alle Isolate in der Lage, den löslichen Komplementregulator des alternativen Weges, Faktor H aus dem Serum zu binden. Allerdings konnte nur bei 4 der 16 untersuchten Isolate eine schwache komplementregulatorische Aktivität von zellgebundenem Faktor H durch den Nachweis spezifischer C3b-Spaltprodukte bestätigt werden. Diese Ergebnisse lassen vermuten, dass Faktor H in seiner Eigenschaft als Komplementregulator inhibiert ist. Durch weiterführende Analysen konnte ein Faktor H-bindendes Protein von 16 kD bei B. lusitaniae MT-M8 identifiziert und charakterisiert werden. Dieses als BlCRASP-3 bezeichnete Protein war in der Lage, Faktor H über dessen C-terminale SCR-Domänen 19-20 zu binden. Im Vergleich zu anderen mit Faktor H interagierenden Proteinen war die Bindung sehr schwach und erreichte nur ca. 16% der Bindungsstärke von BbCRASP-3, was eine nicht nachweisbare Kofaktoraktivität von an BlCRASP-3 gebundenem Faktor H erklären könnte. Sequenzanalysen und Untersuchungen mit verschiedenen Proteasen identifizierten BlCRASP-3 als ein auf der Oberfläche von B. lusitaniae lokalisiertes Lipoprotein, welches eindeutig zur heterologen Erp-Proteinfamilie gehört. Interessanterweise ist bei BlCRASP-3 jener Bereich am C-Terminus konserviert, der als Faktor H-Bindungsstelle erachtet wird. Die nicht konservierten Austausche einzelner Aminosäuren innerhalb der vermuteten Bindungsregion und das Fehlen höher geordneter Strukturen, wie z.B. coiled-coils, könnten die stark reduzierte Bindungskapazität von Faktor H an BlCRASP-3 erklären. Zusammenfassend lässt sich feststellen, dass die schwache Bindung von Faktor H und die Inhibition der komplementregulatorischen Aktivität von Faktor H, als Ursachen für den fehlenden Schutz vor der durch Komplement vermittelten Lyse angenommen werden kann, wodurch die untersuchten B. lusitaniae-Isolate einen serumsensiblen Phänotyp aufweisen. Des Weiteren konnten bei allen untersuchten B. lusitaniae Isolaten erp-homologe Gensequenzen auf Plasmiden unterschiedlicher Größe nachgewiesen werden. Manche Isolate wiesen multiple erp-Loci auf. Durch PCR konnten erp-homologe Gensequenzen amplifiziert werden, die für ErpL/ErpY-orthologe Proteine kodieren und nicht mit Faktor H interagieren. Welche Funktion diese Proteine für Borrelien besitzen bleibt weiterhin ungeklärt. Es ist denkbar, dass diese Proteine bei der Erregerpersistenz oder dem Immunescape in der Eidechse als natürlichem Wirt eine wichtigen Rolle spielen oder Borrelien ermöglichen, sich an andere Reservoirwirte anzupassen.
Das Ziel dieser Arbeit ist eine Darstellung der Etablierung des Films im Bereich der Medizin auf Universitätsebene am Beispiel von Prof. Karl Kleist, Leiter der Psychiatrie in Frankfurt am Main von 1920 bis 1950. Als Primärquellen wurden Akten, Briefe und Filme der Frankfurter Psychiatrie aus der damaligen Zeit gesichtet und ausgewertet. Zusammen mit den Sekundärquellen über Kleist und der Darstellung der politischen Rahmenbedingungen in diesem Zeitraum bildet dies die Grundlage der hier vorliegenden Arbeit. Kleist wurde am 31.Januar 1879 in Mühlhausen im Elsass geboren. Nach dem Medizinstudium in Straßburg, Heidelberg, Berlin und München begann er seine Arbeit 1903 als Assistenzarzt in Halle. Hier lernte er Carl Wernicke kennen, der ihn in seinem weiteren wissenschaftlichen Denken und Vorgehen stark prägte. Es entstand eine neue wissenschaftliche Schule, später bekannt als Wernicke- Kleist- Leonhard- Schule. Nach seiner fünfjährigen Assistenzarztzeit in Halle arbeitete er vorübergehend an Edingers Neurologischem Institut in Frankfurt am Main und im hirnpathologischanatomischen Laboratorium Alzheimers in München innerhalb der Klinik von Emil Kraepelin. Danach wechselte er als Oberarzt an die Nervenklinik in Erlangen, wo er bis 1914 arbeitete. Während des ersten Weltkrieges wurde er in einem Kriegslazarett eingesetzt. Dort sammelte er viele Erfahrungen mit Hirnverletzten. 1916 wurde er Direktor der Psychiatrie in Rostock. 1920 folgte er einem Ruf nach Frankfurt am Main. Kleist wurde Leiter der Städtischen und Universitätsklinik für Gemüts- und Nervenkranke in Frankfurt am Main. Auch nach seiner Emeritierung 1950 war er dort weiter wissenschaftlich tätig. Während der Zeit in Frankfurt am Main förderte er den Film als Lehr- und Forschungsmittel. Zu Beginn wurde er von privaten Stiftungen gefördert, später baute er einen Kontakt zum Medizinisch-Kinematographischen Universitätsinstitut in Berlin auf. Dieses arbeitete eng mit dem Verlag Wissenschaftlicher Filme zusammen. Mit Hilfe dieses Verlages stellte er viele Filme her; als Gegenleistung bekam der Verlag unter anderem die Negative seiner Aufnahmen. Nach dem Konkurs des Verlages kaufte die Deutsche Gesellschaft für wissenschaftliche Filme einen Großteil der Konkursmasse und damit auch Kleists Filme auf. Aufgrund der wirtschaftlichen Verhältnisse konnte das Unternehmen jedoch nicht florieren. Kleist wollte seine aufgenommenen Filme aber wissenschaftlich nutzbar machen und ein umfassendes Archiv von psychiatrischen und neurologischen Filmen erstellen. Kaufen konnte er das Material aufgrund mangelnder finanzieller Möglichkeiten nicht. Er schaffte es allerdings, seine Filme bei der Deutschen Gesellschaft für wissenschaftliche Filme zu vereinen und sie teilweise wissenschaftlich zu nutzen. Bald darauf wurden diese Bestände jedoch von der neu gegründeten Reichsstelle für den Unterrichtsfilm übernommen. Einerseits entsprach diese Zentralisierung Kleists Vorstellungen in Bezug auf eine bessere Übersicht und Nutzung der Filme seines Fachgebietes, andererseits stellte er aber ein fragwürdiges wissenschaftliches Interesse der Reichsstelle für den Unterrichtsfilm fest. Nach dem Krieg erlangte er über viele Umwege den Großteil seiner Filme zurück. Darunter befand sich der in dieser Arbeit exemplarisch analysierte Katatoniefilm. Die Fertigstellung der Filme benötigte damals oft Jahre. Wissenschaftliche Filme mit einer Länge von 15-20 Minuten mit mehreren Sequenzen benötigten bis zur Fertigstellung teilweise über zehn Jahre. Die Gründe hierfür waren vielschichtig. Abgesehen von den technischen Problemen waren Aufnahmen aufwändig und teuer. In die Planung mussten sehr viele Ressourcen investiert werden. Patienten mit seltenen Krankheiten waren für Aufnahmen nicht immer verfügbar und die wirtschaftlichen und politischen Gegebenheiten wie Wirtschaftsdepression und Krieg verminderten die Realisationschancen. Trotz dieser widrigen Umstände schaffte es Kleist eine beachtliche Anzahl an Filmen herzustellen und das Filmwesen zu fördern. Prof. Karl Kleist war ein Gründer des psychiatrischen und neurologischen Films. Er hatte das große Ganze im Blick und strebte stets danach seine Ideale auch im Detail zu verwirklichen.
Seit Einführung der Operationen mit HLM vor etwa 50 Jahren haben zahlreiche Veränderungen von Komponenten zu Fortschritten bezüglich einer verbesserten Biokompatibilität der EKZ geführt (Daniel S 1996; Gu Y 1993). Die EKZ ist nach wie vor eine Voraussetzung für die Mehrzahl der Herzoperationen und ist mit einer systemischen inflammatorischen Reaktion verbunden (SIRS), welche für eine postoperative Organdysfunktion verantwortlich sein kann. Herz-, Lungen- und Nierenfunktion als auch Gerinnungssystem sind in verschiedenem Ausmaß betroffen (Kirklin JK (1983); Westaby S 1987). Dieser Ganzkörperschaden ist ein multifaktorieller Prozess, der hauptsächlich durch den Kontakt von Blut mit fremden Oberflächen verursacht wird und sowohl zu einer Aktivierung der Leukozyten als auch der Komplementkaskade führt (Gourlay T 2001; Levy JH 2003). In Zeiten der minimal-invasiven Herzchirurgie besteht nun nicht nur die Absicht, das chirurgische Trauma zu reduzieren, sondern auch die pathologischen Auswirkungen der EKZ zu minimieren. Deshalb führten neuartige Konzepte und Strategien zur Entwicklung minimierter extrakorporaler Zirkulationssysteme, die vor allem durch reduzierte Fremdoberflächen und geringeres Primingvolumen charakterisiert sind (von Segesser LK 2003). Das CorX™ System folgt diesem Konzept und besteht aus einem geschlossenen System mit sehr geringere Oberfläche, einer integrierten Pumpe mit Oxygenator und einem Luftelimierungssystem. Außerdem wird weder ein Kardiotomie-Reservoir noch eine perikardiale Saugung verwendet, um den zusätzlichen Blutluftkontakt zu vermeiden. Das Ziel dieser Untersuchung war, dass CorX™ System in einer prospektiv randomisierten Studie mit einer konventionellen HLM in Bezug auf perioperative klinische und biochemische Parameter bei koronararteriellen Bypassoperationen in einem Niederigrisiko Patientenkollektiv zu vergleichen. 200 Patienten wurden entweder der CorX™ System-Gruppe (n = 100, Gruppe A) oder der Standard-HLM-Gruppe (n = 100, Gruppe B) zugeteilt. Neben der Auswertung von perioperativen Daten und routinemäßigen Blutproben waren vor allem die Lungenfunktion und der Myokardschaden Gegenstand dieser Untersuchung. Die PMNElastase und TCC dienten dazu, die inflammatorische Reaktion zu beurteilen. Demographische und operative Patientendaten unterschieden sich zwischen beiden Gruppen nicht, sie waren daher vergleichbar. Die postoperative Lungenfunktion zeigte postoperativ keinen signifikanten Unterschied in beiden Gruppen. Zwar war der Oxygenierungsindex in der ersten postoperativen Messung in der CorX-Gruppe signifikant niedriger, dies hatte aber keine Auswirkungen auf die Ergebnisse der Lungenfunktionstests am 5. postoperativen Tag. In der CorX™-Gruppe beobachteten wir verminderte CK-MB Werte postoperativ, was auf einen signifikant niedrigeren Herzmuskelzelluntergang hinweist. Auch dieses Ergebnis hatte aber keine klinische Relevanz. Eine Stunde nach HLM waren sowohl PMN-Elastase als auch TCC signifikant niedriger in Gruppe A im Vergleich zu Gruppe B (PMNE:76±44ng/ml vs 438±230ng/ml, p<0,0001; TCC: 16±8IU/ml vs 29±19IU/ml, p<0,0001). Dies zeigt eine deutlich verminderte inflammatorische Reaktion in der CorX-Gruppe auf, welche sich aber klinisch in diesem Niedrigrisikopatientengut nicht ausgewirkt hat. Die klinischen Ergebnisse hinsichtlich Morbidität und Mortalität, Intensiv- und Krankenhausaufenthalt waren nicht signifikant unterschiedlich im Gruppenvergleich. Das CorX™ System ist sicher und erfordert nur eine kurze Trainingsperiode für das chirurgische Team. Es wurde von den Kardiotechnikern gut angenommen und sogar gegenüber der konventionellen HLM favorisiert. Die inflammatorische Reaktion nach EKZ war signifikant reduziert, jedoch gab es bei Niedrigrisikopatienten keinen messbaren Unterschied bei Betrachtung der klinischen Ergebnisse. Die Reduktion der inflammatorischen Reaktion durch den Einsatz einer minimierten HLM könnte bei Hochrisikopatienten aber von großer Bedeutung sein.
Methodik und Material: Injektion von Kolonkarzinomzellen der Zellreihe CC531 subkapsulär in den linken Leberlappen bei 36 männlichen WAG-Ratten (Gewicht 180-220g). Induziert wurden zwei unterschiedlich starke Tumorkonzentrationen: Gruppe A (n = 18, Injektion von 1 Mio. Tumorzellen) und Gruppe B (n = 18, Injektion von 4 Mio. Tumorzellen). Messung der Tiere nach 14 Tagen am CT Siemens Somatom Sensation 64 und Analyse des Tumorvolumens mit dem Volume Viewer Plus von Centricity AW Suite. Unterschiedlich starkes Wachstum der Lebertumore führte zu einer Einteilung der Ratten in Gruppe A(1,2) (n = 12): Tumorvolumen <3,5cm3 und Gruppe B(1,2) (n = 12): Tumorvolumen ≥3,5cm3. Die volumenbezogene Therapie erfolgte an Tag 15 wie folgt: Bei jeweils 6 Tieren der Gruppen A1 und 6 Tieren der Gruppe B1 wurde eine systemische Chemotherapie mit 0,1mg/ml Mitomycin C (Standardtherapie) durchgeführt. Die andere Hälfte der Tiere (6 Tiere der Gruppe A2 und 6 Tiere der Gruppe B2) erhielten die doppelte Konzentration von 0,2mg/ml (< 10% der letalen Dosis). 6 Tiere dienten der pathologischen Auswertung, weitere 6 Tiere dienten als Kontrollgruppe. An Tag 25 erfolgte eine erneute Bestimmung des Tumorvolumens. Ergebnisse: Die Therapie wurde von allen Ratten gut toleriert. Das durchschnittliche Tumorvolumen betrug in A (1,2) 2,18cm3 +/- 0,82 (range: 0,55 – 3,42) und in Gruppe B (1,2) 4,52cm3 +/- 0,82 (range: 3,72 – 5,86). Das CT-follow up an Tag 25 ergab, dass eine erhöhte Mitomycinkonzentration zu einer Tumorregression von 20,55 % in der Gruppe A2, 21,03 % in B1 und 46,61% in B2 führte. In der Gruppe A1 zeigte sich ein Progress des Tumorvolumens von 51,38%. Schlussfolgerung: Chemotherapeutika werden in Abhängigkeit von Körpergewicht, Körpergröße und Körperoberfläche verabreicht. Einen neuartigen Ansatz stellt die tumorvolumenadaptierte Chemotherapie (TVACT) mit Mitomycin C dar, da große Tumorvolumen eine bessere Ansprechbarkeit auf Mitomycin C zeigen als kleinere. Die TVACT ist somit eine neue relevante Behandlungsoption bei der Behandlung von malignen Tumoren im Tiermodell. Hinsichtlich der wachsenden Bedeutung neuer Staging Systeme im avanzierten kolorektalen Karzinom sollte das Tumorvolumen auch als prognostischer Faktor berücksichtigt werden.
Implantatprothetische Versorgung von Lippen-, Kiefer-, Gaumenspalt-Patienten mit ITI-Implantaten
(2010)
Ziel dieser Arbeit war es, die implantatprothetische Rehabilitation von LKG-Patienten mit transgingivalen ITI-Implantaten mit einer dreimonatigen Einheilphase hinsichtlich Funktion, Ästhetik und Patientenzufriedenheit zu untersuchen. Insgesamt wurden bei 17 Patienten 24 Implantate im Bereich der ehemaligen Spalte inseriert. Diese wurde bei allen Patienten mit einer sekundären Osteoplastik geschlossen. Bei 14 Patienten wurde aufgrund eines insuffizienten Knochenangebotes eine Augmentation im Sinne einer tertiären Osteoplastik durchgeführt. Bei zwei Patienten konnte simultan implantiert werden. Alle Knochendefekte wurden mit autologen Transplantaten vom Beckenkamm oder Kieferwinkel augmentiert. Nach dreimonatiger Einheilphase wurden die Implantate mit verschraubten oder zementierten Suprakonstruktionen prothetisch versorgt. Die Mundgesundheitsbezogene Lebensqualität (MLQ) wurde mit der Deutschen Kurzversion des Oral Health Impact Profile (OHIP-G 14) gemessen und mit den Normwerten der Deutschen Allgemeinbevölkerung verglichen. Das ästhetische Ergebnis wurde anhand von Farbfotos von Zahnärzten, zahnmedizinischen Laien und den Patienten selbst bewertet. Als objektives Messinstrument wurde der Implantat Kronen Ästhetik Index verwendet. Nach einer durchschnittlichen Nachuntersuchungszeit von 40 (±22) Monaten ergaben sich folgende Ergebnisse: 23 Implantate (95,8%) befanden sich in situ und unter Belastung. Der röntgenologisch gemessene marginale Knochenabbau betrug 1,15±2,16 mm. Des Weiteren wurden periimplantäre Sondierungstiefen von 2,56±0,66 mm, eine Breite der keratinisierten Mukosa von 2,71±1,1 mm und ein Periotestwert von 0,18±6,5 gemessen. Der Summenwert des OHIP G-14 betrug bei 50% der Patienten ≤ 2. Es konnte festgestellt werden, dass die implantatprothetische Versorgung von augmentierten LKG-Spalten mit transgingivalen ITI-Implantaten und einer Belastung nach drei Monaten eine sichere Behandlungsmethode mit langfristig hoher Erfolgsrate ist. Aus funktioneller Sicht sind die Ergebnisse vergleichbar mit Patienten ohne Spalte oder Augmentation. Die MLQ von LKG-Patienten nach implantatprothetischer Rehabilitation ist vergleichbar mit Individuen der Allgemeinbevölkerung, die keinen herausnehmbaren Zahnersatz tragen. Aufgrund von Einschränkungen im Bereich der periimplantären Weichgewebe sind die ästhetischen Resultate kompromittiert aber für alle Befragten zufriedenstellend. Der Implantat Kronen Ästhetik Index kann zur Dokumentation der ästhetischen Ergebnisse der implantologischen Behandlung von LKG-Patienten empfohlen werden. Das Ziel zukünftiger Konzepte sollte sein, das ästhetische Endresultat der periimplantären Weichgewebe zu verbessern. Da die funktionelle Belastung von transgingivalen Implantaten im augmentierten Spaltbereich nach drei Monaten zum jetzigen Zeitpunkt kein Standardvorgehen ist, müssen weitere Untersuchungen zeigen, inwieweit dieses Therapiekonzept eventuell höhere Verlustraten oder ästhetische Ergebnisse beeinflusst.
Hintergrund: Im Rahmen der Erforschung von Mechanismen der Presbyopie-Entstehung hat das Interesse an Methoden zur Linsendensitometrie wieder zugenommen. Für spezielle Fragestellungen sind flexible Untersuchungsmethoden notwendig.
Methoden: Basierend auf Aufnahmen mit der Scheimpflug-Kamera Pentacam HR (Oculus, Wetzlar) wurde ein MATLAB-Programm (V7.0, The MathWorks) erstellt, um größere Datenmengen automatisiert auszuwerten. Die Erkennung der Pupillenmitte als Referenzpunkt erfolgt mittels eines Randerkennungsalgorithmus. Als Kennzahlen dienen klassische Parameter der beschreibenden Statistik (Mittel, Minimum, Maximum, Standardabweichung und Variationskoeffizient) für einen definierten rechteckigen Bereich und für die zentrale vertikale Achse.
Ergebnisse: In einer Präliminarserie von 18 Augen war eine automatisierte Messung mit korrekter Pupillenerkennung in 80% der Fälle möglich. Verglichen mit der hersteller-eigenen Software (Pentacam 6.03r11) besitzt das eigene Programm eine erweiterte Spannweite der Messwerte. Die Messwerte können automatisch nach Excel (Microsoft) exportiert werden. Ein modularer Aufbau ermöglicht eine flexible Erweiterung für weitere Fragestellungen (z.B. Quantifizierung von Kern- und Rindentrübungen).
Schlussfolgerungen: Mittels eines selbst programmierten MATLAB-basierten Programmes kann eine automatisierte Messung und Analyse von linsndensitometrischen Parametern durchgeführt werden.
Hintergrund: Die Unterschidung von Augen mit frühem Keratokonus (KC) von normalen Augen bereitet nach wie vor Schwierigkeiten. Die vorliegende Untersuchung vergleicht konventionelle keratometrie-basierte mit wellenfront-basierten Maßzahlen hinsichtlich ihrer Eignung, normale Augen von Augen mit sehr frühem Keratokonus zu unterscheiden.
Methoden: Es wurden 17 Augen von 17 Patienten mit frühem KC eingeschlossen. Bei diesen 17 Augen handelt es sich um klinisch unauffällige Partneraugen des stärker betroffenen Auges. 123 Normalaugen von 69 Patienten dienten als Negativkontrolle. Von den axialen Kurvaturdaten wurden folgende Maßzahlen berechnet: zentrale Keratometrie (cK), Astigmatismus (AST), inferior-superiore Brechwertdifferenz (I-S), Verkippung der radialen Achsen (SRAX), KISA% index (eine Maßzahl, die auf cK, AST, I-S und SRAX basiert) und corneale Zernike-Koeffizienten (1.–7. Ordnung, Pupillendurchmesser: 6 mm). Aus Zernike-Koeffizienten wurden Diskriminanzfunktionen konstruiert. Receiver-Operatiing-Charakteristik (ROC)-Kurven wurden erstellt, um die diagnostische Trennschärfe dieser Werte zur Unterscheidung von klinisch unauffälligen Partneraugen von Augen mit frühem Keratokonus und normalen Kontrollen zu evaluieren.
Ergebnisse: Der I-S-Wert (Korrektheit 92,1%, kritischer Wert 0,59 D) und die vertikale Coma (C3-1; 96,7%, –0,2 µm) waren die beiden Einzelwerte mit höchster Trennschärfe. Mit den ursprünglich publizierten kritischen Werten lag der Rabinowitz-McDonnell test (cK und I-S) bei 83,3% (Sensitivität 0%, Spezifität 100%) und der KISA% bei 70,8% (81,3%, 60,3%). In Verbindung mit Diskriminanzanalyse errichten Zernike-Koeffizienten eine Korrektheit von 96,7% (100%, 93,4%).
Schlussfolgerungen: Auf cornealen Zernike-Koeffizienten basierende Maßzahlen erreichte die höchste Trennschärfe bei der Unterscheidung von Augen mit subklinischem KC von Normalaugen. Dennoch konnten konventionelle KC-indices eine ähnlich hohe Trenschärfe wie die Zernike-Methode erreichen, wenn die kritischen Werte entsprechend angepasst werden.
Knochenszintigraphie beim Mammakarzinom - nur bei Knochenschmerzen und erhöhten Tumormarkern?
(2010)
Im Rahmen dieser retrospektiv angelegten Dissertation wird die Wertigkeit der beiden Indikatoren „Tumormarker“ und „Knochenschmerzen“ als Entscheidungsbasis zur Durchführung einer Knochenszintigraphie beim Mammakarzinom untersucht. Des Weiteren geht es um die Frage, ob es diesbezüglich Unterschiede in den einzelnen UICC-Stadien gibt. Zur Überprüfung des Indikators „Knochenschmerzen“ wurden die Daten von insgesamt 474 Patientinnen (Grundkollektiv) erfasst und ausgewertet. Auf dieser Basis wurde der Indikator „Tumormarker“ für ein weiteres Kollektiv von 253 Patientinnen untersucht. In beiden vergleichbaren Kollektiven wurden die Ergebnisse der Indikatoren mit denen der Knochenszintigraphie im Rahmen des Primärstagings (PS) und von Follow up-Untersuchungen (KO) in den einzelnen UICC-Stadien verglichen und Vierfeldertafeln angelegt, deren Auswertung mittels Fisher-Test erfolgte. Im Rahmen des Grundkollektivs wurden zwei Varianten getestet, wobei bei der Ersten eine örtliche Korrelation zwischen dem Schmerz der Patientin und dem Szintigraphiebefund bestehen musste, um das Gesamtergebnis als pathologisch zu werten. Bei der zweiten Variante war dies unbedeutend. Die erste Variante zeigte im PS und in den KO allseits unsignifikante Ergebnisse (p>0,05), wobei im PS eine Gesamtindikatorensensitivität von 21% erzielt wurde bei einer Indikatorenspezifität von 91%. Im Rahmen der KO betrugen diese 39% und 55%, wobei hier ein Anstieg der Indikatorenspezifität proportional zum UICC-Stadium von 50% auf 65% beobachtet wurde. Des Weiteren konnten keine Stadienunterschiede festgestellt werden. In der zweiten Variante zeigte sich eine deutliche Signifikanz des Gesamtkollektivs im Rahmen des PS (p<0,01), bei einer Indikatorensensitivität von nur 30% und einer Spezifität von 92%. Die Ergebnisse bei den KO waren unsignifikant (p> 0, 05), mit einer Indikatorensensitivität von 46% und einer Indikatorenspezifität von 60%, wobei auch hier ein Spezifitätsanstieg proportional zum Stadium von 60% auf 100% verzeichnet wurde ohne sonstige stadienspezifische Unterschiede. Im Rahmen der KO wurden zur Deckung der Fallzahl Mehrfachuntersuchungen miteinbezogen, die zu einer Verfälschung des Ergebnisses geführt haben könnten. Zur Untersuchung der Tumormarker wurden CEA und CA 15.3 als Indikatoren erfasst und mit den Ergebnissen des Skelettszintigramms ebenfalls in zwei Varianten verglichen. Im Rahmen der ersten Variante wurde der Gesamtindikator lediglich als „positiv“ gewertet, wenn beide Werte positiv waren. Bei der zweiten Variante wurde der Gesamtindikator auch als positiv gewertet, wenn lediglich einer der Werte oder beide positiv waren. Die Ergebnisse des PS im Rahmen der ersten Variante erwiesen sich als unsignifikant (p>0,1), bei einer Indikatorensensitivität des Gesamtkollektivs von 8% und einer Spezifität von 86%. Die Ergebnisse der KO waren deutlich signifikant (p<0,001), bei einer Indikatorensensitivität von 68% und einer Indikatorenspezifität von 83% ohne Unterschiede der Variante in den Einzelstadien. In der zweiten Variante konnten im Rahmen des PS ebenfalls keine signifikanten Ergebnisse erzielt werden (p>0,1). Die Gesamtindikatorensensitivität lag hier bei 25%, bei einer Indikatorenspezifität von 63%. Auch bei dieser Variante waren die Ergebnisse der KO allseits signifikant (p<0,001). Lediglich das UICC IV-Kollektiv wies eine verminderte Signifikanz auf (p=0,095), was auf die kleine Fallzahl von 35 Patientinnen zurückzuführen sein könnte, da sich auch die Indikatorensensitivität und - spezifität nicht von den Werten der anderen UICC-Stadien unterschieden. Die Gesamtindikatorensensitivität lag bei 90%, die Spezifität bei 50% ohne Unterschiede im Bezug auf die Einzelstadien. Im Rahmen einer logistischen Regression mit Abbau wurden folgende Indikatoren mit eingeschlossen: Schmerzen, Tumormarker einzeln (CEA und CA 15.3), Lymphknotenstatus, Hormonrezeptorstatus und UICC-Stadium. Der Vorteil lag darin, dass Mehrfachuntersuchungen vermieden wurden. Im Gesamtassay wurde der höchste Vorhersagewert mit 76,6% erreicht. Dieser unterscheidet sich im Wesentlichen nur marginal von der Aussagekraft der reinen CA 15.3-Bestimmung (75,0%), wobei hier die Indikatorensensitivitäten beide bei 76,8% liegen, bei leicht verminderter Indikatorenspezifität in der CA 15.3-Gruppe. Dasselbe gilt allerdings auch für den Assay aus Schmerzen, CEA und CA 15.3, da Schmerzen und CEA praktisch keinen Einfluss auf die Modellgüte haben. Ein Assay aus Lymphknotenstatus und CA 15.3 verbessert die Indikatorensensitivität auf bis zu 78,6%, wobei die Gesamtvorhersagegüte auf Grund einer deutlich verminderten Indikatorenspezifität von 69,4% allgemein niedriger ist (73,4%). In der Praxis wäre der Lymphknotenstatus als Indikaton jedoch schwer umzusetzen. Im Allgemeinen kann man aus den Ergebnissen schließen, dass der Indikator „Schmerzen“ in keinem Fall ein geeignetes Kriterium zur Entscheidungsfindung für eine Knochenszintigraphie ist. Auch hat sich gezeigt, dass der Tumormarker CEA von minderer Relevanz bei dieser Entscheidung ist. Es konnten des Weiteren keine relevanten Unterschiede im Bezug auf die einzelnen UICC-Stadien festgestellt werden. Der am besten geeignete Assay besteht aus CA 15-3 als Einzelindikator mit einer Indikatorensensitivität von 76,8%. Da jede vierte Patientin mit Skelettmetastasen im Rahmen dieses Assays jedoch übersehen würde, ist es nicht vertretbar, sich in jedem Fall nur auf diesen Indikator zu stützen, weil vorangehende Arbeiten gezeigt haben, dass eine frühzeitige Erkennung und Therapie von Skelettmetastasen zu einer deutlichen Verminderung der Morbidität führt.
Verschiedene Studien konnten bereits demonstrieren, dass Versuchspersonen dazu tendieren, ihre Aufmerksamkeit eher zu Gesichtern mit bedrohlichem Ausdruck als zu solchen mit neutralem Ausdruck zu orientieren. In der vorliegenden Studie wurde mittels neurokognitiver Verhaltensexperimente versucht, diesen als „Attentional Bias“ in Millisekunden messbaren Ef-fekt zu replizieren und unter Wahrnehmungsbedingungen von unbewusst bis bewusst zu un-tersuchen. Entscheidend war hierbei, in wie weit die verschiedenen Wahrnehmungsbedingun-gen zu einem Attentional Bias unterschiedlicher Stärke oder sogar verschiedener Polarität führen, i.e. einer Hinwendung oder einer Abwendung der Aufmerksamkeit gegenüber bedrohlichen Gesichtern. Die Gegenüberstellung von bewusster und unbewusster Wahrnehmung bedrohlicher Gesichter stand hierbei im Kontext der Hypothese, dass unbewusst und bewusst wahrgenommene bedrohliche Gesichter über zwei verschiedene neuroanatomische Wege verarbeitet werden und deshalb die Orientierung der Aufmerksamkeit unterschiedlich beeinflussen. Zur Messung des Attentional Bias wurde die „Dot-Probe-Aufgabe“ verwendet. Um die verschiedenen Wahrnehmungsbedingungen zu stellen wurden dabei vier verschiedene Präsenta-tionszeiten (17, 34, 100 und 400 ms) sowie die Technik der Rückwärtsmaskierung benutzt. Da in anderen Studien häufig ein Einfluss der Ängstlichkeit von Probanden auf deren Aufmerksamkeitsorientierung dargestellt werden konnte, wurde auch eine Gruppierung der Probanden in hoch-, niedrig- und durchschnittlich ängstliche vollzogen; dies jedoch primär in dem Interesse, die Ängstlichkeit als entscheidende Einflussgröße ausschließen und möglichst allgemeingültige Aussagen machen zu können. Unter unbewusster Wahrnehmung (17 ms Präsentationszeit) zeigte sich ein signifikanter, negativer Attentional Bias von -5,46 ms (t (29) = -2,57, p = 0,02), hingegen waren die Attentional Bias-Werte bei den längeren Präsentationszeiten nicht signifikant von Null verschieden. Für die Präsentationszeit als eigener Faktor zeigte sich ein marginal signifikanter Einfluss auf den Attentional Bias (F (3, 87) = 2,20, p = 0,09). Die nach Gruppierung der Probanden in über-, unter- und durchschnittlich ängstliche erfolgte Auswertung konnte sowohl für die unter- wie auch die überdurchschnittlich ängstlichen Probanden (nicht jedoch für die durchschnittlich ängstlichen) einen Trend zu einer Abwendung der Aufmerksamkeit von bedrohlichen Gesichtern bei unbewusster Wahrnehmung zeigen. Angesichts dieses Befundes bleibt offen, wie sehr die Gesamtergebnisse gerade durch diese Gruppen geprägt worden sind. Die Ergebnisse lassen darauf schließen, dass unter Bedingungen unbewusster Wahrnehmung bedrohliche Gesichter zu einer Abwendung der Aufmerksamkeit (negativer Attentional Bias) führen. Dies steht im klaren Kontrast zu den Ergebnissen von Mogg und Bradley (1999a) und Fox (2002). Es wird somit in Frage gestellt, dass bedrohliche Gesichter bei unbewusster Wahrnehmung Aufmerksamkeit auf sich ziehen und nicht zu einer Abwendung dieser führen. Weiter deuten die Ergebnisse darauf hin, dass bei zunehmendem Einfluss bewusster Wahrnehmung zwischen bedrohlichen und neutralen Gesichtern kein Unterschied bezüglich ihrer Wirkung auf die Aufmerksamkeitsorientierung besteht. Verschiedene Ansätze werden hier als mögliche Erklärung eines negativen Attentional Bias bei unbewusster Wahrnehmung diskutiert. Die unterschiedliche Richtung der Aufmerksamkeitsorientierung unter bewusster im Vergleich zu unbewusster Wahrnehmung spricht für eine frühe, unbewusst erfolgende, grobe Ver-arbeitung bedrohlicher Gesichter, sowie eine später erfolgende, komplexere Verarbeitung die-ser, welche mit einer Neubewertung einhergeht. Im Kontext der bestehenden Literatur macht das Ergebnis der Studie deutlich, dass die Zusammenhänge zwischen der Orientierung unserer Aufmerksamkeit, emotionalen visuellen Eindrücken und unserem Bewusstsein noch nicht ausreichend geklärt sind. Es bedarf weiterer Forschung
Der hämorrhagische Schock mit nachfolgender Reperfusion induziert eine Inflammationsreaktion, die in hepatozellulären Schäden, Organversagen und / oder Mortalität enden kann. Vorherige Studien können eine antiinflammatorische Wirkung des Simvastatins bei akuter Inflammation zeigen. Ziel der vorliegenden Arbeit ist es darzustellen, ob Simvastatin durch seine pleiotropen Effekte gemeinsam mit der Reduzierung des Leberschaden und des Inflammationsgeschehen, die Letalität nach H/R im Tiermodell verringern kann.
Als methodischer Ansatz dient ein H/R-Modell an weiblichen LEWIS-Ratten. Nach 6-tägiger intraperitonealer Vorbehandlung mit Simvastatin (5 mg / kg) wird ein 60 minütiger hämorrhagischer Schock (Blutdruck 30 ± 2 mm Hg) induziert und durch eine Reperfusion beendet. Nach 2 Stunden werden Gewebe- und Blutproben entnommen, nach 72 h die Mortalität beurteilt. Die Beurteilung der hepatozellulären Schädigung erfolgt durch die Messung der ALT-Serumkonzentration sowie durch die histopathologische Auswertung repräsentativer Leberschnitte nach HE-Färbung. Apoptotische und nekrotische Zelluntergänge (TUNEL- und M30-Färbung) sowie die lokale als auch systemische Immunantwort (CAE-Färbung und Messung der Serum IL-6 Konzentration) werden untersucht. Der im Lebergewebe bei H/R entstehende oxidative und nitrosative Stress lässt sich durch die 4-HNE- und 3-NT Färbung, die hepatische Umgestaltung des Aktin-Zytoskeletts mittels Alexa Fluor Phalloidin® sichtbar machen. Die ROCK-I, HO-1, eNOS sowie die eNOS (p) Aktivität werden mit Hilfe des Western Blots analysiert. Ein p < 0.05 wird als signifikant erachtet (ANOVA).
Die Neugestaltung des Zytoskeletts, apoptotische und nekrotische Vorgänge, proinflammatorische Signalwege, die Expression der Enzyme Hämoxygenase-1, endotheliale Stickstoffsynthase und RhoKinase-1 sowie oxidativer und nitrosativer Stress werden durch Simvastatin positiv beeinflusst und dadurch wird die Mortalität signifikant reduziert. Die Enzyme ROCK-I, HO-1 und eNOS sind bei den beteiligten Signalkaskaden von entscheidender Rolle.
Die gegenwärtige Studie zeigt, dass Simvastatin neben den bereits bekannten lipidsenkenden Eigenschaften noch weitere pleiotrope Effekte besitzt, die das Ausmaß der systemischen Inflammationsreaktion sowie die Mortalität nach einem hämorrhagischen Schock deutlich beeinflussen. Der Schlüssel zu einer geringeren Sterblichkeit liegt nach unseren Untersuchungen im Erhalt der hepatischen Integrität. Diese viel versprechenden Ergebnisse könnten mit die Grundlage eines möglichen therapeutischen Ansatzes in der Verhinderung der Folgen von H/R bilden.
Ziele: In dieser Arbeit sollte die Wirkung von Cyclopamin auf das Wachstumsverhalten von Leukämiezellen untersucht werden. Dabei galt es zu klären, ob eine Hemmung des Wachstumsverhaltens über eine, durch Cyclopamin induzierte Inhibition des sogenannten Hedgehog-Signalweges erfolgt. Weiterhin war die Wirkung von Cyclopamin auf Lymphozyten gesunder Spender zu prüfen, um eine mögliche Selektivität auf maligne Zellen aufzuzeigen.
Prognostische Bedeutung von "electrical storm" und seinen verschiedenen Formen bei Patienten mit ICD
(2010)
Ziel: Das Ziel der vorliegenden Arbeit war es, die Unterschiede bezüglich Mortalität, demographischen und klinischen Parametern, zwischen „electrical storm) (ES) und „nicht electrical storm“ (NES) Patienten sowie zwischen den Gruppen mit verschiedenen Formen des ES aufzuzeigen, um Aussagen über die prognostische Bedeutung von ES und dessen verschiedene Formen und den Einfluss der demographischen und klinischen Parameter auf die Entstehung von ES machen zu können. Hintergrund: Es existieren nur ungenügende Daten bezüglich der Entstehung und Prognose von ES bei ICD Patienten. Die prognostische Bedeutung der bei ES auftretenden Herzfrequenzen wurde bislang nur von einer Arbeitsgruppe untersucht und bedarf weiterer Studien. Methoden: In der Studie wurden retrospektiv die Daten von 783 konsekutiven Patienten, denen von Dezember 1989 bis September 2005 in der JWG Universitätsklinik Frankfurt am Main ein ICD implantiert wurde, ausgewertet. Die Nachsorgedauer betrug 40,7 ± 30 Monate. ES wurde als das drei oder mehrmalige Auftreten von anhaltende VTs / VFs innerhalb von 24 h, die mit ATP oder Schock therapiert wurden definiert. In der Studie wurden erstmals ES Patienten mit immer gleichen HF während eines ES mit denen mit unterschiedlichen HF verglichen. Weiterhin wurde die Gruppe der Patienten mit gleichen HF in die Untergruppen HF 100-200/min und > 200/min eingeteilt und ein Vergleich durchgeführt. Ergebnisse: Von den 783 Patienten erlitten 144 (18,39%) während des Beobachtungszeitraumes einen oder mehrere ES. Männliches Geschlecht (p = 0,004), eine sekundäre Indikation zur ICD Implantation (p = 0,000) sowie die fehlende Einnahme von Aldosteron-antagonisten (p = 0,026) zeigten sich in der multivariaten Analyse als unabhängige Faktoren, die die Entstehung von ES begünstigen. Es verstarben höchst signifikant häufiger Patienten der ES Gruppe als Patienten der NES Gruppe (38,88% vs. 21,75%; p = 0,000116). Die Cox Regression zeigte jedoch, dass die Tatsache des Erleidens eines ES keinen unabhängigen Faktor für das Überleben darstellt. Beim Vergleich der Patienten mit unterschiedlichen und gleichen Herzfrequenzen zeigte sich, dass Patienten mit unterschiedlichen Herzfrequenzen häufiger versterben als Patienten mit gleichen Herzfrequenzen (41,18% vs. 27,50%). Die Ergebnisse erlangten jedoch keine Signifikanz. Beim Vergleich der Patienten der unterschiedlichen HF Gruppen zeigte sich, dass signifikant mehr Patienten mit einer HF >200/min eine LVEF unter 30% haben (84,62% vs. 44,44%, p = 0,038310). Es sind mehr Patienten mit einer HF >200/min als mit einer HF von 100-200/min verstorben (38,46% vs. 22,22%), die Ergebnisse erlangten jedoch keine Signifikanz. Schlussfolgerung: ICD Patienten mit ES versterben signifikant häufiger als ICD Patienten, die keinen ES erleiden. ES ist jedoch kein unabhängiger Faktor für das Überleben von ICD Patienten. Zum ersten Mal wurden ES Patienten eingeteilt in verschiedene HF Gruppen verglichen, und es ergaben sich deutliche prozentuale Unterschiede. Um jedoch statistisch signifikante Aussagen über die Auswirkung der verschiedenen HF bei ICD Patienten mit ES machen zu können, bedarf es Studien mit wesentlich höheren Studienpopulationen. Aus den Studienergebnissen des Vergleiches der Baselinedaten lassen sich Risikofaktoren sowie protektive Faktoren, die das Auftreten eines ES beeinflussen, ableiten, wodurch in Zukunft Risikopatienten identifiziert werden und entsprechende Vorsorgemaßnahmen eingeleitet werden können.
Der Diskusprolaps und die damit verbundene Schmerzsymptomatik stellen ein
bedeutsames und zunehmendes Gesundheitsproblem dar. Nach Ausschöpfung der
Möglichkeiten einer konservativen Therapie ist die Möglichkeit einer Ozon/Sauerstoff-
Injektion in die Bandscheibe als Therapiealternative zur konventionell offen
chirurgischen Therapie in Erwägung zu ziehen. Das farblose und scharf riechende,
instabile Gas Ozon hat eine hohe Wasserbindungskapazität und vermag
Schmerzmediatoren vor Ort über mehrere Monate zu hemmen, wirkt
antiinflammatorisch und durchblutungsfördernd. Ozon wandelt sich im Körper in
Sauerstoff um und besitzt eine geringe Allergenität. Bislang konnte in Studien keine
Überlegenheit der anderen minimalinvasiven Verfahren gezeigt werden.
In unserer Studie untersuchten wir die Wirksamkeit und Sicherheit der Ozon/Sauerstoff-
Injektion an 34 Patienten. Es wurden keine Komplikationen bei der Anwendung der
Intervention festgestellt.
Ziel unserer Studie war es, bei den Patienten die Schmerzen nach einem
Bandscheibenvorfall zu verringern, bzw. Schmerzfreiheit zu erreichen. Außerdem sollte
evaluiert werden, ob sich das gemessene Volumen der lumbalen Bandscheibe
signifikant verringerte.
Das Bandscheibenvolumen wurde vor und nach der Intervention gemessen. Hierbei
ergab sich eine signifikante Volumenreduktion nach 1 Monat, sowie 3 und 6 Monate
nach der Intervention. 82,4 Prozent der Patienten verspürten eine Schmerzreduktion
oder Schmerzfreiheit 6 Monate nach der Ozon/Sauerstoff-Injektion. Somit ist das
Ergebnis der Ozon/Sauerstoff-Injektion als konkurrenzfähig zu anderen
minimalinvasiven Methoden zur Behandlung des lumbalen Bandscheibenvorfalls zu
sehen.