Refine
Year of publication
Document Type
- Doctoral Thesis (1390)
- Article (419)
- Part of Periodical (199)
- Conference Proceeding (106)
- Book (78)
- Contribution to a Periodical (69)
- Review (46)
- Working Paper (19)
- Part of a Book (9)
- Habilitation (6)
Language
- German (2346) (remove)
Has Fulltext
- yes (2346) (remove)
Is part of the Bibliography
- no (2346) (remove)
Keywords
- Deutschland (11)
- Diagnostik (11)
- Kongress (9)
- Medizinische Ausbildung (9)
- Epilepsie (8)
- Diagnostics (7)
- Immunological methods (7)
- Immunologische Methoden (7)
- Mammakarzinom (7)
- Prävention (7)
Institute
- Medizin (2346) (remove)
Die positive Wirkung einer psychoonkologischen Versorgung onkologischer Patienten, die über ein kritisches Maß hinaus belastet sind, ist heute unbestritten. Krebspatienten sind sowohl mit der Krebsdiagnose selbst, als auch mit der medizinischen Behandlung hohen Belastungen ausgesetzt. Unbehandelte psychosoziale Belastungen wirken sich negativ auf die Lebensqualität der Patienten aus, erschweren die Krankheitsverarbeitung, beeinflussen medizinische Behandlungsergebnisse und können chronifizieren. Die psychoonkologische Behandlung in der akutstationären Versorgung weist jedoch große Lücken auf. Ausgangspunkt dieser Untersuchung war deshalb der Blick auf zwei Desiderate der Psychoonkologie: Zum einen besteht der Wunsch nach empirischen Untersuchungen zum psychoonkologischen Behandlungsbedarf an Akutkrankenhäusern. Zum anderen mangelt es am Einsatz valider, praktikabler und krebsspezifischer Messinstrumente. Diese Studie untersuchte deshalb den psychoonkologischen Behandlungsbedarf von Krebspatienten in der akutstationären Versorgung mit krebsspezifischen diagnostischen Instrumenten. Insgesamt 478 stationäre Krebspatienten wurden über einen Zeitraum von sechs Monaten an den Frankfurter Diakoniekliniken (Markus-Krankenhaus) in Frankfurt am Main mit Hilfe der neuen Kurzform der „Psychoonkologischen Basisdokumentation“ (Po-Bado-KF) sowie der spezifischen Version für Brustkrebspatienten (PO-Bado-BK) im Rahmen eines psychoonkologischen Anamnesegespräches (Fremdeinschätzung) untersucht. Da Fremd- und Selbsteinschätzung der Patienten häufig nicht übereinstimmen, wurde darüber hinaus die revidierte Fassung des Fragebogens zur Belastung von Krebspatienten (FBK-R23) als Selbsteinschätzungsinstrument eingesetzt. Des Weiteren wurde der mögliche Einfluss soziodemografischer und krankheitsbezogener Variablen auf den psychoonkologischen Behandlungsbedarf überprüft. Die Ergebnisse der Studie belegen, dass ein Routine-Screening der psychosozialen Belastung von Krebspatienten – vorausgesetzt, es wird ein entsprechendes Behandlungsangebot bereit gehalten – sehr sinnvoll ist: Über die Hälfte (56%) der 478 Patienten in der vorliegenden Studie waren psychoonkologisch behandlungsbedürftig. In der Selbsteinschätzung durch den FBK-R23 lagen 31% der Patienten über einem kritischen Wert. Fremd- und Selbsteinschätzung stimmten in dieser Untersuchung signifikant überein. Für die psychoonkologische Behandlungsindikation waren ein fortgeschrittener Krankheitsstatus, der körperliche Funktionsstatus, psychische Probleme vor Ausbruch der Erkrankung, die Einnahme von psychotropen Substanzen (Antidepressiva, Anxiolytica, Schlafmittel) sowie krankheitsunabhängige Belastungen wie Probleme im familiären, sozialen oder finanziellen Bereich entscheidend. Die PO-Bado-KF hat sich in dieser Untersuchung als ein praktikables und ökonomisches Fremdeinschätzungsinstrument bewährt und kann, nach entsprechender Schulung, unproblematisch in die medizinische Anamnese integriert werden. Ist dies aus verschiedenen Gründen nicht möglich, können die in dieser Studie extrahierten Parameter, die signifikant mit dem Behandlungsbedarf in Zusammenhang standen, als Indikatoren für Interventionen herangezogen werden. Auch die Selbsteinschätzung der Patienten lieferte in dieser Studie valide Daten des psychoonkologischen Betreuungsbedarfs. Das Erfassen der Daten, die Auswertung des Fragebogens und die Weiterleitung an die Psychoonkologie scheint jedoch weniger praktikabel und ökonomisch als die Erfassung mit der PO-Bado-KF. Wie in jeder Untersuchung bleiben auch nach Abschluss dieser Studie Fragen offen. Insbesondere wird genauer zu erforschen sein, inwieweit die psychosoziale Belastung der Patienten mit dem Zeitpunkt des psychoonkologischen Interviews zusammenhängt. Die Hypothese liegt nahe, dass Patienten, die auf eine Operation oder auf die Mitteilung der histologischen Befunde warten, höher belastet sind als Patienten, die diese spezifische Belastung zum Zeitpunkt des Interviews nicht haben. In der vorliegenden Untersuchung wurde dieser Frage nicht nachgegangen. Ferner bleibt zu untersuchen, ob sich Patienten, die sich selbst als nicht belastet wahrnehmen, vom Interviewer hingegen als belastet eingestuft werden, voneinander unterscheiden und ob Patienten mit einer psychoonkologischen Behandlungsindikation eine entsprechende Behandlung möchten bzw. diese in Anspruch nehmen. Auch die Überprüfung von Interventionseffekten durch die psychoonkologische Anamnese mittels PO-Bado-KF könnte wertvolle Hinweise liefern, ob dieses neu vorgelegte Screeninginstrument über ein größeres Potenzial verfügt, als bisher angenommen.
Hintergrund: Die Einnahme vieler Antidepressiva und Antipsychotika in der frühen Schwangerschaft kann nach aktuellem Forschungsstand als sicher bezüglich des Risikos für Fehlbildungen erachtet werden. Daten hinsichtlich der Sicherheit einer Psychopharmakotherapie während der Stillperiode sind hingegen rar. Die meisten Betroffenen würden einerseits gerne ihre Kinder stillen, andererseits wollen sie aber auch sicher sein, dass sie ihrem Nachwuchs dadurch nicht schaden.
Ziele: Unser Ziel war es herauszufinden ob eine Korrelation zwischen der Tagesdosis der Psychopharmaka und der Medikamentenkonzentration im Serum sowie in der Muttermilch (MM) besteht. Weiterhin untersuchten wir, ob es eine allgemeingültige Regeln gibt, wie sich Muttermilchmedikamentenkonzentrationen im Tagesverlauf verhalten. Außerdem wollten wir herausfinden ob die Medikamentenexposition in der Schwangerschaft und/oder Stillperiode einen Einfluss auf die Entwicklung des Kindes in den ersten zwölf Lebensmonaten hat.
Methoden: Wir untersuchten therapeutische Medikamentenspiegel parallel in Serum und MM zu verschiedenen Zeitpunkten um herauszufinden wann die höchsten/niedrigsten Konzentrationen ermittelt werden konnten. Neben dem Talspiegel, nach 12 h oder 24 h (T1), sammelten wir Proben 4 h (T5) und 8 h (T6) nach der Medikamenteneinnahme sowie direkt nach der Medikamenteneinnahme (T2), 1 h nach T2 (T3) und direkt beim nächsten Stillen (T4). Die Messungen wurden im TDM Labor im Zentrum für psychsiche Gesundheit, Universitätsklinikum Würzburg mittels isokratischer reversed-phase high performance liquid Chromatographie durchgeführt. Wir rekrutierten 25 Patientinnen, die in der ambulanten Spezialsprechstunde für psychiatrische Erkrankungen in Schwangerschaft und Stillzeit behandelt wurden. 68% der Patientinnen nahmen in der Schwangerschaft schon ein Psychopharmakon ein. Die Patientinnen litten an unipolaren Depressionen (n = 15), bipolaren Störungen (n = 2), schizoaffektiven Störungen (n = 2) sowie Angst- (n = 4) und Zwangsstörungen (n = 2). Das Spektrum von Antidepressiva und Antipsychotika erstreckte sich von Amitriptylin/Nortriptylin, Clomipramin/N-Desmethyl-Clomipramin, Mirtazapin, Escitalopram, Citalopram, Sertralin, Venlafaxin/ O-Desmethyl-Venlafaxin bis hin zu Lamotrigin und Quetiapin. Weiterhin erfassten wir ob es postnatale Auffälligkeiten sowie im Verlauf Entwicklungsauffälligkeiten bei den exponierten Kinder gab (Daten aus den routinemäßigen U-Untersuchungen der ersten 12 Lebensmonate). Um mehr Daten zur Kindesentwicklung zu sammeln, interviewten wir in einem retrospektiven Unterprojekt 14 weitere Patientinnen, die in der Vergangenheit von der Thematik betroffen waren.
Ergebnisse: Die parallel bestimmten Talspiegel in Serum und MM korrelierten nicht signifikant bei der Analyse aller Medikamente zusammen oder bei der Analyse der einzelnen Medikamente (Spearman Rho Korrelation, p > 0,05). Die Talspiegel im Serum korrelierten weder signifikant mit den Muttermilchkonzentration nach 4 h (T5), noch mit denen nach 8 h (T6) (Spearman Rho Korrelation, p = 0,46; p = 0,08). Die Tagesdosis korrelierte signifikant mit dem Talspiegel im Serum (p = 0,001), jedoch nicht mit den gleichzeitig bestimmten Muttermilchkonzentrationen (p = 0,88). Die Konzentrationen von Venlafaxin in der MM fielen relativ hoch aus. Es zeigte sich eine große interindividuelle Variation der Konzentrationen der unterschiedlichen Medikamente zu verschiedenen Zeitpunkten. Clomipramin und Quetiapin konnten gar nicht oder nur in sehr niedrigen Konzentrationen in der MM gemessen werden (n = 2, n = 4) wie auch Sertralin (ohne Ausreißer-Werte) und Escitalopram. Auch konnte Quetiapin nicht im Serum eines gestillten Kindes nachgewiesen werden, bei dem wir Blutproben gewinnen konnten (n = 1). Keines der gestillten Kinder zeigte negative Auswirkungen aufgrund der Medikation. Die höchste „concentration-bydose-ratio“ (C/D) in der MM wurden für Venlafaxin (n = 4, C/D MM = 5,11) und Lamotrigin (n = 1, C/D MM = 10,0) errechnet, während Clomipramin (n = 2, C/D MM = 0,0), Quetiapin (n = 4, C/D MM = 0,02) und Sertralin (n = 3, C/D MM = 0,03) die niedrigsten Quotienten zeigten. Wir kalkulierten die höchste „milk-to-plasma-ratio“ (M/P) für Mirtazapin (n = 3, M/P = 3,92) und Venlafaxin (n = 2, M/P = 2,4) sowie die niedrigsten für Clomipramin (n = 2, M/P = 0), Quetiapin (n = 3, M/P = 0,03) und Sertralin (n = 3, M/P = 0,08), was für ein niedriges Eindringungsvermögen vom Serum in die MM spricht.
Einleitung: Seit der Entschlüsselung des menschlichen Genoms ist die Bedeutung genetischer Forschung im Bereich der Prävention und Therapie chronischer Erkrankungen, zum Beispiel des Typ-1-Diabetes, stark gestiegen. Großangelegte multizentrische Forschungsarbeiten wie die Projekte des International Type 1 Diabetes Genetics Consortium (T1DGC) arbeiten an der Aufdeckung noch unbekannter genetischer Prädispositionen zur Entwicklung eines Typ-1-Diabetes und benötigen dafür die Hilfe von Multiplex-Familien. Die Rekrutierung dieser Familien ist schwierig, da in nur 15% der Familien mit Typ-1-Diabetes mehrere Familienangehörige betroffen sind. Um die Motivation zur Studienteilnahme eines solch kleinen Kollektivs besser zu verstehen, wurde die Einstellung zu genetischer Forschung aus Teilnehmersicht untersucht. Hintergrund sind hier die bei vielen Forschern vorhandenen ethischen Bedenken hinsichtlich der psychischen Belastung bei genetischen Untersuchungen für die Teilnehmer. So besteht ein – bisher kaum untersuchter - allgemeiner Konsens, dass die Konsequenzen von Genanalysen für die Betroffenen nicht einzuschätzen sind. Somit stehen die Forscher vor dem Dilemma, welches in der Notwendigkeit, Genanalysen durchzuführen, und in der Furcht vor einer zu hohen psychischen Belastung der teilnehmenden Personen besteht. Dies hat derzeit zur Folge, dass den Teilnehmern die Ergebnismitteilung in der Regel verwehrt wird. Ergebnisse: Von 180 angeschriebenen füllten 140 Teilnehmer des T1DGC-Projektes einen Fragebogen hinsichtlich ihrer Meinung zu genetischer Forschung und ethischen Fragestellungen anonym aus: 88,6% der Teilnehmer äußerten, dass sie generell genetische Forschung als sehr wichtig ansehen. Es gaben 60% der Befragten an, dass sie nicht genügend Informationen über das Projekt erhalten hatten. 95% der Teilnehmer wünschten ein vollständiges Verständnis der wichtigsten Studiendetails. Als bevorzugte Informationswege gaben die Teilnehmer schriftliche Informationen per Post oder durch eine Internet-Website an. 83,2% der Befragten möchten über das Vorliegen einer erblichen Hochrisiko-Konstellation für das Auftreten von Komplikationen informiert werden. Im Falle des Nachweises eines Hochrisikogens für Typ-1-Diabetes möchten 87,6% darüber aufgeklärt werden. 96,4% der Teilnehmer sind generell an einer Ergebnismitteilung interessiert. Es zeigten sich keine signifikanten Unterschiede im Antwortverhalten in Abhängigkeit von Betroffenenstatus, Alter, Geschlecht, Staatsangehörigkeit, Familienstand sowie Schul- bzw. Berufsabschluss. Schlussfolgerung: Für die Teilnehmer genetischer Studien zum Thema Typ-1-Diabetes ist der Wunsch nach ausführlicher, individuell angepasster Information grundlegend. Es muss festgestellt werden, dass die Teilnehmer am International Type 1 Diabetes Genetics Consortium (T1DGC) sich gut betreut, doch letztlich nicht ausreichend informiert gefühlt haben. Daraus lässt sich ableiten, dass neben dem individuellen Beratungsgespräch auch schriftliche Informationen mit klar konzipierter Wissensaufbereitung in Form von Websites, Broschüren und Rundbriefen (in elektronischer und/oder gedruckter Form) empfehlenswert sind. Ein wichtiges Ergebnis ist ferner, dass die Befragten die Sorge vieler Wissenschaftler und Ärzte nicht teilen, die Mitteilung eines erhöhten Erkrankungs- bzw. Komplikationsrisikos für einen Typ-1-Diabetes würde als zusätzliche Belastung empfunden werden. Im speziellen Fall der Multiplexfamilien bestanden allerdings bereits Erfahrungen mit der untersuchten Erkrankung des Typ-1-Diabetes. Eine Mitteilung, ob nun negativ oder positiv, wird im Vergleich zum Wissen um das Risiko keineswegs als psychische Bürde, sondern vielmehr als Chance zur Einflussnahme wahrgenommen. Es muss allerdings festgehalten werden, dass die Ergebnisse dieser Untersuchung sich mit dem Typ-1-Diabetes auf eine chronische, jedoch gut therapierbare und nicht generell lebenszeitverkürzende Erkrankung beziehen. Für die Übertragbarkeit der Ergebnisse auf andere genetisch-bedingte Erkrankungen ist weitere Forschung notwendig. Der bisher bestehende Konsens, im Rahmen genetischer Studien keine Ergebnismitteilung bezüglich chronischer, unheilbarer Krankheiten durchzuführen, muss überdacht werden. Den Studienteilnehmern ist das Recht auf Selbstbestimmung ein grundlegender Wert. Diese Selbstbestimmung beinhaltet, dass das Pro und Contra einer Ergebnismitteilung selbst eingeschätzt werden kann. Möchte ein Studienteilnehmer das Ergebnis der Auswertung seiner biologischen Proben erhalten, sollte ihm dies nicht verwehrt werden.
Mittels fragebogenbasierendem Screeningverfahren konnte bei 15,3% der
Patienten der pädiatrisch gastroenterologischen Ambulanz der
Darmstädter Kinderkliniken Prinzessin Margaret ein psychologischer bzw.
psychosomatischer Beratungs- und Behandlungsbedarf ermittelt werden.
Bei 40,3% der Patienten wurden grenzwertige Befunde erhoben, 44,4 %
blieben unauffällig. Im Vergleich zwischen einer Klinik der I. bis II.
Versorgungsstufe und einer universitären Klinik der III. Versorgungsstufe
besteht ein gering signifikanter Unterschied, dabei ist der Anteil
unauffälliger Ergebnisse mit 45,8% etwa gleich, es sind mit 21,4% jedoch
wesentlich mehr Auffälligkeiten und mit 32,8% weniger grenzwertige
Befunde zu verzeichnen. Begründet ist diese Differenz in der
Stichprobenstruktur und den unterschiedlichen Versorgungsspektrum der
Kliniken. Im Vergleich analoger Gruppen von Patienten mit chronisch
entzündlichen Darmerkrankungen und chronischen Bauchschmerzen
konnten keine signifikanten Unterschiede gemessen werden. Der größten
Beratungsbedarf konnte in der Gruppe Patienten mit Adipositas ermittelt
werden, in der universitären Klinik liegt der bei den Patienten mit
Lebererkrankungen. Einen überdurchschnittlich hohen Beratungsbedarf
findet man bei chronisch entzündlichen Darmerkrankungen und bei
Kindern- und Jugendlichen mit chronischen Bauchschmerzen mit und
ohne Nachweis einer Kohlenhydratmalabsorption.
Signifikante Unterschiede bestehen zwischen der Fremdbeurteilung durch
die Eltern und Selbstbeurteilung der Jugendlichen im Strengths and
Difficulties Questionnaire. In der Selbstbeurteilung finden sich 88,8%
unauffällige, 6,4% grenzwertige und 4,8% auffällige Ergebnisse. In der
Elternbeurteilung werden jeweils 14,4% der Kinder- und Jugendlichen als
auffällig und grenzwertig bezüglich des Verhaltens bewertet, 71,2%
erreichen Normwerte. Hinweise auf emotionale und
Verhaltensauffälligkeiten fanden sich insbesondere bei adipösen
Patienten, bei Kohlenhydratmalabsorptionen und bei chronisch entzündlichen Darmerkrankungen. In der Gruppe der adipösen
Jugendlichen fällt eine ausgesprochen negative Selbstbewertung auf.
Die gesundheitsbezogenen Lebensqualität wird durch die Eltern in 50,7%
der Fälle als eingeschränkt beurteilt. Nur 13,9% der Jugendlichen geben
eine Einschränkung der subjektiven Gesundheit an. Führend in Fremdund
Selbstbeurteilung sind Erkrankungen die eine spezifische Diät
notwendig machen wie Nahrungsmittelunverträglichkeiten und Zöliakie. In
der Selbstbeurteilung geben Patientin mit Adipositas und chronisch
entzündlichen Darmerkrankungen Einschränkung der subjektiven
Gesundheit an, auffällig ist die wesentlich positivere Einschätzung der
Situation durch die Eltern in diesen Gruppen. Schmerzen,
Krankheitsaktivität, jugendliches Alter und später Zeitpunkt der
Diagnosestellung beeinflussen die subjektive Gesundheit negativ.
In der Behandlung chronisch kranker Kinder- und Jugendlicher in der
pädiatrischen Gastroenterologie ist nicht nur bei Patienten mit
funktionellen Bauchschmerzen oder Ausscheidungsstörung die
interdisziplinäre Zusammenarbeit zwischen Kindergastroenterologie und
Psychosomatik bzw. Kinder- und Jugendpsychologie notwendig. Ein
besonderes Augenmerk muss, neben den Patienten die stark durch
Krankheitsaktivität oder Therapiemaßnahmen eingeschränkt sind, den
übergewichtigen Jugendlichen gelten. Bei Fragebögen müssen Elternund
Selbstbeurteilung beachtet werden, weitere Fremdbeurteilung durch
die behandelnden Ärzte oder Lehrer können hilfreich sein. Neben dem
kurativen Ziel bzw. der Remission muss die Therapie das Ziel haben, eine
möglichst uneingeschränktes alltägliches Leben zu gewährleisen, das
dem gleichaltriger, gesunder Kinder und Jugendlichen entspricht.
Hintergrund: Bei der Psoriasis handelt es sich um eine chronisch entzündliche Hauterkrankung, die bei 2 % der Bevölkerung auftritt. Da chronisch entzündliche Prozesse arteriosklerotische Veränderungen mitverantworten, interessierte uns in dieser Studie, wie ausgeprägt der koronare arterielle Gefäßkalk (CAC) bei Patienten mit Psoriasis im Vergleich zu einer Kontrollgruppe ist. Methode: Zwischen den Jahren 2000 und 2004 wurden 32 Patienten mit einer langjährigen und schweren Form der Psoriasis identifiziert und einer gesunden Kontrollgruppe nach dem „matched Pair“ Prinzip unter Berücksichtigung des Patientenalters, Geschlecht und bekannter kardiovaskulärer Risikofaktoren gegenübergestellt. Zuvor hatten sich alle Psoriasis Patienten und Kontrollpatienten einer multidetector-row computed tomography (MDCT) unterzogen, um die Quantität des CAC festlegen zu können. Die Patienten dieser Studie hatten keine zurückliegende oder gegenwärtig bestehende kardiovaskuläre Erkrankung. Ergebnisse: Patienten mit Psoriasis und die Kontrollpatienten konnten erfolgreich hinsichtlich der Parameter Alter, Geschlecht, Nikotinabusus, Diabetes, Body Mass Index, Cholesterin und Triglyzeride gegenübergestellt werden, die familiäre Disposition hinsichtlich bekannter kardiovaskulärer Erkrankungen wurde nicht in diese Studie eingebracht, da ein Ungleichgewicht mit Mehrheit seitens der Kontrollpatienten auftrat. Prävalenz und Quantität des CAC waren bei den Psoriasis Patienten deutlich höher. (Prävalenz: 59,4% vs. 28.1%). Die Gegenüberstellung aller untersuchten kardiovaskulären Risikofaktoren zeigte, dass Psoriasis die stärkste Fraktion bildet. Der mittlere CAC bei den Psoriasis Patienten betrug 3.7 gegenüber 0 bei den Kontrollpatienten (p=0.019 Mann-Whitney Rank Sum test). Interpretation: Psoriasis erhöht das Risiko zur Entstehung einer KHK. Mögliche Ursache ist der systemische Charakter der chronisch entzündlichen Psoriasis. Zukünftige Studien müssen zeigen, ob eine konsequente antiinflammatorische Therapie der Psoriasis zu einer Senkung des kardiovaskulären Erkrankungsrisikos führt.
Chronische pulmonale Infektionen mit Pseudomonas aeruginosa (PA) betreffen die überwiegende Mehrheit der erwachsenen Mukoviszidose (Cystische Fibrose, CF) Patienten.
Diese Infektionen führen gesichert zu einer Abnahme der Lungenfunktion und Zunahme der Mortalität der Patienten. Atemwegsviren stehen im Verdacht pulmonale Exazerbationen bei CF-Patienten auszulösen. Unklar ist jedoch, welchen Einfluss eine chronische Infektion mit PA auf die Anfälligkeit und Reaktion des Atemwegsepithels auf virale Infektionen hat.
Das Ziel dieser Arbeit war es daher, die Interaktionen zwischen PA, humanen Rhinoviren (HRV) und primären bronchialen Epithelzellen zu untersuchen. Hierfür wurden Zellen von jeweils drei Patienten mit CF und mit Lungenemphysem aus Lungenexplantaten isoliert und in einem speziellen Air- Liquid-Interface Zellkulturmodell zu einem mukoziliär differenzierten mehrreihigen Flimmerepithel kultiviert. Chronische Infektionen wurden mit klinischen PA Isolaten für einen Gesamtzeitraum von 16 Tagen durchgeführt. Anschließend wurden die Zellen mit HRV infiziert. Schlüsselzytokine, Interferone und virale RNA wurden mittels Cytometric bead array, ELISA und qPCR bestimmt.
Rein virale Infektionen mit HRV führten zu einem Anstieg von IL-1, -6, -8, TNF- α, IP10 und IFN-b, IFN-l1 sowie ISGs und in ähnlichem Ausmaß konnte dies auch bei Coinfektionen mit einem mukoiden PA-Isolat beobachtet werden. Coinfektionen mit einem nicht-mukoiden PA-Isolat führten im Vergleich zu rein viralen Infektionen zu vermehrter Expression von IL-1β und IL-6 mRNA. Während es unter diesen Bedingungen auch auf Proteinebene zu einem Anstieg der IL-1β Konzentration kam, lag die Konzentration von freiem IL-6 Protein in nahezu allen Proben unter der Nachweisgrenze. Zellkulturmedium aus Coinfektionen mit diesem nicht-mukoiden PA-Isolat führten zudem zu einem Abbau oder einer Bindung von extern zugegebenen rekombinantem IL-6.
IL-8, IP-10, TNF-α Protein und mRNA von IFN-β, -λ1 und ISGs, sowie die Viruslast waren vergleichbar zwischen rein viralen Infektionen und bakteriell- viralen Coinfektionen. Ebenfalls keine Unterschiede wurden zwischen Zellen von Emphysem und CF-Spendern gefunden. Insgesamt zeigen diese Daten, dass eine PA-Infektion die Antwort differenzierter bronchialer Epithelzellen auf eine Virusinfektion verändern kann. Die hierdurch veränderte Immunantwort und möglicherweise eingeschränkten epithelialen Reparaturmechanismen könnten eine Ursache aggravierter viraler Infektionen in P. aeruginosa-infizierten Atemwegen darstellen.
Ein besseres Verständnis der Interaktionen zwischen chronisch-bakteriellen und viralen Atemwegsinfektionen könnte potenziell die Behandlung virus-induzierter Exazerbationen bei PA-infizierten CF-Patienten verbessern.
Im Vergleich zur Implantation von Pedikelschrauben im Bereich der lumbalen Wirbelsäule stellt die Besetzung der thorakalen Pedikel hohe Anforderungen auch an erfahrene Wirbelsäulenchirurgen. Aufgrund der komplexen Anatomie der Brustwirbelsäule mit zum einen sehr kleinen Pedikeldurchmessern bei zugleich engem Spinalkanal und zum anderen der Nachbarschaft zu den großen Gefäßen besteht das Risiiko einer neurologischen Komplikation, sowie das einer Affektion der Gefäße. Ziel dieser klinischen Arbeit war die Überprüfung der Präzision der computertomographisch- assistierten Implantation von Pedikelschrauben bei traumatischen und pathologischen Wirbelsäulenveränderungen im Bereich der Brustwirbelsäule. Im Rahmen einer prospektiven Studie erfolgte von Dezember 2003 bis Oktober 2006 bei 39 Patienten mit einem Durchschnittsalter von 48,0 +/- 19,9 Jahren die Anlage eines Fixateur interne nach computertomographisch gesteuerter Drahtmarkierung der zu besetzenden Pedikel. Es wurden zu 60,1% massive Pedikelschrauben USSPedikelschrauben, Fa. Synthes/Umkirch/Deutschland) und zu 39,9% kanülierte Schrauben (NEON-System, Fa. Ulrich/Neu-Ulm/Deutschland) implantiert. Hierbei wurden zu 29,4% Pedikel der oberen Brustwirbelsäule, zu 48,2% Pedikel der mittleren Brustwirbelsäule und zu 17,8% Pedikel der unteren Brustwirbelsäule instrumentiert. Die restlichen Pedikelschrauben entfallen auf den zervikothorakalen und thorakolumbalen Übergang. Postoperativ erfolgte nach Anfertigung einer Computertomographie und multiplanarer Rekonstruktion die Auswertung der Schraubenlage von 254 implantierten Pedikelschrauben in drei Ebenen (sagittal, transversal und koronar). Bei der Auswertung wurde eine vollständige intrapedikuläre Lage der Schrauben, von Pedikelschrauben, die die Kortikalis affektieren ohne diese zu perforieren, und einer Schraubenlage mit Perforation der Kortikalis in mindestens einer Ebene unterschieden. Zusätzlich wurde das Größenverhältnis der Pedikelschrauben zum instrumentierten Pedikel analysiert, d.h. war der Durchmesser der Pedikelschraube größer als der des Pedikels und lag gleichzeitig eine zentrale Lage der Schraube vor, wurde dies als anatomisch bedingte Perforation definiert. Zu 79,6% wurde eine zentrale Lage der Pedikelschrauben dokumentiert, 16,9% der Schrauben wiesen in der multiplanaren Rekonstruktion lediglich eine Affektion der Kortikalis ohne Perforation auf. Eine „echte“ Perforation des Pedikels fand sich bei 7,5% der implantierten Pedikelschrauben. Hierbei lag lediglich in 1,2% eine mediale Kortikalisperforation vor. Bei keinem der Patienten kam es zu einer durch die Schraubenlage bedingten neurologischen Verschlechterung. Des Weiteren war bei keinem der Patienten eine Korrektur der Schraubenlage notwendig. Durch die vorliegende Studie konnte gezeigt werden, dass die computertomographischassistierte Implantation von Pedikelschrauben im Vergleich zu in der Literatur vorliegenden Daten, vor allem im Bereich der „echten“ Fehllage mit Perforation des Pedikels, hervorragende Ergebnisse aufweist. Insbesondere bei schwierigen anatomischen Verhältnissen ist diese Vorgehensweise ein sicheres und reproduzierbares Verfahren für die dorsale Instrumentierung bei traumatischen und pathologischen Veränderungen der thorakalen Wirbelsäule.
Momentan ist kein vollständig befriedigendes System zur quantitativen Diagnostik fokaler Knorpeldefekte (Osteochondrosis dissecans, osteochondrale Frakturen) und deren Therapieevaluierung verfügbar. In dieser Studie wurde die Genauigkeit der quantitativen Magnetresonanztomographie zur Bestimmung von Knorpeldefekten unterschiedlicher Größe und unterschiedlicher Lokalisation überprüft. Ziele der vorliegenden Studie waren 1.) die Eignung der T1-gewichteten 3D FIß..SH Gradientenecho-Sequenz mit selektiver Wasseranregung zur nicht invasiven Erfassung fokaler Knorpeldefekte am Präparat des menschlichen Kniegelenks bei akzeptabler Akquisitionszeit zu prüfen, 2.) die erfolgreiche Detektion aller Defekte zu bestätigen bzw. zu analysieren bis zu welcher Defektgröße mit den beschriebenen Methoden diese möglich ist und die entsprechende Meßgenauigkeit festzustellen und 3.) das Vorhandensein einer vergleichbaren oder einer unterschiedlichen Genauigkeit der qMRT für die verschiedenen Gelenkflächen (Patella, mediale und laterale Tibia) aufzuzeigen. 36 Kniegelenkspräparate bzw. deren tibiale und patellare Knorpel-KnochenFlächen wurden bei arthroplastischen Operationen des Kniegelenkes von 24 Patienten entnommen und gesammelt. Anschließend wurden insgesamt 74 künstliche Stanzdefekte, mit den Durchmessern von 3, 5 und 8 mm in die Knorpelflächen der Präparate gesetzt. In 15 Patienten (51 Defekte) wurde der knorpelige Stanzzylinder entfernt (Methode A), während bei 9 Patienten (23 Defekte) der Stanzzylinder stehen blieb und die unmittelbar umgebende Knorpelfläche entfernt wurde (Methode B). Die Präparate wurden magnetresonanztomographisch in einem Hochfeld gemessen, wobei eine zuvor validierte hochauflösende T1-gewichtete 3D FIß..SH GradientenechoSequenz mit selektiver Wasseranregung zur Anwendung kam. Anschließend erfOlgte die Bearbeitung der einzelnen Schichtbilder mit einem 3DNachbearbeitungsprogramm: die Knorpelflächen bzw. Stanzdefekte wurden segmentiert und markiert. Nur auf diese Weise konnte aus diesen Daten dieDefektgröße berechnet und eine dreidimensionale Darstellung der Strukturen -u abhängig von ursprünglicher Lage und Orientierung der Schichtenerreicht werden. Es erfolgte ein Vergleich der systematischen bzw. absoluten Abweichung der gemessenen Defektgrößen mit der tatsächlichen Größe der künstlich gesetzten Defekte. Anhand eines .paired Student's t-test" wurden die Signifikanzen statistisch überprüft. Die graphische Darstellung der Ergebnisse erfolgte in einem Box-and- hiskers-Plot. Unabhängig von der verwendeten Testmethode und verwendeten Defektgröße konnten alle künstlich gesetzten Stanzdefekte mit der MRTAnalyse wiedergefunden werden. Die Genauigkeit der Größenerfassung verbesserte sich mit der Größe des Defektes. Während die 3mm (1,3mm, 42%) und 5mm (1mm, 21%) Defekte jeweils signifikant überschätzt wurden, fand man bei der Defektgröße von 8mm (O,1mm, 4%) keine signifikante Abweichung mehr vor. Zwischen den Testmethoden A und B ergab sich kein Unterschied. Die unterschiedlichen Gelenkflächen (Tibia medial, lateral und Patella) zeigten in der getrennten Untersuchung keine Abweichungen in der Genauigkeit der Messung. Die Ergebnisse zeigen, daß sich die MRT, bei der Verwendung einer bestimmten Sequenz, eignet, eine quantitative Bestimmung fokaler Knorpeldefekte in allen Bereichen des menschlichen Kniegelenkes durchzuführen. Der klinisch relevante Bereich der Mehrzahl der Knorpeldefekte liegt bei 1,5 cm2 und größer und kann somit mit der in dieser Studie präsentierten Methode genau detektiert werden. Dies kann die Diagnose einer Osteochondrosis dissecans und osteochondraler Frakturen sowie die Planung der operativen Therapie und die Therapiekontrolle objektivierbar und quantifizierbar machen.
Zur ergonomischen Beurteilung von Arbeitsplätzen werden „ergonomic risk assessment tools“ (ERAT) verwendet. Mithilfe dieser kann die körperliche Belastung evaluiert und hinsichtlich eines biomechanischen Überlastungsrisikos bewertet werden. Dazu gehören neben Eigenangaben auch observatorische Methoden, deren Ergebnisse in Punktwerten („Scores“) zusammengefasst werden, wie z. B. die RULAMethode („rapid upper limb assessment“). Durch die technische Weiterentwicklung direkter Messmethoden können inertiale Motion-Capture-Systeme im 21. Jahrhundert präzise und kontinuierliche objektive Daten liefern. In einem neuen Ansatz wurde die observatorische Scoring-Methode RULA modifiziert und auf die digital erhobenen Daten angewendet, was differenzierte ergonomische Betrachtungen ganzer Arbeitsabläufe ermöglicht.
Im Jahre 2002 wurde von der Food and Drug Administration (FDA) ein vermehrtes Auftreten von Meningitiden bei Cochlea-Implant (CI) -Trägern verzeichnet. Dies wurde durch eine retrospektive Studie des Centers for Disease Control (CDC) bestätigt: Unter 4264 Kindern musste ein mehr als 30fach erhöhtes Erkrankungsrisiko für Meningitis nach CI-Versorgung verzeichnet werden. Als häufigster Krankheitserreger ließ sich Streptococcus pneumoniae isolieren, dessen Pathogenität u.a. von speziellen Wirtsfaktoren - z.B. schlechte Abwehrlage, Z.n. Meningitis - abhängig ist. Zur Evaluierung bestehender Impfempfehlungen hinsichtlich Pneumokokkeninfektionen wurden in der Klinik für Pädaudiologie in Zusammenarbeit mit der Kinderimmunologie 174 CI-Träger untersucht hinsichtlich ihres Immunstatus und ihrer Ansprechbarkeit auf die Impfstoffe: Pneumokokken-Polysaccharid-Vakzine (PPV23) und Pneumokokken-Konjugat-Vakzine (PCV7). Es wurde eine Einteilung bezüglich Patientenalter sowie der Genese der Schwerhörigkeit vorgenommen. Es zeigte sich u.a. im Alter von 2 - 5 Jahren eine signifikant immunogenere Wirkung des PCV7 sowie eine schlechtere Immunsituation bei postmeningeal Ertaubten. Daher empfiehlt es sich, alle CI-Träger bis zum 5.Lebensjahr sowie Patienten mit zusätzlichen Risiken über das 5. Lebensjahr hinaus nach einem kombinierten Pneumokokken-Impf-Schema: PCV7 und PPV23 zu immunisieren.
Trotz der Spenderauswahl, des serologischen Screenings der Blutspenden auf antiHIV-1, anti-HIV-2, anti-HCV und HBsAg, Inaktivierungs- und Eliminierungsverfahren bleibt ein Restrisiko für hämatogen übertragbare Viren bei Plasmapools und den daraus hergestellten Präparaten. Als zusätzliche Screeningmethode zur Erhöhung der Virussicherheit wird inzwischen die Testung der Einzelspende bzw. von Minipools auf HCV-RNA verlangt. In der vorliegenden Arbeit wurden 142 HBsAg, anti-HCV- und anti-HIV-11-2 negative Plasmapools, sowie Plasmapräparate (Immunglobulinpräparat und F IX Präparat), welche zum Teil aus für HGV-RNA PCR-positiven Ausgangspools hergestellt worden waren, mittels PCR auf das Vorhandensein von HGV-Nukleinsäure untersucht. Alle untersuchten Pools bzw. Plasmapräparate stammten von Spenden zwischen 1994 und 1996, also vor der Einführung der genannten Pflichttestung auf HCV-RNA. HGV-RNA wurde in 117 der 142 Plasmapools (82,4%) amplifiziert. Allerdings war HGV-RNA nur in einer (6,3%) von 16 IgG-Chargen aus für HGV-Nukleinsäure positiven Kryoüberständen nachweisbar. In 2 (6,5%) von 31 unselektierten Immunglobulinpräparaten war eine HGV- Kontamination vorhanden. Eine routinemäßige Anwendung der PCR ist zur Zeit aus technischen sowie Kosten-Nutzen-Überlegungen für HGV nicht zu empfehlen, solange die klinische Relevanz nicht gesichert ist. Die Ergebnisse unterstreichen die Wichtigkeit der im Herstellungsprozeß integrierten Viruseliminierungsverfahren, denn bei der vorliegenden Studie konnte nur in einem geringen Anteil der Endproduktchargen HGV-Nukleinsäure nachgewiesen werden.
Die traditionellen Behandlungspositionen der Zahnärzt/innen hinter, neben und vor dem/r Patienten/in führen zur asymmetrischen Neigung und Verdrehung des Kopfes sowie des Rumpfes. Die Folge können Fehlhaltungen sein, die Muskel-Skelett-Erkrankungen verursachen. Das erklärt wahrscheinlich die hohe Prävalenz bei Zahnärzt/innen und zahnmedizinischen Fachangestellten. Daher werden in dieser Übersicht mögliche Ursachen und Konsequenzen der Prävalenz sowie ergonomische Maßnahmen für diese Berufsgruppen aufgeführt. Zudem erläutern wir ergonomische Empfehlungen für die Sitzhaltung von Zahnärzt/innen auf Basis der vorhandenen Literatur.
Hintergrund und Problemstellung: Viele vermeidbare Medikamentennebenwirkungen bei älteren Patienten haben ihre Ursache in der fehlenden Dosisanpassung bei Niereninsuffizienz. Beim Patienten über 65 Jahre liegen die Serumkreatininwerte oft noch im Normbereich, während die tatsächliche Nierenfunktion schon deutlich beeinträchtigt ist. Eine genauere Beurteilung der Nierenfunktion ist mit der Berechnung der glomerulären Filtrationsrate möglich. In der vorliegenden Untersuchung wurde in einer Praxisgemeinschaft einer hausärztlich tätigen Internistin und einer Fachärztin für Allgemeinmedizin in Frankfurt retrospektiv exploriert, ob niereninsuffiziente Patienten als solche erkannt wurden und wenn ja, ob sie dosisadaptiert mit Medikamenten versorgt wurden, bzw. in wie vielen Fällen sie fehlerhafte Verordnungen erhielten. Methode: Eine Zielpopulation von 100 Patienten mit moderater bis schwerer Nierenfunktionseinschränkung (Kreatinin-Clearance von 60 oder kleiner) wurde retrospektiv hinsichtlich der verordneten Medikation untersucht. Dabei wurde die glomeruläre Filtrationsrate mittels Cockroft-Gault-Formel errechnet. Bei nierensensiblen Substanzen wurde die in der Fachinformation empfohlene Dosis mit der tatsächlich verordneten Dosis verglichen. Ergebnisse: Die Ergebnisse dieser Untersuchung zeigen, dass von 232 auswertbaren Patienten 102 eine errechnete Kreatinin-Clearance von weniger als 60 ml/min aufwiesen, obwohl bei 48 Patienten der Serumkreatininlevel noch im Normbereich lag. Eine Dosisanpassung wegen Niereninsuffizienz war bei 261 von 613 Verordnungen erforderlich und wurde in 189 Fällen wie empfohlen umgesetzt. In 72 Fällen (27%) wurde sie nicht korrekt durchgeführt. Hier wurde die Dosis 32 mal nicht angepasst, 40 mal wurde trotz Kontraindikation verordnet. Das Risiko einer Fehlverordnung war signifikant assoziiert mit dem Vorliegen einer schweren Nierenfunktionsstörung (GFR < 30ml/min). Mit dem Vorliegen eines normalen Serumkreatininwerts waren keine signifikanten Assoziationen nachweisbar. Die Substanzen Metformin, Ramipril, Enalapril, HCT, Spironolacton und Simvastatin machten den Hauptanteil der Fehlverordnungen im Bereich der Dauermedikation aus. Bei den temporären Verordnungen waren im Schwerpunkt Antibiotika (Cefuroxim, Cefpodoxim, Levofloxacin) und Antiphlogistika (Diclofenac, Ibuprofen) betroffen. Schlussfolgerung: In einer durchschnittlichen Hausarztpraxis kommen in signifikanten Maße Fehlverordnungen vor. Die Gründe hierfür sind vielfältig. Insbesondere das Verschreibungsverhalten von Hausärzten hat eine zentrale Bedeutung für die Patientensicherheit bei Medikamentenverordnung und sollte unbedingt Gegenstand weiterer Untersuchungen sein.
Es wurde die Seroprävalenz von Erregern mit und ohne Tropismus zu Gefäßendothelzellen, wie Chlamydia (C.) pneumoniae, C. trachomatis, C. psittaci, verschiedene Herpesviren (Cytomegalie-Virus (CMV), Epstein-Barr-Virus (EBV), Herpes simplex Typ l und 2-Virus, Varizella Zoster-Virus (VZV)) sowie Masern- und Mumpsviren, bei Patienten mit koronarer Herzerkrankung (KHK) (n=167) und zwei Kontrollkollektiven ohne Herzerkrankung (n=400, n=108) ermittelt. Die IgG-Antikörperprävalenzen betrugen im KHK-Kollektiv für C. pneumoniae 79,6% bzw. in den Kontrollkollektiven 72,5% und 66,7%, für C. trachomatis 4,8% bzw. 6,8% und 2,8%, für C. psittaci 3% bzw. 3,5% und 6,5%, für CMV 72,9% bzw. 74,3% und 79,2%, für EBV 95,1% bzw. 93.1% und 94%, für Herpes simplex 1/2 91,8% bzw. 87,4% und 91,3%, für Masern 99,2% bzw. 100% und für Mumps 93,4% bzw. 86,5% und 84,8%. Die Prävalenzen der VZV-IgA waren 60,3% bzw. 57,3% und 54%. Bei dieser Untersuchung zeigten sich somit keine signifikanten Unterschiede in den Antikörperprävalenzen zwischen den einzelnen Kollektiven. Wurden kranke, stationäre Patienten aus dem Kontrollkollektiv ausgeschlossen, so fand sich in diesem zweiten Kontrollkollektiv mittels Chi2-Test eine signifikant niedrigere Prävalenz (66,7%) der C. pneumoniae-IgG-Antikörper im Vergleich zu Patienten mit KHK (79,6%), (p=0,02). Die Untersuchung der geschlechtsspezifischen Prävalenzen zeigte für Männer (82,6% bzw. 78,5% und 73,2%) eine höhere Durchseuchung als für Frauen (55,6% bzw. 63% und 59,6%). Beim Vergleich gleichgeschlechtlicher Gruppen fanden sich keine signifikanten Unterschiede. Eine Assoziation von C. pneumoniae oder CMV mit der atherosklerotischen, koronaren Herzerkrankung konnte somit durch unsere* Untersuchung nicht bestätigt werden. Die Wahl der Kontroll-Gruppen kann möglicherweise die Ergebnisse der Metaanalyse früherer Assoziationsstudien beeinflußt haben.
Kardiovaskuläre Erkrankungen stellen in Deutschland die häufigste Todesursache dar [1]. Eine Schlüsselrolle wird hierbei der koronaren Herzkrankheit (KHK) auf dem Boden einer Atherosklerose zuteil. Die Prävalenz der koronaren Herzkrankheit in Deutschland lag 2012 laut Zahlen des Robert Koch-Instituts bei 8,3 %; dies entspricht 6,64 Millionen Menschen. Die Spitzengruppe bilden die über 65-Jährigen mit einer Erkrankungshäufigkeit von 18,3 % bei Frauen und 27,8 % bei Männern. Oberstes Therapieziel bei der Behandlung der KHK ist die Prävention von Myokardinfarkten und Herzinsuffizienz. Wegweisend für das therapeutische Procedere sind die klinische Situation des Patienten und die Ergebnisse der kardialen Diagnostik. Sind mehrere Koronargefäße betroffen oder bestehen komplizierte Gefäßverengungen ist die Indikation zur operativen Myokardrevaskularisierung gegeben. Im Jahr 2015 unterzogen sich in Deutschland 51.941 Patienten einem solchen Eingriff [2]; weltweit erhalten jährlich fast eine Millionen Patienten eine Bypass-Operation [3]. Für den Therapieerfolg ist postoperativ eine suffiziente Thrombozytenaggregationshemmung von essentieller Bedeutung. Daher wird zur Sekundärprophylaxe eine lebenslange antiaggregatorische Medikation empfohlen; das am häufigsten hierfür genutzte Medikament ist Acetylsalicylsäure (ASS) [4]....
Ziel der vorliegenden Studie war, mittels MEA, die Prävalenz und mögliche Prädiktoren einer ASS-Nonresponse in einer Kohorte kardiochirurgischer Patienten zu analysieren.
Es wurden folgende Nullhypothesen aufgestellt:
- Die tägliche Einnahme von 100 mg ASS ist ausreichend, um bei allen Patienten eine therapeutische Thrombozytenaggregationshemmung zu erreichen.
- Es existieren keine Prädiktoren für die mittels MEA detektierte ASSNonresponse.
Die spontan bakterielle Peritonitis (SBP) ist eine spontan auftretende, bakterielle Infektion des Peritoneums und gilt als eine der schwerwiegendsten Akutkomplikationen der dekompensierten Leberzirrhose. Die Diagnosestellung der SBP erfolgt aufgrund der okkulten klinischen Symptome häufig verspätet, was mit einer deutlich verkürzten Lebenserwartung einhergeht. Auch im Falle einer Kolonisation oder Infektion durch multiresistente Erreger (MRE) ist die Prognose bei Patienten mit dekompensierter Leberzirrhose deutlich vermindert. Der pathophysiologische Zusammenhang sowie die prognostische Relevanz von MRE als Auslöser einer SBP sind bislang nicht bekannt. Die Prävalenz der MRE bei Patienten mit Leberzirrhose ist jedoch steigend. Die Identifizierung von Patienten mit hohem Risiko für eine Infektion mit MRE ist unerlässlich für eine frühzeitige Anpassung der Antibiotikatherapie bei diesen Patienten. In einem Ansatz, die Wahrscheinlichkeit einer durch MRE ausgelösten SBP (MRE-SBP) zu beurteilen, wurde untersucht, ob in Asziteskulturen nachgewiesene MRE auch durch nicht-invasive Screening-Verfahren ermittelt werden können.
Die vorliegende Arbeit wurde am Leberzentrum des Universitätsklinikums Frankfurt am Main durchgeführt. In einer retrospektiven Studie untersuchten wir Patienten aus den Jahren 2011 bis 2016 mit Diagnose einer SBP, bei denen aerobe und anaerobe Asziteskulturen entnommen worden sind und ein vollständiges MRE-Screening (multiresistente gram-negative Bakterien, Vancomycin-resistente Enterokokken (VRE) oder Methicillin-resistenter Staphylokokkus aureus (MRSA)) durchgeführt worden ist. Ziel der Studie war letztlich die Charakterisierung von Patienten mit SBP und MRE-Nachweis (MRE- SBP), die Untersuchung des Überlebens dieser Patienten und die Definition von Risikofaktoren für eine MRE-SBP.
133 Patienten erfüllten die Einschlusskriterien. Unter diesen hatten 75/133 Patienten (56%) positive Asziteskulturen und 22/133 (17%) eine SBP mit kulturellem MRE-Nachweis im Aszites (MRE-SBP). Von den Patienten mit positiven Asziteskulturen hatten 29/75 (39%) gram-positive, 25/75 (33%) gram- negative und 21/75 (28%) sowohl gram-positive als auch gram-negative Erreger
im Aszites. Multiresistente Erreger (multiresistente gram-negative Erreger, VRE oder MRSA) wurden insgesamt bei 72/133 Patienten (54%) ermittelt. Unter den Patienten mit MRE-SBP dominierten der multiresistente Escherichia coli (E.coli) (10/22; 46%) und VRE (7/22; 31%). Rektalabstriche identifizierten MRE bei 17/22 Patienten (77%), die eine MRE-SBP mit einer zeitabhängigen Sensitivität von 77% und 87% innerhalb von 30 bzw. 90 Tagen nach dem Screening entwickelten; der negativ prädiktive Wert betrug 83% bzw. 76%. Es bestand kein relevanter Unterschied des MELD-, CLIF-AD- und ALBI-Scores bei Patienten mit und ohne MRE-SBP. Eine Sepsis war auch bei Patienten mit MRE-SBP die Haupttodesursache (8/22; 36%; p<0.001) verglichen mit anderen Todesursachen in 7/22 Fällen (32%). Eine Umstellung der initialen antiinfektiven Therapie ging mit einem erhöhten Sterblichkeitsrisiko bei Patienten mit (p=0.002) und ohne MRE-SBP (p=0.014) einher.
Wir konnten zeigen, dass unabhängig von der Leberfunktion das Überleben bei Patienten mit MRE-SBP stärker beeinträchtigt ist als bei anderen Patienten mit SBP. Das Auftreten von multiresistenten Organismen ist eine schwerwiegende Komplikation bei Patienten mit dekompensierter Leberzirrhose und Ansätze zur Verbesserung des Überlebens dieser Patienten sind erforderlich. Unter Berücksichtigung der Hospitalisierungsdauer, MRE-Historie und ggfs. des zu erwartenden Erregerspektrums der hiesigen Stationen muss daher bereits initial eine individuelle, empirische antiinfektive Therapie gewählt werden. Eine entsprechende Anpassung nach Erhalt des Antibiogramms kann erforderlich sein. Weiterhin untersuchten wir den Nutzen eines nicht-invasiven Screenings (rektales, nasopharyngeales und kutanes MRE-Screening), um Patienten mit Risiko für eine MRE-SBP zu identifizieren. Das MRE-Screening kann als nicht- invasives diagnostisches Instrument hierfür dienen. Patienten mit dekompensierter Leberzirrhose sollten vom ersten Tag der stationären Behandlung auf Kolonisierung mit MRE untersucht werden.
Die vorliegende Promotionsarbeit fokussiert auf das transfusionsbedingte Infektionsrisiko bezüglich Hepatitis B-Virus Infektionen. Da das Restinfektionsrisiko bezüglich Hepatitis B deutlich höher als das Restinfektionsrisiko bezüglich Hepatitis C oder HIV-Virus Infektionen anzusehen ist, konzentriert sich die vorliegende Arbeit auf den Stellenwert von Anti-HBc Antikörper für das Blutspenderscreening. In der vorliegenden Arbeit wurden zunächst unterschiedliche Anti-HBs Screening Assays synoptisch bezüglich der Sensitivität und Spezifität sowie anderer Test-Parameter miteinander verglichen und die Prävalenz und Infektiosität Anti-HBc-Ak positiver Blutspenden des Blutspendedienstes Hessen / Baden-Württemberg untersucht. Anschließend erfolgte eine Screening an fünf unterschiedlichen Standorten in Deutschland zur Prävalenz von Anti-HBc sowie zum Prozentsatz von chronisch infizierten Hepatitis B positiven Spendern. Anhand von Lookback Untersuchungen von chronisch infizierten Anti-HBc positiven und HBV DNA positiven Spendern konnte untersucht werden, inwieweit die Transfusion dieser niedrig virämischen Spender zu einer Übertragung von Hepatitis B in der Vergangenheit geführt hat. Darüber hinaus wurde eine Fall-Kontroll-Studie durchgeführt, mit der Fragestellung, inwieweit allein das Vorhandensein von Hepatitis B Antikörper (Anti-HBc Antikörper und Anti-HBe Antikörper) ohne Nachweis von HBV DNA, bereits ein erhöhtes Transfusionsrisiko darstellt. Zusätzlich wurden Daten bezüglich der heutigen Relevanz der HBs-Ag Testung im Blutspendewesen erhoben. Anschließend wurden alle drei für die Doktorarbeit relevanten Screeningparameter bezüglich Hepatitis B für das Blutspenderscreening (HBV Minipool PCR, HBs-Ag Test und Anti-HBc Test) bezüglich der Kosten pro gewonnenen QALY (Quality Adjusted Life Years) berechnet und wieder synoptisch miteinander verglichen. In der abschließenden Diskussion wurden unterschiedliche Screening Szenarien auf ihre Wertigkeit bezüglich der Sicherheit der Blutprodukte sowie auf ihre Kosten-Nutzen-Analyse hin betrachtet. Festgestellt wurde, dass durch die Anti-HBc-Ak Diagnostik im Blutspendewesen eine erhöhte Sicherheit bezüglich einer transfusionsbedingten HBV Transmission erzielt werden kann. Unter ca. 1,4 Millionen untersuchten Spendern konnten 21 HBV DNA positive Spender (alle niedrige HBV DNA Konzentrationen) ermittelt werden. Bei keinem der jeweiligen Empfänger konnte eine Infektion bestätigt werden, bei einem wäre sie möglich gewesen. Dabei konnte gezeigt werden, dass sich das PRISM® HBcore™ Testsystem wegen guter Sensitivität aber auch gleichzeitig guter Spezifität (signifikant besser als PRISM® HBc™) am besten zur Anti-HBc-Ak Routinetestung im Blutspendedienst eignet und selbst bei sehr hohem Probenaufkommen bewährt hat. Im Vergleich unterschiedlicher Testsysteme hatte der AxSym® CORE™ die höchste analytische Sensitivität, im weiteren Vergleich schnitten die untersuchten Assays annähernd gleich ab, zwischen dem PRISM® HBcore™ und PRISM® HBc™ konnte kein weiterer signifikanter Unterschied festgestellt werden. Des weiteren konnte gezeigt werden, dass Anti-HBc-Ak einen guten und sinnvollen Parameter zur HBV Diagnostik darstellt, der, in Verbindung mit der Pool-PCR, eventuell sogar die HBs-Ag Testung abzulösen in der Lage ist. Anhand der im Rahmen dieser Studie erhobenen Daten wären alle HBs-Ag positiven Blutprodukte auch mittels der Pool-PCR und Anti-HBc-Ak Diagnostik identifiziert worden. Darüber hinaus wurden einige HBV positive Blutprodukte mit diesen Verfahren erkannt, die mittels der klassischen HBs-Ag Testung übersehen worden wären. Bestätigt Anti-HBc-Ak positive Spender lassen sich anhand zusätzlicher serologischer Parameter (Anti-HBe-Ak und Anti-HBs-Ak) und wiederholter Testung bestimmen und so auch bestätigen; Die gemessenen S/CO-Werte der einzelnen untersuchten Testsysteme sind in der Lage einen Hinweis auf eine mögliche unspezifische Anti-HBc-Ak Reaktivität geben, so dass in Verbindung mit zusätzlichen HBV Parametern (z.B. Anti-HBe-Ak), die Richtigkeit des Ergebnisses besser eingeschätzt werden kann. Mittels Testung auf weitere HBV Marker (Einzelproben-PCR, Anti-HBs-Ak) können, wie es bereits gesetzlich geregelt wurde, Anti-HBc-Ak positive Blutprodukte durch ein „Re-Entry“ Verfahren wieder der Patientenverwendung zugeführt werden, ohne das HBV Transmissionsrisiko zu erhöhen. Die vorliegende Studie bestätigt diese Annnahme: Es konnte keine einzige HBV Transmission durch Anti-HBc-Ak positives Blut bewiesen werden, welches HBV PCR negativ (Sens. < 5,6 IU/ml) war. Die Prävalenz der Anti-HBc-Ak positiven Blutspender betrug vor Einführung der Anti-HBc-Ak Testung ca. 1,61%, im Spenderkollektiv wird sie aber wegen Selektionierung in den nächsten Jahren stark rückläufig sein.
Mit S-303 pathogenreduzierten Erythrozytenkonzentraten können sowohl infektiöse also auch nicht-infektiöse Risiken einer Transfusionen möglicherweise weiter reduziert werden. Frühere Studien mussten abgebrochen werden, da Antikörper gegen S-303-behandelte Erythrozyten festgestellt wurden. S-303 reagiert als unerwünschten Nebeneffekt auch mit Oberflächenmolekülen der roten Blutkörperchen. Dabei wird die Acridin-Komponente von S-303 auf der Oberfläche der roten Blutkörperchen gebunden. Gegen diese Acridin-Komponente können nach Transfusion von pathogenreduzierten EK immuninduzierte AK gebildet werden. Es existieren aber auch natürlich präformierte AK gegen S-303-behandelte Erythrozytenkonzentrate. Das Verfahren wurde modifiziert, indem der Anteil von GSH erhöht wurde. Dadurch wird vermehrt S-303 im Extrazellulärraum abgefangen und weniger Acridin auf der Oberfläche der Erythrozyten gebunden.
In dieser Studie wurden 9671 potentiell transfusionsbedürftigen Patienten auf einen natürlich präformierten Antikörper gegen S-303-behandelte Erythrozytenkonzentrate untersucht. Diese Patienten hatten zuvor noch keine S-303-behandelten Erythrozytenkonzentrate erhalten. Es wurden Testzellen von Blutspendern der Blutgruppe 0 hergestellt. Aus jedem EK wurden drei unterschiedliche Testzellen hergestellt (Erstgenerationszellen, Zweitgenerationszellen, Kontrollzellen). Das Screening erfolgte mittels IAT in Gelkartentechnik mit einer Testzelle der ersten und zweiten Generation. Die Antikörper wurden weiter charakterisiert bezüglich Spezifität, Titer, Antikörperklasse und –subklasse, Affinität und Temperaturreaktivität.
Bei zwölf Patienten konnte ein AK gegen S-303 pathogenreduzierte Erythrozy-tenkonzentrate nachgewiesen werden und somit konnte gezeigt werden, dass die Prävalenz eines solchen Antikörpers gering ist. Bei elf Patienten handelt es sich um einen Anti-Acridin-AK. Alle elf Patienten hatten immer einen positiven AKS mit der Erstgenerationszelle, jedoch nicht mit der Zweitgenerationszelle. Die Sensitivität, einen AK gegen Acridin mit der Erstgenerationszelle zu finden, ist höher als mit der Zweitgenerationszelle. Die Erstgenerationszelle hat auf ihrer Oberfläche mehr Acridin gebunden als die Zweitgenerationszelle. Bei einem Patienten konnte ein AK unbekannter Spezifität nachgewiesen werden, welcher jedoch ausschließlich mit der Zweitgenerationszelle reagierte. Vor einer möglichen Transfusion von S-303 pathogenreduzierten Erythrozytenkonzentraten wird empfohlen immer eine Testung auf Antikörper gegen Testzellen der ersten und der zweiten Generation durchzuführen. Eine Transfusion sollte grundsätzlich nur erfolgen, wenn weder ein AK gegen die Erstgenerationszelle noch gegen die Zweitgenerationszelle nachgewiesen wurde. Insgesamt handelt es sich überwiegend um niedrigtitrige IgG-AK der Subklasse 2 oder 4. Es lässt sich daher vermuten, dass natürlich präformierten AK gegen S-303-behandelte Erythrozytenkonzentrate nur eine geringe klinische Relevanz haben.
Eine klinischen Studie mit 51 kardiochirurgischen Patienten zeigte, dass nach Transfusion von pathogenreduzierten Erythrozytenkonzentraten der zweiten Generation keine immuninduzierten Antikörper gebildet wurden. Somit ist davon auszugehen, dass die Zweitgenerationszelle wegen der geringen Expression von Acridin auf der Zelloberfläche weniger immunogen ist als die Erstgenerationszelle. Klinische Studien mit einer größeren Anzahl an Patienten können nun grundsätzlich geplant werden.
Generell sollten Patienten mit natürlich präformierten Antikörpern gegen S-303-behandelte Erythrozytenkonzentrate keine pathogenreduzierten Erythrozytenkonzentrate erhalten. Patienten, welche nach Transfusion von S-303-behandelten Erythrozytenkonzentraten AK gegen die pathogenreduzierten Erythrozyten gebildet haben, sollten regelmäßig nachuntersucht werden, um eine Hämolyse frühzeitig zu entdecken.
Neben einer guten Tanztechnik spielt die Körperform von professionellen Tänzer*innen eine entscheidende Rolle. Im klassischen Tanz gilt eine leptosom-grazile Form mit langen Gliedmaßen bei Frauen als ideal. Dementsprechend ist die Prävalenz von Untergewicht hoch. Dabei ist es nicht ausgeschlossen, dass dieses physische Erscheinungsbild mittels Diäten erreicht wird. Auffällig ist eine höhere Prävalenz von Störungen des Essverhaltens und Essstörungen vor allem bei Tänzerinnen im Vergleich zu nicht tanzenden Vergleichsgruppen. Im Zusammenhang mit dem Untergewicht können hormonelle Störungen, wie Amenorrhoe, Osteoporose oder Leistungseinschränkungen auftreten. Daher ist es wichtig, Tänzer*innen regelmäßig zu untersuchen und präventive Maßnahmen zu ergreifen. Ziel der vorliegenden Übersicht ist die Darstellung der Literatur zu diesem Thema.
Der Methicillin-resistente Staphylococcus aureus (MRSA) ist ein fakultativ pathogenes Bakterium. Weltweit nehmen Besiedlung und Infektion mit MRSA seit Jahren zu. In Krankenhäusern ist die Prävalenz sehr gut dokumentiert, während in anderen medizinischen Bereichen die Datenlage unzureichend ist. Ziel dieser Studie ist es, die Prävalenz in Alten- und Pflegeheimen und einer Geriatrischen Klinik sowie erstmals in der ambulanten Pflege im Raum Frankfurt am Main zu ermitteln. Außerdem sollen Risikofaktoren für die Besiedlung mit MRSA erkannt sowie die Hygieneempfehlungen für ambulante Pflegebereiche erarbeitet werden. Teilnehmer: Im Zeitraum September 2000 bis April 2001 wurden insgesamt 754 Teilnehmer (596 Patienten und 158 Angehörige des Personals) von 10 ambulanten Pflegediensten, 5 Alten- und Pflegeheimen und einer geriatrischen Rehabilitationsklinik auf eine Kolonisation / Infektion mit MRSA untersucht. Ergebnisse: Insgesamt wurde bei 15 Teilnehmern (14 Patienten + 1 Mitglied des Personals) eine Besiedlung mit MRSA festgestellt. Die Gesamtprävalenz lag in der Patientengruppe bei 2,35%. In der ambulanten Pflege lag die Prävalenz bei 2,70%, in den Altenheimen bei 0,3% und in der Geriatrie bei 8,70%. Die genotypische Charakterisierung der MRSA-Isolate mit Hilfe der Pulsfeld-Gel-Elektrophorese (PFGE) verdeutlichte die Dominanz des „Süddeutschen Epidemiestammes“. In dieser Studie wurden verschiedene Risikofaktoren für die Kolonisation / Infektion signifikant nachgewiesen. Dazu gehören Tracheostomata (OR: 44,69, CI: 8,39 - 237,98), PEG-Sonden (OR: 6,94, CI: 2,16 - 22,32), Blasen-Dauerkatheterisierung (OR: 6,96, CI: 2,59 - 18,73), eine positive MRSA-Anamnese (OR: 24,32; CI: 10,23 –57,77) und Krankenhausaufenthalte in den vergangenen zwei Jahren (OR: 17,63, CI: 3,94 – 78,82). Diskussion: Die Gesamt-Prävalenz in der Patientengruppe liegt im bundesdeutschen Durchschnitt für Altenheime. Die Prävalenz in der ambulanten Pflege ist ähnlich hoch wie in den Altenheimen. Durch die PFGE konnte gezeigt werden, dass es zu keiner epidemischen Streuung eines MRSA-Genotyps in der Geriatrie gekommen ist, sondern verschiedene, jedoch klonal eng verwandte Stämme auftraten. Bei drei Fällen in der Geriatrie kann eine Übertragung von MRSA von Patient zu Patient vermutet werden. In Frankfurt am Main herrscht der „Süddeutsche Epidemiestamm“ vor. Hygieneempfehlungen müssen nicht verschärft, sondern konsequent eingehalten werden. Nur Pflegepersonal mit hohem Ausbildungsniveau und praktisch geschulte pflegende Angehörige sind in der Lage die Kolonisation / Infektion von MRSA noch konsequenter zu verhindern.
Hintergrund: Anämie gehört zu den häufigsten Erkrankungen weltweit und stellt daher ein zentrales globales Gesundheitsproblem dar. Etwa ein Drittel aller chirurgischen Patienten weisen präoperativ eine Anämie auf. Dies wird als unabhängiger Risikofaktor für eine erhöhte Morbidität und Mortalität sowie für das vermehrte Auftreten postoperativer Komplikationen angesehen. Vor diesem Hintergrund wurde von der Weltgesundheitsorganisation (World Health Organization, WHO) ein patientenzentriertes Behandlungskonzept namens Patient Blood Management (PBM) gefordert, um unter anderem Anämien frühzeitig zu diagnostizieren und einen rationalen Einsatz von Fremdblutprodukten zu fördern. Trotz der Tatsache, dass PBM vor etwa 10 Jahren eingeführt wurde, scheint Deutschland im internationalen Vergleich eine überdurchschnittlich hohe Menge an Erythrozytenkonzentrat-(EK)Einheiten pro Kopf zu transfundieren. Die Ursachen dafür sind bislang unklar und könnten möglicherweise durch eine erhöhte Anämie- Prävalenz bei chirurgischen Patienten und dem damit verbundenen erhöhten Bedarf an Transfusionen einhergehen.
Zielsetzung: Ziel dieser Arbeit ist die multizentrische Erfassung der präoperativen Anämie-Prävalenz innerhalb des Zeitraums 2007-2019 in Deutschland.
Methoden: In dieser retrospektiven, multizentrischen Beobachtungsstudie wurden alle Patienten jeden Alters, die im Monat März der Jahre 2007, 2012, 2015, 2017 und 2019 in acht teilnehmenden Krankenhäusern operiert wurden, erfasst. Patientencharakteristika und klinische Daten wurden aus den Krankenhausinformationssystemen der teilnehmenden Krankenhäuser entnommen. Primäres Ziel war die Prävalenz der Anämie bei Krankenhausaufnahme. Sekundäre Endpunkte waren der Zusammenhang zwischen Anämie und Anzahl der transfundierten EKs, Dauer des Krankenhausaufenthalts und Sterblichkeit im Krankenhaus.
Ergebnisse: Von insgesamt 30.763 Patienten konnten 23.836 Patienten aus acht Krankenhäusern in die Analyse eingeschlossen werden. Im untersuchten Zeitraum zeigte sich eine Reduktion der präoperativen Anämie-Prävalenz erwachsener Patienten von 37% auf 32,2%. Die Zahl, der mit Erythrozytenkonzentraten -5- transfundierten Patienten, ging signifikant von 16,5 % im Jahr 2007 auf 7,8 % im Jahr 2019 zurück, wobei Patienten mit präoperativer Anämie im Vergleich zu Patienten ohne Anämie sechsmal mehr EKs erhielten. Insgesamt verkürzte sich die Krankenhausverweildauer seit 2007 deutlich, zeigte jedoch eine signifikante Verlängerung bei Vorliegen einer präoperativen Anämie. Die Sterblichkeitsrate war über die Jahre hinweg konstant, dennoch signifikant höher bei anämischen Patienten. Eine multivariate Regressionsanalyse mit festen Effekten ergab, dass präoperative Anämie und EK-Transfusion Prädiktoren für die Sterblichkeitsrate waren.
Diskussion: Die Prävalenz der präoperativen Anämie lag in unserer Studienpopulation im Jahr 2019 bei 32,2 %, was der weltweiten Prävalenz entspricht. Das Implementieren von PBM-Strategien, um präoperative Anämien frühzeitig zu identifizieren und zu therapieren sowie Blutprodukte rational einzusetzen, nimmt daher weiterhin einen großen Stellenwert ein. Diese perioperativen Maßnahmen sind für alle chirurgischen Patienten von zentraler Bedeutung, da eine präoperative Anämie den Bedarf an EK-Transfusionen erhöhen, die Liegezeit verlängern und mit einer erhöhten Sterblichkeitsrate assoziiert sein kann.
Methodik: Die Daten von 1553 Patienten mit Knotenstrumen, die in den Jahren 2004 und 2005 im Bürgerhospital Frankfurt am Main operiert worden sind, wurden analysiert. Patienten mit einem bereits klinisch manifestem C-Zell-Karzinom, mit einem Rezidiv oder mit einem durch ein genetisches Familienscreening (MEN 2a, MEN 2b, fCZK) entdeckten C-Zell-Karzinom wurden aus der weiteren Analyse vorerst herausgenommen und in einer gesonderten Gruppe zusammengefasst. Im weiteren Verlauf erfolgte die Aufteilung der 1553 Patienten in einen Teil, der bereits mit vorbestimmten basalen Calcitoninwerten in das Bürgerhospital überwiesen wurde und in einen anderen Teil, bei dem diese Bestimmung erstmalig im Rahmen des im Bürgerhospital routinemäßig durchgeführten Calcitoninscreenings bei Strumapatienten erfolgte. Bei beiden Gruppen wurden dann diejenigen Patienten näher betrachtet, die einen pathologischen, präoperativen, basalen Calcitoninwerte hatten. Die Grenzwerte für ein pathologisches Ergebnis wurden hierbei nach Geschlecht differenziert: für Männer galt basal 10 [ng/l], für Frauen hingegen 5 [ng/l]. Auf einen pathologisch hohen basalen Calcitoninwert folgte in der Regel bei jedem Patienten ein Calcitoninstimulationstest mit Pentagastrin (i.v. Injektion von 0,5 [mikro-g/kg Körpergewicht], Bestimmung des CT bei Minute 0, 2, 5 10, höchster gemessener CT-Wert galt als stimuliertes CT (sCT)). Hier lagen die Grenzwerte auch nach Geschlecht differenziert bei 100 [ng/l] für Männer und 50 [ng/l] für Frauen. Nach dem Ergebnis des Stimulationswertes richtete sich die Wahl der Operationsmethode: Fiel der Stimulationstest pathologisch aus, so wurde eine Thyreoidektomie (TTX) oder isthmuserhaltende Thyreoidektomie (IPTB) durchgeführt. War der Stimulationstest dagegen negativ, so wurde eine subtotale Entfernung der Schilddrüse angestrebt. Bei allen Patienten erfolgte postoperativ neben der histologischen auch eine immunhistologische Untersuchung des entfernten Schilddrüsengewebes, sowie eine erneute Bestimmung der basalen und stimulierten Serumcalcitoninwerte. Stellte sich in der Immunhistologie eine C-Zell-Pathologie heraus, so wurde bei dem betroffenen Patienten weiterhin noch eine genetische Analyse auf das Vorliegen eines MEN 2a, 2b oder familiären C-Zell-Karzinoms durchgeführt. Die statistische Analyse der Daten erfolgte rein deskriptiv. Dabei wurden das arithmetische Mittel, der Median, die Range und der Quartilabstand verwendet. Die Bestimmung einer Signifikanz war zur Beantwortung der Fragestellung nicht nötig. Ergebnisse: Von den 1553 Patienten hatten insgesamt 120 ein präoperativ erhöhtes Calcitonin. Von diesen 120 Patienten hatten 14 ein C-Zell-Karzinom, 40 eine C-Zell-Hyperplasie und 66 keine C-Zell- Pathologie. Trennt man diese Gruppe der 120 Patienten in diejenigen, die schon von extern mit einem gemessenen Calcitoninwert kamen (Gruppe A) und diejenigen bei, denen intern im Bürgerhospital im Rahmen des routinemäßigen Calcitoninscreenings erstmals der basale Calcitoninwert bestimmt wurde (Gruppe B), so entfallen auf die Externen 37 und auf die Internen 83 Patienten. Bei den externen Patienten gab es 11 C-Zell-Karzinome (30 %), 22 CZell-Hyperplasien (60 %) und vier Patienten hatten keine C-Zell-Pathologie (10 %). Bei den intern bestimmten Patienten gab es drei C-Zell-Karzinome (4 %), 18 C-Zell-Hyperplasien (22 %) und 62 Patienten hatte keine C-Zell-Pathologie (74 %). Im präoperativ erfolgten Calcitoninstimulationstest waren in der Gruppe A 27 der 36 getesteten Patienten pathologisch stimulierbar. Von den neun nicht stimulierbaren Patienten hatten 6 eine CZH und drei keine CZP. In der Gruppe B waren 14 der 57 getesteten Patienten pathologisch stimulierbar. Von den 43 nicht stimulierbaren Patienten hatten 9 eine CZH und 33 keine CZP. Bei den extern überwiesenen Patientinnen fand sich kein Fall mit einem basalen Calcitoninwert über 5 [ng/l] und unter 10 [ng/l]. Die Zahl derjenigen Patientinnen, die intern bestimmt worden sind und diese Kriterien erfüllten lag bei 39. Von diesen 39 Patientinnen hatte eine Patientin ein C-Zell-Karzinom, drei eine C-Zell-Hyperplasie und 35 hatten keine C-Zell-Pathologie. Die Kosten für die Stimulationstests, die bei diesen 39 Patientinnen mit einem niedrig pathologischen Calcitoninwert von über 5 [ng/l] aber unter 10 [ng/l] in den Jahren 2004 und 2005 angefallen sind, beliefen sich auf 2.073,60 €. Schlussfolgerung: Die Berücksichtigung der verschiedenen Normalbereiche bei der Calcitoninbestimmung von Männern und Frauen und der daraus resultierenden verschieden hohen Grenzwerte führte zu der präoperativen Diagnose von einem C-Zell-Karzinome und drei C-Zell-Hyperplasien (davon ein Indexfall) in der Gruppe der intern bestimmten Patienten, die bei den bisherigen Grenzwerten von 10 [ng/l] basal nicht aufgefallen wären. Nachteilig war eine hohe Anzahl an falsch positiven Ergebnissen bei Patienten die keine C-Zell-Pathologie aufwiesen. Die durch die differenzierten Grenzwerte entstehende finanzielle Mehrbelastung ist zwar deutlich, aber in Anbetracht der Ergebnisse vertretbar, so dass weiterhin eine Differenzierung angestrebt werden sollte.
Nierensteine sind eine häufige Diagnose, welche Patient und Gesundheitssystem gleichermaßen belasten. In dieser Arbeit sollten deshalb bekannte präoperative und intraoperative Faktoren bestätigt und neue identifiziert werden, welche das Ergebnis bei der endourologischen Steintherapie durch rigide oder flexible Ureterorenoskopie vorhersagen können. Die untersuchten Outcome-Variablen waren die Steinfreiheit, die postoperative Schmerzfreiheit, sowie die ökonomischen Faktoren OP-Zeit und Verweildauer. Ist eine Prädiktion dieser Variablen möglich, so wird der Krankenhausaufenthalt für Patient und Kliniken besser planbar, zudem kann anhand der ökonomischen Faktoren abgeschätzt werden, wie rentabel die Behandlung sein wird. Zu diesem Zweck sollten aus den Prüfvariablen Scores erstellt werden, welche die Steinfreiheit möglichst zuverlässig vorhersagen und bei gleicher Prädiktionskraft einfacher anzuwenden sind als der bekannte S.T.O.N.E. Score zur Abschätzung der Steinfreiheit nach starrer und flexibler URS. Zudem sollten erstmals auch Outcome-Scores für die OP-Zeit, die Verweildauer und die postoperative Schmerzfreiheit erstellt werden.
Hierfür wurden zunächst Patientendaten, sowie radiologische und intraoperative Ergebnisse zusammengetragen und mittels statistischer univariater Analyse auf einen Zusammenhang mit den Outcome-Faktoren überprüft. Hierbei wurden die starre und die flexible URS getrennt analysiert. Im nächsten Schritt wurden in multivariater Analyse die unabhängigen Faktoren identifiziert, welche das Outcome beeinflussen. Aus diesen Variablen wurden schließlich Scores errechnet und deren Prädiktionskraft im Hinblick auf das klinische und ökonomische Outcome nach URS mittels ROC-Analyse untersucht und verglichen. Für die Vorhersage der Steinfreiheit konnte zu jedem Eingriff ein Score erstellt werden, der bei gleicher oder besserer Prädiktionskraft mit weniger Variablen auskommt, als der bisher bekannteste publizierte S.T.O.N.E. Score und somit leichter anzuwenden ist. Der Renewal-Score für die starre URS umfasst die Parameter Steinlänge, Steinlokalisation, Steinanzahl und initiale Notfallvorstellung der Patienten, der Flexfree-Score für die flexible URS beinhaltet hingegen die Steinlänge, eine präinterventionelle DJ-Kathetereinlage und die Erfahrung des Urologen. Auch für die ökonomischen Parameter Operations- und Verweildauer konnten erstmals spezifische Outcome-Scores erstellt werden, lediglich die Schmerzfreiheit ließ sich mit den gesammelten Daten nicht vorhersagen. Bei der flexiblen URS konnte der zur gemeinsamen Prädiktion von OP- und Verweildauer geeignete Fleconomy-Score aus den Variablen Steinbreite und Steinvorgeschichte errechnet werden. Bei der starren URS mussten getrennte Scores erstellt werden. Für die OP-Dauer wurde der Ritime-Score aus den Parametern Steinlänge, Steinbreite, Steinlokalisation und Notfallvorstellung errechnet. Auch der Renewal-Score zur Vorhersage der Steinfreiheit nach rigider URS eignete sich zur Prädiktion der Operationszeit. Der Ristay-Score zur Vorhersage der Verweildauer nach starrer URS umfasst hingegen die Faktoren präoperative DJ-Kathetereinlage, den präinterventionellen Kreatininwert und die OP-Zeit. Auch die ökonomischen Tests sind klinisch einfach zu bestimmen und kommen bei hoher Vorhersagegüte mit wenigen Variablen aus. Alle erstellten Scores sind praxistauglich und stellen eine Weiterentwicklung der bisher zur Verfügung stehenden Tools oder komplette Neuerungen zur Vorhersage des Outcomes nach endourologischer Steintherapie dar. Dies ist nicht nur für den Patienten von Bedeutung, sondern hilft auch den Kliniken OP- und Verweiltage besser zu planen und somit den Behandlungsertrag zu kalkulieren.
Einleitung: Frailty (engl. für Gebrechlichkeit) bezeichnet eine mit hohem Alter zunehmende Verschlechterung des körperlichen und kognitiven Zustandes von Individuen, woraufhin der Körper nicht mehr in der Lage ist, adäquat auf äußere und innere Stressoren zu reagieren. Frailty ist mit einer erhöhten Morbiditäts- und Mortalitätsrate sowie längerer Krankenhausverweildauer und erhöhter postoperativer Komplikationsrate verbunden und stellt folglich einen chirurgischen Risikofaktor dar.
Problemstellung: Die Relevanz eines strukturierten Frailty Assessments in der präoperativen Risikostratifizierung führte zur Indikationsstellung, diverse validierte Risk Assessment Tools auf ihre prädiktive Vorhersagekraft bezüglich des Auftretens von postoperativen Komplikationen und postoperativer Sterbewahrscheinlichkeit zu untersuchen.
Methoden: In die vorliegende Studie wurden Patienten, die in dem Zeitraum vom 01.09.2018 und 31.01.2019 in der allgemeinchirurgischen Ambulanz vorstellig waren und einen allgemeinchirurgischen Eingriff erhielten, aufgenommen. Mittels Fragebögen wurden die Scores „Risk Analysis Index“, „Edmonton Frail Scale“ sowie „Charlson Comorbidity Index“ präoperativ erhoben und retrospektiv mit Daten aus der digitalen Patientenakte zusammengeführt. Endpunkte waren die 90-Tages- Mortalität sowie das Auftreten von schweren postoperativen Komplikationen ab Clavien Dindo Grad 3b. Die Analyse erfolgte in SPSS mittels Chi-Quadrat Test, t- Test und ROC-Kurven Analysen.
Ergebnisse: Das durchschnittliche Alter der Studienkohorte lag bei 56 ± 15.9 Jahren und der Anteil männlicher Patienten überwog mit 59.2% (n=282).
Die Fragebögen wurden 739 Patienten vorlegt und 476 Patienten konnten in die Datenanalyse eingeschlossen werden. Die 90-Tages-Mortalität lag bei 2.7% (n=13) und 9% (n=43) erlitten schwere postoperative Komplikationen ab Clavien-Dindo Grad IIIb. Die Einteilung nach der ASA-Klassifikation (p=0.024), maligne Diagnosen -7-(p<0.001) und Majorkomplikationen (p<0.001) stellten präoperative Risikofaktoren für postoperative 90-Tage-Mortalität dar. Von den Risk Assessment Scores zeigte lediglich der Risk Analysis Index eine signifikante Korrelation auf (p=0.013). Ein mittels ROC-Analyse ermittelter Cut-Off Wert von 23 klassifizierte 166 (34.9%) Patienten als frail, die mit 69% Sensitivität und 66% Spezifität (AUC=0.735) ein erhöhtes Risiko für postoperatives Versterben innerhalb von 90 Tagen aufwiesen (p=0.008). Risikofaktoren für das Auftreten schwerer postoperativer Komplikationen waren die ASA-Klassifikation (p=0.041), längere Krankenhausverweildauer (p<0.001) und maligne Diagnosen (p<0.001). Der Charlson Comorbidity Index (p=0.031) und RAI-C Werte ≥ 23 (p<0.001) korrelierten signifikant mit Majorkomplikationen. Das Alter ab 65 Jahren stellte mit 77 % Spezifität und 69 % Sensitivität ebenfalls einen prädiktiven Risikofaktor für postoperative Mortalität dar (AUC=0,787).
Schlussfolgerung: Mithilfe validierter Risk Assessment Tools ist es möglich Patienten, die ein erhöhtes Risiko für postoperative negative Ereignisse aufweisen, bereits präoperativ zu erkennen. Dies ermöglicht eine bessere Beurteilung der chirurgischen Indikationsstellung sowie das rechtzeitige Ergreifen von risikominimierenden Maßnahmen. Es ist notwendig die Ergebnisse dieser Arbeit künftig mit risikominimierenden Maßnahmen zu verknüpfen und zu untersuchen, ob die Implementierung der Risk Assessment Tools zu verbesserten postoperativen Ergebnissen führt, wenn modifizierbare Faktoren verbessert werden.
In der präoperativen Diagnostik fokaler maligner Leberläsionen nimmt die MRT mit Resovist® einen zunehmend höheren Stellenwert ein.
T2 gewichtete TSE- und FS-Sequenzen der Resovist® unterstützten MRT sind dabei sensitiver als die in der präoperativen Diagnostik etablierte CTAP mit Ultravist® 370, einem nichtionischen jodhaltigen Kontrastmittel.
Die visuelle Differenzierung und Charakterisierung fokaler maligner Leberläsionen und deren Abgrenzung vom Leberparenchym in der Resovist® unterstützten MRT kann durch die Analyse der Signalintensitätskurven optimiert werden. Eine effektivere Charakterisierung der fokalen Leberläsionen wirkt sich damit positiv auf die Sensitivität und Spezifität der SPIO verstärkten MRT aus.
Es bleibt daher offen, die Signalintensitäten der primären und sekundären Leberläsionen der hier nicht untersuchten Gewebearten in weiteren Studien zu analysieren.
Desweiteren könnten nachfolgende Untersuchungen das Ziel haben, die Sensitivität und Spezifität der Resovist® unterstützten MRT durch eine Verminderung der Schichtdicke zu verbessern, womit sich die Detektion von Läsionen < 1 cm effektiver gestalten würde.
Die Gruppe der T-Lymphozyten beinhaltet je nach Ausprägung des T-Zell-Rezeptors zwei Zell-Populationen, die der Alpha-beta- beziehungsweise der Gamma-delta-T-Zellen. Diese Arbeit beschäftigt sich mit den Gamma-delta-T-Zellen, da sie eine außerordentlich interessante und wenig erforschte Zellgruppe darstellen. Die Beobachtung einer bevorzugten Anreicherung von Gamma-delta-T-Zellen auf mukosalen Oberflächen, die mit einer Vielzahl von Antigenen konfrontiert sind, hat zur Hypothese geführt, dass Gamma-delta-T-Zellen eine "erste Garde der Immunabwehr" bilden. Des weiteren geben zahlreiche Studienergebnisse Hinweise darauf, dass Gamma-delta-T-Zellen an der Pathogenese vieler Krankheiten, wie z. B. den chronisch entzündlichen Darmerkrankungen, beteiligt sind. Als Mitglied des Immunsystems scheinen Gamma-delta-T-Zellen nicht nur Funktionen sowohl der angeborenen als auch der erworbenen Immunabwehr wahrzunehmen, sondern auch eine Vermittlerrolle zwischen beidem zu spielen. Mit der Intention, ein grosses Tiermodel zu etablieren, um anhand dessen die Beeinflussbarkeit der Gamma-delta-T-Zellen durch die Alterung und durch mikrobielle Faktoren besser analysieren zu können, wurde in vorhergehenden Studien die postnatale Entwicklung des Gamma-delta-T-Zell-Rezeptor(TCR)-Repertoires des Schweins charakterisiert und der von Menschen als sehr ähnlich befunden. Somit war die Verwendung des Schweins als Tiermodell zur weiteren Erforschung der Gamma-delta-T-Zellen gerechtfertigt. In dieser Arbeit richteten wir unser Augenmerk zum einen auf die pränatale Entwicklung des TCR-delta-Repertoires des Schweins, zum anderen darauf, welchen Einfluß Mikroorganismen auf das postnatale TCR-delta-Repertoire des Schweins nehmen. Auf diese Weise sollte die Frage beantwortet werden, ob Fremd- oder Eigenantigene die Selektion und konsekutive Expansion bestimmter Gamma-delta-T-Zellklone in der Postnatalperiode bedingen. Hinsichtlich dieser Fragestellungen führten wir Experimente mit unterschiedlichen Gewebeproben des Schweins durch. Für die Untersuchung der pränatalen Entwicklung des TCR-delta-Repertoires verwendeten wir Gewebeproben von Schweinefeten unterschiedlichen Alters (38.Tag bis 114. Tag der Tragzeit), die aus den verschiedenen Organen stammten: Dünn- und Dickdarm, Leber, Milz und Thymus. Zusätzlich wurden Zellen des Knochenmarks und des peripheren Blutes untersucht. Für die Untersuchungen zum Einfluß durch Mikroorganismen auf das postnatale TCR-delta-Repertoire dienten uns Proben von 10 Wochen alten Schweinen, die unter keimfreien (GF) bzw. spezifisch-Pathogen-freien (SPF) Bedingungen aufgezogen wurden. Die Proben wurden aus Dünn- und Dickdarm, mesenterialen Lymphknoten, Milz und Thymus entnommen. Die Amplifikation der TCRDV1-DV5 Transkripte erfolgte mittels RT-PCR, woran sich eine längenabhängige Auftrennung durch denaturierende Polyacrylamidgel-Elektrophorese (CDR3 Längenanalyse) anschloß. Einzelne dominante Banden wurden aus den Gelen ausgeschnitten, reamplifiziert, teilweise kloniert und anschließend sequenziert. Unsere Experimente zur pränatalen Entwicklung ergaben, daß das TCR-delta-Repertoire während der frühen Fetalzeit eingeschränkt war und bei Geburt Polyklonalität aufwies. Die durchschnittliche CDR3 Länge der Transkripte nahm während der Ontogenese zu, was auf eine zunehmende Aktivität des Enzyms TdT schließen läßt. Die zentrale Entdeckung dieser Versuche stellt das invariable DV3 Transkript dar, das in allen Feten während der frühen Gestation (38. Tag der Tragzeit) bis hin zur Geburt (114. Tag der Tragzeit) vorhanden war. Während der Mitte der Gestation, etwa um den 55. Tag der Tragzeit, dominierte dieses invariable DV3 Transkript alle analysierten Organe. Gegen Ende der Gestation, also etwa vom 90. Tag bis zum 114. Tag der Tragzeit, verlor dieses Trankript an Dominanz. Gleichzeitig wurde es aber noch häufig in peripheren Organen wie dem Darm und der Milz gefunden. Im Thymus hingegen konnte es zu dieser Zeit nicht mehr nachgewiesen werden. Diese Beobachtung läßt vermuten, daß die invariable DV3 Kette gegen Ende der Gestation im Thymus nicht mehr länger entsteht, wohingegen Gamma-delta-T-Zellen, die diese invariable Kette tragen, in der Peripherie "überleben". Die Tatsache, daß kein anderes invariables TCR-delta-Transkript, welches in verschiedenen Feten präsent gewesen wäre, identifiziert werden konnte, führt zur Annahme, daß den Gamma-delta-T-Zellen, die diesen Rezeptor expremieren, eine einzigartige Rolle zukommen könnte. Zusammenfassend läßt sich sagen, daß die pränatale Entwicklung des TCR-delta-Repertoires des Schweins dem des Menschen ähnlich ist. Es ist jedoch anzumerken, daß beim Menschen kein TCR-delta-Transkript existiert, das das fetale Repertoire in gleicher Weise dominiert. Es bedarf weiterer Untersuchungen in der Zukunft, um die Frage zu klären, ob es sich bei dem invariablen DV3 Transkript des Schweins um das Ergebnis eines vorprogrammierten Rearrangements und/oder einer Selektion durch Eigenantige handelt, ferner, welche wichtige Funktion es während der fetalen Entwicklung erfüllt. Unsere Untersuchungen zum Einfluß durch Mikroorganismen auf das postnatale TCR-delta-Repertoire ergaben keine signifikante Differenz zwischen dem postnatalen TCR-delta-Repertoire von 10 Wochen alten keimfreien (GF) bzw. spezifisch-Pathogen-freien (SPF) Schweinen und dem bereits in Vorarbeiten beschriebenen Repertoire von gleichaltrigen konventionellen Schweinen. Diese Beobachtung veranlasst zur Annahme, daß eine Selektion bestimmter Gamma-delta-T-Zellen eher durch Eigenantige als durch Fremdantigene (z. B. Mikroorganismen) hervorgerufen werden könnte.
Das prämenstruelle Syndrom (PMS) ist ein häufiges Krankheitsbild, das bei 20–30 % der gebärfähigen Frauen auftritt. Es wird durch zyklusabhängige psychische und somatische Symptome definiert.
Die prämenstruelle dysphorische Störung (PMDS) ist eine schwere Form des PMS mit vor allem psychischen Auffälligkeiten, die bei 2–8 % der gebärfähigen Frauen vorkommt. Die Ätiologie von PMS und PMDS bleibt unklar. Eine PMDS geht oft mit anderen psychischen Erkrankungen einher.
Die Symptome treten in der zweiten Zyklushälfte auf und lassen mit Beginn der Periode nach. Zur Diagnosestellung hilft die Führung eines Zykluskalenders.
Ein gesunder Lebensstil (Sport, ausgeglichene Ernährung etc.) stellt die Basis für alle Therapieoptionen dar. Zahlreiche Studien konnten die Effektivität der Behandlung mit Antidepressiva (aus der SSRI- oder SNRI-Gruppe) sowie Ovulationshemmern darlegen.
Beide Medikamentengruppen werden in Deutschland im „off label use“ zur Behandlung von PMS/PMDS-Beschwerden angewendet. Für die Therapieempfehlung sind die Grunderkrankungen der Patientin zu berücksichtigen.
In dieser retrospektiven Studie wurde die Ergebnisqualität des Rettungsdienstbereiches Frankfurt am Main bei präklinischen Reanimationen untersucht. Das untersuchte System versorgt etwa 650.000 Einwohner auf einer Fläche von 248,36 km 2 . In ei nem gestaffelten System waren 12 Rettungs (RTW) und 4 Notarztwagen (NAW) rund um die Uhr an der Notfallrettung beteiligt. Weitere W und KTW waren zu bestimmten Tageszeiten im Einsatz. Im Erfassungszeitraum wurden insgesamt 506 Reanimationen registriert, an dem der Rettungsdienst beteiligt war, von denen 447 die Einschlusskriterien (kardial bedingter Herzkreislaufstillstand, Alter >= 15 Jahre) erfüllten. 160 Patienten wurden nach Herzkreislaufstillstand (35,8%) in ein Krankenhaus transportiert, 112 Patienten (25,1%) hatten dabei nachweislich einen Spontankreislauf. 35 Patienten (7,8% von n=447) wurden aus dem Krankenhaus entlassen. Der primäre Reanimationserfolg war signifikant abhängig vom Alter der Patienten, dem EKG-Befund bei Reanimationsbeginn, dem Notfallort und der Tageszeit. Signifikant in Bezug auf das sekundäre Überleben erwiesen sich nur der initiale EKG-Befund und der Notfallort. Patienten mit Kammerflimmern und Patienten, die in der Öffentlichkeit einen Herzkreislaufstillstand erlitten, hatten eine signifikant höhere Überlebenschance. Das Geschlecht der Patienten und der Beginn einer Reanimation durch Anwesende hatten keinen signifikanten Einfluss auf primärem und sekundärem Reanimationserfolg. Die Zeit bis zum Eintreffen des ersten Rettungsmittels betrug im Median 6 Minuten. Ein Notarzt traf im Median nach 10 Minuten ein. Die Frankfurter Erfolge sind im Vergleich zur Literatur bezogen auf den sekundären Reanimationserfolg signifikant niedriger. Mögliche Gründe dafür sind: . der hohe Anteil von Patienten mit Asystolie . keine Frühdefibrillation durch RTW im Studienzeitraum . geringer Anteil von Anwesendenreanimationen . Infrastruktur der Großstadt Frankfurt Folgende Veränderungen könnten Schwachstellen ausgleichen und die Effektivität des Rettungssystems verbessern: - Umstellung von stationärem Notarztsystem (NAW) auf Rendezvoussystem (NEF) - Frühdefibrillation mit AED - ''First responder" - ''Public access defibrillation" - strengere Indikationsstellung zur Reanimation - bessere und intensivierte Breitenausbildung in Wiederbelebungsmaßnahmen - Anleitung zur Telefonreanimation durch Rettungsleitstelle
Prädiktoren der Remission bei Patienten mit Morbus Basedow : eine Verlaufsbeobachtung über 30 Monate
(2008)
Eine Verringerung der Schilddrüsenantikörper, besonders des TSH- Rezeptor- Antikörpers, ist ein Marker für die Voraussagbarkeit einer Remission des Morbus Basedow. Auffallend ist, dass es nicht detektierbare TSH- Level in unbehandelten, sich in Remission befindlichen Patienten gibt. Die klinische Verwertbarkeit dieses Befundes ist jedoch noch nicht hinreichend untersucht. 88 Patienten mit Morbus Basedow wurden im Mittel über einen Zeitraum von dreizig Monaten beobachtet. Zu sieben verschieden Zeitpunkten wurden TSH, fT3, fT4 und die thyroidalen Antikörper gemessen. Drei dieser Zeitpunkte wurden genauer untersucht, eingeteilt in einen Anfangszeitpunkt, einen mittleren Zeitpunkt und einen Endzeitpunkt. Im zuletzt gemessenen Zeitpunkt waren 77 % der Patienten in Remission. In der Gruppe die wir nach thyreostatischer Therapie beobachteten, waren 86 % der Patienten in Remission, in der Gruppe mit L-Thyroxin behandelten Patienten wiesen 80 % der Patienten eine Remission auf. Von den Patienten, die wir unter laufender medikamentöser Therapie untersuchten, hatten 62 % eine Remission. Zu diesem Zeitpunkt bekamen die Patienten, die sich in der Gruppe nach medikamentöser Therapie befanden, im Schnitt für 12 – 18 Monate thyreostatische Medikamente. Patienten, die unter thyreostatischer Medaktion standen, erhielten im Schnitt für 12 – 24 Monate Thyrostatika. Patienten, die nun mit L-T4 behandelt werden, erhielten im Schnitt für 12 - 24 Monate vorab medikamentöse Therapie. Durchschnittliche TSH Werte bei Patienten ohne Therapie sind 1.211 mU/ml (±0.900), bei Patienten, die L-T4 erhielten, 2,255 mU/ml (±3,404) und in Patienten mit antithyroiden Medikamenten 1,695 mU/ml (±2,575). TSH- Level in der Gruppe der unbehandelten Patienten waren signifikant niedriger (p<0.05) als in den Patientengruppen, die Levothyroxin oder medikamentöse Therapie erhielten. TRAK waren signifikant niedriger in der Gruppe der Patienten nach thyreostatischer Therapie (durchschnittlich 1.64±1.55 U/l) als in der mit L-T4 behandelten Gruppe (durchschnittlich 3.578 ±6.428 U/l) oder in der antithyroidalen Gruppe (durchschnittlich 2.758 ±2.741U/l). TRAK war bei allen Patienten, die in Remission blieben, deutlich verringert. Die Patienten, die ein Rezidiv hatten, wiesen im Schnitt weiterhin einen deutlich erhöhten TRAK – Level auf. Anders als in anderen Studien observierten wir nur einen weiblichen Patienten mit undetektierbaren TSH- Level in klinischer und biochemischer Remission. Diese Patientin hatte durchgehend nicht detektierbare TRAK- Spiegel. Der sinkende TRAK während der Behandlung und auch im weiteren Verlauf scheint ein glaubwürdiger Vorhersagewert für eine Remission des Morbus Basedow zu sein. Bei unseren untersuchten Patienten in Remission stellten wir keine bedeutsame Zahl mit nicht nachweisbarem TSH- Level fest. TSH stellt keinen prädiktiven Wert für die Prognose dar. Die Höhe des TRAK – Wertes ist dagegen prognostisch verwertbar.
Zwangsmaßnahmen stellen in der psychiatrischen Versorgung ein umstrittenes Thema dar. Obwohl soweit wie möglich eine zwangsfreie Psychiatrie angestrebt wird, können psychiatrische Erkrankungen in einzelnen Fällen die Selbstbestimmungsfähigkeit der Patienten einschränken und Zwangsmaßnahmen notwendig machen. Diese können eine erhebliche Belastung für die betroffenen Patienten darstellen und bringen das medizinische Personal unter Umständen in ein ethisches Dilemma zwischen Fürsorgepflicht für erkrankte Patienten und deren Autonomiewahrung. Da sowohl national als auch international noch kein einheitlicher Konsens bezüglich möglicher Prädiktoren einer Zwangseinweisung und deren Auswirkung auf den Therapieverlauf erreicht wurde, besteht dazu noch weiterer Forschungsbedarf.
Um diese Lücke zu verkleinern, wurde eine aktuelle, retrospektive Studie auf der Grundlage der besonderen rechtlichen Situation in Hessen bezüglich des Hessischen Freiheitsentzugsgesetzes (HFEG) durchgeführt. Hierfür wurden die Patientenakten aller volljährigen Patienten, die freiwillig oder unfreiwillig (nach §10 HFEG, §1906 BGB und §1 HFEG) auf eine der drei geschützten Stationen der Psychiatrie des Universitätsklinikums Frankfurt am Main während der Quartale I/2015 und II/2015 aufgenommen wurden, ausgewertet. Dabei wurden die Unterschiede der freiwillig und der unfreiwillig aufgenommenen Patienten in soziodemographischen Prädiktoren und die Auswirkung des Aufnahmemodus auf den Therapieverlauf durch Signifikanzprüfungen und dem Verfahren der logistischen Regression betrachtet. Analysiert wurden 543 Patienten, von denen ca. 70% freiwillig und 30% unfreiwillig aufgenommen wurden.
Es konnten vier mögliche Prädiktoren einer unfreiwilligen Aufnahme identifiziert werden: Initiierung der Aufnahme, Aufnahmezeitpunkt, Hauptdiagnose und somatische Nebendiagnosen. Eine unfreiwillige Aufnahme wurde eher durch Passanten, den Betreuer/die Einrichtung oder Nachbarn/Freunde initiiert, während freiwillige Aufnahmen eher durch die Familie oder Eigeninitiative motiviert waren. Die Betrachtung der Initiierung einer Aufnahme erfolgte in der Literatur bisher selten. Übereinstimmend mit anderen Studien wurden zwangseingewiesene Patienten eher wochentags außerhalb der Kernarbeitszeiten oder am Wochenende/Feiertag aufgenommen, während freiwillige Aufnahmen vermehrt in der Kernarbeitszeit stattfanden. Die Diagnosen F0 und F4 erwiesen sich in der Regressionsanalyse als Risikofaktoren für eine Zwangseinweisung, wodurch der in der Literatur bestehende Kenntnisstand eines Zusammenhangs zwischen der Diagnose und dem Aufnahmemodus bestätigt wurde. Unfreiwillig aufgenommene Patienten wiesen zudem signifikant weniger somatische Nebendiagnosen auf. Der Einfluss der Nebendiagnosen ist in der Literatur noch nicht ausreichend untersucht, auch wenn die Ergebnisse der vorhandenen Studien größtenteils mit der vorliegenden Studie übereinstimmen.
Hinsichtlich des Therapieverlaufs unterschieden sich die beiden Gruppen in den Variablen Aufenthaltsdauer, Unterbringung im Verlauf, Zwangsfixierung, Zwangsmedikation, medikamentöse Einstellung, Antidepressiva und andere Medikamente. Zwangseingewiesene Patienten zeigten eine kürzere Aufenthaltsdauer, was möglicherweise der besonderen rechtlichen Situation in Hessen geschuldet ist. Sie wurden zudem häufiger im Verlauf des Aufenthalts untergebracht, waren öfter von Zwangsmaßnahmen wie Fixierungen oder Zwangsmedikationen betroffen und erhielten generell weniger Medikamente. Möglicherweise wurde dies durch eine fehlende Behandlungsmotivation oder eine kürzere Aufenthaltsdauer bedingt. In zusätzlichen Analysen zeigte sich, dass sich einfach und mehrfach aufgenommene Patienten in Baseline-Parametern nicht signifikant unterschieden.
Auch wenn Limitierungen wie das Vorliegen einer unizentrischen Studie oder einem Auswertungszeitraum von einem halben Jahr vorliegen, geben die in dieser Studie gefundenen Zusammenhänge wichtige Hinweise, um das Zustandekommen und die Auswirkungen von Zwangseinweisungen besser zu verstehen. Mit dieser Studie als Vergleichsgrundlage kann in Zukunft eine erstmalige Evaluierung der PsychKHG-Einführung in Hessen durchgeführt werden.
Hintergrund: Das Benigne Prostatasyndrom (BPS) stellt die klinische Ausprägung der Benignen Prostatahyperplasie (BPH), eine Volkskrankheit der männlichen Bevölkerung, dar. Die Prostataarterienembolisation (PAE) ist ein junges, minimal-invasives Therapieverfahren, bei dem die Gefäße, welche die Prostata versorgen, mittels Embolisaten blockiert werden. Die Blutversorgung des embolisierten Gewebes wird dadurch unterbunden und nekrotisiert in der Folge. Dieser Infarkt lässt sich über eine Diffusionsminderung in der Magnetresonanztomographie (MRT) nachweisen. Aufgrund des technisch anspruchsvollen Verfahrens und der Komplexität der prostatischen Gefäße findet die Magnetresonanzangiographie (MRA) immer mehr Beachtung zur strahlenfreien Visualisierung des Gefäßverlaufs. Das Ziel dieser Doktorarbeit bestand darin, mögliche prädiktive Faktoren für den Therapierfolg der PAE aufzudecken und dabei die Interventionsplanung, unter Anwendung und Nichtanwendung einer MRA, zu vergleichen.
Material und Methodik: In diese retrospektive Arbeit wurden 259 Patienten, die an dem Institut für Diagnostische und Interventionelle Radiologie der Universitätsklinik Frankfurt am Main eine PAE erhielten, eingeschlossen. Das Kollektiv wurde in zwei Gruppen, abhängig vom Vorhandensein einer präinterventionellen MRA, eingeteilt. Bei 137 Patienten wurde die PAE mit einer präinterventionellen MRA Rekonstruktion ausgeführt (= Gruppe A). Bei 122 Patienten erfolgte die PAE ohne vorangehende MRA Rekonstruktion (= Gruppe B). Mit Hilfe der Fragebögen International Prostate Symptom Score (IPSS), International Index of Erectile Function (IIEF) und Quality of Life (QoL) sowie MRT-Messungen (Diffusionskoeffizient, Prostatavolumen) wurden die Daten vor und nach der PAE evaluiert. Als statistische Methoden wurden die deskriptive Datenanalyse, der gepaarte Wilcoxon-Test, der Wilcoxon-Mann-Whitney-U-Test für nicht-parametrische Variablen sowie die Korrelationsmatrix nach Spearman verwendet.
Ergebnisse: In Gruppe A konnte eine signifikant höhere mediane Prostatavolumenreduktion (rho = 0,1827, p = 0,032448) und eine Reduktion der Strahlendosis (p = 0,000000) im Vergleich zu Gruppe B erreicht werden. In Gruppe A wurde im Verlauf eine signifikant höhere Abnahme des Diffusionskoeffizienten festgestellt als in Gruppe B (p = 0,036303). Ein infarziertes Areal nach der PAE wurde zu 59,3% (n = 67) von Patienten der Gruppe A erreicht, zu 40,7% (n = 46) erreichten dies Patienten der Gruppe B. Innerhalb der Gruppe A korrelierte der initial gemessene Diffusionskoeffizient mit dem präinterventionellen IPSS (rho = 0,3259, p = 0,0213). Weiterhin korrelierten bei Einsatz einer MRA der vor der Behandlung gemessene Diffusionskoeffizient sowie der IPSS mit der Abnahme der Beschwerden (rho = 0,3138, p = 0,0285; rho = 0,6723, p = 0,0000) und der Volumenreduktion (rho = 0,3690, p = 0,0024; rho = 0,4681, p = 0,0020). Die Reduktion des Diffusionskoeffizienten korrelierte mit der Höhe der initialen Symptomatik (rho = 0,3703, p = 0,0127) und mit der Verbesserung der Beschwerden (rho = 0,3830, p = 0,0107).
Schlussfolgerung: In Zusammenschau aller Ergebnisse sind die präinterventionelle Messung des Diffusionskoeffizienten, IPSS Erhebung sowie die Prostatavolumetrie in Verbindung mit der MRA prognostisch sinnvoll. Was die vorliegende Studie leistet, sind erste Erkenntnisse auf einem bisher kaum am Menschen untersuchten Gebiet. Dieser strahlensparende, prognostische Ansatz könnte zu einer besseren Patientenselektion beitragen und weitere Ansätze für den Einsatz von Künstlicher Intelligenz schaffen. Damit könnten Strahlendosis, Kosten und Risiken minimiert werden.
Prädiktion der Prognose von Patienten mit ischämischer Kardiomyopathie anhand der Spiroergometrie
(2009)
Hintergrund: Es ist ein wichtiges klinisches Ziel, Hochrisikopatienten unter den Patienten mit Herzinsuffizienz herauszufinden, da sie eine besonders intensive Therapie und engmaschige Kontrollen benötigen. Das Ziel dieser Arbeit war, bei Patienten mit Herzinsuffizienz infolge eines Myokardinfarktes Zuordnungen der klinischen Herzinsuffizienzmarker und Belastungsparameter hinsichtlich ihrer prognostischen Kraft zu definieren. Die Patienten erhielten alle eine optimale medikamentöse Behandlung mit sowohl Betablockern als auch ACE-Inhibitoren. Methoden: Bei 103 Patienten mit abgelaufenem Herzinfarkt wurde eine Spiroergometrie durchgeführt. Die von der Spiroergometrie abgeleiteten Parameter beinhalteten den peak O2, VO2 an der anaeroben Schwelle, den peak O2-Puls, die minimalen CO2 - und O2 -Äquivalente, VE/VCO2 und s1, ein submaximaler Parameter, der die initiale Steigung der VO2/VCO2-Kurve repräsentiert. s1 wurde bis dahin noch nie bei Patienten mit Herzinsuffizienz beschrieben. Ergebnisse: Das mediane Follow-up betrug 668 Tage. Bei 14 Patienten trat der kombinierte Endpunkt des kardiovaskulären Todes oder der Einweisung in das Krankenhaus auf Grund einer Verschlechterung der Herzinsuffizienz auf. Patienten mit und ohne Ereignis unterschieden sich hinsichtlich ihres Alters, der NYHA-Klasse, der LVEF und der NT-proBNP Serumspiegel signifikant. Die Patienten mit Ereignis hatten signifikant niedrigere peak VO2- und niedrigere s1-Werte. Der NT-proBNP-Serumspiegel, die NYHA-Klasse und die LVEF korrelierten signifikant mit peak VO2 , aber nicht mit s1. Nur NT-proBNP, peak VO2 und s1 waren jedoch statistisch unabhängige Prädiktoren von nachteiligen Ereignissen. Bei der multivariaten Analyse war s1 eine starke und unabhängige prognostische Variable mit insgesamt guter Sensitivität und Spezifität, vergleichbar mit dem NT-proBNP-Serumspiegel. Schlussfolgerung: Zusätzlich zu peak VO2, der eine entscheidende Rolle als spiroergometrischer Parameter auch bei Patienten unter Betablockertherapie spielt, ist der submaximale Parameter s1 ein wertvoller Prädiktor bei Patienten mit Herzinsuffizienz ischämischer Genese. Da s1 unabhängig von der maximal erreichten Belastungskapazität ist, könnte es für die Evaluation von Herzinsuffizienzpatienten, die entweder nicht an ihre maximale Belastungsschwelle gehen können oder wollen, von Nutzen sein.
Die vorliegende Studie wurde durchgeführt, um den Einfluss der präanalytischen Temperatur- und Lagerungsbedingungen für die Bestimmung der VWF-Parameter eingehender zu untersuchen. Wir untersuchten bei 10 gesunden Personen, 10 Patienten mit von Willebrand-Syndrom Typ 1, 5 Patienten mit VWS Typ 2 und 10 Patienten der neurochirurgischen Klinik den Einfluss verschiedener Lagerungsbedingungen auf VWF:RCo, VWF:Ag, VWF:CB, APTT und FVIII:C. Pro Patient entstanden so folgende Proben: PS Das Blut (ein Röhrchen) wurde sofort zentrifugiert und der Überstand anschließend bei 80° C eingefroren. CR3/CR6 Das Citratblut (zwei Röhrchen) wurde für drei bzw. sechs Stunden bei Raumtemperatur gelagert, daraufhin zentrifugiert und eingefroren.. CE3/CE6 Das Citratblut (zwei Röhrchen) wurde für drei bzw. sechs Stunden in Eis gelagert, dann zentrifugiert und eingefroren. CK3/CK6 Das Citratblut (zwei Röhrchen) wurde für drei bzw. sechs Stunden zwischen zwei Kühlakkus gelagert, anschließend zentrifugiert und eingefroren. PR3/PR6 Der Plasmaüberstand aus einem Citratröhrchen wurde nach der Zentrifugation abpipettiert, auf zwei Reagenzgläser verteilt und für drei bzw. sechs Stunden bei Raumtemperatur gelagert und danach eingefroren. PE3/PE6 Der Plasmaüberstand aus einem Citratröhrchen wurde nach dem Zentrifugieren abpipettiert, auf zwei Reagenzgläser verteilt und für drei bzw. sechs Stunden in Eis gelagert und nachfolgend eingefroren. Wie man an Hand der Ergebnisse sehen kann, verursachte die gekühlte Lagerung von Citratvollblut teilweise dramatische Veränderungen der Ausgangswerte PS. Zusammenfassend fanden wir keine Kälteinduzierte Erniedrigung der VWF-Parameter im Plasma und bei Patienten mit VWS, Typ 2 ohne messbare Ristocetin-Cofaktor-Aktivität. Auf Grund dieser Ergebnisse nahmen wir an, dass der Kälte-induzierte Verlust der VWF-Parameter und der Faktor VIII-Aktivität zum einen die Gegenwart von Thrombozyten und zum anderen die Anwesenheit hochmolekularer vWF-Multimere benötigte. Wir vermuteten, dass es nur bei Anwesenheit von Thrombozyten und HMW-VWF zu einem hochgradig kälteinduzierten Verlust von VWF:RCo, VWF:Ag und FVIII:C kommt. Von Berger et al (1998) wurde bereits publiziert, dass sich die Thrombozyten bei Kälteeinwirkung in ihrer Zytoskelettstruktur verändern. Hoffmeister et al. (2003) konnten eine kälteinduzierte Zusammenlagerung der GPIb-Rezeptoren n der Thrombozyten-Zelloberfläche beobachten. Wir nahmen an, dass der kälteinduzierte Verlust des VWF auf eine durch Kälte geförderte Bindung des VWF an Thrombozyten, wahrscheinlich durch die gesteigerte Zugänglichkeit der GPIba Untereinheit des vWF, zurückzuführen ist. Auf Grund unserer Ergebnisse empfehlen wir Blut zur Analyse der vWF-Parameter bei Raumtemperatur und nicht bei 4°C zu lagern, ebenso Blutproben zur Bestimmung nicht auf Eis zu verschicken. Empfehlungen für die Behandlung von Blutproben für die Gerinnungsdiagnostik: Die Blutentnahme soll wegen der möglichen tageszeitlichen Schwankungen zwischen 7.00 Uhr und 9.00 Uhr erfolgen. Eine lange und intensive Venenstauung ist zu vermeiden. Die Blutabnahme sollte mit einer großlumigen Kanüle, unter einem gleichmäßigen und zügigem Bluteinstrom, erfolgen. Bei der Abnahme mehrerer Blutentnahmeröhrchen sollte die Gerinnungsdiagnostik erst als zweites oder drittes Röhrchen entnommen werden, um eine Kontamination mit Gewebsthrombokinase zu vermeiden. Das Gerinnungsröhrchen sollte bis zu Markierung gefüllt sein und anschließend mehrfach geschwenkt werden, um eine gleichmäßige Durchmischung von Antikoagulans und Blut zu gewährleisten (Fiedler et al, 2004). Für eine unmittelbare Untersuchung sollte die Lagerung bei Zimmertemperatur erfolgen, Aufbewahrung im Kühlschrank sollten durch Kälteaktivierung unbedingt vermieden werden, da dies zu Gerinnungszeitveränderungen führen kann. Dies steht im Gegensatz zu den NCCLS-Richtlinien von 1998 (Wayne, 1998), die vorgaben, dass für Gerinnungsanalysen verwendete Proben gekühlt gelagert werden sollten, wenn sie nicht innerhalb von zwei Stunden getestet werden können. Bei einer für einen späteren Zeitpunkt geplanten Untersuchungen sollte Citratplasma portioniert eingefroren werden. Das Auftauen der gefrorenen Proben sollte im Wasserbad bei 37°C erfolgen, wobei auf gründliche Durchmischung und vollständige Lösung eventueller Kryopräzipitate zu achten ist. Die anschließende Untersuchung muß unverzüglich erfolgen, da die Stabilität verschiedener Faktoren nach dem Auftauen herabgesetzt ist (Lutze et al, 1999). Wiederholtes Einfrieren und Auftauen ist nicht zulässig. Die Durchführung der Globaltests sollte maximal vier Stunden nach der Blutentnahme durchgeführt worden sein (Guder et al, 2000; Guder et al, 2002; Narayanan, 2000;Tilsner et al, 1986). Die Bestimmung der Faktor VIII-Aktivität sollte jedoch bis spätestens zwei Stunden nach der Blutentnahme abgeschlossen sein (Lutze et al, 1999; Müller, 1993).
Die kongenitale HCMV-Infektion ist der wichtigste Auslöser geistiger Retardierung viraler Genese und ist für die meisten neurosensorischen Hörstörungen nicht genetischen Ursprunges verantwortlich. Die Entwicklung neuer Strategien zur Prävention der HCMV-Infektion bei Neugeborenen ist also von höchster Dringlichkeit. Die Einführung von universellen Screeningprogrammen bei Neugeborenen könnte die frühzeitige Erkennung einer Infektion und somit einen frühen therapeutischen Einsatz ermöglichen. Um dies in die Praxis umsetzen zu können, wird jedoch eine Vereinfachung der Probengewinnung und die Entwicklung einer schnellen und sensitiven Nachweismethode benötigt. Die Anwendbarkeit von verschiedenen im Handel für DNA-Analysen angebotenen Filterpapieren zur Sammlung von Urinproben für die HCMV-Diagnostik mittels PCR wurde untersucht und mit Referenzmethoden verglichen. Es wurden zwei mit Reagenzien behandelten Papiere, das Indicating FTA® Classic Card (Ind FTA Filterpapier) und das FTA® Elute (FTA Elute Filterpapier) und ein unbeschichtetes Papier, das 903® Specimen Collection Paper (903-Filterpapier) eingesetzt. Insgesamt waren alle Papiere leicht einzusetzen, gut verträglich und die Gewinnung von Proben gestaltete sich problemlos. Dilutionsreihen aus Zellkulturüberstand aus einer mit dem HCMV-Laborstamm AD169 infizierten Fibroblastenkultur wurden zur Sensitivitätsbestimmung der Methode eingesetzt. Während bei der Anwendung der Indicating FTA® Classic Cards die Nachweisgrenze der Methode bei 4.000 Kopien/ml lag, wurden beim FTA® Elute- und 903® Specimen Collection-Paper noch Proben mit 400 Kopien/ml erfasst. Ferner wurden 70 klinische Proben mittels Ind. FTA-Papier getestet und 10 mittels FTA Elute- und 903-Filterpapier. Die Sensitivität der Methode betrug im Vergleich zum "Shell Vial Assay" 43,2% beim Einsatz des Ind. FTA-, 60% beim 903- und 70% beim FTA Elute-Filterpapiers. Im Vergleich zur PCR aus mit Qiagen isoliertem Urin erreichte die Methode eine Sensitivität von jeweils 58,3% mit Ind. FTA-, 50% mit dem 903-, und 83,3% mit FTA Elute-Filterpapier. Eine Korrelation zwischen Viruslast in der Filterpapier-Probe und in der mit Qiagen isolierten Urinprobe bestand nur beim FTA Elute Filterpapier. Der Nachweis von HCMV-DNA aus auf FTA Elute-Filterpapier getrockneten Urinproben scheint ein vielversprechender Ansatz in der HCMV-Diagnostik zu sein. Um diese Methode für epidemiologische und/oder diagnostische Zwecke empfehlen zu können, müssten noch umfangreichere klinische Studien durchgeführt werden.
Hintergrund—Derzeit können verschiedene Embolieprotektionssysteme bei der Carotis Stentimplantation angewandt werden. Diese Studie berichtet über Ergebnisse unter Verwendung des Flussumkehrsystems Parodi Anti-Embolie System. Patienten—Eine Carotis Stentimplantation wurde bei 56 Patienten durchgeführt (Durchschnittsalter 68 ± 9 Jahre). Der mittlere Stenosedurchmesser betrug 77% ± 10%. Während des Eingriffs wurde eine cerebrale Embolieprotektion mittels Ballonokklusion der Arteria carotis communis und externa mit dem Parodi Anti-Embolie System angewandt. Während der Stentimplantation, vor der Entlassung und 1, 6 und 12 Monate nach dem Eingriff wurde der neurologische Status der Patienten erhoben. Ergebnisse—Der Eingriff war bei allen Patienten technisch erfolgreich. Ein Patient entwickelte einen ischämischen Insult nach 6 Stunden. Es wurden keine Todesfälle oder Myokardinfarkte beobachtet. Während der Verlaufsbeobachtung (bis zu 40 Monate) starben 2 Patienten an einer sekundären Komplikation nach intrakranieller Blutung und ein weiterer Patient an Kammerflimmern. Bei keinem Patienten trat eine höhergradige Restenose auf. Schlussfolgerung—Die Akutergebnisse zeigen, dass die Flussumkehr bei der Carotis Stentimplantation eine sichere und effektive Methode der cerebralen Embolieprotektion darstellt. Die niedrige Komplikations- und Restenoserate entspricht den Ergebnissen in anderen Veröffentlichungen und zeigt, dass die Ballonokklusion keine Gefäßverletzungen verursacht.
Prothesenallergie : Diagnostik und Risikobewertung bei 172 Patienten mit Gelenk- oder Zahnersatz
(2014)
Komplikationen nach prothetischer Versorgung wirken sich häufig gravierend auf die Lebensqualität der betroffenen Patienten aus. Welche Rolle eine Prothesenallergie als Ursache der Beschwerden spielt, ist bisher nicht hinreichend geklärt. In dieser Arbeit werden 172 Patienten auf die Häufigkeiten prothesenrelevanter Sensibilisierungen sowie deren Korrelation mit der klinischen Symptomatik und allergischer Vorgeschichte untersucht. Das Kollektiv gliedert sich in orthopädische und zahnärztliche Patienten, die entweder vor einer Prothesenimplantation oder nach erfolgter Behandlung getestet wurden. Alle Patienten erhalten einen Epikutantest, der neben häufigen Kontaktallergenen auch die jeweils prothesenspezifischen Stoffe enthält. Die statistische Auswertung erfolgt zunächst mit der Einteilung der Patienten in übergeordnete Kohorten, innerhalb derer die Korrelation jeweils eines speziellen Merkmals mit der Häufigkeit von Sensibilisierungen untersucht wird. Die untersuchten Merkmale sind: Orthopädische gegenüber zahnärztlichen Patienten, präoperative gegenüber postoperativen Beschwerden, Patienten mit gegenüber Patienten ohne atopische Diathese, das Geschlecht und Patienten mit beziehungsweise ohne Typ IV-Allergie. Eine weitere Aufarbeitung erfolgt nach Einteilung in sechs Patientengruppen. Die untersuchten Patientengruppen umfassen die Eigenschaften Prothesenträger, bekannte Typ IV-Allergie, bekannte atopische Diathese, aktuelle prothesenassoziierte Beschwerden beziehungsweise das Fehlen dieser Eigenschaften.
Frühere Studien haben gezeigt, dass während des hämorrhagischen Schocks freie Radikale gebildet werden. Diese reaktiven Sauerstoffverbindungen und reaktiven Stickstoffverbindungen spielen eine ursächliche Rolle beim Multiorganversagen. ZIEL: Es sollte die Hypothese überprüft werden, ob die enterale Applikation eines polyphenolhaltigen Extraktes des chinesischen Grünen Tees (Camellia sinensis/GTE) die Bildung freier Radikale verringert, die Organschäden und die Mortalität bei Ratten nach hämorrhagischen Schock und Reperfusion beeinflusst. METHODE: Gruppen von weiblichen Sprague Dawley Ratten wurden entweder mit 100 mg GTE/kg Körpergewicht oder Placebo zwei Stunden vor dem hämorrhagischen Schock gavagiert. Die Hypothese wurde anhand zweier Schockmodelle überprüft: 1.) Nicht-Überlebensmodell: Entnahme von Blut bis ein mittlerer arterieller Blutdruck von 40 mmHg erreicht war, gefolgt von zunehmender Entnahme über eine Stunde bis dann ein mittlerer arterieller Druck von 28 mmHg erreicht war (schwerer hämorrhagischer Schock), 2.) Überlebensmodell: Entnahme von Blut bis ein mittlerer arterieller Blutdruck von 40 mmHg erreicht war, welcher dann für eine Stunde konstant gehalten wurde (moderater hämorrhagischer Schock). Alle Ratten wurden dann über eine Stunde mit 60% des bis dahin entnommenen Blutes plus das doppelte Volumen hiervon als Ringerlaktat- Lösung reperfundiert. 10 Minuten und zwei Stunden nach Ende der Reperfusion wurden Blutproben entnommen. 18 Stunden nach Reperfusion wurden die Lebern zur Zytokinmessung und Bestimmung von 3-Nitrotyrosin mittels ELISA sowie zur immunhistochemischen Darstellung von 4-Hydroxynonenal entnommen. ERGEBNISSE: Im schweren hämorrhagischen Schock stieg die Überlebensrate im Beobachtungszeitraum von 18 Stunden von 20% (2 von 10) bei placebobehandelten Ratten und auf 70% (7 von 10) bei mit GTE behandelten Ratten (p < 0.02). Im moderaten hämorrhagischen Schock war die Überlebensrate höher (80%) und es bestand kein Unterschied zwischen mit GTE und placebobehandelten Gruppen. Im moderaten hämorrhagischen Schock stieg jeweils die Alaninaminotransferase (ALT) 10 Minuten und zwei Stunden nach Reperfusion auf 345 ± 12 und 545 ± 13 IU/l. Die Behandlung mit GTE verringerte die ALT-Freisetzung auf 153 ± 9 und 252 ± 12 IU/l 10 Minuten und zwei Stunden nach Reperfusion (p < 0,01). TNF-α im Lebergewebe war in placebobehandelten Ratten höher (5,76 ± 0,62 pg/mg) im Vergleich zu GTE gavagierten Ratten (4,02 ± 0,26 pg/mg, p < 0,05). IL-1β im Lebergewebe war ebenfalls bei placebobehandelten Ratten höher (0,8 ± 0,18 pg/mg) im Vergleich zu GTE behandelten Ratten (0,37 ± 0,07 pg/mg, p < 0,05). Analoges galt für IL-6 (6,93 ± 0,48 vs. 5,15 ± 0,58 pg/mg, p < 0,04). Auch 3-Nitrotyrosin war in den Lebergeweben der placebobehandelten Ratten höher (1,88 ± 0,51 pg/mg) als in den GTE behandelten Ratten (0,63 ± 0,23 pg/mg, p < 0,04). Immunhistochemische Färbung von Lebergewebe, welches 18 Stunden nach Reperfusion zur Darstellung von 4-Hydroxynonenal entnommen wurde und welches als Maß für die Lipidperoxidation gilt, sank von 4,81 ± 0,99 % in placebobehandelten Ratten auf 1,46 ± 0,42 % in GTE behandelten Ratten (p < 0,02). SCHLUSSFOLGERUNG: Enterale Applikation von GTE Polyphenolen erscheint im hämorrhagischen Schock und Reperfusion von Vorteil.
Protein S-100B als Serummarker der zerebralen Schädigung bei pädiatrischen Schädel-Hirn-Verletzungen
(2009)
Protein S-100 ist ein Calcium-bindendes Protein, das die Aktivität seiner Zielproteine moduliert. Der Aufgabenbereich umfasst die Regulation von Zellwachstum und Zellstrukturbildung. Entdeckt wurde es im Jahre 1965 von B.W. Moore, der es erstmals aus Rinderhirn isolierte. Seinen Namen erhielt es aufgrund seiner Löslichkeit in 100% gesättigtem Ammoniumsulfat bei neutralem ph-Wert. Protein S-100 besteht aus mehreren Untereinheiten, von denen S-100B nur im Hirngewebe vorkommt, hauptsächlich im Zytosol von Gliazellen. Bei astroglialer Zerstörung und konsekutiver Störung der Blut-Hirn-Schranke können erhöhte Konzentrationen von Protein S-100B im Serum gemessen werden. Durch seine spezifische Herkunft besitzt Protein S-100B einen potentiellen Wert als biochemischer Marker einer strukturellen Hirnschädigung. Ziel dieser Studie ist die Überprüfung des posttraumatischen Protein S-100B Serumspiegels bezüglich seiner Korrelation mit dem Schweregrad kindlicher Schädel-Hirn-Verletzungen und deren Prognose. In Form einer prospektiven Studie wurden insgesamt 45 Kinder (23 Jungen und 22 Mädchen) zwischen 4 Monaten und 17 Jahren (Mittelwert 7,64 Jahre) mit Hirnverletzungen unterschiedlicher Schweregrade untersucht, bei denen innerhalb der ersten 20 posttraumatischen Stunden mittels eines immunoluminometrischen Assays die Protein S-100B Serumkonzentration bestimmt wurde. Der Normalbereich für Protein S-100B liegt bei < 0,15 µg/l. Werte zwischen 0,15 und 0,5 µg/l gelten als leichtgradig erhöht, Werte über 0,5 µg/l als deutlich erhöht. Die S-100B-Werte wurden mit den klinischen Daten und dem posttraumatischen Outcome (Nachbeobachtungszeit mindestens 6 Monate) korreliert. Die statistischen Signifikanzberechnungen erfolgten mittels des Fisher-Exact-Tests.Die gemessenen S-100B Werte lagen zwischen 0,05 und 3,05 µg/l (Mittelwert 0,46 µg/l). Die mittlere Latenzzeit der posttraumatischen Protein S-100B Bestimmung betrug 5 Stunden. 38 % der Kinder zeigten leichtgradige Erhöhungen (>= 0,2-0,5 µg/l), 29 % deutliche Erhöhungen (> 0,5 µg/l). Niedrige Punktwerte in der initialen Glasgow-Coma-Scale (GCS) bedeuteten im Mittel höhere Werte für Protein S-100B. Ein initialer GCS-Wert von unter 8 ging in allen Fällen mit S-100B Werten über 0,5 µg/l einher (p=0,005). In Fällen ohne Verlust des Bewusstseins, bzw. maximal einer leichten Eintrübung des Bewusstseins (Lange-Cosack I-II) lagen die S-100B Werte im Mittel niedriger als bei Vorliegen eines Bewusstseinsverlustes (III-IV). Ein Bewusstseinsverlust ging immer mit einem S-100B Wert von mindestens 0,2 µg/l einher (p=0,04), meist lag der Wert über 0,5 µg/l (p=0,015). 25 Kinder erhielten eine Computer- und /oder Magnetresonanztomographie. Hier zeigten sich erhöhte S-100B Werte vor allem bei schweren Kontusionen und Subduralblutungen. Den höchsten Wert (3,05 µg/l) wies ein Kind mit ausgedehnten diffusen axonalen Verletzungen auf. Bei 38 der 45 Patienten konnte nach einer durchschnittlichen Nachbeobachtungszeit von 27,5 Monaten das neurologische Outcome (Glasgow Outcome Scale, GOS) erhoben werden. 8 Kinder (21 %) wiesen neurologische Residuen auf, vor allem Koordinationsstörungen und Verlangsamungen im Sinne eines Psychosyndroms, 1 Kind verstarb im Akutverlauf an einem malignen Hirnödem. Die Kinder mit posttraumatischen Residuen / Behinderungen wiesen im Mittel tendenziell höhere Werte für Protein S-100B auf. Die unterschiedlichen Beschwerdebilder und Residualzustände nach leichten und schweren Schädel-Hirn-Verletzungen lassen sich anhand der etablierten klinischen, neurophysiologischen und neuroradiologischen Prognosemarker bislang nur bedingt vorhersagen. Die Ergebnisse dieser Untersuchung zeigen gute Korrelation des Serum S-100B Wertes mit der Schwere und Dauer der initialen Bewusstseinsstörung sowie dem Ausmaß der hirnparenchymatösen Läsionen. Die Aussagekraft bezüglich des posttraumatischen Outcomes ist aufgrund der Fallzahl und der zu einem großen Teil einbezogenen leichten Schädel-Hirn-Verletzungen begrenzt. Die Untersuchungsergebnisse unterstützen die bei Erwachsenen erhobenen Daten und zeigen, dass Protein S-100B auch im Kindesalter einen viel versprechenden Parameter zur Objektivierung einer akuten Hirnschädigung darstellt und bereits zu einem frühen posttraumatischen Zeitpunkt einen Beitrag zur Beurteilung des Schweregrades und der Prognose von Schädel-Hirn-Verletzungen leisten kann. Der posttraumatische Protein S-100B Serumwert bringt hier als biochemischer Marker eine zusätzliche Information und kann so bei der Einschätzung und Initiierung von diagnostischen, therapeutischen, rehabilitativen und Follow-up-Maßnahmen hilfreich sein.
Aufgrund wachsender Evidenz zu guten Langzeitergebnissen und geringen Komplikationsraten gewinnt die Prostataarterienembolisation (PAE) in der Therapie des Benignen Prostatasyndroms an Bedeutung. Durch ihren hohen technischen Anspruch bedarf es im Vorfeld einer umfassenden Untersuchung der Beckengefäßanatomie. Das Vorliegen eines zum Teil jungen Patientenkollektivs rückt zudem das Einsparen von Strahlung in den Fokus. In diesem Rahmen gewinnt die Magnet-Resonanz-Angiografie (MRA) an Aufmerksamkeit. Obwohl bereits erste Studien Erfolg versprechen, wird die MRA zur PAE-Planung zum Teil kritisch betrachtet, da sie aufwändiger und in der Auflösung unterlegen sei. In dieser Arbeit wurde untersucht, welche Vorteile die MRA im Zuge der PAE-Planung bietet und ob die klinische Effektivität der PAE unbeeinträchtigt bleibt. Weiterhin wurde untersucht, ob eine erfolgreiche MRA-geführte Planung die benötigte Strahlendosis reduziert.
In diese retrospektive Analyse wurden 56 Patienten, die zwischen Januar 2017 und April 2018 im Frankfurter Institut für Diagnostische und Interventionelle Radiologie eine PAE erhielten und bei denen ein vollständiger, die Interventionszeit und Strahlungsparameter umfassender Datensatz sowie eine MRA vor der PAE vorlagen, eingeschlossen. Zusätzlich wurden mittels International Prostate Symptom Score (IPSS), Quality of Life (QoL) und International Index of Erectile Function (IIEF) klinische Daten vor und nach der PAE erhoben. In der Magnet-Resonanz-Tomografie (MRT) vor der PAE wurden das Prostatavolumen, die Intravesical Prostatic Protrusion (IPP) und der Prostatic Urethral Angle (PUA) untersucht. Zur Analyse der Prostataarterie wurden Maximum Intensity Projection (MIP) und ein dreidimensionales Modell verwendet. Um die Auswirkungen einer erfolgreichen Urspungsanalyse auf Interventionszeit und Strahlungsparameter zu untersuchen, wurden diese Faktoren zwischen zwei Gruppen verglichen. In der ersten Gruppe konnte die Prostataarterie mittels MRA ermittelt werden, in der zweiten Gruppe war dies v.a. aufgrund von technischen Mängeln der Bildakquisition nicht möglich.
Der Nachweis des Ursprungs gelang bei 84,73% (111 von 131) der Prostataarterien, davon entsprangen 52,25% der A. pudenda interna, 18,92% zusammen mit der A. vesicalis superior, 13,51% seltenen Ursprüngen, 10,81% der A. obturatoria und 4,51% der vorderen Division der A. iliaca interna unterhalb der A. vesicalis inferior. Die Gruppe mit erfolgreicher Ursprungsanalyse mittels MRA zeigte signifikant geringere Werte in Fluoroskopiezeit (-26,96%, p = 0,0282), Dosisflächenprodukt (-38,04%, p = 0,0025) und Eingangsdosis (-37,10%, p = 0,0020). Die PAE bedingte eine signifikante Verbesserung in IPSS (p < 0,0001), Lebensqualität (p < 0,0001) und IIEF (p = 0,0016), dabei konnte der von den Patienten angegebene IPSS-Wert um durchschnittlich 9,42 Punkte (-43,37%) und der QoL-Wert um 2 Punkte (-50,00%) reduziert werden. Das Prostatavolumen (p < 0,0001), IPP (p = 0,0004) und PUA (p < 0,0001) zeigten sich ebenfalls signifikant reduziert. Das Volumen der Prostata schrumpfte um 4,92 ml (-8,35%), die IPP um 1,2 mm (-9,2%) und der PUA um 5,5° (-8,10%). Signifikante Zusammenhänge konnten zwischen IPSS- und QoL-Reduktion (p < 0,0001, r = 0,7555), sowie zwischen Höhe des IPSS vor der PAE und der absoluten IPSS-Reduktion (p = 0,0041, r = -0,4434) nachgewiesen werden.
Die MRA ermöglicht eine strahlungsfreie Analyse des Abgangs der Prostataarterie. Durch diese Auswertung konnte die benötigte Strahlendosis signifikant reduziert werden. Die MRA-geplante PAE erzielte eine deutliche Verbesserung der Symptomatik und der Lebensqualität. Die erektile Funktion konnte signifikant verbessert werden. Prostatavolumen, IPP und PUA zeigten zwar signifikante Veränderungen, wiesen jedoch keinen Zusammenhang zu klinischen Entwicklungen auf. Zwischen dem Ausgangsvolumen der Prostata und dem klinischen Ergebnis konnte ebenfalls keine signifikante Korrelation festgestellt werden, jedoch scheint der Ausgangswert des IPSS eine prädiktive Funktion zu haben.
Die MRA-geplante PAE ist klinisch effektiv und ermöglicht durch die Analyse der Prostataarterie eine Reduktion der benötigten Strahlung. Zusammen mit der MRT unterstützt sie die Indikationsstellung und Planung der PAE.
Die extrakorporale Zirkulation ist mit einer Reihe inflammatorischer Reaktionen und dadurch verursachten pathologischen Veränderungen verschiedener Organsysteme verbunden. {2}{17}{40}-{42}{56}{57} Dies wird zu einem großen Teil durch die Aktivierung der Leukozyten nach dem Kontakt mit der Fremdoberfläche der EKZ und nachfolgender Ausschüttung von Entzündungsmediatoren vermittelt. {36}-{38} Die freigesetzten proteolytischen Enzyme der Leukozyten rufen eine pathologische Hyperpermeabilität des Endothels mit massiver Einschwemmung neutrophiler Granulozyten ins Gewebe und möglicher Parenchym- und Organschädigung hervor. {2}{17}{56}{57} Um diese inflammatorische systemische Reaktion (SIRS) zu verringern, wurden Versuche unternommen, den Aufbau und die Fremdoberfläche der Herz-Lungen-Maschine biokompatibler zu gestalten. {3}-{9}{18}-{23} Ebenfalls wurden im Rahmen klinischer Studien Therapieansätze auf pharmakologischer Ebene evaluiert. {10}-{13}{15}-{17} Das Prinzip der Leukozytendepletion mittels eines speziell angefertigten Filters wurde in den dreißiger Jahren entwickelt. Es fand Anfang der siebziger Jahre in der Transfusionsmedizin seine erste routinierte Anwendung. {31} In der Herzchirurgie wurde der Leukozytenfilter Ende der achtziger Jahre eingeführt. Dort wurde er in der arteriellen und venösen Linie sowie für die Kardioplegie und zur Filtrierung des Restblutes aus dem Kardiotomiereservoir eingesetzt. {62}{92}{93}{95}-{97} In der vorliegenden Studie erfolgte die Leukozytendepletion in der arteriellen Linie der EKZ bei 80 Patienten mittels eines Leukozytenfilters (Leukoguard LG6, Pall, Dreieich, Deutschland). Da die Filterkapazität und –effizienz zeitlich begrenzt sind, wurde der Einsatz des Filters in der kritischen Phase der Reperfusion evaluiert. Während dieser Phase erreicht die Leukozytenaktivierung den Höchstwert (Gruppe III: 10 Minuten vor Aortenklemmöffnung und für die ersten 20 Minuten der cardiopulmonalen Reperfusion, Gruppe IV: nach erfolgter 20minütiger Reperfusionsphase bis Ende der EKZ). Zum Vergleich wurde der Leukozytenfilter auch während des Gesamtdauer der CCB angewendet (Gruppe II). Bei der Kontrollgruppe kam ein Standardfilter zum Einsatz. Die Patientengruppen wurden aus 20 radomisierten Patienten gebildet. Zu bestimmten peri-, intra- und postoperativen Zeitpunkten wurden folgende Parameter untersucht: PMN-Elastase, Procalcitonin, MDA (Malondialdehyd), MPO (Myeloperoxidase), NSE (Neuronenspezifische Enolase), S100-Protein, CK, CK-MB, Kreatinin und Harnstoff. Ebenso wurden die Leukozyten-, Erythrozyten- und Thrombozytenzahlen sowie der Hämatokrit- und Hämoglobinwert gemessen. Die Sauerstoffsättigung wurde mittels des Sauerstoffdruckes der Sauerstofffraktion und -indizes untersucht. Zusätzlich wurde die Dauer der Intubation, des Aufenthaltes auf der Intensivstation und des stationären Gesamtaufenthaltes ermittelt. Bei allen diesen Parametern konnten unter den Gruppen keine signifikanten Differenzen festgestellt werden. Die sensitiven Marker der Leukozytenaktivierung und der systemischen inflammatorischen Reaktion zeigten den in der Literatur beschriebenen typischen Kurvenverlauf. {106}{107}{135}{126}-{128}{148} Jedoch blieb der positive Einfluss der Leukozytendepletion aus. Die im Blutkreislauf gemessenen Leukozytenzahlen ebenso wie die Erythrozyten- und Thrombozytenzahlen konnten durch den Filtrationsvorgang nicht statistisch absicherbar reduziert werden. Auch die intraoperative Leukozytose wurde nicht signifikant reduziert. Offenbar reicht die Filterleistung nicht aus, um entsprechende Mengen an Leukozyten zurückzuhalten. Würde es sich hierbei ausschließlich um eine rasche Kapazitätsausschöpfung des Filters handeln, müsste jedoch zumindest am Anfang des Filtrationsvorganges eine Verringerung der Leukozytenzahlen feststellbar sein. Vermutlich wird der lokale Filtrationseffekt des Leukozytenfilters durch die massive systemische Mobilisation der Leukozyten durch weitere Aktivierung aufgrund von Entzündungsmediatoren und Endothelschäden überdeckt. Die Ergebnisse deuten des Weiteren darauf hin, dass die Leukozyten durch den Filtrationsvorgang ihre Funktion nicht verlieren. Sie sind weiterhin in der Lage, Entzündungsmediatoren auszuschütten und systemische inflammatorische Reaktionen in Gang zu setzen. Eine neue Filtergeneration, die neben der Verbesserung der mechanischen Filtration eine pharmakologische Inaktivierung der Leukozyten bewirkt, bleibt Gegenstand weiterer Forschung.
Menschen mit Epilepsie (engl. PWE) haben im Vergleich zur Allgemeinbevölkerung ein erhöhtes Risiko, vorzeitig zu versterben. Der plötzliche, unerwartete Tod bei Epilepsie (engl. Sudden Unexpected Death in Epilepsy, kurz SUDEP) stellt die häufigste epilepsiebedingte Todesursache dar. Obwohl das Thema in Fachkreisen zunehmende Aufmerksamkeit erfährt, die Empfehlung zur SUDEP Aufklärung zunehmend in nationalen Leitlinien aufgenommen wird, und der Patientenwunsch nach einer generellen SUDEP Aufklärung in verschiedenen Studien gezeigt werden konnte, besteht weiterhin ein Informationsdefizit unter PWE. Ursache hierfür scheint insbesondere die Sorge der behandelnden Neurolog*innen zu sein, Menschen mit Epilepsie übermäßig emotional zu belasten und ihre Lebensqualität zu mindern. Diese Studie untersucht sowohl das Vorwissen über SUDEP als auch unmittelbare sowie langfristige Auswirkungen einer SUDEP Aufklärung auf Erwachsene mit Epilepsie. Ziel ist mögliche negative Auswirkungen der Aufklärung sowie Auswirkungen auf das Verhalten aufzudecken. Aus diesem Zweck wählten wir ein prospektives, multizentrisches, longitudinales Studiendesign. Die Daten wurden in halbquantitativen Interviews vor (vor der Aufklärung), unmittelbar nach (nach der Aufklärung) und drei Monate nach (3-Monats Follow-up) der SUDEP Aufklärung erhoben. Um die direkte Vergleichbarkeit zwischen den Zeitpunkten zu ermöglichen wurden folgende validierte Instrumente verwendet: das Neurological Disorders Depression Inventory for Epilepsy (NDDI-E) zur Erfassung depressiver Symptome, der EuroQoL (EQ-5D) zur Erfassung der gesundheitsbezogenen Lebensqualität (HRQoL), eine visuelle Analogskala (VAS) zur Erfassung des allgemeinen Gesundheitszustandes, die revised Epilepsy Stigma Scale (rESS) zur Erfassung der wahrgenommenen Stigmatisierung und die Seizure Worry Scale zur Erfassung anfallsbezogener Sorgen. Insgesamt wurden 236 Teilnehmende (Durchschnittsalter: 39,3 Jahre, Spannweite: 18-77 Jahre, 51,7 % Frauen) in die Studie eingeschlossen. 205 (86,9 %) der Teilnehmenden konnten erneut im Langzeit Follow-up nach drei Monaten befragt werden. Eine der Teilnehmenden verstarb im Zeitraum des Follow-ups an SUDEP. Keines der validierten Instrumente zeigte zwischen den Zeitpunkten vor der Aufklärung und dem 3-Monats Follow-up eine Verschlechterung. Vor der Aufklärung hatten nur 27,5 % der Teilnehmenden von SUDEP gehört, und nur 9,3 % gaben an, diese Informationen von ihrer bzw. ihrem Neurolog*in erhalten zu haben. Nach der Aufklärung gaben mehr als 85 % der Teilnehmenden an, mit der SUDEP Aufklärung zufrieden oder sehr zufrieden zu sein. Drei Viertel der Teilnehmenden gaben an, durch die Aufklärung nicht oder überhaupt nicht belastet zu sein. Mehr als 80 % der Teilnehmenden befürworteten eine generelle SUDEP Aufklärung für alle Menschen mit Epilepsie. Bei dem 3-Monats Follow-up gab die Mehrheit der Teilnehmenden an, keine Verhaltensänderung vorgenommen zu haben, 24,8 % berichteten jedoch von starken Verhaltensänderungen.
Unsere Studie zeigt, dass eine SUDEP Aufklärung keine negativen Auswirkungen auf den allgemeinen Gesundheitszustand, die HRQoL, depressive Symptome, krankheitsbezogene Stigmatisierung oder Sorgen vor Anfällen hat. Insgesamt zeigte sich eine hohe Zustimmung zur SUDEP Aufklärung. Eine generelle SUDEP Aufklärung könnte sich zudem positiv auf die Compliance auswirken und das Mortalitätsrisiko senken. Eine SUDEP Aufklärung bietet allerdings keinen sicheren Schutz vor SUDEP.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Hintergrund: Seit mehr als 50 Jahren werden in Deutschland Herzschrittmacher-Implantationen durchgeführt, mittlerweile mit mehr als 100.000 Implantationen pro Jahr. Obwohl es sich um einen gängigen Eingriff handelt, existieren wenig prospektiv randomisierte Studien zu technischen Aspekten der Implantation, insbesondere dem Wundverschluss am Ende der Operation. Ziel der vorliegenden Arbeit war es, an einem Kollektiv von Patienten unerwünschte Ereignisse und kosmetische Ergebnisse, in Abhängigkeit des beim Hautverschluss verwendeten Nahtmaterials (resorbierbarer bzw. nicht-resorbierbarer Faden), miteinander zu vergleichen.
Methoden: In einem Zeitraum von Juli 2018 bis April 2019 wurden Patienten mit geplanter de novo Herzschrittmacher-Implantation ohne Defibrillationstherapie prospektiv in die Studie eingeschlossen und anhand einer Randomisierungliste in zwei Probandengruppen eingeteilt: nicht-resorbierbares Nahtmaterial (Gruppe Prolene®) bzw. resorbierbares Nahtmaterial (Gruppe Monocryl®).
Ein Tag (Beobachtungszeitpunkt 1), sechs Wochen (Beobachtungszeitpunkt 2) und ein Jahr post-OP (Beobachtungszeitpunkt 3) erfolgte die Beurteilung der Narbe bezüglich des kosmetischen Ergebnisses und klinisch relevanter, unerwünschter Ereignisse. Zur kosmetischen Beurteilung diente die Wundbreite in mm, eine auftretende Kelloidbildung und die „Patient and Observer Scar Assessment Scale“ (POSA-Score). Dieser wurde zu Beobachtungszeitpunkt 1 seitens des Patienten auf zwei Fragen (Schmerzhaftigkeit, Juckreiz) reduziert. Die erhobenen klinisch relevanten Parameter waren Nachblutungen, Infektionen, Insuffizienz der Naht und Revisions-OP aufgrund eines Lokalbefundes.
Ergebnisse: Es konnten 114 Patienten in die Studie eingeschlossen werden. Zu Beobachtungszeitpunkt 2 und Beobachtungszeitpunkt 3 belief sich die Anzahl auf jeweils 92 Probanden. Zu allen drei Beobachtungszeitpunkten konnte zwischen beiden Gruppen weder ein signifikanter Unterschied im kosmetischen Ergebnis noch im Auftreten klinisch relevanter Ereignisse festgestellt werden.
Schlussfolgerung: Anhand der vorliegenden Studie scheint das verwendete Nahtmaterial keinen großen Einfluss auf das kosmetische Ergebnis der Narbe, sowie auf das Auftreten von unerwünschten Ereignissen zu haben. Eine multizentrische prospektiv randomisierte Studie mit größerer Patientenanzahl ist notwendig, um die hier erhobenen Daten zu verifizieren.
Konuskronen verankerter Zahnersatz hat sich seit mehreren Jahrzehnten als hervorragende Therapieform zur Versorgung des reduzierten Restgebisses bewährt und verbindet zahlreiche Vorteile des festsitzenden mit denjenigen des herausnehmbaren Zahnersatzes. Vor dem Hintergrund einer steigenden Relevanz ästhetischer Versorgungen sowie einer größer werdenden Ablehnung der Patienten hinsichtlich der Verwendung metallischer Werkstoffe, gewann das Ziel, auch kombiniert festsitzend-herausnehmbaren Zahnersatz metallfrei zu fertigen, zunehmend an Bedeutung. Ziel der vorliegenden prospektiven klinischen Studie war die Evaluation des klinischen Langzeitverhaltens von keramischen Primärkronen aus IPS Empress 2® kombiniert mit Sekundärkronen und Prothesengerüsten aus faserverstärktem Kunststoff (Vectris®) sowie die Untersuchung der Patientenzufriedenheit. Als Kontrollgruppe dienten keramische Primärkronen mit Sekundärkronen aus Galvanogold und metallischen Gerüsten. Dazu wurden 29 Patienten mit insgesamt 37 Konusprothesen auf 165 keramischen Primärkronen versorgt, 27 (73%) Prothesen entfielen auf die Kontrollgruppe und 10 (27%) Prothesen auf die Testgruppe. Eingebunden in ein Recall-System, wurden die Patienten in halbjährigen Abständen über einen Zeitraum von 5 Jahren nachuntersucht. Zur Evaluation der Patientenzufriedenheit erhielten die Studienteilnehmer jeweils vor Therapiebeginn, nach Fertigstellung der Konusprothesen und im einjährigen Abstand einen Fragebogen. Die Zeit unter Risiko betrug durchschnittlich 59 ± 22 Monate (min. 16, max. 96 Monate), Befragungen hinsichtlich der Patientenzufriedenheit wurden über 46 ± 18 Monate durchgeführt (min. 15, max. 66 Monate). Beide Gruppen zeigten eine vergleichbar hohe Reparaturanfälligkeit. 88,9% der Restaurationen in der Kontrollgruppe, sowie 90% der Restaurationen in der Testgruppe mussten mindestens einmal instand gesetzt werden (Mann-Whitney-U-Test, p = 0,121). Auch das Schadensrisiko der vollkeramischen Primärkronen zeigte keine statistischen Unterschiede (Testgruppe: 10,81%; Kontrollgruppe: 10,16%; exakter Fisher-Test, p > 0,05). Die Häufigkeit einer Neuanfertigung der Konusprothese war bei der Test-Gruppe (40%) höher als bei der Kontroll-Gruppe (14,8%), ein statistisch signifikanter Unterschied war zwischen beiden Gruppen nicht nachzuweisen (exakter Fisher-Test, p = 0,16). Die Erfolgsrate zeigte in Abhängigkeit der Zeit unter Risiko jedoch ab 2,5 Jahren schlechtere Werte bei metallfreien Prothesen als bei der Kontrollgruppe, nach etwa 5 Jahren nahm dieser Unterschied deutlich zu (Kontrollgruppe: 86%, Testgruppe: 24%) und unterschied sich statistisch signifikant (Log-Rank-Test, p=0,041). Bei drei der 128 Galvano-Matrizen kam es zu einer Beschädigung an den Sekundärstrukturen, bei 9 von 37 Matrizen aus glasfaserverstärktem Kunststoff trat ein Schaden auf. Dieser Unterschied war statistisch hochsignifikant und belegt, dass Vectris®-Mesostrukturen eher zum Versagen neigen als Galvano-Sekundärkronen (exakter Fisher-Test, p = 0,00008). Im Gegensatz zu den durchaus unterschiedlichen klinischen Ergebnissen und den unbefriedigend hohen Reparaturzahlen war die Patientenzufriedenheit mit den jeweiligen Studienprothesen für beide Gruppen vergleichbar gut. Zu keinem Zeitpunkt zeigte sich eine relevante Personenzahl in einer der Gruppen mit dem erhaltenen Zahnersatz unzufrieden. So war in der Testgruppe initial lediglich eine Person unzufrieden, änderte diese Einstellung jedoch im Rahmen der weiteren Kontrollen. Eine weitere Person war anfangs zufrieden, dann vorübergehend unzufrieden, um im Weiteren erneut ihre Zufriedenheit zu äußern. Für die Metallgruppe ergab sich lediglich in der letzten Nachkontrolle eine Person, die unzufrieden mit dem Zahnersatz war. Statistisch signifikante Unterschiede zwischen den Gruppen waren somit zu keinem Zeitpunkt nachzuweisen (exakter Fisher-Test, alle p > 0,05). Die vorliegende Untersuchung bestätigt, dass sich die Verwendung keramischer Primärkronen in Doppelkronenrestaurationen prinzipiell bewährt und die Anforderungen an die gestellten Parameter wie Haftkraftstabilität, Biokompatibilität und Ästhetik erfüllt. Jedoch weist die Lithiumdisilikat-Glaskeramik IPS Empress 2® eine unzureichende Stabilität auf, für diesen Indikationsbereich sind daher ausschließlich hochfeste Zirkoniumdioxid-Keramiken zu empfehlen. Mit diesem Material ist ein wesentlich geringeres Reparaturrisiko zu erwarten. Als Matrizenwerkstoff zeigten galvanogeformte Sekundärkappen sehr gute klinische Ergebnisse. Die hohe Passungspräzision, welches durch die intraorale Fügung erreicht wird, gewährleistet eine ideale Lagerung des Zahnersatzes und reduziert kinetikbedingte Schäden auf ein Minimum. Das Ziel der Untersuchung, die dauerhafte klinische Bewährung metallfreier Konusprothesen aus dem Glasfaserverbundmaterial Vectris® nachzuweisen, konnte nicht erreicht werden. Die Ergebnisse dieser prospektiven klinischen Studie belegen eine Überlegenheit der metallischen Konusprothese. Somit bedarf die Realisation einer klinisch verlässlichen metallfreien Konusprothese noch erheblichen Forschungs- und Entwicklungsbedarf. Insbesondere die Substitution von galvanogeformten Feingoldmatrizen stellt eine große Herausforderung dar.
In einer prospektiven klinischen Studie wurden 40 Procera-AllCeram-Kronen unter standardisierten Bedingungen bei 18 konsekutiv ausgewählten Patientinnen und Patienten im Front- und Seitenzahnbereich eingegliedert. Als Untersuchungszeitpunkte wurde ein Termin vor der Eingliederung, bei der Eingliederung, sowie nach ein und zwei Jahren Tragedauer festgelegt. Insgesamt 21 Untersuchungskriterien bezogen sich auf die Bewertung der Pfeilerzähne, der Kronen und der Keramik. Weiterhin wurde eine subjektive Beurteilung des Zahnersatzes durch die versorgten Patienten anhand eines Fragenkataloges vorgenommen. Zur Kontrolle der parodontalen Verhältnisse wurden der Approximalraum-Plaqueindex (modifiziert nach LANGE, 1977) und der Sulkus-Blutungsindex (modifiziert nach MÜHLEMANN und SON, 1971) erhoben und die Sondierungstiefen gemessen. Als Kontrollgruppe dienten die entsprechenden kontralateralen Zähne, an denen die gleiche Untersuchung erfolgte. Zusätzlich zu den klinisch erhobenen Daten wurden die Restaurationen zu jedem Untersuchungszeitpunkt fotografisch dokumentiert. Die Untersuchungen nach 24 Monaten Tragedauer ergaben folgende Resultate: Bei keinem der Pfeilerzähne traten ein Vitalitätsverlust, eine Perkussionsempfindlichkeit oder Schmerzen auf. Im Vergleich zu den bei Eingliederung erhobenen Daten (Baseline) verringerte sich die Mobilität der Pfeilerzähne (Veränderung des Anteils der Pfeilerzähne mit Lockerungsgrad 0 von 25,0 % auf 27,5 %, Lockerungsgrad I von 67,5 % auf 70,0 % und Lockerungsgrad II 7,5 % auf 2,5 %). Die Plaqueakkumulation reduzierte sich im Vergleich zu den Daten zum Zeitpunkt der Kroneneingliederung (Baseline) von 12,5 % auf 7,5 %. Eine gingivale Irritation konnte nach zweijähriger Tragedauer bei nur 2,5 % der Pfeilerzähne festgestellt werden, während bei Kroneneingliederung (Baseline) noch 15,0 % betroffen waren. Die Sondierungstiefe blieb an 35 Zähnen konstant oder verbesserte sich um bis zu zwei Millimeter, während bei fünf Pfeilerzähnen eine Erhöhung von einem Millimeter auftrat. Bei keiner Krone konnte die Entstehung einer Sekundärkaries, die Bildung eines sondierbaren Randspaltes oder einer positiven oder negativen Stufe am Kronenrand festgestellt werden. Ebenso kam es bei keiner Restauration zum Verlust der Retention bzw. zur Veränderung der Approximalkontakte. Bezüglich der Keramik lagen bei keiner der eingegliederten Vollkeramikkronen eine Hartkernfraktur, eine partielle Fraktur oder einzelne Frakturlinien vor. Hinsichtlich der Verblendkeramik ließ sich bei keiner Krone eine Verfärbung bzw. ein Glanzverlust feststellen. Die okklusalen Verhältnisse änderten sich im Vergleich zu den bei Eingliederung erhobenen Daten nach Prüfung mit Shimstock- und farbiger Okklusionsfolie nicht. Im Hinblick auf die subjektive funktionelle Bewertung anhand von zehn Fragen durch die versorgten Patient(inn)en resultierte eine positive Bewertung bei allen Personen. Das mittels des Schulnotensystems evaluierte ästhetische Ergebnis ergab bei 17 Patient(inn)en (39 Kronen) die Beurteilung „sehr gut“. Eine Person bewertete das Aussehen der bei Ihr eingegliederten Krone lediglich als „befriedigend“. Unter Berücksichtigung des begrenzten Beobachtungszeitraumes von zwei Jahren kann anhand der vorliegenden Studie festgestellt werden, dass Procera-AllCeram-Vollkeramikkronen eine positiv zu bewertende Behandlungsmethode im Hinblick auf Funktion und Ästhetik darstellen. Bei Gegenüberstellung der ermittelten Ergebnisse zu den in der Literatur vorliegenden Daten von Vollguss- oder Metallkeramikkronen zeigen die eigenen klinischen Resultate, dass das untersuchte vollkeramische System zur Herstellung von konventionell zementierbaren Einzelzahnkronen im Front- und Seitenzahnbereich geeignet erscheint.
Die Vorteile von konuskronengestütztem Zahnersatz für den Patienten sind bekannt: Hoher Trage- und Kaukomfort, bequeme Handhabung, einfache Mundhygiene, Selbstreinigungseffekt durch den Speichel, sekundäre Verblockung durch die Suprakonstruktion, axiale Belastung der Pfeilerzähne, Kombinationsfähigkeit von Implantaten mit natürlichen Pfeilern und prospektive Erweiterungsfähigkeit. Bisher jedoch verhinderten die aufwändige Herstellung und die Problematik der Passungspräzision eine breite Anwendung dieser Art von Zahnersatz. Insbesondere für eine günstige Langzeitprognose von Implantaten wird absolute Spannungsfreiheit der Suprastruktur gefordert. In vielen Ländern z. B. auch in den USA, in denen die entsprechende zahntechnische Infrastruktur fehlt, können doppelkronengestützte Prothesen nicht hergestellt werden. Mit der Methode der definitiven intraoralen Fügung von Gerüstkomponenten können diese Anforderungen an die Passungspräzision problemlos erfüllt werden. Gleichzeitig wird die zahntechnische Fertigung vereinfacht und damit Zeitaufwand und Kosten geringer. Durch diese vereinfachte Herstellung und die Kostenreduzierung wird doppelkronengestützter Zahnersatz für eine größere Patientenklientel verfügbar. Ziel der Studie war, das neuartige Behandlungsvorgehen methodisch zu optimieren und die Verweildauer und die klinischen Auswirkungen von intraoral gefügtem doppelkronenverankerten Zahnersatz zu evaluieren. Im Zeitraum von 1992 bis 1998 wurden 61 Patienten mit 64 Prothesen, deren Gerüste an insgesamt 238 Fügestellen definitiv intraoral geklebt wurden, versorgt. Nach der Fertigstellung wurden die Daten des Zahnersatzes (Anzahl, Art und Verteilung der Pfeiler, Werkstoffkombination, Design und Vorbehandlung der Fügestellen und Zeitpunkt der Klebung) dokumentiert. 51 dieser Patienten mit 53 Prothesen und insgesamt 209 Fügestellen konnten halbjährlich kontrolliert werden. Die Nachuntersuchung umfasste eine klinische Untersuchung, eine lichtmikroskopische Kontrolle und eine Evaluation der Patientenmeinung mittels Fragebogen. Eine Klebestelle versagte bereits nach 14 Monaten unter Risiko: Der Klebespalt war aufgrund mangelnder Kongruenz von Patrize und Matrize zu breit, was die Stabilität der Klebung massiv reduzierte. Alle anderen Prothesen wiesen nach durchschnittlich 38,93 Monaten (Min = 18, Max = 85 Monate) eine spannungs- und schaukelfreie Passung auf. Die Klebestellen zeigten auch bei lichtmikroskopischer Untersuchung keine Läsionen, die auf ein Nachlassen der Klebung hindeuten. Freiliegendes Klebekomposit an einer Prothese musste wegen Auswaschungen nachgefüllt werden. Die REM-Aufnahmen einer im Mundmilieu durchgeführten Klebung zeigen den innigen Verbund des Klebekomposits mit den metallischen Prothesenkomponenten. 90 % der befragten Patienten gaben einen schaukelfreien Sitz ihrer Prothese an, lediglich 4 % beklagten Probleme beim Herausnehmen der Prothese. Mit "gut" bzw. "sehr gut" bezeichneten 84 % der Patienten den Tragekomfort der Prothese; 90 % der Patienten bezeichneten den Halt ihrer Prothese mit "zufrieden" bis "sehr gut". Die intraorale Fügung ist eine robuste, fehlertolerante Methode, die eine hochpräzise Passung gewährleistet. Obwohl keine Ausschlusskriterien zur Auswahl der Patienten bestanden, wurde eine außerordentlich hohe Zuverlässigkeit der Methode von 99,58 % erreicht. Aufgrund der starren Lagerung des Zahnersatzes können die kinetikbedingten Folgen wie z. B. Zahnlockerungen, Unterfütterungen, Bruchreparaturen und Schraubenlockerungen bei Implantaten auf ein Minimum reduziert werden. Durch die intraorale Fügung wird eine Prophylaxe oraler Strukturen erreicht, und die Folgebehandlungen und damit auch –kosten reduziert. Zudem erhält der Patient einen Zahnersatz, der einerseits sehr hohen Trageund Kaukomfort bietet und andererseits eine einfache Mundhygiene gewährleistet. Durch die klinische Bewährung können alle Nachteile einer Lötung, insbesondere die Gefahr der Allergisierung durch Korrosionsprodukte, umgangen werden. Zusammen mit der Silikatisierung/Silanisierung mittels dem Rocatec®-Verfahren haben sich die Reparatur-Möglichkeiten von verblendetem Zahnersatz erweitert, da keine Wärmebehandlung mehr notwendig ist. Das intraorale Fügeverfahren bildet die Grundlage für zukunftsweisende Entwicklungen: Mit präfabrizierten Implantatabutments kann die laborseitige Herstellung von Primärkronen und Matrizen ersetzt und damit der Zahnersatz kostengünstiger hergestellt werden. Das metallische Prothesengerüst kann unter erhöhtem Platzbedarf durch Glasfaserverbund-Werkstoff ersetzt werden, was die Herstellung von nahezu metallfreiem doppelkronengestütztem Zahnersatz für entsprechend sensibilisierte Patienten ermöglicht.
Die Appendizitis stellt mit einer Inzidenz von 115 pro 100000 Einwohnern in Deutschland eine der häufigsten Ursachen für ein akutes Abdomen dar. Bakterielle Infektionen sind ein wesentlicher Faktor für die postoperative Morbidität nach Appendektomie.
Ziel dieser prospektiven Studie war es, das Keimspektrum und insbesondere die Prävalenz resistenter Keime bei der akuten Appendizitis zu bestimmen und die Auswirkungen resistenter Keime auf das Auftreten infektiöser Komplikationen zu analysieren. Alle erwachsenen Patient*innen mit akuter Appendizitis, die zwischen April 2022 und Juli 2023 am Universitätsklinikum Frankfurt operativ behandelt wurden, wurden prospektiv eingeschlossen. Das Keimspektrum der Appendix und die Häufigkeit von MRE in Rektalabstrichen wurden analysiert. Die klinischen Daten wurden extrahiert, um die Korrelation des Keimspektrums mit dem Auftreten von postoperativen Komplikationen, Dauer und Art der Antibiotikatherapie und dem postoperativen Verlauf zu evaluieren. 30 Tage nach der Operation wurde ein Follow-up durchgeführt. Insgesamt wurden 105 Patient*innen in die Studie eingeschlossen.
In den Appendixabstrichen gelang ein Erregernachweis bei 67,6 % aller Fälle. Hierbei betrug die Prävalenz von Keimen mit Antibiotikaresistenz 43,8 %, Multipler-Antibiotikaresistenz (MAR) 27,6 % und bei 5,7 % der Fälle gelang ein MRE-Nachweis nach CDC im Appendixabstrich. Beim MRE-Screening konnten im Rektalabstrich bei 11,4 % der Patient*innen ein MRE nachgewiesen werden. In vier Fällen zeigte sich eine Übereinstimmung zwischen rektalen und appendikulären Abstrich, somit betrug die Sensitivität des MRE-Screenings für einen Nachweis multiresistenter Keime in der Appendix lediglich 33,3 % bei einer Spezifität von 86,7 %. In einer univariaten Analyse konnte das Vorliegen eines Diabetes mellitus als Risikofaktor für das Auftreten von Keimen mit Cefuroxim- Resistenz, Multipler-Antibiotikaresistenz (MAR) und MRE identifiziert werden.
Insgesamt erhielten 47,6 % aller Patient*innen postoperativ eine Antibiotikatherapie, von denen erfolgte bei 46 % eine Umstellung der empirischen Antibiose auf eine antibiogramm-gerechte Therapie nach Erhalt des mikrobiologischen Befundes. Insbesondere Patient*innen mit komplizierter Appendizitis erhielten postoperativ eine Antibiotikatherapie, wobei 28 % eine Antibiotikaeskalation benötigten.
Patient*innen, deren Appendixabstriche eine Resistenz gegen maximal ein Antibiotikum aufwiesen, wurden als nicht multiple Resistenz (Nicht-MAR) definiert und mit Patient*innen verglichen, deren Keime mit multipler Antibiotikaresistenz (MAR) waren. Die MAR-Gruppe zeigte im Vergleich zur Nicht-MAR-Gruppe eine höhere Inzidenz postoperativer Komplikationen, insbesondere eine erhöhte Inzidenz von Clavien-Dindo Grad 3 Komplikationen sowie von tiefen postoperativen Wundinfektionen (CDC Grad A3). Weiterhin benötigten Patient*innen der MAR-Gruppe häufiger eine postoperative Antibiotikatherapie und es erfolgte häufiger eine Eskalation der antibiotischen Therapie. Dies ging auch mit einem signifikant verlängerten Krankenhausaufenthalt einher.
Zusammenfassend kann festgestellt werden, dass eine bakterielle Infektion mit Multipler Antibiotikaresistenz bei der akuten Appendizitis häufig auftritt und die Morbidität nach Appendektomie beeinflusst. Die mikrobiologische Untersuchung mittels Appendixabstrich bei operativ behandelten Fällen von akuter komplizierter Appendizitis, die eine postoperative Antibiotikatherapie erfordern, könnte somit eine gezielte und kürzere Antibiotikatherapie ermöglichen. Dies könnte dazu beitragen, längere Krankenhausaufenthalte zu vermeiden, den unnötigen Einsatz unwirksamer Antibiotika zu reduzieren und die Kosten im Gesundheitswesen zu senken.
1.1 Hintergrund Diese Studie vergleicht in drei Teilen die konservative Behandlung nichtverschobener, nichtdislozierter Unterkiefergelenkfortsatzfrakturen mit der offenen Reposition und Fixierung verschobener und dislozierter Unterkiefergelenkfortsatzfrakturen bei I. Erwachsenen und II. bei Kindern. In einem speziellen III. Teil der Arbeit wird die geschlossene, konservative gegenüber der offenen, operativen Behandlung von nichtdislozierten hohen (Klasse VI nach Spiessl und Schroll1) Gelenkwalzenfrakturen verglichen. 1.2 Patienten und Methodik 1.2.1 Erwachsene 129 Patienten mit 158 Frakturen wurden von 2000 bis 2005 in die Studie aufgenommen. Klassen II bis V, d.h. verschobene und dislozierte Frakturen wurden operiert, also offen reponiert und intern fixiert, fortan als ORIF bezeichnet. Klasse I und VI (nichtverschobene, nichtdislozierte Frakturen) wurden konservativ therapiert und erhielten die geschlossene Therapie, fortan als GT bezeichnet. Nach einem Jahr wurden Gesichtssymmetrie, Schmerz, Fazialisfunktion, Narbenbildung, Reossifikation auf Röntgenkontrollen, Fragmentposition horizontal und vertikal beurteilt sowie inzisale Maximalbewegungen und die Kondylentranslation vermessen. 1.2.2 Kinder 22 Patienten jünger als 14 Jahre wurden von 2000 bis 2005 in die Studie einbezogen. Klasse II bis V nach Spiessl und Schroll, was verschobenen bzw. dislozierten Frakturen entspricht, wurden operiert; Klasse I und VI, entsprechend nicht disloziert und verschoben, konservativ behandelt. In einem Intervall von 1, 2 und 5 Jahren wurde dieses Kollektiv auf dieselbe Art und Weise nachuntersucht wie das Erwachsenenkollektiv. 1.2.3 Klasse VI Es nahmen 22 Patienten zwischen 2001 und 2005 mit 26 Klasse VI Frakturen (4 doppelt) an dieser Studie teil; in randomisiert ausgelegter Weise hatten 9 (41%) ORIF und 13 (59%) GT. Die Nachsorge erfolgte nach einem Jahr auf die bereits beschriebene Art. 1.3 Ergebnisse 1.3.1 Erwachsene Klasse I umfasste 29 Patienten, 37 Frakturen, mit einer relativen Inzidenz von 23%, Klasse II: 23/28/18%, Klasse III: 16/20/13%, Klasse IV: 30/35/22%, Klasse V: 18/23/15%, Klasse VI: 13/15/9%. Klinische Verläufe waren in Klasse I unkompliziert; Klasse II, III und IV erreichten operativ horizontale und vertikale Fragmentreposition mit geringem Knochenumbau. Einzelfälle zeigten persistierenden Schmerz, Dysokklusion und Osteosynthesefrakturen. Die Ergebnisse waren in Klasse V und VI weniger erfolgreich. Obgleich ORIF in Klasse V gute Reposition erreichte, kam es zu ausgeprägtem vertikalen Knochenabbau, Einzelfälle zeigten persistierenden Schmerz, Dysokklusion und Osteosynthesefrakturen. Klasse-VI-Fälle zeigten die schlechteste Translation, ebenfalls ausgeprägten Knochenumbau und gehäuft Dysokklusion. 1.3.2 Kinder 19 (79%) Patienten stellten sich zur Nachsorge vor: Klasse I=8, II=3, III=0, IV=2, V=5, VI=1; 11 Patienten (58%) nach 1 Jahr; 4 (21%) nach 2 Jahren und 4 (21%) nach 5 Jahren. Völlige Symptomfreiheit oder fehlende Motivation war nach telefonischer Aussage der Eltern der Grund für das Nichterscheinen zur Nachsorge. Alle Untersuchten zeigten eine suffiziente Mundöffnung. Ein Klasse-VI-Patient zeigte insuffiziente Kondylentranslation sowie drei Patienten Deflexionen; zwei Patienten partielle Fazialisparesen, die jedoch nach einem Jahr abgeklungen waren; in zwei Fällen wurden gebrochene Osteosynthesematerialien entfernt. Die vertikale und horizontale Kondylenabstützung wurde erfolgreich wiederhergestellt. Nennenswerte Kondylenresorptionen wurden in Klasse V verzeichnet; insgesamt 4 (17%) Misserfolge waren zu verzeichnen, wovon 3 auf Klasse V entfielen. 1.3.3 Klasse VI Insgesamt stellten sich 17 (77%) Patienten zur Nachuntersuchung vor; 8 (47%) wurden geschlossen und 9 (53%) offen therapiert. Alle Patienten zeigten eine normale Mundöffnung. Insuffiziente kondyläre Translation (definiert durch <6mm Translation bei Mundöffnung, Protrusion und Mediotrusion <3mm) trat jeweils bei zwei der ORIF- und GT- Patienten auf. Anhaltender Schmerz bei 2 mit ORIF, Deflexion größer als 4mm ebenfalls bei 2 mit ORIF. Bleibende Nervenparesen wurden nicht verzeichnet. Im Falle eines ORIF- Patienten wurde gebrochenes Osteosynthesematerial entfernt und im Falle eines GT- Patienten war eine starke Dysokklusion erkennbar. Die vertikale Position des medialen Fragments wurde mit ORIF erfolgreich wiederhergestellt, wenn dies auch mit einem beträchtlichen Umbauprozess verbunden war (der laterale Kondylenpol ist bei Klasse VI unverändert). Die geschlossene Therapie versagte in der vertikalen Wiederherstellung des medianen Kondylenpols, zeigte aber weniger Umbauprozesse. Die Winkelabweichung war bei ORIF erfolgreich reduziert, bei der GT konnte eine leichte Winkelvergrößerung verzeichnet werden. 1.4 Schlussfolgerung Klasse V und VI stellen im großen Kollektiv der Erwachsenen nach wie vor die komplexesten Anforderungen, während die übrigen Klassen nach den Richtlinien dieser Studie gut therapiert werden können. Beim kleineren Kollektiv der Kinder ist das Behandlungsprinzip zu 83% erfolgreich, wobei auch hier die größten Probleme bei Klasse V liegen. Innerhalb der Klasse-VI-Studie ergab die GT 2/8 (25%) und ORIF 2/9 (22%) inakzeptable Ergebnisse und postoperativen Kondylenumbau. Insgesamt erreichte hier die Erfolgsrate 75 zu 78%. Wenn hier also nicht die GT zukünftig vorzuziehen ist, könnten hochfeste resorbierbare Osteosynthesen mit intraossärer Lokalisation ein besseres Ergebnis liefern als die Mikroplatten und Schrauben an der dorsalen Kondylenzirkumferenz, die in dieser Studie verwendet wurden. Insgesamt könnte der Gelenkumbau in Klasse V und VI und die Translation in Klasse VI durch noch vorsichtigere Mobilisation und verbesserte Osteosynthese sowie von einem minimalisierten Operationstrauma profitieren.
Ziel der Studie war, die diagnostische Aussagekraft von vier nicht invasiven Nachweisverfahren von Helicobacter pylori (H. pylori) für ein Patientenkollektiv des Universitätsklinikums Frankfurt am Main zu überprüfen. Es wurden der 13CHarnstoff-Atemtest, ein Stuhl-Antigennachweis mittels ELISA, ein Stuhl-Schnelltest sowie ein Urin-Schnelltest untersucht. In die Studie wurden 169 Patienten aufgenommen. Bei allen Patienten wurde eine diagnostische Gastroskopie durchgeführt, um den H. pylori Status mittels Histologie oder Urease-Schnelltest zu definieren - H. pylori positiv waren 52 Patienten, H. pylori negativ 85 Patienten. Bei 32 Patienten konnte kein invasiver H. pylori Nachweis geführt werden. In dieser Studie zählten die Einnahme von PPI, H2-Blocker, Antazida und Antibiotika nicht zu den Ausschlusskriterien. Die Studie bestätigte den aus der Literatur bekannten Einfluss von säurehemmenden Medikamenten auf die diagnostische Aussagekraft nicht invasiver Testverfahren mit direktem Erregernachweis. Eine nicht invasive Diagnostik sollte immer vor dem Beginn einer Therapie mit solchen Medikamenten erfolgen. Alle vier Nachweisverfahren lieferten in dieser Studie hohe Werte für die Spezifität (ELISA 100%, Urin-Schnelltest 96,5%, 13C-Harnstoff-Atemtest 94,7%, Stuhl-Schnelltest 93%). Die in der Studie ermittelten Werte für die Sensitivität waren niedriger als in publizierten Studien bzw. niedriger als die Herstellerangaben. Der ELISA schnitt mit 79,2% am besten ab. Die Sensitivität des Stuhl-Schnelltests lag bei 72,9%, die des 13C-Harnstoff-Atemtests bei 68,8% und die des Urin-Schnelltests 62,5%. Die diagnostische Aussagekraft der vier untersuchten Tests ist als akzeptabel, beim ELISA als gut zu bewerten. Der gerechtfertigte Ersatz der Gastroskopie in der H. pylori Diagnostik durch ein nicht invasives Verfahren reduziert die Kosten beträchtlich.
Hintergrund und Fragestellung: Beweggrund dieser Studie war es, die Therapie von rezidivierten indolenten Non-Hodgkin Lymphomen mit neuen Kombinationen zu untersuchen. Die Kombination des monoklonalen Antikörpers Rituximab mit Fludarabin und Bendamustin wird verabreicht und im Hinblick auf Überleben, Ansprechraten und Toxizität verglichen. Patienten und Methoden: 99 Patienten mit rezidiviertem indolenten Non-Hodgkin Lymphom verschiedener Histologien und Mantelzell Lymphomen wurden in dieser multizentrischen Studie in die Arme Bendamustin-Rituximab oder Fludarabin-Rituximab randomisiert und erhielten 6 Zyklen des jeweiligen Regimes alle 4 Wochen. Die Dosierung war wie folgt: Rituximab 375 mg/m² an Tag 0 und entweder 90 mg/m² Bendamustin an Tag 1 und 2 oder 25 mg/m² Fludarabin an Tag 1-3. Ergebnisse: Von den 97 auswertbaren Patienten ergab sich eine ORR von 82% für die BR-Gruppe mit einer CR von 46% und PR von 36%. Die mit F-R behandelten Patienten erreichten eine ORR von 55% mit einer CR-Rate von 23% und PR von 32%. P-Werte für die ORR ist 0,0078. Die PFS ist signifikant unterschiedlich (p=0,0019), günstiger für BR, der Median der BR-Gruppe ist noch nicht erreicht, der der F-R Gruppe ist 12. Der Unterschied der infektiösen Toxizität ist nicht signifikant, unter Bendamustinbehandlung ereigneten sich jedoch schwerwiegendere Infektionen als unter Fludarabin, Hämatotoxizität war etwa gleich verteilt auf beide Gruppen. Schlussfolgerung: Die Kombination Bendamustin-Rituximab ermöglichte signifikant bessere Remissionsraten und PFS als die Kombination Fludarabin-Rituximab. Die vorbeschriebenen schwerwiegenden hämatotoxischen Nebenwirkungen von Fludarabin wurden in unserer Studie nicht bestätigt, unter der Kombination Bendamustin-Rituximab ereigneten sich schwerwiegendere Infektionen als unter F-R. Bendamustin erreicht signifikant bessere Therapieergebnisse als Fludarabin mit akzeptablen Nebenwirkungen in der Therapie der indolenten Non-Hodgkin-Lymphome.
Diese Arbeit beschäftigt sich mit der Frage, ob Schmerzschwellen für unterschiedliche Stimuli voneinander unabhängige Aspekte des Schmerzes oder ein gemeinsames Phänomen messen. In ersterem Fall würden unterschiedliche Reize benötigt, um die Schmerzempfindlichkeit eines Individuums vollständig zu charakterisieren. In letzterem Fall wären verschiedene Reize hierzu überflüssig, wobei sie allerdings dafür verwendet werden könnten, Summen-Scores aus den verschiedenen Schmerzmodalitäten zu errechnen. Für diese Arbeit wurden bei 45 gesunden Männern und 32 gesunden Frauen (im Alter von 20-44 Jahren) Schmerzschwellen für mehrere Reize (Wärme, Wärme / Capsaicin, Kälte, Kälte / Menthol, stumpfer Druck, 5-Hz Wechselstrom (0-20 mA), spitzer Druck (von Frey-Haare), und von Frey-Haare / Capsaicin) gemessen. Diese Schmerzschwellen waren signifikant miteinander korreliert. Eine daraufhin durchgeführte Hauptkomponentenanalyse ergab, dass die Varianz der Schmerzschwellen mehr auf die Unterschiede zwischen den Subjekten zurückzuführen ist (variance estimate: 0,393), als auf die Unterschiede der Schmerzreize bei jeweils einem Subjekt (variance estimate: -0,008). Unter den drei wichtigsten Hauptkomponenten der Korrelationsmatrix mit Eigenwerten > 1, erklärte die größte 48% der Varianz der Schmerzschwellen, wobei sie starke Ladungen von allen Schmerzreizen erhielt, was für eine starke gemeinsame Varianzquelle spricht. Nur zwei kleinere Hauptkomponenten, die jeweils weniger als 14% der gesamten Varianz erklären, deuten auf eine weitere Differenzierung der Schmerzarten hin. Das Muster von Ähnlichkeiten und Unterschieden innerhalb dieser Komponenten stimmt jedoch mit bereits bekannten molekularen Mechanismen der Nozizeption überein. Dies führt zu dem Schluss, dass die Charakterisierung einer Person als allgemein schmerzempfindlich oder schmerzunempfindlich, zumindest auf Schmerzschwellen-Ebene, gerechtfertigt erscheint. Außerdem befasst sich diese Arbeit mit der Frage, ob Sensibilisierungsverfahren, wie sie in der experimentellen Schmerzforschung zum Einsatz kommen, zusätzliche qualitative Komponenten bei der Schmerzmessung hinzufügen, sodass eine andere Art von Schmerz entsteht, oder ob die Sensibilisierung sich auf quantitative Veränderungen beschränkt, die sich ausschließlich in einer höheren Intensität der gleichen Schmerzart äußert. Hierfür wurde das Probandenkollektiv vergrößert (insgesamt 69 Männer und 56 Frauen im Alter von 18 bis 46 Jahren), indem die o. g. Schmerzmessungen bei weiteren Testpersonen durchgeführt wurden. Für die nachfolgende Analyse wurden nur Daten von den Schmerzmodellen Hitze, Kälte und von Frey-Haare, jeweils mit und ohne Capsaicin- bzw. Menthol-Sensibilisierung verwendet. Die Ergebnisse zeigen, dass die Sensibilisierung den Anteil derjenigen Werte in den Daten verringert, an denen die Schmerzschwelle das technische Limit des Modellversuchs von 52,5°C bzw. 0°C bzw. 300 g von Frey, erreicht. Die Anzahl der Probanden, die diese Werte erreichten, wurde von 38 auf 21 Patienten beim von Frey-Haar-Versuch und von 30 auf 19 Patienten mit Kälte-Versuch (χ exp 2 -Tests: P < 0,001) verringert, während die Schmerzschwellen beim Hitze-Versuch nie das technische Maximum erreichten. Bei den 75 Patienten ohne Werte am technischen Limit senkte die Capsaicin-Sensibilisierung die Hitze-Schmerzschwelle von 44,7 ± 2,1°C auf 36,8 ± 3,3°C und die von Frey-Schmerzschwelle von 78,2 ± 74g auf 33,9 ± 37,8g. Die Menthol-Sensibilisierung senkte die Kälte-Schmerzschwelle von 13 ± 8,4°C auf 19,3 ± 9,2°C (Paarvergleiche: alle P < 0,001). Für jedes Schmerzmodell konnte durch eine Hauptkomponentenanalyse nur je eine einzige Hauptkomponente mit einem Eigenwert > 1 identifiziert werden, die jeweils 64,8%, 84,8% und 94,4% der gesamten Varianz für Hitzeschmerz, von Frey-Haar-Schmerz bzw. Kälteschmerz erklärt, was darauf hinweist, dass die Schwellen für nicht sensibilisierten und sensibilisierten Schmerz eine gemeinsame Varianzquelle haben. Daraus kann geschlossen werden, dass die Hauptwirkung der Sensibilisierung in einer quantitativen Abnahme der thermischen und mechanischen Schmerzschwelle besteht, wodurch die technisch mögliche maximale Reizintensität weniger oft erreicht wird. In der vorliegenden statistischen Analyse findet sich kein Anhalt für eine qualitative Änderung des Schmerzes durch die Sensibilisierung auf Ebene der primären Hyperalgesie.
Die traumatische anteriore Schulterluxation ist bei jungen Männern ein häufiges Trauma, bei einer jährlichen Inzidenz von 1,7% bis 2%. Die häufigste schulterinstabilitätsspezifische Pathologie ist die Bankart Läsion. Diese kann zu einer chronisch rezidivierenden Instabilität, Schmerzen und Bewegungseinschränkungen führen. Operativ kann dieses Verletzungsmuster mit einem arthroskopischen Bankart-Repair versorgt werden. Der Goldstandard zur operativen Versorgung der weichteiligen Bankart Läsion ist die Rekonstruktion des Kapsel-Labrum-Komplexes mittels Fadenankern. Nur wenige Studien haben die propriozeptiven Eigenschaften der Gelenkkapsel und des Kapsel-Labrum-Komplexes untersucht. Eine prospektive propriozeptive Nachuntersuchung mittels Winkelreproduktionstests nach arthroskopischem Bankart Repair ist bisher nicht in der Literatur beschrieben. Die 32 Patienten, hauptsächlich junge (circa 25 Jahre alte) gesunde Männer (94%), wurden propriozeptiv und klinisch zu verschiedenen Zeitpunkten vor und nach dem arthroskopischen Bankart-Repair untersucht. Die Diagnose der anterioren primär traumatischen Schulterluxation mit Bankart-Läsion wurde mit einer MRT-Bildgebung verifiziert. Die Follow-Ups erfolgten präoperativ sowie nach 7, 14 und 31 Monaten postoperativ. Pro Patient wurden 3,7 Untersuchungen durchgeführt. Hierbei wurden klinische Scores erhoben sowie Außenrotationsdefizite mithilfe aktiver Winkelreproduktionstests mit Vicon Kameras und dem Cybex Gerät gemessen. Die Abweichung der Winkel wurde als Maß für die propriozeptiven Fähigkeiten verwendet.
Beim Vergleich der Winkelabweichungen der verletzten Schulter zu verschiedenen Zeitpunkten zeigt sich keine signifikante Differenz (p=0,424).
Auch in der Gegenüberstellung der gesunden und verletzten Schulter mithilfe einer Varianzanalyse besteht kein signifikanter Unterschied (p=0,065).
Als möglicher Einflussfaktor wurden die dominante Schulterseite und die Anzahl der implantierten Fadenanker (2 versus 3) definiert. Aufgrund der sehr geringen Probandenanzahl in den Subgruppen erfolgte eine graphische Tendenzanalyse, bei der sich bei beiden Subgruppenvergleichen ähnliche Entwicklungen darstellen ließen.
Beim Methodenvergleich wurden die Messwerte zum Zeitpunkt FU0 (präoperativ) gegenübergestellt. Dabei kann keine signifikante Differenz nachgewiesen werden (p=0,073).
Für die klinische Beurteilung wurden der Walch-Duplay-, Constant- und Rowe-Score verwendet, diese zeigten alle eine deutliche Verbesserung über die Messzeitpunkte: der Walch-Duplay-Score mit 94,78 Punkten (FU0: 41,20), der Constant-Score mit 95,83 (FU0: 75,10) und der Rowe-Score mit 91,96 (FU0: 42,5). Die erreichten Punktzahlen geben Auskunft über die Stabilität, Schulterfunktion und Beweglichkeit und liegen im ausgezeichneten Bereich.
Die Studie zeigt, dass das untersuchte Patientenkollektiv mit der gewählten Therapiemethode, dem arthroskopisch-durchgeführten Bankart-Repair, geringe propriozeptive Defizite, gute klinische Ergebnisse und eine hohe Patientenzufriedenheit erzielen konnte. Die Winkelabweichungen zeigten sich im Studienvergleich im oberen Mittelfeld. Es scheint weder durch die Bankart-Läsion noch dem arthroskopischen Bankart-Repair zu einer signifikanten Veränderung der propriozeptiven Wahrnehmung der Schulter zu kommen. Dieses Ergebnis spricht für die gute Therapie mittels dem arthroskopischen Bankart-Repair sowie die geringe Relevanz der Propriozeptoren des Kapsel-Labrum-Ligament-Komplexes.
Weiterführende Studien in längsschnittigem Studiendesign sowie die Etablierung weiterer Methoden zur standardmäßigen propriozeptiven Untersuchung wären wünschenswert und könnten zur Vergleichbarkeit und Untersuchung größerer Probandenmengen führen.
Das Endstadium der chronischen Abstoßungsreaktion ist die sogenannte Transplantatarteriosklerose. Zu den hierzu beitragenden Mechanismen zählen die Aktivierung des HLASystems und die unkontrollierte Induktion und Freisetzung von Zytokinen wie TNFa, IL1ß, IL2 etc. (Cerami 1992). Dieser permanente Entzündungsreiz unterliegt nach Monaten oder Jahren einer gewissen Autonomie (Tracey et al. 1988; Yin et al. 1993). Die Freisetzung von Zytokinen aus TLymphozyten wird jedoch durch CSA, ein anerkanntes Immunsuppressivum, nur zeitweise unterdrückt (GranelliPiperno, Inaba und Steinmann 1984). Gleichzeitig wird durch eine Sensibilisierung sowohl der glatten Muskelzellen der Gefäßmedia als auch der Endothelzellen der Intima eine Aufregulierung der Zytokinrezeptoren induziert und somit der CSAWirkung entgegengewirkt (Russel et al. 1995). Die Rolle der glatten Muskelzellen sowie der Einfluß des Endothels im pathophysiologischen Geschehen der chronischen Transplantatabstoßung ist in vivo schwer faßbar und sollte in einem in vitro Ansatz näher charakterisiert werden. In der vorliegenden Arbeit wurden humane glatte Muskelzellen aus der menschlichen Nabelschnur isoliert und die Kulturbedingungen für diesen Zelltyp zunächst optimiert. Durch immunzytochemische Markierungen wurden die Zellen identifiziert. Die glatten Muskelzellen wachsen zu einem konfluenten Monolayer und zeigten bei regelmäßiger Subkultivierung eine exponentielle Wachstumsphase. In anschließenden Experimenten wurden diese Zellen verschiedenen Entzündungsmediatoren ausgesetzt und die Proliferationsrate mit Hilfe des [ 3 H] Thymidineinbaues bestimmt. Zur Anwendung kamen Endothelin1, Interleukine und Tumornekrosefaktor a. Die stärksten Wachstumsstimulatoren waren TNFa (2,5 ng/ml), IL1ß (50 U/ml) und Eth (0,1 µg/ml). Die Wachstumsraten wurden um ca. 2535 % gegenüber der Kontrolle gesteigert. Mit TNFa und IL1ß in den gleichen Konzentrationen wurden auch additive Effekte gefunden. Zur Beschreibung der intrazellulären Signalwege, die durch die Einwirkung der verschiedenen Substanzen aktiviert werden, wurden in einem weiteren Ansatz die Proteinkinase C (PKC) durch Staurosporin sowie die Tyrosinkinase (TK) durch Genistein inhibiert. Es konnte nachgewiesen werden, daß vorwiegend die PKC für die Induktion der Proliferation durch TNFa oder IL1 verantwortlich ist. Der Einfluß von Cyclosporin A (CSA) unter den Stimulationsbedingungen war nun von besonderem Interesse. Es zeigte sich keine deutliche Hemmung der zytokin induzierten Proliferation durch CSA im Vergleich zur Kontrolle. Da die Zellen im natürlichen Gewebeverband einer gegenseitigen Wachstums kontrolle unterliegen, wurde in einem zusätzlichen Ansatz Kulturüberstand von Endothelzellen, die ebenfalls aus der Nabelschnur isoliert wurden, mit den glatten Muskelzellen inkubiert. Dieser Überstand wurde nach 3 Tagen von den Endothel zellen gewonnen und hemmte in Konzentrationen von 1% und 10% das Wachstum der glatten Muskelzellen. Wurden die Endothelzellen mit TNFa stimuliert (vorinkubierter Überstand), so hatte dieser Überstand eine ähnliche Wirkung auf glatte Muskelzellen. Am deutlichsten konnte in dieser Versuchsserie gezeigt werden, daß die glatten Muskelzellen für eine zusätzliche TNFaStimulation (2,5 ng/ml) sensibilisiert werden, wenn sie mit dem TNFa vorinkubierten Endothelzellüberstand versetzt wurden. Die zelluläre Aktivierung durch Zytokine wird über die Proteinkinase C vermittelt. Cyclosporin A hat keine protektive Wirkung auf die zytokinvermittelte Zellaktivierung bei den untersuchten humanen glatten Muskelzellen.
Im Juli 2000 wurde die Arbeitsgruppe Evidenzbasierte Medizin Frankfurt von einer Gruppe Studierender an der Goethe-Universität gegründet, um die Anwendung der klinisch-wissenschaftlichen Medizin und deren Lehre mit Hilfe der Methoden der Evidenzbasierten Medizin zu verbessern. Aus den mittlerweile 21 freiwilligen zunächst studentischen Kursen in Evidenzbasierter Medizin sind deutschlandweit die ersten verpflichtenden Seminare in Evidenzbasierter Medizin entstanden. Aufgrund des Einsatzes neuer Lehrmethoden von Beginn an und der kontinuierlichen Verbesserung des Seminars sind sowohl formative als auch summative Evaluationen sehr gut. Die im Rahmen der Lehrforschung erhobenen Evaluationsdaten konnten hochrangig publiziert werden. ...
Die Faktoren, welche das Fortschreiten einer H l V-Infektion anzeigen, sind noch ungenügend bekannt. Nebenklinischen und immunologischen Parametern (z.B. CD4-Lymphozytenzahl) sind virusserologische Marker von Interesse, die eine prognostische Aussage über den individuellen Krankheitsverlauf erlauben könnten. In unserem Beitrag werden einige dieser HIV-serologischen Parameter und ihre Nachweismethoden dargestellt. Das p24-Antigen kann schon in der Frühphase der HIV-Infektion nachweisbar sein und verschwindet nach der Antikörperbildung. Sein Wiederauftreten oder seine Persistenz deutet auf eine Progression der HIV-Erkrankung zum AIDS hin. Die Antigenpositivität ist mit einem signifikanten Abfall der p24-Antikörper in fortgeschrittenen Stadien der H l V-Infektion assoziiert. Die Analyse der Immunglobulinklassen zeigt, daß IgM-Antikörper bei der akuten HIV-Infektion nachweisbar sein können, jedoch keinen Reaktivierungsmarker darstellen. HIV-IgG-Antikörper gehören im wesentlichen der Subklasse lgG1 an; bei 50% der LAS/AI DS-Patienten findet man auch HIV-spezifisches IgG3. Bei Patienten mit AIDS-Enzephalopathie kann eine autochthone, intrathekale Antikörperproduktion durch die vergleichende Serum- und Liquoruntersuchung nachgewiesen werden. Als weitere Parameter, die auf eine Progression der HIV-Infektion hinweisen, werden erhöhte Antikörpertiter gegen andere opportunistische Virusinfektionen vorgeschlagen (z. B. Cytomegalie- oder Epstein-Barr-Virus.
Die Riskostratifikation von Patienten nach überstandenem Myokardinfarkt stellt nach wie vor eine Herausforderung an Klinik und Forschung dar. Aufgrund des hohen Anteils von fast der Hälfte aller Todesfälle innerhalb des ersten Jahres, muß das vorrangige Ziel die frühzeitige und sichere Identifikation von Patienten mit erhöhtem Risiko des plötzlichen arrhythmogenen Herztodes sein. Zu diesem Zweck wurde in der vorliegenden Studie bei 191 konsekutiven Patienten der T-Wellen Alternans, die Herzfrequenzvariabilität und die linksventrikuläre Ejektionsfraktion bestimmt. Die Ergebnisse wurden sowohl uni-, als auch multivariat und mittels Kaplan-Meier-Überlebenskurven mit dem prospektiven Auftreten des primären Endpunktes Gesamtmortalität und der Inzidenz arrhythmischer Ereignisse bzw. des plötzlichen Herztodes als sekundäre Endpunkte verglichen. Die Nachbeobachtungsdauer betrug 515 + 314 Tage. Dabei zeichnet sich die vorliegende Untersuchung im Gegensatz zu anderen Postinfarktstudien dadurch aus, daß mit einem hohen Anteil von fast 90% antiadrenerg behandelter Patienten ein nach aktuellen klinischen Richtlinien therapiertes Patientenkollektiv vorliegt. Die Resultate der Untersuchung zeigten hochsignifikante Prädiktionswerte für die Parameter SDNN und LVEF hinsichtlich Gesamtmortalität und plötzlicher Herztod. Diese Beobachtungen bestätigen die Ergebnisse bereits veröffentlichter Studien, belegen allerdings erstmals die Bedeutung der HRV als Marker des autonomen Nervensystems bezüglich der Vorhersage auch arrhythmogener Ereignisse. Der T-Wellen Alternans erreichte in der vorliegenden Arbeit nicht das Signifikanzniveau. Eine abschließende Bewertung dieser noch neuen Methode hinsichtlich des Nutzens als Risikomarker bei Postinfarktpatienten ist aufgrund der bislang kaum vorhandenen Untersuchungen bei diesem Kollektiv allerdings noch nicht möglich. Eine hochsignifikante Vorhersage von Ereignissen, bei gleichzeitig zufriedenstellender Testeffizienz, konnte durch eine Testkombination der univariaten Prädiktoren SDNN und LVEF erzielt werden. So war eine Vorhersage primärer Endpunkte mit einer Sensitivität von 71% und einem positiven Vorhersagewert von 42% möglich (p<0,0000003), die Spezifität lag bei 91% und der negative Vorhersagewert bei 97%. Bei der Prädiktion eines sekundären Endpunktes betrug die Sensitivität 70% und der positive Vorhersagewert 29%, die Spezifität 89% und der negative Vorhersagewert 98% (p<0,00004). Die Wahrscheinlichkeit den Nachbeobachtungszeitraum zu überleben, ohne einen primären oder sekundären Endpunkt zu erreichen, war ebenfalls signifikant höher bei den Patienten, bei denen die Ergebnisse beider Tests negativ waren ( jeweils p<0,0001). Als Schlußfolgerung der aus der vorliegenden Untersuchung gewonnenen Resultate empfiehlt sich die zukünftige Risikostratifikation bei Postinfarktpatienten mittels der Größen SDNN und LVEF. Die Untersuchungen sollten dabei zum Entlassungszeitpunkt nach der Einleitung einer optimalen medikamentösen Therapie erfolgen. Den prophylaktischen Nutzen einer ICD-Implantation im Sinne einer Primärprävention des plötzlichen Herztodes bei den auf diese Weise identifizierten Patienten gilt es zukünftig in prospektiven, großangelegten Studien zu überprüfen.
In der vorliegenden Untersuchung wurden die im Zeitraum von 1984 bis 2006 an der Universitätsklinik Frankfurt am Main aufgrund von nicht-kolorektalen Lebermetastasen durchgeführten Leberteilresektionen untersucht. Ziele dieser Arbeit sind die Darstellung des Patientenkollektivs einschließlich der operativen Faktoren der Lebermetastasenresektion, die Ermittlung von Langzeitergebnissen nach der Resektion und die Feststellung von Prognosefaktoren im Hinblick auf das postoperative Überleben dieser Patienten. Das untersuchte Patientenkollektiv (n = 69) umfasste 31 Männer und 38 Frauen mit einem medianen Alter von 52 Jahren zum Zeitpunkt der Leberresektion. Am häufigsten waren folgende Primärtumore vertreten: Magenkarzinom, Mammakarzinom, Malignes Melanom, Neuroendokriner Tumor und Nierenzellkarzinom. Der größte Anteil der Primärtumore wurde als mäßig differenziert (G2) eingestuft. 55,1 % der Patienten zeigten eine solitäre Lebermetastasierung. Der mediane Tumordurchmesser betrug 5 cm. Bei 14,5 % der Patienten wurden bilobäre und bei 85,5 % unilobäre Lebermetastasen festgestellt. 20,3 % der Patienten präsentierten sich mit einer synchronen und 73,9 % mit einer metachronen Metastasierung (unbekannt: 5,8 %). Zur Resektion der Metastasen wurden atypische Segmentektomien (n = 25), typische Segmentektomien (n = 22) und (erweiterte) Hemihepatektomien (n = 22) durchgeführt. Bei einer medianen Operationsdauer von 195 min erfolgte bei 69,6 % der Patienten ein zusätzlicher Eingriff. Der mediane Sicherheitsabstand zum Resektionsrand lag bei 10 mm. Die Liegedauer auf der Intensivstation betrug im Median einen Tag. Bei 39 Patienten traten postoperative Komplikationen auf. Ein Fortschreiten der Tumorerkrankung war bei 30 Patienten dokumentiert. Das mediane tumorspezifische Überleben nach Resektion nicht-kolorektaler Lebermetastasen lag bei 4,3 Jahren. Die dazugehörigen 1-, 5- und 10-JahresÜberlebensraten betrugen 80,1 %, 47,9 % und 35,5 %. Die mediane tumorspezifische Überlebenszeit nach Resektion nicht-kolorektaler, nicht-neuroendokriner Metastasen stellte sich mit 2,0 Jahren und folgenden 1-, 5- und 10-Jahres-Überlebensraten dar: 76,8 %, 43,1 % und 27,9 %. Nach der Leberresektion aufgrund von Metastasen eines Magenkarzinoms ergaben sich tumorspezifische 1-, 5- und 10-Jahres-Überlebensraten von 80,8 %, 23,1 % und 11,5 % (mediane ÜLZ: 18 Monate). Die 1-, 5- und 10-Jahres-Überlebensraten nach der Resektion von Filiae eines Mammakarzinoms betrugen 74,6 %, 51,1 % und erneut 51,1 %. Die mediane Überlebenszeit nach Operation von Metastasen eines Malignen Melanoms lag bei 22 Monaten: 1-JÜR: 66,7 %, 5-JÜR: 33,3 %, 10-JÜR: 0,0 %. Nach der Resektion von Filiae eines Neuroendokrinen Tumors betrug die 1- 5- und 10-Jahres-Überlebensrate 100,0 %, 80,0 % und erneut 80,0 %. Bei Patienten mit primärem Nierenzellkarzinom ergab sich nach der Resektion eine mediane Überlebenszeit von 44 Monaten und die dazugehörige 1-Jahres-Überlebensrate lag bei 75,0 %. Die folgenden Faktoren zeigten sich in den Resultaten der univariaten Analyse als signifikante Prädiktoren für das tumorspezifische Überleben der Patienten: Primärtumorgruppe8, Grading des Primärtumors, zusätzliche Eingriffe neben der Leberresektion und Sicherheitsabstand zum Resektionsrand. In der multivariaten, tumorspezifischen Analyse wurden zwei Determinanten als unabhängige Prognosefaktoren für das Überleben nach der Leberresektion identifiziert: Der kleinste Sicherheitsabstand der Leberfiliae zum Resektionsrand und die Durchführung eines zusätzlichen Eingriffs neben der Leberresektion. Bei Durchführung eines solchen Eingriffs war das Risiko für die Patienten, an der Tumorerkrankung zu versterben, 3,5mal so groß im Vergleich zu Patienten, bei denen kein zusätzlicher Eingriff erfolgt ist. Bei Annahme eines Sicherheitsabstandes von mindestens 10 mm als Referenz, errechnete sich im Vergleich dazu für Patienten, bei denen kein Sicherheitsabstand eingehalten werden konnte, ein 6,3mal so großes Risiko an der Tumorerkrankung zu versterben. Bei Einhaltung eines kleinen Abstandes zum Resektionsrand (0,1 mm - 9,9 mm) war das entsprechende Risiko für die Patienten 4,9mal so groß. Die Resektion nicht-kolorektaler Lebermetastasen erscheint in ausgewählten Fällen sinnvoll. Um die Prognose der operierten Patienten zu verbessern, sollte entsprechend den Ergebnissen der vorliegenden Arbeit ein Sicherheitsabstand von mindestens einem Zentimeter angestrebt werden.
Prognostische Bedeutung von "electrical storm" und seinen verschiedenen Formen bei Patienten mit ICD
(2010)
Ziel: Das Ziel der vorliegenden Arbeit war es, die Unterschiede bezüglich Mortalität, demographischen und klinischen Parametern, zwischen „electrical storm) (ES) und „nicht electrical storm“ (NES) Patienten sowie zwischen den Gruppen mit verschiedenen Formen des ES aufzuzeigen, um Aussagen über die prognostische Bedeutung von ES und dessen verschiedene Formen und den Einfluss der demographischen und klinischen Parameter auf die Entstehung von ES machen zu können. Hintergrund: Es existieren nur ungenügende Daten bezüglich der Entstehung und Prognose von ES bei ICD Patienten. Die prognostische Bedeutung der bei ES auftretenden Herzfrequenzen wurde bislang nur von einer Arbeitsgruppe untersucht und bedarf weiterer Studien. Methoden: In der Studie wurden retrospektiv die Daten von 783 konsekutiven Patienten, denen von Dezember 1989 bis September 2005 in der JWG Universitätsklinik Frankfurt am Main ein ICD implantiert wurde, ausgewertet. Die Nachsorgedauer betrug 40,7 ± 30 Monate. ES wurde als das drei oder mehrmalige Auftreten von anhaltende VTs / VFs innerhalb von 24 h, die mit ATP oder Schock therapiert wurden definiert. In der Studie wurden erstmals ES Patienten mit immer gleichen HF während eines ES mit denen mit unterschiedlichen HF verglichen. Weiterhin wurde die Gruppe der Patienten mit gleichen HF in die Untergruppen HF 100-200/min und > 200/min eingeteilt und ein Vergleich durchgeführt. Ergebnisse: Von den 783 Patienten erlitten 144 (18,39%) während des Beobachtungszeitraumes einen oder mehrere ES. Männliches Geschlecht (p = 0,004), eine sekundäre Indikation zur ICD Implantation (p = 0,000) sowie die fehlende Einnahme von Aldosteron-antagonisten (p = 0,026) zeigten sich in der multivariaten Analyse als unabhängige Faktoren, die die Entstehung von ES begünstigen. Es verstarben höchst signifikant häufiger Patienten der ES Gruppe als Patienten der NES Gruppe (38,88% vs. 21,75%; p = 0,000116). Die Cox Regression zeigte jedoch, dass die Tatsache des Erleidens eines ES keinen unabhängigen Faktor für das Überleben darstellt. Beim Vergleich der Patienten mit unterschiedlichen und gleichen Herzfrequenzen zeigte sich, dass Patienten mit unterschiedlichen Herzfrequenzen häufiger versterben als Patienten mit gleichen Herzfrequenzen (41,18% vs. 27,50%). Die Ergebnisse erlangten jedoch keine Signifikanz. Beim Vergleich der Patienten der unterschiedlichen HF Gruppen zeigte sich, dass signifikant mehr Patienten mit einer HF >200/min eine LVEF unter 30% haben (84,62% vs. 44,44%, p = 0,038310). Es sind mehr Patienten mit einer HF >200/min als mit einer HF von 100-200/min verstorben (38,46% vs. 22,22%), die Ergebnisse erlangten jedoch keine Signifikanz. Schlussfolgerung: ICD Patienten mit ES versterben signifikant häufiger als ICD Patienten, die keinen ES erleiden. ES ist jedoch kein unabhängiger Faktor für das Überleben von ICD Patienten. Zum ersten Mal wurden ES Patienten eingeteilt in verschiedene HF Gruppen verglichen, und es ergaben sich deutliche prozentuale Unterschiede. Um jedoch statistisch signifikante Aussagen über die Auswirkung der verschiedenen HF bei ICD Patienten mit ES machen zu können, bedarf es Studien mit wesentlich höheren Studienpopulationen. Aus den Studienergebnissen des Vergleiches der Baselinedaten lassen sich Risikofaktoren sowie protektive Faktoren, die das Auftreten eines ES beeinflussen, ableiten, wodurch in Zukunft Risikopatienten identifiziert werden und entsprechende Vorsorgemaßnahmen eingeleitet werden können.
In der vorliegenden Dissertation wurde untersucht, ob die endotracheale Intubation (ETI) der alternativen Atemwegssicherung mittels Larynxtubus (LT) bezüglich der Überlebenswahrscheinlichkeit bei außerklinisch reanimierten Patienten überlegen ist.
Das retrospektiv erfasste Kollektiv dieser monozentrischen Studie umfasst 222 Patienten, die in den Jahren 2006 bis 2014 nach nicht-traumatischem Herz-Kreislauf-Stillstand außerhalb der Klinik (engl.: Out-of-hospital cardiac arrest, OHCA) präklinisch primär mit Endotrachealtubus (ET) oder LT versorgt und anschließend auf die internistische Intensivstation des Universitätsklinikums Frankfurt am Main aufgenommen wurden. Endpunkte der Studie waren die innerklinische Gesamtmortalität während des Krankenhausaufenthaltes sowie die Überlebensrate nach 24 Stunden.
In die Analyse wurden 208 Patienten einbezogen, von denen präklinisch 48 Patienten mit LT (23 %) und 160 Patienten mit ET (77 %) intubiert wurden. Die innerklinische Sterblichkeitsrate lag insgesamt bei 85 % (n=176); darunter 23 % LT- und 77 % ET-versorgte Patienten. Zwischen den beiden Methoden zur Atemwegssicherung zeigten sich sowohl in einer univariaten Analyse (Hazard ratio [HR]=0,98; 95 % Konfidenzintervall [K.I.] 0,69-1,39; p=0,92) als auch in einer multivariaten Cox-Regressionsmodell (adjustierte HR=1,01; 95 % K.I. 0,76-1,56; p=0,62) keine Unterschiede. Die ersten 24 Stunden nach OHCA überlebten 38 % aller Patienten; auch hier unterschieden sich die beiden Patientenkollektive nicht signifikant voneinander (univariate HR=1,04; 95 % K.I. 0,71-1,52; p=0,83).
Ferner veranschaulichte eine Propensity-Score-Matching-Analyse (PSM) mit einer Subgruppe von 120 Patienten, zusammengestellt in einem 3:1 Verhältnis (ET:LT), sowohl mit Blick auf die Überlebensrate bis zur Krankenhausentlassung (Propensity-adjustierte HR=0,99; 95 % K.I. 0,65-1,51; p=0,97) als auch auf die Mortalität in den ersten 24 Stunden (Propensity-adjustierte HR=1,04; 95 % K.I. 0,44-2,36; p=0,96) vergleichbare Ergebnisse beim Atemwegsmanagement mit LT bzw. ET.
Die frühe Durchführung einer Herzkatheteruntersuchung (HR=0,47; 95 % K.I. 0,28-0,77; p=0,003) sowie der frühe Beginn einer systemischen empirischen antibiotischen Therapie (HR=0,28; 95% K.I. 0,17-0,45; p<0,001) konnten überdies als signifikant positive Prädiktoren für das Überleben in einer angepassten Cox-Regressionsanalyse herausgearbeitet werden.
Im Gesamten konnte somit demonstriert werden, dass die initiale präklinische Anwendung des LT nach OHCA der ETI hinsichtlich der Überlebenswahrscheinlichkeit nicht untergeordnet ist. Neuester Literatur zufolge ist sie womöglich sogar überlegen. Dies gilt es in weiteren Studien zu bestätigen.
Prognostische Bedeutung der R1 Resektion : verbessertes Überleben in der Ära elektiver Chemotherapie
(2008)
Einleitung: Die Resektion kolorektaler Lebermetastasen ist der alleinigen Chemotherapie überlegen und erfolgt unter kurativer Zielsetzung. Multimodale Therapiekonzepte erlauben zunehmend primär irresektable Metastasen sekundär zu resezieren. Bei einem Teil der Patienten wird das Ziel der Tumorfreiheit nicht erreicht. Anhand einer retrospektiven Analyse wurde der Anteil der nicht kurativ resezierten Patienten nach primärer und sekundärer Resektion und ihr Überleben bestimmt. Material und Methoden: Bei 152 Patienten wurden zwischen 1/02 – 7/07 insgesamt 174 Leberresektionen aufgrund kolorektaler Metastasen durchgeführt. Dieses Kollektiv wurde anhand des R-Status der Leberresektion in eine kurativ- (Gruppe I) und in eine nicht kurativ resezierte Gruppe (Gruppe II) unterteilt. Die Auswertung erfolgte retrospektiv nach Überleben, Metastasenausdehnung, neoadjuvanter Chemotherapie und primärem Tumorstadium. Ergebnisse: 174 Leberresektionen schlossen 44 Re-Resektion und 6 zweizeitige Resektionen ein. Bei 61 Patienten erfolgte eine neoadjuvante Chemotherapie vor der Leberresektion. Die demographischen Daten beider Gruppen zeigten keinen signifikanten Unterschied (Gr. I: Männer: 60%, Alter: 63+/-1; Gr. II: Männer: 65%, Alter: 57+/-2,4). Die Anzahl der resezierten Metastasen war in Gruppe II signifikant höher (Gr. I: 1,5+/-0,1; Gr. II: 3,5+/-0,7, p<0,01), während die lokale Primärtumor-Ausdehnung gemessen am T-Stadium (Gr. I: 2,8 +/- 0,1, Gr. II: 2,8 +/- 0,13, n.s.) keinen Unterschied zeigte. Der Anteil der nicht kurativ resezierten Patienten war nach primärer und sekundärer Resektion gleich (17% vs. 21%, n.s.). Das Gesamtüberleben (4-Jahre, Kaplan-Meier) (Gr. I: 61%, Gr. II: 29%, p<0,05) und das mediane Überleben (Gr. I: 4,4, Gr. II: 2,4 [Jahre], p<0,05) wiesen einen signifikanten Unterschied auf. Schlussfolgerung: Der R-Status nach Resektion kolorektaler Lebermetastasen ist weiterhin ein entscheidender prognostischer Faktor. R-1 resezierte Patienten erreichen jedoch mit 2,4 Jahren ein besseres medianes Überleben als vergleichbare historische Kollektive. Sekundäre Resektionen nach neoadjuvanter Therapie weisen eine vergleichbar hohe Rate an R1 Resektionen auf wie bei primären Resektionen.
Ziel der vorliegenden Arbeit ist es, Erkenntnisse über die Beeinflussung der Überlebensraten von Patienten mit Nierenzellkarzinom durch verschiedene Faktoren wie Tumorstadium und Tumorgröße, Differenzierungsgrad, Metastasierung und histologischer Subtyp zu gewinnen. Insbesondere soll die Frage geklärt werden, inwiefern die Prognose der Patienten von der Art der Diagnosestellung, also inzidentell oder symptomatisch, abhängt. Zu diesem Zweck wurden die Daten aller Patienten, die zwischen dem 01.01.1997 und dem 31.12.2005 in der urologischen Universitätsklinik in Frankfurt am Main mit der Verdachtsdiagnose eines Nierenzellkarzinoms radikal nephrektomiert bzw. teilreseziert worden sind, retrospektiv erhoben und analysiert. Die Patienten wurden entweder der asymptomatischen Gruppe zugeteilt, bei denen der Nierentumor zufällig diagnostiziert werden konnte oder der Gruppe bei der die Diagnose erst aufgrund einer auf den Nierentumor oder seine Metastasen hinweisenden Symptomatik gefunden werden konnte. Die mediane Nachbeobachtungszeit betrug 50 Monate (1 bis 112 Monate). Insgesamt konnte die Diagnose Nierenzellkarzinom bei 246 (68,72 %) Patienten zufällig gestellt, nur 112 (31,28 %) präsentierten sich mit darauf hinweisender Symptomatik. Inzidentelle Tumoren waren signifikant kleiner als Symptomatische (4,8cm versus 6,8cm) und wiesen signifikant häufiger ein niedriges Tumorstadium (p<0,001) und eine günstigere Differenzierung auf (p<0,001). Zusätzlich kam es seltener zu Fernmetastasen sowie zum Befall regionaler Lymphknoten. Hinsichtlich der Verteilung von Alter und Geschlecht ergaben sich keine Unterschiede zwischen den beiden Gruppen. Therapeutisch ergaben sich in bezug auf die durchführbare Operationsart signifikante Unterschiede. Während bei immerhin 36,18% aller Patienten mit inzidentellen Tumoren eine Teilresektion durchgeführt werden konnte, war solch ein nierenerhaltendes Vorgehen nur bei 6,25% aller Patienten mit symptomatischen Tumoren möglich. Die Überlebenswahrscheinlichkeit erwies sich als signifikant besser für Patienten mit inzidentell diagnostizierten Tumoren (p<0,001), genauso wie für Tumoren mit besserem Differenzierungsgrad (p<0,001), günstigerem Staging (p<0,001) sowie geringerer Größe (p<0,001). In multivariater Analyse bestätigten sich nur Diagnoseart, Differenzierungsgrad und das Vorhandensein bzw. Nichtvorhandensein von Metastasen als unabhängige prognostische Variablen. Patienten, bei denen der Tumor zufällig anhand einer Routineuntersuchung in völlig asymptomatischem Stadium gefunden werden kann, haben demnach eine signifikant bessere Überlebenswahrscheinlichkeit. Aus diesem Grund sowie aus der Tatsache heraus, dass bisherige Ergebnisse systemischer Therapien die Langzeitüberlebensrate der Patienten mit fortgeschrittenen Nierenzellkarzinomen meist nicht verbessern können, bleibt die Frage der Notwendigkeit einer Screeninguntersuchung weiter bestehen. Jede Möglichkeit einer frühzeitigen Diagnose sollte genutzt werden. Hier bietet sich insbesondere die Sonographie als kostengünstigstes und nicht invasives Verfahren an. Inwieweit die Empfehlung einer generellen und flächendeckenden Screeningmaßnahme sinnvoll ist, wird allerdings weiterhin anhand ihrer Kosteneffizienz beurteilt und kann deshalb beim Nierenzellkarzinom aufgrund der doch vergleichsweise geringen Prävalenz nicht ausgesprochen werden. Doch erscheint die Forderung sinnvoll, die Nieren im Rahmen abdominaler Sonographien aus nichturologischen Gründen immer mit zu untersuchen. Die kurze Zeit, die dies für den geübten Untersucher in Anspruch nimmt, ist tolerierbar; vor allem im Hinblick auf den Benefit, den diese Untersuchung für den Patienten haben kann. Ebenso sinnvoll und realistisch erscheint, dass jeder Urologe zumindest bei seinen Patienten in regelmäßigen Abständen die Nieren schallt oder es Ihnen zumindest als entgeltliche IGeL Leistung anbietet. Die Entdeckung eines Nierentumors in einem frühen asymptomatischen Stadium erscheint sowohl hinsichtlich der Therapie als auch ihrer Prognose am günstigsten zu sein.
Hintergrund
Das intrahepatische cholangiozelluläre Karzinom ist ein seltener, hoch aggressiver Tumor2, der zu den cholangiozellulären Karzinomen gehört1 und sich mit einem Fünfjahresüberleben von lediglich 18% durch seine ungünstige Prognose auszeichnet. Bei weltweit steigender Inzidenz und Mortalität stellt die radikale Resektion zum jetzigen Zeitpunkt die einzige kurative Behandlungsoption dar. Aufgrund der niedrigen Fallzahlen und uneinheitlichen Klassifikationen, ist der internationale Studienvergleich erschwert und die Frage nach Prognosefaktoren noch nicht abschließend geklärt.
Ziele
Ziel der Studie war es, Prognosefaktoren anhand von patienten-, tumor- und therapiespezifischen Charakteristika zu detektieren, um eine prognoseadjustierte Therapieentscheidung zu erleichtern und Ausblick hinsichtlich des Gesamtüberlebens geben zu können.
Methoden
Es handelt sich um eine retrospektive unizentrische Kohortenstudie aus der Klinik für Allgemein- und Viszeralchirurgie des Universitätsklinikums Frankfurt am Main. Eingeschlossen in die Analyse wurden 69 erwachsene Patienten mit intrahepatischem cholangiozellulärem Karzinom, die im Zeitraum von Juni 2001 und August 2013 in kurativer Absicht eine Operation als Primärtherapie erhielten.
Um den Einfluss auf das Gesamtüberleben festzustellen, wurden 48 Variablen zunächst mittels univariater Cox-Regressionsanalyse auf ihre Signifikanz getestet. Im Anschluss erfolgte eine multivariate Cox-Regressionsanalyse um Zusammenhangs-, bzw. Abhängigkeitsstrukturen zwischen den Variablen zu erkennen.
Ergebnisse
In der univariaten Cox-Regressionsanalyse ergaben sich, was die prätherapeutischen Symptome betrifft, Hinweise darauf, dass das Vorhandensein von Ikterus (p=,047), Nachtschweiß (p=,026) und Schmerzen (p=,023) die Prognose signifikant verschlechtern könnte, ebenso ein erhöhtes CEA (p=,021).
Bezüglich intraoperativer Merkmale, ließ sich außerdem ein signifikanter Zusammenhang zwischen Prognose und intraoperativem EK-Bedarf (p=,006) sowie der Anlage einer biliodigestiven Anastomose (p=,007) vermuten. Davon abgesehen konnten auch postoperative Komplikationen, wie die Galleleckage (p=,015), die schwerste eingetretene Komplikation, klassifiziert nach Dindo-Clavien (p=,001) und ein hoher CCI-Wert (p=,000) mit dem Gesamtüberleben in Verbindung gebracht werden, ebenso das Vorhandensein von Fernmetastasen (p=,015).
In der multivariaten Cox-Regressions-Analyse konnten Schmerzen, Nachtschweiß, die Anlage einer biliodigestiven Anastomose, eine postoperative Galleleckage, die schwerste Komplikation nach Dindo-Clavien und ein hoher CCI-Wert als störungsfreie, signifikante Prognosefaktoren mit unabhängigem Einfluss auf das Gesamtüberleben gewertet werden.
Schlussfolgerung
Limitiert wird die Übertragung unserer Studienergebnisse durch die relativ geringe Fallzahl. Dennoch konnten wir zeigen, dass es bestimmte Risikogruppen gibt, die nach Resektion in kurativer Intention eine schlechtere Prognose hinsichtlich des Gesamtüberlebens haben, sodass auf jene Patienten vermehrt geachtet werden sollte.
Als Konsequenz der Änderung des Hochschulrahmengesetzes können deutsche Hochschulen einen Großteil Ihrer zur Verfügung stehenden Studienplätze in den Numerus-Clausus Fächern nach eigenen Kriterien vergeben. Die Identifizierung von Merkmalen, die im Zusammenhang mit dem Studienerfolg stehen, stellt daher ein aktuelles Forschungsthema dar. Ein längsschnittlich angelegtes Forschungsprojekt der Universität Frankfurt am Main soll prüfen, inwieweit kognitive und nicht-kognitive Merkmale wie gewichtete Einzelfachnoten, das Ergebnis eines fachbezogenen Kenntnistests oder bildungsbiographische Daten neben der Abiturdurchschnittsnote einen bedeutsamen Beitrag zur Prognose des Studienerfolges in den Anfangssemestern des Studiengangs Medizin leisten können. Im Wintersemester 05/06 wurde Studierenden des ersten Fachsemesters ein Test zur Erfassung naturwissenschaftlicher Vorkenntnisse (Nawik) der Bereiche Mathematik, Physik, Chemie und Biologie vorgelegt sowie die Abiturdurchschnittsnote erhoben. Als Indikator für den Studienerfolg im ersten Fachsemester wurde die Punktzahl in der Anatomieklausur heran gezogen. Die ersten Ergebnisse einer Stichprobe von N=140 Studierenden lassen substanzielle Korrelationen der Leistungen im Nawik sowie der Abiturdurchschnittsnote mit der Klausurleistung erkennen (r= 0,45, p< 0,01 bzw. r= -0,24, p<0,01). Eine schrittweise Regression weist insbesondere die Leistung im Test naturwissenschaftlicher Vorkenntnisse als vorhersagestarken Prädiktor aus. Die vorläufigen Ergebnisse werden anhand einer größeren Stichprobe geprüft. Weitere Auswertungen zur Bedeutsamkeit von Einzelfachnoten und bildungsbiographischen Daten (wie das Ausmaß an Vorerfahrung in medizinischen Bereichen) für den Studienerfolg laufen derzeit.
Einführung: Mehr als 75% der Cholecystektomien werden laparoskopisch operiert und weniger als 1/3 aller Gallenblasenkarzinome sind präoperativ bekannt. Seit den ersten Beschreibungen von Port-sitemetastasen 1991 und Tumorabsiedlungen 1994 wird vermutet, dass die laparoskopische Technik die Prognose von okkultem Gallenblasenkarzinom verschlechtern könnte. Material und Methode: 1997 hat die chirurgische Arbeitsgemeinschaft für Endoskopie (CAE) der deutschen Gesellschaft für Chirurgie ein Register gegründet, welches alle Fälle von postoperativen Zufallsbefund: „Gallenblasenkarzinom“ sammelt, egal ob die primäre Cholezystektomie laparoskopisch oder offen durchgeführt wurde. Zur Datengewinnung dient ein standardisierter Fragebogen, der an alle deutschen und nun auch an alle österreichischen chirurgischen Kliniken verschickt wurde, die Daten werden drei monatlich aktualisiert. Ziel des Registers ist es den Verlauf der Patienten zu beobachten und unter anderem die Frage zu beantworten, ob die Laparoskopie tatsächlich einen negativen Einfluß auf die Prognose des okkulten Gallenblasenkarzinoms hat. Außerdem wurde eine Internetseite zum Register vom Autor eingerichtet, die die neuesten Informationen zum Register und zum Krankheitsbild Gallenblasenkarzinom bietet, diese Seite ist Bestandteil der Doktorarbeit. Diese Seite ist unter der Adresse: www. ketteler-krankenhaus.de/register zu finden. Auch ist ein direktes Herunterladen des Fragebogens zum Register online möglich. Ergebnisse: 377 Fälle von okkultem Gallenblasenkarzinom sind bis dato von 186 Kliniken gemeldet worden. 201 Patienten wurden laparoskopisch operiert, 119 offen und bei 57 Patienten erfolgte ein intraoperativer Umstieg von laparoskopisch zu offen, aus nicht onkologischen Gründen. Es wurden uns 15 Port- site metastasen nach laparoskopischer Operation und 9 Wundmetastasen nach offener Operation gemeldet. Zu einem intraabdominellem Rezidiv kam es bei 23 laparoskopisch operierten Patienten und bei 13 primär offen operierten Patienten. Bei 123 der 377 Patienten wurde eine unmittelbare radikale Reoperation durchgeführt. Es scheint sich eine Tendenz in unserem Patientengut abzuzeichnen, dass reoperierte T1- und T2- Tumore von solch einem radikalen Zweiteingriff profitieren (log- rank > 0.05). Das kumulative Überleben nach Kaplan- Meier zeigt ein signifikant besseres Überleben für die laparoskopisch operierten Patienten im Vergleich zu den primär offen operierten (p=0,0127) oder den Patienten mit intraoperativem Umstieg (p=0,0191). Die 5 Jahresüberlebenswahrscheinlichkeit, (5 JÜR) für laparoskopisch und offen operierte T1- Tumore beträgt 55%, für laparoskopisch operierte T2- Tumore 40% und offen operierte T2- Tumore 30%. Der Gebrauch eines Bergebeutels scheint keinen positiven Effekt zu haben, die intraoperative akzidentelle Verletzung der Gallenblase hingegen scheint zu einer deutlichen Prognoseverschlechterung bezogen auf die Rezidivgenese in der laparoskopisch Gruppe zu haben. Diskussion: Die Inzidenz an Port-/ Wundmetastasen ist nahezu doppelt so hoch in der laparoskopischen Gruppe verglichen mit der offenen. Die Überlebensrate ist höher für die laparoskopisch operierten Patienten, was nicht damit erklärt werden kann, dass die Laparoskopie evtl. die weniger fortgeschritten Stadien operiert. Der Zugangsweg scheint also keinen wesentlichen Einfluß auf die Prognose des okkulten Gallenblasenkarzinoms zu haben. Nach der bisherigen Datenlage können wir keine Prognoseverschlechterung für die laparoskopisch operierten okkulten Gallenblasenkarzinome verifizieren.
Die vorliegende Arbeit beschäftigt sich mit automatischer Informationssuche in heterogenen medizinischen Datenquellen. Informationssuche beschreibt einen Vorgang zur Deckung eines vorhandenen Informationsbedarfs, der aus einem Mangel an Wissen resultiert. In der modernen medizinischen Praxis sind aktuelle Informationen zur optimalen Behandlung eines Patienten wichtig. Fehlen diese Informationen, resultieren negative Folgen für den Behandlungsprozess. Im Hinblick auf den ableitbaren Erkenntnisgewinn ist die Fülle an aktuellen medizinischen Informationen, die heute über Literatur- und Wissensdatenbanken im Internet zur Verfügung steht, eigentlich wünschenswert. Das gezielte Auffinden relevanter Informationen, die zum Kenntnisstand des Arztes und dem Problem des Patienten passen, ist aber mühsam, fehlerbehaftet und zeitaufwändig. Der Aufwand, problemspezifische Informationen zu finden, wird zusätzlich dadurch vergrößert, dass die vorhandenen medizinischen Informationsanbieter unterschiedliche Anfragesprachen zum Zugriff auf die Daten bereitstellen und sich die Struktur der angebotenen Informationen von Anbieter zu Anbieter unterscheidet. Zur Lösung dieser Problematik werden Verfahren untersucht, mit denen die Informationsrecherche automatisiert werden kann. Ausgehend von den Informationen in der elektronischen Patientenakte und den persönlichen Interessen des Arztes werden Suchanfragen automatisch generiert, an verschiedene Informationsanbieter versandt, und die Suchergebnisse anschließend bedarfsgerecht gefiltert präsentiert. Die so gewonnenen Informationen ergänzen die Inhalte der elektronischen Patientenakte. Für die Generierung von problemspezifischen Suchanfragen wird ein komplexes, universelles Verfahren auf der Basis von dynamischen Textgenerierungsmethoden mittels XML-Strukturen entwickelt. Als Grundlage dient eine formal definierte Beschreibung des Informationsinteresses. Daten aus der elektronischen Patientenakte und dem Interessenprofil des Arztes werden über sog. Datencontainer in die Beschreibung eingebettet. Die Auswertung der Datencontainer ergibt eine allgemeine Anfrage, die erst in einem weiteren Schritt in die spezifische Anfragesyntax der einzelnen Informationsanbieter transformiert wird. Als Informationsanbieter kommen sowohl Anbieter medizinischer Literaturdatenbanken als auch eine medizinische Suchmaschine für das World Wide Web zum Einsatz. Das Konzept der virtuellen Datenbank wird verwendet, um aus den Antworten der Informationsanbieter die jeweils erforderlichen Informationsbestandteile zu extrahieren und in ein universelles XML-Dokumentenformat zu integrieren. Der Arzt, der mit dem System arbeitet, erhält als Ergebnis einer Recherche eine einheitliche, übersichtsartige Darstellung der Suchergebnisse, unabhängig von der Struktur der Informationen. Die Realisierung erfolgt als Prototyp eines Informations-Agentensystems, das aus einer interaktiven und einer automatischen, im Hintergrund arbeitenden Komponente besteht.
Die Bestimmung von Procalcitonin im Serum stellt einen wesentlichen Bestandteil der Diagnostik, Verlaufskontrolle und Therapieüberwachung septischer Infektionen dar. Das Procalcitonin ist ein Marker, der in der Diagnostik von Infektionen, schweren Entzündungen und Sepsis wertvolle und therapieentscheidende Aussagen ermöglicht. Er sollte allerdings nicht zum Screening asymptomatischer Personen im Rahmen arbeitsmedizinischer Vorsorgen oder sog. Manager-Untersuchungen genutzt werden, sondern lediglich beim klinischen Verdacht einer vorliegenden systemischen Infektion bei entsprechenden Symptomen.
Die Vermittlung der Zusammenhänge zwischen psychologischen Funktionen und körperlichen Veränderungen sowie deren Relevanz für die Entstehung und Aufrechterhaltung von Krankheiten stellt ein zentrales Ziel der Ausbildung in Medizinischer Psychologie dar. Zur Veranschaulichung dieser Zusammenhänge führten wir ein Psychophysiologie-Praktikum im ersten vorklinischen Semester ein. Die Studierenden führten in Vierergruppen mit Hilfe ausführlicher schriftlicher Instruktionen jeweils ca. 30 Minuten andauernde praktische Übungen durch, die die folgenden Themen behandelten: (1) Stress (abhängige Variable: Herzrate), (2) "Lügendetektor" (abhängige Variable: Hautleitwertsreaktionen), (3) Biofeedback (abhängige Variable: Hauttemperatur) und (4) Elektroenzephalogramm (abhängige Variable: Amplituden der vier klassischen Frequenzbänder). Die praktischen Übungen wurden durch theoretische Gruppenarbeiten und einen Termin zur Zusammenfassung der Ergebnisse der Übungen ergänzt. Die studentische Evaluation des Praktikums war durchweg positiv. So wurde das Praktikum als Bereicherung des Kurses angesehen, und der selbstbeurteilte Kenntnisstand auf dem Gebiet der Psychophysiologie zeigte eine signifikante Verbesserung. Diese Ergebnisse sowie unsere Eindrücke während des Praktikums bekräftigten unseren Entschluss, ein Psychophysiologie-Praktikum als Teil des Kurses der Medizinischen Psychologie und Medizinischen Soziologie fest zu etablieren.
Venöse thromboembolische Erkrankungen ereignen sich bei ca. l von 1000 Individuen jährlich. Meist handelt es sich dabei um ein multi-faktorielles Geschehen, das durch Zusammenwirken erworbener bzw. exogener Risikofaktoren einerseits sowie genetisch bedingter Veränderungen andererseits verursacht ist. In den letzten Jahren wurden mehrere Risikofaktoren der hereditären Thrombophilie identifiziert, die inzwischen als etabliert gelten. Daneben gibt es jedoch eine Reihe weiterer genetischer Defekte, deren Beteiligung bei der Entstehung venöser Thrombosen wahrscheinlich oder zumindest theoretisch denkbar ist. In diesem Überblick werden als solche Lipoprotein (a), Thrombomodulin, Fibrinogen, der Thrombin-aktivierbare Fibrinolyse Inhibitor (TAFI),Gewebefaktor (Tissue Factor) sowie der Endothelzell-Protein C Rezeptor (EPCR) dargestellt, ihre biochemischen Eigenschaften sowie physiologischen Funktionen zusammengefaßt und bekannte Mutationen bzw. Polymorphismen der betreffenden Gene als mögliche Risikofaktoren der hereditären Thrombophilie diskutiert. Vorzugsweise werden die bisherigen Kenntnisse über ihre wahrscheinliche pathophysiologische Beteiligung bei der Entstehung venöser Gefäßverschlüsse kritisch gewürdigt.
Trauma ist in Deutschland und weltweit eine der häufigsten Todesursache bei Personen unter 55 Jahren. Eine traumatische Verletzung von Gewebe führt zur Freisetzung von sogenannten damage-associated molecular patterns (DAMPs), die eine Entzündungskaskade auslösen, welche die Organfunktion negativ beeinträchtigt. Dies führt bei anhaltender Entzündung zunächst zu Organdysfunktion, was im weiteren Verlauf zu Organversagen führt und im Spätstadium im multiplen Organversagen (MOF) enden kann. In den meisten Fällen ist die inflammatorische Antwort des Immunsystems auf das Trauma adäquat und entspricht einem gut koordinierten Netzwerk von Immunzellen, Zytokinen und Chemokinen, welches zur Wiederherstellung des geschädigten Gewebes führt. Wenn dieses Netzwerk jedoch nicht im Gleichgewicht ist, kann die Entzündungsreaktion durch eine sogenannte feed-forward-loop von Inflammation und Gewebeschäden verstärkt werden. Wenn dieser Prozess systemisch wird, spricht man vom systemic inflammatory response syndrome (SIRS). Auf der anderen Seite gibt es ein Gegenstück zu SIRS, nämlich das sogenannte compensatory anti-inflammatory response syndrome (CARS). Auch ein Überschießen von CARS kann den Verlauf der posttraumatischen Inflammation negativ beeinträchtigen. Sowohl eine Verschiebung in Richtung von SIRS als auch in Richtung von CARS kann zu Organfunktionsstörungen, nosokomialen Infektionen und letztendlich zum Tod führen. Daher ist eine ausgeglichene, frühe posttraumatische Immunantwort für ein gutes Outcome von entscheidender Bedeutung.
Monozyten nehmen eine kritische Stellung sowohl in der primären Immunantwort nach Trauma als auch nach Infektion ein. Durch die Oberflächenexpression von diversen sogenannten pattern-recocnition receptors (PRRs), insbesondere Toll-Like-Rezeptoren (TLRs), können Monozyten Pathogene und sogenannte pathogen-associated molecular patterns (PAMPs) erkennen und neutralisieren. Darüber hinaus können Monozyten PAMPs über major histocompatibility complex class II -Moleküle (MHC-II) dem adaptiven Immunsystem präsentieren und somit als zelluläre Verbindung zwischen dem angeborenen und dem adaptiven Immunsystem fungieren. TLR2, eine Untergruppe der TLRs, ist einer der Hauptrezeptoren für PAMPs von grampositiven Bakterien wie S. aureus, dem Hauptkeim für posttraumatische Wundinfektionen und nosokomiale Infektionen.
Es gibt immer noch keinen Konsens über den Einfluss von Trauma auf die Funktion von Monozyten und deren Expressionsprofil von PRRs und MHC-II-Molekülen nach einem Trauma. Verschiedene Studien berichten von einer beeinträchtigten TLR2-Expression bei Monozyten nach Trauma, während sich in anderen Studien eine konstante oder sogar erhöhte TLR2-Expression bei Monozyten nach Trauma gezeigt hat. Die Daten sind auch in Bezug auf die posttraumatische Phagozytoseleistung von Monozyten unbeständig. Während in einigen Studien im frühen posttraumatischen Verlauf im Vergleich zu gesunden Probanden von einer erhöhten Anzahl zirkulierender Monozyten mit erhaltener Phagozytoseleistung berichtet wird, zeigten andere Studien eine verminderte Phagozytoseleistung von Monozyten nach Trauma. Darüber hinaus gibt es widersprüchliche Ergebnisse bezüglich der Fähigkeit von Monozyten, proinflammatorische Zytokine wie Interleukin (IL)-1β oder Tumor necrosis factor (TNF)-α freizusetzen.
Zusammengefasst ist die derzeitige Studienlage widersprüchlich. Zusätzlich wurde es in bisherigen Studien verpasst, die Kombination verschiedener Aspekte wie die Funktionalität der Monozyten in Bezug auf Phänotypisierung oder funktioneller Assays und deren Beobachtung über einen längeren Zeitraum miteinzubeziehen.
Die unterschiedlichen Ergebnisse der bisherigen Studien könnte durch die Natur des Polytraumas bedingt sein, beispielsweise durch verschiedene Verletzungsmuster und Verletzungsschwere, die unterschiedliche Erstversorgung am Unfallort, die Zeit bis zur Ankunft in der Notaufnahme oder die unterschiedliche primäre und definitive Versorgung der Verletzungen. All das kann zu einer unterschiedlichen Antwort des Immunsystems und somit zu unterschiedlichen Outcomes führen.
Daher war es Ziel unserer Studie, die oben genannten Variablen zu eliminieren, und eine kontrollierte Polytraumastudie am Schweinemodell durchzuführen, um die Funktionalität von Schweinemonozyten über einen Zeitraum von 72 Stunden nach Trauma zu untersuchen.
Zusätzlich und im Gegensatz zu früheren Studien haben wir die Phänotypisierung von Monozyten (TLR2 und MHC-II [SLA-DR]) mit einem funktionellen Phagozytose-Assay kombiniert und deren direkte Assoziation in einem unabhängigen Assay analysiert.
Peripheres Blut wurde vor (-1h) und direkt nach der Induktion des Polytraumas (PT) (0h) entnommen, sowie 3,5h, 5,5h, 24h und 72h später. Die Expression von H(S)LA-DR und TLR2 auf Schweine-Monozyten wurde untersucht. Außerdem wurde die Phagozytierungsaktivität von Schweinemonozyten gemessen.
Darüber hinaus wurden aus mechanistischen Gründen Blutproben von 10 gesunden Schweinen zunächst einem TLR2-neutralisierenden Antikörper und anschließend S. aureus-Partikeln ausgesetzt, bevor die Phagozytoseleistung der Monozyten untersucht wurde.
Die Anzahl der CD14 + -Monozyten aller zirkulierenden Leukozyten blieb während des Beobachtungszeitraums konstant, während der Prozentsatz der CD14 + H(S)LA-DR + -Monozyten direkt, 3,5h und 5,5h nach dem Trauma signifikant abnahm. Der Prozentsatz von TLR2 + exprimierenden Zellen aus allen Monozyten verringerte sich direkt, 3,5h und 5,5h nach dem Trauma signifikant. Der Prozentsatz der phagozytierenden Monozyten nahm direkt nach Trauma ab und blieb in den ersten 3,5 Stunden nach dem Trauma niedriger, stieg jedoch nach 24 Stunden an. Die Antagonisierung von TLR2 verringerte signifikant die Phagozytoseleistung der Monozyten.
Sowohl der verringerte Prozentsatz der aktivierten als auch der TLR2-exprimierenden Monozyten blieb bestehen, solange die verringerte Phagozytoseleistung beobachtet wurde.
Darüber hinaus führte auch die Neutralisation von TLR2 zu einer verminderten Phagozytoseleistung. Daher nehmen wir an, dass eine verringerte TLR2-Expression für die verringerte Phagozytoseleistung verantwortlich ist.
In dieser Arbeit konnte gezeigt werden, daß die Proteinkinase Akt das
Zellzyklusprotein p21 in Endothelzellen an der Aminosäure Threonin 145
phosphoryliert und auf diese Weise p21 posttranskriptionell reguliert. So führt die Aktabhängige Phosphorylierung zur Aufhebung der PCNA-Bindungsfähigkeit und zu einer Abnahme der Komplexbildung von p21 mit Cdk2 und Cdk4. Dementsprechend reduziert die Akt-Phosphorylierung von p21 an Threonin 145 die Hemmung der Cdk2-Aktivierung durch p21, begünstigt damit die Phosphorylierung von Retinoblastoma-Protein und die Freisetzung des Transkriptionsfaktors E2F. Diese Daten weisen auf einen neuen Signaltransduktionsweg hin, über den Akt die Endothelzellproliferation reguliert.
Außerdem führt die Akt-vermittelte Phosphorylierung von p21 an T145 zur Stabilisierung von p21 gegenüber Caspase-abhängiger Degradation während der pro-apoptotischen Stimulation der Endothelzellen und schützt die Zellen gegenüber der Apoptose-Induktion durch TNFα. Die p21-Phosphorylierung durch Akt stellt dabei einen essentiellen Mechanismus der endothelzellprotektiven Wirkung von Akt dar, denn in Abwesenheit von p21 infolge Antisense-Transfektion vermag die Überexpression von Akt nicht mehr zu einer Senkung der endothelialen Apoptoserate nach TNFα -Stimulation führen.
Osteoporotische Frakturen sind mit erheblichen medizinischen, psychosozialen und ökonomischen Folgen belastet. Für die Betroffenen resultieren in einem hohen Maße Einbußen an Lebensqualität, Folgemorbidität, Pflegebedürftigkeit und erhöhte Mortalität. Osteoporotische Frakturen entstehen durch ein inadäquates Trauma und können jeden Knochen betreffen, am häufigsten sind das Hüftgelenk, die Wirbelkörper und der distale Radius betroffen. Es ist von großer Bedeutung Patienten mit einem hohen Osteoporoserisiko frühzeitig zu identifizieren, über Präventionsmaßnahmen aufzuklären und bereits Erkrankte rechtzeitig zu diagnostizieren und zu therapieren, da eine bereits stattgehabte Fraktur das größte Risiko für eine Folgefraktur ist. Trotz der Verfügbarkeit einer Anzahl von effektiven diagnostischen und therapeutischen Möglichkeiten ist die Osteoporose weiterhin unterdiagnostiziert und unterbehandelt, vor allem in der Hochrisikogruppe von Patienten mit einer früheren Fraktur. Zahlreiche Untersuchungen aus Europa, den USA, Australien und Neuseeland zeigten dass im Mittel nur 17% der Patienten die aufgrund einer osteoporotischen Fraktur stationär aufgenommen wurden eine spezifische antiosteoporotische Therapie erhielten. Die bisher in Deutschland durchgeführten Studien bezüglich der Versorgungssituation von Patienten mit osteoporotischer Fraktur beruhen zumeist auf Krankenkassendaten. Es werden daher nur diagnostizierte Erkrankungen erfasst. Hierbei ergibt sich das Problem dass eine mögliche Dunkelziffer von nicht als osteoporotisch erkannten Frakturen nicht in die Berechnung einbezogen werden. Ziel dieser Studie war es daher, die Dunkelziffer an nicht bezüglich Osteoporose diagnostizierten Patienten zu erfassen, aber auch die Einleitung von Diagnostik und Therapie nach osteoporotischen Frakturen im Allgemeinen und unter dem Einfluß von Risikofaktoren zu analysieren. In einer retrospektiven Beobachtungsstudie an orthopädischen und unfallchirurgischen Abteilungen im Rhein-Main-Gebiet wurde eine Analyse der Jahre 2003 und 2004 durchgeführt. Eingeschlossen wurden Patienten im Alter von >50 Jahren mit einer ICD-verschlüsselten Fraktur als Aufnahmediagnose. Die in der Krankenakte enthaltenden Daten wurden nach zuvor erlittenen Frakturen, nach für den Knochen-Stoffwechsel und für die Knochen-Stabilität relevanten Grunderkrankungen, einer vorbekannten Osteoporose, durchgeführter Diagnostik zur Sicherung oder Widerlegung der Diagnose einer Osteoporose , der Diagnosestellung einer Osteoporose und ggf. erfolgter Therapieeinleitung und -empfehlung nach einem vorliegenden Erhebungsbogen systematisch ausgewertet. Insgesamt wurden 2142 Patienten älter als 50 Jahre mit einer Fraktur ausgewertet. 1544 (72,1%) waren weiblich und 598 (27,9%) männlich. Davon wurde bei 1460 (68,2%) der Patienten die Fraktur als osteoporotisch eingestuft, 1215 (83,2%) waren weiblich und 245 (16,8%) männlich. 80,3% der Patienten mit osteoporotischer Fraktur waren älter als 70 Jahre. Die häufigste Traumaursache war der Sturz aus dem Stand. Die Hüftfraktur (55,2%) war die häufigste Frakturlokalisation, gefolgt von der Wirbelkörperfraktur (14%). 79,4% erhielten eine operative Therapie. Eine frühere Fraktur gaben 14% (n=205) in der Anamnese an, dies waren vor allem Patienten mit einer neuen Wirbelkörperfraktur. Von diesen Patienten mit einer Fraktur in der Vorgeschichte war bei 20% (n=41) eine Osteoporose bereits bei Aufnahme bekannt, aber nur 9,8% (n=20) erhielten zu diesem Zeitpunkt eine antiosteoporotische Therapie. Insgesamt nur bei 29,9% der Patienten wurde eine Osteoporose als Ursache der Fraktur diagnostiziert. Ein geschlechtsspezifischer Unterschied lag nicht vor, allerdings erfolgte die Diagnosestellung bei Patienten älter als 85 Jahre deutlich seltener. Bei 67,2% der osteoporotischen Wirbelkörperfrakturen wurde die Osteoporose erkannt, jedoch nur bei 16,3% der osteoporotischen Hüftfrakturen. Zum Zeitpunkt der Entlassung wurden 6,6% der Patienten mit einem antiosteoporotischen Medikament therapiert und bei 5,1% wurde diesbezüglich eine Empfehlung im Entlassungsbrief ausgesprochen. In den meisten Fällen war die Therapie eine Kombination aus Bisphosphonaten, Vitamin D und Calcium. Die Ergebnisse dieser Studie zeigen, dass bei 70% der Patienten die Diagnosestellung einer Osteoporose versäumt und dass 88,3% der Patienten ohne eine spezifische antiosteoporotische Therapie oder einer Therapieempfehlung aus dem Krankenhaus entlassen wurden. Somit zeigt sich eine deutliche Versorgungslücke zwischen evidenzbasierter Medizin und alltäglicher Praxis. Frakturen bei älteren Menschen führen selten zur einer Diagnostik oder Therapie bezüglich Osteoporose. Ein möglicher Weg zur Therapieoptimierung könnten strukturierte Weiterbildungsprogrammen für den behandelnden Arzt sein, im Sinne von Fachartikeln, Internetlernprogrammen und Seminaren. Zusätzlich sollten klinische Leitpfade zur Erkennung und Behandlung von Patienten mit Frakturen etabliert werden. Von Seiten des Patienten können Informationsbroschüren und Aufklärungsprogramme helfen, die Compliance zu verbessern. Die umfangreichen Möglichkeiten für verbesserte diagnostische und therapeutische Interventionen sollten genutzt werden um Frakturraten, Krankheit, Sterblichkeit und Gesundheitskosten zu senken.
Von Oktober 1990 bis Juli 2000 wurden 66 Patienten mit 83 Keloiden in der Strahlenklinik der Universitätsklinik Frankfurt am Main mit Strontium-90-Kontakttherapie in der frühen postoperativen Phase innerhalb von vier bis fünf Tagen in vier Fraktionen zu je 5 Gy bis zu einer Gesamtdosis von 20 Gy bestrahlt. 41 Patienten mit 53 Keloiden füllten einen Fragebogen aus und konnten nachbeobachtet werden. Davon kamen 24 Patienten mit 31 Keloiden zu einer Nachuntersuchung. Bei der Evaluation der Ergebnisse sollten folgende Hypothesen geprüft werden: Die Bewertung der Therapie durch den Arzt kann von der Bewertung durch den Patienten erheblich differieren. Die Zufriedenheit der Patienten ist nicht ausschließlich vom rezidivfreien Heilungsverlauf abhängig, sondern auch von den Symptomen sowie von Art und Grad der Nebenwirkung. Dazu wurden die Therapieergebnisse objektiv erhoben und mit der subjektiven Patientenbeurteilung verglichen. Quintessenz sind prognostische Faktoren zur Rezidivrate und zur Patientenzufriedenheit sowie Vorschläge für das Erstgespräch mit dem Patienten und die Examination von Keloid und Rezidiv´. Die Symptome der Keloide (kosmetische Beeinträchtigungen und körperliche Beschwerden) sowie die Häufigkeit, Größe, Art und Ausprägung der Therapieergebnisse (Rezidive, rezidivfreie Narben, Nebenwirkungen, Beschwerden) wurden mittels Fragebogen und Nachuntersuchung erhoben. Die Rezidive wurden in Prozent der Fläche der Gesamtnarbe geschätzt. Ein Vollrezidiv wird als größer 80%, ein Teilrezidiv mit 30 bis 80% und ein Randrezidiv als kleiner 30% definiert. Nebenwirkungen (Hyperpigmentierung, Hypopigmentierung, Teleangiektasien, Rötung bzw. Randsaum, Atrophie) wurden entsprechend ihrer Ausprägung (keine, geringe, mäßige, starke) bzw. nach Vorhandensein aufgenommen. 19 Rezidive (36%) traten bei den nachbeobachteten Patienten auf. Davon waren sieben Vollrezidive (13%) und 12 Teil- und Randrezidive (23%). 83% der Patienten hatten nach der Therapie keine oder weniger Beschwerden. Die Rezidivrate läge ohne die Erhebungen im Rahmen dieser Studie anstatt bei 39% bei nur 13%, da nur sieben Rezidive aktenkundig waren. Demnach ist eine Nachbeobachtungszeit von ein bis zwei Jahren zwingend, um eine Vergleichbarkeit von Studien zu gewährleisten. Von den 24 Patienten mit 31 Keloiden, die zur Nachuntersuchung kamen, traten mäßige bis starke Nebenwirkungen in 16% als Hyperpigmentierung, in 35% als Hypopigmentierung, in 39% als Teleangiektasien und in 25% als Rötung auf. Randsäume traten in 42% und Atrophien in 23% der Fälle auf. Das Hauptkriterium einer erfolgreichen Therapie ist laut Schrifttum die Rezidivfreiheit. Definitionen von erfolgreicher rezidivfreier Therapie differieren, weshalb Erfolgsraten´ nicht vergleichbar sind. Die objektive Bewertung der Therapieergebnisse durch den Arzt berücksichtigt die subjektiven Kriterien (körperliche Beschwerden und kosmetische Beeinträchtigung des Patienten) nicht ausreichend. Anhand unserer Ergebnisse wurden signifikante prognostische Faktoren bzgl. der Rezidivrate herausgearbeitet und mit dem Schrifttum verglichen bzw. diskutiert. Prognostisch ungünstige Faktoren für eine Rezidiventwicklung sind familiäre Keloidbelastung, Keloidgrößen von über 2 cm, bereits vorbehandelte Keloide, die Lokalisationen Rumpf bzw. vorderer Thorax, Infektionen und Fremdkörper in der Operationswunde, die Entstehungsursache Verbrennung sowie Behandlung von jungen, noch aktiven Keloiden. Die subjektive Bewertung der Behandlungsergebnisse durch den Patienten hängt von den Symptomen, Art des Rezidivs sowie Art und Ausprägung der Nebenwirkungen ab. Nach unseren Untersuchungen ist mit einer signifikant höheren Patientenzufriedenheit mit der Therapie zu rechnen, wenn die Patienten Ohr- oder Rumpf-Keloide haben, vorher körperliche Beschwerden hatten, die sich verbessert haben oder wenn die Patienten männlich sind. Tendenziell höher ist die Zufriedenheit bei Patienten, die sich vor der Therapie nicht durch das Keloid entstellt fühlten, bei der Entwicklung von Teil- und Randrezidiven anstatt Vollrezidiven und bei geringer Ausprägung der Nebenwirkungen. Von den 41 nachbeobachteten Patienten waren 61% mit der Therapie und 51% mit dem kosmetischen Ergebnis der Therapie sehr bis mäßig zufrieden. Subjektive und objektive Beurteilung der Therapieergebnisse entsprechen einander nicht, da die unzufriedenen Patienten nicht mit den Patienten, die ein Rezidiv haben, identisch sind, obwohl dies aufgrund ähnlicher prozentualer Anteile (unzufriedene Patienten: 39%, Rezidivrate: 36%) zu vermuten wäre. Zwischenzeitlich wurde das Therapieschema an der Strahlenklinik der Uniklinik Frankfurt auf vier Fraktionen zu je 4 Gy bei einer Gesamtdosis von 16 Gy geändert. Teilweise werden jetzt zusätzlich Beschleunigerelektronen als Strahlenquelle in der Keloidtherapie genutzt. Interessant wäre zukünftig eine vergleichende Studie zur Rezidivhäufigkeit, dem Auftreten von Nebenwirkungen und der Zufriedenheit der Patienten. Die vielschichtige Keloidproblematik erfordert einen multidisziplinären Therapieansatz, um objektiv und subjektiv gute Ergebnisse zu erzielen. Die Vorschläge für das Erstgespräch...´ sind auf andere Therapien, z. B. dermatologische Erkrankungen, übertragbar.
Postoperative Psychosen
(1916)
Hintergrund: Bei steigender Lebenserwartung ergibt sich in Zukunft eine steigende Prävalenz der degenerativen Aortenklappenstenose (AS). Die Transkathether-Aortenklappenimplantation (TAVI) erfährt immer größere Bedeutung in der Behandlung der symptomatischen, hochgradigen AS. Eine paravalvuläre Leckage (PVL) ist ein anerkannter Risikofaktor für eine erhöhte Mortalität und sollte periinterventionell adäquat erkannt und behandelt werden. Eine Postdilatation als typische korrigierende Intervention (CI) kann allerdings zu schwerwiegenden Komplikationen führen. Weitere Instrumente zur Entscheidung über die Notwendigkeit einer CI sind erstrebenswert. Für die Aortenregurgitationsindex-Ratio (ARI-Ratio) und für die präprozedurale Kalklast, gemessen mit der Mehrschicht-Computertomografie (MSCT), wurde gezeigt, dass beide prädiktiv sind für die Notwendigkeit einer periinterventionellen CI.
Ziele: Die ARI-Ratio und der Kalkstatus wurde in Hinblick auf ihren prädiktiven Wert für die Notwendigkeit einer CI miteinander verglichen.
Methoden: Von 199 Patienten nach TAVI erhielten 38,9 % eine Portico™, 29,5 % eine Symetis Acurate™, 21,5 % eine Sapien 3™ und 10,1 % eine Evolut™. Es wurde retrospektiv der postinterventionell erhobene systolische (SB), diastolische (DB) und linksventrikuläre enddiastolische Blutdruck (LVEDP) im ARI zusammengefasst: [(DBP - LVEDP) / SBP] × 100. Die ARI-Ratio wurde berechnet als Quotient zwischen ARI nach und vor dem Eingriff. Des Weiteren wurden die MSCTs mittels „3mensio Structural Heart“ analysiert insbesondere in Hinblick auf die Verkalkung des linksventrikulären Ausflusstrakts, der Aortenklappe (gesamt sowie der einzelnen Taschen) und des sinotubulären Übergang. Dabei wurde der Kalzium-Volumen-Score auf Basis drei verschiedener Thresholds benutzt (500 Hounsfield Einheiten (HU), 800 HU und visuell-individuell). Im Folgenden wurden ROC-Kurven für den ARI-Ratio und für die verschiedenen Kalklastparameter erstellt um die Notwendigkeit einer CI zu beurteilen. Schließlich wurde die Area under the curve (AUC) der ARI-Ratio mit denen der Kalklastsurrogatparameter verglichen.
Ergebnisse: Die ARI-Ratio zeigte mit einer AUC von 0,747 das beste Ergebnis. Bei den Verkalkungsparametern zeigte die Verkalkung der noncoronaren Aortenklappentasche die beste AUC, nachfolgend die der gesamten Aortenklappe. Der 800-HU-Threshold zeigte bessere AUCs als 500 HU. Von 19 Verkalkungssurrogatparametern zeigten elf einen statistisch signifikanten Vorhersagewert auf. Die ARI-Ratio zeigte eine signifikante Überlegenheit gegenüber sechs dieser Parameter. Für die fünf Verbliebenen konnte kein signifikanter Unterschied nachgewiesen werden.
Schlussfolgerung: Die ARI-Ratio ist ein besserer Prädiktor für die Notwendigkeit einer CI als die Kalzifikationsparameter. Auch diverse Kalzifikationsparameter haben diesbezüglich eine Aussagekraft. Die Kalzifikationsparameter können bereits präinterventionell beurteilt werden können, die ARI-Ratio nur periinterventionell. Es sollte neben der Anschauung von bereits etablierten Methoden ein integrativer Ansatz gewählt werden, der Kalklast und ARI-Ratio für die Entscheidung zur Notwendigkeit einer CI miteinschließt. Weitere Studien zur Standardisierung der Verkalkungsparameter sind notwendig für eine weitere Einordnung deren Vorhersagekraft. Es bestanden teils erhebliche Unterschiede zwischen den verwendeten Klappenprothesentypen. Weitere Studien mit einer größeren Anzahl an verschiedenen Prothesentypen könnten richtungsweisende Subgruppenanalysen möglich machen.
Die Rate von positiven Blutkulturen wird in der Literatur mit 6,4% bis 18% angegeben. Hierbei wird nicht zwischen Einsendungen zur Bestätigung des Verdachts auf eine Sepsis bzw. zum Ausschluß einer Sepsis unterschieden. In einer prospektiven Untersuchung bei 315 Patienten mit Verdacht auf Sepsis, bei denen Blutkulturen beimpft wurden, konnte bei 199 (63%) ein ätiologischer Nachweis erbracht werden.
Short tandem repeat (STR) Loci sind ideale Marker für gerichtliche und abstammungs genetische DNAUntersuchungen. Sie bestehen aus sich wiederholenden 26 bp langen Einheiten und sind über das gesamte menschliche Genom verteilt. Aufgrund ihrer geringen Allellängen (100600 bp) lassen sich STRs leicht mit Hilfe der Polymerasekettenreaktion (PCR) amplifizieren. In der vorliegenden Arbeit sind fünf STRPolymorphismen der Loci D11S488, D18S51, D19S246, HUMFIBRA (FGA) und HUMVWFA31/A auf ihre Populationsgenetik und Sequenzstruktur hin untersucht worden. Die Daten wurden anhand genomischer DNA von 100 gesunden, unverwandten kaukasischen Blutspendern aus der Region Hessen gewonnen. Über ein 6 %iges denaturierendes Polyacrylamidgel wurden die PCRProdukte aufgetrennt und unter Gebrauch fluoreszenzmarkierter Primer mit einem 373A DNASequenzer analysiert. Der Locus D11S488 ist durch eine zusammengesetzte Repeatregion (compound repeat) von AAAG und GAAG Blöcken gekennzeichnet. Mit einer Variationsmöglichkeit an vier unter schiedlichen Positionen kam es zum Auftreten von Mikroheterogenitäten in Allelen gleicher Länge. 29 verschiedene Allele wurden gefunden, die basierend auf ihrer Gesamtrepeatanzahl (YAAG) 2641 (242 bp302 bp), in 15 Allelklassen gruppiert wurden. Bei D19S246 (TGTA und TCTA) liegt ebenfalls ein compound repeat vor. Mikroheterogenitäten führten in 11 Allelgruppen (182230 bp) zu 17 unterschiedlichen Allelen. Der Locus D18S51 (AGAA) ist ein STRPolymorphismus mit einer einfachen Repeatstruktur (simple repeat). 12 unter schiedliche Allele wurden beobachtet, die alle einen regelmäßigen Tetranukleotidrepeat aufwiesen. Die Allelspanne reichte von Allel 11 mit 278 bp bis Allel 22 mit 322 bp. Ebenfalls ein einfacher Repeat bestimmt das HUMFIBRA System (TCTT). Eines der beobachteten 10 Allele differierte allerdings um nur 2 bp. Zusammen mit dem compound repeat HUMVWFA31/A (8 Allele) sind alle untersuchten Marker multiplexfähig. Ein ausgeprägter Polymorphismus der individuellen Loci, die dem HardyWeinberg Equilibrium folgen, sowie eine Übereinstimmungswahrscheinlichkeit (pM) der Merkmale zwischen unverwandten Personen von 3 x 10 7 machen eine Analyse dieser fünf TetranukleotidMarker zu einer sinnvollen Ergänzung in der Bearbeitung abstammungs genetischer Fragestellungen.
Der Basismechanismus immunchemischer Reaktionen ist die Antigen-Antikörper-Reaktion. Die nachzuweisenden Substanzen haben in der Bestimmungsreaktion Antigen-Funktion. Die zur Bestimmung der Substanz
im Test eingesetzten Antikörper können polyklonalen oder monoklonalen Ursprungs sein.
Polyklonal gebildete Antikörper werden technisch gewonnen durch die Reinigung der Immunglobulinfraktion immunisierter Tiere. Trotz mehrerer Reinigungsschritte wird vielfach nicht ein spezifischer Antikörper gewonnen, sondern eine heterogene Antikörperfraktion, die neben dem spezifischen Antikörper weitere Antikörper mit unterschiedlicher Affinität Avidität und Spezifität gegen die immunchemisch zu analysierende Substanz enthält.
Die technische Gewinnung monoklonaler Antikörper verläuft im ersten Schritt ähnlich der auf polyklonalem Wege; ein Tier wird immunisiert mit dem immundiagnostisch zu bestimmenden Antigen. Es wird jedoch nachfolgend nicht Blut des immunisierten Tieres zur Antikörpergewinnung entnommen, sondern die MHz. In vitro werden im nächsten Schritt Antigen-sensibilisierte B-Lymphozyten aus der Milz mit Myelomzellen der Maus unter Bildung von Hybridzellen fusioniert. Die Hybridzellen werden selektioniert und diejenigen cloniert, die den gewünschten spezifischen Antikörper bilden. Auf diesem Wege können Antikörper einheitlicher Affinität, Avidität und Spezifität in größeren Mengen gewonnen werden.
Die Vor- und Nachteile poly- und monoklonal gebildeter Antikörper für immunchemische Tests werden dargestellt.
Die politische Steuerung des Krankenhaussektors hat sich in den vergangenen anderthalb Jahrzehnten nachhaltig verändert. Das Gesundheitsstrukturgesetz von 1992 markiert einen gesundheitspolitischen Paradigmenwechsel, mit dem verstärkt wettbewerbliche Steuerungsinstrumente in das Gesundheitswesen eingeführt wurden. Auch im stationären Sektor ersetzen bzw. ergänzen wettbewerbliche Instrumente korporatistische Arrangements. Die Gegenüberstellung der politischen Steuerung des Krankenhaussektors vor 1992 mit der Situation nach der Gesundheitsreform 2007 verdeutlicht, dass auf den Feldern Leistungserbringung, Vergütung und Qualitätssicherung sukzessive ein neues Steuerungsmodell entstanden ist. Dieses zeichnet sich durch eine gewachsene Komplexität, eine Zunahme von Steuerungsaktivitäten und eine Neujustierung des Verhältnisses staatlicher bzw. korporatistischer Steuerung einerseits und wettbewerblicher Steuerung andererseits aus. Dort, wo es um allokative Entscheidungen geht, werden korporatistische Elemente durch wettbewerbliche ersetzt. Auf anderen Regulierungsfelder bleibt der Korporatismus dagegen erhalten. Der Staat als „architect of political order“ (Anderson) hat diese Transformation herbeigeführt, sieht sich allerdings zunehmend mit dem Widerspruch zwischen einer bedarfsorientierten Krankenhausplanung und Investitionsfinanzierung auf Landesebene und einer Leistungsverteilung über den Wettbewerb konfrontiert.
Einleitung
APP und die Alzheimersche Krankheit
Das Alzheimer Amyloid Precursor Protein (APP) ist ein Typ-1 Transmembranprotein mit einem Molekulargewicht von 110-135 kDa [Selkoe et al. 1988, Weidemann et al. 1989]. Es wird in allen bisher untersuchten Geweben exprimiert und weist in mehrzelligen Organismen einen hohen Konservierungsgrad auf [Robakis et al. 1987, Rosen et al. 1989]. APP ist unter anderem Vorläufer des β-A4-Peptides (Aβ), das in extrazellulären Aggregaten (Plaques) im Zentralen Nervensystem von Alzheimer-Patienten akkumuliert [Masters et al. 1985]. Die sogenannte „Amyloid-Hypothese der Alzheimerschen Erkrankung“ besagt, dass das Aβ-Peptid eine pathologische Kaskade initiiert, die zur Bildung von amyloiden Plaques, neuronaler Funktionsstörung und letztendlich Demenz führt [Hardy 1997, Selkoe 1999].
Prozessierung des APP
Der Hauptanteil des zellulären APP wird über den (nicht pathogenen) α-Sekretase-Weg prozessiert, wobei das sekretorische APP (α-sAPP) freigesetzt wird, das beinahe der gesamten N-terminalen Ektodomäne des APP entspricht. Die α-Sekretase spaltet APP innerhalb der Aβ-Domäne und verhindert somit die Bildung des pathogenen Aβ-Peptides. Kandidaten für die Katalyse dieser Spaltung sind Proteasen der ADAM-Familie [Buxbaum et al. 1998, Hooper et al. 1997, Koike et al. 1999, Lammich et al. 1999, Loechel et al. 1998].
Das Aβ-Peptid entsteht bei der sukzessiven proteolytischen Spaltung des APP durch die sogenannten β- und γ-Sekretasen. Bei der β-Sekretase handelt es sich um die Aspartat-Protease BACE (β-site APP cleaving enzyme) [Hussain et al. 1999, Sinha et al. 1999, Vassar et al. 1999, Yan et al. 1999]. Die Identität der γ-Sekretase ist noch nicht endgültig geklärt, jedoch spielen Presenilin-1 und -2 sowie Nicastrin eine Rolle bei der γ-Spaltung des APP [de Strooper et al. 1998, 1999, Struhl et al. 2000, Wolfe et al. 1999].
Unter physiologischen Bedingungen wird ca. 30% des APP durch α-Sekretasen prozessiert, ein viel geringerer Anteil dagegen durch die β-Sekretasen. Mehr als die Hälfte des zellulären APP bleibt ungespalten [Koo 2002].
Biologische Funktionen des APP
Die Funktionen des APP lassen sich unterscheiden nach Funktionen der kurzen zytoplasmatischen Domäne und der ca. 100 kDa großen Ektodomäne (α-sAPP). Die zytoplasmatische Domäne des APP stellt eine Plattform für die Bindung verschiedener Interaktionspartner dar. In Kooperation mit den Bindungspartnern spielt APP eine Rolle in unterschiedlichsten zellulären Prozessen wie vesikulärem Transport, Zellmotilität oder Genaktivierung [Review siehe Annaert und de Strooper 2002]. Die meisten Interaktionspartner der zytoplasmatischen Domäne des APP binden an die YENPTY-Sequenz nahe des C-Terminus des APP, die auch als Signal für die Endozytose des APP dient [Perez et al. 1999].
Die sekretorische Ektodomäne des APP hat eine wachstumsfördernde und neuroprotektive Wirkung. Um diese Wirkung auszuüben, bindet α-sAPP an einen bisher unbekannten Rezeptor, der auf der Zelloberfläche diverser Zelltypen wie Neuronen, Fibroblasten, Thyreozyten und Keratinozyten exprimiert wird [Review siehe Schmitz et al. 2002].
Polarer Transport des APP
In polaren MDCK Zellen wird das APP-Holoprotein fast ausschließlich zur basolateralen Zelloberfläche transportiert [Haass et al. 1994]. Es wurde gezeigt, dass dieser polare Transport des APP durch Tyrosin 653 in der zytoplasmatischen Domäne des APP beeinflusst wird. Mutation dieses Tyrosins zu Alanin führte zu partieller Fehlsortierung von ca. 50% des APP zur apikalen Plasmamembran. Die Sekretion von α-sAPP dagegen fand in MDCK-Zellen unabhängig von Tyrosin 653 basolateral statt [Haass et al. 1995].
Intrazellulärer Proteintransport durch Adaptor-Protein-Komplexe
Am intrazellulären Proteintransport sind Adaptor-Protein-Komplexe (APs) beteiligt, die bestimmte Sortierungssignale in der zytoplasmatischen Domäne von Frachtproteinen erkennen. Bis heute sind vier dieser tetrameren AP-Komplexe (AP-1 bis AP-4) bekannt, die zum Teil verschiedene Isoformen einzelner Untereinheiten aufweisen, z.B. AP-1A und AP-1B [Review: Boehm und Bonifacino 2001]. Jeder AP-Komplex spielt eine Rolle in einem bestimmten Schritt des intrazellulären Proteintransportes. Für AP-1A wird eine Funktion im anterograden und retrograden Transport zwischen Endosomen und TGN beschrieben [Review: Hinners und Tooze 2003]. AP-2 vermittelt Endozytose verschiedener Transmembranproteine von der Plasmamembran [Review: Kirchhausen 2002]. AP-3 spielt eine Rolle im Proteintransport zu Lysosomen und Lysosom-ähnlichen Organellen wie Melanosomen [Robinson und Bonifacino 2001]. AP-4 sowie AP1-B sortieren Proteine zur basolateralen Plasmamembran polarer Epithelzellen [Fölsch et al. 1999, Simmen etal. 2002].
Die Sortierungsmotive, die von Adaptor-Komplexen in der zytoplasmatischen Domäne der Fracht-Proteine gebunden werden, enthalten in den meisten Fällen entweder ein Tyrosin oder zwei Leucine. Das gesamte Motiv besteht aus jeweils vier bis zehn Aminosäuren [Review siehe Bonifacino und Traub 2003].
Ziele der Arbeit
In der vorliegenden Arbeit wurde der polare Transport des APP in Epithelzellen untersucht. Ein Ziel war es, Faktoren zu finden, die den basolateralen Transport des APP in Abhängigkeit von Tyrosin 653 vermitteln. Des weiteren sollte der Transport von APP und sAPP in verschiedenen Epithelzelllinien analysiert werden. Um ein gutes Werkzeug zur Detektion von APP zu haben, wurden GFP-APP-Fusionsproteine hergestellt und charakterisiert.
Ergebnisse und Diskussion
GFP-APP-Fusionsproteine wurden hergestellt und in MDCK-, FRT- und LLC-PK1-Zellen stabil exprimiert. Die Charakterisierung der GFP-APP-Fusionsproteine durch Immunfluoreszenzanalysen zeigte, dass die chimeren Proteine im TGN sowie in peripheren Vesikeln lokalisiert sind und mit endogenem APP stark kolokalisieren. GFPAPP war somit gut geeignet, um den intrazellulären Transport des APP zu untersuchen.
Eine Analyse der zytoplasmatischen Domäne des APP im Bereich des Tyrosin 653 zeigte, dass dieses Tyrosin und die drei folgenden Aminosäuren (YTSI) ein Konsensus-Motiv für die Bindung von tetrameren Adaptor-Protein-Komplexen darstellen.
Zu Beginn dieser Arbeit waren AP-1 bis AP-3 bereits gut charakterisiert, wohingegen für AP-4 keine Funktion bekannt war. In Kollaboration mit Simmen et al. konnte gezeigt werden, dass AP-4 den basolateralen Transport einiger Proteine vermittelt [Simmen et al. 2002]. Immunfluoreszenzanalysen lokalisierten AP-4 im TGN und peripheren Vesikeln, die unterschiedlich von AP-1A/B markierten Strukturen waren. Da kaum Kolokalisation von AP-4 und AP-1A/B zu beobachten war, ist die Lokalisation von AP-4 und AP-1B, das auch eine Rolle im basolateralen Proteintransport spielt, in unterschiedlichen Subdomänen des TGN und unterschiedlichen vesikulären Strukturen anzunehmen.
Polarer Transport des APP durch Adaptor-Protein-Komplexe
Die mögliche Funktion von AP-1 und AP-4 im Transport von APP wurde zunächst mit Hilfe von in vitro-Bindungsstudien untersucht. Dazu wurde die zytoplasmatische Domäne des APP als GST-Fusionsprotein kloniert und exprimiert. Die Frachtproteinbindenden Untereinheiten von AP-1 und AP-4 wurden unter Verwendung von radioaktiv markiertem Methionin durch in vitro-Transkription und -Translation hergestellt. In Bindungsstudien interagierten AP-1A und AP-1B mit der zytoplasmatischen Domäne des APP, nicht aber AP-4. Diese Ergebnisse deuten an, dass AP-1A und AP-1B eine Rolle im intrazellulären Transport von APP spielen könnten. AP-4 dagegen scheint nicht an diesem Prozess beteiligt zu sein.
Durch Mutation des Tyrosin 653 in APP zu Alanin (Y653A) wurde die Interaktion zwischen AP-1B und APP stark verringert, was darauf hindeutet, dass dieses Tyrosin einen Teil des Bindungsmotivs für AP-1B darstellt. Übereinstimmend damit entspricht die genaue Aminosäureabfolge des Y653TSI-Motivs den Sotierungsmotiv-Präferenzen von AP-1B [Ohno et al. 1999]. Die Interaktion von AP-1A dagegen war mit WildtypAPP und der Tyrosin-Mutante vergleichbar und scheint somit auf einem anderen Interaktions-Motiv zu basieren. AP-1A und AP-1B erkennen somit unterschiedliche Sortierungsmotive in der zytoplasmatischen Domäne des APP und kooperieren möglicherweise im intrazellulären Transport des APP. Diese Ergebnisse sind der erste Bericht über eine Interaktion von Adaptor-Protein-Komplexen mit der zytoplasmatischen Domäne des APP.
Die Rolle von AP-1B im basolateralen Transport von APP wurde genauer untersucht mit Hilfe der LLC-PK1 Zelllinie, die kein AP-1B exprimiert [Ohno et al. 1999]. In LLCPK1-Zellen werden verschiedene Proteine unpolar zur apikalen und basolateralen Membran verteilt, die in MDCK-Zellen durch Interaktion mit AP-1B basolateral transportiert werden [Fölsch et al. 1999, Sugimoto et al. 2002]. Um den Transport von APP in polaren LLC-PK1-Zellen zu untersuchen, wurde Plasmamembran-ständiges GFP-APP durch zwei unabhängige Methoden nachgewiesen: die apikale oder basolaterale Oberfläche der Zellen wurde selektiv entweder biotinyliert oder mit GFPAntikörpern markiert. Beide Methoden zeigten, dass GFP-APP in LLC-PK1-Zellen sowohl an der apikalen als auch an der basolateralen Zelloberfläche lokalisiert ist. Somit wird auch APP in diesen Zellen im Vergleich zu MDCK-Zellen anders sortiert. Dieses Ergebnis festigt die Hypothese einer Funktion von AP-1B im Transport von APP, die aufgrund der Daten der in vitro-Bindungsstudien aufgestellt wurde.
Polare Sekretion des sAPP ist unabhängig vom Transport des Holoproteins
Neben dem Transport des APP-Holoproteins war auch die polare Sekretion des sAPP Thema dieser Arbeit. Es war gezeigt worden, dass basolaterale Sekretion des sAPP in MDCK-Zellen unabhängig vom Transport des APP-Holoproteins ist [Haass et al. 1995]. Dieses Ergebnis konnte in der vorliegenden Arbeit bestätigt und auf andere Zelllinien erweitert werden. Um die korrekte Sekretion von GFP-sAPP nachzuweisen, wurde die GFP-sAPP-Sekretion zunächst in polaren MDCK-Zellen untersucht, die stabil GFP-APP exprimierten. Da GFP am N-Terminus des APP angefügt ist, trägt auch das sezernierte APP die GFP-Markierung. GFP-sAPP konnte mittels Immunpräzipitation mit GFP-spezifischen Antikörpern lediglich im basolateralen Medium nachgewiesen werden. Somit sezernieren MDCK-Zellen GFP-sAPP in gleicher Polarität wie von Haass et al. für endogenes sAPP gezeigt wurde [Haass et al. 1995].
Experimente in GFP-APP exprimierenden LLC-PK1- und FRT-Zellen zeigten, dass auch hier die polare Sekretion des GFP-sAPP und der Transport des APPHoloproteins zwei unabhängige Prozesse sind. Polare LLC-PK1-Zellen transportierten GFP-APP zur apikalen und basolateralen Plasmamembran (siehe oben). GFP-sAPP-Sekretion aus polaren LLC-PK1-Zellen dagegen fand ausschließlich basolateral statt. In FRT-Zellen wurde GFP-sAPP im Gegensatz zu MDCK- und LLCPK1-Zellen apikal sezerniert. Kolokalisation des GFP-APP mit Transferrin-Rezeptor in FRT-Zellen deutete dagegen an, dass das Holoprotein wie in MDCK-Zellen basolateral transportiert wird. Dies ist auch zu erwarten, da FRT-Zellen AP-1B exprimieren und es auch in dieser Zelllinie basolateralen Transport vermittelt [A. Gonzalez, persönlich, ASCB 2003]. Nach diesen Ergebnissen zu urteilen, finden auch in FRT und LLC-PK1-Zellen APP-Transport und sAPP-Sekretion unabhängig voneinander statt.
Basolaterale sAPP-Sekretion ist unabhängig von der Ektodomäne
In MDCK-Zellen wurde zusätzlich die Sekretion eines GFP-APP untersucht, in dem der Großteil der Ektodomäne deletiert und durch GFP ersetzt wurde, die SekretaseSchnittstellen jedoch noch vorhanden waren. Durch Immunfluoreszenzanalyse wurde zunächst nachgewiesen, dass die subzelluläre Lokalisation dieser Deletionsmutante der des endogenen APP entspricht. Die Sekretion dieses stark verkürzten sAPP erfolgte wie die des Wildtyps basolateral. Dieses Ergebnis deutet an, dass die Determinante für die basolaterale Sekretion des sAPP nicht innerhalb der Ektodomäne liegt, wie in einigen älteren Publikationen angenommen wird [Haass et al. 1995, de Strooper et al. 1995]. Neuere Ergebnisse dagegen führen die polare Sekretion des sAPP auf die basolaterale Lokalisation der α-Sekretase zurück [Capell et al. 2002], was die basolaterale Sekretion der Deletionsmutante erklären könnte.
sAPP-Bindung an polaren Zellen
Durch Interaktion mit einem bisher unbekannten Rezeptorprotein erfüllt sAPP für verschiedene Zelltypen die Funktion eines Wachstumsfaktors [Saitoh et al., 1989, Pietrzik et al., 1998, Hoffmann et al., 2000]. Da viele Wachstumsfaktor-Rezeptoren selektiv entweder an der apikalen oder basolateralen Plasmamembran von Epithelzellen lokalisiert sind, wurden Bindungsstudien mit rekombinant exprimiertem sAPP (sAPPrec) an polaren FRT und MDCK-Zellen durchgeführt. Analyse der Bindung mit einem sAPPrec-spezifischen Antikörper zeigte, dass sAPP ausschließlich an der apikalen Plasmamembran beider Zelllinien bindet. Da die Sekretion des sAPP in FRT-Zellen ebenso apikal erfolgt, ist in dieser Zelllinie eine autokrine Regulation durch sAPP vorstellbar, was auch durch vorherige Ergebnisse angedeutet wurde [Pietrzik et al. 1998]. Für MDCK-Zellen, die sAPP basolateral sezernieren und apikal binden, muss ein anderer Regulationsmechanismus vorliegen. Es könnte sich um parakrine Regulation handeln, was jedoch noch bestätigt werden muss.
Fazit: In dieser Arbeit wurde zum ersten Mal gezeigt, dass tetramere Adaptor-ProteinKomplexe eine Rolle im intrazellulären Transport von APP spielen. In diesem Zusammenhang wurde die Funktion des AP-4-Komplexes in einer Kollaboration analysiert. Es wurde gezeigt, dass AP-1A und AP-1B eine Rolle im Transport von APP spielen. Eine Funktion von AP-4 im Transport von APP ist nach den vorliegenden Ergebnissen unwahrscheinlich. Untersuchungen zur APP-Sortierung in verschiedenen Epithelzelllinien zeigten, dass die Hypothese der Unabhängigkeit von APP-Transport und sAPP-Sekretion als genereller Mechanismus angesehen werden kann. Durch Analyse der sAPP-Bindung an polaren FRT- und MDCK-Zellen wurde erstmals die polare Lokalisation des putativen sAPP-Rezeptors untersucht, was einen ersten Einblick in den Mechanismus der sAPP-vermittelten Regulation in polaren Zellen ermöglichte.
Nierentransplantierte Patienten haben im Vergleich zu einer altersgleichen Bevölkerung ein 10-fach erhöhtes Risiko an kardiovaskulären Erkrankungen zu versterben. Graff et al fanden in einer dieser Arbeit vorangegangenen Untersuchung heraus, dass Thrombozyten nierentransplantierter Patienten unter immunsuppressiver Monotherapie voraktiviert sind, verglichen zu einer aus Hypertonikern bestehenden Kontrollgruppe. Des weiteren scheinen „neuere“ Immunsuppressiva wie Tacrolimus (TAC) Thrombozytenaktivierungsmarker weniger stark zu beeinflussen als „ältere“ wie Cyclosporin (CsA). Ziel dieser Arbeit war es den Einfluss einer antithrombozytären Therapie mit Clopidogrel bei nicht antiaggregatorisch vorbehandelten nierentransplantierten Patienten – Gruppe 1 (TAC, n=17) und Gruppe 2 (CsA, n=17) und nierentransplantierten Patienten mit ASS-Dauermedikation – Gruppe 3 (TAC, n=15) und Gruppe 4 (CsA, n=18), welche im Rahmen der Studie auf Clopidogrel umgestellt worden sind, herauszufinden. Alle Patienten wurden vor (V1) und nach einer vierwöchigen Clopidogrel – Therapie (V2) untersucht. Hierzu wurden Parameter, die eine Thrombozytenaktivierung widerspiegeln wie der Degranulationsmarker CD62, der aktivierte GPIIb/IIIa-Rezeptor (PAC1) sowie die Bildung von Plättchen-Leukozyten Aggregaten (CD41) untersucht. Plättchen-Leukozyten Aggregate (PLAs) akkumulieren an Orten mit Gefäßverletzungen und tragen so zu Entzündungsreaktionen und Thrombosen bei. Die Thrombozytenfunktion (CD62, PAC1) und die Formation von PLAs (CD41, CD11b) wurden vor Beginn der Clopidogrel – Therapie (V1, Gruppe 3 und 4 unter ASS – Therapie) sowie nach vierwöchiger Clopidogrel – Behandlung (V2) durchflusszytometrisch und aggregometrisch untersucht. Bei V1 wiesen CsA behandelte Patienten (Gruppe 2) signifikant (p<0,05) höhere Thrombozytenaktivierungsmarker auf als mit TAC behandelte Patienten: CD62 (185 [112-223] vs. 110 [84-173], median [1Q-3Q]), PAC1 (27 [26-38] vs. 15 [12-35]) und PLA (430 [342-769] vs. 237 [177-510]). Nach vierwöchiger Clopidogrel – Therapie (V2) kam es zu einer signifikanten Reduktion der untersuchten Parametern: CD62 (95 [82-123] Gruppe 2, 71 [56-94] Gruppe 1), PAC1 (15 [8-22] Gruppe 2, 12 [3-15] group 1), PLA (269 [225-472] Gruppe 2, 194 [159-275] Gruppe 1). Bei nierentransplantierten Patienten mit vorheriger ASS – Comedikation (Gruppe 3 und 4) konnte hinsichtlich der Thrombozytenaktivierung zwischen CsA und TAC bei V1 kein signifikanter Unterschied festgestellt werden. Es ließ sich allerdings ein Trend zugunsten TAC ablesen: CD62 (165 [96-289] vs. 111 [73-156]), PAC1 (19 [12-39] vs. 14 [8-32]), und PLA (437 [232-852] vs. 282 [164-471]). Die Umstellung von ASS auf Clopidogrel führte bei CsA behandelten Patienten (Gruppe 4) zu einer signifikanten Reduktion von CD62, PAC1 und der Formation von PLAs bei V2. TAC behandelten Patienten zeigten dagegen nur eine signifikante Abnahme des PAC1-Markers; für CD62 und PLAs wurden zwar bei V2 niedrigere Werte als bei V1 gemessen, allerdings erreichten die Unterschiede keine statistische Signifikanz: CD62 (90 [45-139] Gruppe 4, 67 [51-116] Gruppe 3), PAC1 (11 [7-19] Gruppe 4, 10 [5-20] Gruppe 3), PLA (285 [186-470] Gruppe 4, 250 [143-298] Gruppe 3). Zusammenfassend lässt sich ableiten, dass CsA die Thrombozytenaktivierung sowie die Formation von PLAs stärker negativ beeinflusst als TAC. Clopidogrel scheint diesen Vorgang effektiver als Aspirin zu hemmen.
Immunsuppressiva sind essentiell für die allogene Organtransplantation. Graff et al konnten in drei vorangegangenen Studien zeigen, dass Immunsuppressiva zu einer verstärkten Thrombozytenaktivierung führen. Diese ist für die verschiedenen Substanzen unterschiedlich stark ausgeprägt. Eine verstärkte Thrombozytenaktivierung könnte zu vermehrten kardiovaskulären Ereignissen führen. Insbesondere bei nierentransplantierten Patienten ist das kardiovaskuläre Risiko ohnehin deutlich erhöht. Es stellt sich die Frage ob diese medikamentös induzierte Plättchenaktivierung als Ko-Faktor kardiovaskulärer Ereignisse bei nierentransplantierten anzusehen ist. Im Vorfeld dieser Studie wurden in den Studien NTX, RAPA und PLANT bei insgesamt 176 nierentransplantierten Patienten mit einer Mono-Immunsuppression flowzytometrische Plättchenfunktionsmessungen durchgeführt, dabei wurden insbesondere der Degranulationsmarker CD62 und der aktivierte GP IIb/IIIa-Rezeptor PAC-1 gemessen. Diese Ergebnisse wurden in Relation zum Mittelwert der jeweiligen Kontrollgruppen gesetzt: Messwert(Patient) / Mittelwert(Gesunde_Kontrolle) Diese relativen Plättchenfunktionswerte waren zwischen den Studien vergleichbar. Des Weiteren wurden epidemiologische Eckdaten und klinische Endpunkte bis zu 5 Jahre nach der Thrombozytenmessung erfasst, im Mittel 3,7 Jahre. Aufgrund des Studiendesigns der vorangegangenen Studien wurde hier ein Kollektiv mit relativ niedrigem kardiovaskulärem Risiko untersucht, jedoch sollte durch diese Reduktion klassischer Risikofaktoren der Einfluss der Plättchenaktivität besser sichtbar sein. Die retrospektive Analyse untersuchte ob die Plättchenfunktionsparameter CD62 und PAC-1 als prädiktiver Marker für kardiovaskuläre Ereignisse geeignet sind. Insgesamt traten seit den Messungen 21 kardiovaskuläre Ereignisse auf, davon 9 akute. Es gab keine signifikanten Unterschiede zwischen den Werten bei Patienten mit Ereignissen und denen ohne Ereignis: Bei CD62 (baseline) lag der Mittelwert bei 2,82±1,9 mit Ereignis vs. 2,73±1,47 ohne, für PAC-1 bei 1,76 ±1,97 vs. 1,93±1,53. Nach Aktivierung mit TRAP lag der Mittelwert für CD62 bei Ereignispatienten bei 1,57±0,88 vs. 1,76±0,83, für PAC-1 bei 1,56±1,65 vs. 1,44±1,04. In einem weiteren Schritt wurden die Patienten nach dem Ausmaß der Plättchenaktivierung klassifiziert, als Cut-Off-Werte wurden die Mittelwerte und Mediane der jeweiligen Plättchenfunktion aller Patienten gewählt, ferner noch willkürlich eine 3- bzw 5-fache Aktivierung gegenüber den gesunden Kontrollen. Hierbei wurden in den Gruppen mit hohen Funktionswerten nicht signifikant mehr Ereignisse beobachtet als in den Gruppen mit niedrigen Werten. In einer daraufhin durchgeführten Time-to-event-Analyse nach Kaplan-Meyer zeigte sich allerdings für CD62 (baseline) > 5 ein früheres Eintreten kardiovaskulärer Ereignisse, im Mittel 47,6 vs. 69,9 Monate, p = 0,05. Als Risikofaktoren in dieser Studie erwiesen sich insbesondere das Alter und das Alter bei Transplantation, letzteres erwies sich in einer logistischen Regressionsanalyse als der wichtigster Faktor. Dies ist nach unserem Wissen die erste Untersuchung, die den prädiktiven Wert von Thrombozyten-gebundenem CD62 sowie von PAC-1 für kardiovaskuläre Ereignisse evaluiert. Es ergibt sich kein Hinweis, dass diese Marker einen prädiktiven Wert haben. Somit erscheint auch eine direkte pharmakologische Beeinflussung der Thrombozytenfunktion oder eine Veränderung der Immunsuppression nicht wegweisend, um die Inzidenz kardiovaskulärer Ereignisse bei nierentransplantierten Patienten zu senken.
Plus Puls : 2016, 3
(2016)
Plus Puls : 2016, 2
(2016)
Plus Puls : 2016, 1
(2016)