Institutes
Refine
Year of publication
Document Type
- Doctoral Thesis (435) (remove)
Has Fulltext
- yes (435)
Is part of the Bibliography
- no (435)
Keywords
- Prostatakarzinom (4)
- HIV (3)
- Hepatitis C (3)
- Knochenersatzmaterial (3)
- Medizinstudierende (3)
- Neuroblastom (3)
- Nierentransplantation (3)
- Polytrauma (3)
- Thrombozytenkonzentrat (3)
- Vitamin D (3)
Institute
- Medizin (435)
- Biowissenschaften (2)
- Biochemie, Chemie und Pharmazie (1)
Die Vasektomie stellt eine der einfachsten und effektivsten Methoden der permanenten Empfängnisverhütung dar. Trotzdem bevorzugen mehr Paare die Tubenligatur der Frau, die verglichen mit der Vasektomie sowohl größere Kosten als auch größere Risiken mit sich bringt. Durch mangelnde Informationen haben immer noch viele Männer Angst, dass sich eine Vasektomie negativ auf ihr Sexualleben auswirken könnte. Mit dieser Studie sollten diese Auswirkungen näher untersucht werden, um Männern und auch ihren Partnerinnen die Angst vor möglichen negativen Konsequenzen zu nehmen.
Hierfür wurden 294 vasektomierten Männern und ihren Partnerinnen drei Fragebögen zugeschickt. 95 Männer beantwortete den allgemeinen Fragebogen, 90 den IIEF und 74 Frauen den FSFI Fragebogen. Die Ergebnisse wurden mit Kontrollgruppen aus der Literatur verglichen.
Im IIEF-Fragebogen erreichten die vasektomierten Männer in allen fünf Domänen signifikant höhere Scores als das Vergleichskollektiv mit einer erektilen Dysfunktion aus der Literatur. In vier der fünf Domänen erreichten sie signifikant höhere Scores als die gesunde Kontrollgruppe aus der Literatur. Nur in der Domäne „generelle Zufriedenheit“ gab es keinen signifikanten Unterschied.
Die Partnerinnen der vasektomierten Männer erreichten in allen 19 Fragen des FSFI-Fragebogens sowie in allen sechs Domänen signifikant höhere Scores als Patientinnen mit einer sexuellen Dysfunktion aus der Literatur. In allen 19 Fragen und fünf der sechs Domänen gab es keinen signifikanten Unterschied zu der gesunden Kontrollgruppe aus der Literatur. Lediglich in der Domäne „Erregung“ hatten die Partnerinnen vasektomierter Männer signifikant bessere Ergebnisse.
Die Vasektomie hat keine negativen Auswirkungen auf das Sexualleben des Paares. Die Zufriedenheit der Partnerinnen wird nicht negativ beeinflusst. Die vasektomierten Männer sind mit ihrem Sexualleben sogar zufriedener und erzielen signifikant bessere Werte im IIEF-Fragebogen als eine nicht-vasektomierte Kontrollgruppe.
Die vorliegende Arbeit befasst sich mit der Medikamentenadhärenz an die Therapie mit oralen Antikoagulanzien (OAT) in der Schlaganfall-Sekundärprophylaxe und leitet auf Basis einer prospektiven Untersuchung Rückschlüsse über das Einnahmeverhalten unter verschiedenen Behandlungsformen ab.
Orale Antikoagulanzien werden erfolgreich zur Schlaganfallprävention bei Patienten mit Vorhofflimmern eingesetzt. Über Jahrzehnte waren Vitamin K-Antagonisten (VKA) die einzige Therapieoption, in der Praxis jedoch mit Schwierigkeiten verbunden, wie etwa Medikamenten- und Nahrungsmittelinteraktionen sowie häufige Gerinnungskontrollen. Als ab dem Jahr 2011 die ersten nicht-Vitamin K oralen Antikoagulanzien (NOAK) zugelassen wurden (zunächst Rivaroxaban und Dabigatran), lag ein besonderes Augenmerk auf der Frage, ob die fehlenden Gerinnungskontrollen und dadurch selteneren Arztkontakte unter Einnahme von NOAK einen negativen Einfluss auf die Adhärenz ausüben könnte.
In der vorliegenden Studie wurden prospektiv Daten zur Adhärenz und Persistenz in Bezug auf die Therapie mit OAT zu Zwecken der Schlaganfall-Sekundärprophylaxe gesammelt. Hierbei stand die Selbsteinschätzung der Patienten anhand der 8-Punkte-Morisky Medication Adherence Scale (MMAS-8) im Vordergrund. Die Daten der Untersuchung wurden an drei großen akademischen Schlaganfallzentren der Universitätskliniken Frankfurt, Würzburg und Marburg (Klinikum Fulda) erhoben. Während des Zeitraums Oktober 2011 bis September 2012 wurden alle 596 Patienten mit der Entlassungsdiagnose eines ischämischen Schlaganfalls oder einer transient ischämischen Attacke in Kombination mit Vorhofflimmern in die Studie aufgenommen. Dabei bildeten diejenigen 324 Patienten, die nach Entlassung eine orale Antikoagulation (VKA, Dabigatran oder Rivaroxaban) erhielten, die Untersuchungskohorte dieser Arbeit. Ein Jahr nach Entlassung wurden in einem Follow-up (1) die Adhärenz bzw. Persistenz in Bezug auf die verschriebene Medikation, (2) etwaige Therapiewechsel und deren Gründe, sowie (3) patientenseitige Einflussfaktoren erfragt.
Insgesamt konnte eine sterblichkeitskorrigierte Antwortrate von 73,3% (209 Patienten) erzielt werden. Von diesen Patienten erhielten 92,8% weiterhin eine Art der oralen Antikoagulation. Auch innerhalb der spezifischen ursprünglich verschriebenen OAT konnte eine gute Persistenz festgestellt werden (VKA 80,9%; NOAK 74,8%; P=0,243), wobei Dabigatran tendenziell, aber nicht-signifikant, am schwächsten abschnitt. Sofern Wechsel zwischen verschiedenen Formen der OAT erfolgten, wurden diese zumeist mit Nachteilen der jeweiligen Wirkstoffeigenschaften, wie z.B. gastrointestinale Nebenwirkungen, eine Verschlechterung der Nierenfunktion, sowie die vereinfachte Einnahme anderer Antikoagulanzien mit nur einer täglichen Dosis, begründet.
Zusätzlich stellte sich im Rahmen einer multivariaten Analyse insbesondere der Grad der Behinderung (Modifizierte Rankin Skala, mRS) zum Zeitpunkt des Follow-ups als signifikanter Einflussfaktor auf die Adhärenz heraus. Die Wahl der OAT hatte hingegen keinen relevanten Einfluss.
Zusammenfassend wurde in der Studie eine sehr gute Einnahmetreue von über 90% beobachtet, sofern man konventionelle und neue Antikoagulanzien in Summe zählt. Zudem wurde gezeigt, dass die Wahl der spezifischen OAT keinen signifikant positiven oder negativen Einfluss auf die Adhärenz nach sich zieht. Dieses Ergebnis widerspricht der Befürchtung einer generell niedrigeren Adhärenz an NOAK. Vielmehr könnte eine Erweiterung der Therapieoptionen durch die neuen oralen Antikoagulanzien es erlauben, besser auf spezielle Patientenbedürfnisse wie beispielsweise Medikamentenverträglichkeit oder Komorbiditäten einzugehen, und in Folge die Einnahmetreue zu Zwecken der Schlaganfall-Sekundärprophylaxe zu verbessern.
Zwangsmaßnahmen stellen in der psychiatrischen Versorgung ein umstrittenes Thema dar. Obwohl soweit wie möglich eine zwangsfreie Psychiatrie angestrebt wird, können psychiatrische Erkrankungen in einzelnen Fällen die Selbstbestimmungsfähigkeit der Patienten einschränken und Zwangsmaßnahmen notwendig machen. Diese können eine erhebliche Belastung für die betroffenen Patienten darstellen und bringen das medizinische Personal unter Umständen in ein ethisches Dilemma zwischen Fürsorgepflicht für erkrankte Patienten und deren Autonomiewahrung. Da sowohl national als auch international noch kein einheitlicher Konsens bezüglich möglicher Prädiktoren einer Zwangseinweisung und deren Auswirkung auf den Therapieverlauf erreicht wurde, besteht dazu noch weiterer Forschungsbedarf.
Um diese Lücke zu verkleinern, wurde eine aktuelle, retrospektive Studie auf der Grundlage der besonderen rechtlichen Situation in Hessen bezüglich des Hessischen Freiheitsentzugsgesetzes (HFEG) durchgeführt. Hierfür wurden die Patientenakten aller volljährigen Patienten, die freiwillig oder unfreiwillig (nach §10 HFEG, §1906 BGB und §1 HFEG) auf eine der drei geschützten Stationen der Psychiatrie des Universitätsklinikums Frankfurt am Main während der Quartale I/2015 und II/2015 aufgenommen wurden, ausgewertet. Dabei wurden die Unterschiede der freiwillig und der unfreiwillig aufgenommenen Patienten in soziodemographischen Prädiktoren und die Auswirkung des Aufnahmemodus auf den Therapieverlauf durch Signifikanzprüfungen und dem Verfahren der logistischen Regression betrachtet. Analysiert wurden 543 Patienten, von denen ca. 70% freiwillig und 30% unfreiwillig aufgenommen wurden.
Es konnten vier mögliche Prädiktoren einer unfreiwilligen Aufnahme identifiziert werden: Initiierung der Aufnahme, Aufnahmezeitpunkt, Hauptdiagnose und somatische Nebendiagnosen. Eine unfreiwillige Aufnahme wurde eher durch Passanten, den Betreuer/die Einrichtung oder Nachbarn/Freunde initiiert, während freiwillige Aufnahmen eher durch die Familie oder Eigeninitiative motiviert waren. Die Betrachtung der Initiierung einer Aufnahme erfolgte in der Literatur bisher selten. Übereinstimmend mit anderen Studien wurden zwangseingewiesene Patienten eher wochentags außerhalb der Kernarbeitszeiten oder am Wochenende/Feiertag aufgenommen, während freiwillige Aufnahmen vermehrt in der Kernarbeitszeit stattfanden. Die Diagnosen F0 und F4 erwiesen sich in der Regressionsanalyse als Risikofaktoren für eine Zwangseinweisung, wodurch der in der Literatur bestehende Kenntnisstand eines Zusammenhangs zwischen der Diagnose und dem Aufnahmemodus bestätigt wurde. Unfreiwillig aufgenommene Patienten wiesen zudem signifikant weniger somatische Nebendiagnosen auf. Der Einfluss der Nebendiagnosen ist in der Literatur noch nicht ausreichend untersucht, auch wenn die Ergebnisse der vorhandenen Studien größtenteils mit der vorliegenden Studie übereinstimmen.
Hinsichtlich des Therapieverlaufs unterschieden sich die beiden Gruppen in den Variablen Aufenthaltsdauer, Unterbringung im Verlauf, Zwangsfixierung, Zwangsmedikation, medikamentöse Einstellung, Antidepressiva und andere Medikamente. Zwangseingewiesene Patienten zeigten eine kürzere Aufenthaltsdauer, was möglicherweise der besonderen rechtlichen Situation in Hessen geschuldet ist. Sie wurden zudem häufiger im Verlauf des Aufenthalts untergebracht, waren öfter von Zwangsmaßnahmen wie Fixierungen oder Zwangsmedikationen betroffen und erhielten generell weniger Medikamente. Möglicherweise wurde dies durch eine fehlende Behandlungsmotivation oder eine kürzere Aufenthaltsdauer bedingt. In zusätzlichen Analysen zeigte sich, dass sich einfach und mehrfach aufgenommene Patienten in Baseline-Parametern nicht signifikant unterschieden.
Auch wenn Limitierungen wie das Vorliegen einer unizentrischen Studie oder einem Auswertungszeitraum von einem halben Jahr vorliegen, geben die in dieser Studie gefundenen Zusammenhänge wichtige Hinweise, um das Zustandekommen und die Auswirkungen von Zwangseinweisungen besser zu verstehen. Mit dieser Studie als Vergleichsgrundlage kann in Zukunft eine erstmalige Evaluierung der PsychKHG-Einführung in Hessen durchgeführt werden.
HIV ist heutzutage eine gut behandelbare, chronische Erkrankung. Insbesondere bei chronischen Erkrankungen ist es entscheidend, auch die psychischen und physischen Auswirkungen auf die Lebenssituation zu untersuchen und dabei auch geschlechtsspezifische Aspekte in der gesundheitsbezogenen Lebensqualität von PLWH mit einzuschließen.
Ziel dieser monozentrischen Beobachtungsstudie ist es, die gesundheitsbezogene Lebensqualität von Patientinnen und Patienten des HIVCENTERs Frankfurt darzustellen und diesbezügliche Einflussfaktoren zu identifizieren. Im Zuge dessen wurden zusätzlich geschlechtsspezifische Unterschiede ausgewertet. Der Mental Component Score stellte die primäre Zielgröße der Studie dar, der Physical Component Score die sekundäre.
Zur Erhebung der gesundheitsbezogenen Lebensqualität wurde der SF-12v2 Fragebogen verwendet, der insgesamt zwölf Fragen beinhaltet. Inhaltlich gliedert sich der Bogen in acht Skalen und zwölf Items, die den Mental- und Physical Component Score bilden. Zur näheren Erfassung der aktuellen Lebenssituation der Patientinnen und Patientinnen des HIVCENTERs Frankfurt, wurde ein eigens für die Studie entwickelter Fragebogen verwendet. Dieser erfasste mit 19 Fragen unter anderem soziodemographische Daten, sowie Parameter zu Religiosität oder Sexualität. Retrospektive Daten aus der Epidem-Datenbank des HIVCENTERs und aus den Patientinnen- und Patientenakten wurden ebenfalls in die Auswertung einbezogen.
Die statistische Auswertung beinhaltete neben deskriptiven Methoden, einfache Varianzanalysen für geschlechtsunabhängige Zusammenhänge und Varianzanalysen mit Interaktion für das Geschlecht zur Ermittlung von geschlechtsspezifischen Einflussgrößen. Des Weiteren wurden Spearmankorrelationen berechnet und zur Identifikation von potenziellen Prädiktoren Regressionen mit Rückwärtsausschluss durchgeführt. Für beide Zielgrößen wurde identisch verfahren. Alle statistischen Tests waren zweiseitig und nutzen ein Signifikanzniveau von alpha=5%.
Im Zeitraum von September 2016 bis Mai 2017 wurden insgesamt 275 Patientinnen und Patienten in die Studie eingeschlossen, darunter 123 Frauen, 150 Männer und 2 transgender Personen. Letztere wurden aufgrund der geringen Fallzahl nicht über die deskriptive Statistik hinaus in den Berechnungen berücksichtigt. Das durchschnittliche Alter in der Studienpopulation betrug 46 Jahre. Frauen hatten ein Durchschnittsalter von 44, Männer von 48 Jahren. 97% der Patientinnen und Patienten waren zum Erhebungszeitpunkt unter antiretroviraler Therapie. Im Durchschnitt erzielten die Teilnehmerinnen und Teilnehmer im Vergleich mit der Referenzpopulation einen unterdurchschnittlichen Mental Component Score von 46. Die Frauen der Studie erzielten einen signifikant schlechteren MCS als die Männer (45 vs. 48; p=0,02). Im Kontext mit den übrigen Prädiktoren des Regressionsmodells erreichten Frauen einen um durchschnittlich 13 Punkte schlechteren MCS als Männer (B=-13; p=<0,001). Als geschlechtsunabhängige negative Prädiktoren auf den MCS stellten sich unter anderem regelmäßiger Alkohol- und Drogenkonsum heraus, sowie das Unterlassen von regelmäßigem Sport oder eine negative Zukunftsaussicht. Als geschlechtsabhängiger negativer Prädiktor erwies sich bei den Frauen eine afrikanische versus westeuropäische Herkunft (B=-5; p=0,028). Arbeitslosigkeit stellte sich bei Männern als geschlechtsabhängiger negativer Prädiktor heraus (B=-5; p=0,033).
Vorliegende Dissertation macht deutlich, dass PLWH auch heute noch eine unterdurchschnittliche gesundheitsbezogene Lebensqualität aufweisen und darüber hinaus deutliche geschlechtsabhängige Unterschiede existieren. HIV-positive Frauen erreichten in dieser Studie signifikant schlechtere Werte für den Mental Component Score als Männer und waren hinsichtlich negativer Einflussgrößen überrepräsentiert. Anhand der hier verwendeten Fragebögen wird es behandelnden Ärztinnen und Ärzten innerhalb der Routinesprechstunde ermöglicht, ein regelmäßiges Monitoring der HRQoL durchzuführen und auch ihren Verlauf zu beurteilen. Zudem wäre ein Screening nach den in dieser Arbeit ermittelten negativen Prädiktoren der HRQoL möglich, wodurch entsprechenden Patientinnen und Patienten ein zielgruppenspezifisches Angebot erhalten könnten.
Nachdem die Sicherheit der Blutprodukte in den letzten Jahrzehnten vor allem bei transfusionsmedizinisch relevanten Viren wie HIV-1, HCV und HBV wesentlich durch die Einführung von molekularen Nachweismethoden auf Restrisiken unter 1 zu 1 Million reduziert werden konnte, liegt der aktuelle Fokus der Transfusionsmedizin auf der Vermeidung von bakteriellen Übertragungen. Dabei stehen vor allem die Thrombozytenkonzentrate im Vordergrund, da diese bei Raumtemperatur gelagert werden und somit für viele Bakterien ideale Wachstumsbedingungen darstellen. Die vorliegende Arbeit hat dabei in vier aufeinander aufbauenden Phasen systematisch die klinische Effizienz eines photochemischen Pathogeninaktivierungsverfahrens untersucht.
Phase 1: Darstellung des Wachstumsverhaltens von 8 transfusionsmedizinisch relevanten Keimen mittels der Spiking-Versuche in Thrombozytenkonzentraten. Für die nachfolgenden Phasen sind nur die Bakterienstämme ausgewählt worden, die nachweislich zu einer Vermehrung in Thrombozytenkonzentraten geeignet sind.
Phase 2: In den Experimenten mit Vollblutkonzentraten zeigt sich bei der Spikingkonzentration von 100 CFU/Beutel für alle ausgewählten Keime eine 100%ige Inaktivierungseffizienz. Bei der Anfangskonzentration von 1000 CFU/Beutel ergibt sich für den Keim Klebsiella pneumoniae (PEI-B-08-09) eine Inaktivierungseffizienz von 75% und für den Keim Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime haben in den Experimenten mit der höheren Spikingkonzentration eine Inaktivierungseffizienz von 100%.
Phase 3: Für den Keim Klebsiella pneumoniae (PEI-B-08-09) zeigt sich in den Experimenten mit Pool-TKs schon bei der niedrigen Anfangskonzentration eine Inaktivierungseffizienz von 75%. Bei der Spikingkonzentration von 1000 CFU/Beutel ergibt sich erneut für die Keime Klebsiella pneumoniae und Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime weisen sowohl bei der niedrigen als auch bei der hohen Bakterienkonzentration eine 100%ige Pathogeninaktivierungseffizienz auf.
Phase 4: In den Experimenten mit Apherese-TKs zeigt sich für alle untersuchten Keime sowohl bei der niedrigen als auch bei der hohen Spikingkonzentration eine 100%ige Inaktivierungseffizienz.
Aus diesen Experimenten geht hervor, dass man mittels photochemischen Pathogeninaktivierungsverfahrens keine 100%ige Inaktivierungseffizienz erreichen kann. Vielmehr ist die Inaktivierungseffizienz zum einen von der bakteriellen Ausgangskonzentration, zum anderen aber auch vom Zeitpunkt der Anwendung des Verfahrens abhängig. Somit sollte der Begriff „ Pathogeninaktivierungsverfahren“ besser durch den Begriff des Pathogenreduktionsverfahrens ersetzt werden. Ferner wird anhand der Ergebnisse deutlich, dass die Anwendung von Pathogenreduktionsverfahren möglichst schnell nach der Spende erfolgen sollte. In diesem Zusammenhang haben Apherese-Thrombozytenkonzentrate gegenüber Pool-Thrombozytenkonzentraten einen Sicherheitsvorteil.
Our understanding of human biology and disease is based on the last millennia’s gain of knowledge, which has been exponentially accelerated since the invention of optical and "biochemical" microscopes like transcriptomics and other omics technologies.
In order to broaden our knowledge of an important human transcription factor, T-Cell Acute Lymphocytic Leukemia 1 (TAL1), some of these technologies were used.
TAL1’s gene or promoter structure is altered in about 20-30% of T-ALL. In addition, there is an increase in TAL1 expression in ca. 60% of pediatric and about 45% of adult T-ALL. Physiologically, TAL1 is an indispensable factor in hematopoiesis: in the murine knockout model, blood cells vanish in the early embryonic period. In addition, the TF is also relevant in adult erythropoiesis.
Accordingly, the identification of novel TAL1 target genes was significant both for clinical reasons and in order to understand the hematopoietic functions.
We performend a combined RNA- and ChIPseq approach. After a lentiviral mediated knockdown in K562 cells RNAseq was performed using the Illumina high-throughput method. Overall, the RNAseq yielded one billion good quality sequencing fragments. They made identification of up- and downregulated transcripts as well as associated biological processes, cellular components, molecular function and dominant KEGG signaling pathways possible. Furthermore, more than 2-fold altered coding transcripts and lncRNA were analyzed for relevant TAL1-binding in the transcription start area. There were 3205 significantly altered coding transcripts and 5136 significantly altered lncRNA. By integrating an Encode TAL1-ChIPseq in K562 cells (using a cutoff fold change of 2x) a relevant TAL1 binding could be detected with 71 coding and 416 lncRNA genes.
The combination of RNA- and ChIPseq yields a wealth of relevant results. Accordingly, TAL1 has complex pro- and anti-malignant effects in all areas of oncogenesis like described by Hanahan and Weinberg. Various interactions with target genes and signaling cascades in inter alia proliferation (e.g. HEMGN, MYC, AHI1, YPEL3, BTG2), angiogenesis (e.g. EGFL7, LTBP3), apoptosis (e.g. BCL3, BCL2A1, BMF), immune evasion (e.g. CMTM6) and inflammation (e.g. IL23 and PTGS1) have been revealed, thus complementing the knowledge about pro- and anti-oncogenic effects of TAL1. In addition, it was possible to identify target genes relevant for erythropoiesis and possible osteogenesis. Concerning lncRNA, interesting potential effectors have been identified. However, they still need to be functionally characterized. Relating the results to Virchow’s first description of leukemia as "white blood" the role of TAL1 in leukemia’s genesis but also in erythropoiesis has been confirmed and extended, thus contributing to explain Virchow’s observation: "...therefore, when I speak of white blood, I mean in fact a blood in which the proportion between the red and colorless (in white) blood corpuscles is reversed ...” (Virchow R. Weisses Blut. Frorieps Notizen 1845;36:151-156).
Hintergrund: Die Therapie des elektrischen Sturms (ES), d.h. ≥3 ICD-Therapieabgaben wegen ventrikulärer Tachyarrhythmien (VT) innerhalb von 24 Stunden, besteht in der Beseitigung potenzieller reversibler Ursachen, der Gabe von Antiarrhythmika oder der Katheterablation (CA).
Ziel der Untersuchung war es, die unterschiedlichen Therapien des ES in Bezug auf Erfolg und Sicherheit zu analysieren.
Methoden: Alle ICD-Patienten, die zwischen 2000 und 2015 mit ES am Cardioangiologischen Centrum Bethanien behandelt wurden, wurden in die retrospektive Analyse eingeschlossen. Mittels elektronischer Datenbanksuche wurden potenzielle Patienten identifiziert und anhand der Krankenakte und der ICD-Auslesungen selektiert.
Neben demographischen Parametern wurden die prozeduralen Variablen der Ablationen analysiert. Alle CA wurden mit Hilfe eines 3D-Mappingsystems durchgeführt. Der Erfolg der CA wurde definiert als Nicht-Induzierbarkeit von VT durch programmierte Elektrostimulation von RVA und RVOT mit 2 Basiszykluslängen (510/440ms) und Ankopplung von bis zu 3 Extrastimuli bis zur jeweiligen Refraktärzeit.
Die Patienten wurden alle 6 Monate untersucht und der ICD-Speicher ausgelesen.
Der primäre Endpunkt war das ereignisfreie Überleben ohne adäquate ICD-Interventionen oder ES in einem Zeitraum von 12 Monaten nach Therapie des ES.
Ergebnisse: Insgesamt wurden 87 Patienten (mittleres Alter 71±9,6 Jahre; 89% männlich; LVEF 34,1%±13,3%) eingeschlossen, davon 58 konservativ und 29 per CA behandelt.
Die ICD-Implantation der Patienten in der CA-Gruppe lag länger zurück als die in der konservativen Gruppe (1868 Tage vs. 905 Tage; p = 0,0009).
Die CA war bei 26 Patienten (3 Therapieversager der kons. Gruppe einbezogen) erfolgreich. Dabei wurden im Mittel 2,6±1,8 VT abladiert. Hierzu war in 16,2% ein epikardiales Vorgehen notwendig. Die Prozeduren dauerten 153±47,5 min.
In der konservativen Gruppe hatten 15 (25,9%) Patienten eine reversible Ursache für den ES (Ischämie, Elektrolytstörung), außerdem wurden 34 (58,6%) mit Antiarrhythmika behandelt, davon 28 (48,3%) mit Amiodaron.
Der primäre Endpunkt wurde von 19 (32,8%) Patienten der konservativen und 13 (44,8%) der CA Gruppe erreicht (p = 0,35).
Es ergaben sich ebenfalls keine Unterschiede bzgl. der einzelnen Endpunkte Tod, VT-, ES- oder ICD-Schockrezidiv.
Im Falle einer erfolgreichen CA wurde der primäre Endpunkt signifikant häufiger erreicht (46,2% vs. 16,7%; p = 0,01; HR = 0,29; CI 0,11-0,75). Die Wahrscheinlichkeit das erste Jahr nach CA zu überleben war um 84% höher (88,5% vs. 50%; p = 0,01; HR = 0,16; CI 0,04-0,65).
Im Falle einer erfolgreichen CA ist die Wahrscheinlichkeit für das Überleben gegenüber einer Amiodarontherapie um 70% höher (88,5% vs. 64,3%; p= 0,07; HR = 0,30; CI 0,09-1,04).
Schlussfolgerung: Patienten mit einem ES können primär zu 81,3% mit einer CA erfolgreich behandelt werden. Wenn alle VT durch die CA eliminiert werden können, ist die CA einer konservativen Therapie mit Amiodaron in Hinblick auf das Überleben um 70% überlegen.
Bluttransfusionen ermöglichen es jährlich tausenden von Menschen das Leben zu retten. Allerdings bringt ein unreflektierter Einsatz auch zahlreiche Nachteile mit sich. Patient Blood Management (PBM) beschäftigt sich damit, das optimale Kosten-Nutzen-Verhältnis dieser Maßnahme auszuschöpfen.
Das Programm verfolgt einen multimodalen Ansatz zur Reduktion von Transfusionen. Es zielt darauf ab präoperative Anämie zu erfassen und, wenn möglich, zu therapieren, iatrogenen Blutverlust zu reduzieren und die Anämietoleranz des Körpers maximal auszunutzen. Diese Maßnahmen wurden durch Schulungsprogramme und die Bereitstellung von Informationsmaterial begleitet, um die Sensibilität und das Wissen zu diesem Thema zu vergrößern.
Die vorliegende Arbeit befasst sich mit den Einflüssen der Einführung von PBM auf die Mortalität und Morbidität von Malignompatienten in der Viszeralchirurgie. Die retrospektive Analyse war darauf ausgerichtet, einen Unterschied von 10 % im Zweijahresüberleben vor und nach Einführung festzustellen. Hierfür wurden die Daten von 836 Patienten ausgewertet, die sich über einen Zeitraum von vier Jahren einer onkologischen Operation in der Abteilung für Allgemein- und Viszeralchirurgie der Universitätsklinik Frankfurt am Main unterzogen haben. Davon befanden sich 389 vor und 447 nach der Einführung des Projekts in Behandlung.
Das Ziel der Untersuchung bestand darin, die Sicherheit und den Nutzen von PBM in dieser speziellen Patientengruppe näher zu untersuchen. Dazu wurden der primäre Endpunkt des Zweijahresüberlebens und die sekundären Endpunkte 30-Tages- und 90-Tagesüberleben, Prozentsatz an Patienten mit Anämie, Anzahl der transfundierten Erythrozytenkonzentrate (EK) sowie das Auftreten von Komplikationen nach der Dindo-Clavien Klassifikation festgelegt.
Die erhobenen Daten zeigen ein um 13,1 % (p = < 0,001) verbessertes Überleben nach zwei Jahren in den Vergleichsgruppen vor und nach Einführung des Patient Blood Managements. Es haben 21,5 % (p = < 0,001) weniger Patienten Erythrozytenkonzentrate erhalten, zudem wurde die Gesamtsumme der transfundierten Konzentrate signifikant (p = < 0,001) reduziert.
Dabei kam es zu keinem vermehrten Auftreten von Komplikationen. Dies spricht dafür, dass die Einführung von PBM zur Verbesserung der Patientensicherheit beigetragen hat. Es hat sich gezeigt, dass Patienten ohne oder mit moderaten postoperativen Komplikationen (Dindo-Claven < IIIb) von den Veränderungen im besonderen Maße profitieren.
Eine flächendeckende Implementierung des Konzepts in den klinischen Alltag ist als sicher und empfehlenswert zu betrachten. Neben den Patienten profitiert auch das ärztliche Personal, denn im Rahmen von strukturierten Fortbildungsveranstaltungen wird tiefergehendes Wissen vermittelt und klare Handlungsempfehlungen gegeben. Dies reduziert Unsicherheiten, erhöht die Sensibilität und verringert auf diesem Weg Fehler im Transfusionsmanagement. Des Weiteren ergeben sich ökonomische Vorteile. Durch Schulungen, Anämiescreening und der Anschaffung neuer blutsparender Systeme entstehen zwar zunächst zusätzliche Kosten, allerdings stehen diese Einsparungen, durch einen geringeren EK-Verbrauch sowie geringeren Ausgaben durch eine Senkung der Morbidität, gegenüber.
Es wäre von Interesse, in zukünftigen Untersuchungen die genauen Ursachen für den beobachteten Effekt im verbesserten Langzeitüberleben zu analysieren. Mit diesem Wissen kann eine optimale Nutzung der Einflussfaktoren gewährleistet werden. Zudem sollte es auf dieser Basis möglich werden, das Patientenkollektiv, das von einer Transfusion profitiert, genauer einzugrenzen.
Weltweit stellt das kolorektale Karzinom die dritthäufigste Krebsdiagnose bei Männern und die zweithäufigste bei Frauen dar. Von den bekannten beeinflussbaren Risikofaktoren sind Ernährung, Rauchen und körperliche Aktivität zu nennen, hingegen gelten Alter, familiäre Belastung und männliches Geschlecht als nicht beeinflussbare Risikofaktoren. Neben Genmutationen, welche beispielsweise bei der Familiären Adenomatösen Polyposis coli und beim “Lynch Syndrom” eine wichtige Rolle spielen, kann auch die pathologisch verstärkte Expression von tumorrelevanten Proteinen wie z.B. induzierbare COX-2, Cyclin A, B und D, c-Fos, EGF, MMP-9, VEGF sowie das ubiquitäre RNA-Bindeprotein HuR maßgeblich zur Entstehung des Kolonkarzinoms beitragen. Viele der bislang identifizierten Zielgene des HuRs sind an der Regulation tumorpromovierender Eigenschaften wie Proliferation, Invasion, Metastasierung und Apoptose beteiligt, was HuR zu einem hochattraktiven Target der molekularen Tumortherapie macht. Bislang ist bekannt, dass eine gesteigerte HuR-Bindung an AREs in der 3’UTR vieler Zielgene entweder zur Stabilisierung und/oder
Translationsveränderung von kurzlebigen mRNAs von tumorrelevanten Genprodukten führen kann. Eine pathologisch erhöhte zytosolische HuR Akkumulation, welche bekanntlich oft mit einer ungünstigen Prognose der Tumorpatienten korreliert, wird jedoch im Wesentlichen als Folge eines fehlerhaft regulierten erhöhten Exportes des überwiegend im Zellkern lokalisierten HuR Proteins ins Zytoplasma (sogenanntes “HuR-Shuttling”) betrachtet, während genomische oder epigenetische Mechanismen vermutlich nur eine untergeordnete Rolle spielen. Der Gegenstand der vorliegenden Arbeit war die Aufklärung der bisher nur wenig bekannten zugrunde liegenden Mechanismen des erhöhten HuR-Shuttlings in der Kolonkarzinom-Zelllinie DLD-1 unter besonderen Berücksichtigung PKCδ-abhängiger Signalwege. Durch Zugabe des pharmakologischen PKCδ-Inhibitors Rottlerin konnte die subzelluläre HuR-Lokalisation in den Kolonkarzinom Zelllinien DLD-1 und SW-620 deutlich reduziert werden, wobei die maximale Wirkung erst nach einer Inhibitionszeit von 16 Stunden erreicht wurde. Diese Beobachtung lässt vermuten, dass Rottlerin die PKCδ Aktivität in DLD-1 Zellen hemmt. Hingegen konnten Inhibitoren von verschiedenen MAPK-Kinasen (SB203580, SP600125, PD98059, Raf-1-Inhibitor) die basale zytoplasmatische HuR Lokalisation nicht beeinflussten, ebensowenig der pharmakologische Inhibitor der Calcium-abhängigen PKCs (PKCα und PKCβ) Gö6976. Auf der anderen Seite bewirkte das Phorbolester PMA eine deutliche Steigerung der PKC-Aktivität. Des Weiteren wurde in dieser Arbeit nach tumorrelevanten Genen gesucht, deren Expression in humanen Kolonkarzinomzellen posttranskriptionell von HuR und gleichzeitig von PKCδ kontrolliert wird. Mit Hilfe von RNA-Pulldown Experimenten konnte gezeigt werden, dass die Hemmung der PKCδ funktionell zu einer starken Reduktion der an HuR-gebundenen mRNAs wie c-myc, cyclin A und D sowie COX-2 führt. Schließlich haben Aktivitätsmessungen der Gesamt-PKC-Aktivität gezeigt, dass diese in Kolonkarzinom-Zelllinien nachweisbar und damit basal aktiv ist. Die Untersuchungsergebnisse dieser Arbeit können zum besseren Verständnis der pathophysiologischen Bedeutung des ubiquitären RNA-Bindeproteins HuR für die Kolonkarzinogenese sowie der prokarzinogenen Rolle der PKCδ im Kolongewebe beitragen.
In dieser Arbeit wurden mittels Fragebogen chronobiologische - hier als Chronobiologika bezeichnet -, biologische und soziale Parameter von Patienten mit einer definierten Malignomerkrankung (Mamma-Karzinom, Kolon-Karzinom, Lymphom) bestimmt und auf Zusammenhänge überprüft. Die Chronobiologika wurden für die Zeit vor der Erkrankung sowie für den Zeitpunkt der Befragung erhoben und die Veränderungen berechnet. Die Parameter vor der Erkrankung wurden bei der Gruppe der Patienten mit Mamma-Karzinom mit einer repräsentativen Referenzgruppe (Gesundheitsmonitor des Jahres 2013 der Bertelsmann Stiftung) auf Unterschiede verglichen. Es wurde insbesondere untersucht, ob Zusammenhänge zwischen den Veränderungen der Chronobiologika und der unter der Chemotherapie empfundenen Belastung (= Distress) bestehen.
Dazu wurden im Rahmen einer multizentrischen Studie bei 378 Personen anhand eines Fragebogens auf Basis des Munich ChronoType Questionnaires (MCTQ) Angaben zu ihrem Schlaf-Wach-Rhythmus, ihrer Malignomerkrankung, deren Therapie, der darunter empfundenen Belastung und dem Lebensstil ausgewertet. Ein besonderes Augenmerk wurde dabei auf den Chronotyp, den Social Jetlag und das Schlafdefizit gelegt.
Es ließen sich nur wenige Unterschiede in den Chronobiologika zum Zeitpunkt vor der Erkrankung und dem aktuellen pathologischen Zustand, zwischen den Malignomgruppen, zwischen den Gruppen mit und ohne Chemotherapie sowie zwischen den Gruppen mit geringem und hohem Distress finden.
Im Rahmen der Malignomerkrankung kam es zu Veränderungen im Schlaf-Wach-Rhythmus der Teilnehmer: So wurden Einschlaf- und Aufwachzeit sowie der Chronotyp früher in den Tagesverlauf verlegt. Der Social Jetlag und das Schlafdefizit verminderten sich. Die Einschlaflatenz wurde länger. Diese Veränderungen fanden sich bevorzugt bei Patienten mit Mamma-Karzinom, Chemotherapie und hohem Distress. Der Distress war bei Frauen und jüngeren Personen stärker ausgeprägt.
Die Studienpopulation zeigte im Vergleich zur vorgenannten Referenzgruppe in allen Altersgruppen einen späteren Chronotyp, einen höheren Social Jetlag und einen höheren Anteil an Berufstätigen.
Die beschriebenen Veränderungen im Schlaf-Wach-Rhythmus ließen sich im Wesentlichen mit der veränderten Berufstätigkeit und dem subjektiven Distress im Rahmen der Erkrankung und ihrer Therapie erklären. So fanden sich die stärksten Veränderungen in den Chronobiologika bei Patienten mit hohem Distress und einer Aufgabe der Berufstätigkeit. Die Unterschiede zwischen der Referenzgruppe und der Gruppe der Patientinnen mit Mamma-Karzinom lassen sich tatsächlich mit einer Krankheitsprädisposition oder durch soziokulturelle Besonderheiten in der Studienpopulation gegenüber der Normalbevölkerung (Referenzgruppe) erklären.