Refine
Year of publication
- 2018 (32) (remove)
Document Type
- Doctoral Thesis (32) (remove)
Language
- German (32) (remove)
Has Fulltext
- yes (32)
Is part of the Bibliography
- no (32)
Keywords
- Lebensqualität (2)
- ARFI (1)
- Adhärenz (1)
- Anomalie <Medizin> (1)
- Astrozyten (1)
- Ausbildung (1)
- BCG (1)
- BCG-Therapie (1)
- Blasenkarzinom (1)
- Blutgefäß (1)
Institute
- Medizin (32) (remove)
Die vorliegende Arbeit befasst sich mit der Medikamentenadhärenz an die Therapie mit oralen Antikoagulanzien (OAT) in der Schlaganfall-Sekundärprophylaxe und leitet auf Basis einer prospektiven Untersuchung Rückschlüsse über das Einnahmeverhalten unter verschiedenen Behandlungsformen ab.
Orale Antikoagulanzien werden erfolgreich zur Schlaganfallprävention bei Patienten mit Vorhofflimmern eingesetzt. Über Jahrzehnte waren Vitamin K-Antagonisten (VKA) die einzige Therapieoption, in der Praxis jedoch mit Schwierigkeiten verbunden, wie etwa Medikamenten- und Nahrungsmittelinteraktionen sowie häufige Gerinnungskontrollen. Als ab dem Jahr 2011 die ersten nicht-Vitamin K oralen Antikoagulanzien (NOAK) zugelassen wurden (zunächst Rivaroxaban und Dabigatran), lag ein besonderes Augenmerk auf der Frage, ob die fehlenden Gerinnungskontrollen und dadurch selteneren Arztkontakte unter Einnahme von NOAK einen negativen Einfluss auf die Adhärenz ausüben könnte.
In der vorliegenden Studie wurden prospektiv Daten zur Adhärenz und Persistenz in Bezug auf die Therapie mit OAT zu Zwecken der Schlaganfall-Sekundärprophylaxe gesammelt. Hierbei stand die Selbsteinschätzung der Patienten anhand der 8-Punkte-Morisky Medication Adherence Scale (MMAS-8) im Vordergrund. Die Daten der Untersuchung wurden an drei großen akademischen Schlaganfallzentren der Universitätskliniken Frankfurt, Würzburg und Marburg (Klinikum Fulda) erhoben. Während des Zeitraums Oktober 2011 bis September 2012 wurden alle 596 Patienten mit der Entlassungsdiagnose eines ischämischen Schlaganfalls oder einer transient ischämischen Attacke in Kombination mit Vorhofflimmern in die Studie aufgenommen. Dabei bildeten diejenigen 324 Patienten, die nach Entlassung eine orale Antikoagulation (VKA, Dabigatran oder Rivaroxaban) erhielten, die Untersuchungskohorte dieser Arbeit. Ein Jahr nach Entlassung wurden in einem Follow-up (1) die Adhärenz bzw. Persistenz in Bezug auf die verschriebene Medikation, (2) etwaige Therapiewechsel und deren Gründe, sowie (3) patientenseitige Einflussfaktoren erfragt.
Insgesamt konnte eine sterblichkeitskorrigierte Antwortrate von 73,3% (209 Patienten) erzielt werden. Von diesen Patienten erhielten 92,8% weiterhin eine Art der oralen Antikoagulation. Auch innerhalb der spezifischen ursprünglich verschriebenen OAT konnte eine gute Persistenz festgestellt werden (VKA 80,9%; NOAK 74,8%; P=0,243), wobei Dabigatran tendenziell, aber nicht-signifikant, am schwächsten abschnitt. Sofern Wechsel zwischen verschiedenen Formen der OAT erfolgten, wurden diese zumeist mit Nachteilen der jeweiligen Wirkstoffeigenschaften, wie z.B. gastrointestinale Nebenwirkungen, eine Verschlechterung der Nierenfunktion, sowie die vereinfachte Einnahme anderer Antikoagulanzien mit nur einer täglichen Dosis, begründet.
Zusätzlich stellte sich im Rahmen einer multivariaten Analyse insbesondere der Grad der Behinderung (Modifizierte Rankin Skala, mRS) zum Zeitpunkt des Follow-ups als signifikanter Einflussfaktor auf die Adhärenz heraus. Die Wahl der OAT hatte hingegen keinen relevanten Einfluss.
Zusammenfassend wurde in der Studie eine sehr gute Einnahmetreue von über 90% beobachtet, sofern man konventionelle und neue Antikoagulanzien in Summe zählt. Zudem wurde gezeigt, dass die Wahl der spezifischen OAT keinen signifikant positiven oder negativen Einfluss auf die Adhärenz nach sich zieht. Dieses Ergebnis widerspricht der Befürchtung einer generell niedrigeren Adhärenz an NOAK. Vielmehr könnte eine Erweiterung der Therapieoptionen durch die neuen oralen Antikoagulanzien es erlauben, besser auf spezielle Patientenbedürfnisse wie beispielsweise Medikamentenverträglichkeit oder Komorbiditäten einzugehen, und in Folge die Einnahmetreue zu Zwecken der Schlaganfall-Sekundärprophylaxe zu verbessern.
Zwangsmaßnahmen stellen in der psychiatrischen Versorgung ein umstrittenes Thema dar. Obwohl soweit wie möglich eine zwangsfreie Psychiatrie angestrebt wird, können psychiatrische Erkrankungen in einzelnen Fällen die Selbstbestimmungsfähigkeit der Patienten einschränken und Zwangsmaßnahmen notwendig machen. Diese können eine erhebliche Belastung für die betroffenen Patienten darstellen und bringen das medizinische Personal unter Umständen in ein ethisches Dilemma zwischen Fürsorgepflicht für erkrankte Patienten und deren Autonomiewahrung. Da sowohl national als auch international noch kein einheitlicher Konsens bezüglich möglicher Prädiktoren einer Zwangseinweisung und deren Auswirkung auf den Therapieverlauf erreicht wurde, besteht dazu noch weiterer Forschungsbedarf.
Um diese Lücke zu verkleinern, wurde eine aktuelle, retrospektive Studie auf der Grundlage der besonderen rechtlichen Situation in Hessen bezüglich des Hessischen Freiheitsentzugsgesetzes (HFEG) durchgeführt. Hierfür wurden die Patientenakten aller volljährigen Patienten, die freiwillig oder unfreiwillig (nach §10 HFEG, §1906 BGB und §1 HFEG) auf eine der drei geschützten Stationen der Psychiatrie des Universitätsklinikums Frankfurt am Main während der Quartale I/2015 und II/2015 aufgenommen wurden, ausgewertet. Dabei wurden die Unterschiede der freiwillig und der unfreiwillig aufgenommenen Patienten in soziodemographischen Prädiktoren und die Auswirkung des Aufnahmemodus auf den Therapieverlauf durch Signifikanzprüfungen und dem Verfahren der logistischen Regression betrachtet. Analysiert wurden 543 Patienten, von denen ca. 70% freiwillig und 30% unfreiwillig aufgenommen wurden.
Es konnten vier mögliche Prädiktoren einer unfreiwilligen Aufnahme identifiziert werden: Initiierung der Aufnahme, Aufnahmezeitpunkt, Hauptdiagnose und somatische Nebendiagnosen. Eine unfreiwillige Aufnahme wurde eher durch Passanten, den Betreuer/die Einrichtung oder Nachbarn/Freunde initiiert, während freiwillige Aufnahmen eher durch die Familie oder Eigeninitiative motiviert waren. Die Betrachtung der Initiierung einer Aufnahme erfolgte in der Literatur bisher selten. Übereinstimmend mit anderen Studien wurden zwangseingewiesene Patienten eher wochentags außerhalb der Kernarbeitszeiten oder am Wochenende/Feiertag aufgenommen, während freiwillige Aufnahmen vermehrt in der Kernarbeitszeit stattfanden. Die Diagnosen F0 und F4 erwiesen sich in der Regressionsanalyse als Risikofaktoren für eine Zwangseinweisung, wodurch der in der Literatur bestehende Kenntnisstand eines Zusammenhangs zwischen der Diagnose und dem Aufnahmemodus bestätigt wurde. Unfreiwillig aufgenommene Patienten wiesen zudem signifikant weniger somatische Nebendiagnosen auf. Der Einfluss der Nebendiagnosen ist in der Literatur noch nicht ausreichend untersucht, auch wenn die Ergebnisse der vorhandenen Studien größtenteils mit der vorliegenden Studie übereinstimmen.
Hinsichtlich des Therapieverlaufs unterschieden sich die beiden Gruppen in den Variablen Aufenthaltsdauer, Unterbringung im Verlauf, Zwangsfixierung, Zwangsmedikation, medikamentöse Einstellung, Antidepressiva und andere Medikamente. Zwangseingewiesene Patienten zeigten eine kürzere Aufenthaltsdauer, was möglicherweise der besonderen rechtlichen Situation in Hessen geschuldet ist. Sie wurden zudem häufiger im Verlauf des Aufenthalts untergebracht, waren öfter von Zwangsmaßnahmen wie Fixierungen oder Zwangsmedikationen betroffen und erhielten generell weniger Medikamente. Möglicherweise wurde dies durch eine fehlende Behandlungsmotivation oder eine kürzere Aufenthaltsdauer bedingt. In zusätzlichen Analysen zeigte sich, dass sich einfach und mehrfach aufgenommene Patienten in Baseline-Parametern nicht signifikant unterschieden.
Auch wenn Limitierungen wie das Vorliegen einer unizentrischen Studie oder einem Auswertungszeitraum von einem halben Jahr vorliegen, geben die in dieser Studie gefundenen Zusammenhänge wichtige Hinweise, um das Zustandekommen und die Auswirkungen von Zwangseinweisungen besser zu verstehen. Mit dieser Studie als Vergleichsgrundlage kann in Zukunft eine erstmalige Evaluierung der PsychKHG-Einführung in Hessen durchgeführt werden.
HIV ist heutzutage eine gut behandelbare, chronische Erkrankung. Insbesondere bei chronischen Erkrankungen ist es entscheidend, auch die psychischen und physischen Auswirkungen auf die Lebenssituation zu untersuchen und dabei auch geschlechtsspezifische Aspekte in der gesundheitsbezogenen Lebensqualität von PLWH mit einzuschließen.
Ziel dieser monozentrischen Beobachtungsstudie ist es, die gesundheitsbezogene Lebensqualität von Patientinnen und Patienten des HIVCENTERs Frankfurt darzustellen und diesbezügliche Einflussfaktoren zu identifizieren. Im Zuge dessen wurden zusätzlich geschlechtsspezifische Unterschiede ausgewertet. Der Mental Component Score stellte die primäre Zielgröße der Studie dar, der Physical Component Score die sekundäre.
Zur Erhebung der gesundheitsbezogenen Lebensqualität wurde der SF-12v2 Fragebogen verwendet, der insgesamt zwölf Fragen beinhaltet. Inhaltlich gliedert sich der Bogen in acht Skalen und zwölf Items, die den Mental- und Physical Component Score bilden. Zur näheren Erfassung der aktuellen Lebenssituation der Patientinnen und Patientinnen des HIVCENTERs Frankfurt, wurde ein eigens für die Studie entwickelter Fragebogen verwendet. Dieser erfasste mit 19 Fragen unter anderem soziodemographische Daten, sowie Parameter zu Religiosität oder Sexualität. Retrospektive Daten aus der Epidem-Datenbank des HIVCENTERs und aus den Patientinnen- und Patientenakten wurden ebenfalls in die Auswertung einbezogen.
Die statistische Auswertung beinhaltete neben deskriptiven Methoden, einfache Varianzanalysen für geschlechtsunabhängige Zusammenhänge und Varianzanalysen mit Interaktion für das Geschlecht zur Ermittlung von geschlechtsspezifischen Einflussgrößen. Des Weiteren wurden Spearmankorrelationen berechnet und zur Identifikation von potenziellen Prädiktoren Regressionen mit Rückwärtsausschluss durchgeführt. Für beide Zielgrößen wurde identisch verfahren. Alle statistischen Tests waren zweiseitig und nutzen ein Signifikanzniveau von alpha=5%.
Im Zeitraum von September 2016 bis Mai 2017 wurden insgesamt 275 Patientinnen und Patienten in die Studie eingeschlossen, darunter 123 Frauen, 150 Männer und 2 transgender Personen. Letztere wurden aufgrund der geringen Fallzahl nicht über die deskriptive Statistik hinaus in den Berechnungen berücksichtigt. Das durchschnittliche Alter in der Studienpopulation betrug 46 Jahre. Frauen hatten ein Durchschnittsalter von 44, Männer von 48 Jahren. 97% der Patientinnen und Patienten waren zum Erhebungszeitpunkt unter antiretroviraler Therapie. Im Durchschnitt erzielten die Teilnehmerinnen und Teilnehmer im Vergleich mit der Referenzpopulation einen unterdurchschnittlichen Mental Component Score von 46. Die Frauen der Studie erzielten einen signifikant schlechteren MCS als die Männer (45 vs. 48; p=0,02). Im Kontext mit den übrigen Prädiktoren des Regressionsmodells erreichten Frauen einen um durchschnittlich 13 Punkte schlechteren MCS als Männer (B=-13; p=<0,001). Als geschlechtsunabhängige negative Prädiktoren auf den MCS stellten sich unter anderem regelmäßiger Alkohol- und Drogenkonsum heraus, sowie das Unterlassen von regelmäßigem Sport oder eine negative Zukunftsaussicht. Als geschlechtsabhängiger negativer Prädiktor erwies sich bei den Frauen eine afrikanische versus westeuropäische Herkunft (B=-5; p=0,028). Arbeitslosigkeit stellte sich bei Männern als geschlechtsabhängiger negativer Prädiktor heraus (B=-5; p=0,033).
Vorliegende Dissertation macht deutlich, dass PLWH auch heute noch eine unterdurchschnittliche gesundheitsbezogene Lebensqualität aufweisen und darüber hinaus deutliche geschlechtsabhängige Unterschiede existieren. HIV-positive Frauen erreichten in dieser Studie signifikant schlechtere Werte für den Mental Component Score als Männer und waren hinsichtlich negativer Einflussgrößen überrepräsentiert. Anhand der hier verwendeten Fragebögen wird es behandelnden Ärztinnen und Ärzten innerhalb der Routinesprechstunde ermöglicht, ein regelmäßiges Monitoring der HRQoL durchzuführen und auch ihren Verlauf zu beurteilen. Zudem wäre ein Screening nach den in dieser Arbeit ermittelten negativen Prädiktoren der HRQoL möglich, wodurch entsprechenden Patientinnen und Patienten ein zielgruppenspezifisches Angebot erhalten könnten.
Nachdem die Sicherheit der Blutprodukte in den letzten Jahrzehnten vor allem bei transfusionsmedizinisch relevanten Viren wie HIV-1, HCV und HBV wesentlich durch die Einführung von molekularen Nachweismethoden auf Restrisiken unter 1 zu 1 Million reduziert werden konnte, liegt der aktuelle Fokus der Transfusionsmedizin auf der Vermeidung von bakteriellen Übertragungen. Dabei stehen vor allem die Thrombozytenkonzentrate im Vordergrund, da diese bei Raumtemperatur gelagert werden und somit für viele Bakterien ideale Wachstumsbedingungen darstellen. Die vorliegende Arbeit hat dabei in vier aufeinander aufbauenden Phasen systematisch die klinische Effizienz eines photochemischen Pathogeninaktivierungsverfahrens untersucht.
Phase 1: Darstellung des Wachstumsverhaltens von 8 transfusionsmedizinisch relevanten Keimen mittels der Spiking-Versuche in Thrombozytenkonzentraten. Für die nachfolgenden Phasen sind nur die Bakterienstämme ausgewählt worden, die nachweislich zu einer Vermehrung in Thrombozytenkonzentraten geeignet sind.
Phase 2: In den Experimenten mit Vollblutkonzentraten zeigt sich bei der Spikingkonzentration von 100 CFU/Beutel für alle ausgewählten Keime eine 100%ige Inaktivierungseffizienz. Bei der Anfangskonzentration von 1000 CFU/Beutel ergibt sich für den Keim Klebsiella pneumoniae (PEI-B-08-09) eine Inaktivierungseffizienz von 75% und für den Keim Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime haben in den Experimenten mit der höheren Spikingkonzentration eine Inaktivierungseffizienz von 100%.
Phase 3: Für den Keim Klebsiella pneumoniae (PEI-B-08-09) zeigt sich in den Experimenten mit Pool-TKs schon bei der niedrigen Anfangskonzentration eine Inaktivierungseffizienz von 75%. Bei der Spikingkonzentration von 1000 CFU/Beutel ergibt sich erneut für die Keime Klebsiella pneumoniae und Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime weisen sowohl bei der niedrigen als auch bei der hohen Bakterienkonzentration eine 100%ige Pathogeninaktivierungseffizienz auf.
Phase 4: In den Experimenten mit Apherese-TKs zeigt sich für alle untersuchten Keime sowohl bei der niedrigen als auch bei der hohen Spikingkonzentration eine 100%ige Inaktivierungseffizienz.
Aus diesen Experimenten geht hervor, dass man mittels photochemischen Pathogeninaktivierungsverfahrens keine 100%ige Inaktivierungseffizienz erreichen kann. Vielmehr ist die Inaktivierungseffizienz zum einen von der bakteriellen Ausgangskonzentration, zum anderen aber auch vom Zeitpunkt der Anwendung des Verfahrens abhängig. Somit sollte der Begriff „ Pathogeninaktivierungsverfahren“ besser durch den Begriff des Pathogenreduktionsverfahrens ersetzt werden. Ferner wird anhand der Ergebnisse deutlich, dass die Anwendung von Pathogenreduktionsverfahren möglichst schnell nach der Spende erfolgen sollte. In diesem Zusammenhang haben Apherese-Thrombozytenkonzentrate gegenüber Pool-Thrombozytenkonzentraten einen Sicherheitsvorteil.
Our understanding of human biology and disease is based on the last millennia’s gain of knowledge, which has been exponentially accelerated since the invention of optical and "biochemical" microscopes like transcriptomics and other omics technologies.
In order to broaden our knowledge of an important human transcription factor, T-Cell Acute Lymphocytic Leukemia 1 (TAL1), some of these technologies were used.
TAL1’s gene or promoter structure is altered in about 20-30% of T-ALL. In addition, there is an increase in TAL1 expression in ca. 60% of pediatric and about 45% of adult T-ALL. Physiologically, TAL1 is an indispensable factor in hematopoiesis: in the murine knockout model, blood cells vanish in the early embryonic period. In addition, the TF is also relevant in adult erythropoiesis.
Accordingly, the identification of novel TAL1 target genes was significant both for clinical reasons and in order to understand the hematopoietic functions.
We performend a combined RNA- and ChIPseq approach. After a lentiviral mediated knockdown in K562 cells RNAseq was performed using the Illumina high-throughput method. Overall, the RNAseq yielded one billion good quality sequencing fragments. They made identification of up- and downregulated transcripts as well as associated biological processes, cellular components, molecular function and dominant KEGG signaling pathways possible. Furthermore, more than 2-fold altered coding transcripts and lncRNA were analyzed for relevant TAL1-binding in the transcription start area. There were 3205 significantly altered coding transcripts and 5136 significantly altered lncRNA. By integrating an Encode TAL1-ChIPseq in K562 cells (using a cutoff fold change of 2x) a relevant TAL1 binding could be detected with 71 coding and 416 lncRNA genes.
The combination of RNA- and ChIPseq yields a wealth of relevant results. Accordingly, TAL1 has complex pro- and anti-malignant effects in all areas of oncogenesis like described by Hanahan and Weinberg. Various interactions with target genes and signaling cascades in inter alia proliferation (e.g. HEMGN, MYC, AHI1, YPEL3, BTG2), angiogenesis (e.g. EGFL7, LTBP3), apoptosis (e.g. BCL3, BCL2A1, BMF), immune evasion (e.g. CMTM6) and inflammation (e.g. IL23 and PTGS1) have been revealed, thus complementing the knowledge about pro- and anti-oncogenic effects of TAL1. In addition, it was possible to identify target genes relevant for erythropoiesis and possible osteogenesis. Concerning lncRNA, interesting potential effectors have been identified. However, they still need to be functionally characterized. Relating the results to Virchow’s first description of leukemia as "white blood" the role of TAL1 in leukemia’s genesis but also in erythropoiesis has been confirmed and extended, thus contributing to explain Virchow’s observation: "...therefore, when I speak of white blood, I mean in fact a blood in which the proportion between the red and colorless (in white) blood corpuscles is reversed ...” (Virchow R. Weisses Blut. Frorieps Notizen 1845;36:151-156).
Bluttransfusionen ermöglichen es jährlich tausenden von Menschen das Leben zu retten. Allerdings bringt ein unreflektierter Einsatz auch zahlreiche Nachteile mit sich. Patient Blood Management (PBM) beschäftigt sich damit, das optimale Kosten-Nutzen-Verhältnis dieser Maßnahme auszuschöpfen.
Das Programm verfolgt einen multimodalen Ansatz zur Reduktion von Transfusionen. Es zielt darauf ab präoperative Anämie zu erfassen und, wenn möglich, zu therapieren, iatrogenen Blutverlust zu reduzieren und die Anämietoleranz des Körpers maximal auszunutzen. Diese Maßnahmen wurden durch Schulungsprogramme und die Bereitstellung von Informationsmaterial begleitet, um die Sensibilität und das Wissen zu diesem Thema zu vergrößern.
Die vorliegende Arbeit befasst sich mit den Einflüssen der Einführung von PBM auf die Mortalität und Morbidität von Malignompatienten in der Viszeralchirurgie. Die retrospektive Analyse war darauf ausgerichtet, einen Unterschied von 10 % im Zweijahresüberleben vor und nach Einführung festzustellen. Hierfür wurden die Daten von 836 Patienten ausgewertet, die sich über einen Zeitraum von vier Jahren einer onkologischen Operation in der Abteilung für Allgemein- und Viszeralchirurgie der Universitätsklinik Frankfurt am Main unterzogen haben. Davon befanden sich 389 vor und 447 nach der Einführung des Projekts in Behandlung.
Das Ziel der Untersuchung bestand darin, die Sicherheit und den Nutzen von PBM in dieser speziellen Patientengruppe näher zu untersuchen. Dazu wurden der primäre Endpunkt des Zweijahresüberlebens und die sekundären Endpunkte 30-Tages- und 90-Tagesüberleben, Prozentsatz an Patienten mit Anämie, Anzahl der transfundierten Erythrozytenkonzentrate (EK) sowie das Auftreten von Komplikationen nach der Dindo-Clavien Klassifikation festgelegt.
Die erhobenen Daten zeigen ein um 13,1 % (p = < 0,001) verbessertes Überleben nach zwei Jahren in den Vergleichsgruppen vor und nach Einführung des Patient Blood Managements. Es haben 21,5 % (p = < 0,001) weniger Patienten Erythrozytenkonzentrate erhalten, zudem wurde die Gesamtsumme der transfundierten Konzentrate signifikant (p = < 0,001) reduziert.
Dabei kam es zu keinem vermehrten Auftreten von Komplikationen. Dies spricht dafür, dass die Einführung von PBM zur Verbesserung der Patientensicherheit beigetragen hat. Es hat sich gezeigt, dass Patienten ohne oder mit moderaten postoperativen Komplikationen (Dindo-Claven < IIIb) von den Veränderungen im besonderen Maße profitieren.
Eine flächendeckende Implementierung des Konzepts in den klinischen Alltag ist als sicher und empfehlenswert zu betrachten. Neben den Patienten profitiert auch das ärztliche Personal, denn im Rahmen von strukturierten Fortbildungsveranstaltungen wird tiefergehendes Wissen vermittelt und klare Handlungsempfehlungen gegeben. Dies reduziert Unsicherheiten, erhöht die Sensibilität und verringert auf diesem Weg Fehler im Transfusionsmanagement. Des Weiteren ergeben sich ökonomische Vorteile. Durch Schulungen, Anämiescreening und der Anschaffung neuer blutsparender Systeme entstehen zwar zunächst zusätzliche Kosten, allerdings stehen diese Einsparungen, durch einen geringeren EK-Verbrauch sowie geringeren Ausgaben durch eine Senkung der Morbidität, gegenüber.
Es wäre von Interesse, in zukünftigen Untersuchungen die genauen Ursachen für den beobachteten Effekt im verbesserten Langzeitüberleben zu analysieren. Mit diesem Wissen kann eine optimale Nutzung der Einflussfaktoren gewährleistet werden. Zudem sollte es auf dieser Basis möglich werden, das Patientenkollektiv, das von einer Transfusion profitiert, genauer einzugrenzen.
In dieser Arbeit wurden mittels Fragebogen chronobiologische - hier als Chronobiologika bezeichnet -, biologische und soziale Parameter von Patienten mit einer definierten Malignomerkrankung (Mamma-Karzinom, Kolon-Karzinom, Lymphom) bestimmt und auf Zusammenhänge überprüft. Die Chronobiologika wurden für die Zeit vor der Erkrankung sowie für den Zeitpunkt der Befragung erhoben und die Veränderungen berechnet. Die Parameter vor der Erkrankung wurden bei der Gruppe der Patienten mit Mamma-Karzinom mit einer repräsentativen Referenzgruppe (Gesundheitsmonitor des Jahres 2013 der Bertelsmann Stiftung) auf Unterschiede verglichen. Es wurde insbesondere untersucht, ob Zusammenhänge zwischen den Veränderungen der Chronobiologika und der unter der Chemotherapie empfundenen Belastung (= Distress) bestehen.
Dazu wurden im Rahmen einer multizentrischen Studie bei 378 Personen anhand eines Fragebogens auf Basis des Munich ChronoType Questionnaires (MCTQ) Angaben zu ihrem Schlaf-Wach-Rhythmus, ihrer Malignomerkrankung, deren Therapie, der darunter empfundenen Belastung und dem Lebensstil ausgewertet. Ein besonderes Augenmerk wurde dabei auf den Chronotyp, den Social Jetlag und das Schlafdefizit gelegt.
Es ließen sich nur wenige Unterschiede in den Chronobiologika zum Zeitpunkt vor der Erkrankung und dem aktuellen pathologischen Zustand, zwischen den Malignomgruppen, zwischen den Gruppen mit und ohne Chemotherapie sowie zwischen den Gruppen mit geringem und hohem Distress finden.
Im Rahmen der Malignomerkrankung kam es zu Veränderungen im Schlaf-Wach-Rhythmus der Teilnehmer: So wurden Einschlaf- und Aufwachzeit sowie der Chronotyp früher in den Tagesverlauf verlegt. Der Social Jetlag und das Schlafdefizit verminderten sich. Die Einschlaflatenz wurde länger. Diese Veränderungen fanden sich bevorzugt bei Patienten mit Mamma-Karzinom, Chemotherapie und hohem Distress. Der Distress war bei Frauen und jüngeren Personen stärker ausgeprägt.
Die Studienpopulation zeigte im Vergleich zur vorgenannten Referenzgruppe in allen Altersgruppen einen späteren Chronotyp, einen höheren Social Jetlag und einen höheren Anteil an Berufstätigen.
Die beschriebenen Veränderungen im Schlaf-Wach-Rhythmus ließen sich im Wesentlichen mit der veränderten Berufstätigkeit und dem subjektiven Distress im Rahmen der Erkrankung und ihrer Therapie erklären. So fanden sich die stärksten Veränderungen in den Chronobiologika bei Patienten mit hohem Distress und einer Aufgabe der Berufstätigkeit. Die Unterschiede zwischen der Referenzgruppe und der Gruppe der Patientinnen mit Mamma-Karzinom lassen sich tatsächlich mit einer Krankheitsprädisposition oder durch soziokulturelle Besonderheiten in der Studienpopulation gegenüber der Normalbevölkerung (Referenzgruppe) erklären.
Mit S-303 pathogenreduzierten Erythrozytenkonzentraten können sowohl infektiöse also auch nicht-infektiöse Risiken einer Transfusionen möglicherweise weiter reduziert werden. Frühere Studien mussten abgebrochen werden, da Antikörper gegen S-303-behandelte Erythrozyten festgestellt wurden. S-303 reagiert als unerwünschten Nebeneffekt auch mit Oberflächenmolekülen der roten Blutkörperchen. Dabei wird die Acridin-Komponente von S-303 auf der Oberfläche der roten Blutkörperchen gebunden. Gegen diese Acridin-Komponente können nach Transfusion von pathogenreduzierten EK immuninduzierte AK gebildet werden. Es existieren aber auch natürlich präformierte AK gegen S-303-behandelte Erythrozytenkonzentrate. Das Verfahren wurde modifiziert, indem der Anteil von GSH erhöht wurde. Dadurch wird vermehrt S-303 im Extrazellulärraum abgefangen und weniger Acridin auf der Oberfläche der Erythrozyten gebunden.
In dieser Studie wurden 9671 potentiell transfusionsbedürftigen Patienten auf einen natürlich präformierten Antikörper gegen S-303-behandelte Erythrozytenkonzentrate untersucht. Diese Patienten hatten zuvor noch keine S-303-behandelten Erythrozytenkonzentrate erhalten. Es wurden Testzellen von Blutspendern der Blutgruppe 0 hergestellt. Aus jedem EK wurden drei unterschiedliche Testzellen hergestellt (Erstgenerationszellen, Zweitgenerationszellen, Kontrollzellen). Das Screening erfolgte mittels IAT in Gelkartentechnik mit einer Testzelle der ersten und zweiten Generation. Die Antikörper wurden weiter charakterisiert bezüglich Spezifität, Titer, Antikörperklasse und –subklasse, Affinität und Temperaturreaktivität.
Bei zwölf Patienten konnte ein AK gegen S-303 pathogenreduzierte Erythrozy-tenkonzentrate nachgewiesen werden und somit konnte gezeigt werden, dass die Prävalenz eines solchen Antikörpers gering ist. Bei elf Patienten handelt es sich um einen Anti-Acridin-AK. Alle elf Patienten hatten immer einen positiven AKS mit der Erstgenerationszelle, jedoch nicht mit der Zweitgenerationszelle. Die Sensitivität, einen AK gegen Acridin mit der Erstgenerationszelle zu finden, ist höher als mit der Zweitgenerationszelle. Die Erstgenerationszelle hat auf ihrer Oberfläche mehr Acridin gebunden als die Zweitgenerationszelle. Bei einem Patienten konnte ein AK unbekannter Spezifität nachgewiesen werden, welcher jedoch ausschließlich mit der Zweitgenerationszelle reagierte. Vor einer möglichen Transfusion von S-303 pathogenreduzierten Erythrozytenkonzentraten wird empfohlen immer eine Testung auf Antikörper gegen Testzellen der ersten und der zweiten Generation durchzuführen. Eine Transfusion sollte grundsätzlich nur erfolgen, wenn weder ein AK gegen die Erstgenerationszelle noch gegen die Zweitgenerationszelle nachgewiesen wurde. Insgesamt handelt es sich überwiegend um niedrigtitrige IgG-AK der Subklasse 2 oder 4. Es lässt sich daher vermuten, dass natürlich präformierten AK gegen S-303-behandelte Erythrozytenkonzentrate nur eine geringe klinische Relevanz haben.
Eine klinischen Studie mit 51 kardiochirurgischen Patienten zeigte, dass nach Transfusion von pathogenreduzierten Erythrozytenkonzentraten der zweiten Generation keine immuninduzierten Antikörper gebildet wurden. Somit ist davon auszugehen, dass die Zweitgenerationszelle wegen der geringen Expression von Acridin auf der Zelloberfläche weniger immunogen ist als die Erstgenerationszelle. Klinische Studien mit einer größeren Anzahl an Patienten können nun grundsätzlich geplant werden.
Generell sollten Patienten mit natürlich präformierten Antikörpern gegen S-303-behandelte Erythrozytenkonzentrate keine pathogenreduzierten Erythrozytenkonzentrate erhalten. Patienten, welche nach Transfusion von S-303-behandelten Erythrozytenkonzentraten AK gegen die pathogenreduzierten Erythrozyten gebildet haben, sollten regelmäßig nachuntersucht werden, um eine Hämolyse frühzeitig zu entdecken.
Hintergrund:
Zur Klärung der klinischen Relevanz einer Milbensensibilisierung bei Kindern und Jugendlichen mit Asthma bronchiale ist die spezifische bronchiale Allergenprovokation (BAP) der Goldstandard. Aufgrund der technischen und personellen Voraussetzungen, sowie der potentiellen Gefahr einer schweren asthmatischen Spätreaktion ist die BAP nur eingeschränkt in spezialisierten Zentren verfügbar. Im Gegensatz dazu zeichnet sich nasale Allergenprovokation (NPT) durch ein hohes Maß an Patientensicherheit aus und kann ambulant durchgeführt werden. In dieser Studie sollte daher ein Vergleich zwischen der BAP vs. NPT erfolgen und klären inwiefern die NPT eine vorteilhafte Alternative im Diagnostikalgorithmus darstellen kann.
Methodik:
Von 157 untersuchten Patienten mit asthmatischen Beschwerden und positivem Pricktest (Dermatophagoides pteronyssinus; Dermatophagoides farinae) erfüllten 74 die Ein- / Ausschlusskriterien in vollem Umfang (Alter MW: 9,1 + 3,1 Jahre). Nach der BAP und der Messung des eNO, erfolgte eine Blutentnahme zur Bestimmung von Blutbild und spezifischem IgE, ggf. konnte Nasensekret gewonnen werden. Im Anschluss wurde innerhalb von 12 Wochen eine NPT mit Milbenallergen in aufsteigender Verdünnung durchgeführt. Hierbei wurde das Ergebnis zum einen mittels Symptomscore nach Lebel evaluiert, sowie die nasale Obstruktion mittels Peak Nasal Inspiratory Flow Meter (PNIF) bestimmt. Zum Abschluss beantworteten die Patienten einen standardisierten Fragebogen zur Lebensqualität mit Rhinokonjunktivitis (RQLQ).
Ergebnisse:
In der BAP konnten 57 Patienten mit einer bronchialen Frühreaktion (FEV1 - Abfall Mean bei 29,2% ± 7,4) identifiziert werden, von diesen wurden 41 mittels Lebelsymptomscore und 19 mittels PNIF erkannt. Während der Symptomscore nach Lebel damit eine ausreichende Sensitivität von 71,9 % und einen positiv prädiktiven Wert (PPV) von 89,1 % erreichte, war die Sensitivität für den PNIF mit 33,3 % ungenügend bei einem PPV von 82,6 %. Die negativ prädiktiven Werte lagen bei 42,8 %, respektive 25,4 %. Sowohl das eNO größer oder gleich 10 ppb (AUC 0,78) als auch das kumulative spez. IgE größer oder gleich 25,5 kU/l (AUC 0,72) erwiesen sich als gute Prädiktoren einer bronchialen Frühreaktion (EAR), eine Korrelation mit dem Symptomscore nach Lebel konnte jedoch nicht festgestellt werden.
Schlussfolgerung:
Unsere Ergebnisse zeigen für den Symptomscore nach Lebel eine hohe Vorhersagekraft zur Detektion einer EAR in der bronchialen Milbenprovokation. Ein negativer Score konnte eine asthmatische Reaktion jedoch nicht ausreichend ausschließen. Für den PNIF fanden wir keine ausreichende Testvalidität. Besonders bei pädiatrischen Patienten ist zu berücksichtigen, dass diese Messung stark von der individuellen Leistungsfähigkeit beeinflusst wird. Zudem weisen die nasale und bronchiale Mukosa lokale Unterschiede auf, sodass eine nasale Reaktion nicht identisch mit einer EAR ist. Bei Kindern und Jugendlichen mit Asthma bronchiale ist die BAP daher nicht vollständig durch die NPT ersetzbar. Besonders im ambulanten Bereich findet die NPT jedoch ihre Berechtigung, durch die deutlich geringeren Testanforderungen bei einem hohen Maß an Patientensicherheit. Darüber hinaus gehen rhinitische Beschwerden häufig einem Asthma bronchiale voraus, sodass auch falsch positive Testergebnisse im Lebel - Score berücksichtigt werden sollten. Neben dem Symptomscore identifizierten wir sowohl das spezifische IgE als auch das eNO als valide Prädiktoren einer EAR, eine direkte Korrelation zum NPT konnte jedoch nicht gefunden werden.
Einleitung: Feedback ist ein elementarer Bestandteil effektiven Lernens, auch im Medizinstudium, insbesondere beim Erlernen praktischer Fertigkeiten. Feedback kann in verschieden Formen gegeben werden, die Einfluss auf das Erlernen und Behalten der Fertigkeit haben.
Videofeedback, auf der Grundlage von Videoaufzeichnungen einer Tätigkeit, erscheint hierbei eine effektive Methode zum Verstärken des Lerneffektes bei komplexen praktischen Fertigkeiten darzustellen.
Das Ziel der vorliegenden Arbeit war die vergleichende Effektivitätsanalyse von Videofeedback im Vergleich zu mündlichem Feedback auf das Erlernen des sterilen Arbeitens bei der Wundversorgung als Beispiel für eine komplexe praktische Fertigkeit.
Methode: Medizinstudierende an der Goethe-Universität Frankfurt am Main absolvieren im Rahmen ihrer curricularen Ausbildung im 2. bzw. 3. klinischen Semester das dreiwöchige Blockpraktikum Chirurgie. Hierbei durchlaufen sie das einwöchige „Training praktischer Fertigkeiten“ im Skillslab. Im Rahmen dieses aus 12 Modulen bestehenden Trainings absolvieren die Studierenden unter anderem das Modul „Wundversorgung“. In dieser 210-minütigen Trainingseinheit erlernen und üben sie die Versorgung einer einfacher Schnittwunden (von der Anamnese über das sterile Abdecken bis zum Anlegen des Verbandes) unter Anleitung und Supervision eines Peer-Tutors.
Im Rahmen der vorliegenden Arbeit wurden die Studierenden in eine Interventions- und eine Kontrollgruppe randomisiert. Die Interventionsgruppe wurde beim Üben auf Video aufgezeichnet. Im Anschluss erhielten die Studierenden anhand der Videoaufzeichnung Feedback durch einen Peer-Tutor. Die Kontrollgruppe erhielt nach dem Üben Feedback durch den Peer-Tutor ohne Videoaufzeichnung.
Direkt im Anschluss an das Modul absolvierten die Studierenden zwei strukturierte checklistenbasierte formative Prüfungsstationen im Sinne von zwei Objective Structured Clinical Examination-Stationen (OSCE); 2 bis 3 Monate nach dem Training erfolgte die zweite Datenerhebung im Rahmen des summativen curricularen OSCE als Abschlussprüfung des Blockpraktikums Chirurgie.
Ergebnisse: Insgesamt nahmen 107 Studenten an der vorliegenden Studie teil. Am Messzeitpunkt 1 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe. Am Messzeitpunkt 2 mussten an der Prüfungsstation „Wundversorgung“ 39 Studierende durch veränderte und damit nicht mehr vergleichbare Prüfungsbedingungen ausgeschlossen werden. An der zweiten Prüfungsstation konnten alle Studierenden in die Auswertung inkludiert werden. Auch am Messzeitpunkt 2 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe.
Schlussfolgerung: Im Kontext des curricularen chirurgischen Training praktischer Fertigkeiten konnte für das Erlernen des sterilen Arbeitens kein Unterschied zwischen reinem mündlichen Feedback und Videofeedback nachgewiesen werden.