Refine
Year of publication
Document Type
- Doctoral Thesis (19)
Has Fulltext
- yes (19)
Is part of the Bibliography
- no (19)
Keywords
- CIRS (1)
- Endoskopie (1)
- Endotoxin (1)
- Heme-Oxygenase 1 (1)
- Häm-Oxygenase 1 (1)
- Kapnographie (1)
- Leber (1)
- NAPS (1)
- Präkonditionierung (1)
- Reanimation (1)
Institute
- Medizin (19)
Bluttransfusionen ermöglichen es jährlich tausenden von Menschen das Leben zu retten. Allerdings bringt ein unreflektierter Einsatz auch zahlreiche Nachteile mit sich. Patient Blood Management (PBM) beschäftigt sich damit, das optimale Kosten-Nutzen-Verhältnis dieser Maßnahme auszuschöpfen.
Das Programm verfolgt einen multimodalen Ansatz zur Reduktion von Transfusionen. Es zielt darauf ab präoperative Anämie zu erfassen und, wenn möglich, zu therapieren, iatrogenen Blutverlust zu reduzieren und die Anämietoleranz des Körpers maximal auszunutzen. Diese Maßnahmen wurden durch Schulungsprogramme und die Bereitstellung von Informationsmaterial begleitet, um die Sensibilität und das Wissen zu diesem Thema zu vergrößern.
Die vorliegende Arbeit befasst sich mit den Einflüssen der Einführung von PBM auf die Mortalität und Morbidität von Malignompatienten in der Viszeralchirurgie. Die retrospektive Analyse war darauf ausgerichtet, einen Unterschied von 10 % im Zweijahresüberleben vor und nach Einführung festzustellen. Hierfür wurden die Daten von 836 Patienten ausgewertet, die sich über einen Zeitraum von vier Jahren einer onkologischen Operation in der Abteilung für Allgemein- und Viszeralchirurgie der Universitätsklinik Frankfurt am Main unterzogen haben. Davon befanden sich 389 vor und 447 nach der Einführung des Projekts in Behandlung.
Das Ziel der Untersuchung bestand darin, die Sicherheit und den Nutzen von PBM in dieser speziellen Patientengruppe näher zu untersuchen. Dazu wurden der primäre Endpunkt des Zweijahresüberlebens und die sekundären Endpunkte 30-Tages- und 90-Tagesüberleben, Prozentsatz an Patienten mit Anämie, Anzahl der transfundierten Erythrozytenkonzentrate (EK) sowie das Auftreten von Komplikationen nach der Dindo-Clavien Klassifikation festgelegt.
Die erhobenen Daten zeigen ein um 13,1 % (p = < 0,001) verbessertes Überleben nach zwei Jahren in den Vergleichsgruppen vor und nach Einführung des Patient Blood Managements. Es haben 21,5 % (p = < 0,001) weniger Patienten Erythrozytenkonzentrate erhalten, zudem wurde die Gesamtsumme der transfundierten Konzentrate signifikant (p = < 0,001) reduziert.
Dabei kam es zu keinem vermehrten Auftreten von Komplikationen. Dies spricht dafür, dass die Einführung von PBM zur Verbesserung der Patientensicherheit beigetragen hat. Es hat sich gezeigt, dass Patienten ohne oder mit moderaten postoperativen Komplikationen (Dindo-Claven < IIIb) von den Veränderungen im besonderen Maße profitieren.
Eine flächendeckende Implementierung des Konzepts in den klinischen Alltag ist als sicher und empfehlenswert zu betrachten. Neben den Patienten profitiert auch das ärztliche Personal, denn im Rahmen von strukturierten Fortbildungsveranstaltungen wird tiefergehendes Wissen vermittelt und klare Handlungsempfehlungen gegeben. Dies reduziert Unsicherheiten, erhöht die Sensibilität und verringert auf diesem Weg Fehler im Transfusionsmanagement. Des Weiteren ergeben sich ökonomische Vorteile. Durch Schulungen, Anämiescreening und der Anschaffung neuer blutsparender Systeme entstehen zwar zunächst zusätzliche Kosten, allerdings stehen diese Einsparungen, durch einen geringeren EK-Verbrauch sowie geringeren Ausgaben durch eine Senkung der Morbidität, gegenüber.
Es wäre von Interesse, in zukünftigen Untersuchungen die genauen Ursachen für den beobachteten Effekt im verbesserten Langzeitüberleben zu analysieren. Mit diesem Wissen kann eine optimale Nutzung der Einflussfaktoren gewährleistet werden. Zudem sollte es auf dieser Basis möglich werden, das Patientenkollektiv, das von einer Transfusion profitiert, genauer einzugrenzen.
In den letzten Jahren beobachtet man einen Kurs, der sich weg von invasiven zu minimal-invasiven Verfahren in der Bypasschirurgie bewegt. Neue Techniken ermöglichen einen weniger traumatischen Eingriff. Dazu zählen minimal-invasive Verfahren wie PUS- und LAST-OP. Ein besonderes Augenmerk gilt der ACAB-Operation. Während des gesamten Eingriffes ist der Patient wach und atmet spontan. Schmerzfreiheit wird über einen thorakalen PDK erlangt. In dieser Studie sollen die Gruppe ACAB bezüglich ihrer prä- und postoperativen Vitalkapazität, der Blutgasanalyse, bezüglich ihres Schmerzempfindens, der postoperativen Mobilität und hinsichtlich der Akzeptanz der OP-Technik untersucht bzw. mit PUS und LAST verglichen werden.
68 Patienten wurden zwischen Januar 2000 und August 2005 in die Studie aufgenommen und drei Operationsgruppen zugeteilt: ACAB (n = 26), PUS (n = 24) und LAST (n = 18). Von ihnen wurden präoperative und postoperative Lungenfunktionswerte (VC) am dritten postoperativen Tag und Blutgasanalysen (pO2 und sO2) eine, sechs und zwölf Stunden postoperativ erhoben. Mit Hilfe der Visuellen Analogskala wurden die Patienten zu festgesetzten Zeitpunkten zu ihrem Schmerzzustand befragt. Aussagen über den Mobilitätsgrad und Akzeptanz konnten mit Einsatz eines Fragebogens erzielt werden.
In der ACAB-Gruppe zeigten sich postoperativ signifikant höhere Lungenvolumina und Normwerte in der Blutgasanalyse im Vergleich zu den Gruppen B und C. Signifikant niedriger gaben die Patienten der Gruppe A (ACAB) (31,8 +/− 5) im Vergleich zu B (PUS) (52,2 +/− 7,3) und Gruppe C (LAST) (61,6 +/− 5,8) Schmerzen an. Die höchsten Werte auf der VAS wurden in Gruppe C (LAST) angegeben. Mobil waren bereits am Operationstag 20 von 26 Patienten der ACAB-Gruppe. Nur 4 bzw. 3 Patienten der Vergleichsgruppen konnten ebenfalls mobilisiert werden. Die Akzeptanz des ACAB-Operationsverfahrens von Seiten der Patienten war hoch. 25 (96,1%) Patienten würden sich erneut wach operieren lassen.
Es zeigte sich, dass weniger invasive Operationsmethoden und veränderte anästhesiologische Verfahren einen positiven Einfluss auf die Erholung des Patienten haben. Nach sorgfältiger Indikationsstellung stellen alle drei Methoden komplikationsarme Eingriffe dar. Der Verzicht auf die Allgemeinanästhesie wirkte sich besonders auf die Mobilisation, Lungenfunktion, BGA und damit auf die Rekonvaleszenz der Patienten aus. Ein Blick in die Zukunft lässt annehmen, dass sich dieses Verfahren in Zukunft im klinischen Alltag etablieren lässt.
Das Nachsorgekonzept nach lumbalen Bandscheiben-Operationen beruht auf biomechanischen Untersuchungen von Nachemson, die bereits 1966 publiziert worden sind. Seine Studien zeigten, dass sich das Sitzen nach Bandscheiben- Operationen und bei Rückenschmerzpatienten ohne Operation ungünstig auf den Rehabilitationsprozess auswirkt. Aufgrund dieser Befunde wurde das Verbot des Sitzens in das Rehabilitationskonzept aufgenommen und ist noch immer weit verbreitet. Häufig entstehen dabei aus einer ängstlichen Vermeidungshaltung muskuläre Dysbalancen. Es habituiert sich ein erhöhter Tonus der Erector trunci-Muskulatur. So können myotendinotische Sekundärbeschwerden auftreten, die zu einer verzögerten beruflichen und sozialen Wiedereingliederung beitragen. Dabei ist vor allem die verzögerte berufliche Reintegration volkswirtschaftlich von großer Relevanz. Neue Untersuchungen, insbesondere von Wilke et al., Rohlmann et al. und Althoff et al., konnten die von Nachemson im Sitzen erhobenen Daten nicht bestätigen. Aufgrund dieser Ergebnisse lässt sich die Arbeitshypothese aufstellen, dass die bisher übliche Empfehlung, das Sitzen zu vermeiden, für Patienten nach lumbalen Bandscheiben-Operationen obsolet ist. Es kann vielmehr davon ausgegangen werden, dass eine Lockerung dieser Richtlinie die Rehabilitation und die berufliche Wiedereingliederung nach lumbalen Bandscheiben-Operationen erleichtern und beschleunigen kann. Weiterhin kann davon ausgegangen werden, dass der Heilungsprozess, durch eine Be- und Entlastung und damit durch eine verbesserte Diffusion beschleunigt werden kann, wenn in der postoperativen Phase ein liberales Regime bezüglich der Körperhaltung eingeführt und die Wahl der Position dem Patienten weitgehend selbst überlassen wird. Der Patient sollte selbst die Körperhaltung wählen, die er als bequem empfindet. Ängste werden reduziert und die myotendinotischen Sekundärbeschwerden dürften abnehmen. Zu diesem Zweck wurde eine klinische Untersuchung durchgeführt, die insgesamt 50 Patienten in zwei Gruppen randomisiert. Eine Gruppe, als liberal bezeichnet, erhielt eine Sitzerlaubnis, die andere, als konventionell definiert, weiterhin Sitzverbot. Anhand von drei klinischen Nachuntersuchung, zwei von den Patienten selbst auszufüllenden Fragebögen (Oswestry -Schmerskala und Allgemeinen Depressionsskala), einem Sitz- und Schmerztagebuch und zum Abschluss eine MRT- Untersuchung der LWS vor und nach Kontrastmittelgabe, sollten die beiden Gruppen miteinander verglichen und die o. g. Hypothesen verifiziert oder falsifiziert werden. Der Vergleich der beiden Gruppen anhand der klinischen Untersuchungen ergab statistisch keinen signifikantern Unterschied im Hinblick auf den postoperativen Verlauf, insbesondere der postoperativen Schmerzen und Beschwerden, bzw. Behinderungen wie z. B. Lähmungen oder Sensibilitätsstörungen. Ebenso verhält es sich bei der Auswertung der Oswestry- Schmerzskala und der ADS- L. Auch hier ergaben alle Befragungen keine signifikanten Unterschiede zwischen den beiden Gruppen, so dass nicht von einer erhöhten Einschränkung der Patienten der liberalen Gruppe im Alltag ausgegangen werden kann. Das Sitz- und Schmerztagebuch zeigt ebenfalls keine signifikanten Unterschiede innerhalb der ersten 28 postoperativen Tage. Deutlich war zu erkennen, dass eine tägliche Steigerung der Sitzdauer nicht mit einer Erhöhung der Schmerzintensität oder einem vergrößerten Beschwerdebild einherging. Auch die Ergebnisse der MRT- Untersuchung der LWS wiesen keine nennenswerten Unterschiede zwischen den beiden Gruppen auf, die möglicherweise gegen eine Sitzerlaubnis gesprochen hätten. Die Erkenntnisse, die aus diesen Resultaten gewonnen werden können, bestätigten die o.g. Vermutungen, dass die Erlaubnis des Sitzens während der postoperativen Phase nicht zu einem verlängerten oder erschwerten Verlauf der Genesung führt oder sich schädlich auf diesen auswirkt. Das Sitzverbot kann als veraltet angesehen werden und, wenn weitere Untersuchungen die Beobachtungen bestätigen, sogar aus dem Therapieregime genommen werden. Eine frühere berufliche Wiedereingliederung erscheint mit einem liberalen postoperativen Regime erreichbar.
Einleitung- 12,5% aller operierten Patienten sind für mehr als 80% aller Todesfälle verantwortlich. Über die Identifizierung dieser Risikopatienten ist wenig bekannt.6. Währenddessen sind hepatobiliäre Operationen nach wie vor mit einem relativ hohen Mortalitätsrisiko von etwa 5% assoziiert.15.
Ziel- Die Evaluierung der „Cumulative Illness Rating Scale(CIRS)“ zur Prädiktion von Komplikationen und Mortalität in der hepatobiliären Chirurgie.
Material und Methoden- Alle Patienten, die sich vom 01.01.2011 bis zum 06.05.2016 einer hepatobiliären unterzogen, wurden retrospektiv anhand der elektronischen Patientenakte(NICE) gemäß der modifizierten CIRS46 bewertet. Abhängig von der Gesamtsumme der ermittelten CIRS-Werte wurden die Patienten in 4 Risikoklassen (1-4) unterteilt. Anschließend wurden die 14 CIRS-Kategorien und die Risikoklassen auf ein vermehrtes Auftreten von Komplikationen ≥IIIb50 gemäß der Dindo-Klassifikation sowie der 90-Tages-Mortalität49 untersucht.
Ergebnisse- 576 Patienten mit einem durchschnittlichen Alter von 60,7 ± 13,7 Jahren wurden in die Studie aufgenommen. 18,6% der Patienten wiesen Komplikationen ≥IIIb anhand der Dindo-Klassifikation auf. 6,8% verstarben innerhalb des Überwachungszeitraumes von 90 Tagen. Für die Risikoklassen 3+4 (OR=1,674; p=0,027; 95%CI=1,060-2,645) sowie für Erkrankungen der Schweregrade 3+4 in der Kategorie „Leber“ (OR=2,583; p=0,015; 95%CI=1,205-5,538) konnten signifikant erhöhte Wahrscheinlichkeiten für die Entstehung von Komplikationen festgestellt werden. Gleiches wurde im Bezug auf Mortalität für Erkrankungen der Schweregrade 3+4 in den Kategorien „Hypertonie“ (OR=2,249; p=0,019; 95%CI=1,141-4,434) und „Leber“ (OR=8,891; p=0,033; 95%CI=1,189-66,492) nachgewiesen. Im Gegensatz dazu führten Erkrankungen der Schweregrade 3+4 in der Kategorie „Unterer Gastrointestinaltrakt“ zu einer deutlichen Reduzierung des Risikos für die Entwicklung von Komplikationen (OR=0,385; p<0,000; 95%CI=0,228-0,649) und Mortalität (OR=0,419; p=0,047; 95%CI=0,178-0987). Die im Rahmen der binär logistischen Regression erstellten Regressionsgleichungen ermöglichten keine verbesserte Klassifizierung der Patienten.
Zusammenfassung- Die Ergebnisse zeigen, dass signifikante Zusammenhänge zwischen der Entstehung von Komplikationen ≥IIIb anhand der Dindo-Klassifikation und der 90-Tages-Mortalität mittels CIRS nachweisbar sind. Dennoch geht hervor, dass der prädiktive Wert der modifizierten CIRS für die hepatobiliäre Chirurgie gering ist.
Die Rolle von NO und cGMP in der Schmerzverarbeitung im Rückenmark ist in den letzten Jahren durch viele Berichte untermauert worden. Nicht vollständig bekannt sind hingegen die Mechanismen, derer sich cGMP bedient, um die Transmission von Schmerzen zu beeinflussen. In der vorliegenden Arbeit wurde deshalb untersucht, welche cGMPabhängigen Phosphodiesterasen (PDEs) hierbei eine Rolle spielen könnten und wie sich diese Beteiligung funktionell äußert. Dazu wurden immunhistochemische Färbungen von Rückenmarkschnitten angefertigt und Western-Blot-Analysen von Rückenmarkgewebe durchgeführt. Beide Methoden lieferten Hinweise dafür, dass die PDEs 1A, 1B, 3A,3B, 5A und 11A keine Rolle in der Verarbeitung von Schmerzen spielen. Demgegenüber scheinen die PDE1C, 2A und 10A in schmerzrelevanten Gebieten des Rückenmarks lokalisiert zu sein. Die funktionelle Relevanz der PDE2A und PDE10A im Rahmen der Schmerzverarbeitung wurde mit Hilfe des PDE2A-Inhibitors BAY 60-7550 und des PDE-10A-Inhibitors Papaverin in nozizeptiven Tiermodellen untersucht. Dabei bewirkte, im Modell der Complete Freund’s Adjuvant (CFA)-induzierten mechanischen Hyperalgesie, die i.p. Applikation von BAY 60-7550 oder Papaverin eine Verstärkung der Hyperalgesie. Weiterhin war die Leckzeit in der 2. Phase des Formalin-Modells bei einer Inhibition von PDE10A signifikant verlängert. Insgesamt bestätigen die Ergebnisse der vorliegenden Arbeit frühere Berichte, dass cGMP an der Schmerzsensibilisierung im Hinterhorn des Rückenmarks beteiligt ist und deuten auf eine Rolle insbesondere von PDE2A und 10A im Rahmen der Schmerzsensibilisierung hin.
Die schwere Sepsis ist trotz verbesserter Therapiemethoden der modernen Intensivmedizin mit einer erheblichen Mortalität behaftet und septische Erkrankungen verursachen in Deutschland Schätzungen zufolge ca. 60.000 Todesfälle pro Jahr. Im Falle der gram-negativen Sepsis wird durch die Freisetzung von bakteriellen Zellwandbestandteilen wie LPS über die Bindung an Toll-like Rezeptoren, insbesondere TLR-4, eine systemische Immunreaktion ausgelöst. Diese kann dann über verschiedene Mechanismen zu systemischer Hypotension, Organversagen und schließlich zum Tod im Zuge der schweren Sepsis führen. Es hat sich allerdings herausgestellt, dass LPS auch in der Lage ist protektive Effekte auszulösen. So schützt die Gabe einer niedrigen Dosis LPS den Organismus vor verschiedenen Schädigungen, die in einem späteren Zeitintervall folgen. Beschrieben sind protektive Effekte in Modellen von Ischämie/Reperfusion, direktzellschädigenden Agenzien und auch gegenüber hochdosierter LPS-Gabe. In letztgenanntem Fall wird der gezeigte Effekt als LPS-Toleranz bezeichnet. In der vorliegenden Arbeit sollte nun untersucht werden, ob niedrige Dosen von LPS einen protektiven Effekt bei einem folgenden LPS-Schock vermitteln können, wobei insbesondere Effekte auf die Leber, mit ihrer herausragenden Rolle in der Elimination von LPS aus dem Organismus, im Fokus der Experimente standen. Des Weiteren sollte eine mögliche Rolle der Häm-Oxygenase 1 (HO-1) im Zuge dieser Protektion untersucht werden, da verschiedene Arbeiten der letzten Jahre gezeigt haben, dass HO-1 in der Lage ist eine Protektion gegen verschiedene Arten der Zellschädigung zu vermitteln. Für die Untersuchungen wurde ein Tiermodell an der Ratte gewählt. Als wesentliche Ergebnisse sind festzuhalten, dass die Gabe von 1 mg / kg KG LPS (intraperitoneal) 24h vor Auslösen eines LPS-Schocks mit 6 mg / kg KG (intravenös) zu einer signifikanten Verbesserung der Kreislaufparameter und zu einer Verringerung der Leberzellschäden führt, gemessen am mittleren arteriellen Blutdruck bzw. an GOT und GPT im Serum der Tiere. Außerdem zeigt sich, dass die Gabe von niedrig dosiertem LPS zu einem Anstieg der HO-1 Konzentration der Leber im 24h Zeitverlauf führt und dass in den Lebern der Tiere, die eine Protektion durch LPS-Vorbehandlung erfahren haben, die HO-1 Menge signifikant gegenüber den nicht vorbehandelten Tieren erhöht ist. Dieses Ergebnis legt nahe, dass die HO-1 eine wichtige Rolle in der Leberprotektion im Rahmen der LPS-Toleranz durch Vorbehandlung mit niedrig dosiertem LPS spielt. Das in dieser Arbeit verwendete Modell des LPS-Schocks stimmt dabei in vielen Bereichen mit den pathophysiologischen Veränderungen während einer gramnegativen Sepsis überein. Die Ergebnisse dieser Arbeit im Einklang mit den Untersuchungen anderer Arbeitsgruppen zeigen also, dass durch eine gezielte Modulation der Immunantwort, z.B. über eine Induktion der HO-1 Produktion, eine Protektion des Organismus gegen einen im Intervall folgenden septischen Schock möglich sein könnte. Eine zeitlich abgestimmte und gezielte Modulation der inflammatorischen Prozesse bei Hochrisikopatienten, z.B. vor geplanten großen operativen Eingriffen oder Organtransplantationen, könnte daher in Zukunft helfen das Überleben dieser Patienten zu verbessern.
Einleitung: Schnell und gut durchgeführte BLS-Maßnahmen (Basic Life Support-Maßnahmen) können die Überlebensrate von Patient*innen mit einem Herzkreislaufstillstand enorm verbessern. Jedoch zeigen sich nicht nur bei medizinischen Laien, sondern bereits bei Medizinstudierenden deutliche Kompetenzdefizite. Die Studierenden selbst messen den Reanimationsfertigkeiten eine hohe Bedeutung bei.
Studierenden bietet das Internet insbesondere bei der rasanten technischen Entwicklung mit mittlerweile fast ubiquitärer Nutzbarkeit über Smartphones und Tablets eine einfache Möglichkeit, Lerninhalte zu vertiefen. Sie nutzen dafür Google, YouTube, Wikipedia und andere Internetquellen. Da es für die meisten Inhalte dieser Opensource-Plattformen keine Qualitätskontrolle gibt, ist die Gefahr groß, dass Studierende durch das Lernen mit Videos auf öffentlichen Plattformen auch Fehler und falsche Abläufe lernen.
Daher wäre eine Liste mit Empfehlungen der Lehrvideos zum Thema Reanimation, die den AHA-Guidelines (American Heart Association) entsprechen, wünschenswert. In der vorliegenden Arbeit wurde eine inhaltliche Checkliste entwickelt und zusammen mit einer didaktischen Checkliste zur Bewertung solcher Videos angewendet.
Material und Methoden: Im ersten Schritt des mehrstufigen Studiendesigns erfolgte die Entwicklung der inhaltlichen Checkliste. Die inhaltliche Checkliste wurde basierend auf den AHA-Richtlinien 2015 und des Updates 2017 erstellt. Sie wurde in einem 3-stufigen interdisziplinären Überarbeitungsprozess im Hinblick auf Anwendbarkeit und Verständlichkeit optimiert. Zur Bewertung der didaktischen Qualität der Videos wurde eine validierte Didaktik-Checkliste für medizinische Lehrvideos zugrunde gelegt. Insgesamt wurden 74 Videos der Plattform YouTube von jeweils zwei Reviewern anhand der beiden Checklisten bewertet.
Ergebnisse: Die resultierende Checkliste umfasst 25 Items in den Gruppen Initiale Maßnahmen, Thoraxkompression, AED und Beatmung. Die Bewertung erfolgt anhand einer 3-stufigen Likert-Skala, zusätzlich gibt es die Option Items auszuschließen, falls das Item in dem Kontext des Videos nicht zutrifft oder die Maßnahme bereits erfolgt ist. Die beiden Reviewer stimmten durchschnittlich in 65,06 ±12,56% der Items überein. Kein Video erreichte die vollständige Punktzahl der inhaltlichen oder didaktischen Checkliste. Durchschnittlich erreichten die Videos in der inhaltlichen Checkliste 56,21 ±19,18% und in der Didaktikcheckliste 66,61 ±14,32%. Es konnte kein Zusammenhang zwischen der Anzahl der Aufrufe und dem jeweiligen Score der Videos oder dem Rang der Videos und deren Score festgestellt werden. Die Videos von medizinischen und staatlichen Institutionen schnitten zwar durchschnittlich besser ab, jedoch gab es auch in dieser Untergruppe Videos mit niedrigen Scores.
Schlussfolgerung: Die auf YouTube zur Verfügung gestellten Videos zu Reanimationsmaßnahmen sind häufig von schlechter inhaltlicher Qualität. Trotzdem spielen diese Videos bereits jetzt eine wichtige Rolle im Erlernen der Reanimationsmaßnahmen und werden sowohl von Laien als auch von medizinischem Personal und Medizinstudierenden genutzt. Für die Zukunft wäre daher ein Qualitätssiegel bzw. eine Liste der empfehlenswerten Videos sinnvoll. Da keins der untersuchten Videos uneingeschränkt empfehlenswert ist, anhand der beiden erprobten Checklisten sorgsam neue Videos zu dem Thema zu erstellen.
BACKGROUND AND STUDY AIMS: Capnography enables the measurement of end-tidal CO2 and thereby the early detection of apnea, prompting immediate intervention to restore ventilation. Studies have shown that capnographic monitoring is associated with a reduction of hypoxemia during sedation for endoscopy and early detection of apnea during sedation for colonoscopy. The primary aim of this prospective randomized study was to evaluate whether capnographic monitoring without tracheal intubation reduces hypoxemia during propofol-based sedation in patients undergoing colonoscopy.
PATIENTS AND METHODS: A total of 533 patients presenting for colonoscopy at two study sites were randomized to either standard monitoring (n = 266) or to standard monitoring with capnography (n = 267). The incidence of hypoxemia (SO2 < 90 %) and severe hypoxemia (SO2 < 85 %) were compared between the groups. Furthermore, risk factors for hypoxemia were evaluated, and sedation performed by anesthesiologists was compared with nurse-administered propofol sedation (NAPS) or endoscopist-directed sedation (EDS).
RESULTS: The incidence of hypoxemia was significantly lower in patients with capnography monitoring compared with those receiving standard monitoring (18 % vs. 32 %; P = 0.00091). Independent risk factors for hypoxemia were age (P = 0.00015), high body mass index (P = 0.0044), history of sleep apnea (P = 0.025), standard monitoring group (P = 0.000069), total dose of propofol (P = 0.031), and dose of ketamine (P < 0.000001). Patients receiving anesthesiologist-administered sedation developed hypoxemic events more often than those receiving NAPS or EDS. In patients with anesthesiologist-administered sedation, sedation was deeper, a combination of sedative medication (propofol, midazolam and/or ketamine) was administered significantly more often, and sedative doses were significantly higher compared with patients receiving NAPS or EDS.
CONCLUSIONS: In patients undergoing colonoscopy during propofol-based sedation capnography monitoring with a simple and inexpensive device reduced the incidence of hypoxemia.
Nachdem die Sicherheit der Blutprodukte in den letzten Jahrzehnten vor allem bei transfusionsmedizinisch relevanten Viren wie HIV-1, HCV und HBV wesentlich durch die Einführung von molekularen Nachweismethoden auf Restrisiken unter 1 zu 1 Million reduziert werden konnte, liegt der aktuelle Fokus der Transfusionsmedizin auf der Vermeidung von bakteriellen Übertragungen. Dabei stehen vor allem die Thrombozytenkonzentrate im Vordergrund, da diese bei Raumtemperatur gelagert werden und somit für viele Bakterien ideale Wachstumsbedingungen darstellen. Die vorliegende Arbeit hat dabei in vier aufeinander aufbauenden Phasen systematisch die klinische Effizienz eines photochemischen Pathogeninaktivierungsverfahrens untersucht.
Phase 1: Darstellung des Wachstumsverhaltens von 8 transfusionsmedizinisch relevanten Keimen mittels der Spiking-Versuche in Thrombozytenkonzentraten. Für die nachfolgenden Phasen sind nur die Bakterienstämme ausgewählt worden, die nachweislich zu einer Vermehrung in Thrombozytenkonzentraten geeignet sind.
Phase 2: In den Experimenten mit Vollblutkonzentraten zeigt sich bei der Spikingkonzentration von 100 CFU/Beutel für alle ausgewählten Keime eine 100%ige Inaktivierungseffizienz. Bei der Anfangskonzentration von 1000 CFU/Beutel ergibt sich für den Keim Klebsiella pneumoniae (PEI-B-08-09) eine Inaktivierungseffizienz von 75% und für den Keim Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime haben in den Experimenten mit der höheren Spikingkonzentration eine Inaktivierungseffizienz von 100%.
Phase 3: Für den Keim Klebsiella pneumoniae (PEI-B-08-09) zeigt sich in den Experimenten mit Pool-TKs schon bei der niedrigen Anfangskonzentration eine Inaktivierungseffizienz von 75%. Bei der Spikingkonzentration von 1000 CFU/Beutel ergibt sich erneut für die Keime Klebsiella pneumoniae und Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime weisen sowohl bei der niedrigen als auch bei der hohen Bakterienkonzentration eine 100%ige Pathogeninaktivierungseffizienz auf.
Phase 4: In den Experimenten mit Apherese-TKs zeigt sich für alle untersuchten Keime sowohl bei der niedrigen als auch bei der hohen Spikingkonzentration eine 100%ige Inaktivierungseffizienz.
Aus diesen Experimenten geht hervor, dass man mittels photochemischen Pathogeninaktivierungsverfahrens keine 100%ige Inaktivierungseffizienz erreichen kann. Vielmehr ist die Inaktivierungseffizienz zum einen von der bakteriellen Ausgangskonzentration, zum anderen aber auch vom Zeitpunkt der Anwendung des Verfahrens abhängig. Somit sollte der Begriff „ Pathogeninaktivierungsverfahren“ besser durch den Begriff des Pathogenreduktionsverfahrens ersetzt werden. Ferner wird anhand der Ergebnisse deutlich, dass die Anwendung von Pathogenreduktionsverfahren möglichst schnell nach der Spende erfolgen sollte. In diesem Zusammenhang haben Apherese-Thrombozytenkonzentrate gegenüber Pool-Thrombozytenkonzentraten einen Sicherheitsvorteil.
Langzeitbeobachtung der Therapie von Hämophilie A-Patienten mit einem humanen Faktor VIII-Konzentrat
(2019)
This doctoral thesis entitled “Long-term surveillance of the therapy of haemophilia A patients with a human plasma-derived factor VIII concentrate” was performed to assess the influence of the chronic long-term therapy with a human plasma-derived factor VIII concentrate in daily clinical practice on the health of haemophilia A patients.
Haemophilia A is a chronic disease, caused by a congenital deficiency of coagulation factor VIII, which requires life-long haemostatic treatment. The severity of bleedings, as the main clinical feature of haemophilia A, is generally correlated with the residual activity of coagulation factor VIII.
Until recently, factor VIII preparations, used to replace the deficient factor VIII, were the only treatment option for haemophilia A. Development of inhibitory antibodies against factor VIII is the most serious complication associated with the use of factor VIII products, rendering the administered factor VIII ineffective.
To date, all novel treatments still rely on some factor VIII replacement therapy. At least in the near future and probably for longer, (concomitant) therapy with factor VIII concentrates will continue to be necessary for treatment of haemophilia A, emphasising the continuous need for efficacy and safety data in terms of pharmacovigilance on factor VIII replacement therapy.
Medicines to treat haemophilia A, are authorised for use, when evidence of its efficacy and safety is limited to data of a small number of investigated patients during short-term observation periods of about six months, and thus have not been systematically assessed in all patient groups until marketing authorisation. Long-term efficacy and safety data from post-marketing surveillance are important to prove that a chronic treatment is efficacious and safe in the real-life setting by monitoring “real-life” patients of all age groups, rather than a carefully selected patient population. Medical and scientific analyses of such long-term data are crucial to detect, understand, and potentially prevent the harm resulting from (new) adverse drug reactions, including those, which only rarely occur and therefore are difficult to detect.
Therefore, data from two prospective surveillance studies investigating real-life therapies with the same human plasma derived factor VIII concentrate were combined and analysed retrospectively. It was hypothesised that the chronic long term therapy with a human plasma-derived factor VIII concentrate in daily clinical practice is effective, safe, and well tolerated with no unexpected adverse effect on the health of haemophilia A patients. It was the aim of this analysis to investigate the influence of the chronic long-term treatment with the factor VIII concentrate on the health of patients with severe as well as nonsevere haemophilia A including all age groups in a real-life setting. In addition, the influence of prophylactic factor VIII treatment or the switch to this regimen on the annual bleeding rate of all haemophilia A patients, and the long-term effects of this regimen on the patients’ annual bleeding rates were investigated.
Starting in 1998 until 2015, data of 1418 patient-years from 198 haemophilia A patients representing all age groups and haemophilia A severities were analysed. This study covered 18 years of documentation time with a mean observation period of more than seven years per patient. It is the longest study of a single factor VIII concentrate conducted so far, investigating the therapy of haemophilia A. The only observed side effects involved low incident factor VIII inhibitor formation in patients at risk (13 % of previously untreated patients, compared with usually about 30 %). Factor VIII inhibitor development was mainly transient, with low titers, and without clinical relevance. Any, even low frequent prophylaxis was found to be significantly better than on demand and had the greatest effect on the annual bleeding rate of patients, irrespective of their age or haemophilia A severity. Patients suffered during continuous prophylaxis from a very low bleeding rate (median 1.3 compared with 31.4 under on demand), down to no bleeding per year. Patients whose regimen changed to continuous prophylaxis benefitted most (median annual bleeding rate 1.1), irrespective of age or haemophilia A severity.
This analysis demonstrates that the chronic long-term therapy with the plasma-derived factor VIII concentrate in daily clinical practice is effective, safe, and well tolerated. Thus, data on efficacy and safety obtained during chronic long-term therapy with the human plasma-derived factor VIII concentrate reaffirm that there is no unexpected adverse effect on the health of haemophilia A patients.
These results support the therapeutic concept of a life-long prophylaxis of haemophilia A patients with a human plasma-derived factor VIII concentrate.