Refine
Year of publication
Document Type
- Doctoral Thesis (18)
Has Fulltext
- yes (18)
Is part of the Bibliography
- no (18)
Keywords
- CIRS (1)
- Endoskopie (1)
- Endotoxin (1)
- Heme-Oxygenase 1 (1)
- Häm-Oxygenase 1 (1)
- Kapnographie (1)
- Leber (1)
- NAPS (1)
- Präkonditionierung (1)
- Reanimation (1)
Institute
- Medizin (18)
BACKGROUND AND STUDY AIMS: Capnography enables the measurement of end-tidal CO2 and thereby the early detection of apnea, prompting immediate intervention to restore ventilation. Studies have shown that capnographic monitoring is associated with a reduction of hypoxemia during sedation for endoscopy and early detection of apnea during sedation for colonoscopy. The primary aim of this prospective randomized study was to evaluate whether capnographic monitoring without tracheal intubation reduces hypoxemia during propofol-based sedation in patients undergoing colonoscopy.
PATIENTS AND METHODS: A total of 533 patients presenting for colonoscopy at two study sites were randomized to either standard monitoring (n = 266) or to standard monitoring with capnography (n = 267). The incidence of hypoxemia (SO2 < 90 %) and severe hypoxemia (SO2 < 85 %) were compared between the groups. Furthermore, risk factors for hypoxemia were evaluated, and sedation performed by anesthesiologists was compared with nurse-administered propofol sedation (NAPS) or endoscopist-directed sedation (EDS).
RESULTS: The incidence of hypoxemia was significantly lower in patients with capnography monitoring compared with those receiving standard monitoring (18 % vs. 32 %; P = 0.00091). Independent risk factors for hypoxemia were age (P = 0.00015), high body mass index (P = 0.0044), history of sleep apnea (P = 0.025), standard monitoring group (P = 0.000069), total dose of propofol (P = 0.031), and dose of ketamine (P < 0.000001). Patients receiving anesthesiologist-administered sedation developed hypoxemic events more often than those receiving NAPS or EDS. In patients with anesthesiologist-administered sedation, sedation was deeper, a combination of sedative medication (propofol, midazolam and/or ketamine) was administered significantly more often, and sedative doses were significantly higher compared with patients receiving NAPS or EDS.
CONCLUSIONS: In patients undergoing colonoscopy during propofol-based sedation capnography monitoring with a simple and inexpensive device reduced the incidence of hypoxemia.
In der vorliegenden Dissertation wurde untersucht, ob die endotracheale Intubation (ETI) der alternativen Atemwegssicherung mittels Larynxtubus (LT) bezüglich der Überlebenswahrscheinlichkeit bei außerklinisch reanimierten Patienten überlegen ist.
Das retrospektiv erfasste Kollektiv dieser monozentrischen Studie umfasst 222 Patienten, die in den Jahren 2006 bis 2014 nach nicht-traumatischem Herz-Kreislauf-Stillstand außerhalb der Klinik (engl.: Out-of-hospital cardiac arrest, OHCA) präklinisch primär mit Endotrachealtubus (ET) oder LT versorgt und anschließend auf die internistische Intensivstation des Universitätsklinikums Frankfurt am Main aufgenommen wurden. Endpunkte der Studie waren die innerklinische Gesamtmortalität während des Krankenhausaufenthaltes sowie die Überlebensrate nach 24 Stunden.
In die Analyse wurden 208 Patienten einbezogen, von denen präklinisch 48 Patienten mit LT (23 %) und 160 Patienten mit ET (77 %) intubiert wurden. Die innerklinische Sterblichkeitsrate lag insgesamt bei 85 % (n=176); darunter 23 % LT- und 77 % ET-versorgte Patienten. Zwischen den beiden Methoden zur Atemwegssicherung zeigten sich sowohl in einer univariaten Analyse (Hazard ratio [HR]=0,98; 95 % Konfidenzintervall [K.I.] 0,69-1,39; p=0,92) als auch in einer multivariaten Cox-Regressionsmodell (adjustierte HR=1,01; 95 % K.I. 0,76-1,56; p=0,62) keine Unterschiede. Die ersten 24 Stunden nach OHCA überlebten 38 % aller Patienten; auch hier unterschieden sich die beiden Patientenkollektive nicht signifikant voneinander (univariate HR=1,04; 95 % K.I. 0,71-1,52; p=0,83).
Ferner veranschaulichte eine Propensity-Score-Matching-Analyse (PSM) mit einer Subgruppe von 120 Patienten, zusammengestellt in einem 3:1 Verhältnis (ET:LT), sowohl mit Blick auf die Überlebensrate bis zur Krankenhausentlassung (Propensity-adjustierte HR=0,99; 95 % K.I. 0,65-1,51; p=0,97) als auch auf die Mortalität in den ersten 24 Stunden (Propensity-adjustierte HR=1,04; 95 % K.I. 0,44-2,36; p=0,96) vergleichbare Ergebnisse beim Atemwegsmanagement mit LT bzw. ET.
Die frühe Durchführung einer Herzkatheteruntersuchung (HR=0,47; 95 % K.I. 0,28-0,77; p=0,003) sowie der frühe Beginn einer systemischen empirischen antibiotischen Therapie (HR=0,28; 95% K.I. 0,17-0,45; p<0,001) konnten überdies als signifikant positive Prädiktoren für das Überleben in einer angepassten Cox-Regressionsanalyse herausgearbeitet werden.
Im Gesamten konnte somit demonstriert werden, dass die initiale präklinische Anwendung des LT nach OHCA der ETI hinsichtlich der Überlebenswahrscheinlichkeit nicht untergeordnet ist. Neuester Literatur zufolge ist sie womöglich sogar überlegen. Dies gilt es in weiteren Studien zu bestätigen.
Einleitung: Schnell und gut durchgeführte BLS-Maßnahmen (Basic Life Support-Maßnahmen) können die Überlebensrate von Patient*innen mit einem Herzkreislaufstillstand enorm verbessern. Jedoch zeigen sich nicht nur bei medizinischen Laien, sondern bereits bei Medizinstudierenden deutliche Kompetenzdefizite. Die Studierenden selbst messen den Reanimationsfertigkeiten eine hohe Bedeutung bei.
Studierenden bietet das Internet insbesondere bei der rasanten technischen Entwicklung mit mittlerweile fast ubiquitärer Nutzbarkeit über Smartphones und Tablets eine einfache Möglichkeit, Lerninhalte zu vertiefen. Sie nutzen dafür Google, YouTube, Wikipedia und andere Internetquellen. Da es für die meisten Inhalte dieser Opensource-Plattformen keine Qualitätskontrolle gibt, ist die Gefahr groß, dass Studierende durch das Lernen mit Videos auf öffentlichen Plattformen auch Fehler und falsche Abläufe lernen.
Daher wäre eine Liste mit Empfehlungen der Lehrvideos zum Thema Reanimation, die den AHA-Guidelines (American Heart Association) entsprechen, wünschenswert. In der vorliegenden Arbeit wurde eine inhaltliche Checkliste entwickelt und zusammen mit einer didaktischen Checkliste zur Bewertung solcher Videos angewendet.
Material und Methoden: Im ersten Schritt des mehrstufigen Studiendesigns erfolgte die Entwicklung der inhaltlichen Checkliste. Die inhaltliche Checkliste wurde basierend auf den AHA-Richtlinien 2015 und des Updates 2017 erstellt. Sie wurde in einem 3-stufigen interdisziplinären Überarbeitungsprozess im Hinblick auf Anwendbarkeit und Verständlichkeit optimiert. Zur Bewertung der didaktischen Qualität der Videos wurde eine validierte Didaktik-Checkliste für medizinische Lehrvideos zugrunde gelegt. Insgesamt wurden 74 Videos der Plattform YouTube von jeweils zwei Reviewern anhand der beiden Checklisten bewertet.
Ergebnisse: Die resultierende Checkliste umfasst 25 Items in den Gruppen Initiale Maßnahmen, Thoraxkompression, AED und Beatmung. Die Bewertung erfolgt anhand einer 3-stufigen Likert-Skala, zusätzlich gibt es die Option Items auszuschließen, falls das Item in dem Kontext des Videos nicht zutrifft oder die Maßnahme bereits erfolgt ist. Die beiden Reviewer stimmten durchschnittlich in 65,06 ±12,56% der Items überein. Kein Video erreichte die vollständige Punktzahl der inhaltlichen oder didaktischen Checkliste. Durchschnittlich erreichten die Videos in der inhaltlichen Checkliste 56,21 ±19,18% und in der Didaktikcheckliste 66,61 ±14,32%. Es konnte kein Zusammenhang zwischen der Anzahl der Aufrufe und dem jeweiligen Score der Videos oder dem Rang der Videos und deren Score festgestellt werden. Die Videos von medizinischen und staatlichen Institutionen schnitten zwar durchschnittlich besser ab, jedoch gab es auch in dieser Untergruppe Videos mit niedrigen Scores.
Schlussfolgerung: Die auf YouTube zur Verfügung gestellten Videos zu Reanimationsmaßnahmen sind häufig von schlechter inhaltlicher Qualität. Trotzdem spielen diese Videos bereits jetzt eine wichtige Rolle im Erlernen der Reanimationsmaßnahmen und werden sowohl von Laien als auch von medizinischem Personal und Medizinstudierenden genutzt. Für die Zukunft wäre daher ein Qualitätssiegel bzw. eine Liste der empfehlenswerten Videos sinnvoll. Da keins der untersuchten Videos uneingeschränkt empfehlenswert ist, anhand der beiden erprobten Checklisten sorgsam neue Videos zu dem Thema zu erstellen.
Atherosclerosis is accompanied by infiltration of macrophages to the intima of blood vessels. There they engulf oxLDL (oxidized low-density lipoproteins) and differentiate to foam cells. These cells are known as major promoters of atherosclerosis progression. In initial experiments I could demonstrate that foam cell formation caused a severe loss in the ability to produce IFNA (interferon A) in response to stimulation with the bacterial cell wall component LPS (lipopolysaccharide). Since IFNA is discussed to have anti-atherosclerotic potential and has the capability to induce immune tolerance, its inhibition in foam cells might promote the atherosclerotic process. For this reason the aim of my PhD project was to clarify the underlying molecular mechanisms that attenuate LPS-induced IFNA expression in foam cells. LPS activates TLR4 (Toll-like receptor 4) in macrophages. Downstream this receptor two distinct signaling pathways are activated, namely a MyD88 (myeloid differentiation primary response gene 88)-dependent and a TRIF (TIR-domain-containing adapter-inducing IFNA)-dependent one. Foam cell formation targeted the TRIF-dependent TLR4 signaling pathway, as seen by loss of IRF3 activation and IFNA expression inhibition, whereas MyD88-initiated NFBB (nuclear factor 'B-light-chain-enhancer' of activated B-cells) activation and subsequent TNF@ (tumor necrosis factor @) expression remained unaltered. The TRIF signaling cascade results in transactivation of the transcription factor IRF3 (interferon regulatory factor 3), the main activator of IFNA expression. This event demands IRF3 phosphorylation by TBK1 (TANK-binding kinase 1), whereas TBK1 needs to be recruited to TRAF3 (TNF receptor associated factor 3) by the scaffold protein TANK (TRAF family member-associated NFBB activator) for its activation. This work allowed to propose the following scheme: OxLDL utilizes SR-A1 (scavenger receptor A1) to activate IRAK4 (interleukin-1 receptor-associated kinase 4), IRAK1 and Pellino3. Active IRAK1 and Pellino3 associate with TRAF3 and Pellino3 promotes mono-ubiquitination of the adaptor molecule TANK. Mono-ubiquitination of TANK interrupts TBK1 recruitment to TRAF3 and thereby abrogates phosphorylation and transactivation of IRF3 as well as subsequent expression of IFNA. In this study I provide evidence for a negative regulatory role of Pellino3 for TRIF-dependent TLR4 signaling. This expands the current knowledge of the interplay between pathways downstream scavenger and Toll-like receptors. Due to the multifaceted roles of TLR4 signaling in pathology, the new TRIF-signaling inhibitor Pellino3 might be of importance as therapeutical target for disease intervention.
Sepsis is caused by infection and often followed by an overwhelming inflammatory response. This can lead to shock, organ failure and even death. Each year approximately 60,000 people die in Germany due to sepsis. There is good evidence that sepsis is associated with failure of the hypothalamic-pituitary-adrenal-axis. In patients with sepsis, glucocorticoids (e.g. corticosterone, cortisol) released from adrenal glands play an essential role in preventing an excessive pro-inflammatory response. Adrenal insufficiency occurs in a large number of patients with septic shock and is associated with an increased mortality. In the innate immune system, Toll-like receptors (TLRs) play a crucial role in its onset by recognizing pathogenassociated molecules. It is well known that there are interactions between the immune and endocrine stress systems; glucocorticoids and TLRs regulate each other in a bi-directional way. Therefore, a coordinated response of the adrenal and immune system is of vital importance for survival during severe inflammation. This experimental study focuses on the role of TLR-2, TLR-4 and TLR-9 during adrenal stress. The results show that in mice, the absence of TLR-2 and TLR-4, but not TLR-9 leads to altered adrenal morphology, relating to size and cellular structure. However, this alteration does not appear to compromise the phenotype of TLR knock-out mice. Mice deficient of TLR-2, 4 and 9 are not able to respond adequately to inflammatory stress induced by their potential ligands lipopolysaccharide (LPS), lipoteichoic acid (LTA) or cytidine phosphate guanosine-oligodeoxynucleotides (CpG-ODN). This impaired adrenal stress response appears to be associated with a decrease in systemic and intra-adrenal cytokine expressions. Taken together, these results suggest that TLR-2, 4 and 9 are key players in the immuno-endocrine response during inflammation and SIRS. In conclusion, TLRs play a crucial role in the immune-adrenal crosstalk. This close functional relationship needs to be considered in the treatment of inflammatory diseases where an intact adrenal stress response is required. Furthermore, TLR polymorphisms could contribute to the underlying mechanisms of impaired adrenal stress response in patients with bacterial sepsis
The role of peroxisome proliferator-activated receptor gamma during sepsis-induced lymphopenia
(2011)
Sepsis is one of the most common diseases on intensive care units all over the world and accounts there for the highest mortality rate. One of the hallmarks of sepsis is an accelerated T-cell apoptosis, resulting in a compromised immune state with the inability to eradicate pathogens. This promotes organ damage or even organ failure. A multiple organ dysfunction evolves, which often ends up in septic shock and death. Recently, it was shown that severe T-cell depletion correlates with sepsis mortality. When inhibiting T-cell apoptosis, an increased mouse survival was observed in experimental sepsis. ...
Nachdem die Sicherheit der Blutprodukte in den letzten Jahrzehnten vor allem bei transfusionsmedizinisch relevanten Viren wie HIV-1, HCV und HBV wesentlich durch die Einführung von molekularen Nachweismethoden auf Restrisiken unter 1 zu 1 Million reduziert werden konnte, liegt der aktuelle Fokus der Transfusionsmedizin auf der Vermeidung von bakteriellen Übertragungen. Dabei stehen vor allem die Thrombozytenkonzentrate im Vordergrund, da diese bei Raumtemperatur gelagert werden und somit für viele Bakterien ideale Wachstumsbedingungen darstellen. Die vorliegende Arbeit hat dabei in vier aufeinander aufbauenden Phasen systematisch die klinische Effizienz eines photochemischen Pathogeninaktivierungsverfahrens untersucht.
Phase 1: Darstellung des Wachstumsverhaltens von 8 transfusionsmedizinisch relevanten Keimen mittels der Spiking-Versuche in Thrombozytenkonzentraten. Für die nachfolgenden Phasen sind nur die Bakterienstämme ausgewählt worden, die nachweislich zu einer Vermehrung in Thrombozytenkonzentraten geeignet sind.
Phase 2: In den Experimenten mit Vollblutkonzentraten zeigt sich bei der Spikingkonzentration von 100 CFU/Beutel für alle ausgewählten Keime eine 100%ige Inaktivierungseffizienz. Bei der Anfangskonzentration von 1000 CFU/Beutel ergibt sich für den Keim Klebsiella pneumoniae (PEI-B-08-09) eine Inaktivierungseffizienz von 75% und für den Keim Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime haben in den Experimenten mit der höheren Spikingkonzentration eine Inaktivierungseffizienz von 100%.
Phase 3: Für den Keim Klebsiella pneumoniae (PEI-B-08-09) zeigt sich in den Experimenten mit Pool-TKs schon bei der niedrigen Anfangskonzentration eine Inaktivierungseffizienz von 75%. Bei der Spikingkonzentration von 1000 CFU/Beutel ergibt sich erneut für die Keime Klebsiella pneumoniae und Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime weisen sowohl bei der niedrigen als auch bei der hohen Bakterienkonzentration eine 100%ige Pathogeninaktivierungseffizienz auf.
Phase 4: In den Experimenten mit Apherese-TKs zeigt sich für alle untersuchten Keime sowohl bei der niedrigen als auch bei der hohen Spikingkonzentration eine 100%ige Inaktivierungseffizienz.
Aus diesen Experimenten geht hervor, dass man mittels photochemischen Pathogeninaktivierungsverfahrens keine 100%ige Inaktivierungseffizienz erreichen kann. Vielmehr ist die Inaktivierungseffizienz zum einen von der bakteriellen Ausgangskonzentration, zum anderen aber auch vom Zeitpunkt der Anwendung des Verfahrens abhängig. Somit sollte der Begriff „ Pathogeninaktivierungsverfahren“ besser durch den Begriff des Pathogenreduktionsverfahrens ersetzt werden. Ferner wird anhand der Ergebnisse deutlich, dass die Anwendung von Pathogenreduktionsverfahren möglichst schnell nach der Spende erfolgen sollte. In diesem Zusammenhang haben Apherese-Thrombozytenkonzentrate gegenüber Pool-Thrombozytenkonzentraten einen Sicherheitsvorteil.
Die Präkonditionierung mit den bakteriellen Zellwandbestandteilen Lipopolysaccharid (LPS) oder Lipoteichonsäure (LTA) führt in vivo zu einer Reduktion der myokardialen Infarktgröße nach Ischämie und Reperfusion (I/R). Hierbei wird durch die Präkonditionierung u.a. die Akkumulation neutrophiler Granulozyten im Ischämiegebiet während der Reperfusionsphase reduziert und somit einer der wichtigsten Mechanismen bei der Entstehung des Reperfusionsschadens am Herzen vermindert. In dieser Studie bedienten wir uns eines ex vivo Modells nach Langendorff mit regionaler I/R und zellfreier Perfusion. Wir konnten erstmalig eine LTA-Präkonditionierung in einem leukozytenfreien System zeigen und somit demonstrieren, dass die LTA-Präkonditionierung Mechanismen involviert, die unabhängig sind von einer Akkumulation neutrophiler Granulozyten. 24 Stunden nach einer Vorbehandlung der Ratten mit LPS, LTA, Kochsalz und/oder Dexamethason wurden die Herzen entfernt und retrograd mit oxygenierter Krebs-Henseleit-Lösung perfundiert. Die Herzen wurden einer 20-minütigen Ischämie, gefolgt von einer 2-stündigen Reperfusionsphase, unterzogen. Das Infarktrisikogebiet (Evans-Blue-Färbung) und das Infarktgebiet (pNBT-Färbung) wurden planimetrisch bestimmt. Die ischämische Präkonditionierung (IPC) wurde als Positivkontrolle unseres Modells verwendet. LTA- und LPS-Präkonditionierung führten - ebenso wie IPC - bei gleicher Dosierung in vergleichbarem Umfang zu einer signifikanten Reduktion der Infarktgröße. Dieser Effekt konnte durch Vorbehandlung mit Dexamethason vollständig aufgehoben werden, so dass gefolgert werden kann, dass die Protektion durch LPS bzw. LTA. von der Modulation der inflammatorischen Vorgänge im Endothel und Myokard mit abhängt.
Diese Arbeit beschäftigt sich mit der Frage, ob Schmerzschwellen für unterschiedliche Stimuli voneinander unabhängige Aspekte des Schmerzes oder ein gemeinsames Phänomen messen. In ersterem Fall würden unterschiedliche Reize benötigt, um die Schmerzempfindlichkeit eines Individuums vollständig zu charakterisieren. In letzterem Fall wären verschiedene Reize hierzu überflüssig, wobei sie allerdings dafür verwendet werden könnten, Summen-Scores aus den verschiedenen Schmerzmodalitäten zu errechnen. Für diese Arbeit wurden bei 45 gesunden Männern und 32 gesunden Frauen (im Alter von 20-44 Jahren) Schmerzschwellen für mehrere Reize (Wärme, Wärme / Capsaicin, Kälte, Kälte / Menthol, stumpfer Druck, 5-Hz Wechselstrom (0-20 mA), spitzer Druck (von Frey-Haare), und von Frey-Haare / Capsaicin) gemessen. Diese Schmerzschwellen waren signifikant miteinander korreliert. Eine daraufhin durchgeführte Hauptkomponentenanalyse ergab, dass die Varianz der Schmerzschwellen mehr auf die Unterschiede zwischen den Subjekten zurückzuführen ist (variance estimate: 0,393), als auf die Unterschiede der Schmerzreize bei jeweils einem Subjekt (variance estimate: -0,008). Unter den drei wichtigsten Hauptkomponenten der Korrelationsmatrix mit Eigenwerten > 1, erklärte die größte 48% der Varianz der Schmerzschwellen, wobei sie starke Ladungen von allen Schmerzreizen erhielt, was für eine starke gemeinsame Varianzquelle spricht. Nur zwei kleinere Hauptkomponenten, die jeweils weniger als 14% der gesamten Varianz erklären, deuten auf eine weitere Differenzierung der Schmerzarten hin. Das Muster von Ähnlichkeiten und Unterschieden innerhalb dieser Komponenten stimmt jedoch mit bereits bekannten molekularen Mechanismen der Nozizeption überein. Dies führt zu dem Schluss, dass die Charakterisierung einer Person als allgemein schmerzempfindlich oder schmerzunempfindlich, zumindest auf Schmerzschwellen-Ebene, gerechtfertigt erscheint. Außerdem befasst sich diese Arbeit mit der Frage, ob Sensibilisierungsverfahren, wie sie in der experimentellen Schmerzforschung zum Einsatz kommen, zusätzliche qualitative Komponenten bei der Schmerzmessung hinzufügen, sodass eine andere Art von Schmerz entsteht, oder ob die Sensibilisierung sich auf quantitative Veränderungen beschränkt, die sich ausschließlich in einer höheren Intensität der gleichen Schmerzart äußert. Hierfür wurde das Probandenkollektiv vergrößert (insgesamt 69 Männer und 56 Frauen im Alter von 18 bis 46 Jahren), indem die o. g. Schmerzmessungen bei weiteren Testpersonen durchgeführt wurden. Für die nachfolgende Analyse wurden nur Daten von den Schmerzmodellen Hitze, Kälte und von Frey-Haare, jeweils mit und ohne Capsaicin- bzw. Menthol-Sensibilisierung verwendet. Die Ergebnisse zeigen, dass die Sensibilisierung den Anteil derjenigen Werte in den Daten verringert, an denen die Schmerzschwelle das technische Limit des Modellversuchs von 52,5°C bzw. 0°C bzw. 300 g von Frey, erreicht. Die Anzahl der Probanden, die diese Werte erreichten, wurde von 38 auf 21 Patienten beim von Frey-Haar-Versuch und von 30 auf 19 Patienten mit Kälte-Versuch (χ exp 2 -Tests: P < 0,001) verringert, während die Schmerzschwellen beim Hitze-Versuch nie das technische Maximum erreichten. Bei den 75 Patienten ohne Werte am technischen Limit senkte die Capsaicin-Sensibilisierung die Hitze-Schmerzschwelle von 44,7 ± 2,1°C auf 36,8 ± 3,3°C und die von Frey-Schmerzschwelle von 78,2 ± 74g auf 33,9 ± 37,8g. Die Menthol-Sensibilisierung senkte die Kälte-Schmerzschwelle von 13 ± 8,4°C auf 19,3 ± 9,2°C (Paarvergleiche: alle P < 0,001). Für jedes Schmerzmodell konnte durch eine Hauptkomponentenanalyse nur je eine einzige Hauptkomponente mit einem Eigenwert > 1 identifiziert werden, die jeweils 64,8%, 84,8% und 94,4% der gesamten Varianz für Hitzeschmerz, von Frey-Haar-Schmerz bzw. Kälteschmerz erklärt, was darauf hinweist, dass die Schwellen für nicht sensibilisierten und sensibilisierten Schmerz eine gemeinsame Varianzquelle haben. Daraus kann geschlossen werden, dass die Hauptwirkung der Sensibilisierung in einer quantitativen Abnahme der thermischen und mechanischen Schmerzschwelle besteht, wodurch die technisch mögliche maximale Reizintensität weniger oft erreicht wird. In der vorliegenden statistischen Analyse findet sich kein Anhalt für eine qualitative Änderung des Schmerzes durch die Sensibilisierung auf Ebene der primären Hyperalgesie.
Einleitung- 12,5% aller operierten Patienten sind für mehr als 80% aller Todesfälle verantwortlich. Über die Identifizierung dieser Risikopatienten ist wenig bekannt.6. Währenddessen sind hepatobiliäre Operationen nach wie vor mit einem relativ hohen Mortalitätsrisiko von etwa 5% assoziiert.15.
Ziel- Die Evaluierung der „Cumulative Illness Rating Scale(CIRS)“ zur Prädiktion von Komplikationen und Mortalität in der hepatobiliären Chirurgie.
Material und Methoden- Alle Patienten, die sich vom 01.01.2011 bis zum 06.05.2016 einer hepatobiliären unterzogen, wurden retrospektiv anhand der elektronischen Patientenakte(NICE) gemäß der modifizierten CIRS46 bewertet. Abhängig von der Gesamtsumme der ermittelten CIRS-Werte wurden die Patienten in 4 Risikoklassen (1-4) unterteilt. Anschließend wurden die 14 CIRS-Kategorien und die Risikoklassen auf ein vermehrtes Auftreten von Komplikationen ≥IIIb50 gemäß der Dindo-Klassifikation sowie der 90-Tages-Mortalität49 untersucht.
Ergebnisse- 576 Patienten mit einem durchschnittlichen Alter von 60,7 ± 13,7 Jahren wurden in die Studie aufgenommen. 18,6% der Patienten wiesen Komplikationen ≥IIIb anhand der Dindo-Klassifikation auf. 6,8% verstarben innerhalb des Überwachungszeitraumes von 90 Tagen. Für die Risikoklassen 3+4 (OR=1,674; p=0,027; 95%CI=1,060-2,645) sowie für Erkrankungen der Schweregrade 3+4 in der Kategorie „Leber“ (OR=2,583; p=0,015; 95%CI=1,205-5,538) konnten signifikant erhöhte Wahrscheinlichkeiten für die Entstehung von Komplikationen festgestellt werden. Gleiches wurde im Bezug auf Mortalität für Erkrankungen der Schweregrade 3+4 in den Kategorien „Hypertonie“ (OR=2,249; p=0,019; 95%CI=1,141-4,434) und „Leber“ (OR=8,891; p=0,033; 95%CI=1,189-66,492) nachgewiesen. Im Gegensatz dazu führten Erkrankungen der Schweregrade 3+4 in der Kategorie „Unterer Gastrointestinaltrakt“ zu einer deutlichen Reduzierung des Risikos für die Entwicklung von Komplikationen (OR=0,385; p<0,000; 95%CI=0,228-0,649) und Mortalität (OR=0,419; p=0,047; 95%CI=0,178-0987). Die im Rahmen der binär logistischen Regression erstellten Regressionsgleichungen ermöglichten keine verbesserte Klassifizierung der Patienten.
Zusammenfassung- Die Ergebnisse zeigen, dass signifikante Zusammenhänge zwischen der Entstehung von Komplikationen ≥IIIb anhand der Dindo-Klassifikation und der 90-Tages-Mortalität mittels CIRS nachweisbar sind. Dennoch geht hervor, dass der prädiktive Wert der modifizierten CIRS für die hepatobiliäre Chirurgie gering ist.