Refine
Year of publication
Document Type
- Doctoral Thesis (19)
Has Fulltext
- yes (19)
Is part of the Bibliography
- no (19)
Keywords
- CIRS (1)
- Endoskopie (1)
- Endotoxin (1)
- Heme-Oxygenase 1 (1)
- Häm-Oxygenase 1 (1)
- Kapnographie (1)
- Leber (1)
- NAPS (1)
- Präkonditionierung (1)
- Reanimation (1)
Institute
- Medizin (19)
BACKGROUND AND STUDY AIMS: Capnography enables the measurement of end-tidal CO2 and thereby the early detection of apnea, prompting immediate intervention to restore ventilation. Studies have shown that capnographic monitoring is associated with a reduction of hypoxemia during sedation for endoscopy and early detection of apnea during sedation for colonoscopy. The primary aim of this prospective randomized study was to evaluate whether capnographic monitoring without tracheal intubation reduces hypoxemia during propofol-based sedation in patients undergoing colonoscopy.
PATIENTS AND METHODS: A total of 533 patients presenting for colonoscopy at two study sites were randomized to either standard monitoring (n = 266) or to standard monitoring with capnography (n = 267). The incidence of hypoxemia (SO2 < 90 %) and severe hypoxemia (SO2 < 85 %) were compared between the groups. Furthermore, risk factors for hypoxemia were evaluated, and sedation performed by anesthesiologists was compared with nurse-administered propofol sedation (NAPS) or endoscopist-directed sedation (EDS).
RESULTS: The incidence of hypoxemia was significantly lower in patients with capnography monitoring compared with those receiving standard monitoring (18 % vs. 32 %; P = 0.00091). Independent risk factors for hypoxemia were age (P = 0.00015), high body mass index (P = 0.0044), history of sleep apnea (P = 0.025), standard monitoring group (P = 0.000069), total dose of propofol (P = 0.031), and dose of ketamine (P < 0.000001). Patients receiving anesthesiologist-administered sedation developed hypoxemic events more often than those receiving NAPS or EDS. In patients with anesthesiologist-administered sedation, sedation was deeper, a combination of sedative medication (propofol, midazolam and/or ketamine) was administered significantly more often, and sedative doses were significantly higher compared with patients receiving NAPS or EDS.
CONCLUSIONS: In patients undergoing colonoscopy during propofol-based sedation capnography monitoring with a simple and inexpensive device reduced the incidence of hypoxemia.
In der vorliegenden Dissertation wurde untersucht, ob die endotracheale Intubation (ETI) der alternativen Atemwegssicherung mittels Larynxtubus (LT) bezüglich der Überlebenswahrscheinlichkeit bei außerklinisch reanimierten Patienten überlegen ist.
Das retrospektiv erfasste Kollektiv dieser monozentrischen Studie umfasst 222 Patienten, die in den Jahren 2006 bis 2014 nach nicht-traumatischem Herz-Kreislauf-Stillstand außerhalb der Klinik (engl.: Out-of-hospital cardiac arrest, OHCA) präklinisch primär mit Endotrachealtubus (ET) oder LT versorgt und anschließend auf die internistische Intensivstation des Universitätsklinikums Frankfurt am Main aufgenommen wurden. Endpunkte der Studie waren die innerklinische Gesamtmortalität während des Krankenhausaufenthaltes sowie die Überlebensrate nach 24 Stunden.
In die Analyse wurden 208 Patienten einbezogen, von denen präklinisch 48 Patienten mit LT (23 %) und 160 Patienten mit ET (77 %) intubiert wurden. Die innerklinische Sterblichkeitsrate lag insgesamt bei 85 % (n=176); darunter 23 % LT- und 77 % ET-versorgte Patienten. Zwischen den beiden Methoden zur Atemwegssicherung zeigten sich sowohl in einer univariaten Analyse (Hazard ratio [HR]=0,98; 95 % Konfidenzintervall [K.I.] 0,69-1,39; p=0,92) als auch in einer multivariaten Cox-Regressionsmodell (adjustierte HR=1,01; 95 % K.I. 0,76-1,56; p=0,62) keine Unterschiede. Die ersten 24 Stunden nach OHCA überlebten 38 % aller Patienten; auch hier unterschieden sich die beiden Patientenkollektive nicht signifikant voneinander (univariate HR=1,04; 95 % K.I. 0,71-1,52; p=0,83).
Ferner veranschaulichte eine Propensity-Score-Matching-Analyse (PSM) mit einer Subgruppe von 120 Patienten, zusammengestellt in einem 3:1 Verhältnis (ET:LT), sowohl mit Blick auf die Überlebensrate bis zur Krankenhausentlassung (Propensity-adjustierte HR=0,99; 95 % K.I. 0,65-1,51; p=0,97) als auch auf die Mortalität in den ersten 24 Stunden (Propensity-adjustierte HR=1,04; 95 % K.I. 0,44-2,36; p=0,96) vergleichbare Ergebnisse beim Atemwegsmanagement mit LT bzw. ET.
Die frühe Durchführung einer Herzkatheteruntersuchung (HR=0,47; 95 % K.I. 0,28-0,77; p=0,003) sowie der frühe Beginn einer systemischen empirischen antibiotischen Therapie (HR=0,28; 95% K.I. 0,17-0,45; p<0,001) konnten überdies als signifikant positive Prädiktoren für das Überleben in einer angepassten Cox-Regressionsanalyse herausgearbeitet werden.
Im Gesamten konnte somit demonstriert werden, dass die initiale präklinische Anwendung des LT nach OHCA der ETI hinsichtlich der Überlebenswahrscheinlichkeit nicht untergeordnet ist. Neuester Literatur zufolge ist sie womöglich sogar überlegen. Dies gilt es in weiteren Studien zu bestätigen.
Einleitung: Schnell und gut durchgeführte BLS-Maßnahmen (Basic Life Support-Maßnahmen) können die Überlebensrate von Patient*innen mit einem Herzkreislaufstillstand enorm verbessern. Jedoch zeigen sich nicht nur bei medizinischen Laien, sondern bereits bei Medizinstudierenden deutliche Kompetenzdefizite. Die Studierenden selbst messen den Reanimationsfertigkeiten eine hohe Bedeutung bei.
Studierenden bietet das Internet insbesondere bei der rasanten technischen Entwicklung mit mittlerweile fast ubiquitärer Nutzbarkeit über Smartphones und Tablets eine einfache Möglichkeit, Lerninhalte zu vertiefen. Sie nutzen dafür Google, YouTube, Wikipedia und andere Internetquellen. Da es für die meisten Inhalte dieser Opensource-Plattformen keine Qualitätskontrolle gibt, ist die Gefahr groß, dass Studierende durch das Lernen mit Videos auf öffentlichen Plattformen auch Fehler und falsche Abläufe lernen.
Daher wäre eine Liste mit Empfehlungen der Lehrvideos zum Thema Reanimation, die den AHA-Guidelines (American Heart Association) entsprechen, wünschenswert. In der vorliegenden Arbeit wurde eine inhaltliche Checkliste entwickelt und zusammen mit einer didaktischen Checkliste zur Bewertung solcher Videos angewendet.
Material und Methoden: Im ersten Schritt des mehrstufigen Studiendesigns erfolgte die Entwicklung der inhaltlichen Checkliste. Die inhaltliche Checkliste wurde basierend auf den AHA-Richtlinien 2015 und des Updates 2017 erstellt. Sie wurde in einem 3-stufigen interdisziplinären Überarbeitungsprozess im Hinblick auf Anwendbarkeit und Verständlichkeit optimiert. Zur Bewertung der didaktischen Qualität der Videos wurde eine validierte Didaktik-Checkliste für medizinische Lehrvideos zugrunde gelegt. Insgesamt wurden 74 Videos der Plattform YouTube von jeweils zwei Reviewern anhand der beiden Checklisten bewertet.
Ergebnisse: Die resultierende Checkliste umfasst 25 Items in den Gruppen Initiale Maßnahmen, Thoraxkompression, AED und Beatmung. Die Bewertung erfolgt anhand einer 3-stufigen Likert-Skala, zusätzlich gibt es die Option Items auszuschließen, falls das Item in dem Kontext des Videos nicht zutrifft oder die Maßnahme bereits erfolgt ist. Die beiden Reviewer stimmten durchschnittlich in 65,06 ±12,56% der Items überein. Kein Video erreichte die vollständige Punktzahl der inhaltlichen oder didaktischen Checkliste. Durchschnittlich erreichten die Videos in der inhaltlichen Checkliste 56,21 ±19,18% und in der Didaktikcheckliste 66,61 ±14,32%. Es konnte kein Zusammenhang zwischen der Anzahl der Aufrufe und dem jeweiligen Score der Videos oder dem Rang der Videos und deren Score festgestellt werden. Die Videos von medizinischen und staatlichen Institutionen schnitten zwar durchschnittlich besser ab, jedoch gab es auch in dieser Untergruppe Videos mit niedrigen Scores.
Schlussfolgerung: Die auf YouTube zur Verfügung gestellten Videos zu Reanimationsmaßnahmen sind häufig von schlechter inhaltlicher Qualität. Trotzdem spielen diese Videos bereits jetzt eine wichtige Rolle im Erlernen der Reanimationsmaßnahmen und werden sowohl von Laien als auch von medizinischem Personal und Medizinstudierenden genutzt. Für die Zukunft wäre daher ein Qualitätssiegel bzw. eine Liste der empfehlenswerten Videos sinnvoll. Da keins der untersuchten Videos uneingeschränkt empfehlenswert ist, anhand der beiden erprobten Checklisten sorgsam neue Videos zu dem Thema zu erstellen.
Atherosclerosis is accompanied by infiltration of macrophages to the intima of blood vessels. There they engulf oxLDL (oxidized low-density lipoproteins) and differentiate to foam cells. These cells are known as major promoters of atherosclerosis progression. In initial experiments I could demonstrate that foam cell formation caused a severe loss in the ability to produce IFNA (interferon A) in response to stimulation with the bacterial cell wall component LPS (lipopolysaccharide). Since IFNA is discussed to have anti-atherosclerotic potential and has the capability to induce immune tolerance, its inhibition in foam cells might promote the atherosclerotic process. For this reason the aim of my PhD project was to clarify the underlying molecular mechanisms that attenuate LPS-induced IFNA expression in foam cells. LPS activates TLR4 (Toll-like receptor 4) in macrophages. Downstream this receptor two distinct signaling pathways are activated, namely a MyD88 (myeloid differentiation primary response gene 88)-dependent and a TRIF (TIR-domain-containing adapter-inducing IFNA)-dependent one. Foam cell formation targeted the TRIF-dependent TLR4 signaling pathway, as seen by loss of IRF3 activation and IFNA expression inhibition, whereas MyD88-initiated NFBB (nuclear factor 'B-light-chain-enhancer' of activated B-cells) activation and subsequent TNF@ (tumor necrosis factor @) expression remained unaltered. The TRIF signaling cascade results in transactivation of the transcription factor IRF3 (interferon regulatory factor 3), the main activator of IFNA expression. This event demands IRF3 phosphorylation by TBK1 (TANK-binding kinase 1), whereas TBK1 needs to be recruited to TRAF3 (TNF receptor associated factor 3) by the scaffold protein TANK (TRAF family member-associated NFBB activator) for its activation. This work allowed to propose the following scheme: OxLDL utilizes SR-A1 (scavenger receptor A1) to activate IRAK4 (interleukin-1 receptor-associated kinase 4), IRAK1 and Pellino3. Active IRAK1 and Pellino3 associate with TRAF3 and Pellino3 promotes mono-ubiquitination of the adaptor molecule TANK. Mono-ubiquitination of TANK interrupts TBK1 recruitment to TRAF3 and thereby abrogates phosphorylation and transactivation of IRF3 as well as subsequent expression of IFNA. In this study I provide evidence for a negative regulatory role of Pellino3 for TRIF-dependent TLR4 signaling. This expands the current knowledge of the interplay between pathways downstream scavenger and Toll-like receptors. Due to the multifaceted roles of TLR4 signaling in pathology, the new TRIF-signaling inhibitor Pellino3 might be of importance as therapeutical target for disease intervention.
Sepsis is caused by infection and often followed by an overwhelming inflammatory response. This can lead to shock, organ failure and even death. Each year approximately 60,000 people die in Germany due to sepsis. There is good evidence that sepsis is associated with failure of the hypothalamic-pituitary-adrenal-axis. In patients with sepsis, glucocorticoids (e.g. corticosterone, cortisol) released from adrenal glands play an essential role in preventing an excessive pro-inflammatory response. Adrenal insufficiency occurs in a large number of patients with septic shock and is associated with an increased mortality. In the innate immune system, Toll-like receptors (TLRs) play a crucial role in its onset by recognizing pathogenassociated molecules. It is well known that there are interactions between the immune and endocrine stress systems; glucocorticoids and TLRs regulate each other in a bi-directional way. Therefore, a coordinated response of the adrenal and immune system is of vital importance for survival during severe inflammation. This experimental study focuses on the role of TLR-2, TLR-4 and TLR-9 during adrenal stress. The results show that in mice, the absence of TLR-2 and TLR-4, but not TLR-9 leads to altered adrenal morphology, relating to size and cellular structure. However, this alteration does not appear to compromise the phenotype of TLR knock-out mice. Mice deficient of TLR-2, 4 and 9 are not able to respond adequately to inflammatory stress induced by their potential ligands lipopolysaccharide (LPS), lipoteichoic acid (LTA) or cytidine phosphate guanosine-oligodeoxynucleotides (CpG-ODN). This impaired adrenal stress response appears to be associated with a decrease in systemic and intra-adrenal cytokine expressions. Taken together, these results suggest that TLR-2, 4 and 9 are key players in the immuno-endocrine response during inflammation and SIRS. In conclusion, TLRs play a crucial role in the immune-adrenal crosstalk. This close functional relationship needs to be considered in the treatment of inflammatory diseases where an intact adrenal stress response is required. Furthermore, TLR polymorphisms could contribute to the underlying mechanisms of impaired adrenal stress response in patients with bacterial sepsis
The role of peroxisome proliferator-activated receptor gamma during sepsis-induced lymphopenia
(2011)
Sepsis is one of the most common diseases on intensive care units all over the world and accounts there for the highest mortality rate. One of the hallmarks of sepsis is an accelerated T-cell apoptosis, resulting in a compromised immune state with the inability to eradicate pathogens. This promotes organ damage or even organ failure. A multiple organ dysfunction evolves, which often ends up in septic shock and death. Recently, it was shown that severe T-cell depletion correlates with sepsis mortality. When inhibiting T-cell apoptosis, an increased mouse survival was observed in experimental sepsis. ...
Nachdem die Sicherheit der Blutprodukte in den letzten Jahrzehnten vor allem bei transfusionsmedizinisch relevanten Viren wie HIV-1, HCV und HBV wesentlich durch die Einführung von molekularen Nachweismethoden auf Restrisiken unter 1 zu 1 Million reduziert werden konnte, liegt der aktuelle Fokus der Transfusionsmedizin auf der Vermeidung von bakteriellen Übertragungen. Dabei stehen vor allem die Thrombozytenkonzentrate im Vordergrund, da diese bei Raumtemperatur gelagert werden und somit für viele Bakterien ideale Wachstumsbedingungen darstellen. Die vorliegende Arbeit hat dabei in vier aufeinander aufbauenden Phasen systematisch die klinische Effizienz eines photochemischen Pathogeninaktivierungsverfahrens untersucht.
Phase 1: Darstellung des Wachstumsverhaltens von 8 transfusionsmedizinisch relevanten Keimen mittels der Spiking-Versuche in Thrombozytenkonzentraten. Für die nachfolgenden Phasen sind nur die Bakterienstämme ausgewählt worden, die nachweislich zu einer Vermehrung in Thrombozytenkonzentraten geeignet sind.
Phase 2: In den Experimenten mit Vollblutkonzentraten zeigt sich bei der Spikingkonzentration von 100 CFU/Beutel für alle ausgewählten Keime eine 100%ige Inaktivierungseffizienz. Bei der Anfangskonzentration von 1000 CFU/Beutel ergibt sich für den Keim Klebsiella pneumoniae (PEI-B-08-09) eine Inaktivierungseffizienz von 75% und für den Keim Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime haben in den Experimenten mit der höheren Spikingkonzentration eine Inaktivierungseffizienz von 100%.
Phase 3: Für den Keim Klebsiella pneumoniae (PEI-B-08-09) zeigt sich in den Experimenten mit Pool-TKs schon bei der niedrigen Anfangskonzentration eine Inaktivierungseffizienz von 75%. Bei der Spikingkonzentration von 1000 CFU/Beutel ergibt sich erneut für die Keime Klebsiella pneumoniae und Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime weisen sowohl bei der niedrigen als auch bei der hohen Bakterienkonzentration eine 100%ige Pathogeninaktivierungseffizienz auf.
Phase 4: In den Experimenten mit Apherese-TKs zeigt sich für alle untersuchten Keime sowohl bei der niedrigen als auch bei der hohen Spikingkonzentration eine 100%ige Inaktivierungseffizienz.
Aus diesen Experimenten geht hervor, dass man mittels photochemischen Pathogeninaktivierungsverfahrens keine 100%ige Inaktivierungseffizienz erreichen kann. Vielmehr ist die Inaktivierungseffizienz zum einen von der bakteriellen Ausgangskonzentration, zum anderen aber auch vom Zeitpunkt der Anwendung des Verfahrens abhängig. Somit sollte der Begriff „ Pathogeninaktivierungsverfahren“ besser durch den Begriff des Pathogenreduktionsverfahrens ersetzt werden. Ferner wird anhand der Ergebnisse deutlich, dass die Anwendung von Pathogenreduktionsverfahren möglichst schnell nach der Spende erfolgen sollte. In diesem Zusammenhang haben Apherese-Thrombozytenkonzentrate gegenüber Pool-Thrombozytenkonzentraten einen Sicherheitsvorteil.
Die Präkonditionierung mit den bakteriellen Zellwandbestandteilen Lipopolysaccharid (LPS) oder Lipoteichonsäure (LTA) führt in vivo zu einer Reduktion der myokardialen Infarktgröße nach Ischämie und Reperfusion (I/R). Hierbei wird durch die Präkonditionierung u.a. die Akkumulation neutrophiler Granulozyten im Ischämiegebiet während der Reperfusionsphase reduziert und somit einer der wichtigsten Mechanismen bei der Entstehung des Reperfusionsschadens am Herzen vermindert. In dieser Studie bedienten wir uns eines ex vivo Modells nach Langendorff mit regionaler I/R und zellfreier Perfusion. Wir konnten erstmalig eine LTA-Präkonditionierung in einem leukozytenfreien System zeigen und somit demonstrieren, dass die LTA-Präkonditionierung Mechanismen involviert, die unabhängig sind von einer Akkumulation neutrophiler Granulozyten. 24 Stunden nach einer Vorbehandlung der Ratten mit LPS, LTA, Kochsalz und/oder Dexamethason wurden die Herzen entfernt und retrograd mit oxygenierter Krebs-Henseleit-Lösung perfundiert. Die Herzen wurden einer 20-minütigen Ischämie, gefolgt von einer 2-stündigen Reperfusionsphase, unterzogen. Das Infarktrisikogebiet (Evans-Blue-Färbung) und das Infarktgebiet (pNBT-Färbung) wurden planimetrisch bestimmt. Die ischämische Präkonditionierung (IPC) wurde als Positivkontrolle unseres Modells verwendet. LTA- und LPS-Präkonditionierung führten - ebenso wie IPC - bei gleicher Dosierung in vergleichbarem Umfang zu einer signifikanten Reduktion der Infarktgröße. Dieser Effekt konnte durch Vorbehandlung mit Dexamethason vollständig aufgehoben werden, so dass gefolgert werden kann, dass die Protektion durch LPS bzw. LTA. von der Modulation der inflammatorischen Vorgänge im Endothel und Myokard mit abhängt.
Diese Arbeit beschäftigt sich mit der Frage, ob Schmerzschwellen für unterschiedliche Stimuli voneinander unabhängige Aspekte des Schmerzes oder ein gemeinsames Phänomen messen. In ersterem Fall würden unterschiedliche Reize benötigt, um die Schmerzempfindlichkeit eines Individuums vollständig zu charakterisieren. In letzterem Fall wären verschiedene Reize hierzu überflüssig, wobei sie allerdings dafür verwendet werden könnten, Summen-Scores aus den verschiedenen Schmerzmodalitäten zu errechnen. Für diese Arbeit wurden bei 45 gesunden Männern und 32 gesunden Frauen (im Alter von 20-44 Jahren) Schmerzschwellen für mehrere Reize (Wärme, Wärme / Capsaicin, Kälte, Kälte / Menthol, stumpfer Druck, 5-Hz Wechselstrom (0-20 mA), spitzer Druck (von Frey-Haare), und von Frey-Haare / Capsaicin) gemessen. Diese Schmerzschwellen waren signifikant miteinander korreliert. Eine daraufhin durchgeführte Hauptkomponentenanalyse ergab, dass die Varianz der Schmerzschwellen mehr auf die Unterschiede zwischen den Subjekten zurückzuführen ist (variance estimate: 0,393), als auf die Unterschiede der Schmerzreize bei jeweils einem Subjekt (variance estimate: -0,008). Unter den drei wichtigsten Hauptkomponenten der Korrelationsmatrix mit Eigenwerten > 1, erklärte die größte 48% der Varianz der Schmerzschwellen, wobei sie starke Ladungen von allen Schmerzreizen erhielt, was für eine starke gemeinsame Varianzquelle spricht. Nur zwei kleinere Hauptkomponenten, die jeweils weniger als 14% der gesamten Varianz erklären, deuten auf eine weitere Differenzierung der Schmerzarten hin. Das Muster von Ähnlichkeiten und Unterschieden innerhalb dieser Komponenten stimmt jedoch mit bereits bekannten molekularen Mechanismen der Nozizeption überein. Dies führt zu dem Schluss, dass die Charakterisierung einer Person als allgemein schmerzempfindlich oder schmerzunempfindlich, zumindest auf Schmerzschwellen-Ebene, gerechtfertigt erscheint. Außerdem befasst sich diese Arbeit mit der Frage, ob Sensibilisierungsverfahren, wie sie in der experimentellen Schmerzforschung zum Einsatz kommen, zusätzliche qualitative Komponenten bei der Schmerzmessung hinzufügen, sodass eine andere Art von Schmerz entsteht, oder ob die Sensibilisierung sich auf quantitative Veränderungen beschränkt, die sich ausschließlich in einer höheren Intensität der gleichen Schmerzart äußert. Hierfür wurde das Probandenkollektiv vergrößert (insgesamt 69 Männer und 56 Frauen im Alter von 18 bis 46 Jahren), indem die o. g. Schmerzmessungen bei weiteren Testpersonen durchgeführt wurden. Für die nachfolgende Analyse wurden nur Daten von den Schmerzmodellen Hitze, Kälte und von Frey-Haare, jeweils mit und ohne Capsaicin- bzw. Menthol-Sensibilisierung verwendet. Die Ergebnisse zeigen, dass die Sensibilisierung den Anteil derjenigen Werte in den Daten verringert, an denen die Schmerzschwelle das technische Limit des Modellversuchs von 52,5°C bzw. 0°C bzw. 300 g von Frey, erreicht. Die Anzahl der Probanden, die diese Werte erreichten, wurde von 38 auf 21 Patienten beim von Frey-Haar-Versuch und von 30 auf 19 Patienten mit Kälte-Versuch (χ exp 2 -Tests: P < 0,001) verringert, während die Schmerzschwellen beim Hitze-Versuch nie das technische Maximum erreichten. Bei den 75 Patienten ohne Werte am technischen Limit senkte die Capsaicin-Sensibilisierung die Hitze-Schmerzschwelle von 44,7 ± 2,1°C auf 36,8 ± 3,3°C und die von Frey-Schmerzschwelle von 78,2 ± 74g auf 33,9 ± 37,8g. Die Menthol-Sensibilisierung senkte die Kälte-Schmerzschwelle von 13 ± 8,4°C auf 19,3 ± 9,2°C (Paarvergleiche: alle P < 0,001). Für jedes Schmerzmodell konnte durch eine Hauptkomponentenanalyse nur je eine einzige Hauptkomponente mit einem Eigenwert > 1 identifiziert werden, die jeweils 64,8%, 84,8% und 94,4% der gesamten Varianz für Hitzeschmerz, von Frey-Haar-Schmerz bzw. Kälteschmerz erklärt, was darauf hinweist, dass die Schwellen für nicht sensibilisierten und sensibilisierten Schmerz eine gemeinsame Varianzquelle haben. Daraus kann geschlossen werden, dass die Hauptwirkung der Sensibilisierung in einer quantitativen Abnahme der thermischen und mechanischen Schmerzschwelle besteht, wodurch die technisch mögliche maximale Reizintensität weniger oft erreicht wird. In der vorliegenden statistischen Analyse findet sich kein Anhalt für eine qualitative Änderung des Schmerzes durch die Sensibilisierung auf Ebene der primären Hyperalgesie.
Einleitung- 12,5% aller operierten Patienten sind für mehr als 80% aller Todesfälle verantwortlich. Über die Identifizierung dieser Risikopatienten ist wenig bekannt.6. Währenddessen sind hepatobiliäre Operationen nach wie vor mit einem relativ hohen Mortalitätsrisiko von etwa 5% assoziiert.15.
Ziel- Die Evaluierung der „Cumulative Illness Rating Scale(CIRS)“ zur Prädiktion von Komplikationen und Mortalität in der hepatobiliären Chirurgie.
Material und Methoden- Alle Patienten, die sich vom 01.01.2011 bis zum 06.05.2016 einer hepatobiliären unterzogen, wurden retrospektiv anhand der elektronischen Patientenakte(NICE) gemäß der modifizierten CIRS46 bewertet. Abhängig von der Gesamtsumme der ermittelten CIRS-Werte wurden die Patienten in 4 Risikoklassen (1-4) unterteilt. Anschließend wurden die 14 CIRS-Kategorien und die Risikoklassen auf ein vermehrtes Auftreten von Komplikationen ≥IIIb50 gemäß der Dindo-Klassifikation sowie der 90-Tages-Mortalität49 untersucht.
Ergebnisse- 576 Patienten mit einem durchschnittlichen Alter von 60,7 ± 13,7 Jahren wurden in die Studie aufgenommen. 18,6% der Patienten wiesen Komplikationen ≥IIIb anhand der Dindo-Klassifikation auf. 6,8% verstarben innerhalb des Überwachungszeitraumes von 90 Tagen. Für die Risikoklassen 3+4 (OR=1,674; p=0,027; 95%CI=1,060-2,645) sowie für Erkrankungen der Schweregrade 3+4 in der Kategorie „Leber“ (OR=2,583; p=0,015; 95%CI=1,205-5,538) konnten signifikant erhöhte Wahrscheinlichkeiten für die Entstehung von Komplikationen festgestellt werden. Gleiches wurde im Bezug auf Mortalität für Erkrankungen der Schweregrade 3+4 in den Kategorien „Hypertonie“ (OR=2,249; p=0,019; 95%CI=1,141-4,434) und „Leber“ (OR=8,891; p=0,033; 95%CI=1,189-66,492) nachgewiesen. Im Gegensatz dazu führten Erkrankungen der Schweregrade 3+4 in der Kategorie „Unterer Gastrointestinaltrakt“ zu einer deutlichen Reduzierung des Risikos für die Entwicklung von Komplikationen (OR=0,385; p<0,000; 95%CI=0,228-0,649) und Mortalität (OR=0,419; p=0,047; 95%CI=0,178-0987). Die im Rahmen der binär logistischen Regression erstellten Regressionsgleichungen ermöglichten keine verbesserte Klassifizierung der Patienten.
Zusammenfassung- Die Ergebnisse zeigen, dass signifikante Zusammenhänge zwischen der Entstehung von Komplikationen ≥IIIb anhand der Dindo-Klassifikation und der 90-Tages-Mortalität mittels CIRS nachweisbar sind. Dennoch geht hervor, dass der prädiktive Wert der modifizierten CIRS für die hepatobiliäre Chirurgie gering ist.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Langzeitbeobachtung der Therapie von Hämophilie A-Patienten mit einem humanen Faktor VIII-Konzentrat
(2019)
This doctoral thesis entitled “Long-term surveillance of the therapy of haemophilia A patients with a human plasma-derived factor VIII concentrate” was performed to assess the influence of the chronic long-term therapy with a human plasma-derived factor VIII concentrate in daily clinical practice on the health of haemophilia A patients.
Haemophilia A is a chronic disease, caused by a congenital deficiency of coagulation factor VIII, which requires life-long haemostatic treatment. The severity of bleedings, as the main clinical feature of haemophilia A, is generally correlated with the residual activity of coagulation factor VIII.
Until recently, factor VIII preparations, used to replace the deficient factor VIII, were the only treatment option for haemophilia A. Development of inhibitory antibodies against factor VIII is the most serious complication associated with the use of factor VIII products, rendering the administered factor VIII ineffective.
To date, all novel treatments still rely on some factor VIII replacement therapy. At least in the near future and probably for longer, (concomitant) therapy with factor VIII concentrates will continue to be necessary for treatment of haemophilia A, emphasising the continuous need for efficacy and safety data in terms of pharmacovigilance on factor VIII replacement therapy.
Medicines to treat haemophilia A, are authorised for use, when evidence of its efficacy and safety is limited to data of a small number of investigated patients during short-term observation periods of about six months, and thus have not been systematically assessed in all patient groups until marketing authorisation. Long-term efficacy and safety data from post-marketing surveillance are important to prove that a chronic treatment is efficacious and safe in the real-life setting by monitoring “real-life” patients of all age groups, rather than a carefully selected patient population. Medical and scientific analyses of such long-term data are crucial to detect, understand, and potentially prevent the harm resulting from (new) adverse drug reactions, including those, which only rarely occur and therefore are difficult to detect.
Therefore, data from two prospective surveillance studies investigating real-life therapies with the same human plasma derived factor VIII concentrate were combined and analysed retrospectively. It was hypothesised that the chronic long term therapy with a human plasma-derived factor VIII concentrate in daily clinical practice is effective, safe, and well tolerated with no unexpected adverse effect on the health of haemophilia A patients. It was the aim of this analysis to investigate the influence of the chronic long-term treatment with the factor VIII concentrate on the health of patients with severe as well as nonsevere haemophilia A including all age groups in a real-life setting. In addition, the influence of prophylactic factor VIII treatment or the switch to this regimen on the annual bleeding rate of all haemophilia A patients, and the long-term effects of this regimen on the patients’ annual bleeding rates were investigated.
Starting in 1998 until 2015, data of 1418 patient-years from 198 haemophilia A patients representing all age groups and haemophilia A severities were analysed. This study covered 18 years of documentation time with a mean observation period of more than seven years per patient. It is the longest study of a single factor VIII concentrate conducted so far, investigating the therapy of haemophilia A. The only observed side effects involved low incident factor VIII inhibitor formation in patients at risk (13 % of previously untreated patients, compared with usually about 30 %). Factor VIII inhibitor development was mainly transient, with low titers, and without clinical relevance. Any, even low frequent prophylaxis was found to be significantly better than on demand and had the greatest effect on the annual bleeding rate of patients, irrespective of their age or haemophilia A severity. Patients suffered during continuous prophylaxis from a very low bleeding rate (median 1.3 compared with 31.4 under on demand), down to no bleeding per year. Patients whose regimen changed to continuous prophylaxis benefitted most (median annual bleeding rate 1.1), irrespective of age or haemophilia A severity.
This analysis demonstrates that the chronic long-term therapy with the plasma-derived factor VIII concentrate in daily clinical practice is effective, safe, and well tolerated. Thus, data on efficacy and safety obtained during chronic long-term therapy with the human plasma-derived factor VIII concentrate reaffirm that there is no unexpected adverse effect on the health of haemophilia A patients.
These results support the therapeutic concept of a life-long prophylaxis of haemophilia A patients with a human plasma-derived factor VIII concentrate.
Bluttransfusionen ermöglichen es jährlich tausenden von Menschen das Leben zu retten. Allerdings bringt ein unreflektierter Einsatz auch zahlreiche Nachteile mit sich. Patient Blood Management (PBM) beschäftigt sich damit, das optimale Kosten-Nutzen-Verhältnis dieser Maßnahme auszuschöpfen.
Das Programm verfolgt einen multimodalen Ansatz zur Reduktion von Transfusionen. Es zielt darauf ab präoperative Anämie zu erfassen und, wenn möglich, zu therapieren, iatrogenen Blutverlust zu reduzieren und die Anämietoleranz des Körpers maximal auszunutzen. Diese Maßnahmen wurden durch Schulungsprogramme und die Bereitstellung von Informationsmaterial begleitet, um die Sensibilität und das Wissen zu diesem Thema zu vergrößern.
Die vorliegende Arbeit befasst sich mit den Einflüssen der Einführung von PBM auf die Mortalität und Morbidität von Malignompatienten in der Viszeralchirurgie. Die retrospektive Analyse war darauf ausgerichtet, einen Unterschied von 10 % im Zweijahresüberleben vor und nach Einführung festzustellen. Hierfür wurden die Daten von 836 Patienten ausgewertet, die sich über einen Zeitraum von vier Jahren einer onkologischen Operation in der Abteilung für Allgemein- und Viszeralchirurgie der Universitätsklinik Frankfurt am Main unterzogen haben. Davon befanden sich 389 vor und 447 nach der Einführung des Projekts in Behandlung.
Das Ziel der Untersuchung bestand darin, die Sicherheit und den Nutzen von PBM in dieser speziellen Patientengruppe näher zu untersuchen. Dazu wurden der primäre Endpunkt des Zweijahresüberlebens und die sekundären Endpunkte 30-Tages- und 90-Tagesüberleben, Prozentsatz an Patienten mit Anämie, Anzahl der transfundierten Erythrozytenkonzentrate (EK) sowie das Auftreten von Komplikationen nach der Dindo-Clavien Klassifikation festgelegt.
Die erhobenen Daten zeigen ein um 13,1 % (p = < 0,001) verbessertes Überleben nach zwei Jahren in den Vergleichsgruppen vor und nach Einführung des Patient Blood Managements. Es haben 21,5 % (p = < 0,001) weniger Patienten Erythrozytenkonzentrate erhalten, zudem wurde die Gesamtsumme der transfundierten Konzentrate signifikant (p = < 0,001) reduziert.
Dabei kam es zu keinem vermehrten Auftreten von Komplikationen. Dies spricht dafür, dass die Einführung von PBM zur Verbesserung der Patientensicherheit beigetragen hat. Es hat sich gezeigt, dass Patienten ohne oder mit moderaten postoperativen Komplikationen (Dindo-Claven < IIIb) von den Veränderungen im besonderen Maße profitieren.
Eine flächendeckende Implementierung des Konzepts in den klinischen Alltag ist als sicher und empfehlenswert zu betrachten. Neben den Patienten profitiert auch das ärztliche Personal, denn im Rahmen von strukturierten Fortbildungsveranstaltungen wird tiefergehendes Wissen vermittelt und klare Handlungsempfehlungen gegeben. Dies reduziert Unsicherheiten, erhöht die Sensibilität und verringert auf diesem Weg Fehler im Transfusionsmanagement. Des Weiteren ergeben sich ökonomische Vorteile. Durch Schulungen, Anämiescreening und der Anschaffung neuer blutsparender Systeme entstehen zwar zunächst zusätzliche Kosten, allerdings stehen diese Einsparungen, durch einen geringeren EK-Verbrauch sowie geringeren Ausgaben durch eine Senkung der Morbidität, gegenüber.
Es wäre von Interesse, in zukünftigen Untersuchungen die genauen Ursachen für den beobachteten Effekt im verbesserten Langzeitüberleben zu analysieren. Mit diesem Wissen kann eine optimale Nutzung der Einflussfaktoren gewährleistet werden. Zudem sollte es auf dieser Basis möglich werden, das Patientenkollektiv, das von einer Transfusion profitiert, genauer einzugrenzen.
In den letzten Jahren beobachtet man einen Kurs, der sich weg von invasiven zu minimal-invasiven Verfahren in der Bypasschirurgie bewegt. Neue Techniken ermöglichen einen weniger traumatischen Eingriff. Dazu zählen minimal-invasive Verfahren wie PUS- und LAST-OP. Ein besonderes Augenmerk gilt der ACAB-Operation. Während des gesamten Eingriffes ist der Patient wach und atmet spontan. Schmerzfreiheit wird über einen thorakalen PDK erlangt. In dieser Studie sollen die Gruppe ACAB bezüglich ihrer prä- und postoperativen Vitalkapazität, der Blutgasanalyse, bezüglich ihres Schmerzempfindens, der postoperativen Mobilität und hinsichtlich der Akzeptanz der OP-Technik untersucht bzw. mit PUS und LAST verglichen werden.
68 Patienten wurden zwischen Januar 2000 und August 2005 in die Studie aufgenommen und drei Operationsgruppen zugeteilt: ACAB (n = 26), PUS (n = 24) und LAST (n = 18). Von ihnen wurden präoperative und postoperative Lungenfunktionswerte (VC) am dritten postoperativen Tag und Blutgasanalysen (pO2 und sO2) eine, sechs und zwölf Stunden postoperativ erhoben. Mit Hilfe der Visuellen Analogskala wurden die Patienten zu festgesetzten Zeitpunkten zu ihrem Schmerzzustand befragt. Aussagen über den Mobilitätsgrad und Akzeptanz konnten mit Einsatz eines Fragebogens erzielt werden.
In der ACAB-Gruppe zeigten sich postoperativ signifikant höhere Lungenvolumina und Normwerte in der Blutgasanalyse im Vergleich zu den Gruppen B und C. Signifikant niedriger gaben die Patienten der Gruppe A (ACAB) (31,8 +/− 5) im Vergleich zu B (PUS) (52,2 +/− 7,3) und Gruppe C (LAST) (61,6 +/− 5,8) Schmerzen an. Die höchsten Werte auf der VAS wurden in Gruppe C (LAST) angegeben. Mobil waren bereits am Operationstag 20 von 26 Patienten der ACAB-Gruppe. Nur 4 bzw. 3 Patienten der Vergleichsgruppen konnten ebenfalls mobilisiert werden. Die Akzeptanz des ACAB-Operationsverfahrens von Seiten der Patienten war hoch. 25 (96,1%) Patienten würden sich erneut wach operieren lassen.
Es zeigte sich, dass weniger invasive Operationsmethoden und veränderte anästhesiologische Verfahren einen positiven Einfluss auf die Erholung des Patienten haben. Nach sorgfältiger Indikationsstellung stellen alle drei Methoden komplikationsarme Eingriffe dar. Der Verzicht auf die Allgemeinanästhesie wirkte sich besonders auf die Mobilisation, Lungenfunktion, BGA und damit auf die Rekonvaleszenz der Patienten aus. Ein Blick in die Zukunft lässt annehmen, dass sich dieses Verfahren in Zukunft im klinischen Alltag etablieren lässt.
Das Nachsorgekonzept nach lumbalen Bandscheiben-Operationen beruht auf biomechanischen Untersuchungen von Nachemson, die bereits 1966 publiziert worden sind. Seine Studien zeigten, dass sich das Sitzen nach Bandscheiben- Operationen und bei Rückenschmerzpatienten ohne Operation ungünstig auf den Rehabilitationsprozess auswirkt. Aufgrund dieser Befunde wurde das Verbot des Sitzens in das Rehabilitationskonzept aufgenommen und ist noch immer weit verbreitet. Häufig entstehen dabei aus einer ängstlichen Vermeidungshaltung muskuläre Dysbalancen. Es habituiert sich ein erhöhter Tonus der Erector trunci-Muskulatur. So können myotendinotische Sekundärbeschwerden auftreten, die zu einer verzögerten beruflichen und sozialen Wiedereingliederung beitragen. Dabei ist vor allem die verzögerte berufliche Reintegration volkswirtschaftlich von großer Relevanz. Neue Untersuchungen, insbesondere von Wilke et al., Rohlmann et al. und Althoff et al., konnten die von Nachemson im Sitzen erhobenen Daten nicht bestätigen. Aufgrund dieser Ergebnisse lässt sich die Arbeitshypothese aufstellen, dass die bisher übliche Empfehlung, das Sitzen zu vermeiden, für Patienten nach lumbalen Bandscheiben-Operationen obsolet ist. Es kann vielmehr davon ausgegangen werden, dass eine Lockerung dieser Richtlinie die Rehabilitation und die berufliche Wiedereingliederung nach lumbalen Bandscheiben-Operationen erleichtern und beschleunigen kann. Weiterhin kann davon ausgegangen werden, dass der Heilungsprozess, durch eine Be- und Entlastung und damit durch eine verbesserte Diffusion beschleunigt werden kann, wenn in der postoperativen Phase ein liberales Regime bezüglich der Körperhaltung eingeführt und die Wahl der Position dem Patienten weitgehend selbst überlassen wird. Der Patient sollte selbst die Körperhaltung wählen, die er als bequem empfindet. Ängste werden reduziert und die myotendinotischen Sekundärbeschwerden dürften abnehmen. Zu diesem Zweck wurde eine klinische Untersuchung durchgeführt, die insgesamt 50 Patienten in zwei Gruppen randomisiert. Eine Gruppe, als liberal bezeichnet, erhielt eine Sitzerlaubnis, die andere, als konventionell definiert, weiterhin Sitzverbot. Anhand von drei klinischen Nachuntersuchung, zwei von den Patienten selbst auszufüllenden Fragebögen (Oswestry -Schmerskala und Allgemeinen Depressionsskala), einem Sitz- und Schmerztagebuch und zum Abschluss eine MRT- Untersuchung der LWS vor und nach Kontrastmittelgabe, sollten die beiden Gruppen miteinander verglichen und die o. g. Hypothesen verifiziert oder falsifiziert werden. Der Vergleich der beiden Gruppen anhand der klinischen Untersuchungen ergab statistisch keinen signifikantern Unterschied im Hinblick auf den postoperativen Verlauf, insbesondere der postoperativen Schmerzen und Beschwerden, bzw. Behinderungen wie z. B. Lähmungen oder Sensibilitätsstörungen. Ebenso verhält es sich bei der Auswertung der Oswestry- Schmerzskala und der ADS- L. Auch hier ergaben alle Befragungen keine signifikanten Unterschiede zwischen den beiden Gruppen, so dass nicht von einer erhöhten Einschränkung der Patienten der liberalen Gruppe im Alltag ausgegangen werden kann. Das Sitz- und Schmerztagebuch zeigt ebenfalls keine signifikanten Unterschiede innerhalb der ersten 28 postoperativen Tage. Deutlich war zu erkennen, dass eine tägliche Steigerung der Sitzdauer nicht mit einer Erhöhung der Schmerzintensität oder einem vergrößerten Beschwerdebild einherging. Auch die Ergebnisse der MRT- Untersuchung der LWS wiesen keine nennenswerten Unterschiede zwischen den beiden Gruppen auf, die möglicherweise gegen eine Sitzerlaubnis gesprochen hätten. Die Erkenntnisse, die aus diesen Resultaten gewonnen werden können, bestätigten die o.g. Vermutungen, dass die Erlaubnis des Sitzens während der postoperativen Phase nicht zu einem verlängerten oder erschwerten Verlauf der Genesung führt oder sich schädlich auf diesen auswirkt. Das Sitzverbot kann als veraltet angesehen werden und, wenn weitere Untersuchungen die Beobachtungen bestätigen, sogar aus dem Therapieregime genommen werden. Eine frühere berufliche Wiedereingliederung erscheint mit einem liberalen postoperativen Regime erreichbar.
Die schwere Sepsis ist trotz verbesserter Therapiemethoden der modernen Intensivmedizin mit einer erheblichen Mortalität behaftet und septische Erkrankungen verursachen in Deutschland Schätzungen zufolge ca. 60.000 Todesfälle pro Jahr. Im Falle der gram-negativen Sepsis wird durch die Freisetzung von bakteriellen Zellwandbestandteilen wie LPS über die Bindung an Toll-like Rezeptoren, insbesondere TLR-4, eine systemische Immunreaktion ausgelöst. Diese kann dann über verschiedene Mechanismen zu systemischer Hypotension, Organversagen und schließlich zum Tod im Zuge der schweren Sepsis führen. Es hat sich allerdings herausgestellt, dass LPS auch in der Lage ist protektive Effekte auszulösen. So schützt die Gabe einer niedrigen Dosis LPS den Organismus vor verschiedenen Schädigungen, die in einem späteren Zeitintervall folgen. Beschrieben sind protektive Effekte in Modellen von Ischämie/Reperfusion, direktzellschädigenden Agenzien und auch gegenüber hochdosierter LPS-Gabe. In letztgenanntem Fall wird der gezeigte Effekt als LPS-Toleranz bezeichnet. In der vorliegenden Arbeit sollte nun untersucht werden, ob niedrige Dosen von LPS einen protektiven Effekt bei einem folgenden LPS-Schock vermitteln können, wobei insbesondere Effekte auf die Leber, mit ihrer herausragenden Rolle in der Elimination von LPS aus dem Organismus, im Fokus der Experimente standen. Des Weiteren sollte eine mögliche Rolle der Häm-Oxygenase 1 (HO-1) im Zuge dieser Protektion untersucht werden, da verschiedene Arbeiten der letzten Jahre gezeigt haben, dass HO-1 in der Lage ist eine Protektion gegen verschiedene Arten der Zellschädigung zu vermitteln. Für die Untersuchungen wurde ein Tiermodell an der Ratte gewählt. Als wesentliche Ergebnisse sind festzuhalten, dass die Gabe von 1 mg / kg KG LPS (intraperitoneal) 24h vor Auslösen eines LPS-Schocks mit 6 mg / kg KG (intravenös) zu einer signifikanten Verbesserung der Kreislaufparameter und zu einer Verringerung der Leberzellschäden führt, gemessen am mittleren arteriellen Blutdruck bzw. an GOT und GPT im Serum der Tiere. Außerdem zeigt sich, dass die Gabe von niedrig dosiertem LPS zu einem Anstieg der HO-1 Konzentration der Leber im 24h Zeitverlauf führt und dass in den Lebern der Tiere, die eine Protektion durch LPS-Vorbehandlung erfahren haben, die HO-1 Menge signifikant gegenüber den nicht vorbehandelten Tieren erhöht ist. Dieses Ergebnis legt nahe, dass die HO-1 eine wichtige Rolle in der Leberprotektion im Rahmen der LPS-Toleranz durch Vorbehandlung mit niedrig dosiertem LPS spielt. Das in dieser Arbeit verwendete Modell des LPS-Schocks stimmt dabei in vielen Bereichen mit den pathophysiologischen Veränderungen während einer gramnegativen Sepsis überein. Die Ergebnisse dieser Arbeit im Einklang mit den Untersuchungen anderer Arbeitsgruppen zeigen also, dass durch eine gezielte Modulation der Immunantwort, z.B. über eine Induktion der HO-1 Produktion, eine Protektion des Organismus gegen einen im Intervall folgenden septischen Schock möglich sein könnte. Eine zeitlich abgestimmte und gezielte Modulation der inflammatorischen Prozesse bei Hochrisikopatienten, z.B. vor geplanten großen operativen Eingriffen oder Organtransplantationen, könnte daher in Zukunft helfen das Überleben dieser Patienten zu verbessern.
Despite sensible guidelines for the use of opioid analgesics, respiratory depression remains a significant risk with a possibility of fatal outcomes. Clinicians need to find a balance of analgesia with manageable respiratory effects. The ampakine CX717 (Cortex Pharmaceuticals, Irvine, CA, USA), an allosteric enhancer of glutamate-stimulated AMPA receptor activation, has been shown to counteract opioid-induced respiratory depression in rats while preserving opioid-induced analgesia. Adopting a translational approach, we orally administered 1500 mg of CX717 to 16 male healthy volunteers in a placebo controlled double-blind study. Starting 100 min after CX717 or placebo intake, alfentanil was administered by computerized intravenous infusion targeting a plateau of effective alfentanil plasma concentrations of 100 ng/ml. One hour after start of opioid infusion, its effects were antagonized by intravenous injection of 1.6 mg of the classical opioid antidote naloxone. Respiration was quantified prior to drug administration (baseline), during alfentanil infusion and after naloxone administration by (i) counting the spontaneous respiratory frequency at rest and (ii) by employing hypercapnic challenge with CO2 rebreathing that assessed the expiratory volume at a carbon dioxide concentration in the breathable air of 55% (VE55). Pain was quantified at the same time points, immediately after assessment of respiratory parameters, by (i) measuring the tolerance to electrical stimuli (5 Hz sine increased by 0.2 mA/s from 0 to 20 mA and applied via two gold electrodes placed on the medial and lateral side of the mid-phalanx of the right middle finger) and (ii) by measuring the tolerance to heat (increased by 0.3°C/s from 32 to 52.5°C applied to a 3 x 3 cm2 skin area of the left volar forearm, after sensitization with 0.15 g capsaicin cream 0.1%). CX717 was tolerated by all subjects without side effects that would have required medical intervention. We observed that CX717 was approximately as effective as naloxone in reversing the opioid induced reduction of the respiratory frequency. Despite the presence of high plasma alfentanil concentrations, the respiratory frequency decreased only by 8.9 ± 22.4% when CX717 was pre-administered, which was comparable to the 7.0 ± 19.3% decrease observed after administration of naloxone. In contrast, after placebo pre-administration the respiratory rate decreased by 30.0 ± 21.3% (p=0.0054 for CX717 versus placebo). In agreement with this, periods of a very low respiratory frequency of <= 4 min-1 under alfentanil alone were shortened by ampakine pre-dosing by 52.9% (p=0.0182 for CX717 versus placebo). Furthermore, VE55 was decreased during alfentanil infusion by 55.9 ± 16.7% under placebo preadministration but only by 46.0 ± 18.1% under CX717 pre-administration (p=0.017 for CX717 versus placebo). Most importantly, in contrast to naloxone, CX717 had no effect on opioid induced analgesia. Alfentanil increased the pain tolerance to electrical stimuli by 68.7 ± 59.5% with placebo pre-administration. With CX717 pre-administration, the increase of the electrical pain tolerance was similar (54.6 ± 56.7%, p=0.1 for CX717 versus placebo). Similarly, alfentanil increased the heat pain tolerance threshold by 24.6 ± 10.0% with placebo pre-administration. Ampakine co-administration had also no effect on the increase of the heat pain tolerance of the capsaicin-sensitized skin (23.1 ± 8.3%, p=0.46 for CX717 versus placebo). The results of this study allow us to draw the conclusion, that opioid induced ventilatory depression can be selectively antagonized in humans by co-administering an ampakine. This is the first successful translation of a selective antagonism of opioidinduced respiratory depression from animal research into application in humans. Ampakines, namely CX717, thus are the first selective antidote for opioid-induced respiratory depression without loss of analgesia, available for the use in humans.
Die Rolle von NO und cGMP in der Schmerzverarbeitung im Rückenmark ist in den letzten Jahren durch viele Berichte untermauert worden. Nicht vollständig bekannt sind hingegen die Mechanismen, derer sich cGMP bedient, um die Transmission von Schmerzen zu beeinflussen. In der vorliegenden Arbeit wurde deshalb untersucht, welche cGMPabhängigen Phosphodiesterasen (PDEs) hierbei eine Rolle spielen könnten und wie sich diese Beteiligung funktionell äußert. Dazu wurden immunhistochemische Färbungen von Rückenmarkschnitten angefertigt und Western-Blot-Analysen von Rückenmarkgewebe durchgeführt. Beide Methoden lieferten Hinweise dafür, dass die PDEs 1A, 1B, 3A,3B, 5A und 11A keine Rolle in der Verarbeitung von Schmerzen spielen. Demgegenüber scheinen die PDE1C, 2A und 10A in schmerzrelevanten Gebieten des Rückenmarks lokalisiert zu sein. Die funktionelle Relevanz der PDE2A und PDE10A im Rahmen der Schmerzverarbeitung wurde mit Hilfe des PDE2A-Inhibitors BAY 60-7550 und des PDE-10A-Inhibitors Papaverin in nozizeptiven Tiermodellen untersucht. Dabei bewirkte, im Modell der Complete Freund’s Adjuvant (CFA)-induzierten mechanischen Hyperalgesie, die i.p. Applikation von BAY 60-7550 oder Papaverin eine Verstärkung der Hyperalgesie. Weiterhin war die Leckzeit in der 2. Phase des Formalin-Modells bei einer Inhibition von PDE10A signifikant verlängert. Insgesamt bestätigen die Ergebnisse der vorliegenden Arbeit frühere Berichte, dass cGMP an der Schmerzsensibilisierung im Hinterhorn des Rückenmarks beteiligt ist und deuten auf eine Rolle insbesondere von PDE2A und 10A im Rahmen der Schmerzsensibilisierung hin.
Die supratentorielle dekompressive Kraniektomie mit Eröffnung und Erweiterungsplastik der Dura mater ist heutzutage eine wichtige Therapiemaßnahme in der Behandlung des konservativ nicht kontrollierbaren Hirndrucks. Unter Kranioplastik versteht man den chirurgischen Verschluss des entstandenen Knochendefekts zum Schutz des direkt unter der Kopfhaut liegenden Gehirns, zur ästhetischen Wiederherstellung der Konturen sowie zur Verbesserung einer neurologischen Symptomatik („syndrome of the trephined“).
In der vorliegenden Arbeit werden die Daten von insgesamt 242 Patienten, die einer Kranioplastik unterzogen worden waren, retrospektiv analysiert. Die Patienten wurden im Zeitraum 2001-2008 in der neurochirurgischen Abteilung der Städtischen Kliniken Frankfurt am Main-Höchst operiert. Um Aufschluss über das postoperative, funktionelle und kosmetische Ergebnis zu erhalten, wurde im Anschluss an die Aktenauswertung bei diesen Patienten eine telefonische Befragung durchgeführt.
Ziel der Arbeit war es, die bisherigen Erfahrungen der Kalottenplastik und insbesondere der autogenen orthotopen Knochendeckelreimplantation im Hinblick auf die verschiedenen Kranioplastik Zeitpunkte zu untersuchen und unter klinischen Aspekten zu bewerten.
Die Frage des Kranioplastik Zeitpunktes ist essentiell für die Therapieplanung.
Das autologe Schädelknochentransplantat hat bessere Eigenschaften und Qualitäten als alle anderen alloplastischen Materialien. In Anbetracht der perfekten Histokompatibilität, der optimalen biomechanischen Eigenschaften, der guten anatomischen Fusion mit dem umgebenden Knochen und der Möglichkeit der partiellen oder totalen Revitalisation des Transplantats, besteht kein Zweifel, dass der autologe Knochen immer zu verwenden ist, wenn die Möglichkeit dazu besteht.
Die Analyse der Patientengruppen ergab, dass die ultra frühe Kranioplastik der Patienten mit großen Defekten nach dekompressiver Kraniektomie ein besseres Outcome im langfristigen Follow-up hat. Diese Patienten hatten keine gesteigerte Infektions- oder andere Komplikationsraten. Das Timing der Kranioplastik spielt eine Rolle in der Komplikationsrate nur bei den Patienten, die sekundär eine Komplikation erlitten haben. Patienten, die nach der Kraniektomie eine Nachblutung, einen Infarkt oder eine Infektion erlitten haben, hatten eine signifikant höhere Infektionsrate bei ultra früher Kranioplastik. Insbesondere soll betont werden, dass der Trend einer Häufung von Wundheilungsstörungen und Infektionen mit der Folge einer erneuten Explantation des Knochendeckels bei Patienten nach autogener Knochendeckelreimplantation mit mehr als 2 Risikofaktoren und bei Patienten mit kompliziertem Verlauf nach Kraniektomie festgestellt wurde.
Gemäß den Ergebnissen dieser Patientenserie kann die ultra frühe Kranioplastik bei ausgewählten Patienten mittels Reimplantation des Eigenknochens als ein sicheres und hilfreiches Verfahren für die schnellere Rehabilitation und Besserung der neurologischen Funktion und der Prognose bewertet werden. Ähnlich gute Ergebnisse zeigten die Pantienten in der Gruppe 1 der ultra frühen Kranioplastik die aufgrund einer Liquorzirkulationsstörung ein VP Shunt System als kombinierte Therapie in der gleichen Sitzung erhalten haben.
Somit kann zusammenfassend festgehalten werden:
Die Ergebnisse dieser Arbeit bestätigen, dass die Kranioplastik nach einer supratentoriellen dekompressiven Kraniektomie mit Reimplantation des eigenen Schädelknochens zum frühesten möglichen Zeitpunkt ein sicheres und effektives Verfahren darstellt und bei ausgewählten Patienten sogar bessere Ergebnisse als die späte Kranioplastik haben kann. Eine mögliche Erklärung dafür könnte das Auftreten und die Persistenz von neurologischen Defiziten im Rahmen des „syndrome of the trephined“ bei Patienten bieten, bei denen eine späte Kranioplastik durchgeführt wurde. In diesem Patientengut hatten die Patienten mit ultra-früher Kranioplastik das beste neurologische Outcome, die Komplikationsrate war in allen Gruppen vergleichbar.
Um Komplikationen zu vermeiden, sollten Patienten mit einer vorausgegangenen lokalen Infektion spät kranioplastiert werden.
Das neurologische Outcome der Patienten, bei denen ein kombiniertes Verfahren Kranioplastik –VP Shunt durchgeführt wurde, war vergleichbar mit anderen Patientengruppen. Somit ist eine Kranioplastik bei Patienten mit konvexen, über Kalottenniveau prolabierten Kraniektomielappen aufgrund eines Hydrocephalus keine Kontraindikation.