Refine
Year of publication
Document Type
- Doctoral Thesis (18)
Has Fulltext
- yes (18)
Is part of the Bibliography
- no (18)
Keywords
- CIRS (1)
- Endoskopie (1)
- Endotoxin (1)
- Heme-Oxygenase 1 (1)
- Häm-Oxygenase 1 (1)
- Kapnographie (1)
- Leber (1)
- NAPS (1)
- Präkonditionierung (1)
- Reanimation (1)
Institute
- Medizin (18)
Nachdem die Sicherheit der Blutprodukte in den letzten Jahrzehnten vor allem bei transfusionsmedizinisch relevanten Viren wie HIV-1, HCV und HBV wesentlich durch die Einführung von molekularen Nachweismethoden auf Restrisiken unter 1 zu 1 Million reduziert werden konnte, liegt der aktuelle Fokus der Transfusionsmedizin auf der Vermeidung von bakteriellen Übertragungen. Dabei stehen vor allem die Thrombozytenkonzentrate im Vordergrund, da diese bei Raumtemperatur gelagert werden und somit für viele Bakterien ideale Wachstumsbedingungen darstellen. Die vorliegende Arbeit hat dabei in vier aufeinander aufbauenden Phasen systematisch die klinische Effizienz eines photochemischen Pathogeninaktivierungsverfahrens untersucht.
Phase 1: Darstellung des Wachstumsverhaltens von 8 transfusionsmedizinisch relevanten Keimen mittels der Spiking-Versuche in Thrombozytenkonzentraten. Für die nachfolgenden Phasen sind nur die Bakterienstämme ausgewählt worden, die nachweislich zu einer Vermehrung in Thrombozytenkonzentraten geeignet sind.
Phase 2: In den Experimenten mit Vollblutkonzentraten zeigt sich bei der Spikingkonzentration von 100 CFU/Beutel für alle ausgewählten Keime eine 100%ige Inaktivierungseffizienz. Bei der Anfangskonzentration von 1000 CFU/Beutel ergibt sich für den Keim Klebsiella pneumoniae (PEI-B-08-09) eine Inaktivierungseffizienz von 75% und für den Keim Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime haben in den Experimenten mit der höheren Spikingkonzentration eine Inaktivierungseffizienz von 100%.
Phase 3: Für den Keim Klebsiella pneumoniae (PEI-B-08-09) zeigt sich in den Experimenten mit Pool-TKs schon bei der niedrigen Anfangskonzentration eine Inaktivierungseffizienz von 75%. Bei der Spikingkonzentration von 1000 CFU/Beutel ergibt sich erneut für die Keime Klebsiella pneumoniae und Bacillus cereus eine Inaktivierungseffizienz von 50%. Alle anderen Keime weisen sowohl bei der niedrigen als auch bei der hohen Bakterienkonzentration eine 100%ige Pathogeninaktivierungseffizienz auf.
Phase 4: In den Experimenten mit Apherese-TKs zeigt sich für alle untersuchten Keime sowohl bei der niedrigen als auch bei der hohen Spikingkonzentration eine 100%ige Inaktivierungseffizienz.
Aus diesen Experimenten geht hervor, dass man mittels photochemischen Pathogeninaktivierungsverfahrens keine 100%ige Inaktivierungseffizienz erreichen kann. Vielmehr ist die Inaktivierungseffizienz zum einen von der bakteriellen Ausgangskonzentration, zum anderen aber auch vom Zeitpunkt der Anwendung des Verfahrens abhängig. Somit sollte der Begriff „ Pathogeninaktivierungsverfahren“ besser durch den Begriff des Pathogenreduktionsverfahrens ersetzt werden. Ferner wird anhand der Ergebnisse deutlich, dass die Anwendung von Pathogenreduktionsverfahren möglichst schnell nach der Spende erfolgen sollte. In diesem Zusammenhang haben Apherese-Thrombozytenkonzentrate gegenüber Pool-Thrombozytenkonzentraten einen Sicherheitsvorteil.
Einleitung: Schnell und gut durchgeführte BLS-Maßnahmen (Basic Life Support-Maßnahmen) können die Überlebensrate von Patient*innen mit einem Herzkreislaufstillstand enorm verbessern. Jedoch zeigen sich nicht nur bei medizinischen Laien, sondern bereits bei Medizinstudierenden deutliche Kompetenzdefizite. Die Studierenden selbst messen den Reanimationsfertigkeiten eine hohe Bedeutung bei.
Studierenden bietet das Internet insbesondere bei der rasanten technischen Entwicklung mit mittlerweile fast ubiquitärer Nutzbarkeit über Smartphones und Tablets eine einfache Möglichkeit, Lerninhalte zu vertiefen. Sie nutzen dafür Google, YouTube, Wikipedia und andere Internetquellen. Da es für die meisten Inhalte dieser Opensource-Plattformen keine Qualitätskontrolle gibt, ist die Gefahr groß, dass Studierende durch das Lernen mit Videos auf öffentlichen Plattformen auch Fehler und falsche Abläufe lernen.
Daher wäre eine Liste mit Empfehlungen der Lehrvideos zum Thema Reanimation, die den AHA-Guidelines (American Heart Association) entsprechen, wünschenswert. In der vorliegenden Arbeit wurde eine inhaltliche Checkliste entwickelt und zusammen mit einer didaktischen Checkliste zur Bewertung solcher Videos angewendet.
Material und Methoden: Im ersten Schritt des mehrstufigen Studiendesigns erfolgte die Entwicklung der inhaltlichen Checkliste. Die inhaltliche Checkliste wurde basierend auf den AHA-Richtlinien 2015 und des Updates 2017 erstellt. Sie wurde in einem 3-stufigen interdisziplinären Überarbeitungsprozess im Hinblick auf Anwendbarkeit und Verständlichkeit optimiert. Zur Bewertung der didaktischen Qualität der Videos wurde eine validierte Didaktik-Checkliste für medizinische Lehrvideos zugrunde gelegt. Insgesamt wurden 74 Videos der Plattform YouTube von jeweils zwei Reviewern anhand der beiden Checklisten bewertet.
Ergebnisse: Die resultierende Checkliste umfasst 25 Items in den Gruppen Initiale Maßnahmen, Thoraxkompression, AED und Beatmung. Die Bewertung erfolgt anhand einer 3-stufigen Likert-Skala, zusätzlich gibt es die Option Items auszuschließen, falls das Item in dem Kontext des Videos nicht zutrifft oder die Maßnahme bereits erfolgt ist. Die beiden Reviewer stimmten durchschnittlich in 65,06 ±12,56% der Items überein. Kein Video erreichte die vollständige Punktzahl der inhaltlichen oder didaktischen Checkliste. Durchschnittlich erreichten die Videos in der inhaltlichen Checkliste 56,21 ±19,18% und in der Didaktikcheckliste 66,61 ±14,32%. Es konnte kein Zusammenhang zwischen der Anzahl der Aufrufe und dem jeweiligen Score der Videos oder dem Rang der Videos und deren Score festgestellt werden. Die Videos von medizinischen und staatlichen Institutionen schnitten zwar durchschnittlich besser ab, jedoch gab es auch in dieser Untergruppe Videos mit niedrigen Scores.
Schlussfolgerung: Die auf YouTube zur Verfügung gestellten Videos zu Reanimationsmaßnahmen sind häufig von schlechter inhaltlicher Qualität. Trotzdem spielen diese Videos bereits jetzt eine wichtige Rolle im Erlernen der Reanimationsmaßnahmen und werden sowohl von Laien als auch von medizinischem Personal und Medizinstudierenden genutzt. Für die Zukunft wäre daher ein Qualitätssiegel bzw. eine Liste der empfehlenswerten Videos sinnvoll. Da keins der untersuchten Videos uneingeschränkt empfehlenswert ist, anhand der beiden erprobten Checklisten sorgsam neue Videos zu dem Thema zu erstellen.
Einleitung- 12,5% aller operierten Patienten sind für mehr als 80% aller Todesfälle verantwortlich. Über die Identifizierung dieser Risikopatienten ist wenig bekannt.6. Währenddessen sind hepatobiliäre Operationen nach wie vor mit einem relativ hohen Mortalitätsrisiko von etwa 5% assoziiert.15.
Ziel- Die Evaluierung der „Cumulative Illness Rating Scale(CIRS)“ zur Prädiktion von Komplikationen und Mortalität in der hepatobiliären Chirurgie.
Material und Methoden- Alle Patienten, die sich vom 01.01.2011 bis zum 06.05.2016 einer hepatobiliären unterzogen, wurden retrospektiv anhand der elektronischen Patientenakte(NICE) gemäß der modifizierten CIRS46 bewertet. Abhängig von der Gesamtsumme der ermittelten CIRS-Werte wurden die Patienten in 4 Risikoklassen (1-4) unterteilt. Anschließend wurden die 14 CIRS-Kategorien und die Risikoklassen auf ein vermehrtes Auftreten von Komplikationen ≥IIIb50 gemäß der Dindo-Klassifikation sowie der 90-Tages-Mortalität49 untersucht.
Ergebnisse- 576 Patienten mit einem durchschnittlichen Alter von 60,7 ± 13,7 Jahren wurden in die Studie aufgenommen. 18,6% der Patienten wiesen Komplikationen ≥IIIb anhand der Dindo-Klassifikation auf. 6,8% verstarben innerhalb des Überwachungszeitraumes von 90 Tagen. Für die Risikoklassen 3+4 (OR=1,674; p=0,027; 95%CI=1,060-2,645) sowie für Erkrankungen der Schweregrade 3+4 in der Kategorie „Leber“ (OR=2,583; p=0,015; 95%CI=1,205-5,538) konnten signifikant erhöhte Wahrscheinlichkeiten für die Entstehung von Komplikationen festgestellt werden. Gleiches wurde im Bezug auf Mortalität für Erkrankungen der Schweregrade 3+4 in den Kategorien „Hypertonie“ (OR=2,249; p=0,019; 95%CI=1,141-4,434) und „Leber“ (OR=8,891; p=0,033; 95%CI=1,189-66,492) nachgewiesen. Im Gegensatz dazu führten Erkrankungen der Schweregrade 3+4 in der Kategorie „Unterer Gastrointestinaltrakt“ zu einer deutlichen Reduzierung des Risikos für die Entwicklung von Komplikationen (OR=0,385; p<0,000; 95%CI=0,228-0,649) und Mortalität (OR=0,419; p=0,047; 95%CI=0,178-0987). Die im Rahmen der binär logistischen Regression erstellten Regressionsgleichungen ermöglichten keine verbesserte Klassifizierung der Patienten.
Zusammenfassung- Die Ergebnisse zeigen, dass signifikante Zusammenhänge zwischen der Entstehung von Komplikationen ≥IIIb anhand der Dindo-Klassifikation und der 90-Tages-Mortalität mittels CIRS nachweisbar sind. Dennoch geht hervor, dass der prädiktive Wert der modifizierten CIRS für die hepatobiliäre Chirurgie gering ist.
In der vorliegenden Dissertation wurde untersucht, ob die endotracheale Intubation (ETI) der alternativen Atemwegssicherung mittels Larynxtubus (LT) bezüglich der Überlebenswahrscheinlichkeit bei außerklinisch reanimierten Patienten überlegen ist.
Das retrospektiv erfasste Kollektiv dieser monozentrischen Studie umfasst 222 Patienten, die in den Jahren 2006 bis 2014 nach nicht-traumatischem Herz-Kreislauf-Stillstand außerhalb der Klinik (engl.: Out-of-hospital cardiac arrest, OHCA) präklinisch primär mit Endotrachealtubus (ET) oder LT versorgt und anschließend auf die internistische Intensivstation des Universitätsklinikums Frankfurt am Main aufgenommen wurden. Endpunkte der Studie waren die innerklinische Gesamtmortalität während des Krankenhausaufenthaltes sowie die Überlebensrate nach 24 Stunden.
In die Analyse wurden 208 Patienten einbezogen, von denen präklinisch 48 Patienten mit LT (23 %) und 160 Patienten mit ET (77 %) intubiert wurden. Die innerklinische Sterblichkeitsrate lag insgesamt bei 85 % (n=176); darunter 23 % LT- und 77 % ET-versorgte Patienten. Zwischen den beiden Methoden zur Atemwegssicherung zeigten sich sowohl in einer univariaten Analyse (Hazard ratio [HR]=0,98; 95 % Konfidenzintervall [K.I.] 0,69-1,39; p=0,92) als auch in einer multivariaten Cox-Regressionsmodell (adjustierte HR=1,01; 95 % K.I. 0,76-1,56; p=0,62) keine Unterschiede. Die ersten 24 Stunden nach OHCA überlebten 38 % aller Patienten; auch hier unterschieden sich die beiden Patientenkollektive nicht signifikant voneinander (univariate HR=1,04; 95 % K.I. 0,71-1,52; p=0,83).
Ferner veranschaulichte eine Propensity-Score-Matching-Analyse (PSM) mit einer Subgruppe von 120 Patienten, zusammengestellt in einem 3:1 Verhältnis (ET:LT), sowohl mit Blick auf die Überlebensrate bis zur Krankenhausentlassung (Propensity-adjustierte HR=0,99; 95 % K.I. 0,65-1,51; p=0,97) als auch auf die Mortalität in den ersten 24 Stunden (Propensity-adjustierte HR=1,04; 95 % K.I. 0,44-2,36; p=0,96) vergleichbare Ergebnisse beim Atemwegsmanagement mit LT bzw. ET.
Die frühe Durchführung einer Herzkatheteruntersuchung (HR=0,47; 95 % K.I. 0,28-0,77; p=0,003) sowie der frühe Beginn einer systemischen empirischen antibiotischen Therapie (HR=0,28; 95% K.I. 0,17-0,45; p<0,001) konnten überdies als signifikant positive Prädiktoren für das Überleben in einer angepassten Cox-Regressionsanalyse herausgearbeitet werden.
Im Gesamten konnte somit demonstriert werden, dass die initiale präklinische Anwendung des LT nach OHCA der ETI hinsichtlich der Überlebenswahrscheinlichkeit nicht untergeordnet ist. Neuester Literatur zufolge ist sie womöglich sogar überlegen. Dies gilt es in weiteren Studien zu bestätigen.
Bluttransfusionen ermöglichen es jährlich tausenden von Menschen das Leben zu retten. Allerdings bringt ein unreflektierter Einsatz auch zahlreiche Nachteile mit sich. Patient Blood Management (PBM) beschäftigt sich damit, das optimale Kosten-Nutzen-Verhältnis dieser Maßnahme auszuschöpfen.
Das Programm verfolgt einen multimodalen Ansatz zur Reduktion von Transfusionen. Es zielt darauf ab präoperative Anämie zu erfassen und, wenn möglich, zu therapieren, iatrogenen Blutverlust zu reduzieren und die Anämietoleranz des Körpers maximal auszunutzen. Diese Maßnahmen wurden durch Schulungsprogramme und die Bereitstellung von Informationsmaterial begleitet, um die Sensibilität und das Wissen zu diesem Thema zu vergrößern.
Die vorliegende Arbeit befasst sich mit den Einflüssen der Einführung von PBM auf die Mortalität und Morbidität von Malignompatienten in der Viszeralchirurgie. Die retrospektive Analyse war darauf ausgerichtet, einen Unterschied von 10 % im Zweijahresüberleben vor und nach Einführung festzustellen. Hierfür wurden die Daten von 836 Patienten ausgewertet, die sich über einen Zeitraum von vier Jahren einer onkologischen Operation in der Abteilung für Allgemein- und Viszeralchirurgie der Universitätsklinik Frankfurt am Main unterzogen haben. Davon befanden sich 389 vor und 447 nach der Einführung des Projekts in Behandlung.
Das Ziel der Untersuchung bestand darin, die Sicherheit und den Nutzen von PBM in dieser speziellen Patientengruppe näher zu untersuchen. Dazu wurden der primäre Endpunkt des Zweijahresüberlebens und die sekundären Endpunkte 30-Tages- und 90-Tagesüberleben, Prozentsatz an Patienten mit Anämie, Anzahl der transfundierten Erythrozytenkonzentrate (EK) sowie das Auftreten von Komplikationen nach der Dindo-Clavien Klassifikation festgelegt.
Die erhobenen Daten zeigen ein um 13,1 % (p = < 0,001) verbessertes Überleben nach zwei Jahren in den Vergleichsgruppen vor und nach Einführung des Patient Blood Managements. Es haben 21,5 % (p = < 0,001) weniger Patienten Erythrozytenkonzentrate erhalten, zudem wurde die Gesamtsumme der transfundierten Konzentrate signifikant (p = < 0,001) reduziert.
Dabei kam es zu keinem vermehrten Auftreten von Komplikationen. Dies spricht dafür, dass die Einführung von PBM zur Verbesserung der Patientensicherheit beigetragen hat. Es hat sich gezeigt, dass Patienten ohne oder mit moderaten postoperativen Komplikationen (Dindo-Claven < IIIb) von den Veränderungen im besonderen Maße profitieren.
Eine flächendeckende Implementierung des Konzepts in den klinischen Alltag ist als sicher und empfehlenswert zu betrachten. Neben den Patienten profitiert auch das ärztliche Personal, denn im Rahmen von strukturierten Fortbildungsveranstaltungen wird tiefergehendes Wissen vermittelt und klare Handlungsempfehlungen gegeben. Dies reduziert Unsicherheiten, erhöht die Sensibilität und verringert auf diesem Weg Fehler im Transfusionsmanagement. Des Weiteren ergeben sich ökonomische Vorteile. Durch Schulungen, Anämiescreening und der Anschaffung neuer blutsparender Systeme entstehen zwar zunächst zusätzliche Kosten, allerdings stehen diese Einsparungen, durch einen geringeren EK-Verbrauch sowie geringeren Ausgaben durch eine Senkung der Morbidität, gegenüber.
Es wäre von Interesse, in zukünftigen Untersuchungen die genauen Ursachen für den beobachteten Effekt im verbesserten Langzeitüberleben zu analysieren. Mit diesem Wissen kann eine optimale Nutzung der Einflussfaktoren gewährleistet werden. Zudem sollte es auf dieser Basis möglich werden, das Patientenkollektiv, das von einer Transfusion profitiert, genauer einzugrenzen.
Langzeitbeobachtung der Therapie von Hämophilie A-Patienten mit einem humanen Faktor VIII-Konzentrat
(2019)
This doctoral thesis entitled “Long-term surveillance of the therapy of haemophilia A patients with a human plasma-derived factor VIII concentrate” was performed to assess the influence of the chronic long-term therapy with a human plasma-derived factor VIII concentrate in daily clinical practice on the health of haemophilia A patients.
Haemophilia A is a chronic disease, caused by a congenital deficiency of coagulation factor VIII, which requires life-long haemostatic treatment. The severity of bleedings, as the main clinical feature of haemophilia A, is generally correlated with the residual activity of coagulation factor VIII.
Until recently, factor VIII preparations, used to replace the deficient factor VIII, were the only treatment option for haemophilia A. Development of inhibitory antibodies against factor VIII is the most serious complication associated with the use of factor VIII products, rendering the administered factor VIII ineffective.
To date, all novel treatments still rely on some factor VIII replacement therapy. At least in the near future and probably for longer, (concomitant) therapy with factor VIII concentrates will continue to be necessary for treatment of haemophilia A, emphasising the continuous need for efficacy and safety data in terms of pharmacovigilance on factor VIII replacement therapy.
Medicines to treat haemophilia A, are authorised for use, when evidence of its efficacy and safety is limited to data of a small number of investigated patients during short-term observation periods of about six months, and thus have not been systematically assessed in all patient groups until marketing authorisation. Long-term efficacy and safety data from post-marketing surveillance are important to prove that a chronic treatment is efficacious and safe in the real-life setting by monitoring “real-life” patients of all age groups, rather than a carefully selected patient population. Medical and scientific analyses of such long-term data are crucial to detect, understand, and potentially prevent the harm resulting from (new) adverse drug reactions, including those, which only rarely occur and therefore are difficult to detect.
Therefore, data from two prospective surveillance studies investigating real-life therapies with the same human plasma derived factor VIII concentrate were combined and analysed retrospectively. It was hypothesised that the chronic long term therapy with a human plasma-derived factor VIII concentrate in daily clinical practice is effective, safe, and well tolerated with no unexpected adverse effect on the health of haemophilia A patients. It was the aim of this analysis to investigate the influence of the chronic long-term treatment with the factor VIII concentrate on the health of patients with severe as well as nonsevere haemophilia A including all age groups in a real-life setting. In addition, the influence of prophylactic factor VIII treatment or the switch to this regimen on the annual bleeding rate of all haemophilia A patients, and the long-term effects of this regimen on the patients’ annual bleeding rates were investigated.
Starting in 1998 until 2015, data of 1418 patient-years from 198 haemophilia A patients representing all age groups and haemophilia A severities were analysed. This study covered 18 years of documentation time with a mean observation period of more than seven years per patient. It is the longest study of a single factor VIII concentrate conducted so far, investigating the therapy of haemophilia A. The only observed side effects involved low incident factor VIII inhibitor formation in patients at risk (13 % of previously untreated patients, compared with usually about 30 %). Factor VIII inhibitor development was mainly transient, with low titers, and without clinical relevance. Any, even low frequent prophylaxis was found to be significantly better than on demand and had the greatest effect on the annual bleeding rate of patients, irrespective of their age or haemophilia A severity. Patients suffered during continuous prophylaxis from a very low bleeding rate (median 1.3 compared with 31.4 under on demand), down to no bleeding per year. Patients whose regimen changed to continuous prophylaxis benefitted most (median annual bleeding rate 1.1), irrespective of age or haemophilia A severity.
This analysis demonstrates that the chronic long-term therapy with the plasma-derived factor VIII concentrate in daily clinical practice is effective, safe, and well tolerated. Thus, data on efficacy and safety obtained during chronic long-term therapy with the human plasma-derived factor VIII concentrate reaffirm that there is no unexpected adverse effect on the health of haemophilia A patients.
These results support the therapeutic concept of a life-long prophylaxis of haemophilia A patients with a human plasma-derived factor VIII concentrate.
Sepsis is caused by infection and often followed by an overwhelming inflammatory response. This can lead to shock, organ failure and even death. Each year approximately 60,000 people die in Germany due to sepsis. There is good evidence that sepsis is associated with failure of the hypothalamic-pituitary-adrenal-axis. In patients with sepsis, glucocorticoids (e.g. corticosterone, cortisol) released from adrenal glands play an essential role in preventing an excessive pro-inflammatory response. Adrenal insufficiency occurs in a large number of patients with septic shock and is associated with an increased mortality. In the innate immune system, Toll-like receptors (TLRs) play a crucial role in its onset by recognizing pathogenassociated molecules. It is well known that there are interactions between the immune and endocrine stress systems; glucocorticoids and TLRs regulate each other in a bi-directional way. Therefore, a coordinated response of the adrenal and immune system is of vital importance for survival during severe inflammation. This experimental study focuses on the role of TLR-2, TLR-4 and TLR-9 during adrenal stress. The results show that in mice, the absence of TLR-2 and TLR-4, but not TLR-9 leads to altered adrenal morphology, relating to size and cellular structure. However, this alteration does not appear to compromise the phenotype of TLR knock-out mice. Mice deficient of TLR-2, 4 and 9 are not able to respond adequately to inflammatory stress induced by their potential ligands lipopolysaccharide (LPS), lipoteichoic acid (LTA) or cytidine phosphate guanosine-oligodeoxynucleotides (CpG-ODN). This impaired adrenal stress response appears to be associated with a decrease in systemic and intra-adrenal cytokine expressions. Taken together, these results suggest that TLR-2, 4 and 9 are key players in the immuno-endocrine response during inflammation and SIRS. In conclusion, TLRs play a crucial role in the immune-adrenal crosstalk. This close functional relationship needs to be considered in the treatment of inflammatory diseases where an intact adrenal stress response is required. Furthermore, TLR polymorphisms could contribute to the underlying mechanisms of impaired adrenal stress response in patients with bacterial sepsis
Die Präkonditionierung mit den bakteriellen Zellwandbestandteilen Lipopolysaccharid (LPS) oder Lipoteichonsäure (LTA) führt in vivo zu einer Reduktion der myokardialen Infarktgröße nach Ischämie und Reperfusion (I/R). Hierbei wird durch die Präkonditionierung u.a. die Akkumulation neutrophiler Granulozyten im Ischämiegebiet während der Reperfusionsphase reduziert und somit einer der wichtigsten Mechanismen bei der Entstehung des Reperfusionsschadens am Herzen vermindert. In dieser Studie bedienten wir uns eines ex vivo Modells nach Langendorff mit regionaler I/R und zellfreier Perfusion. Wir konnten erstmalig eine LTA-Präkonditionierung in einem leukozytenfreien System zeigen und somit demonstrieren, dass die LTA-Präkonditionierung Mechanismen involviert, die unabhängig sind von einer Akkumulation neutrophiler Granulozyten. 24 Stunden nach einer Vorbehandlung der Ratten mit LPS, LTA, Kochsalz und/oder Dexamethason wurden die Herzen entfernt und retrograd mit oxygenierter Krebs-Henseleit-Lösung perfundiert. Die Herzen wurden einer 20-minütigen Ischämie, gefolgt von einer 2-stündigen Reperfusionsphase, unterzogen. Das Infarktrisikogebiet (Evans-Blue-Färbung) und das Infarktgebiet (pNBT-Färbung) wurden planimetrisch bestimmt. Die ischämische Präkonditionierung (IPC) wurde als Positivkontrolle unseres Modells verwendet. LTA- und LPS-Präkonditionierung führten - ebenso wie IPC - bei gleicher Dosierung in vergleichbarem Umfang zu einer signifikanten Reduktion der Infarktgröße. Dieser Effekt konnte durch Vorbehandlung mit Dexamethason vollständig aufgehoben werden, so dass gefolgert werden kann, dass die Protektion durch LPS bzw. LTA. von der Modulation der inflammatorischen Vorgänge im Endothel und Myokard mit abhängt.