Refine
Year of publication
- 2008 (110) (remove)
Document Type
- Doctoral Thesis (110) (remove)
Has Fulltext
- yes (110)
Is part of the Bibliography
- no (110)
Keywords
- ADC-Karte (1)
- ADC-Map (1)
- Allergen (1)
- Allergen-Testung (1)
- Allergenprovokation (1)
- Allergisches Asthma (1)
- Allgemeinmedizin (1)
- Analgesia (1)
- Analgesie (1)
- Angiographie (1)
Institute
- Medizin (110) (remove)
In Deutschland leiden 10-20% der Erwachsenen unter Allergien, wovon 16-36% durch Inhalationsallergene verursacht werden, von denen die Birkenpollen die hauptsächliche Ursache der allergischen Rhinitis vom Frühling bis Frühsommer in Mitteleuropa sind. Als häufigste Typ 1 Allergie ist die Birkenpollenallergie in 70% der Fälle mit einer kreuzreagierenden Nahrungsmittelallergie verbunden. Die Studienlage und die stetig steigende Inzidenz atopischer Erkrankungen weisen auf die außerordentliche Bedeutsamkeit einer effizienten Diagnostik hin, wobei die in-vitro Diagnostik neben Anamnese und Hauttests eine immer bedeutendere Rolle spielt. Mit Tests wie dem Westernblot können einzelne Allergenepitope größenmäßig erfasst und sichtbar gemacht werden. Diese genaue Differenzierung der Proteinbestandteile des Allergenspektrums erlaubt eine exaktere Einschätzung des Antikörperspektrums jedes einzelnen Patienten. In dieser vorliegenden Studie soll die Wertigkeit der Westernblot-Technologie im Rahmen der in-vitro Diagnostik pollenassoziierter Nahrungsmittelallergien bezüglich der Sensitivität, Spezifität, Praktikabilität und des Epitopspektrums bei Patienten mit pollenassoziierter Nahrungsmittelallergie beurteilt werden. Mit dem Pricktest und einer ausführlichen Anamnese als Auswahlverfahren wurden 30 Patienten einer Kontrollgruppe, 30 einer Gruppe für Birkenpollen-Allergiker und 32 einer Gruppe für Birkenpollen-Allergiker mit pollenassoziierter Nahrungsmittelallergie zugeordnet. Zusätzlich wurden die korrespondierenden Seren zuerst mit dem Immulite 2000® (Festphasen-basierender Chemilumineszens-Immunoassay) der Firma DPC-Biermann (Bad Nauheim) auf Birkenpollenallergene und kreuzreagierende Nahrungsmittelallergene getestet. Danach wurden die Seren mit dem Westernblot AlaBLOT®, DPC-Biermann (Bad Nauheim) und dem AlaBlot® Allergenstreifen des spezifischen Birkenpollenallergens T3 untersucht, zu dessen Auswertung eine nach WHO-Nomenklatur angefertigte Schablone verwendet wurde. Die Ergebnisse der Tests wurden mittels deskriptiver statistischer Methoden analysiert. Es konnte gezeigt werde , dass die Wertigkeit der Westernblot Technologie (Alablot Spezifisches IgE®, DPC Biermann, Bad Nauheim) im Rahmen der in-vitro Diagnostik von Birkenpollenallergien und birkenpollenassoziierter Nahrungsmittelallergien vergleichbar ist mit der spezifischen IgE-Technologie (Immulite 2000®, DPC Biermann, Bad Nauheim). Bei Birkenpollenallergikern erreichten beide Tests eine identische Sensitivität von 93%. In der Effizienz übertraf der Westernblot den spezifischen IgE-Test sogar in einem Fall: Mit Bet v 6 erreichte er eine höhere Effizienz mit 99,3% als der spezifische IgE-Test. Der Immulite 2000 erreichte eine Effizienz von 96,7%. Mit Bet v 1 und Bet v 2 erreicht der Westernblot eine 95% Effizienz und lag damit nur knapp unter dem spezifischen IgE-Test. Bei den Birkenpollenallergikern mit pollenassoziierter Nahrungsmittelallergie war die Sensitivität ebenfalls bei beiden diagnostischen Tests identisch mit 100%. Ebenso identische Werte wiesen beide Tests in der Spezifität von 100% auf. In der Effizienz lag der Westernblot nur kurz hinter dem spezifischen IgE-Test. Der spezifische IgE-Test erreichte eine Effizienz von 100% und der Westernblot 98,4%. Mit dem Westernblot wurde kein spezifisches Birkenpollen-Allergenepitop identifiziert, das speziell bei Patienten mit pollenassoziierter Nahrungsmittelallergie auftrat und somit ein Identifikationsepitop wäre. Die Epitopverteilung war bei Pollenallergikern und pollenassoziierten Nahrungsmittelallergikern ähnlich. Allerdings bestand ein Unterschied der beiden Allergikerkollektive in der mittleren Anzahl der Epitope. Die durchschnittliche Anzahl von allergenen Epitopen lag bei den Seren der Patienten mit pollenassoziierter Nahrungsmittelallergie mit 6,06 Epitopen deutlich über dem der reinen Pollenallergiker mit 3,83 Epitopen. Obwohl der Westernblot Nachteile in der Praktikabilität gegenüber dem spezifischen IgE-Test aufweist, stellt er durch die vergleichbaren Sensitivitäten und Spezifitäten und die Fähigkeit, Antikörper gegen einzelne Antigenbestandteile zu differenzieren, eine Alternative zum spezifischen IgE-Test in der Diagnostik von Birkenpollenallergikern mit oder ohne pollenassoziierte Nahrungsmittelallergie dar. Der höhere Durchschnitt an Epitopen bei Patienten mit pollenassoziierter Nahrungsmittelallergie erleichtert in der Diagnostik die schnellere Abgrenzung gegenüber reinen Pollenallergikern und beweist das Vorliegen eines komplexen Sensibilisierungsspektrums. Durch den Westernblot könnte durch die exakte Differenzierung der Allergenspektren eine individuellere spezifische Immuntherapie („patient-tailored-therapy“) ermöglicht werden, was besonders für Allergiker mit einem komplexen Sensibilisierungsspektrum von großer Relevanz wäre. Nach Identifikation der für den jeweiligen Patienten relevanten Epitope könnte die spezifische Immuntherapie an das Sensibilisierungspektrum angepasst werden und dadurch irrelevanten oder sogar unerwünschten Immunantworten vermieden werden
Bei Operationen am offenen Herzen kann in den Herzkammern verbliebene Restluft zur Entstehung von Gasembolien führen, die ihrerseits neurokognitive Defizite verursachen. Die Flutung des Thorax mit Kohlendioxid soll hierbei geeignet sein, die im Herzen verbleibende Luftmenge zu verringern. Ein protektiver Effekt von Kohlendioxid-Insufflation auf die postoperative Gehirnfunktion wurde bisher jedoch noch nicht in klinischen Studien nachgewiesen. In unserer Studie waren 80 Patienten einbezogen, die sich einer Herzklappenoperation mit Sternotomie unterziehen mussten. Sie wurden randomisiert in eine Therapie- und eine Kontrollgruppe. Die präoperativen Untersuchungen der Patienten beinhalteten eine neurokognitive Testbatbatterie aus 6 Einzeltests und die Messung auditorischer Ereignis-korrelierter Potentiale (P300) als Maß für die präoperative Gehirnfunktion. Die neurokognitiven Tests und die P300-Messungen wurden am 5. postoperativen Tag unter gleichen Bedingungen wiederholt. Als neurokognitives Defizit wurde eine Verschlechterung von mindestens 20 % zur Voruntersuchung in 2 oder mehr Tests definiert. Die Gruppen wiesen keine signifikanten Unterschiede bezüglich wichtiger klinischer Parameter auf. Insbesondere die gemessenen Latenzen der P300-Messung unterschieden sich präoperativ nicht zwischen den beiden Gruppen. Fünf Tage nach der Operation waren diese Latenzen im Gruppenvergleich signifikant verlängert im Vergleich zur Vormessung. Die Gruppen unterschieden sich nicht im Vergleich der Parameter Mortalität, Auftreten von zerebrovaskulären Ereignissen und Durchgangssyndromen, sowie bezüglich der Intubationszeiten und der Krankenhausaufenthaltsdauer. Ebenso konnten in der neurokognitiven Testbatterie keine signifikanten Unterschiede dargestellt werden. Wir konnten in dieser Studie zeigen, dass die Verlängerung der postoperativ gemessenen P300-Latenz, die einen objektiven Messwert für Gehirnschäden nach Operationen am offenen Herzen darstellt, durch die Flutung des Operationsfeldes mit CO2 signifikant reduziert wurde. Die klinischen Befunde und neurokognitiven Tests korrelierten nicht zwangsläufig mit diesen Ergebnissen, stellten sich jedoch für diese Form der Studie als ungeignet heraus, da sie nicht empfindlich genug reagieren und nicht optimal für dieses Patientenkollektiv verwendbar waren. Trotzdem sollte die Kohlendioxid-Insufflation bei allen Operationen am offenen Herzen eingesetzt werden um die Entstehung von neurokognitiven Defiziten nach der Operation zu reduzieren oder gar ganz zu verhindern.
Ziel: Evaluation der transpulmonalen Chemoembolisation TPCE als symptomatisches, palliatives Verfahren für die Therapie inoperabler primärer und sekundärer Lungentumoren. Material und Methoden: 69 Patienten (46 Männer, 23 Frauen; Durchschnittsalter: 60,9 Jahre) mit primären und sekundären Lungentumoren wurden mittles TPCE im Zeitraum von 2001 bis 2005 in durchschnittlich 3,36 Sitzungen (Range: 2 - 10 Sitzungen) behandelt. Dabei litten 17 Patienten (14 Männer, 3 Frauen; Durchschnittsalter: 64,5 Jahre; Range: 44 - 78 Jahre) an inoperablen primären Lungentumoren, 52 weitere (32 Männer, 20 Frauen, Durchschnittsalter: 59,8 Jahre; Range: 33 - 83 Jahre) zeigten Metastasen verschiedenen Ursprungs. Nach Punktion der Vena femoralis wurden die tumorversorgenden Pulmonalarterien selektiv sondiert und unter Ballonprotektion 5 - 10 mg Mitomycin C und 5 - 10 ml Lipidol sowie Microspheren (Spherex) (Durchmesser: 20 - 70 μm) appliziert. Pro Sitzung wurden Läsionen nur eines Lungenlappens behandelt. Die Diagnose und Auswertung erfolgte im 4-Wochen-Intervall mittels nativer sowie kontrastmittelverstärkter, computertomographischer Bildgebung. Das Follow-up erstreckte sich hierbei über einen Zeitraum von sechs Monaten bis zu zwei Jahren für Patienten mit primären Tumoren; für Patienten mit sekundären Tumoren lag die Nachsorgezeit zwischen sechs Monaten und 2,25 Jahren. Ergebnisse: Die Behandlung wurde von allen Patienten ohne größere Nebenwirkungen und Komplikationen toleriert; Laborparameter wurden nicht relevant beeinflusst. Eine hohe sowie moderate Lipiodolaufnahme konnte in 17 Fällen (24,6%) computertomographisch verifiziert werden, während sich in 52 Fällen (75,4%) eine niedrige Lipiodolaufnahme zeigte. Nach Beurteilung morphologischer Kriterien wurde eine Volumenreduktion der embolisierten Areale bei 20 Patienten (29,0%) um im Mittel 13,9 ml (53,9%) erreicht, während sich bei 14 Patienten (20,3%) eine Größenkonstanz zeigte. In 35 Fällen (50,7%) kam es zu einer Volumenzunahme der behandelten Tumoren. Hierbei betrug das durchschnittliche Tumorwachstum 29,4ml (131,0%). Schlussfolgerung: Die transpulmonale Chemoembolisation (TPCE) stellt eine gut verträgliche palliative Therapiemaßnahme zur Reduzierung der Tumorvolumina bei Patienten mit primären und sekundären Lungentumoren dar.
Die Fortschritte in der Molekularbiologie innerhalb des letzten Jahrzehnts und die Aufschlüsselung des menschlichen Genoms sowie Verfeinerungen der Gentechnik haben wesentlich dazu beigetragen, dass die molekularen Ursachen vieler Erkrankung besser verstanden werden können. Das EEC-Syndrom ist ein Paradebeispiel eben jener Entwicklung. Noch vor 20 Jahren war die Fachwelt im Unklaren darüber, welche Ursachen einem Symptomkomplex, bei dem ektodermale sowie mesodermale Strukturen gleichzeitig betroffen sind und wie man es dann unter dem EEC-Syndrom zusammenfasst, zu Grunde liegen. Die Entdeckung von p63, als homologes Gen des Tumorsuppressorgen p53, im Jahr 1997 hat zu einem besseren Verständnis der Entstehung und Pathogenese des EEC-Syndroms beigetragen. Die Erbinformationen von Patienten mit EEC-Syndrom sowie deren Familienmitglieder können systematisch nach Mutationen des p63 Gens untersucht werden, damit einer genetische Beratung mehr Informationen zu Verfügung stehen. Das Ziel dieser Doktorarbeit ist es, einen Überblick über das Symptomspektrum des EEC-Syndroms zu vermitteln, die genetischen Ursachen darzustellen und diese Erkenntnisse mit den Ergebnissen der Untersuchung des Patientenfalles zu vergleichen. Bei der Beschreibung der Symptome wurde besonderes Augenmerk auf die Fehlbildungen im Mund-, -Kiefer- und Gesichtsbereich gelegt. Die Problematik bestand darin, die Fallstudien der medizinischen Literatur und die wissenschaftlichen Quellen aus dem Bereich der Molekularbiologie, mit Bezug zum EEC-Syndrom, zusammenzutragen, gegenüberzustellen und zusammenzufassen. Die wichtigsten Fehlbildungen im Mund-, Kiefer- und Gesichtsbereich sind die unilateral sowie bilateral auftretenden Lippen-, Kiefer- und Gaumenspalten sowie eine Atresie des Ductus nasolacrimalis und Aplasie der Meibomschen Drüsen. Die funktionellen und ästhetischen Störungen, welche mit einer Spalte einhergehen, bedingen eine frühe operative Therapie um eine physiologische Entwicklung des orofazialen Bereichs zu ermöglichen und Sprachbildungsstörungen weitestgehend zu vermeiden. Die Atresie des Ductus nasolacrimalis und eine Aplasie der Meibomschen Drüsen können schon in frühen Jahren Epiphora, schmerzhaften Infektionen der Lidränder und Konjunktividen hervorrufen. Bei ausbleibender Therapie kann dies zur Beeinträchtigungen der Sehfähigkeiten führen.
Von den in dieser Studie 163 untersuchten Patientinnen mit Carcinom der Cervix uteri wurden 56 mit entweder postoperativer oder alleiniger Radiochemotherapie und 107 mit entweder postoperativer oder alleiniger Radiotherapie behandelt. Die Radiotherapie bestand bei allen 163 Patientinnen aus perkutaner Hochvolttherapie, in 129 Fällen kombiniert mit intrakavitärer Kontaktbestrahlung. Die Chemotherapie bestand aus der wöchentlichen Gabe von Cisplatin. 62 Patientinnen wurden vor der Therapie operiert. Das mittlere Alter bei Diagnosestellung lag bei 55 Jahren mit eine Range von 21 bis 84 Jahren. Das Tumorstadium der untersuchten Patientinnen lag zwischen I und IVa, wobei die meisten Patientinnen Tumoren im Stadium II (36,8 %) oder III (27,6 %) aufwiesen. Allerdings wurde in vielen Fällen, in denen keine Operation erfolgte, das Tumorstadium nach FIGO und bei operierten Patientinnen das Tumorstadium nach TNM-Klassifikation erfasst. Bei 96,3 % der Tumoren handelte es sich histopathologisch um ein Plattenepithelcarcinom, in 3,7 % um ein Adenocarcinom. Obwohl 6 verschiedene Therapiemodalitäten eingesetzt wurden, war vor allem der Vergleich der Gruppe, die eine Radiochemotherapie erhalten hatten, mit jener, die eine alleinige Radiotherapie erhielt, von besonderem Interesse. Die akuten und chronischen Nebenwirkungen wurden nach den Richtlinien der RTOG-EORTC beurteilt. An 54 Patientinnen konnte über die Nachsorge hinaus ein Fragbogen zugesendet werden, der in Anlehnung an die Kriterien des LENT-SOMA Konzepts die subjektive Morbidität der Patientinnen abfragte. Die Gesamt 2-JÜR lag bei 70 %, die Gesamt 5-JÜR bei 58 % mit einer Rezidivrate für das Gesamtkollektiv von 14,1 %. Bei 17,4 % der Patientinnen traten Fernmetastasen sowie in 8 % der Fälle Lymphknotenmetastasen auf. Das Überleben bei Radiochemotherapie stellte sich gegenüber alleiniger Radiotherapie als verbessert (2-JÜR bei RCT von 82 % vs. 2-JÜR bei RT von 64% sowie 5-JÜR bei RCT von 69 % vs. 5-JÜR bei RT von 52 %) und die Rezidivrate (RCT 9 % vs. RT 14,1 %) als vermindert dar. Auch Fernmetastasen wurden in der RCT-Gruppe seltener verzeichnet (RCT 10,7 % vs. RT 18,3 %). Lediglich der Lymphknotenbefall war in beiden Gruppen nicht relevant unterschiedlich (RCT 7,1 % vs. RT 8,4 %). Postoperative Patientinnen wiesen zwar keine höhere Rezidivfreiheit jedoch längere Überlebensintervalle als nicht operierte Patientinnen auf. Die längsten Überlebensintervalle ließen sich für die postoperative RCT-Gruppe ermitteln. Im Vergleich wurden vor allem hämatogene Nebenwirkungen von Schweregrad 3 oder 4 in der Gruppe, die mit kombinierter Radiochemotherapie behandelt wurde, sehr viel häufiger festgestellt (RCT 35,7 % vs. RT 2,9 %). Allerdings wurde bei 32 Patientinnen der RT-Gruppe kein regelmäßiges Blutbild angefertigt. Die Therapie konnte in den meisten Fällen im geplanten Umfang erfolgen. Gastrointestinale Nebenwirkungen wurden in beiden Gruppen festgestellt, wobei keine großen Unterschiede zu beobachten waren. Akute Nebenwirkungen des Schweregrads 3 der Blase wurden in 2,5 % der Patientinnen ermittelt. An der Vagina war dies ebenfalls in 2,5 % der Fall. Urogynäkologische Nebenwirkungen des Schweregrads 4 wurden nicht verzeichnet. Es wurden ebenso wenig gastrointestinale Nebenwirkungen vom Grad 4 und insgesamt lediglich in 3 Fällen vom Grad 3 registriert, wobei diese alle in der RT-Gruppe (2,8 %) vorkamen. Die chronischen Nebenwirkungen waren insgesamt ebenfalls in der RCT-Gruppe etwas häufiger (RCT 17,9 % vs. RT 14 % für kumulative Häufigkeit aller chronischen Nebenwirkungen von Schweregrad 3 und 4), wobei die gastrointestinalen Nebenwirkungen in beiden Gruppen ähnlich waren (RCT 10,7 % vs. RT 10,3 % für kumulative Häufigkeit von Grad 3 und 4). Urologische Spätfolgen vom Grad 3 oder 4 wurden in der RCT-Gruppe jedoch weitaus häufiger ermittelt (kumulative Häufigkeit RCT 7,1 % vs. RT 1,9 %). Als weiterer Prognosefaktoren für Überleben wurde vor allem das Tumorstadium und ein Karnofsky-Index >70 identifiziert, wohingegen das Alter (ausgenommen die Gruppe der Patientinnen <80 Jahre) bei Therapiebeginn und vorhergehende operative Eingriffe keinen Einfluss auf die Prognose zu haben schienen. Vor allem für das Entstehen von chronischen Nebenwirkungen wurde eine Korrelation zwischen applizierter Gesamtdosis und Schwere sowie Häufigkeit von Spätfolgen der Schweregrade 3 oder 4 festgestellt (Für BED <110 Gy gastrointestinale chronische Nebenwirkungen Grad 3 und 4 in 4,5 % und der Blase in 3,4 % vs. BED >110 Gy gastrointestinale chronische Nebenwirkungen Grad 3 und 4 in 23,5 % und der Blase in 3,9 %). Patientinnen, die Grunderkrankungen wie Diabetes oder Herz-Kreislauf-Erkrankungen in ihrer Anamnese hatten, litten etwas häufiger an gastrointestinalen Spätfolgen vom Schweregrad 4, während Spätfolgen vom Schweregrad 3 in der Gruppe ohne diese Grunderkrankungen häufiger ermittelt wurden. Bei der Befragung der Patientinnen wurden vor allem häufige Darmkrämpfe, Durchfälle und Schmerzen im Beckenknochen angegeben. 42,6% der Patientinnen gaben negative Auswirkungen der Therapie auf ihr Sexualleben an. Insgesamt deckt sich das Ergebnis aus dieser Arbeit mit den Ergebnissen der großen randomisierten Studien nach denen eine Radiochemotherapie eine Verbesserung der Prognose mit einer eher geringen Verstärkung von akuten und chronischen Nebenwirkungen für Patientinnen mit Carcinomen der Cervix uteri darstellt.
Die vorliegenden Arbeit analysiert 270 Traumapatienten, die durch das am Klinikum der Johann Wolfgang Goethe-Universität Frankfurt stationierte NEF in den Schockraum der Universitätsklinik eingeliefert wurden. Der Beobachtungszeitraum erstreckt sich von Anfang Januar 2004 bis einschließlich August 2007. Als Grundlage der Studie dient der Vergleich der präklinischen Daten des Notarzteinsatzprotokolls mit den klinischen Daten, die im Schockraum erhoben wurden. Ziel der Studie war es, den Stand der präklinischen Traumaversorgung darzustellen. Eine mögliche Überversorgung sowie eine Unterversorgung soll anhand präklinischer Maßnahmen, wie die Durchführung einer endotrachealen Intubation, die Anlage einer Thoraxdrainage und die prophylaktische Immobilisation der Halswirbelsäule erfasst werden. Insgesamt bestand für 28,1 % der Patienten eine präklinische Intubationsindikation. In internationalen Studien werden Indikationen von 16 % bis 29 % angegeben und somit bestätigt. Um eine präklinische Unterversorgung hinsichtlich der endotrachealen Intubation festzustellen, wurden notwendige Intubationen innerhalb der ersten 15 Minuten im Schockraum analysiert. Nach Einzelfallprüfung zeigt sich, dass 4,5 % der Patienten, die vom NEF in den Schockraum eingeliefert wurden, als unterversorgt bezeichnet werden können. Die rasche Indikation im Schockraum zur Sicherung des Atemwegs mittels endotrachaealer Intubation, ergab sich in mehr als der Hälfte der Fälle (55,6 %) durch eine stark eingeschränkte Vigilanz (GCS<9). Zur Detektion einer hinsichtlich der endotrachealen Intubation bestehenden präklinischen Überversorgung, wurden die am Unfallort zur Intubation führenden Indikationen analysiert. Hierbei zeigte sich, dass nur ein Patient (1,47 %) ohne anerkannte Indikation, nur aufgrund des Unfallmechanismus und der zu erwartenden Verletzungen ohne klinisches Korrelat endotracheal intubiert wurde. Ein Gruppenvergleich von Patienten mit und ohne Intubation zeigte signifikante Unterschiede in Bezug auf die anhand des Injury Severity Scores erhobenen Verletzungsschwere. Die Ergebnisse dieser Studie mit 4,5 % der Patienten, die präklinisch hinsichtlich der Atemwegssicherung unterversorgt und den 1,47 % der Patienten, die überversorgt waren, sind Ausdruck der eher zurückhaltenden Indikationsstellung einer endotrachealen Intubation unter präklinischen Bedingungen unter Berücksichtigung des engen präklinischen Zeitfensters. 12,2 % der Patienten benötigten nach dem Trauma eine Thoraxdrainage. Um eine präklinische Unterversorgung hinsichtlich der Anlage einer Thoraxdrainage zu ermitteln, wurde die Dringlichkeit und die Indikation der im Schockraum gelegten Drainagen beurteilt. Patienten, die innerhalb der ersten 15 Minuten nach Ankunft in der Klinik eine Drainage erhielten, wurden als unterversorgt eingestuft. Per Definition dieser Studie sind 33,3 % der Patienten, die eine Drainage benötigten, unterversorgt, das entspricht 4,1 % vom gesamten Patientenkollektiv. Von diesen Patienten hatten mehr als 90 % auffällige Atemmuster und 54,5 % waren endotracheal intubiert und beatmet. Trotz therapeutischer Maßnahmen, wie die Sauerstoffgabe oder die Intubation, war die periphere Sauerstoffsättigung bei den Unterversorgten in 45,5 % nicht zufriedenstellend (SpO2 < 90 %). In 45,5 % der Fälle war die Traumaursache mit der offensichtlichen Gefahr eines Pneumothorax eine Stichverletzung im Thoraxbereich. Als Ursachen für diese Mängel in der Patientenversorgung sind die eingeschränkten präklinischen diagnostischen Möglichkeiten, die Invasivität der Maßnahme mit den daraus resultierenden Komplikationen und die zeitlich aufwendige, auch für lange Jahre tätige Notärzte seltene Maßnahme der Thoraxdrainagenanlage zu nennen. Die Unsicherheit in Diagnostik und Therapie lassen das präklinische Konzept des „scoop and run“ mit dem sofortigen Transport in die Klinik vorteilhaft erscheinen. Die Ergebnisse der Immobilisation der Halswirbelsäule als prophylaktische Maßnahme, um Sekundärschäden durch Rettung und Transport abzuwenden, zeigen eklatante Mängel in der Patientenversorgung. Mehr als ein Drittel (35,9 %) der Patienten mit aufgrund des Unfallmechanismus klarer Indikation zur Durchführung der Protektion wurden ohne Immobilisation der Halswirbelsäule in die Klinik eingeliefert. Um diese Versäumnisse zu analysieren, erfolgte ein Vergleich der Gruppe mit und ohne HWS-Protektion. Patienten, die eine HWS-Protektion erhielten, hatten anhand des Injury Severity Scores erhoben signifikant schwerere und multiplere Verletzungen als Patienten ohne Protektion. Unter Berücksichtigung des Unfallmechanismus führten Stürze aus größer Höhe und Verkehrsunfälle häufiger zur Anwendung einer Zervikalstütze als Stürze aus geringer Höhe. Die Vigilanz hatte hingegen keinen Einfluss auf die Häufigkeit der HWS-Immobilisation, obwohl der bewusstlose Traumapatient eine relativ eindeutige Indikation darstellt. Von den 270 Patienten dieser Studie haben sich 2,9 % eine Verletzung der Halswirbelsäule zugezogen, davon 0,37 % mit einer instabilen Fraktur in diesem Bereich. Da Frakturen der Wirbelsäule sich häufig nicht aus der präklinischen eingeschränkten Diagnostik ergeben, ist es dringend erforderlich, unter Berücksichtigung des Unfallmechanismus und der Umstände am Unfallort, Sekundärschäden durch die Anlage eine Zervikalstütze abzuwenden. Um einen Vergleich mit anderen Kliniken zu ermöglichen, wurden Patientenkollektiv und Einsatzaufkommen analysiert. Hier zeigt sich eine Dominanz der männlichen Traumapatienten in der Altersgruppe der Berufstätigen, wie sie in anderen Traumazentren beschrieben wird. Auch der jahreszeitliche Verlauf mit einer Häufung der Traumapatienten in den Sommermonaten und ein typischer zirkadianer Rhythmus, die das Verkehrsaufkommen und das Freizeitverhalten der Bevölkerung wiederspiegeln, zeigt, dass von einem repräsentativen Patientenkollektiv ausgegangen werden kann. Der größte Anteil der Patienten hatte hinsichtlich der Traumaursache einen Unfall im Straßenverkehr (41,5 %), gefolgt von Stürzen aus unterschiedlichen Höhen (36,7 %). Gewalttaten mit einem Anteil von knapp 12 % als Traumaursache spiegeln das Patientenkollektiv einer Großstadt wie Frankfurt am Main wieder. Zur Objektivierung der Ergebnisqualität der präklinischen Patientenversorgung wurde der Mainz Emergency Evaluation Score (MEES) erhoben. Entsprechend ihrem Ausgangszustand konnten 87 % der Patienten stabil oder mit einem entsprechen dem MEES verbesserten Zustand der Vitalparameter in die Klinik transportiert werden. Maßnahmen wie die suffiziente Analgesie und Verbesserungen im Bereich der Atmung durch Sauerstoffgabe und endotracheale Intubation sind dafür wesentlich verantwortlich. Die präklinische Patientenversorung und die Struktur des Rettungswesens in Deutschland genießt international einen herausragenden Ruf. Dennoch konnten Defizite in der Erkennung und Behandlung von Traumapatienten festgestellt und in dieser Studie bestätigt werden. Um diese Defizite langfristig beheben zu können, sollte ein kontinuierliches Qualitätsmanagement implementiert werden. Auf eine Verbesserung der Dokumentationscompliance in der präklinischen Phase sollte geachtet werden, um eine Qualitätsbewertung regelhaft durchführen zu können. Kontinuierliche Schulungsmaßnahmen und regelmäßiges Training durch Simulation von Notfallsituationen sollten das notwendige Wissen praxisnah vermitteln und vertiefen. Simulationstraining, wie es im „Frankfurter Institut für Notfallmedizin und Simulation (FINeST)“ angeboten wird und Schulungsprogramme mit neuen Lernkonzepten müssen regelmäßig angeboten und ausgebaut werden, um die hohe Qualität des Rettungsdienstes in Deutschland zu sichern und weiter zu verbessern.
Einfluß der Lagerung auf die Oxygenierung während der Einlungenventilation in der Thoraxchirurgie
(2008)
Einleitung: Die Einlungenventilation ist für thoraxchirurgische Eingriffe unerläßlich, um optimale Operationsergebnisse zu erzielen. Die hierbei vorgenommene funktionelle Trennung der Lungenflügel ermöglicht die Ruhigstellung des OP-Situs und eine kontrollierte Volumenreduktion. Aufgrund der unterbrochenen Beatmung einer Lunge gelangt desoxygeniertes, gemischt-venöses Blut in den Systemkreislauf und senkt dort den O2-Gehalt (Rechts-Links-Shunt). Das Ausmaß der durch eine Einlungenventilation entstehenden Hypoxämie ist sehr variabel, bislang nicht voraussagbar und unterliegt einer Reihe von Faktoren, welche die Größe der Durchblutung der nicht beatmeten Lunge beeinflussen. Methoden: An 50 konsekutiven Patienten der ASA-Risikogruppen I bis III wurden in Links- oder in Rechtsseitenventilation thoraxchirurgische Eingriffe vorgenommen. Zwischen den Operationstechniken bestanden keine signifikanten Unterschiede. Erhoben wurden zu determinierten Meßzeitpunkten Werte der Blutgasanalyse sowie die Beatmungsparameter. Ergebnisse: In beiden Gruppen zeigten ppeak und pplateau im Verlauf der Narkose fünf Minuten und 30 Minuten nach Beginn der Einlungenventilation eine signifikante Zunahme (p < 0,05), Sauerstoffpartialdruck und Horowitz-Quotient sanken in diesem Zeitraum signifikant (p < 0,05). Nach Wiederaufnahme der DLV bewegten sich die Parameter erneut im Ausgangsniveau. Für das AMV wurden in Linksseitenbeatmung bei DLVEnde signifikant niedrigere Werte in Bezug auf die drei vorangegangenen Meßzeitpunkte verzeichnet. In der Gruppe der Rechtsseitenventilierten wies die Sauerstoffsättigung einzig zum Meßzeitpunkt DLVEnde einen signifikanten Anstieg im Vergleich zu ELV+30 auf (p < 0,05). In der zweiten Gruppe bestand eine Signifikanz zu DLVEnde bereits bei ELV+5. Im Vergleich beider Gruppen wurden für keine der untersuchten Variablen signifikante Differenzen verzeichnet. Schlußfolgerungen: Hinsichtlich der Oxygenierung besteht bei der Anwendung der Einlungenventilation im Rahmen thoraxchirurgischer Eingriffe nach der vorliegenden Untersuchung kein signifikanter Unterschied zwischen der Durchführung in Rechts- und Linksseitenventilation. Im Verlauf der Anästhesie mußten in beiden Gruppen höhere Beatmungsdrücke appliziert werden. Es zeigten sich im Vergleich der Gruppen hinsichtlich aller drei Parameter (pmax; pplateau; PEEP) keine signifikanten Unterschiede. Im Rahmen dieser klinischen Studie wurde erstmals der Einfluß der Lagerung auf die Oxygenierung in Kombination mit einem speziellen Beatmungsregime während der ELV untersucht. Zur Vermeidung einer Hypoxämie unter ELV in Narkose kann hiermit festgestellt werden, daß vor allem die suffiziente Lungenseparation mit einer individuell angepaßten Beatmungsstrategie und der optimalen inspiratorischen Sauerstoffkonzentration für die Aufrechterhaltung der adäquaten Oxygenierung obligat ist.
In der vorliegenden Autopsiestudie wurde die Gefäßmorphologie der Koronararterien bei Dialysepatienten, bei nichtdialysepflichtigen niereninsuffizienten Patienten und bei Nierengesunden direkt miteinander verglichen. Zusätzlich wurde mit Hilfe immun-histochemischer Färbungen das Vorkommen inflammatorische Zellen bei drei Patienten-Gruppen untersucht. In der Studie wurden 86 durch Autopsie gewonnene koronare Gefäße histologisch und immunologisch untersucht. Die Analyse der Präparate wurde anhand dreier Patienten-gruppen durchgeführt. Das zentrale Unterscheidungsmerkmal war die Nierenfunktion: Gruppe 1, (n1=27), Dialysepatienten, mit einer Dialysedauer von mehr als 3 Monaten; Gruppe 2, (n2=29), Patienten mit langzeitbestehender chronischer Niereninsuffizienz; Gruppe 3, (n3=30), Patienten mit normaler Nierenfunktion. An Koronararterien wurden Messungen der Intima- und Mediabreiten im stenotischen und poststenotischen Bereich vorgenommen. In der zweiten Analyse wurde auf Basis immun-histologischer Färbungen das Vorkommen inflammatorischer Zellen bestimmt. Der Vergleich der drei Gruppen hinsichtlich der Breite der Intima und Media im Stenosebereich zeigt eine hohe statistische Signifikanz. So waren sowohl Intima (p<0.01), wie auch Media (p<0,01) im Stenosebereich deutlich dicker bei Patienten mit Niereninsuffizienz (Gruppe 1 und Gruppe 2) als bei Nierengesunden (Gruppe 3). Zwischen Gruppe 1 und Gruppe 2 waren keine statistischen Unterschiede feststellbar (p>0,05). Die poststenotischen Abschnitte der Gruppen 1 und 2 zeigten eine auffällig verbreiterte Gefäßwand. Statistisch gesehen fand sich eine signifikante Verbreiterung der Intima (p<0,05) und eine hochsignifikante Verbreiterung der Media (p<0,01) in den Gruppen 1 und 2 im Vergleich zur Gruppe 3. Zwischen Gruppe 1 und Gruppe 2 waren aus statistischer Sicht keine Unterschiede feststellbar (p>0,05). Die in dieser Studie durchgeführten immunhistologischen Untersuchungen konzentrierten sich auf den Nachweis von glatten Muskelzellen, Makrophagen und T-Lymphozyten. SMA-positive glatten Muskelzellen, bzw. Myofibroblasten zeigten eine hohe Präsenz in atherosklerotischen Plaques aller drei Gruppen. Die größte Dichte an Myofibroblasten wurde jeweils in der fibrösen Kappe nachgewiesen. Der Vergleich der drei Gruppen zeigt eine statistisch signifikant erhöhte SMA-Antigen Expression bei Patienten mit Niereninsuffizienz gegenüber Nierengesunden. Hoch signifikant erhöht sind die Anzahl der Myofibroblasten in der fibrösen Kappe bei Dialysepatienten gegenüber der nichtdialysepflichtigen niereninsuffizienten Gruppe. Die poststenotische Intima zeigte in allen drei Gruppen die höchste Dichte von Myofibroblasten. KP-1-positive Makrophagen und Schaumzellen waren in allen drei Gruppen, mit einem Häufigkeitsmaximum in den Plaquearealen vorhanden. Die Ergebnisse dieser Studie zeigen keine Unterschiede im Vorkommen von KP1 positiven Zellen in atherosklerotischen Plaques zwischen den drei Gruppen. Lediglich für die fibröse Kappe war ein Trend zu einer größeren Menge von Makrophagen bei Dialysepatienten erkennbar. In poststenotischen Abschnitten waren die Makrophagen überwiegend in Intima vorhanden. In der Media wurden nahezu keine inflammatorischen Zellen gefunden. Im Vergleich zu den anderen untersuchten Zellen war die Anzahl der T-Lymphozyten in allen Versuchsreihen am niedrigsten. Die größte CD3-Aktivität konnte in den Plaques nachgewiesen werden. In poststenotischen Abschnitten wurden in Intima sowie in Media nahezu keine Zellen oder nur sehr wenige Zellen gefunden. Die einleitend gestellten vier Fragen können nun wie folgt beantworten werden: - Die Gefäßveränderungen der Koronararterien sind nicht auf den Stenosebereich begrenzt. Bei niereninsuffizienten Patienten zeigte sich auch poststenotisch eine auffällig verbreiterte Gefäßwand. Diese wurde durch Media- und Intimahypertrophie verursacht. - Die Intima und Media im Stenosebereich, wie auch poststenotisch waren bei niereninsuffizienten Patienten deutlich breiter im Vergleich zu Nierengesunden. In diese Studie wurde erstmal gezeigt, dass bei Niereninsuffizienz eine poststenotische Intimaverdickung besteht. - Zwischen Dialysepatienten und nichtdialysepflichtigen niereninsuffizienten Patienten zeigt die Studie keine signifikanten Unterschiede in der Struktur der Koronargefäße. Obwohl die statistischen Daten eine hohe kardiale Letalität und Mortalität bei dialysepflichtigen Patienten zeigen, kann die Studie nicht eindeutig belegen, dass die Dialyse ein eigenständiger kardiovaskuläres Risikofaktor ist. - Das Vorkommen der glatten Muskelzellen in atherosklerotischer Plaque, mit einem Maximum in der fibröse Kappe, war bei niereninsuffizienten Patienten, insbesondere bei Dialysepflichtigen höher. Daraus kann man schließen, dass die Atherogenese nach Beginn der Dialysebehandlung nicht gestoppt wird. Die große Zellendichte in der fibrösen Kappe deutet auf eine höhere Ruptur-Gefährdung hin. Die Dialyse schützt vor einem Tod durch Urämie, verhindert aber nicht die kardiovaskuläre Letalität und Mortalität. Die Beschleunigung der arteriellen Gefäßveränderungen beginnt offenbar schon sehr früh in der Entstehung der Niereninsuffizienz und schreitet während der Dialyse fort. Eine frühzeitige Prävention und konsequente Therapie der bekannten und urämiespezifischen Risikofaktoren sind für eine Prognoseverbesserung wichtig.
Studienziel: Der Stellenwert des abdominellen Ultraschalls bei Patienten mit Morbus Crohn (MC) ist bei aktivem Krankheitsverlauf hinsichtlich morphologischer Veränderungen gut untersucht. Im Gegensatz dazu gibt es nur wenige Analysen hinsichtlich Patienten ohne Krankheitsaktivität. In der vorliegenden Studie wurden Patienten mit MC unabhängig von Krankheitsaktivität oder Symptomen einbezogen und hinsichtlich sonographischer abdomineller intestinaler und extraintestinaler Befunde untersucht. Ein weiterer Schwerpunkt lag dabei auch bei der Detektion einer primär sklerosierenden Cholangitis (PSC), die bekanntermaßen häufig gleichzeitig bei chronisch entzündlichen Darmerkrankungen (CED) auftritt. Eine periportale Lymphadenopathie bei Patienten mit PSC ist in der Literatur beschrieben, deren Prävalenz und Ursache bei Patienten mit CED aber unklar. In einem weiteren Studienteil wurde die Genauigkeit der abdominellen Sonographie bei der Detektion einer perihepatischen Lymphadenopathie bei Patienten mit CED untersucht. Methode: Bei 255 Patienten mit MC (117 m, 138 w, Altersdurchschnitt 38 ±14 Jahre) erfolgte eine sonographische Untersuchung des Abdomens mit Beurteilung der Darmwand des Dünn- und Dickdarms. Lagen pathologische Befunde vor, kamen weiterführende diagnostische und gegebenenfalls auch therapeutische Methoden (z.B. Endoskopie, Computertomographie, Biopsie oder Operation) zum Einsatz. Die Krankheitsaktivität wurde mittels Crohn Disease Activity Index (CDAI) bestimmt. Außerdem wurden 310 Patienten mit CED hinsichtlich periportaler Lymphadenopathie (Größe, Anzahl) sonographisch untersucht. Parallel erfolgte eine laborchemische Erhebung von Cholestaseparametern. Eine virale Ursache oder Autoimmunhepatitis wurde bei erhöhten Leberfunktionsund Cholestaseparametern ausgeschlossen. In Folge wurde das Vorliegen einer PSC durch eine endoskopisch retrograde Cholangiographie (ERC) evaluiert falls serologisch keine anderweitige Ursache gefunden werden konnte. Ergebnis: Bei 46/255 (18 %) der Patienten mit MC konnte sonographisch eine transmurale Entzündungsreaktion (TMR) des Darmes mit oder ohne Fistelbildung nachgewiesen werden. Dabei zeigten 29/46 (63 %) der Patienten einen aktiven (CDAI > 150) und 17/46 (37 %) der Patienten einen inaktiven Krankheitsverlauf (CDAI ≤ 150). Bei den Patienten ohne Krankheitsaktivität und TMR waren sonographisch 4 interenterische, 7 blind endende bzw. perirektale Fisteln und bei 6 Patienten eine isolierte TMR nachweisbar. Die gleichzeitig erhobenen sonographischen Befunde anderer Organe hatten bei 25/255 (10 %) eine diagnostische Konsequenz und eine therapeutische Konsequenz bei 9/255 (4 %) Patienten. Eine perihepatische Lymphadenopathie konnte sonographisch bei 27/310 (9 %) Patienten detektiert werden, bei 9 (33 %) von diesen war serologisch eine Virus- oder Autoimmunhepatitis als Ursache nachweisbar. Bei den verbleibenden 18 Patienten konnte bei fast allen (17/18, 94 %) Patienten mittels ERC eine PSC nachgewiesen werden. Pathologische Cholestaseparameter wurden bei 43/310 (14 %) bestimmt, von diesen konnte bei 5 (12 %) Patienten eine Virus- oder Autoimmunhepatitis als Ursache diagnostiziert werden. Die bei den verbleibenden 38 Patienten durchgeführte ERC zeigte bei 15 (39 %) Patienten das Vorliegen einer PSC. Entsprechend war nach Ausschluss einer Virus- oder Autoimmunhepatitis der sonographische Nachweis einer periportalen Lymphadenopathie für das Vorliegen einer PSC genauer als die konventionell durchgeführte Bestimmung der Cholestaseparameter (PPV 94 % und 39 % [p < 0,001]). Zusammenfassung: Die routinemäßig durchgeführte abdominelle Sonographie bei Patienten mit CED kann pathologische Befunde mit diagnostischer und therapeutischer Konsequenz bei symptomatischen und auch asymptomatischen Patienten erheben. Sie stellt somit eine leicht verfügbare und wertvolle Screeningmethode dar. Der sonographische Nachweis einer periportalen Lymphadenopathie stellt, nach Ausschluss einer anderen hepatischen Ursache, einen hohen prädiktiven Indikator zur Diagnose einer gleichzeitig bestehenden PSC dar.
Background and objectives: Constrictive pericarditis (CP) is the result of a spectrum of primary cardiac and non-cardiac conditions. Little data exists on the cause-specific survival after pericardiectomy in the modern era. The impact of pericardial calcification (CA) on survival is unclear. We sought to determine the association of etiology of CP, CA and other clinical variables with long-term survival after pericardiectomy. Methods: We analyzed the records of 163 patients who underwent pericardiectomy for CP over a 24-year period at a single center. The diagnosis of CP was established by surgical report. Vital status was obtained by the Social Security Death Index. The Kaplan Meier method was used to estimate overall survival and survival by etiology group. Cox proportional hazards regression analysis was performed to assess the effect of various causes for CP on longterm survival while adjusting for age. Results: The etiology of CP was idiopathic in 75 patients (46%), prior cardiac surgery in 60 (37%), radiation treatment in 15 (9%) and miscellaneous in 13 patients (8%). Vital status was obtained in 160 patients (98%). Median follow-up was 6.9 years (range: 0.8 to 24.5 years). Perioperative mortality for all patients was 6%. Idiopathic CP had the best prognosis (7 year survival: 88%, 95% confidence interval [CI] 76% to 94%) followed by postsurgical (66%, 95% CI 52% to 78%) and postradiation CP (27%, 95% CI 9% to 58%). In bootstrap-validated proportional hazards analyses, predictors of poor survival were prior radiation, worse renal function, higher pulmonary artery pressure (PAP), abnormal left ventricular (LV) systolic function, lower serum sodium level, and older age. Pericardial calcification had no impact on survival. Conclusion: Long-term survival after pericardiectomy for CP is determined by the underlying etiology of constriction, LV systolic function, renal function, serum sodium, and PAP. Patients with postsurgical as well as postradiation CP have a survival inferior to patients with idiopathic CP. Perioperative Mortality is low. The relatively good survival after pericardiectomy in patients with idiopathic CP emphasizes the safety of pericardiectomy in this group.