Refine
Year of publication
- 2008 (230) (remove)
Document Type
- Doctoral Thesis (230) (remove)
Language
- German (230) (remove)
Has Fulltext
- yes (230) (remove)
Is part of the Bibliography
- no (230)
Keywords
- Bioinformatik (3)
- Elektrophysiologie (3)
- RNS (3)
- Spektroskopie (3)
- Computational chemistry (2)
- Constraints (2)
- Datenanalyse (2)
- Einzelpartikelelektronenmikroskopie (2)
- Elementarteilchen (2)
- FT-IR-Spektroskopie (2)
Institute
- Medizin (106)
- Biowissenschaften (33)
- Biochemie und Chemie (31)
- Pharmazie (13)
- Physik (10)
- Psychologie (8)
- Gesellschaftswissenschaften (6)
- Philosophie (6)
- Erziehungswissenschaften (2)
- Georg-Speyer-Haus (2)
Einleitung: Das hepatozelluläre Karzinom (HCC) zählt zu den zehn häufigsten Karzinomen weltweit. Auch in Deutschland wie in anderen Industriestaaten ist die Inzidenz ansteigend. Nur wenige Patienten kommen für ein kuratives Verfahren wie Resektion oder Lebertransplantation infrage, dementsprechend ist die Prognose insgesamt schlecht. Die Prognose eines HCC lässt sich z.B. mit dem „Cancer of the Italian Liver Program“ (CLIP)-Score abschätzen. Als palliatives Verfahren ist die transarterielle Chemoembolisation etabliert. Diese Arbeit untersucht zwei Prognosefaktoren, das alpha-fetoprotein (AFP) und die Restembolisatbelegung nach TACE in Hinblick auf eine Abschätzung des Erfolges einer TACE. Darüber hinaus werden zwei Scoring-Systeme (CLIP- und Tokyo-Score) auf ihre Aussagekraft überprüft, und die Auswirkung einer Zirrhose und einer Hepatitis auf das Gesamtüberleben dargestellt. Material und Methode: Insgesamt sind 89 Patienten mit HCC mittels TACE behandelt worden (22 vor oder nach Leberresektion, 9 vor Lebertransplantation, 58 TACE alleine). Die TACE wird standardisiert mit einer Mischung aus Mitomycin C und Lipiodol Ultra-Fluid durchgeführt. Postinterventionell erfolgen Kontroll-CTs am Folgetag und vier bis sechs Wochen nach TACE zur Kontrolle des Embolisats. In dieser retrospektiven Analyse werden der AFP-Verlauf periinterventionell und die Embolisatbelegung 4-6 Wochen nach TACE in Hinblick auf das Patientenüberleben (ÜLZ) bei Patienten mit alleiniger TACEBehandlung untersucht. Ergebnisse: Bei 43 Patienten der 58 hat zum Zeitpunkt der Diagnosestellung eine Leberzirrhose bestanden (Child A: 33, Child B: 7, Child C: 3). Der CLIP-Score verteilt sich folgendermaßen: CLIP „0“: 18, „1“: 22, „2“: 13, „3“: 4. Die Patienten haben im Median 2 Behandlungen (Range: 1-8) erhalten. Bei 13 Patienten hat der AFP-Wert vor TACE unter 15 ng/ml gelegen. Nach dem CLIP- und dem Tokyo-Score lässt sich die Überlebenszeit der Patienten nicht abschätzen (CLIP: p=0,317, Tokyo: p=0,355). Eine Zirrhose oder Hepatitis hat laut den Ergebnissen dieser Arbeit keinen Einfluss auf das Überleben (Zirrhose: p=0,136, Hepatitis: p=0,345). Wenn sich im CT vier bis sechs Wochen nach eine gute Restembolisatbelegung darstellt, liegt die Überlebenszeit bei 42 Monaten, bei den restlichen Patienten war diese 13,6 Monate (p=0,174) Eine Reduktion des AFP postinterventionell um 30, 50 oder 80 Prozent des Ausgangswertes zeigen keinen statistischen Vorteil in der medianen Überlebenszeit (30%: p=0,82, 50%: p=0,46, 80%: p=0,9). Ein AFP-Wert präinterventionell unter 15 ng/ml bedeutet statistisch keinen signifikanten Vorteil im Überleben (p=0,53). Patienten mit einem postinterventionellen AFP-Wert unter 15 ng/ml überleben 17,2 Monate länger als Patienten mit einem Wert über 15 ng/ml, insgesamt 31,4 Monate (p=0,027). Schlussfolgerung: Im Gegensatz zu vielen anderen Arbeiten zeigt sich kein Vorteil im Überleben, wenn man relative AFP-Veränderungen und AFP kleiner 15 ng/ml präinterventionell als Faktoren heranzieht. Auch eine gute Restembolisation bedeutet keinen signifikanten Vorteil hinsichtlich des Überlebens. Eine neue Erkenntnis ist die Tatsache, dass bei Patienten mit einem AFP-Wert postinterventionell kleiner als 15 ng/ml die Überlebenszeit signifikant verlängert wird. Dieser Erfolgsparameter ist bisher in keiner bisher veröffentlichten Arbeit dargestellt worden.
Die im Rahmen dieser Arbeit erzielten Ergebnisse ermöglichten die Identifizierung neuer Inhibitoren der bakteriellen Transkriptions-/Translationsreaktion durch den Einsatz eines eigenständig etablierten nicht-kommerziellen zellfreien prokaryotischen GFP-Expressionsassays (ZFTT-Assay) als Screening Werkzeug. Der Nachweis der selektiven Inhibition der ZFTT-Reaktion durch antimikrobielle Translationsinhibitoren im Vergleich zu Antibiotika anderer Wirkmechanismen gelang im Rahmen einer proteomanalytischen Studie. Die parallele Anwendung des etablierten ZFTT-Assays und standardisierter Ganzzellassays ermöglichte die Charakterisierung der Aktivitätsprofile neun antimikrobieller Substanzen aus vier repräsentativen Translationsinhibitorklassen unter zellfreien und Ganzzellbedingungen in Abhängigkeit ihrer physikochemischen Substanzeigenschaften (Weidlich et al., 2008). Der Aufbau mehrerer interdisziplinärer Forschungkooperationen mit unterschiedlichen wissenschaftlichen Arbeitsgruppen wurde genutzt, um eine Substanzbibliothek chemisch heterogener Verbindungen als Quelle potentieller antimikrobieller Inhibitoren der bakteriellen Transkriptions-/Translationsreaktion zu generieren. Sowohl die Anwendung virtueller Screeningansätze und der Einsatz synthetischer Tripeptide ermöglichte die Identifizierung aktiver Substanzen. Im Rahmen einer globalen Identifizierungs- und Charakterisierungsphase wurde neben der zellfreien Aktivität auch die Wirksamkeit gegenüber bakteriellen Zellen, sowie die Toxizität gegenüber humanen Zellen untersucht. Der Einsatz der proteomanalytischen DIGE-Technologie ermöglichte schließlich die Charakterisierung der antimikrobiellen Wirkmechanismen ausgewählter Substanzen.
1.1 Hintergrund Diese Studie vergleicht in drei Teilen die konservative Behandlung nichtverschobener, nichtdislozierter Unterkiefergelenkfortsatzfrakturen mit der offenen Reposition und Fixierung verschobener und dislozierter Unterkiefergelenkfortsatzfrakturen bei I. Erwachsenen und II. bei Kindern. In einem speziellen III. Teil der Arbeit wird die geschlossene, konservative gegenüber der offenen, operativen Behandlung von nichtdislozierten hohen (Klasse VI nach Spiessl und Schroll1) Gelenkwalzenfrakturen verglichen. 1.2 Patienten und Methodik 1.2.1 Erwachsene 129 Patienten mit 158 Frakturen wurden von 2000 bis 2005 in die Studie aufgenommen. Klassen II bis V, d.h. verschobene und dislozierte Frakturen wurden operiert, also offen reponiert und intern fixiert, fortan als ORIF bezeichnet. Klasse I und VI (nichtverschobene, nichtdislozierte Frakturen) wurden konservativ therapiert und erhielten die geschlossene Therapie, fortan als GT bezeichnet. Nach einem Jahr wurden Gesichtssymmetrie, Schmerz, Fazialisfunktion, Narbenbildung, Reossifikation auf Röntgenkontrollen, Fragmentposition horizontal und vertikal beurteilt sowie inzisale Maximalbewegungen und die Kondylentranslation vermessen. 1.2.2 Kinder 22 Patienten jünger als 14 Jahre wurden von 2000 bis 2005 in die Studie einbezogen. Klasse II bis V nach Spiessl und Schroll, was verschobenen bzw. dislozierten Frakturen entspricht, wurden operiert; Klasse I und VI, entsprechend nicht disloziert und verschoben, konservativ behandelt. In einem Intervall von 1, 2 und 5 Jahren wurde dieses Kollektiv auf dieselbe Art und Weise nachuntersucht wie das Erwachsenenkollektiv. 1.2.3 Klasse VI Es nahmen 22 Patienten zwischen 2001 und 2005 mit 26 Klasse VI Frakturen (4 doppelt) an dieser Studie teil; in randomisiert ausgelegter Weise hatten 9 (41%) ORIF und 13 (59%) GT. Die Nachsorge erfolgte nach einem Jahr auf die bereits beschriebene Art. 1.3 Ergebnisse 1.3.1 Erwachsene Klasse I umfasste 29 Patienten, 37 Frakturen, mit einer relativen Inzidenz von 23%, Klasse II: 23/28/18%, Klasse III: 16/20/13%, Klasse IV: 30/35/22%, Klasse V: 18/23/15%, Klasse VI: 13/15/9%. Klinische Verläufe waren in Klasse I unkompliziert; Klasse II, III und IV erreichten operativ horizontale und vertikale Fragmentreposition mit geringem Knochenumbau. Einzelfälle zeigten persistierenden Schmerz, Dysokklusion und Osteosynthesefrakturen. Die Ergebnisse waren in Klasse V und VI weniger erfolgreich. Obgleich ORIF in Klasse V gute Reposition erreichte, kam es zu ausgeprägtem vertikalen Knochenabbau, Einzelfälle zeigten persistierenden Schmerz, Dysokklusion und Osteosynthesefrakturen. Klasse-VI-Fälle zeigten die schlechteste Translation, ebenfalls ausgeprägten Knochenumbau und gehäuft Dysokklusion. 1.3.2 Kinder 19 (79%) Patienten stellten sich zur Nachsorge vor: Klasse I=8, II=3, III=0, IV=2, V=5, VI=1; 11 Patienten (58%) nach 1 Jahr; 4 (21%) nach 2 Jahren und 4 (21%) nach 5 Jahren. Völlige Symptomfreiheit oder fehlende Motivation war nach telefonischer Aussage der Eltern der Grund für das Nichterscheinen zur Nachsorge. Alle Untersuchten zeigten eine suffiziente Mundöffnung. Ein Klasse-VI-Patient zeigte insuffiziente Kondylentranslation sowie drei Patienten Deflexionen; zwei Patienten partielle Fazialisparesen, die jedoch nach einem Jahr abgeklungen waren; in zwei Fällen wurden gebrochene Osteosynthesematerialien entfernt. Die vertikale und horizontale Kondylenabstützung wurde erfolgreich wiederhergestellt. Nennenswerte Kondylenresorptionen wurden in Klasse V verzeichnet; insgesamt 4 (17%) Misserfolge waren zu verzeichnen, wovon 3 auf Klasse V entfielen. 1.3.3 Klasse VI Insgesamt stellten sich 17 (77%) Patienten zur Nachuntersuchung vor; 8 (47%) wurden geschlossen und 9 (53%) offen therapiert. Alle Patienten zeigten eine normale Mundöffnung. Insuffiziente kondyläre Translation (definiert durch <6mm Translation bei Mundöffnung, Protrusion und Mediotrusion <3mm) trat jeweils bei zwei der ORIF- und GT- Patienten auf. Anhaltender Schmerz bei 2 mit ORIF, Deflexion größer als 4mm ebenfalls bei 2 mit ORIF. Bleibende Nervenparesen wurden nicht verzeichnet. Im Falle eines ORIF- Patienten wurde gebrochenes Osteosynthesematerial entfernt und im Falle eines GT- Patienten war eine starke Dysokklusion erkennbar. Die vertikale Position des medialen Fragments wurde mit ORIF erfolgreich wiederhergestellt, wenn dies auch mit einem beträchtlichen Umbauprozess verbunden war (der laterale Kondylenpol ist bei Klasse VI unverändert). Die geschlossene Therapie versagte in der vertikalen Wiederherstellung des medianen Kondylenpols, zeigte aber weniger Umbauprozesse. Die Winkelabweichung war bei ORIF erfolgreich reduziert, bei der GT konnte eine leichte Winkelvergrößerung verzeichnet werden. 1.4 Schlussfolgerung Klasse V und VI stellen im großen Kollektiv der Erwachsenen nach wie vor die komplexesten Anforderungen, während die übrigen Klassen nach den Richtlinien dieser Studie gut therapiert werden können. Beim kleineren Kollektiv der Kinder ist das Behandlungsprinzip zu 83% erfolgreich, wobei auch hier die größten Probleme bei Klasse V liegen. Innerhalb der Klasse-VI-Studie ergab die GT 2/8 (25%) und ORIF 2/9 (22%) inakzeptable Ergebnisse und postoperativen Kondylenumbau. Insgesamt erreichte hier die Erfolgsrate 75 zu 78%. Wenn hier also nicht die GT zukünftig vorzuziehen ist, könnten hochfeste resorbierbare Osteosynthesen mit intraossärer Lokalisation ein besseres Ergebnis liefern als die Mikroplatten und Schrauben an der dorsalen Kondylenzirkumferenz, die in dieser Studie verwendet wurden. Insgesamt könnte der Gelenkumbau in Klasse V und VI und die Translation in Klasse VI durch noch vorsichtigere Mobilisation und verbesserte Osteosynthese sowie von einem minimalisierten Operationstrauma profitieren.
Die elektrokardiographische (EKG) Diagnostik stellt auch heute noch eine nicht zu ersetzende Methode zur Erkennung wichtiger Erkrankungen der Inneren Medizin dar. Das Wissen um diese Methodik konnte in den letzten Jahren deutlich erweitert werden. Mehr Detailwissen verleiht der elektrokardiographischen Diagnostik höhere Präzision, stellt aber auch höhere Anforderungen an die Motivation der Studierenden und an die Qualität der Lehre. Im Rahmen dieser Doktorarbeit wurde diese Problematik vertieft. Mittels einer umfassenden Recherche und eines Fragebogens wurden die verschiedenen Fortbildungsmethoden zur elektrokardiographischen Diagnostik (Bücher, Kurse, praktische Fälle) auf ihren Aufbau, ihre Vor- und Nachteile und ihre Beliebtheit bei Studenten untersucht. In einem zweiten Teil wurde ein Lehrbuch aus einem EKGSeminar an der Universität Frankfurt am Main entwickelt und einem Test unterzogen. Hierzu wurden 30 Teststudenten in zwei Gruppen unterteilt. Gruppe 1 („Verumgruppe“) erhielt das "Selbstlernprogramm" zur Durcharbeitung, Gruppe 2 („Kontrollgruppe“) erhielt keine zusätzliche Fortbildung. Beide Gruppen führten zwei schriftliche Prüfungen durch und die Test-Ergebnisse wurden verglichen. Es fand sich ein Trend zu einer Verbesserung des Test-Ergebnisses (p (x1<x2) = 0,0733) durch das Selbstlernprogramm im Wilcoxon-Mann-Whitney-Test. Im Hodges-Lehmann-Schätzer wurde ein Unterschied von 18 Punkten ermittelt, bei einer Maximalpunktzahl von 150 pro Prüfung. Die Auswertung des Fragebogens ergab eine hohe Beliebtheit von Kursen und praktischen Fällen, eine geringere Beliebtheit von Lehrbüchern und eine niedrige Beliebtheit von Internetquellen zur Fortbildung. Das angewandte Fortbildungskonzept und auch das Selbstlernprogramm an sich wurden als gut strukturiert und sinnvoll eingeschätzt. Die Fortbildung "Entwicklung eines Konzepts zu einem EKG-Selbstlernprogramm" soll als Anregung dienen, die Qualität der Lehre zu verbessern. Sie soll als Beispiel dienen, auf welche Weise Qualitätskontrollen im Bereich der Lehre erfolgen könnten.
Ziel dieser anthropometrischen Studie war es, an einem Kollektiv von 1176 Probanden im Alter von 7-25 Jahren die Kollmann´schen Proportionen zu bestimmen und den Einfluss von Alter, Geschlecht und fazialem Wachstumstyp auf die Verteilung der Gesichtsdrittel zu analysieren. Weiterhin sollte die Übereinstimmung von anthropometrischer und kephalometrischer Messung der vertikalen Gesichtsproportionen untersucht werden. Zu diesem Zweck wurde bei 29 Probanden aus dem vorliegenden Untersuchungskollektiv die Länge von Mittel- und Untergesicht sowohl direkt im Gesicht des Probanden als auch röntgenkephalometrisch bestimmt, wobei die Zeitdifferenz zwischen den beiden Messungen durchschnittlich 3,6 1,7 Monate (1-6 Monate) betrug. Obwohl sich im Mittelgesicht wie auch im Untergesicht mit Korrelationskoeffizienten von R = 0,69 und R = 0,73 eine hohe und statistisch signifikante Übereinstimmung der anthropometrischen und kephalometrischen Messergebnisse zeigte, kann nicht von einer exakten Übereinstimmung ausgegangen werden. Der Mittelwertvergleich ergab, dass die anthropometrischen Messwerte niedriger ausfielen als die kephalometrischen. Aus diesem Grund ist in Übereinstimmung mit der Literatur der Anthropometrie bei Messungen zu Fragen der fazialen Ästhetik gegenüber der Kephalometrie der Vorzug zu geben. Die vorliegende Erhebung anthropometrischer Daten zur vertikalen Gesichtsproportionierung ergab, dass eine ideale Gesichtsdrittelung mit einer Übereinstimmung aller drei Gesichtsdrittel nur bei einem der 1176 Probanden (0,1%) zu beobachten war. Oberes und mittleres Gesichtsdrittel stimmten in 16 Fällen (1,4%) überein, mittleres und unteres Gesichtsdrittel in 8 Fällen (0,7%) und oberes und unteres Gesichtsdrittel in 73 Fällen (6,2%). Die Ermittlung von Durchschnittswerten zeigte, dass das obere und untere Gesichtsdrittel mit einem Anteil von median je 35,9% der Gesichtshöhe gleich groß waren und 28,2% auf das mittlere Gesichtsdrittel entfielen. Die erwartete altersabhängige Proportionsverschiebung vom Hirn- zum Gesichtsschädel konnte im vorliegenden Untersuchungskollektiv im Widerspruch zu den Ergebnissen anderer Studien nicht beobachtet werden. Dennoch ist für die klinische Anwendung der Kollmann´schen Proportionen festzuhalten, dass bei Kindern und Jugendlichen vor Abschluss der Pubertät eine Veränderung der Gesichtsproportionen möglich und ein Rückschluss auf das Vorliegen einer Dysgnathie daher zu diesem Zeitpunkt nicht zulässig ist. Der Einfluss des Geschlechts erwies sich für das obere Gesichtsdrittel als statistisch signifikant, wobei der Anteil bei den männlichen Probanden mit 35,6% niedriger war als bei den weiblichen Probanden mit 36,0%. Im Mittelgesicht war kein statistisch signifikanter Unterschied zwischen Jungen und Mädchen nachweisbar (28,2% vs. 28,4%). Der Anteil des Untergesichts war bei männlichen Probanden statistisch signifikant größer als bei weiblichen (36,5% vs. 36,0%). Die vorliegenden Ergebnisse lassen in Übereinstimmung mit der Literatur den Schluss zu, dass beim männlichen Geschlecht eine geringfügige Dominanz des Untergesichts auf Kosten des Stirndrittels vorliegt. Hinsichtlich des Einflusses des zugrundeliegenden Wachstumsmusters zeigte sich, dass die Werte für das obere Gesichtsdrittel beim brachyfazialen Typ statistisch signifikant höher waren (brachyfazial vs. dolichofazial: 36,3% vs. 35,4%; brachyfazial vs. doliochofazial/normofazial: 36,3% vs. 35,6%). Ein signifikanter Einfluss des fazialen Typs auf den Anteil des Mittelgesichts konnte nicht nachgewiesen werden. Der Anteil des unteren Gesichtsdrittels fiel beim brachyfazialen Wachstumstypus statistisch signifikant kleiner aus als beim dolichofazialen Wachstumstypus (brachyfazial vs. dolichofazial/ normofazial: 35,6% vs. 36,1%; brachyfazial vs. dolichofazial: 35,6% vs. 36,7%; brachyfazial/normofazial vs. dolichofazial: 36,0% vs. 36,7%). Zusammenfassend lassen die erzielten Resultate in Übereinstimmung mit der Literatur den Schluss zu, dass eine ideale Gesichtsdrittelung (Kollmann´sche Proportionen) bei der Mehrheit der Bevölkerung nicht nachweisbar ist und die vertikalen Gesichtsproportionen dem Einfluss von Alter, Geschlecht und Wachstumstyp unterliegen, was bei deren Bewertung berücksichtigt werden muss.
Die Verbindlichkeit von Patientenverfügungen ist umstritten. Derzeit wird in der öffentlichen und in der politischen Diskussion heftig hierüber debattiert. Der Deutsche Bundestag beabsichtigt, Gesetzesentwürfe zum Thema erneut zu diskutieren. Die Frage, wie die Wünsche von Patienten am Lebensende, wenn sie selbst nicht mehr entscheiden können, bei der Entscheidung über das Maß medizinischer Behandlungen am Lebensende berücksichtigt werden können, beschäftigt die Medizinethik und die Rechtswissenschaft seit vielen Jahren. Dem heutigen Stand der Diskussionen über Patientenverfügungen liegt die Mutmaßung zugrunde, dass eine Mehrzahl von Personen Patientenverfügungen als geeignetes Instrument erachten, die Autonomie am Lebensende im Falle der Unfähigkeit zur eigenen Entscheidung zu sichern. Aus diesem Grund wird die allgemeine Verbindlichkeit von Patientenverfügungen gefordert, um die Rechte der Patienten auch für das Lebensende zu sichern. Allerdings fehlten bislang empirische Untersuchungen, die diese Annahme belegen. Die Diskussion über Patientenverfügungen wird kontrovers geführt. Vertreter verschiedener rechtlicher, ethischer und auch medizinischer Positionen äußern Forderungen und Ansichten, die sich überschneiden oder aber gegensinnlich sind. Dies ist leicht verständlich, denn das Ausmaß der medizinischen Handlung am Lebensende versteht sich nicht von selbst. Die vorliegende Untersuchung beabsichtigte, diese Frage sozialempirisch zu beantworten. Ziel der Studie war es, empirische Daten und Informationen unter anderem zu folgenden Fragestellungen zu erheben: • Was sind die Wünsche und Präferenzen im Blick auf die inhaltliche Ausgestaltung von Patientenverfügungen, vornehmlich zur Einstellung bezüglich spezifischer Behandlungsoptionen am Lebensende? • Welche Wünsche und Präferenzen in Bezug auf den Personenkreis, der in Fragen der Gesundheitsfürsorge als Stellvertreter bevorzugt wird, haben die Befragten? • Wie hoch ist der Verbreitungsgrad von Patientenverfügungen, die Absicht eine Patientenverfügung zu verfassen und die Kenntnisse über die verschiedenen in Deutschland gültigen Formen von Vorsorgeverfügungen? • Bestehen Barrieren und Hindernisse, welche dem Verfassen einer Patientenverfügung entgegenstehen können? • Wie ist die Einschätzung der Verbindlichkeit von Patientenverfügungen anderer Personen, das heißt die Bereitschaft bzw. die ethische Verpflichtung, den schriftlich oder mündlich hinterlegten Verfügungen anderer Personen im Hinblick auf Behandlungen am Lebensende Folge zu leisten (der ethischen Verpflichtungen, nicht einer angenommen gesetzlichen Obliegenheit)? • Gibt es Determinanten, die die Verbreitung und Akzeptanz des Instrumentes Patientenverfügung beeinflussen können (demografische Daten, Selbsteinschätzungen des Gesundheitszustands und andere mehr)? In der hier vorgelegten Studie wurden 1260 Patientinnen und Patienten im Alter von 16 bis 99 Jahren, unter Zuhilfenahme eines standardisierten Fragebogens interviewt. Die Probanden wurden rekrutiert aus den Patienten, die hausärztliche Praxen im Rhein-Main Gebiet aufsuchten. Die Rekrutierung erstreckte sich über den Zeitraum vom 11.04.2006 bis zum 06.10.2006. Ergebnisse: 1. Ein relevanter Anteil von Befragten erweist sich als unsicher, Entscheidungen über lebenserhaltende Therapien im Voraus zu treffen. Diese Unsicherheit selbst könnte ein Grund sein, eine Patientenverfügung nicht auszufüllen. 2. Die Mehrheit der Befragten bevorzugt als Stellvertreter im Falle eigener Entscheidungsunfähigkeit das Zusammenwirken von Ärzten und Angehörigen. 3. Kenntnisse über Patientenverfügungen sind weit verbreitet. Dennoch füllt nur eine Minderheit solche Dokumente aus. Kenntnisse über die Vorsorgevollmacht oder die Betreuungsverfügung hingegen sind weniger verbreitet. 4. Wichtige Barrieren die dem Ausfüllen einer Patientenverfügung entgegenstehen sind: die Unsicherheit solche Entscheidungen im Voraus zu treffen (siehe oben), weiterhin verschiedenste Ängste vor dem Missbrauch dieser Dokumente. 5. Die Befragten erachten in einer großen Mehrheit Patientenverfügungen anderer nicht als verbindlich. Konfrontiert mit einem ethischen Dilemma wird in der Mehrzahl der Fälle für den Lebenserhalt plädiert. Auch die Einstellung der Befragten zu verschiedenen Behandlungsoptionen für das Lebensende generell und die schlussendlich in einem Fallbeispiel gewählte Handlung differieren deutlich. 6. Lediglich das Lebensalter der Befragten (ältere Menschen hatten eher eine Patientenverfügung) und das Vorhandensein von Kindern hat einen signifikanten Einfluss auf das Vorhandensein von Patientenverfügungen. Die in der vorliegenden Untersuchung erhobenen Ergebnisse können in der aktuellen Diskussion über Patientenverfügungen und deren Verbindlichkeit fruchtbar sein. Sie widersprechen weitverbreiteten Annahmen. Daher haben diese Ergebnisse auch in wissenschaftlichen Symposien und in der politischen Diskussion schon weite Beachtung gefunden (u.a. Posterpreise der Deutschen Gesellschaft für Innere Medizin und der Deutschen Krebsgesellschaft anlässlich ihrer Jahreskongresse).
Das Leben aller Organismen wird grundlegend durch den tages- und jahreszeitlich bedingten Wechsel der Beleuchtungsverhältnisse geprägt. Die Anpassung der Stoffwechselprozesse und Verhaltensweisen an diese Oszillationen erfolgt nicht passiv, sondern wird durch eine innere Uhr gesteuert. Tageszeitliche Rhythmen, die auch ohne den Einfluss äußerer, periodisch verlaufender Umgebungsreize (Zeitgeber) ablaufen, werden als zirkadiane Rhythmen bezeichnet. Im Säugetier steuert ein endogener Rhythmusgenerator im Nucleus suprachiasmaticus (SCN) zirkadiane Rhythmen, indem er periphere Oszillatoren miteinander synchronisiert. Auf molekularer Ebene besteht dieser endogener Rhythmusgenerator aus Aktivatoren (BMAL1 und CLOCK/NPAS2) und Inhibitoren (PER1/2 und Cry1/2), die in Rückkopplungsschleifen die Grundlage für die Rhythmogenese steuern. Die Synchronisation dieses molekularen Uhrwerkes an die Umgebungszeit erfolgt durch Licht, das in der Retina wahrgenommen und an das SCN weitergeleitet wird. Die Signaltransduktionskaskaden nach einem Lichtpuls in der frühen und der späten Nacht unterscheiden sich dabei wesentlich: Ein Lichtpuls während der frühen Nacht führt zu einer erhöhten Freisetzung von Ca2+-Ionen über Ryanodin Rezeptoren (RYR), während ein Lichtpuls während der späten Nacht zu einer erhöhten Guanylylcyclase Aktivität führt. Um zu untersuchen, wie der endogene Rhythmusgenerator seinen Lichteingang reguliert, wurde die Licht-vermittelte Phasenverzögerung in BMAL1+/+- (profizienten) und BMAL1-/-- (defizienten) Mäusen untersucht. Die Befunde aus den in-situ Hybridisierungsstudien, RTQ-PCR und immunhistochemischen Untersuchungen dieser Arbeit zeigten, dass in BMAL1-/--Mäusen die Licht-induzierte mPer-Expression während der frühen Nacht selektiv beeinträchtigt ist. Zudem konnte gezeigt werden, dass die mRNA- und Proteinmengen von RYRs in BMAL1-/--Mäusen dramatisch reduziert waren. Ryr1:: und Ryr2::Luciferase-Reportersstudien zeigten darüber hinaus, dass die Ryr-Expression durch CLOCK/BMAL1 aktiviert und durch CRY1inhibiert werden kann. Diese Ergebnisse liefern den ersten Beweis dafür, dass der endogene Rhythmusgenerator des Säugers die Signalübertragung seines eigenen Lichteingangs regulieren kann. Weiterhin wurde in dieser Arbeit die ontogenetische Entwicklung des endogenen Rhythmusgenerators im SCN und in einem Melatonin-abhängigen peripheren Oszillator, der PT, untersucht und miteinander verglichen. Dazu wurden die Uhrengenproteine im fetalen (E18), postnatalen (P2 & P10) und adulten SCN und in der PT von C3H-Mäusen zu vier verschiedenen zirkadianen Zeitpunkten mittels Immunhistochemie untersucht. Die Anzahl immunreaktiver SCN-Zellen gegen alle untersuchten Uhrengenproteine (außer BMAL1) war im Fetus signifikant niedriger, als in der adulten Maus. Auch im SCN neonataler (P2) Mäuse erreichte die Anzahl immunreaktiver Zellen noch nicht das Niveau der adulten Maus. Erst 10 Tage nach der Geburt (P10) zeigen alle Uhrengenproteine im SCN ein adultes Verteilungsmuster. Offenbar reift das Uhrwerk im SCN von Mäusen graduell während der postnatalen Entwicklungsphase. Dabei besteht eine zeitliche Korrelation zwischen der Reifung des endogenen Rhythmusgenerators im SCN und der Ausbildung von inter-suprachiasmatischen und retino-suprachiaamatischen neuronalen Kontakten. Im Gegensatz zum SCN zeigte der Melatonin-abhängigen Oszilllator in der PT bereits im Fetus einen nahezu vollständig ausgeprägten Rhythmus der Uhrengenproteine. Da das fetale Pinealorgan noch nicht zur rhythmischen Melatonin-Synthese fähig ist, liegt es nahe, dass das mütterliche Melatonin die rhythmische Expression der Uhrengene in der fetalen PT reguliert. Wie in vitro Untersuchungen an PER2::LUCIFERASE-Mäusen zeigten, hat das mütterliche Melatonin offenbar auch einen modulierenden Einfluss auf den fetalen SCN. Bei diesen Mäusen konnte im fetalen und postnatalen SCN ein zirkadianer Rhythmus in der PER2-Synthese nachgewiesen werden, der eine relativ lange Periodenlänge aufwies und nach 3 Tagen zum Erliegen kam. Eine Stimulation mit Melatonin führte zu einer deutlichen Verkürzung der Periodenlänge im PER2-Rhythmus. Folglich scheint das mütterliche Melatonin eine wichtige Quelle für Informationen der Umgebungszeit im Fetus zu sein. Um die Uhrengenexpression während der Maus-Ontogenese in vitro auf zellulärer Ebene darzustellen, wurde in dieser Arbeit zudem ein vom murinen Per2-Promoter angetriebenes DsRed- Reportersystem etabliert und der Versuch begonnen, eine darauf basierende transgene Maus zu generieren.
Fragestellung Die Schmeckwahrnehmung wird u.a. über Lernprozesse, kognitive Vorgänge, genetische und biochemische Faktoren reguliert. Ess- und Diätverhalten werden durch sie beeinflusst. Den anatomisch und physiologisch ersten Abschnitt der Schmeckwahrnehmung bilden die fungiformen Geschmackspapillen. In den Geschmackspapillen liegen die Geschmacksknopsen, mit deren Hilfe die Schmeckstoffe aufgenommen und in Form von Aktionspotentialen zum Thalamus, dem limbischen System,dem Gyrus postzentralis und weiteren Stellen im ZNS weitergeleitet werden, wo die bewusste Schmeckwahrnehmung lokalisiert sein soll. Die Schmeckwahrnehmung wird nach dem Stand der Literatur von der Dichte der Geschmackspapillen beeinflußt. Es wird über eine reduzierte sensorische und hedonische Schmeckwahrnehmung bei Probanden mit einer geringen Dichte von Geschmackspapillen berichtet. Dies könnte das Essverhalten beeinflussen. Ziel dieser Studie ist es, die Anzahl der fungiformen Papillen bei Patientinnen mit Essstörungen und gesunden Probandinnen zu erfassen und der Frage nachzugehen, ob zwischen der Geschmackspapillenanzahl und dem Essverhalten bzw. bei Vorhandensein einer Essstörung ein Zusammenhang besteht. Ein weiteres Ziel war die Bestimmung eines möglichen Zusammenhangs zwischen der Sensitivität für die Schmeckqualitäten süß/sauer/salzig/bitter, der Sensitivität auf 6-n-Propylthiouracil und der Geschmackspapillendichte. Es ist genetisch festgelegt, ob der Bitterstoff 6-n-Propylthiouracil wahrgenommen werden kann. Diverse Studien belegen, dass PROP-Schmecker in der Lage sind Schmeckstoffe sensitiver wahrzunehmen. Mittels einer orientierenden psychometrischen Beurteilung sollte außerdem erfasst werden, ob es objektiv nachweisbare Unterschiede in der Geschmackswahrnehmung von Patienten mit einer Essstörung und von einer gesunden Kontrollgruppe gibt. Methoden Untersucht wurden 16 gesunde Jugendliche und 27 Jugendliche mit einer Essstörung. Die Gruppe der Probanden mit einer Essstörung bestand aus 13 Patientinnen mit der klinischen Diagnose einer Anorexia nervosa (F50.0), davon 9 des restriktiven Typs (F50.00) und 4 mit aktiven Massnahmen zur Gewichtsreduktion (F50.01). Weiterhin waren 9 Patientinnen mit der klinischen Diagnose einer Bulimia nervosa (F50.2), 3 Patientinnen mit atypischer Anorexie (F50.1), sowie 2 Patientinnen mit einer Binge Eating Störung (F50.9) eingschlossen. Die Anzahl der fungiformen Papillen wurde bestimmt. Hierfür wurde die Zunge mit blauer Lebensmittelfarbe gefärbt, digital bearbeitet (Adobe Photoshop) und die Papillen wurden ausgezählt. Mit Hilfe verschiedener psychometrischer Testverfahren (YSR, EDI-2, EDI-SC, JTCI) wurden Kompetenzen, Problembereiche, Persönlichkeitsmerkmale und eine essstörungsspezifische Psychopathologie der Jugendlichen erfasst. Die Schmecktestung auf „süß/sauer/bitter/salzig“ wurde bei 15 gesunden Jugendlichen und 18 Jugendlichen mit einer Essstörung mittels Schmeckstreifen durchgeführt. Die Schmecktestung auf „fett“ in Bezug auf Texturunterschiede, Einschätzung des Fettgehaltes und die Konsistenzwahrnehmung wurde mit Naturmilchprodukten verschiedener Fettstufen untersucht. Die Sensitivität auf 6-n-Propylthiouracil wurde mit einer 6-n-Propylthiouracil-Lösung getestet. Alle Daten wurden statistisch mittels SPSS ausgewertet. Ergebnisse Patienten mit Anorexie hatten im Gegensatz zu Patienten mit Bulimie signifikant weniger fungiforme Papillen als die Probanden der gesunden Kontrollgruppe (p<0,001). Aufgeteilt nach dem Essverhalten, zeigte sich, dass Patienten mit restriktivem Essverhalten über weniger fungiforme Papillen verfügten als Patienten mit Ess-/Brechanfällen (p<0,05) und gesunde Probanden der Kontrollgruppe (p<0,001). Patienten mit Ess-/Brechanfällen hatten signifikant weniger fungiforme Papillen als gesunde Probanden (p<0,05). In Bezug auf den PROP-Tasterstatus zeigte sich, dass anorektische Nicht-Schmecker im Vergleich zu den Nicht-Schmeckern der Kontrollgruppe eine signifikant verminderte Anzahl an fungiformen Papillen hatten. Die Papillenanzahl unterschied sich nicht signifikant zwischen Schmeckern und Nicht-Schmeckern innerhalb der Kontrollgruppe und innerhalb den einzelnen Essstörungsgruppen. Die Schmecktestung zeigte Unterschiede zwischen der Gruppe mit Ess-/Brechanfällen und der Gruppe mit rein restriktivem Essverhalten. Die rein restriktiven Probanden nahmen „bitter“ als angenehmer (p<005) und „süß“ als unangenehmer (p<0,05) wahr. Innerhalb der Gruppe mit Ess-/Brechanfällen fanden sich weitere Unterschiede im Bezug auf die Schmecktestung. Die Nicht-Schmecker empfanden den Schmeckstoff „bitter“ angenehmer als die Schmecker (p<0,05). Die Schmecker der Gruppe mit Ess-/Brechanfällen empfanden ausserdem den Schmeckstoff „süß“ als angenehmer als die gesunden Schmecker (p<0,05), und die Nicht-Schmecker der Gruppe mit Ess-/Brechanfällen empfand den Schmeckstoff „salzig“ als angenehmer als die gesunden Nicht-Schmecker (p<0,05). Bei der Schmecktestung der Naturmilchprodukte nahmen die Probanden mit einer Essstörung die Stufe mit dem niedrigsten Fettgehalt als fettiger und unangenehmer als die gesunden Probanden wahr (p<0,05). Schlussfolgerungen Bei den Probanden mit Essstörungen, besonders den Probanden mit rein restriktivem Essverhalten, fällt eine reduzierte Anzahl an fungiformen Papillen im Gegensatz zu den gesunden Probanden auf. Auch die Aufteilung in PROP-Schmecker und –Nicht-Schmecker zeigt eine reduzierte Anzahl an fungiformen Papillen bei anorektischen Nicht-Schmeckern. Wir vermuten einen Zusammenhang zwischen der Anzahl der fungiformen Papillen und der Entstehung und Pathopysiologie einer Essstörung. Die Schmecktestung zeigte Unterschiede besonders bei den Schmeckrichtungen „bitter“ und „süß“. Die Schmeckrichtung „bitter“ wurde von den Probanden mit rein restriktivem Essverhalten als angenehmer, die Schmeckrichtung „süß“ als unangenehmer als von den gesunden Kontrollen bewertet. Wir konnten hier zeigen, dass die Schmeckwahrnehmung bei Betroffenen mit einer Essstörung beeinträchtigt ist. Die Aufteilung in PROP-Schmecker und –Nicht-Schmecker zeigte innerhalb der Gruppe mit Ess-/Brechanfällen leicht signifikante Unterschiede in der Schmeckwahrnehmung der Schmeckstoffe „süß“, „bitter“ und „salzig“. Die Schmecktestung der Naturmilchprodukte zeigte eine erhöhte Sensitivität aller Gruppen mit einer Essstörung für low-fat-Produkte, die von diesen auch als unangenehmer als von den Probanden der Kontrollgruppe wahrgenommen wurden. Wir vermuten einen weiteren Zusammenhang zwischen der Schmeckwahrnehmung, dem PROP-Schmeckerstatus und der Entstehung und/oder Aufrechterhaltung von Essstörungen.
Lebermetastasen treten im Verlauf vieler Tumorerkrankungen auf und sind maßgeblich für eine Verschlechterung der Prognose verantwortlich [5, 6, 91]. Viele Erfahrungen liegen zu Lebermetastasen des kolorektalen Karzinoms vor. Mehr als die Hälfte aller Patienten mit kolorektalem Karzinom entwickeln im Verlauf hepatische Metastasen, bei der Hälfte dieser Patienten bleibt die Metastasierung auf die Leber beschränkt, ohne weitere extrahepatische Manifestationen [4]. Das Überleben bei Leberbefall ist kurz, die medianen Überlebenszeiten beim unbehandelten Verlauf liegen zwischen 3 und 11 Monaten [92, 93]. Durch eine systemische Chemotherapie mit Zytostatika wie Irinotecan [94, 95] oder Oxaliplatin [96] können mediane Überlebenszeiten von 15 bis 17 Monaten erreicht werden. Bei Patienten mit isoliertem Leberbefall bietet die chirurgische Resektion einen potentiell kurativen Ansatz mit medianen Überlebenszeiten von 31 bis 42 Monaten und 5-Jahresüberlebensraten von bis zu 37 % [30-33, 97, 98]. Allerdings kommt eine chirurgische Resektion nur für Patienten mit isolierter Lebermetastasierung in Frage. Bilobulärer Befall, schwierige Lokalisation oder generelle Kontraindikationen für eine Operation sind Gründe gegen eine Operation. Zudem treten intrahepatische Rezidive nach Resektion von Lebermetastasen in bis zu zwei Dritteln der Patienten auf, eine wiederholte Leberteilresektion ist selten möglich. Minimal-invasive interventionell-radiologische Verfahren bieten hier eine Alternative. Die magnetresonanztomographisch gesteuerte laserinduzierte interstitielle Thermotherapie (LITT) ist ein Verfahren, welches sich in den letzten 12 Jahren bei über 1700 Patienten mit Leber-oder Lungenmetastasen unterschiedlicher Primarien im klinischen Einsatz bewährt hat. Die MRTBildgebung bietet eine optimale Weichteildarstellung der Leberherde. Durch thermosensitive MRT-Sequenzen mit kurzer Akquisitionszeit ist ein Monitoring der Therapie nahezu in Echtzeit möglich. So kann die Ablation des Tumors mit entsprechendem Sicherheitsabstand nachverfolgt werden, unter Schonung vulnerabler Strukturen und gesunden Leberparenchyms. Dies erscheint im Zusammenhang mit tierexperimentellen Untersuchungen interessant. So war das Wachstum residueller Tumorzellen nach Leberresektion bei Mäusen oder Ratten beschleunigt [99-102]. Beim Vergleich von LITT mit der chirurgischen Resektion zur Behandlung von implantierten Tumorzellen eines kolorektalen Karzinoms in Rattenlebern, zeigte sich bei mit LITT behandelten Tieren ein reduziertes Wachstum residueller Tumorzellen [103] sowie eine bessere Immunantwort [104]. Mittels LITT können zentral liegende Herde in schwieriger Lokalisation, sowie multiple disseminierte Herde abladiert werden. Bei intrahepatischen Rezidiven ist eine wiederholte Anwendung möglich. Schließlich ist die LITT ein komplikationsarmes Verfahren mit einer Mortalitätsrate im Promillebereich und wird in einem ambulanten Setting durchgeführt. Patienten mit Lebermetastasen eines kolorektalen Karzinoms machen etwa die Hälfte unseres Kollektivs aus. In früheren Untersuchungen unserer Arbeitsgruppe konnten wir mediane Überlebenszeiten von 34,8 Monaten bei 1-, 3- und 5-Jahresüberlebensraten von 86, 49 und 33 % beobachten [18]. In dieser Untersuchung (Gruppe 1a) zeigten sich eine mediane Überlebenszeit von 27,1 Monaten und 1- und 3- Jahresüberlebensraten von 80 und 49 %. Diese Ergebnisse sind mit den Resultaten der chirurgischen Resektion vergleichbar. Ziel dieser Arbeit war, die Effektivität der MR-gesteuerten LITT bei Patienten mit Lebermetastasen des Magenkarzinoms zu bewerten. Hier ist die Ausgangssituation schlechter als beim kolorektalen Karzinom, welches häufig hämatogen in die Leber metastasiert und oft auf die Leber beschränkt bleibt [4]. Das Magenkarzinom hingegen metastasiert ins Peritoneum, in Lymphknoten oder in den Magenstumpf nach potentiell kurativer Gastrektomie. Drei Studien zur chirurgischen Resektion von Lebermetastasen des Magenkarzinoms bezifferten den Anteil der Patienten mit Lebermetastasen an allen Patienten, die wegen eines Magenkarzinoms behandelt wurden auf 4 bis 11 %, wobei hiervon nur 10 bis 21 % für eine chirurgische Resektion in Frage kamen [16, 17, 35]. Andererseits wurden in Untersuchungen zu Rezidivmustern nach potentiell kurativer Gastrektomie bei 19 bis 34 % der Patienten Lebermetastasen beobachtet, wovon 54 bis 78 % initial isoliert auftraten [8-11]. Hier könnte ein größerer Anteil von Patienten durch Nachsorgeuntersuchungen für Leber fokussierte Therapien in Frage kommen. Das metastasierte Magenkarzinom hat eine schlechte Prognose. Bei bestmöglicher palliativer Pflege überleben die Patienten im Median nur 3 bis 5 Monate [12-14]. Palliative Kombinationschemotherapien, beispielsweise ECF (Epirubicin, Cisplatin, 5-Fluorouracil) können dies auf 9 Monate verlängern [49, 50]. Neuere Substanzen wie Irinotecan, Oxaliplatin, Paclitaxel, Docetaxel oder orale Fluoropyrimidine (Tabelle 13, Tabelle 14, Tabelle 15) zeigen viel versprechende mediane Überlebenszeiten von 11 bis 14 Monaten. Kwok et al. beobachten mediane Überlebenszeiten von 4,3 Monaten bei bilobulärem und 7,8 bei unilobulärem Befall der Leber [105]. Ist dieser Befall auf die Leber beschränkt, kann bei einem Teil dieser Patienten eine chirurgische Resektion der Lebermetastasen angestrebt werden. Hier zeigten sich mediane Überlebenszeiten zwischen 9 und 21 Monaten, bei 3- Jahresüberlebensraten von 20 bis 38 % und 5-Jahresüberlebensraten von 0 bis 38 % (Tabelle 10) [15- 17, 38-40]. Eine weitere Therapiemöglichkeit bei ausschließlich hepatischem Befall bietet die hepatisch-arterielle Infusion (HAI) mit medianen Überlebenszeiten von 9 bis 23 Monaten [86, 87, 89, 90] (Tabelle 16). In dieser Untersuchung wurden 25 Patienten mit Lebermetastasen des Magenkarzinoms (Gruppe 2) mittels LITT behandelt. Sie überlebten im Durchschnitt 24,1 Monate beziehungsweise 15,1 Monate im Median ab dem Zeitpunkt der ersten Laserung und drei von ihnen waren 35,7, 62,8 und 70,9 Monate danach noch am Leben. Die kumulativen 1-, 3- und 5- Jahresüberlebensraten ab diesem Zeitpunkt betrugen 62 %, 25 % und 12 %. Als ungünstiger prognostischer Faktor konnte ein fortgeschrittener Lymphknotenbefall identifiziert werden. Patienten mit Stadium N2 und N3 hatten gegenüber solchen mit N0 oder N1 signifikant kürzere durchschnittliche Überlebenszeiten (11,7 versus 29,9 Monate, p = 0,029 im Log Rank -Test) (Abbildung 41). T-Stadium, zeitliches Auftreten der hepatischen Metastasierung, Geschlecht, Alter, Indikation zur LITT, initiale Metastasenzahl und Metastasengröße hatten keinen statistisch signifikanten Einfluss auf die Überlebenszeit. Damit zeigt die LITT bei der Ablation von Lebermetastasen des Magenkarzinoms Ergebnisse, die sich mit der chirurgischen Resektion oder der hepatisch-arteriellen Infusion (HAI) messen lassen. Im Vergleich zur palliativen Chemotherapie zeigen mit LITT behandelte Patienten eine längere mediane Überlebenszeit, wobei zu bedenken gilt, dass die LITT nur bei Patienten mit einem isolierten hepatischen oligolokulärem Befall zum Einsatz kommt, während in Studien zur palliativen Chemotherapie auch Patienten mit extrahepatischem Befall oder hepatischem multilokulärem disseminiertem Befall behandelt wurden. Zusammenfassend lässt sich sagen, dass die LITT ein komplikationsarmes minimal-invasives Verfahren zur Ablation von Lebermetastasen darstellt und bei einigen Primarien, wie dem kolorektalen Karzinom durchaus einen kurativen Ansatz bietet. Im Fall von Leberfiliae des Magenkarzinoms kommt die LITT nur bei einigen wohl ausgesuchten Patienten als Therapieoption in Frage, liefert jedoch ähnliche Ergebnisse wie andere auf die Leber gerichtete Verfahren und vermag einigen Patienten ein Langzeitüberleben zu ermöglichen.
In Deutschland leiden 10-20% der Erwachsenen unter Allergien, wovon 16-36% durch Inhalationsallergene verursacht werden, von denen die Birkenpollen die hauptsächliche Ursache der allergischen Rhinitis vom Frühling bis Frühsommer in Mitteleuropa sind. Als häufigste Typ 1 Allergie ist die Birkenpollenallergie in 70% der Fälle mit einer kreuzreagierenden Nahrungsmittelallergie verbunden. Die Studienlage und die stetig steigende Inzidenz atopischer Erkrankungen weisen auf die außerordentliche Bedeutsamkeit einer effizienten Diagnostik hin, wobei die in-vitro Diagnostik neben Anamnese und Hauttests eine immer bedeutendere Rolle spielt. Mit Tests wie dem Westernblot können einzelne Allergenepitope größenmäßig erfasst und sichtbar gemacht werden. Diese genaue Differenzierung der Proteinbestandteile des Allergenspektrums erlaubt eine exaktere Einschätzung des Antikörperspektrums jedes einzelnen Patienten. In dieser vorliegenden Studie soll die Wertigkeit der Westernblot-Technologie im Rahmen der in-vitro Diagnostik pollenassoziierter Nahrungsmittelallergien bezüglich der Sensitivität, Spezifität, Praktikabilität und des Epitopspektrums bei Patienten mit pollenassoziierter Nahrungsmittelallergie beurteilt werden. Mit dem Pricktest und einer ausführlichen Anamnese als Auswahlverfahren wurden 30 Patienten einer Kontrollgruppe, 30 einer Gruppe für Birkenpollen-Allergiker und 32 einer Gruppe für Birkenpollen-Allergiker mit pollenassoziierter Nahrungsmittelallergie zugeordnet. Zusätzlich wurden die korrespondierenden Seren zuerst mit dem Immulite 2000® (Festphasen-basierender Chemilumineszens-Immunoassay) der Firma DPC-Biermann (Bad Nauheim) auf Birkenpollenallergene und kreuzreagierende Nahrungsmittelallergene getestet. Danach wurden die Seren mit dem Westernblot AlaBLOT®, DPC-Biermann (Bad Nauheim) und dem AlaBlot® Allergenstreifen des spezifischen Birkenpollenallergens T3 untersucht, zu dessen Auswertung eine nach WHO-Nomenklatur angefertigte Schablone verwendet wurde. Die Ergebnisse der Tests wurden mittels deskriptiver statistischer Methoden analysiert. Es konnte gezeigt werde , dass die Wertigkeit der Westernblot Technologie (Alablot Spezifisches IgE®, DPC Biermann, Bad Nauheim) im Rahmen der in-vitro Diagnostik von Birkenpollenallergien und birkenpollenassoziierter Nahrungsmittelallergien vergleichbar ist mit der spezifischen IgE-Technologie (Immulite 2000®, DPC Biermann, Bad Nauheim). Bei Birkenpollenallergikern erreichten beide Tests eine identische Sensitivität von 93%. In der Effizienz übertraf der Westernblot den spezifischen IgE-Test sogar in einem Fall: Mit Bet v 6 erreichte er eine höhere Effizienz mit 99,3% als der spezifische IgE-Test. Der Immulite 2000 erreichte eine Effizienz von 96,7%. Mit Bet v 1 und Bet v 2 erreicht der Westernblot eine 95% Effizienz und lag damit nur knapp unter dem spezifischen IgE-Test. Bei den Birkenpollenallergikern mit pollenassoziierter Nahrungsmittelallergie war die Sensitivität ebenfalls bei beiden diagnostischen Tests identisch mit 100%. Ebenso identische Werte wiesen beide Tests in der Spezifität von 100% auf. In der Effizienz lag der Westernblot nur kurz hinter dem spezifischen IgE-Test. Der spezifische IgE-Test erreichte eine Effizienz von 100% und der Westernblot 98,4%. Mit dem Westernblot wurde kein spezifisches Birkenpollen-Allergenepitop identifiziert, das speziell bei Patienten mit pollenassoziierter Nahrungsmittelallergie auftrat und somit ein Identifikationsepitop wäre. Die Epitopverteilung war bei Pollenallergikern und pollenassoziierten Nahrungsmittelallergikern ähnlich. Allerdings bestand ein Unterschied der beiden Allergikerkollektive in der mittleren Anzahl der Epitope. Die durchschnittliche Anzahl von allergenen Epitopen lag bei den Seren der Patienten mit pollenassoziierter Nahrungsmittelallergie mit 6,06 Epitopen deutlich über dem der reinen Pollenallergiker mit 3,83 Epitopen. Obwohl der Westernblot Nachteile in der Praktikabilität gegenüber dem spezifischen IgE-Test aufweist, stellt er durch die vergleichbaren Sensitivitäten und Spezifitäten und die Fähigkeit, Antikörper gegen einzelne Antigenbestandteile zu differenzieren, eine Alternative zum spezifischen IgE-Test in der Diagnostik von Birkenpollenallergikern mit oder ohne pollenassoziierte Nahrungsmittelallergie dar. Der höhere Durchschnitt an Epitopen bei Patienten mit pollenassoziierter Nahrungsmittelallergie erleichtert in der Diagnostik die schnellere Abgrenzung gegenüber reinen Pollenallergikern und beweist das Vorliegen eines komplexen Sensibilisierungsspektrums. Durch den Westernblot könnte durch die exakte Differenzierung der Allergenspektren eine individuellere spezifische Immuntherapie („patient-tailored-therapy“) ermöglicht werden, was besonders für Allergiker mit einem komplexen Sensibilisierungsspektrum von großer Relevanz wäre. Nach Identifikation der für den jeweiligen Patienten relevanten Epitope könnte die spezifische Immuntherapie an das Sensibilisierungspektrum angepasst werden und dadurch irrelevanten oder sogar unerwünschten Immunantworten vermieden werden
Bei Operationen am offenen Herzen kann in den Herzkammern verbliebene Restluft zur Entstehung von Gasembolien führen, die ihrerseits neurokognitive Defizite verursachen. Die Flutung des Thorax mit Kohlendioxid soll hierbei geeignet sein, die im Herzen verbleibende Luftmenge zu verringern. Ein protektiver Effekt von Kohlendioxid-Insufflation auf die postoperative Gehirnfunktion wurde bisher jedoch noch nicht in klinischen Studien nachgewiesen. In unserer Studie waren 80 Patienten einbezogen, die sich einer Herzklappenoperation mit Sternotomie unterziehen mussten. Sie wurden randomisiert in eine Therapie- und eine Kontrollgruppe. Die präoperativen Untersuchungen der Patienten beinhalteten eine neurokognitive Testbatbatterie aus 6 Einzeltests und die Messung auditorischer Ereignis-korrelierter Potentiale (P300) als Maß für die präoperative Gehirnfunktion. Die neurokognitiven Tests und die P300-Messungen wurden am 5. postoperativen Tag unter gleichen Bedingungen wiederholt. Als neurokognitives Defizit wurde eine Verschlechterung von mindestens 20 % zur Voruntersuchung in 2 oder mehr Tests definiert. Die Gruppen wiesen keine signifikanten Unterschiede bezüglich wichtiger klinischer Parameter auf. Insbesondere die gemessenen Latenzen der P300-Messung unterschieden sich präoperativ nicht zwischen den beiden Gruppen. Fünf Tage nach der Operation waren diese Latenzen im Gruppenvergleich signifikant verlängert im Vergleich zur Vormessung. Die Gruppen unterschieden sich nicht im Vergleich der Parameter Mortalität, Auftreten von zerebrovaskulären Ereignissen und Durchgangssyndromen, sowie bezüglich der Intubationszeiten und der Krankenhausaufenthaltsdauer. Ebenso konnten in der neurokognitiven Testbatterie keine signifikanten Unterschiede dargestellt werden. Wir konnten in dieser Studie zeigen, dass die Verlängerung der postoperativ gemessenen P300-Latenz, die einen objektiven Messwert für Gehirnschäden nach Operationen am offenen Herzen darstellt, durch die Flutung des Operationsfeldes mit CO2 signifikant reduziert wurde. Die klinischen Befunde und neurokognitiven Tests korrelierten nicht zwangsläufig mit diesen Ergebnissen, stellten sich jedoch für diese Form der Studie als ungeignet heraus, da sie nicht empfindlich genug reagieren und nicht optimal für dieses Patientenkollektiv verwendbar waren. Trotzdem sollte die Kohlendioxid-Insufflation bei allen Operationen am offenen Herzen eingesetzt werden um die Entstehung von neurokognitiven Defiziten nach der Operation zu reduzieren oder gar ganz zu verhindern.
Ziel: Evaluation der transpulmonalen Chemoembolisation TPCE als symptomatisches, palliatives Verfahren für die Therapie inoperabler primärer und sekundärer Lungentumoren. Material und Methoden: 69 Patienten (46 Männer, 23 Frauen; Durchschnittsalter: 60,9 Jahre) mit primären und sekundären Lungentumoren wurden mittles TPCE im Zeitraum von 2001 bis 2005 in durchschnittlich 3,36 Sitzungen (Range: 2 - 10 Sitzungen) behandelt. Dabei litten 17 Patienten (14 Männer, 3 Frauen; Durchschnittsalter: 64,5 Jahre; Range: 44 - 78 Jahre) an inoperablen primären Lungentumoren, 52 weitere (32 Männer, 20 Frauen, Durchschnittsalter: 59,8 Jahre; Range: 33 - 83 Jahre) zeigten Metastasen verschiedenen Ursprungs. Nach Punktion der Vena femoralis wurden die tumorversorgenden Pulmonalarterien selektiv sondiert und unter Ballonprotektion 5 - 10 mg Mitomycin C und 5 - 10 ml Lipidol sowie Microspheren (Spherex) (Durchmesser: 20 - 70 μm) appliziert. Pro Sitzung wurden Läsionen nur eines Lungenlappens behandelt. Die Diagnose und Auswertung erfolgte im 4-Wochen-Intervall mittels nativer sowie kontrastmittelverstärkter, computertomographischer Bildgebung. Das Follow-up erstreckte sich hierbei über einen Zeitraum von sechs Monaten bis zu zwei Jahren für Patienten mit primären Tumoren; für Patienten mit sekundären Tumoren lag die Nachsorgezeit zwischen sechs Monaten und 2,25 Jahren. Ergebnisse: Die Behandlung wurde von allen Patienten ohne größere Nebenwirkungen und Komplikationen toleriert; Laborparameter wurden nicht relevant beeinflusst. Eine hohe sowie moderate Lipiodolaufnahme konnte in 17 Fällen (24,6%) computertomographisch verifiziert werden, während sich in 52 Fällen (75,4%) eine niedrige Lipiodolaufnahme zeigte. Nach Beurteilung morphologischer Kriterien wurde eine Volumenreduktion der embolisierten Areale bei 20 Patienten (29,0%) um im Mittel 13,9 ml (53,9%) erreicht, während sich bei 14 Patienten (20,3%) eine Größenkonstanz zeigte. In 35 Fällen (50,7%) kam es zu einer Volumenzunahme der behandelten Tumoren. Hierbei betrug das durchschnittliche Tumorwachstum 29,4ml (131,0%). Schlussfolgerung: Die transpulmonale Chemoembolisation (TPCE) stellt eine gut verträgliche palliative Therapiemaßnahme zur Reduzierung der Tumorvolumina bei Patienten mit primären und sekundären Lungentumoren dar.
Die Fortschritte in der Molekularbiologie innerhalb des letzten Jahrzehnts und die Aufschlüsselung des menschlichen Genoms sowie Verfeinerungen der Gentechnik haben wesentlich dazu beigetragen, dass die molekularen Ursachen vieler Erkrankung besser verstanden werden können. Das EEC-Syndrom ist ein Paradebeispiel eben jener Entwicklung. Noch vor 20 Jahren war die Fachwelt im Unklaren darüber, welche Ursachen einem Symptomkomplex, bei dem ektodermale sowie mesodermale Strukturen gleichzeitig betroffen sind und wie man es dann unter dem EEC-Syndrom zusammenfasst, zu Grunde liegen. Die Entdeckung von p63, als homologes Gen des Tumorsuppressorgen p53, im Jahr 1997 hat zu einem besseren Verständnis der Entstehung und Pathogenese des EEC-Syndroms beigetragen. Die Erbinformationen von Patienten mit EEC-Syndrom sowie deren Familienmitglieder können systematisch nach Mutationen des p63 Gens untersucht werden, damit einer genetische Beratung mehr Informationen zu Verfügung stehen. Das Ziel dieser Doktorarbeit ist es, einen Überblick über das Symptomspektrum des EEC-Syndroms zu vermitteln, die genetischen Ursachen darzustellen und diese Erkenntnisse mit den Ergebnissen der Untersuchung des Patientenfalles zu vergleichen. Bei der Beschreibung der Symptome wurde besonderes Augenmerk auf die Fehlbildungen im Mund-, -Kiefer- und Gesichtsbereich gelegt. Die Problematik bestand darin, die Fallstudien der medizinischen Literatur und die wissenschaftlichen Quellen aus dem Bereich der Molekularbiologie, mit Bezug zum EEC-Syndrom, zusammenzutragen, gegenüberzustellen und zusammenzufassen. Die wichtigsten Fehlbildungen im Mund-, Kiefer- und Gesichtsbereich sind die unilateral sowie bilateral auftretenden Lippen-, Kiefer- und Gaumenspalten sowie eine Atresie des Ductus nasolacrimalis und Aplasie der Meibomschen Drüsen. Die funktionellen und ästhetischen Störungen, welche mit einer Spalte einhergehen, bedingen eine frühe operative Therapie um eine physiologische Entwicklung des orofazialen Bereichs zu ermöglichen und Sprachbildungsstörungen weitestgehend zu vermeiden. Die Atresie des Ductus nasolacrimalis und eine Aplasie der Meibomschen Drüsen können schon in frühen Jahren Epiphora, schmerzhaften Infektionen der Lidränder und Konjunktividen hervorrufen. Bei ausbleibender Therapie kann dies zur Beeinträchtigungen der Sehfähigkeiten führen.
Von den in dieser Studie 163 untersuchten Patientinnen mit Carcinom der Cervix uteri wurden 56 mit entweder postoperativer oder alleiniger Radiochemotherapie und 107 mit entweder postoperativer oder alleiniger Radiotherapie behandelt. Die Radiotherapie bestand bei allen 163 Patientinnen aus perkutaner Hochvolttherapie, in 129 Fällen kombiniert mit intrakavitärer Kontaktbestrahlung. Die Chemotherapie bestand aus der wöchentlichen Gabe von Cisplatin. 62 Patientinnen wurden vor der Therapie operiert. Das mittlere Alter bei Diagnosestellung lag bei 55 Jahren mit eine Range von 21 bis 84 Jahren. Das Tumorstadium der untersuchten Patientinnen lag zwischen I und IVa, wobei die meisten Patientinnen Tumoren im Stadium II (36,8 %) oder III (27,6 %) aufwiesen. Allerdings wurde in vielen Fällen, in denen keine Operation erfolgte, das Tumorstadium nach FIGO und bei operierten Patientinnen das Tumorstadium nach TNM-Klassifikation erfasst. Bei 96,3 % der Tumoren handelte es sich histopathologisch um ein Plattenepithelcarcinom, in 3,7 % um ein Adenocarcinom. Obwohl 6 verschiedene Therapiemodalitäten eingesetzt wurden, war vor allem der Vergleich der Gruppe, die eine Radiochemotherapie erhalten hatten, mit jener, die eine alleinige Radiotherapie erhielt, von besonderem Interesse. Die akuten und chronischen Nebenwirkungen wurden nach den Richtlinien der RTOG-EORTC beurteilt. An 54 Patientinnen konnte über die Nachsorge hinaus ein Fragbogen zugesendet werden, der in Anlehnung an die Kriterien des LENT-SOMA Konzepts die subjektive Morbidität der Patientinnen abfragte. Die Gesamt 2-JÜR lag bei 70 %, die Gesamt 5-JÜR bei 58 % mit einer Rezidivrate für das Gesamtkollektiv von 14,1 %. Bei 17,4 % der Patientinnen traten Fernmetastasen sowie in 8 % der Fälle Lymphknotenmetastasen auf. Das Überleben bei Radiochemotherapie stellte sich gegenüber alleiniger Radiotherapie als verbessert (2-JÜR bei RCT von 82 % vs. 2-JÜR bei RT von 64% sowie 5-JÜR bei RCT von 69 % vs. 5-JÜR bei RT von 52 %) und die Rezidivrate (RCT 9 % vs. RT 14,1 %) als vermindert dar. Auch Fernmetastasen wurden in der RCT-Gruppe seltener verzeichnet (RCT 10,7 % vs. RT 18,3 %). Lediglich der Lymphknotenbefall war in beiden Gruppen nicht relevant unterschiedlich (RCT 7,1 % vs. RT 8,4 %). Postoperative Patientinnen wiesen zwar keine höhere Rezidivfreiheit jedoch längere Überlebensintervalle als nicht operierte Patientinnen auf. Die längsten Überlebensintervalle ließen sich für die postoperative RCT-Gruppe ermitteln. Im Vergleich wurden vor allem hämatogene Nebenwirkungen von Schweregrad 3 oder 4 in der Gruppe, die mit kombinierter Radiochemotherapie behandelt wurde, sehr viel häufiger festgestellt (RCT 35,7 % vs. RT 2,9 %). Allerdings wurde bei 32 Patientinnen der RT-Gruppe kein regelmäßiges Blutbild angefertigt. Die Therapie konnte in den meisten Fällen im geplanten Umfang erfolgen. Gastrointestinale Nebenwirkungen wurden in beiden Gruppen festgestellt, wobei keine großen Unterschiede zu beobachten waren. Akute Nebenwirkungen des Schweregrads 3 der Blase wurden in 2,5 % der Patientinnen ermittelt. An der Vagina war dies ebenfalls in 2,5 % der Fall. Urogynäkologische Nebenwirkungen des Schweregrads 4 wurden nicht verzeichnet. Es wurden ebenso wenig gastrointestinale Nebenwirkungen vom Grad 4 und insgesamt lediglich in 3 Fällen vom Grad 3 registriert, wobei diese alle in der RT-Gruppe (2,8 %) vorkamen. Die chronischen Nebenwirkungen waren insgesamt ebenfalls in der RCT-Gruppe etwas häufiger (RCT 17,9 % vs. RT 14 % für kumulative Häufigkeit aller chronischen Nebenwirkungen von Schweregrad 3 und 4), wobei die gastrointestinalen Nebenwirkungen in beiden Gruppen ähnlich waren (RCT 10,7 % vs. RT 10,3 % für kumulative Häufigkeit von Grad 3 und 4). Urologische Spätfolgen vom Grad 3 oder 4 wurden in der RCT-Gruppe jedoch weitaus häufiger ermittelt (kumulative Häufigkeit RCT 7,1 % vs. RT 1,9 %). Als weiterer Prognosefaktoren für Überleben wurde vor allem das Tumorstadium und ein Karnofsky-Index >70 identifiziert, wohingegen das Alter (ausgenommen die Gruppe der Patientinnen <80 Jahre) bei Therapiebeginn und vorhergehende operative Eingriffe keinen Einfluss auf die Prognose zu haben schienen. Vor allem für das Entstehen von chronischen Nebenwirkungen wurde eine Korrelation zwischen applizierter Gesamtdosis und Schwere sowie Häufigkeit von Spätfolgen der Schweregrade 3 oder 4 festgestellt (Für BED <110 Gy gastrointestinale chronische Nebenwirkungen Grad 3 und 4 in 4,5 % und der Blase in 3,4 % vs. BED >110 Gy gastrointestinale chronische Nebenwirkungen Grad 3 und 4 in 23,5 % und der Blase in 3,9 %). Patientinnen, die Grunderkrankungen wie Diabetes oder Herz-Kreislauf-Erkrankungen in ihrer Anamnese hatten, litten etwas häufiger an gastrointestinalen Spätfolgen vom Schweregrad 4, während Spätfolgen vom Schweregrad 3 in der Gruppe ohne diese Grunderkrankungen häufiger ermittelt wurden. Bei der Befragung der Patientinnen wurden vor allem häufige Darmkrämpfe, Durchfälle und Schmerzen im Beckenknochen angegeben. 42,6% der Patientinnen gaben negative Auswirkungen der Therapie auf ihr Sexualleben an. Insgesamt deckt sich das Ergebnis aus dieser Arbeit mit den Ergebnissen der großen randomisierten Studien nach denen eine Radiochemotherapie eine Verbesserung der Prognose mit einer eher geringen Verstärkung von akuten und chronischen Nebenwirkungen für Patientinnen mit Carcinomen der Cervix uteri darstellt.
Das Volumen von tierischen Zellen ist durch äußere und innere Einflüsse Veränderungen unterworfen. Um die zelluläre Homöostase zu gewährleisten und bedrohliche Volumenänderungen zu verhindern, verfügen die meisten Zellen daher über regulatorische Mechanismen zur Verringerung (regulatory volume decrease, RVD) oder Erhöhung (regulatory volume increase, RVI) des Zellvolumens. Darüber hinaus finden diese Mechanismen auch im Rahmen physiologischer Prozesse, wie z. B. der Zellbewegung oder der Proliferation Verwendung. Der RVD erfordert einen Sensor-Mechanismus, der die Veränderung des Zellvolumens registriert. Die nachfolgende Signaltransduktion führt zur Aktivierung von Transportmechanismen, die v. a. dem Export von K+- und Cl--Ionen, aber auch organischen Osmolyten, dienen und zum Ausstrom von Wasser aus der Zelle führen, bis das Sollvolumen erreicht ist. Bisher ist noch nicht sicher, welcher Mechanismus den RVD einleitet; in verschiedenen Geweben wurden Hinweise auf mehrere mögliche Kandidaten gefunden. In dieser Arbeit wurde der RVD von HaCaT-Zellen, einer humanen Keratinozyten-Zelllinie hinsichtlich der Beteiligung des Aktin-Zytoskeletts mit mikroskopischen, pharmakologischen und molekularbiologischen Methoden untersucht. HaCaT-Zellen schwellen in hypotonem Medium schnell an (30 s) und führen einen RVD durch, der nach ca. 5 min das Ausgangsvolumen wieder herstellt. Der RVD von HaCaT-Zellen ist vom Einstrom extrazellulärer Ca2+-Ionen abhängig. Dieser Einstrom erfolgt durch einen Kanal, der durch die Inhibitoren von stretch activated channels (SAC) Gd3+ und GsMTx-4, sowie den spezifischen Inhibitor des transient receptor potential vaniloid 4 (TRPV4), Rutheniumrot, gehemmt werden kann. TRPV4 wird in HaCaT-Zellen exprimiert. Der RVD und der damit verbundene Einstrom von Ca2+-Ionen, nicht aber das Anschwellen der Zellen werden durch den Abbau des Aktin-Zytoskeletts durch 2 μM Cytochalasin D (CD) gehemmt. Die Hemmung durch CD ist reversibel; nach dem Entfernen von CD bildet sich innerhalb von 30 min erneut ein Netzwerk von Aktinfilamenten aus. Ein zwei-stufiges Absenken der Osmolarität (jeweils ca. 20%), zunächst in Anwesenheit von CD führt zu einer Volumenzunahme, löst aber keinen RVD aus. Auch nach dem Entzug von CD bleibt das Volumen konstant erhöht. Erst das zweite Absenken löst eine Volumenregulation aus, allerdings nur bis zu dem Volumen, das nach dem Entfernen von CD etabliert war. Die mikroskopische Struktur des Aktin-Zytoskeletts von HaCaT-Zellen ändert sich während des RVD kaum. Durch die Messung der Fluoreszenz von gebundenem Rhodamin-Phalloidin konnte ein vorübergehender Anstieg der Menge von Aktinfilamenten (F-Aktin) während des RVD gezeigt werden. Ein quantitativer biochemischer Ansatz zeigt, dass die relative Menge des Triton- X-100-löslichen Anteils des Aktin-Zytoskeletts im gleichen Zeitraum zunimmt. Der RVD von HaCaT-Zellen hängt ebenfalls von der Geschwindigkeit der Osmolaritätsänderung ab; die langsame Verringerung der Osmolarität (≤ 5 mosM/min) führte zum Anschwellen, nicht aber zum RVD. Auf Basis der erzielten Ergebnisse wird ein Modell für den RVD von HaCaTZellen vorgeschlagen, bei dem der Anstieg des Zellvolumens zu einer Zunahme der mechanischen Spannung im kortikalen Zytoskelett führt. Dadurch wird – indirekt, etwa durch Phospholipase A2, oder direkt - TRPV4 aktiviert. Dies führt zu einem Einstrom von extrazellulären Ca2+-Ionen und über Ca2+-abhängige Aktin-bindende Proteine (z. B. Gelsolin) zu einer Reorganisation des Aktin-Zytoskeletts (Gel-Sol-Übergang) und verbunden damit zu einer Abnahme der mechanischen Spannung. Ca2+-Ionen und kurze Aktinfilamente aktivieren Transportmechanismen, die zum Ausstrom von K+- und Cl-- Ionen und einer Abnahme des Zellvolumens führen.
Die vorliegenden Arbeit analysiert 270 Traumapatienten, die durch das am Klinikum der Johann Wolfgang Goethe-Universität Frankfurt stationierte NEF in den Schockraum der Universitätsklinik eingeliefert wurden. Der Beobachtungszeitraum erstreckt sich von Anfang Januar 2004 bis einschließlich August 2007. Als Grundlage der Studie dient der Vergleich der präklinischen Daten des Notarzteinsatzprotokolls mit den klinischen Daten, die im Schockraum erhoben wurden. Ziel der Studie war es, den Stand der präklinischen Traumaversorgung darzustellen. Eine mögliche Überversorgung sowie eine Unterversorgung soll anhand präklinischer Maßnahmen, wie die Durchführung einer endotrachealen Intubation, die Anlage einer Thoraxdrainage und die prophylaktische Immobilisation der Halswirbelsäule erfasst werden. Insgesamt bestand für 28,1 % der Patienten eine präklinische Intubationsindikation. In internationalen Studien werden Indikationen von 16 % bis 29 % angegeben und somit bestätigt. Um eine präklinische Unterversorgung hinsichtlich der endotrachealen Intubation festzustellen, wurden notwendige Intubationen innerhalb der ersten 15 Minuten im Schockraum analysiert. Nach Einzelfallprüfung zeigt sich, dass 4,5 % der Patienten, die vom NEF in den Schockraum eingeliefert wurden, als unterversorgt bezeichnet werden können. Die rasche Indikation im Schockraum zur Sicherung des Atemwegs mittels endotrachaealer Intubation, ergab sich in mehr als der Hälfte der Fälle (55,6 %) durch eine stark eingeschränkte Vigilanz (GCS<9). Zur Detektion einer hinsichtlich der endotrachealen Intubation bestehenden präklinischen Überversorgung, wurden die am Unfallort zur Intubation führenden Indikationen analysiert. Hierbei zeigte sich, dass nur ein Patient (1,47 %) ohne anerkannte Indikation, nur aufgrund des Unfallmechanismus und der zu erwartenden Verletzungen ohne klinisches Korrelat endotracheal intubiert wurde. Ein Gruppenvergleich von Patienten mit und ohne Intubation zeigte signifikante Unterschiede in Bezug auf die anhand des Injury Severity Scores erhobenen Verletzungsschwere. Die Ergebnisse dieser Studie mit 4,5 % der Patienten, die präklinisch hinsichtlich der Atemwegssicherung unterversorgt und den 1,47 % der Patienten, die überversorgt waren, sind Ausdruck der eher zurückhaltenden Indikationsstellung einer endotrachealen Intubation unter präklinischen Bedingungen unter Berücksichtigung des engen präklinischen Zeitfensters. 12,2 % der Patienten benötigten nach dem Trauma eine Thoraxdrainage. Um eine präklinische Unterversorgung hinsichtlich der Anlage einer Thoraxdrainage zu ermitteln, wurde die Dringlichkeit und die Indikation der im Schockraum gelegten Drainagen beurteilt. Patienten, die innerhalb der ersten 15 Minuten nach Ankunft in der Klinik eine Drainage erhielten, wurden als unterversorgt eingestuft. Per Definition dieser Studie sind 33,3 % der Patienten, die eine Drainage benötigten, unterversorgt, das entspricht 4,1 % vom gesamten Patientenkollektiv. Von diesen Patienten hatten mehr als 90 % auffällige Atemmuster und 54,5 % waren endotracheal intubiert und beatmet. Trotz therapeutischer Maßnahmen, wie die Sauerstoffgabe oder die Intubation, war die periphere Sauerstoffsättigung bei den Unterversorgten in 45,5 % nicht zufriedenstellend (SpO2 < 90 %). In 45,5 % der Fälle war die Traumaursache mit der offensichtlichen Gefahr eines Pneumothorax eine Stichverletzung im Thoraxbereich. Als Ursachen für diese Mängel in der Patientenversorgung sind die eingeschränkten präklinischen diagnostischen Möglichkeiten, die Invasivität der Maßnahme mit den daraus resultierenden Komplikationen und die zeitlich aufwendige, auch für lange Jahre tätige Notärzte seltene Maßnahme der Thoraxdrainagenanlage zu nennen. Die Unsicherheit in Diagnostik und Therapie lassen das präklinische Konzept des „scoop and run“ mit dem sofortigen Transport in die Klinik vorteilhaft erscheinen. Die Ergebnisse der Immobilisation der Halswirbelsäule als prophylaktische Maßnahme, um Sekundärschäden durch Rettung und Transport abzuwenden, zeigen eklatante Mängel in der Patientenversorgung. Mehr als ein Drittel (35,9 %) der Patienten mit aufgrund des Unfallmechanismus klarer Indikation zur Durchführung der Protektion wurden ohne Immobilisation der Halswirbelsäule in die Klinik eingeliefert. Um diese Versäumnisse zu analysieren, erfolgte ein Vergleich der Gruppe mit und ohne HWS-Protektion. Patienten, die eine HWS-Protektion erhielten, hatten anhand des Injury Severity Scores erhoben signifikant schwerere und multiplere Verletzungen als Patienten ohne Protektion. Unter Berücksichtigung des Unfallmechanismus führten Stürze aus größer Höhe und Verkehrsunfälle häufiger zur Anwendung einer Zervikalstütze als Stürze aus geringer Höhe. Die Vigilanz hatte hingegen keinen Einfluss auf die Häufigkeit der HWS-Immobilisation, obwohl der bewusstlose Traumapatient eine relativ eindeutige Indikation darstellt. Von den 270 Patienten dieser Studie haben sich 2,9 % eine Verletzung der Halswirbelsäule zugezogen, davon 0,37 % mit einer instabilen Fraktur in diesem Bereich. Da Frakturen der Wirbelsäule sich häufig nicht aus der präklinischen eingeschränkten Diagnostik ergeben, ist es dringend erforderlich, unter Berücksichtigung des Unfallmechanismus und der Umstände am Unfallort, Sekundärschäden durch die Anlage eine Zervikalstütze abzuwenden. Um einen Vergleich mit anderen Kliniken zu ermöglichen, wurden Patientenkollektiv und Einsatzaufkommen analysiert. Hier zeigt sich eine Dominanz der männlichen Traumapatienten in der Altersgruppe der Berufstätigen, wie sie in anderen Traumazentren beschrieben wird. Auch der jahreszeitliche Verlauf mit einer Häufung der Traumapatienten in den Sommermonaten und ein typischer zirkadianer Rhythmus, die das Verkehrsaufkommen und das Freizeitverhalten der Bevölkerung wiederspiegeln, zeigt, dass von einem repräsentativen Patientenkollektiv ausgegangen werden kann. Der größte Anteil der Patienten hatte hinsichtlich der Traumaursache einen Unfall im Straßenverkehr (41,5 %), gefolgt von Stürzen aus unterschiedlichen Höhen (36,7 %). Gewalttaten mit einem Anteil von knapp 12 % als Traumaursache spiegeln das Patientenkollektiv einer Großstadt wie Frankfurt am Main wieder. Zur Objektivierung der Ergebnisqualität der präklinischen Patientenversorgung wurde der Mainz Emergency Evaluation Score (MEES) erhoben. Entsprechend ihrem Ausgangszustand konnten 87 % der Patienten stabil oder mit einem entsprechen dem MEES verbesserten Zustand der Vitalparameter in die Klinik transportiert werden. Maßnahmen wie die suffiziente Analgesie und Verbesserungen im Bereich der Atmung durch Sauerstoffgabe und endotracheale Intubation sind dafür wesentlich verantwortlich. Die präklinische Patientenversorung und die Struktur des Rettungswesens in Deutschland genießt international einen herausragenden Ruf. Dennoch konnten Defizite in der Erkennung und Behandlung von Traumapatienten festgestellt und in dieser Studie bestätigt werden. Um diese Defizite langfristig beheben zu können, sollte ein kontinuierliches Qualitätsmanagement implementiert werden. Auf eine Verbesserung der Dokumentationscompliance in der präklinischen Phase sollte geachtet werden, um eine Qualitätsbewertung regelhaft durchführen zu können. Kontinuierliche Schulungsmaßnahmen und regelmäßiges Training durch Simulation von Notfallsituationen sollten das notwendige Wissen praxisnah vermitteln und vertiefen. Simulationstraining, wie es im „Frankfurter Institut für Notfallmedizin und Simulation (FINeST)“ angeboten wird und Schulungsprogramme mit neuen Lernkonzepten müssen regelmäßig angeboten und ausgebaut werden, um die hohe Qualität des Rettungsdienstes in Deutschland zu sichern und weiter zu verbessern.
Das Ziel der Studie bestand einerseits in der Untersuchung der Zusammenhänge zwischen der sich im Vorschulalter entwickelnden Theory of Mind und dem sich ebenfalls zu diesem Zeitpunkt ausbildenden episodischen Gedächtnis unter der Berücksichtigung verschiedener potentieller Einflussfaktoren, wie beispielsweise den sprachlichen und exekutiven Fähigkeiten der Kinder. Auf der anderen Seite sollten zudem die Veränderungen innerhalb der einzelnen Konstrukte im zeitlichen Verlauf zwischen dem vierten und fünften Lebensjahr abgebildet werden. Dazu wurden 40 Kindern an zwei im Abstand von einem Jahr stattfindenden Erhebungszeitpunkten verschiedenste Aufgaben zur Erfassung ihrer jeweiligen Fähigkeiten in den unterschiedlichen kognitiven Bereichen vorgelegt. Das Durchschnittsalter der Kinder zum Zeitpunkt der ersten Messung betrug M = 38.73 Monate (SD = 2.84) und beim zweiten Messzeitpunkt M = 51.03 Monate (SD = 2.89). Anhand der erhobenen Daten konnte gezeigt werden, dass neben dem Zeitverständnis vor allem die Fähigkeit der dreijährigen Kinder zur Perspektivübernahme einen signifikanten Beitrag zur Erklärung ihrer späteren Kompetenzen auf dem Gebiet des episodischen Gedächtnisses leistet. Weiterhin konnten mittels der zwei Messzeitpunkte sowohl die quantitativen als auch qualitativen Veränderungen innerhalb der unterschiedlichen Theory of Mind-Kompetenzen bzw. innerhalb des sich wandelnden Repräsentationsverständnisses abgebildet werden. Zudem konnte ebenfalls die bedeutende Rolle der Sprache als optimales Medium zum verbalen Austausch über die verschiedenen Perspektiven von sich und anderen sowie über vergangene, gegenwärtige oder zukünftige Erlebnisse konstatiert werden. Im Gegensatz zu den Befunden anderer Studien scheint hingegen den vorliegenden Befunden nach dem Einfluss der exekutiven Fähigkeiten auf die Theory of Mind-Kompetenzen der Kinder keine so grundlegende Bedeutung zuzukommen.
Einfluß der Lagerung auf die Oxygenierung während der Einlungenventilation in der Thoraxchirurgie
(2008)
Einleitung: Die Einlungenventilation ist für thoraxchirurgische Eingriffe unerläßlich, um optimale Operationsergebnisse zu erzielen. Die hierbei vorgenommene funktionelle Trennung der Lungenflügel ermöglicht die Ruhigstellung des OP-Situs und eine kontrollierte Volumenreduktion. Aufgrund der unterbrochenen Beatmung einer Lunge gelangt desoxygeniertes, gemischt-venöses Blut in den Systemkreislauf und senkt dort den O2-Gehalt (Rechts-Links-Shunt). Das Ausmaß der durch eine Einlungenventilation entstehenden Hypoxämie ist sehr variabel, bislang nicht voraussagbar und unterliegt einer Reihe von Faktoren, welche die Größe der Durchblutung der nicht beatmeten Lunge beeinflussen. Methoden: An 50 konsekutiven Patienten der ASA-Risikogruppen I bis III wurden in Links- oder in Rechtsseitenventilation thoraxchirurgische Eingriffe vorgenommen. Zwischen den Operationstechniken bestanden keine signifikanten Unterschiede. Erhoben wurden zu determinierten Meßzeitpunkten Werte der Blutgasanalyse sowie die Beatmungsparameter. Ergebnisse: In beiden Gruppen zeigten ppeak und pplateau im Verlauf der Narkose fünf Minuten und 30 Minuten nach Beginn der Einlungenventilation eine signifikante Zunahme (p < 0,05), Sauerstoffpartialdruck und Horowitz-Quotient sanken in diesem Zeitraum signifikant (p < 0,05). Nach Wiederaufnahme der DLV bewegten sich die Parameter erneut im Ausgangsniveau. Für das AMV wurden in Linksseitenbeatmung bei DLVEnde signifikant niedrigere Werte in Bezug auf die drei vorangegangenen Meßzeitpunkte verzeichnet. In der Gruppe der Rechtsseitenventilierten wies die Sauerstoffsättigung einzig zum Meßzeitpunkt DLVEnde einen signifikanten Anstieg im Vergleich zu ELV+30 auf (p < 0,05). In der zweiten Gruppe bestand eine Signifikanz zu DLVEnde bereits bei ELV+5. Im Vergleich beider Gruppen wurden für keine der untersuchten Variablen signifikante Differenzen verzeichnet. Schlußfolgerungen: Hinsichtlich der Oxygenierung besteht bei der Anwendung der Einlungenventilation im Rahmen thoraxchirurgischer Eingriffe nach der vorliegenden Untersuchung kein signifikanter Unterschied zwischen der Durchführung in Rechts- und Linksseitenventilation. Im Verlauf der Anästhesie mußten in beiden Gruppen höhere Beatmungsdrücke appliziert werden. Es zeigten sich im Vergleich der Gruppen hinsichtlich aller drei Parameter (pmax; pplateau; PEEP) keine signifikanten Unterschiede. Im Rahmen dieser klinischen Studie wurde erstmals der Einfluß der Lagerung auf die Oxygenierung in Kombination mit einem speziellen Beatmungsregime während der ELV untersucht. Zur Vermeidung einer Hypoxämie unter ELV in Narkose kann hiermit festgestellt werden, daß vor allem die suffiziente Lungenseparation mit einer individuell angepaßten Beatmungsstrategie und der optimalen inspiratorischen Sauerstoffkonzentration für die Aufrechterhaltung der adäquaten Oxygenierung obligat ist.
In der vorliegenden Autopsiestudie wurde die Gefäßmorphologie der Koronararterien bei Dialysepatienten, bei nichtdialysepflichtigen niereninsuffizienten Patienten und bei Nierengesunden direkt miteinander verglichen. Zusätzlich wurde mit Hilfe immun-histochemischer Färbungen das Vorkommen inflammatorische Zellen bei drei Patienten-Gruppen untersucht. In der Studie wurden 86 durch Autopsie gewonnene koronare Gefäße histologisch und immunologisch untersucht. Die Analyse der Präparate wurde anhand dreier Patienten-gruppen durchgeführt. Das zentrale Unterscheidungsmerkmal war die Nierenfunktion: Gruppe 1, (n1=27), Dialysepatienten, mit einer Dialysedauer von mehr als 3 Monaten; Gruppe 2, (n2=29), Patienten mit langzeitbestehender chronischer Niereninsuffizienz; Gruppe 3, (n3=30), Patienten mit normaler Nierenfunktion. An Koronararterien wurden Messungen der Intima- und Mediabreiten im stenotischen und poststenotischen Bereich vorgenommen. In der zweiten Analyse wurde auf Basis immun-histologischer Färbungen das Vorkommen inflammatorischer Zellen bestimmt. Der Vergleich der drei Gruppen hinsichtlich der Breite der Intima und Media im Stenosebereich zeigt eine hohe statistische Signifikanz. So waren sowohl Intima (p<0.01), wie auch Media (p<0,01) im Stenosebereich deutlich dicker bei Patienten mit Niereninsuffizienz (Gruppe 1 und Gruppe 2) als bei Nierengesunden (Gruppe 3). Zwischen Gruppe 1 und Gruppe 2 waren keine statistischen Unterschiede feststellbar (p>0,05). Die poststenotischen Abschnitte der Gruppen 1 und 2 zeigten eine auffällig verbreiterte Gefäßwand. Statistisch gesehen fand sich eine signifikante Verbreiterung der Intima (p<0,05) und eine hochsignifikante Verbreiterung der Media (p<0,01) in den Gruppen 1 und 2 im Vergleich zur Gruppe 3. Zwischen Gruppe 1 und Gruppe 2 waren aus statistischer Sicht keine Unterschiede feststellbar (p>0,05). Die in dieser Studie durchgeführten immunhistologischen Untersuchungen konzentrierten sich auf den Nachweis von glatten Muskelzellen, Makrophagen und T-Lymphozyten. SMA-positive glatten Muskelzellen, bzw. Myofibroblasten zeigten eine hohe Präsenz in atherosklerotischen Plaques aller drei Gruppen. Die größte Dichte an Myofibroblasten wurde jeweils in der fibrösen Kappe nachgewiesen. Der Vergleich der drei Gruppen zeigt eine statistisch signifikant erhöhte SMA-Antigen Expression bei Patienten mit Niereninsuffizienz gegenüber Nierengesunden. Hoch signifikant erhöht sind die Anzahl der Myofibroblasten in der fibrösen Kappe bei Dialysepatienten gegenüber der nichtdialysepflichtigen niereninsuffizienten Gruppe. Die poststenotische Intima zeigte in allen drei Gruppen die höchste Dichte von Myofibroblasten. KP-1-positive Makrophagen und Schaumzellen waren in allen drei Gruppen, mit einem Häufigkeitsmaximum in den Plaquearealen vorhanden. Die Ergebnisse dieser Studie zeigen keine Unterschiede im Vorkommen von KP1 positiven Zellen in atherosklerotischen Plaques zwischen den drei Gruppen. Lediglich für die fibröse Kappe war ein Trend zu einer größeren Menge von Makrophagen bei Dialysepatienten erkennbar. In poststenotischen Abschnitten waren die Makrophagen überwiegend in Intima vorhanden. In der Media wurden nahezu keine inflammatorischen Zellen gefunden. Im Vergleich zu den anderen untersuchten Zellen war die Anzahl der T-Lymphozyten in allen Versuchsreihen am niedrigsten. Die größte CD3-Aktivität konnte in den Plaques nachgewiesen werden. In poststenotischen Abschnitten wurden in Intima sowie in Media nahezu keine Zellen oder nur sehr wenige Zellen gefunden. Die einleitend gestellten vier Fragen können nun wie folgt beantworten werden: - Die Gefäßveränderungen der Koronararterien sind nicht auf den Stenosebereich begrenzt. Bei niereninsuffizienten Patienten zeigte sich auch poststenotisch eine auffällig verbreiterte Gefäßwand. Diese wurde durch Media- und Intimahypertrophie verursacht. - Die Intima und Media im Stenosebereich, wie auch poststenotisch waren bei niereninsuffizienten Patienten deutlich breiter im Vergleich zu Nierengesunden. In diese Studie wurde erstmal gezeigt, dass bei Niereninsuffizienz eine poststenotische Intimaverdickung besteht. - Zwischen Dialysepatienten und nichtdialysepflichtigen niereninsuffizienten Patienten zeigt die Studie keine signifikanten Unterschiede in der Struktur der Koronargefäße. Obwohl die statistischen Daten eine hohe kardiale Letalität und Mortalität bei dialysepflichtigen Patienten zeigen, kann die Studie nicht eindeutig belegen, dass die Dialyse ein eigenständiger kardiovaskuläres Risikofaktor ist. - Das Vorkommen der glatten Muskelzellen in atherosklerotischer Plaque, mit einem Maximum in der fibröse Kappe, war bei niereninsuffizienten Patienten, insbesondere bei Dialysepflichtigen höher. Daraus kann man schließen, dass die Atherogenese nach Beginn der Dialysebehandlung nicht gestoppt wird. Die große Zellendichte in der fibrösen Kappe deutet auf eine höhere Ruptur-Gefährdung hin. Die Dialyse schützt vor einem Tod durch Urämie, verhindert aber nicht die kardiovaskuläre Letalität und Mortalität. Die Beschleunigung der arteriellen Gefäßveränderungen beginnt offenbar schon sehr früh in der Entstehung der Niereninsuffizienz und schreitet während der Dialyse fort. Eine frühzeitige Prävention und konsequente Therapie der bekannten und urämiespezifischen Risikofaktoren sind für eine Prognoseverbesserung wichtig.
Studienziel: Der Stellenwert des abdominellen Ultraschalls bei Patienten mit Morbus Crohn (MC) ist bei aktivem Krankheitsverlauf hinsichtlich morphologischer Veränderungen gut untersucht. Im Gegensatz dazu gibt es nur wenige Analysen hinsichtlich Patienten ohne Krankheitsaktivität. In der vorliegenden Studie wurden Patienten mit MC unabhängig von Krankheitsaktivität oder Symptomen einbezogen und hinsichtlich sonographischer abdomineller intestinaler und extraintestinaler Befunde untersucht. Ein weiterer Schwerpunkt lag dabei auch bei der Detektion einer primär sklerosierenden Cholangitis (PSC), die bekanntermaßen häufig gleichzeitig bei chronisch entzündlichen Darmerkrankungen (CED) auftritt. Eine periportale Lymphadenopathie bei Patienten mit PSC ist in der Literatur beschrieben, deren Prävalenz und Ursache bei Patienten mit CED aber unklar. In einem weiteren Studienteil wurde die Genauigkeit der abdominellen Sonographie bei der Detektion einer perihepatischen Lymphadenopathie bei Patienten mit CED untersucht. Methode: Bei 255 Patienten mit MC (117 m, 138 w, Altersdurchschnitt 38 ±14 Jahre) erfolgte eine sonographische Untersuchung des Abdomens mit Beurteilung der Darmwand des Dünn- und Dickdarms. Lagen pathologische Befunde vor, kamen weiterführende diagnostische und gegebenenfalls auch therapeutische Methoden (z.B. Endoskopie, Computertomographie, Biopsie oder Operation) zum Einsatz. Die Krankheitsaktivität wurde mittels Crohn Disease Activity Index (CDAI) bestimmt. Außerdem wurden 310 Patienten mit CED hinsichtlich periportaler Lymphadenopathie (Größe, Anzahl) sonographisch untersucht. Parallel erfolgte eine laborchemische Erhebung von Cholestaseparametern. Eine virale Ursache oder Autoimmunhepatitis wurde bei erhöhten Leberfunktionsund Cholestaseparametern ausgeschlossen. In Folge wurde das Vorliegen einer PSC durch eine endoskopisch retrograde Cholangiographie (ERC) evaluiert falls serologisch keine anderweitige Ursache gefunden werden konnte. Ergebnis: Bei 46/255 (18 %) der Patienten mit MC konnte sonographisch eine transmurale Entzündungsreaktion (TMR) des Darmes mit oder ohne Fistelbildung nachgewiesen werden. Dabei zeigten 29/46 (63 %) der Patienten einen aktiven (CDAI > 150) und 17/46 (37 %) der Patienten einen inaktiven Krankheitsverlauf (CDAI ≤ 150). Bei den Patienten ohne Krankheitsaktivität und TMR waren sonographisch 4 interenterische, 7 blind endende bzw. perirektale Fisteln und bei 6 Patienten eine isolierte TMR nachweisbar. Die gleichzeitig erhobenen sonographischen Befunde anderer Organe hatten bei 25/255 (10 %) eine diagnostische Konsequenz und eine therapeutische Konsequenz bei 9/255 (4 %) Patienten. Eine perihepatische Lymphadenopathie konnte sonographisch bei 27/310 (9 %) Patienten detektiert werden, bei 9 (33 %) von diesen war serologisch eine Virus- oder Autoimmunhepatitis als Ursache nachweisbar. Bei den verbleibenden 18 Patienten konnte bei fast allen (17/18, 94 %) Patienten mittels ERC eine PSC nachgewiesen werden. Pathologische Cholestaseparameter wurden bei 43/310 (14 %) bestimmt, von diesen konnte bei 5 (12 %) Patienten eine Virus- oder Autoimmunhepatitis als Ursache diagnostiziert werden. Die bei den verbleibenden 38 Patienten durchgeführte ERC zeigte bei 15 (39 %) Patienten das Vorliegen einer PSC. Entsprechend war nach Ausschluss einer Virus- oder Autoimmunhepatitis der sonographische Nachweis einer periportalen Lymphadenopathie für das Vorliegen einer PSC genauer als die konventionell durchgeführte Bestimmung der Cholestaseparameter (PPV 94 % und 39 % [p < 0,001]). Zusammenfassung: Die routinemäßig durchgeführte abdominelle Sonographie bei Patienten mit CED kann pathologische Befunde mit diagnostischer und therapeutischer Konsequenz bei symptomatischen und auch asymptomatischen Patienten erheben. Sie stellt somit eine leicht verfügbare und wertvolle Screeningmethode dar. Der sonographische Nachweis einer periportalen Lymphadenopathie stellt, nach Ausschluss einer anderen hepatischen Ursache, einen hohen prädiktiven Indikator zur Diagnose einer gleichzeitig bestehenden PSC dar.