Refine
Year of publication
- 2005 (244) (remove)
Document Type
- Doctoral Thesis (244) (remove)
Has Fulltext
- yes (244)
Is part of the Bibliography
- no (244)
Keywords
- Gentherapie (3)
- Messung (3)
- Nanopartikel (3)
- ABC-Transporter (2)
- Apoptose (2)
- Arzneimittel (2)
- Ciclosporin (2)
- Dirac-Gleichung (2)
- Dirac-Vakuum (2)
- Doxorubicin (2)
Institute
- Medizin (63)
- Biochemie und Chemie (46)
- Pharmazie (31)
- Biowissenschaften (30)
- Physik (27)
- Geowissenschaften (7)
- Philosophie (7)
- Erziehungswissenschaften (6)
- Geschichtswissenschaften (5)
- Kulturwissenschaften (5)
Gerade in der Medizin besteht die Diagnostik nicht nur aus Zahlen und Werten, die Gesamtheit einer Diagnostik setzt sich häufig auch aus Bildern zusammen. Die bildgebende Diagnostik lässt nur wenig Spielraum für eine platzsparende Arbeitsweise, zu wichtig ist der wissenschaftliche Aussagewert feinster Details, seien es nun radiologische Aufnahmen, klinische Bilder oder Histologien. Moderne Computernetzwerke bieten eine geeignete Infrastruktur zum Austausch relevanter Daten in akzeptabler Geschwindigkeit bei guter Datenqualität. So ist die EDV nicht nur Datenverwalter, sondern ein aktives Hilfsmittel im medizinischen Alltagsgebrauch.
Diese Arbeit soll zeigen, welche technischen Voraussetzungen erfüllt sein müssen, um durch Einsatz digitaler Bilderfassungsgeräte eine optimale Datengrundlage für Forschung, Lehre und Dokumentation zu schaffen.
Die gezeigten Systeme sind grundsätzlich in statische „solid-state“ Systeme und dynamische „remote“-Systeme zu unterteilen.
Statische Systeme sind der asynchronen Telemedizin zuzuordnen und arbeiten nach dem store and forward Prinzip. Die Aufnahme ist nicht erweiterbar, in der Ferne wird zeitlich unabhängig die Diagnose gestellt. Dieses System bietet sich in strukturschwachen Regionen an.
Remotesysteme sind technisch sehr viel aufwendiger. Die sogenannte synchrone Telemedizin ist auch räumlich getrennt, findet jedoch zeitgleich statt. Das heißt, über eine Kamera und Datenleitung sind die Experten direkt mit dem Präparat oder dem Patienten verbunden. Aufgrund des technischen Aufwandes sind solche Systeme in der Regel in strukturstarken Regionen zu finden.
Beide Varianten messen sich bezüglich ihrer Validität an dem sogenannten „GoldStandard“, dem direkten Kontakt von Facharzt oder Pathologen zu Patient oder Präparat. Abhängig von der technischen Qualität haben sich beide telemedizinischen Prinzipien als in hohem Maße valide dargestellt.
Die Wahl der Kamera als zentrales Übersetzungsmedium von Bild in Daten setzt ein exaktes Studium der technischen Grundlagen voraus, wenn man bezüglich Auflösung und Lichtempfindlichkeit keine Kompromisse eingehen möchte, aber auch, wenn die physikalischen Grenzen, wie etwa die optische Auflösung eines Systems, die Notwendigkeit eines hochauflösendsten Systems nicht sinnvoll erscheinen lässt. Die Archivierung der Daten erfordert zudem Speicherplatz. Die Kompression von Bildern kann verlustfrei, aber auch verlustbehaftet stattfinden. Je nach Anwendungszweck gilt es daher abzuwägen, ob objektive Verlustfreiheit bei höherem Speicherbedarf oder wenig Platzbedarf bei einem eventuellen Qualitätsverlust gewünscht ist. Im hier gestellten Vergleich zwischen einem hochauflösenden Single-Shot System und einem Multishotaufbau hat sich gezeigt, dass die Qualität des Bildes bei einem hochauflösenden Einzelbild homogener ist, während das gekachelte Bild durch das Merging-Verfahren Belichtungs- und Schärfeunterschiede aufweist und die Bereiche der Bildteilzusammenführung erkennen lassen kann. Als Vorteil eines solchen Aufbaus ist sicherlich die technisch nahezu unbegrenzte Bildfläche zu nennen, da das aufgenommene Areal nicht von einem Einzelbild, sondern der Zahl der Segmente abhängt. Insofern haben beide Konzepte abhängig vom Einsatzanspruch ihre Existenzberechtigung.
Das Ziel der vorliegenden Studie war die vergleichende morphometrische Untersuchung der Molarenmorphologie rezenter Hominoidea. Im Mittelpunkt der Fragestellung stand die dreidimensionale Analyse des hominoiden Facettenmusters, neben dem quantitativen Vergleich der Relieftopographie und der konstruktiven Veränderung der Kauflächen mit zunehmender Abnutzung, im Hinblick auf die funktionellen Möglichkeiten zur effektiven Nahrungsaufschließung.
Die qualitative Analyse umfasst, neben der dentalmorphologischen Beschreibung, die digitale Fotodokumentation und die Klassifizierung der verschieden weit abgenutzten Molaren in vergleichende Abkauungsgrade.
Die quantitative Auswertung der virtuellen Zahnmodelle schließt die Vermessung der größten Länge, Breite und Höhe, die Berechnung des prozentualen Dentin- und Facettenflächenanteils, des Relief-Index sowie die Neigung und Orientierung der antagonistischen Facetten des Oberund Unterkiefers mit ein. Die Berechnung der korrespondierenden Facettenwinkel in einem einheitlichen Koordinatensystem erlaubt die Kalibrierung der okkludierenden Flächenareale und die Berechnung dreidimensionaler Richtungsvektoren, die die buccale und linguale Mandibelbewegung widerspiegeln. Je nach der Art der Verzahnung der in Okklusion tretenden Höckerflanken lassen sich aus dem räumlichen Zusammenspiel der Funktionselemente quetschende und scherende Komponenten differenzieren.
Die Ergebnisse, die am Rezentmaterial (244 Einzelzähne) gewonnen wurden, sind auf 16 ausgewählte Einzelzähne aus Sangiran und Punung (Java, Indonesien) der Sammlung VON KOENIGSWALD der Abteilung Paläoanthropologie und Quartärpaläontologie des Forschungsinstituts Senckenberg, übertragen worden.
Entsprechend der zu Anfang aufgeworfenen Fragestellung konnte ein für jede Gattung charakteristisches Reliefmuster der Okklusalfläche und dessen Veränderung im Laufe der Abkauung etabliert werden. Infolge des Abschleifens der konvexen Höckerspitzen kommt es zu einer unterschiedlich schnellen und intensiven Reliefverflachung. Die Reliefunterschiede zwischen den Gattungen bleiben im Laufe der Abnutzung erhalten. Gorilla besitzt das am stärksten ausgeprägte okklusale Relief und zeigt die intensivste Abnutzung der Kauflächen und grenzt sich von Pan und Hylobates und insbesondere von Pongo deutlich ab. Pongo besitzt das flachste okklusale Relief und zeigt eine geringere Abnutzung der Kauflächen.
Auf der Grundlage der rekonstruierten Facettenwinkel lässt sich das homologe Facettengrundmuster der Hominoidea weiter differenzieren. Alle Gattungen stimmen in der Position der Facettenareale weitgehend überein. Dieses homologe Facettenmuster resultiert aus der relativ zyklischen Kaubewegung. Die Relieftopographie und Profilierung der Kaufläche sind für die individuelle Bewegungsführung entscheident. Es konnte gezeigt werden, dass aus der unterschiedlichen Steilheit der Zahn-zu-Zahn-Kontakte, unter Berücksichtigung der auf der dreidimensionalen Orientierung der Facetten basierenden Bewegungsbahnen, verschiedene Funktionalitäten resultieren. Durch die Unterschiede in der räumlichen Facettenausdehnung prägt sich ein gattungsspezifisches Grundmusters aus, welches direkt mit der Funktion korreliert und die hohe Effizienz bei der unterschiedlichen Nahrungsaufbereitung bewirkt. Jene quantitativ erfassten Flächen und Bewegungen können funktionell interpretiert werden und stellen eine eindeutige Verbindung zu den in der Literatur aufgeführten Ernährungsweisen der Hominoidea her. Die Kauflächen der vier rezenten Gattungen können unter unterschiedlichen Nutzungsbedingungen im Hinblick auf eine spezifische Ernährungsweise verstanden werden.
Es wurde gezeigt, dass die dreidimensionale Ausrichtung homologer Facetten zu unterschiedlicher Funktionalität führen kann und demzufolge über die zweidimensionale Analyse hinausgeht.
Gorilla nutzt die Vielzahl steiler und kleiner Kontaktflächen zum Zerschneiden der überwiegenden faserigen Nahrungsbestandteile durch hohe Scherkräfte. Aufgrund der stark profilierten Kaufläche folgt die Bewegungsführung restriktiv dem Furchungsverlauf.
Pongo besitzt infolge der Konstruktion der Kaufläche große Kontaktareale, die in flachem Winkel aufeinandertreffen und so ein effizientes Quetschen oder Zermahlen der überwiegenden Früchtenahrung erlauben. Das flache Kauflächenprofil ermöglicht einen größeren Spielraum in der Bewegungsführung.
Pan und Hylobates besitzen ein Repertoire aus schneidenden und quetschenden Funktionselementen und somit einen geringeren Spezialisierungsgrad.
Die Beurteilung der Konstruktion und Funktion der pleistozänen Einzelmolaren im Vergleich mit den erarbeiteten Rezentmodellen ergibt eine Ähnlichkeit mit dem modernen Pongo. Die flache Relieftopographie, die geringe Steilheit der Winkel und die zusätzlichen Schmelzrunzelungen lassen auf ein Quetschen der Nahrung schließen. Eine phylogenetische Aussage zur Differenzierung zwischen Homo oder Pongo konnte aufgrund der kleinen und als exemplarisch anzusehenden Zahl fossilen Materials nicht eindeutig erfolgen.
Die Bande q23 auf Chromosom 11 ist in zahlreiche reziproke chromosomale Translokationen verwickelt. Diese sind dominant mit dem Krankheitsphänotyp einer AML, ALL und seltener mit malignen Lymphomen und myelodysplastischen Syndromen assoziiert. Mittlerweile sind fünfundachtzig cytogenetische Aberrationen der Bande 11q23 bekannt. Das auf 11q23 betroffene Gen wird als das Mixed Lineage Leukemia (MLL), Acute Lymphoblastic Leukemia (ALL-1), Human Homolog of trithorax (HRX) oder als Human Trithorax 1 (Htrx1) bezeichnet. Die häufigsten Partnergene des MLL sind AF4 (40 %), AF9 (27 %), sowie ENL, AF6, ELL und AF10 (4-7 %).
Die Bruchpunkte von t(11;V) Translokationen sind nicht gleichmäßig über das gesamte, 92 kb große humane MLL-Gen verteilt, sondern liegen alle in der 8,3 kb großen Bruchpunktsregion Bpr. Auch innerhalb der Bpr ist die Verteilung der Translokationsbruchpunkte nicht homogen. Die Bruchpunkte von Patienten mit de novo Leukämien und einem Alter über einem Jahr liegen mehrheitlich in der 5’-Hälfte der Bpr, dem Subcluster I. Dagegen liegen die Bruchpunkte von Patienten mit therapiebedingten Leukämien und einem Alter unter einem Jahr überwiegend in der 3’-Hälfte der Bpr, dem Subcluster II.
Neuere Forschungsergebnisse zeigten, daß DNA-Doppelstrangbrüche auf zwei verschiedenen Chromosomen eine hinreichende Voraussetzung für das Entstehen chromosomaler Translokationen sind. Aufgrund der inhomogenen Verteilung der Translokationsbruchpunkte im MLL-Gen stellte sich die Frage, ob bestimmte Regionen dieses Gens für DNA-Doppelstrangbrüche prädisponiert sind. Interessanterweise ist Subcluster II extrem sensitiv gegenüber DNA-Doppelstrangbrüchen, die durch cytotoxische Agenzien oder Apoptose-auslösende Ereignisse induziert werden können. In unserer Arbeitsgruppe konnte eine etwa 200 bp große Region lokalisiert werden, über die sich nahezu alle Etoposid-induzierten DNA-Doppelstrangbrüche verteilten.
In dieser Arbeit konnte gezeigt werden, daß die Bildung von DNA-Doppelstrangbrüchen in dieser Region durch die Gabe eines Caspase-Inhibitors gehemmt werden kann. Eine Etoposid-induzierte Protein-DNA-Wechselwirkung konnte allerdings nicht nachgewiesen werden. In der Literatur fanden sich Hinweise darauf, daß Subcluster II im Gegensatz zu Subcluster I eine verstärkte Histonacetylierung aufweist. Basierend auf diesen Hinweisen sollte die Arbeitshypothese untersucht werden, ob Subcluster II einen geninternen Promotor des MLL-Gens darstellt.
Die potentielle Promotorregion wurde zunächst durch Computeranalysen eingegrenzt. Mit RT-PCR Experimenten wurde anschließend der potentielle geninterne Promotor des murinen Mll-Gens in einer murinen Fibroblastenzellinie lokalisiert, die einen Transkriptionsstop und eine Polyadenylierungssequenz in Exon 4 des Mll-Gens trug. Um die am Mausmodell gewonnenen Erkenntnisse auch im humanen System zu überprüfen, wurde die geninterne Promotorregion des humanen MLL Gens vor ein Luciferasereportergen kloniert. Durch RTPCR konnte der geninterne Transkriptionsstart im Subcluster II des humanen MLL-Gens lokalisiert werden. Damit konnte zum ersten Mal gezeigt werden, daß Transkriptionsinitiation und genetische Instabilität im Subcluster II des humanen MLL-Gens kolokalisieren.
Durch Deletionsmutanten wurde die Bedeutung der einzelnen Module dieser Promotorregion ermittelt. Dabei zeigte sich, daß die Anwesenheit von zwei retromobilen Elementen eine Enhancer-Funktion haben. Demgegenüber zeigte die homologe murine Sequenz, die in unserer Arbeitsgruppe gleichzeitig von S. Scharf untersucht wurde und für die keine erhöhte Anfälligkeit für DNA-Doppelstrangbrüche bekannt ist, nur eine schwache Promotoraktivität. Dies weist auf einen Zusammenhang zwischen der genetischen Instabilität von Subcluster II und der Rate geninterner Transkriptionsinitiationsprozesse hin.
Das Protein, für das das Transkript des geninternen murinen Promotors kodiert, wurde mittels immunhistologischer und Western Blot Experimente nachgewiesen. Dabei konnte gezeigt werden, daß dieses Protein, wie auch das MLL-Protein, proteolytisch durch Taspase1 und daß sich ein Mini-MLL-Komplex bildet.
Rafts: Rafts sind spezialisierte Domänen biologischer Membranen, die sich durch ihre spezifische Lipid- und Proteinzusammensetzung auszeichnen (zur Übersicht siehe Simons und Toomre, 2000). Die am besten beschriebenen Rafts sind die Caveolae, doch es gibt noch weitere weniger gut charakterisierte Rafttypen. Rafts werden verschiedene zelluläre Funktionen zugeschrieben wie z.B. gerichteter Transport von Membranproteinen, Endozytose und Signaltransduktion. Diese Funktionen erfüllen sie vornehmlich, indem sie verschiedene Proteine und Lipide bedingt durch ihre biophysikalischen Eigenschaften selektiv aufnehmen oder ausschließen. Viele Raftproteine sind über gesättigte Acylketten, wie Myristat oder Palmitat, oder einen GPIAnker mit der Membran assoziiert. Transmembranproteine, wie z.B. der EGFRezeptor, können jedoch auch in Rafts angereichert sein. Besonders an der Plasmamembran dienen Rafts als Signaltransduktionszentren, indem sie beteiligte Rezeptoren und Signalmoleküle konzentrieren.
Reggie-Proteine: Bei der Suche nach Proteinen, die bei der Regeneration von verletzten Sehnerven von Fischen hochreguliert werden, wurden Reggie-1 und Reggie-2 entdeckt (Schulte et al., 1997). Gleichzeitig wurden diese Proteine bei der Suche nach neuen Raftproteinen gefunden und als Flotillin-1 (=Reggie-2) und Flotillin-2 (=Reggie-1) bezeichnet (Bickel et al., 1997). Reggie-1 und -2 haben ein Molekulargewicht von 47 kDa und sind auf Aminosäuren-Basis zu 44% identisch. Homologe zu Reggie-1 wurden bislang in Mensch, Maus, Ratte und Fisch, wie auch in D. melanogaster gefunden. Die evolutionäre Konservierung der Reggies ist, mit beispielsweise 80% zwischen Ratte und Goldfisch, sehr hoch und weist auf eine wichtige Funktion hin, die Sequenzkonservierung verlangt. Reggie-1 wird ubiquitär exprimiert, wogegen Reggie-2 ein weniger verbreitetes Expressionsmuster aufweist. Reggie-1 ist vornehmlich an der Plasmamembran und an Endosomen lokalisiert. Die subzelluläre Lokalisation von Reggie-2 hängt vom Zelltyp ab...
Das CD-44-Molekül ist ein membranständiger Oberflächenrezeptor, der als Adhäsionselement von Tumorzellen im Rahmen der Metastasierung genutzt wird. Berichte verweisen auf eine direkte Korrelation zwischen CD-44-Expression eines Tumors und der klinischen Prognose. Darüber hinaus kann der CD-44-Rezeptor auch intrazelluläre Signalwege aktivieren, und als solches Signalelement in die Regulation des Zellzyklus eingreifen.
Im Rahmen der vorliegenden Arbeit wurde postuliert, dass der CD-44-Rezeptor zellzyklusabhängige Veränderungen erfährt und sich daraus Modifikationen des Adhäsionsverhaltens von Tumorzellen ergeben.
Repräsentativ wurde an der Magenkarzinom-Zell-Linie MKN-45 die CD-44-Expression bzw. dessen Splice-Varianten während des Zellzyklus fluorometrisch untersucht (FACS-Analyse, konfokale Laserscan-Mikroskopie). Parallel wurde das Adhäsionsverhalten an isolierten und kultivierten humanen Endothelzellen evaluiert. Die Tumorzellen wurden zuvor mittels Aphidicolin synchronisiert. Als Kontrolle dienten nicht-synchronisierte Zellen.
Die Untersuchungen verdeutlichten eine spezifische Expression der CD-44-Varianten CD44v4, CD44v5, CD44v7. Die Inkubation der Tumorzellen mit Aphidicolin bewirkte eine ausgeprägte Akkumulation von MKN-45-Zellen in der S-Phase. Nach Absetzen des Aphidicolins und Freisetzung in den Zellzyklus kam es zur signifikanten zyklusabhängigen Modulation der Rezeptorexpression. CD44v4, CD44v5 und CD44v7 waren in der G2/MPhase gegenüber der G0/G1- und S-Phase deutlich vermehrt auf der Membran detektierbar. In der G2/M-Phase erhöhte sich zudem signifikant die Adhäsionskapazität der MKN-45-Zellen. Blockadestudien mit gegen die CD-44-Varianten gerichteten monoklonalen Antikörpern belegten die CD-44-abhängige Tumorzell-Endothelzell-Interaktion.
Die Studien belegen zumindest am in vitro Zellkulturmodell die zellzyklus-gesteuerte CD-44-Expression und CD-44-abhängige Invasionseigenschaften von Tumorzellen. Es lässt sich daraus ableiten, dass eine anti-tumorale Therapie an zuvor synchronisierten Tumorzellen womöglich besonders effektiv sein kann. Auch die pharmakologische Blockade des CD-44-Rezeptors könnte einen anti-tumoralen Effekt besitzen.
Im Rahmen der vorliegenden Arbeit werden zum ersten Mal die Ökologie, Morphologie und Systematik von Pilzen untersucht, die assoziiert mit Haut- und Nagelläsionen von ambulanten Patienten sowie von Patienten dermatologischer Praxen in der Provinz Chiriquí im Westen Panamas nachgewiesen wurden. Die Pilze werden klassifiziert nach dem klinischen D-H-SSystem von Rieth und entsprechend ihrer Position im phylogenetischen System der Pilze. Die Morphologie der verschiedenen Arten wird dokumentiert auf der Grundlage von Kulturen und lichtmikroskopischer Untersuchungen durch Beschreibungen sowie Zeichnungen und Fotographien charakteristischer Strukturen. Die Pathogenität der einzelnen Pilzstämme wurde nicht nachgewiesen, sondern auf der Grundlage von Angaben aus der Literatur diskutiert. Außerdem lieferte die Literatur Daten zum Vorkommen der Pilze an Pflanzen und anderen Substraten in der Natur.
In Panama wurden zahlreiche klinische Proben untersucht, von denen ca. 100 Pilzstämme nach Deutschland geschickt wurden. Dort konnten 80 Stämme weiter kultiviert und detailliert untersucht werden. Mehr als 22 verschiedene Arten wurden beobachtet, die 17 verschiedenen Gattungen angehören. Sie entsprechen drei verschiedenen Arten von Dermatophyten, mindestens drei Arten von Hefen und 16 verschiedenen Schimmel- oder sonstigen Pilzarten.
Mit Ausnahme von Hormographiella verticillata wurden ausschließlich imperfekte Stadien beobachtet, und zwar überwiegend von verschiedenen Vertretern der Ascomycota: Dothideales: Scytalidium dimidiatum (6 Stämme), Eurotiales: Aspergillus spp. (4), Paecilomyces lilacinus (2), Penicillium sp. (2), Hypocreales: Fusarium lichenicola (3), F. solani (4), F. subglutinans (1), Microascales: Scopulariopsis brevicaulis (2), Onygenales: Trichophyton mentagrophytes (2), T. rubrum (9), T. tonsurans (7), Ophiostomatales: Sporothrix schenckii (1), Pleosporales: Curvularia geniculata (1), Polystigmatales: Colletotrichum gloeosporioides (1), Sordariales: Nigrospora sphaerica (1), Saccharomycetales: Candida spp. (12), Geotrichum candidum (8), incerte sedis: Pestalotiopsis cf. tecomicola (1), Tritirachium oryzae (1). Vertreter der Basidiomycota sind: Agaricales: Hormographiella verticillata bzw. Coprinellus domesticus (3), Polyporales: Unbekannter Basidiomycet (1), Trichosporonales: Trichosporon cutaneum (6).
Im Rahmen dieser Studie waren Schimmelpilze die am häufigsten bei Haut- und Nagelläsionen angetroffenen Pilze. Unter diesen waren Fusarium-Arten und Scytalidium dimidiatum besonders häufig vertreten. Candida-Arten wurden ebenfalls oft isoliert. Die wichtigste Art unter den Dermatophyten war Trichophyton rubrum. Die prozentualen Anteile der verschiedenen Gruppen entsprechen gut den von anderen Autoren aus anderen Regionen publizierten Ergebnissen. Dies erklärt sich aufgrund der ökologischen Tatsache, dass die Sporen der Schimmelpilze fast überall in der Natur vorhanden sind und diese Pilze viele verschiedene Substrate nutzen können. Candida-Arten gehören zur normalen Flora des Menschen, können aber bei immunodefizienten Patienten, Diabetikern u.a. schwere Haut- und Schleimhautinfektionen, sowie Organerkrankungen verursachen. Dermatophyten sind als Krankheitserreger oberflächlicher Hautmykosen bekannt.
Zum ersten Mal wird das Vorkommen von Hormographiella verticillata in Amerika nachgewiesen. Dieses imperfekte Stadium eines Basidiomyceten hat in Kultur Fruchtkörper gebildet, die als Coprinellus domesticus bestimmt wurden. Damit wurde zum ersten Mal die Anamorph-Teleomorph-Verbindung zwischen diesen beiden Arten festgestellt, die durch eine molekular-phylogenetische Analyse von LSU rDNA (große Untereinheit der ribosomalen DNA) unterstützt wird. Für diese Analyse wurden andere Stämme und Genbank-Daten zum Vergleich herangezogen.
In den Kulturen von H. verticillata entstehen vor der Entwicklung der Fruchtkörper asexuelle sterile Hyphen, die als Ozonium-Stadium bezeichnet werden können. Zum Vergleich wurden Herbarbelege von verschiedenen Arten dieser Gattung bearbeitet. Die Arten sind morphologisch nicht unterscheidbar, weshalb vorgeschlagen wird, nur den Gattungsnamen zur Bezeichnung des entsprechenden Entwicklungsstadiums zu benutzen.
Es war nicht möglich, aufgrund morphologischer Merkmale den Stamm des Unbekannten Basidiomyceten zu bestimmen. Erst eine molekular-phylogenetischer Analyse von LSU rDNA mit Vergleichssequenzen aus der Genbank zeigte, dass der Pilz nahe verwandt ist mit Vertretern der Polyporales.
Aim of the present study was the characterization of the RORa receptor (Retinoidrelated Orphan Receptor a). RORa is a member of the nuclear receptor family and is involved into the differentiation of Purkinje cells, inflammation, arteriosclerosis, and bone mineralization. Nuclear receptors are transcription factors and mediate biological responses within target cells to outer signals such as lipophilic hormones. They are involved in development, growth, differentiation, proliferation, apoptosis, and maintenance of homeostasis. Ligand binding, posttranslational modifications, and cofactor recruitment control their activity. Nearly all nuclear receptors share a common modular structure with an Nterminal A/B region, a DNA-binding domain (DBD) that is composed of two zinc finger motifs, a hinge region, and a C-terminal ligand-binding domain (LBD). The RORs comprise the subtypes RORa, RORb, and RORg, which are encoded by different genes. All isoforms of the respective subtypes only differ in their A/B domain. This study focused mainly on the exploration of the gene structure, expression, and subcellular distribution of RORa...
Das Konzept der nachhaltigen Entwicklung wird bislang in erster Linie auf politisch und/oder geografisch abgrenzbare Einheiten bezogen. So ist im Sinne der Agenda 21 das Ziel einer global nachhaltigen Entwicklung nur zu erreichen, wenn das Leitbild von den Nationalstaaten bis hin zu den Kommunen anerkannt und umgesetzt wird. Zur Überprüfung der Fort- und Rückschritte der internen Entwicklung wurden zahlreiche Indikatorensysteme entwickelt. Die Operationalisierung der allgemein gehaltenen Brundtland-Definition von Nachhaltigkeit erfolgt dabei meist über die Bestimmung von Themenfeldern oder die Formulierung von Teilzielen für die ökologische, ökonomische und soziale Dimension der Nachhaltigkeit. Was aber bedeutet nachhaltige Entwicklung in den internationalen Beziehungen? Wird Deutschland seinem Anspruch gerecht, sein Verhältnis zu anderen Staaten am Leitbild der Nachhaltigkeit zu orientieren? Wie lässt sich dies überprüfen? Zur Untersuchung dieser Fragen werden im ersten Teil der Arbeit das Konzept der nachhaltigen Entwicklung, die Probleme der Bestimmung und Konkretisierung dieses Konzepts sowie die Frage der Messbarkeit von Nachhaltigkeit und Entwicklung betrachtet. Dabei wird die ab Mitte der 1960er Jahre geführte wissenschaftliche Diskussion zur Bestimmung von Entwicklungs- und Sozialindikatoren, die durch den Human Development Index des UNDP ab 1990 neue Impulse erhalten hat, für die Entwicklung von Nachhaltigkeitsindikatoren anschlussfähig gemacht. Einen weiteren Schwerpunkt bilden die Berücksichtigung des Konzepts nachhaltiger Entwicklung in der amtlichen Statistik und alternative Ansätze zur Erfassung ökologischer Aspekte. Daran schließt die Behandlung von Indikatorensystemen zur Nachhaltigkeit an, wobei der Ansatz der Commission on Sustainable Development (CSD) und die damit in Costa Rica und Deutschland gewonnenen Erfahrungen im Mittelpunkt stehen. Aufbauend auf den theoretischen Grundlagen wird im zweiten Teil ein Indikatorensystem zur Nachhaltigkeit in den internationalen Beziehungen entwickelt und am Fallbeispiel Deutschland – Costa Rica getestet. Zur Ergänzung werden dazu neben den Dokumenten zur United Nations Conference on Environment and Development (UNCED) von 1992 die Ergebnisse der weiteren Weltkonferenzen der 1990er Jahre sowie die Millennium Development Goals (MDG) berücksichtigt. Im Anschluss an die Themenfeldanalyse wird das von der CSD erarbeitete Indikatorensystem auf seine Übertragbarkeit auf internationale Beziehungen hin analysiert. Auf dieser Grundlage wird ein Indikatorensystem vorgeschlagen, mit dem die Entwicklungen in den verschiedenen Teilbereichen internationaler Beziehungen gemessen werden können. In der Schlussbetrachtung wird der Frage nachgegangen, inwieweit sich das entwickelte Analyseraster und die zur Erstellung des Themenkatalogs und des Indikatorensystems herangezogene Methode auf die Beziehungen zu anderen Ländern übertragen lassen. Handlungsvorschläge für die Konzeptionen der Entwicklungszusammenarbeit und für die Weiterentwicklung von Indikatorensystemen bilden den Abschluss der Arbeit.
Franz Th. Schuett hat ein umfangreiches und eigenstaendiges Werk geschaffen. Er kopierte keinen Kuenstler und blieb sich treu. Er war nicht innovativ, aber in seinem Rahmen war er wandlungsfaehig. Trotz aller positiver und kulturell stimulierenden Einfluessen und namhafter Lehrer in den Anfangsjahren, blieb bei ihm die Kreativitaet, sicherlich auch wegen Flucht und Vertreibung, auf der Strecke.Es gibt Anlehnungen im Fruehwerk an den veristischen Fluegel der Neuen Sachlichkeit. Motivisch war er nicht so praegnant wie seine Vorbilder Dix, Schlichter und Grosz. In der Strichfuehrung im Fruehwerk aehnelte er George Grosz. Er arbeitete zeitgemaess. In den Kriegsjahren bzw. bis 1947 erarbeitete er sich die Aquarelltechnik. Es entstanden stimmungsvolle Landschaftsbilder. Es stellte sich heraus, das unkontrollierbare der Technik lag ihm nicht, er war und blieb Zeichner. In den 50er Jahren probierte er verschiedene Zeichenmethoden. Ab 1954 bis 1959 versuchte er noch einmal einen Anlauf mit dem Kolorit und es entstanden stark farbige Temperablaetter, die neben realistischen Bildentwuerfen auch surreale Szenen beinhalteten. Erst in den 60er Jahren fand er wieder zu einer zeitgenössischen Ausdruckskraft. Er setzte nun seit den 30er Jahren erstmals wieder seine Motive in Oeltechnik um. Von 1938 bis 1960 musste er erneut einen zeitgenössischen Ausdruck entwickeln. Die allgemein vielfaeltigen realistischen Kunstrichtungen ab den 60er Jahren verhalfen seinem leicht sozialkritischen Realismus zum Durchbruch. Die nun beginnenden haeufigen Ausstellungen --ob Einzel- oder Beteiligungen – zeigten, dass er sich in der regionalen Kunstszene durchsetzte. Dieser Erfolg hielt bis zu seinem Lebensende 1990 an. In den 70er Jahren produzierte er weniger Bildwerke, aber in keinem Jahrzehnt nahm er an so vielen Ausstellungen teil. Es entstanden nun vermehrt Landschaften und er machte sich Gedanken zur Umweltproblematik. Er entwarf einiger Bilder zu dieser Thematik. Auch besann er sich auf fruehere Motive. Diese Rueckgriffe wurden aber weiter durchdacht. In den 80er Jahren entstanden weitflaechige, grosszuegige und von warmem Licht umhuellte Landschaften, die an Hopper erinnern können. Im Gegensatz zu frueheren Arbeiten hatte er endlich die kleinteiligen Strukturen und Dekors abgelegt und sich in diesem Jahrzehnt zum ersten Mal mit dem Licht und seinen Reflexen auseinandergesetzt. Er öffnete den Hintergrund in diesen Landschaften. In frueheren Perioden war selbst bei panorama-artigen Komposition der Landschaft der Bildhintergrund verriegelt. Die Arbeiten wirkten spröde, da er die Landschaft als Struktur oder Ornament sah. Die Bestaetigung seiner Arbeiten, die er in seinen letzten Jahren erfahren hatte, lenkte ihn zu solch harmonischen Oelbildern. Das Motiv der Dirnen -- seine frivolen Maedchen -- durchzieht sein gesamtes Werk. In der Art, wie er sie darstellte in seiner Formsprache, in ihrer Ueppigkeit und ihrer unbeschwerten Ausstrahlung, waren sie seine Bildschöpfung. Auch sie waren in den einzelnen Werkperioden einer Entwicklung unterlegen. Zu Anfang schienen sie unbeschwert und in den 60er und 70er Jahren stellte er sie dann dick, feist und mit bösem Gesichtsausdruck dar. In den 70ern reizte ihn das Motiv weniger, da er seine Damen nun aelter werden liess. Die Gesichter wurden verschlossener und abweisender abgebildet und Mitte der 70er Jahre wichen sie den Puppendarstellungen. Sein Realismus war keine beissende Anklage, keine vordergruendige, eher eine unterschwellige Kritik. Er kritisierte die Eitelkeit und Ruecksichtslosigkeit der Menschen. Er dachte und fuehlte mit den Schwaecheren unserer Gesellschaft. In vielen Arbeiten lag ein melancholischer Tenor, sodass er beim Betrachter Mitleid fuer die gezeigten Verhaeltnisse erweckte. So erweist sich Schuett als Nachfahre der Spaetexpressionisten, die ihre Kunst als ein aufklaerendes Medium verstanden. Schuett war zu Lebzeiten kein verschollener oder vergessener Kuenstler. Aber nachdem ein Grossteil seines Werkes in den Depots der Museen liegt, droht seinem Werk und damit ihm die Vergessenheit. Vielleicht kann diese Aufarbeitung des Werkes von Franz Th. Schuett den musealen Institutionen Anlass sein, ihm wieder -- vielleicht zu seinem 100. Geburtstag im Jahre 2008 -- eine Wuerdigung erfahren zu lassen.
Ergebnisse einer modifizierten Velopharynxplastik bei gaumenspaltbedingter Velopharynxinsuffizienz
(2005)
Physiologische Nasalität basiert auf einer normalen Funktion des velopharyngealen Sphinkters. Der velopharyngeale Mechanismus trägt wesentlich zur Entstehung des Sprechklanges und der Verständlichkeit bei. Die Kinder mit operierter Lippen-Kiefer-Gaumenspalte, die bei gaumenspaltbedingter Velo-Pharynx-Insuffizienz keine artikulatorische Unauffälligkeit erreichen, erhalten eine sprechverbessernde Operation (Inzidenz in Frankfurt 2,7%). In dieser Studie werden eine Modifikation der Velopharynxplastik nach Sanvenero-Rosselli sowie die damit erreichten Untersuchungsergebnisse vorgestellt. Die Ergebnisse von drei Gruppen werden gegenübergestellt; eine Gruppe mit primären Patienten (die von Geburt an betreut wurden), eine Gruppe von „Quereinsteigern“ (jene sekundäre Patienten, die andernorts voroperiert wurden und bei denen die Velopharynxplastik in Frankfurt durchgeführt wurde) und eine sprachgesunde Kontrollgruppe. Neben einer anamnestischen Befragung anhand eines Fragebogens, der die Inhalte Selbsteinschätzung der Artikulation, Behinderung der Nasenatmung, Schnarchen, Hörfähigkeit, Notwendigkeit einer logopädischen Übungsbehandlung umfasste, fand eine globale linguistische Befunderhebung und die Einstufung in eine mehrstufige Skala statt. Es erfolgte eine objektiv-instrumentelle Messung der Nasalanz mit Hilfe des NasalView-Gerätes (Shaheen Awan, Tiger Elektronics) anhand einer modifizierten Version des Heidelberger Rhinophoniebogens. Es wurden rhinomanometrische Kenngrößen, die eine eindeutige Objektivierung der momentanen Durchgängigkeit der Nase erlauben, mit Einsatz des Rhinotest 2000 (Allergopharma) erhoben. Bei der linguistischen Befunderhebung zeigen 67% der primären und 59% der sekundären Patienten eine unauffällige Artikulationsqualität. Keine bzw. eine minimale Rhinolalie aperta weisen 72% der primären Patienten auf. Nasalität selbst ist ein schwer zu operationalisierender Parameter. Das NasalView ist ein Messgerät, welches die Nasalanz - ein akustisches Maß für den nasalen Anteil im Sprechklang - misst. Ein signifikanter Unterschied in den untersuchten Gruppen bezüglich der Nasalanzwerte ausgewählter Items besteht nicht. Bei der Rhinomanometrie zeigt sich, dass das Eigenstromverhalten der Nase bei der primären Gruppe dem der nichtoperierten gesunden Vergleichsgruppe ähnelt. Es wird eine regelrechte nasale Luftdurchgängigkeit gewährleistet, was auf optimale Bedingungen vor Ort schließen lässt. Bei der Resistenzmessung ist der gemessene Strömungswiderstand in der primären Gruppe gleich niedrig dem der in der Gruppe der gesunden Probanten. Neben dem Erreichen einer unbehinderten Nasenatmung steht die Hörfähigkeit, einschließlich einer ungestörten Funktion der Tuba auditiva im Zentrum des Interesses. Kinder mit Gaumenspalte haben häufig eine Tubenfehlfunktion, die zu einer chronischen Minderbelüftung des Mittelohres und zu einer Schallleitungsstörung und Schwerhörigkeit führen kann. Zur Vermeidung schwerwiegender Folgen sieht die Behandlung von Mittelohrerkrankungen in der Frühtherapie die Parazentese mit Paukenröhrcheneinlage vor. Patienten mit Gaumenspalte profitieren bezüglich ihres Hörvermögens im Erwachsenenalter von der Paukendrainage im Kindesalter. 84,6% der untersuchten Patienten zeigen keinen pathologischen Befund. Lediglich 11,4% der sekundären Patienten bemerken mitunter Otitiden und 15,4% der primären Patienten berichten über geringfügige Schwerhörigkeit. Die aus der Lippen-Kiefer-Gaumenspalte resultierenden Störungen essentieller Funktionen machen eine optimale Therapie und Rehabilitation notwendig und den Einfluss des operativen Konzeptes auf das Sprechen und die Sprache deutlich. Die Frage, warum bei so niedriger Inzidenz der Velopharynxplastik, diese überhaupt noch nötig ist, wird umfassend diskutiert. Geht man den Ursachen auf den Grund, so müssen lokale und allgemeine, sich häufig überschneidende und potenzierende Faktoren berücksichtigt werden. Gehen chirurgische Interventionen mit einwandfreier Technik von korrekter Anatomie aus, liegen Gründe in der Struktur der Muskulatur oder ihrem Timing? Bei stimmigem psychosozialem Umfeld, bei Berücksichtigung des heilpädagogischen Ansatzes, und wenn Störungen im Bereich der Psychomotorik und Sprachentwicklung ausgeschlossen werden, sind Gründe vielleicht in der Psycholinguistik zu suchen.
In der vorliegenden Studie wurde die Randdichtigkeit von systemkonformen im Vergleich zu nicht systemkonformen Materialkombinationen mittels Farbstoffpenetration und Gipsreplikas untersucht. Ferner wurde die Möglichkeit der Approximalpunktgestaltung geprüft. Die 72 Zähne wurden zum Aufbau von Approximalkontakten in eine spezielle Halterung montiert. Um eine möglichst klinisch nahe Situation nachzuahmen, wurden die Zähne in einem Spezialsilikon eingebettet. Dies ermöglichte eine gewisse horizontale Flexibilität der Proben, ähnlich der physiologischen Eigenbeweglichkeit und eine Separierung der Zähne durch die Wirkung des Holzkeiles. Die Füllungen wurden unter Zuhilfenahme von Metallmatrizen und Holzkeilen in 144 ultrakonservative Klasse-II-Kavitäten, mit der zervikalen Grenze im Dentin, gelegt. Sie wurden in Anlehnung an die Schalentechnik nach Hansen appliziert. Das Auftragen der Dentinhaftvermittler erfolgte streng nach Herstellerangaben. Nach Abnahme der Matrize wurde ein Leuchtkeil in den Interdentalraum angebracht und die Füllung von oral und vestibulär mit Licht nachgehärtet. Nach erfolgter Ausarbeitung und Politur wurden die Zähne einer Temperaturwechselbelastung von 5000 Zyklen zwischen 5° und 55° unterworfen. Die Untersuchung der Randdichtigkeit wurde mittels Farbstoffpenetration nach thermischer Belastung durchgeführt. Die makroskopische Untersuchung der Randadaptation an Gipsreplikas und die Approximalpunktüberprüfung erfolgten vor und nach Temperaturwechselbelastung. ... Den geringsten Penetrationswert von 38,42% erreichte die nicht systemkonforme Materialkombination B2, den höchsten Penetrationswert hingegen wies die systemkonforme Verbindung C1 mit 86,81% auf. Eine gesonderte Betrachtung gilt der Untergruppe B2. Diese wurde mit dem Vergleichskomposit Herculite XRV gefüllt und ist somit als nicht systemkonform einzustufen. Das hierbei verwendete Adhäsiv Optibond FL und das Vergleichskomposit stammen von dem gleichen Hersteller. Aufgrund dessen kann man die Kombination B2 ebenfalls als systemkonforme Verbindung betrachten, die sich signifikant zur Materialkombination B1 unterscheidet. Gemeinsam sind die Verbindungen B1 und B2, in B zusammengefasst, mit dem geringsten Penetrationswert signifikant besser in der Gegenüberstellung mit den anderen Gruppen. Allerdings wurde innerhalb der Gruppen ein signifikanter Unterschied nur in B und C festgestellt. Hierbei erlangten, entgegen der Herstelleraussagen, die nicht systemkonformen Verbindungen den geringeren Penetrationswert im Vergleich zu den systemkonformen Kombinationen. Diese Erkenntnis lässt den Schluss zu, dass die Systemzugehörigkeit der verwendeten Materialien unerheblich auf den Grad der Penetration ist, vielmehr ist die Randdichtigkeit einer Restauration alleine vom verwendeten Dentinhaftvermittler abhängig.
"Die Bourgeoisie, wo sie zur Herrschaft gekommen, hat alle feudalen, patriarchalischen, idyllischen Verhältnisse zerstört. Sie hat die bunt-scheckigen Feudalbande, die den Menschen an seinen natürlichen Vorgesetzten knüpften, unbarmherzig zerrissen und kein anderes Band zwischen Mensch und Mensch übriggelassen, als das nackte Interesse, als die gefühllose "bare Zahlung". Sie hat die heiligen Schauer der frommen Schwärmerei, der ritterlichen Begeisterung, der spießbürger-lichen Wehmut in dem eiskalten Wasser egoistischer Berechnung er-tränkt. Sie hat die persönliche Würde in den Tauschwert aufgelöst und an die Stelle der zahllosen verbrieften und wohlerworbenen Freiheiten die eine gewissenlose Handelsfreiheit gesetzt."
Karl Marx/Friedrich Engels
In diesen wenigen Zeilen aus dem Jahre 1848 haben Karl Marx und Friedrich Engels das Thema umrissen, das die Gründungsväter der deutschen Soziologie – Ferdinand Tönnies, Georg Simmel und Max Weber – ein bis zwei Generationen später entfalteten. Nun waren die genannten großen Drei sicherlich keine Marxisten – das war Marx, laut Selbstauskunft, bekanntlich auch nicht –, aber die von Marx und Engels entgegen ihrer sonstigen Gewohnheit so fulminant in Szene gesetzte Empörung hallt auch noch bei ihnen, die doch, der allgemeinen Legende zufolge, der Soziologie als wertfrei-empirischer Wissenschaft ihr Gepräge gaben, nach. Die Empörung ist, um es vorweg zu sagen, moralischer Natur. Oder genauer: sie ist ethisch motiviert, sofern man an der vor allem durch Hegel pointierten Unterscheidung von Moralität und Sittlichkeit festhalten wollte. Und: sie ist der Bearbeitung des "Themas" durch Tönnies, Simmel und Weber nicht äußerlich. Im Gegenteil. Die "Culturprobleme", die die Gründungsväter der deutschen Soziologie in Folge der politischen, vor allem aber der industriellen Revolution aufgeworfen sahen, zeigten sich ihnen zumal im Lichte ethischer Problemstellungen. Ja mehr noch, beinahe deren gesamte theoretische Arbeit ist, zugespitzt gesagt, auf das eine ethische Problem der radikalen Entsittlichung der modernen Lebensführung zugeschnitten. – Das ist schon der Ausgangspunkt oder, wenn man will, die allem weiteren zugrundeliegende These dieser Arbeit. Diese schlichte und keinesfalls neue Beobachtung möchte ich vor folgendem Hintergrund verstanden wissen. ...
In der vorliegenden Arbeit soll der Ursprung der typischen Hirn-Gliederung bei Wirbeltieren (die sich auch beim Gehirn des Menschen findet) untersucht werden. Es wurde der Versuch gemacht, die evolutive Entwicklung des Wirbeltier-Gehirns bis zu einem sehr frühen Zeitpunkt zurückzuverfolgen. Zu diesem Zweck wurde das vordere (rostrale) Ende des Zentralnervensystems (ZNS) des adulten Lanzettfisches (Branchiostoma lanceolatum, B. lanceolatum), einem Verwandten der Wirbeltiere, mit verschiedenen histologischen Methoden (diverse Färbungen, Tracing, Rasterelektronenmikroskopie) untersucht. Mittels der gewonnenen Daten konnten die Zytoarchitektur und die topografischen Beziehungen der Zellgruppen in diesem Bereich beschrieben werden. Der histologische Aufbau des erwachsenen ZNS gab Hinweise darauf, wie sich einzelne Strukturen im larvalen ZNS durch die Metamorphose verändern. Embryonale Genexpressions-Muster, die bei Wirbeltieren bestimmte, morphologisch unterscheidbare Abschnitte des Gehirns charakterisieren, finden sich auch bei der Branchiostoma-Larve. Ihnen konnte ein charakteristisches Muster im histologischen Aufbau des ZNS bei erwachsenen Tieren zugeordnet werden. Die Unterteilung und die gefundenen Zellgruppen zeigen teilweise Gemeinsamkeiten zu Strukturen im Wirbeltier-Gehirn, eine direkte Homologisierung ist allerdings problematisch. Es wurde daher auf kladistischer Grundlage der Versuch gemacht, über eine Zusammenschau von Merkmalen das ancestrale ZNS des letzten gemeinsamen Vorfahren von Lanzettfischen und Wirbeltieren zu rekonstruieren.
Osteosynthesematerialien aus resorbierbaren Materialien finden aufgrund ihrer zunehmenden biomechanischen Stabilität eine immer höhere Akzeptanz. Die vorgelegte Untersuchung vergleicht die knöcherne und okklusale Stabilität von solchen Osteosynthesesystemen aus resorbierbaren Materialien im Vergleich mit konventionellen Titanminiplatten in der orthognathen Chirurgie. Untersucht wurden 100 Patienten in einem Nachsorgezeitraum von bis zu 4 Jahren. Die Beurteilung erfolgte klinisch und röntgenologisch anhand von Fernröntgen-Seiten-Aufnahmen. In die Studie gingen ein fünfzig Patienten, die mit resorbierbaren Platten versorgt worden waren, 16 davon mit Polylactid-Polyglycolid Copolymer Platten und 34 Patienten mit 70:30 Poly-L/DL-Lactid Copolymer Platten; fünfzig weitere Patienten, versorgt mit einem Titanminiplattensystem wurden als Kontrollgruppe gewertet. Zunächst konnte gezeigt werden, dass die Gruppen zueinander homogen waren, es unterschieden sich die effektiven intraoperativen Bewegungen von Studien und Kontrollgruppe statistisch nicht signifikant, gleiches galt im Vergleich der resorbierbaren Platten untereinander. Bei der Datenauswertung konnte nachgewiesen werden, dass die absolute und relative Instabilität weder zwischen den Studiengruppen noch der Kontrollgruppe noch zwischen den resorbierbaren Plattensystemen untereinander signifikant unterschiedlich war. Die postoperative 1-Jahres Stabilität unterschied sich dabei ebenfalls nicht signifikant von der 4-Jahres Stabilität. Alle untersuchten Osteosynthesesysteme zeigten im Oberkiefer eine höhere Stabilität als im Unterkiefer und gleichzeitig eine größere Stabilität in der anterior-posterioren Richtung als in der inferior-superioren Richtung. Es wurden keine signifikanten Unterschiede zwischen der klinischen Stabilität von PLGA oder P(L/DL)LA-Miniplatten gefunden. Allerdings konnte auch belegt werden, dass der Einsatz resorbierbarer Unterkieferosteosynthesen eine sehr gute Compliance des Patienten bezüglich geführter Okklusion und Nachsorge voraussetzte. Als nachteilig bei den resorbierbaren Systemen konnte sowohl für den Oberkiefer als auch für den Unterkiefer eine leicht erhöhte Mobilität bis zu 6 Wochen nach der Operation festgestellt werden, die jedoch in keinem Fall das operative Ergebnis beeinflusste. Vielmehr ermöglichten resorbierbare Osteosynthesen eine bessere postoperative okklusale Einstellung. Weiteren Nachteil der resorbierbaren Osteosynthesesysteme bedeuten die hohen Kosten, die heute noch weit über denen von Titanminiplatten liegen. Zukünftige Entwicklungen gehen dahin, das Plattendesign weiter zu optimieren, wie z.B. neuartige pinbasierte Fixationssysteme einzusetzen, wie sie in der Extremitätenchirurgie teils bereits benutzt werden. Fernziel für die Zukunft ist die Entwicklung eines resorbierbaren Osteosynthesesystems, das sich bei geringen Herstellungskosten und miniaturisiertem Plattendesign auch minimalinvasiv einbringen lässt.
In der vorliegenden Arbeit wird ein neu entwickeltes Erfassungsinstrument für die pflanzliche Artenvielfalt in der Normallandschaft vorgestellt, dass den Namen GISMap trägt. Die standardisierte Vorgehensweise und eine große Reproduzierbarkeit des Aufnahmeverfahrens sind wichtige Eigenschaften der Methode. GISMap basiert auf der GIS-gestützten Auswertung der Landschaftsstruktur, die in Form eines digitalen Landschaftsmodells (DLM) zugrunde gelegt wird. Im Zentrum der Methode steht ein im Rahmen der Arbeit entwickelter Algorithmus, der eine zufallsgesteuerte Festlegung von Aufnahmeflächen in der zu untersuchenden Landschaft vornimmt und sich dabei an den Ökotonen orientiert, die sich zwischen zwei benachbarten Landschaftselementen ausbilden. Ökotone sind als Übergangsbiotope häufig sehr reich an Strukturen und können daher eine große Artenvielfalt aufweisen. GIS-Map macht sich diese ökologische Gegebenheit zunutze, um auf möglichst kleinem Raum eine große Artenzahl zu erfassen. Die von GISMap errechneten Aufnahmeflächenkoordinaten wurden mit Hilfe eines GPS-Empfängers im Gelände lokalisiert und einer floristischen Untersuchung unterzogen. Als geeignete Aufnahmeflächengröße erwies sich dabei ein Kreis mit einer Fläche von 700 m². Die Flächen wurden mit Magneten markiert, um sie zur Dauerbeobachtung der Flora nutzen zu können. In dem 33 km² großen Untersuchungsgebiet, das im östlichen Bereich des Taunus liegt, wurden insgesamt 141 Aufnahmeflächen für 16 64tel-MTB-Rasterfelder angelegt. Um den mit der Methode zu erzielenden Erfassungsgrad abschätzen zu können, wurden umfangreiche Vergleichsuntersuchungen durchgeführt, die auch eine Auswertung vorliegender Literaturquellen mit einschlossen. In den 16 untersuchten Rasterfeldern konnten durchschnittlich 73 % der insgesamt vorkommenden Arten mit der Methode erfasst werden. Dazu müssen nur 0,3 % der Fläche tatsächlich einer floristischen Untersuchung unterzogen werden. Alle kartierten Arten erhalten dabei eine punktgenaue Koordinate. Die Methode wurde als Basisinstrument konzipiert und sollte mit bereits vorliegenden Fachdaten kombiniert werden, um die Erfassung der Farn- und Samenpflanzen eines Gebietes zu vervollständigen. Diskutiert wird der Einsatz im Rahmen eines Landschaftsinformationssystems (LIS). Durch eine Ergänzung der mit GISMap erhobenen Daten mit anderen vegetationskundlichen Daten aus dem Untersuchungsgebiet konnte der Erfassungs-grad von 73 % auf 85 % gesteigert werden. Im Rahmen der Arbeit werden zahlreiche Möglichkeiten der technischen Weiterentwicklung dargestellt, die zu einer Optimierung der Methode beitragen können. Ausgehend von den Daten des digitalen Landschaftsmodells wurden zur Beschreibung der landschaftlichen Struktur des Untersuchungsgebietes verschiedene Landschaftsstrukturmaße berechnet, wie sie in der modernen landschaftsökologischen Forschung mittlerweile häufig zum Einsatz kommen. Diese wurden mit den erfassten Sippenzahlen korreliert, um Zusammenhänge zwischen der Landschaftsstruktur und dem auftretenden floristischen Ar-tenreichtum darzustellen. Dabei wurde auch der Fragestellung nachgegangen, ob auf der Basis von Maßzahlen für die Landschaftsstruktur Prognosen über die zu erwartende pflanzli-che Artenvielfalt getroffen werden können. Ein weiterer Aspekt der Untersuchungen bestand in der Nutzung des entstandenen Aufnahmeflächennetzes zur langfristigen Beobachtung von Veränderungen der Vegetation des betrachteten Landschaftsausschnittes. Anhand der Frequenzen in den Aufnahmeflächen kann mit GISMap ein langfristiges Monitoring auf der Ebene einzelner Arten durchgeführt werden. Dies wird u. a. in Hinblick auf die im Untersuchungsgebiet auftretenden Neophyten diskutiert. Als Möglichkeit zum Monitoring der gesamten Vegetation wurde der Ansatz verfolgt, die Verteilung der kartierten Arten auf 24 häufig in der Literatur beschriebene Pflanzenformationen festzustellen. Es wird vorgeschlagen, eine langfristige Beobachtung dieses Verteilungsmusters vorzunehmen, um einen Aufschluss über ökologische Veränderungen der Landschaft anhand der Vegetation zu erhalten. Weitere Auswertungen der gesammelten floristischen Daten beziehen sich auf ihre Eignung zum Monitoring von klimatischen Veränderungen. Die Berechnung mittlerer Temperaturzahlen für 6 Höhenstufen erwies sich dabei als ungeeignet, da ihre Unterschiede zwischen den Höhenstufen nicht statistisch abzusichern waren. Darüber hinaus wurde die Verteilung von Kühlezeigern in dem entstandenen Aufnahmeflächennetz für die verschiedenen Höhenstufen untersucht. Hinweise zu ihrer Eignung als Indikatoren für klimatische Veränderungen werden diskutiert.
In der vorliegenden laborexperimentellen Arbeit wurden verschiedene Methoden zur Isolation von humanen Kardiomyozyten hinsichtlich ihrer Ausbeute und Verwertbarkeit der bei der Isolation gewonnenen Zellen zur Weiterverwendung im Hinblick auf physiologische, pharmakologische und pathologische Untersuchungen miteinander verglichen. Die Isolationsmethoden von Harding et al., Jacobson et al. , Bustamante et al. und Powell et al. wurden exakt nach den Beschreibungen nachgearbeitet und die hierbei gewonnenen Kardiomyozyten auf deren Vitalität und Verwendbarkeit untersucht. Dabei mussten die isolierten Kardiomyozyten eine Reihe von Zellanforderungen, die auch die Autoren der verschiedenen Methoden an deren Herzmuskelzellen stellen, erfiillen. Dies waren im einzelnen: - gerichtete Stimulierbarkeit durch Elektrostimulation - longitudinale Kontraktionen in ausschließlich dieser Achse - keine Spontankontraktionen in I mmolarer Kalziumlösung (Kalziumtoleranz) - Zellstreifung unter dem Mikroskop als Vitalitätskriterium - Minimale Lebensdauer von mehr als zwei Stunden ohne anschließende Abrundung der Zellen unter ungerichteter Kontraktion. In keiner der untersuchten Methoden konnte ein signifikanter Unterschied in Bezug auf Zellausbeute und Morphologie gegenüber den anderen Methoden evaluiert werden. Vor allem zeigte keine der Methoden einen sicheren Vorteil in der Lebensdauer der isolierten Zellen. Die in der Literatur vielfach erfolgreich dargestellten Zellerfolge konnten in den hier durchgeführten Experimenten nicht nachvollzogen werden. Die geriJ;lge Probenmenge und die unterschiedlichen Schädigungsgrade der gewonnenen Gewebeproben mitsamt ihrer hohen Varianz an der Zusammensetzung unterschiedlicher Gewebearten lassen keine der Methoden als konfident für Reihenuntersuchungen hinsichtlich toxischer oder protektiver Substanzen erscheinen. Vor allem die geringe Reproduktionsfähigkeit der Ergebnisse und die geringe Lebensdauer der isolierten Zellen, sowie die mangelnde elektrische Stimulierbarkeit lassen an den beschriebenen Isolationserfolgen zweifeln. Die Isolation humaner Kardiomyozyten stellt somit derzeit noch keine sichere Alternative zu den etablierten Methoden zur Isolationen von Kardiomyozyten tierischer Herkunft als Zellmodell dar.
Momentan ist kein vollständig befriedigendes System zur quantitativen Diagnostik fokaler Knorpeldefekte (Osteochondrosis dissecans, osteochondrale Frakturen) und deren Therapieevaluierung verfügbar. In dieser Studie wurde die Genauigkeit der quantitativen Magnetresonanztomographie zur Bestimmung von Knorpeldefekten unterschiedlicher Größe und unterschiedlicher Lokalisation überprüft. Ziele der vorliegenden Studie waren 1.) die Eignung der T1-gewichteten 3D FIß..SH Gradientenecho-Sequenz mit selektiver Wasseranregung zur nicht invasiven Erfassung fokaler Knorpeldefekte am Präparat des menschlichen Kniegelenks bei akzeptabler Akquisitionszeit zu prüfen, 2.) die erfolgreiche Detektion aller Defekte zu bestätigen bzw. zu analysieren bis zu welcher Defektgröße mit den beschriebenen Methoden diese möglich ist und die entsprechende Meßgenauigkeit festzustellen und 3.) das Vorhandensein einer vergleichbaren oder einer unterschiedlichen Genauigkeit der qMRT für die verschiedenen Gelenkflächen (Patella, mediale und laterale Tibia) aufzuzeigen. 36 Kniegelenkspräparate bzw. deren tibiale und patellare Knorpel-KnochenFlächen wurden bei arthroplastischen Operationen des Kniegelenkes von 24 Patienten entnommen und gesammelt. Anschließend wurden insgesamt 74 künstliche Stanzdefekte, mit den Durchmessern von 3, 5 und 8 mm in die Knorpelflächen der Präparate gesetzt. In 15 Patienten (51 Defekte) wurde der knorpelige Stanzzylinder entfernt (Methode A), während bei 9 Patienten (23 Defekte) der Stanzzylinder stehen blieb und die unmittelbar umgebende Knorpelfläche entfernt wurde (Methode B). Die Präparate wurden magnetresonanztomographisch in einem Hochfeld gemessen, wobei eine zuvor validierte hochauflösende T1-gewichtete 3D FIß..SH GradientenechoSequenz mit selektiver Wasseranregung zur Anwendung kam. Anschließend erfOlgte die Bearbeitung der einzelnen Schichtbilder mit einem 3DNachbearbeitungsprogramm: die Knorpelflächen bzw. Stanzdefekte wurden segmentiert und markiert. Nur auf diese Weise konnte aus diesen Daten dieDefektgröße berechnet und eine dreidimensionale Darstellung der Strukturen -u abhängig von ursprünglicher Lage und Orientierung der Schichtenerreicht werden. Es erfolgte ein Vergleich der systematischen bzw. absoluten Abweichung der gemessenen Defektgrößen mit der tatsächlichen Größe der künstlich gesetzten Defekte. Anhand eines .paired Student's t-test" wurden die Signifikanzen statistisch überprüft. Die graphische Darstellung der Ergebnisse erfolgte in einem Box-and- hiskers-Plot. Unabhängig von der verwendeten Testmethode und verwendeten Defektgröße konnten alle künstlich gesetzten Stanzdefekte mit der MRTAnalyse wiedergefunden werden. Die Genauigkeit der Größenerfassung verbesserte sich mit der Größe des Defektes. Während die 3mm (1,3mm, 42%) und 5mm (1mm, 21%) Defekte jeweils signifikant überschätzt wurden, fand man bei der Defektgröße von 8mm (O,1mm, 4%) keine signifikante Abweichung mehr vor. Zwischen den Testmethoden A und B ergab sich kein Unterschied. Die unterschiedlichen Gelenkflächen (Tibia medial, lateral und Patella) zeigten in der getrennten Untersuchung keine Abweichungen in der Genauigkeit der Messung. Die Ergebnisse zeigen, daß sich die MRT, bei der Verwendung einer bestimmten Sequenz, eignet, eine quantitative Bestimmung fokaler Knorpeldefekte in allen Bereichen des menschlichen Kniegelenkes durchzuführen. Der klinisch relevante Bereich der Mehrzahl der Knorpeldefekte liegt bei 1,5 cm2 und größer und kann somit mit der in dieser Studie präsentierten Methode genau detektiert werden. Dies kann die Diagnose einer Osteochondrosis dissecans und osteochondraler Frakturen sowie die Planung der operativen Therapie und die Therapiekontrolle objektivierbar und quantifizierbar machen.
Fragestellung Der Schutz der Kinder ist eine der wichtigsten Aufgaben der erwachsenen Bevölkerung. Besonders die Vermeidung und eine effiziente Therapie von schweren Schädel-Hirn-Traumen kann die Todesrate bei Kindern und Jugendlichen stark reduzieren. Ein besonderes Augenmerk ist dabei auf Verkehrsunfälle zu richten. Diese Unfälle sind für Kinder nach dem ersten Lebensjahr die weltweit häufigste Ursache für Tod oder ein neurologisches Defizit. Ziel dieser Studie ist das Aufzeigen von möglichen Risikofaktoren während des Behandlungsverlaufs, einer gesicherten Prognosestellung durch geeignete Befunde und einer Letalitätsanalyse bei Kindern und Jugendlichen mit einem schweren Schädel-Hirn-Trauma kombiniert mit einem letalen Ausgang. Hierbei sollen die Befunde der Patienten unabhängig von den Ergebnissen der Erwachsenen beleuchtet werden, um so den kindlichen Organismus genauer zu analysieren. Besonders wichtig in dieser Studie sind Prozesse und auslösende Faktoren, die das Versterben der Patienten beeinflussen. Eine besondere Bedeutung kommt der Korrelation von klinischen Befunden und einer Prognose der Letalitätswahrscheinlichkeit in dieser Studie zu. Methodik Im Rahmen dieser retrospektiven Studie wurden Patienten des Zentrums für Kinderheilkunde der Universität Frankfurt am Main mit Schädel-Hirn-Traumen und daraus folgendem Tod aus den Jahren 1979 bis 2002 untersucht. Insgesamt wurden 30 Kinder erfasst, 18 männliche und 12 weibliche, zwischen drei Monaten und 18 Jahren (Mittelwert 6,978 Jahre). Die Patienteninformationen wurden aus abteilungsinternen Aufzeichnungen, Berichten von anderen Krankenhäusern, Arztberichten, EEG-, AEP-, CT-Befunden sowie stationären und ambulanten Krankenblättern bezogen. Die Patientendaten wurden während des Behandlungsverlaufs zum besseren Überblick in drei Ergebnisgruppen eingeteilt und ausgewertet. Zum einen in die Ergebnisse am Unfallort, bei der Aufnahme im Krankenhaus und während des Krankenhausaufenthaltes. Ergebnisse Der relative Anteil der Patienten unter drei Jahren war erhöht. Je älter die Patienten waren, desto mehr männliche Patienten gab es. 70 Prozent der Kinder in dieser Studie verstarben innerhalb der ersten Woche. Die Zeitspanne vom Unfall bis zum Tod der Patienten betrug im Median vier Tage. Die durchschnittliche Latenzzeit bis zum Tod wurde im Durchschnitt mit 11,4 Tagen ermittelt. In den Unfallkategorien war die Kategorie „High Velocity Accident“ mit 76,76 Prozent die dominierende Unfallart. Zusätzlich zeigten die Patienten in dieser Kategorie die geringste Überlebensdauer bis zum Tod, besonders diejenigen, die aktiv am Straßenverkehr teilnahmen. 27 Patienten wurden am Unfallort anhand der Glasgow-Coma-Scale in die Gruppe der schweren Schädel-Hirn-Traumen eingeteilt (davon 19 Patienten mit nur drei Punkten), drei Kinder in die Gruppe der leichten. Bei der Aufnahmeuntersuchung befanden sich dann alle Patienten in der Gruppe der schweren Schädel-Hirn-Traumen. Zwölf Patienten mit einer zerebralen Hypoxie (zehn davon wurden reanimiert) wiesen eine stark verkürzte Latenzzeit gegenüber Patienten ohne Hypoxie bis zum Tod auf. Bei der Pupillenuntersuchung am Unfallort hatten fast alle Patienten erweiterte und lichtstarre Pupillen, nur drei Patienten zeigten einen physiologischen Pupillenbefund. Bis zur Aufnahmemuntersuchung verbesserte sich der Befund lediglich bei zwei Patienten, ausgelöst durch eine erfolgreiche Reanimation. Bei 19 Patienten wurde im Verlauf eine hypotherme Körpertemperatur gemessen, bei acht Kindern eine Körpertemperatur im normalen Bereich, zwei waren hypertherm. 13 Kinder zeigten bei der Aufnahmeuntersuchung im Krankenhaus einen ihrem Alter entsprechenden physiologischen Blutdruckwert, bei zwei Patienten wurde ein erhöhter Wert festgestellt. 15 Kinder wiesen einen systolischen Blutdruck unter 90 mmHg und somit eine Hypotonie auf. Die Latenzzeit bis zum Tod betrug 21,92 Tage bei einem physiologischen Blutdruck gegenüber 3,4 Tagen bei einer Hypotonie. Bei 18 Kindern wurde mindestens eine Schädelfraktur festgestellt. Die Schädelfrakturen verkürzten die Latenzzeit der Kinder nicht. Sieben Patienten hatten ein offenes Schädel-Hirn-Trauma, 23 ein geschlossenes. Alle Patienten wiesen negative Veränderungen im EEG auf. Sechs von 23 Patienten zeigten erhaltene AEPs, 14 Patienten den Ausfall der Welle III und/oder der Welle V und drei Patienten eine verzögerte Latenz der Welle III und/oder der Welle V mit tendenzieller Verschlechterung. Die niedrigsten Latenzzeiten besaßen die Patienten mit dem Ausfall der Welle III und/oder der Welle V. 28 Kinder erhielten eine Computertomografie (CT). Hier zeigte sich bei 26 Patienten in der ersten Untersuchung ein intrakranielles Hämatom, davon bei 21ein intrazerebrales Hämatom. Bei sechs Patienten wurde eine Mittelinienverschiebung beobachtet, bei 15 Patienten komprimierte und/oder nicht darstellbare basale Zisternen. Meist wurden mehrere Veränderungen kombiniert vorgefunden. Bei 20 Patienten wurden Hindruckwerte ermittelt, vier Patienten blieben innerhalb der ersten 48 Stunden nach dem Unfall unter 20 mmHg, dagegen 16 Kinder über 20 mmHg. Je höher in den ersten 48 Stunden der Hirndruck war, desto kürzer wurde die Latenzzeit bis zum Tod. Bei 22 Patienten wurde ein Hirnödem beobachtet, bei 18 Kindern schon zwei Stunden nach dem Unfall. Diskussion und Schlussfolgerung Es gibt ein Vielzahl von klinischen Untersuchungen und Befunden. In dieser Studie haben sich einige herauskristallisiert, die für eine sichere Prognosestellung wichtig sind. Ein besonders kritischer Zeitraum ist die erste Woche nach dem Unfall. Der „High Velocity Accident“ ist das Unfallmuster mit der geringsten Latenzzeit bis zum Tod der Patienten und mit einer hohen Sterblichkeit verbunden. Die Glasgow-Coma-Scale hat 24 Stunden nach dem Trauma einen höheren Aussagewert als initial. Bleibt der Wert in diesem Zeitraum unter fünf Punkten, ist mit einer sehr schlechten Prognose zu rechnen. Der Pupillenbefund gibt besonders bei einem niedrigen Glasgow-Coma-Scale-Wert für die Prognose des letalen Ausgangs eine zusätzliche Absicherung. Das EEG ist hingegen wenig aussagekräftig. Arterielle Hypotonie und Hypoxie sind Hauptursachen des sekundären Hirnschadens nach einem Schädel-Hirn-Trauma. Eine Vermeidung einer Hypotonie und der Hypoxie würde die Letalitätswahrscheinlichkeit senken. Das Vorhandensein einer Schädelfraktur zeigte keinen Einfluss auf die Prognose. Die AEP sind wegen der geringen Beeinflussung durch Medikamente für eine Verlaufprognose gut geeignet. Dabei spielt der Ausfall der Welle III und/oder der Welle V für einen schlechten Ausgang eine wichtige Rolle. Die Computertomografie zeigt sehr gut pathologische Veränderungen der Gehirnstrukturen und ist sowohl für die Einschätzung der primären, als auch sekundären Schäden geeignet. Auffallend in dieser Studie war die hohe Anzahl von Patienten mit intrakraniellen Hämatomen. Das Vorhandensein einer komprimierten und/oder nicht darstellbaren basalen Zisterne verschlechterte die Prognose wesentlich und verkürzte die Dauer bis zum Tod. Hirndruckwerte ab 20 mmHg innerhalb der ersten 48 Stunden erhöhen die Prognose für einen schlechten Ausgang, ab 60 mm Hg steigt die Letalitätswahrscheinlichkeit stark. Die Vermeidung eines Hirnödems könnte hohe Hirndruckwerte vermeiden. Die Prognose hängt somit nicht nur von der Primärschädigung des Gehirns ab, sondern auch von den sekundären Schädigungen und deren Komplikationen. Wegen der komplexen Strukturen des jungen menschlichen Körpers und vor allem des Gehirns ist auch heutzutage noch keine absolut sichere Prognosestellung möglich. Die Ergebnisse in dieser Studie können nur Anhaltspunkte für eine Prognose geben. Je mehr der beschriebenen pathologischen Befunde bei einem Patienten festgestellt werden, desto wahrscheinlicher ist ein letaler Ausgang.
Einführung: Mehr als 75% der Cholecystektomien werden laparoskopisch operiert und weniger als 1/3 aller Gallenblasenkarzinome sind präoperativ bekannt. Seit den ersten Beschreibungen von Port-sitemetastasen 1991 und Tumorabsiedlungen 1994 wird vermutet, dass die laparoskopische Technik die Prognose von okkultem Gallenblasenkarzinom verschlechtern könnte. Material und Methode: 1997 hat die chirurgische Arbeitsgemeinschaft für Endoskopie (CAE) der deutschen Gesellschaft für Chirurgie ein Register gegründet, welches alle Fälle von postoperativen Zufallsbefund: „Gallenblasenkarzinom“ sammelt, egal ob die primäre Cholezystektomie laparoskopisch oder offen durchgeführt wurde. Zur Datengewinnung dient ein standardisierter Fragebogen, der an alle deutschen und nun auch an alle österreichischen chirurgischen Kliniken verschickt wurde, die Daten werden drei monatlich aktualisiert. Ziel des Registers ist es den Verlauf der Patienten zu beobachten und unter anderem die Frage zu beantworten, ob die Laparoskopie tatsächlich einen negativen Einfluß auf die Prognose des okkulten Gallenblasenkarzinoms hat. Außerdem wurde eine Internetseite zum Register vom Autor eingerichtet, die die neuesten Informationen zum Register und zum Krankheitsbild Gallenblasenkarzinom bietet, diese Seite ist Bestandteil der Doktorarbeit. Diese Seite ist unter der Adresse: www. ketteler-krankenhaus.de/register zu finden. Auch ist ein direktes Herunterladen des Fragebogens zum Register online möglich. Ergebnisse: 377 Fälle von okkultem Gallenblasenkarzinom sind bis dato von 186 Kliniken gemeldet worden. 201 Patienten wurden laparoskopisch operiert, 119 offen und bei 57 Patienten erfolgte ein intraoperativer Umstieg von laparoskopisch zu offen, aus nicht onkologischen Gründen. Es wurden uns 15 Port- site metastasen nach laparoskopischer Operation und 9 Wundmetastasen nach offener Operation gemeldet. Zu einem intraabdominellem Rezidiv kam es bei 23 laparoskopisch operierten Patienten und bei 13 primär offen operierten Patienten. Bei 123 der 377 Patienten wurde eine unmittelbare radikale Reoperation durchgeführt. Es scheint sich eine Tendenz in unserem Patientengut abzuzeichnen, dass reoperierte T1- und T2- Tumore von solch einem radikalen Zweiteingriff profitieren (log- rank > 0.05). Das kumulative Überleben nach Kaplan- Meier zeigt ein signifikant besseres Überleben für die laparoskopisch operierten Patienten im Vergleich zu den primär offen operierten (p=0,0127) oder den Patienten mit intraoperativem Umstieg (p=0,0191). Die 5 Jahresüberlebenswahrscheinlichkeit, (5 JÜR) für laparoskopisch und offen operierte T1- Tumore beträgt 55%, für laparoskopisch operierte T2- Tumore 40% und offen operierte T2- Tumore 30%. Der Gebrauch eines Bergebeutels scheint keinen positiven Effekt zu haben, die intraoperative akzidentelle Verletzung der Gallenblase hingegen scheint zu einer deutlichen Prognoseverschlechterung bezogen auf die Rezidivgenese in der laparoskopisch Gruppe zu haben. Diskussion: Die Inzidenz an Port-/ Wundmetastasen ist nahezu doppelt so hoch in der laparoskopischen Gruppe verglichen mit der offenen. Die Überlebensrate ist höher für die laparoskopisch operierten Patienten, was nicht damit erklärt werden kann, dass die Laparoskopie evtl. die weniger fortgeschritten Stadien operiert. Der Zugangsweg scheint also keinen wesentlichen Einfluß auf die Prognose des okkulten Gallenblasenkarzinoms zu haben. Nach der bisherigen Datenlage können wir keine Prognoseverschlechterung für die laparoskopisch operierten okkulten Gallenblasenkarzinome verifizieren.
Die mechanische Streckung hat einen großen Einfluss auf Keratinozyten und bei der Transduktion dieses Reizes nehmen ßl-integrine, E-Cadherine und EGF-Rezeptoren eine zentrale Rolle ein: Eine einfache mechanische Dehnung von HaCaT-Zellen um 10% fuhrt innerhalb von 5min zu einer schnellen Umorientierung der ßl-Integrine auf der Zellmembran, ohne dass sich dabei die Menge dieser Oberflächenrezeptoren ändert. Die Integrine sammeln sich in der basalen Membran zu größeren Adhäsionskomplexen. Dies hat Auswirkungen auf das Adhäsionsverhalten der Zellen. Eine Streckung bewirkt, dass die mechanisch stimulierten Zellen gegenüber den Kontrollzellen sowohl schneller an das Substrat anheften als auch eine stärkere Zell-Matrix-Adhäsion aufweisen. Das unterschiedliche Adhäsionsverhalten auf den verschiedenen Substraten (Arginin+Serum, Fibronektin, Kollagen) und Experimente mit funktionsblockierenden Antikörpern gegen ßl-Integrine sind Beweise für die Beteiligung dieser Oberflächenrezeptoren an diesem Vorgang. Da adhärente Zellen, wie Keratinozyten. neben Wachstumsfaktoren den Zell-Matrix-Kontakt benötigen, um in die S-Phase eintreten zu können, hat das unterschiedliche Adhäsionsverhalten von gestreckten und ungestreckten Zellen wiederum Einfluss auf die Proliferation. Diese ist bei den mechanisch gereizten Zellen im Vergleich zu den Kontrollzellen gesteigert und zwar im direkten Verhältnis zu der mechanisch induzierten Steigerung der Adhäsion. Im Rahmen einer Rezeptor-Transaktivierung (siehe vorne) kooperieren ßl-Integrine und E- Cadherine sowohl räumlich als auch funktionell mit dem EGF-Rezeptor bei der Übermittlung des Dehnungsreizes: Räumliche Interaktionen: Eine Koclusterung von ßl-Integrinen mit dem EGF-Rezeptor tritt bereits nach 5minütiger mechanischer Reizung an den Zell-Zell-Grenzen und den Fokalkontakten auf. Eine Kolokalisation zwischen E-Cadherinen und EGF-Rezeptoren besteht ebenfalls, wobei sich allerdings Kontrolle und Streckung nicht unterscheiden. Funktionelle Interaktionen: Eine mechanische Stimulation führt zu einer transienten Aktivierung des EGF-Rezeptors (Aktivitätsmaximum: 5min) und der MAP-Kinase ERK1/2 (Aktivitätsmaximum: 15min). Diese streckungsinduzierte Aktivierung von ERK1/2 wird sowohl durch die Blockierung der ßl-Integrine und E-Cadherine als auch durch die Inhibition des EGF-Rezeptors unterbunden. Weiterhin hemmt die Blockierung der Adhäsionsmoleküle die Aktivierung des EGF-Rezeptors. Dies spricht für die Transaktivierungs-Theorie des EGF- Rezeptors durch die ß1-Integrine und E-Cadherine. Die Zellstrukturen und viele zelluläre Prozesse werden durch eine zellintern erzeugte Grundspannung im Zytoskelett aufrechterhalten. Ohne eine Verankerung der Zelle an der ECM oder den Nachbarzellen, was durch die Blockierung der ßl-Integrine und E-Cadherine erreicht wird, bricht dieses fein ausbalancierte System zusammen; die Zytoskelett-Elemente F-Aktin, Intermediär-Filamente und Mikrotubuli zerfallen. Anhand der Ergebnisse dieser Arbeit wird ersichtlich, welche enorme Bedeutung den Adhäsionsrezerptoren - ßl-Integrine und E-Cadherine - für die Formstabilität und die funktionellen Eigenschaften der Zelle zukommt. Ein Ausfall dieser Adhäsionsmoleküle beeinträchtigt sowohl die Form der Zelle (Adhäsionsvorgänge und Tensigrity-Modell) als auch die Transduktion von Umweltreizen durch die Plasmamembran, z.B. einer mechanischen Stimulation, die letztendlich das Überleben der Zelle und die Proliferation bestimmt. Daher wäre denkbar, das die Ergebnisse dieser Grundlagenforschung in Zukunft zur Behandlung von Hautkrankheiten herangezogen werden können.
Die Trichterbrust (Pectus excavatum) ist die häufigste Brustwandfehlbildung. Sie ist durch eine Abwinklung des Brustbeines nach dorsal, beginnend am manubriosternalen Übergang mit einer maximalen Einziehung am Xiphoid, gekennzeichnet. Sie tritt im Verhältnis von 3:1 zwischen männlichen und weiblichen Geschlecht auf. Die Inzidenz liegt bei 1:300 bis 1:1000 Lebendgeburten. Nur etwas 5% der Patienten mit Trichterbrust zeigen funktionelle Beschwerden mit kardialer oder pulmonaler Symptomatik. Die weitaus häufigere (ca. 95%) funktionell asymptomatische Form der Trichterbrust kann eine erhebliche psychosoziale Beeinträchtigung für den Patienten darstellen und ist dann eine Operationsindikation. Hier stellt das Einbringen eines Silikonimplantates eine einfache und komplikationslose Möglichkeit der Trichterbrustkorrektur dar. Seit 1977 wurden 46 Patienten (m:w -> 1,8:1) ohne kardiopulmonale Symptome mit einem „custom-made“ Implantat aus Hartsilikon behandelt. Präoperativ wird ein Abdruck der Deformität ausgeformt. Nach dieser individuellen Form erfolgt die Herstellung eines vollständig polymerisierten Hartsilikonimplantats (medical grade). Die Implantate wurden über einen subxiphoidalen oder submammären Zugang subkutan bzw. partiell submuskulär eingebracht. Hierdurch wird der Defekt exakt ausgeglichen. Die Früh- und Spätergebnisse der Trichterbrustkorrektur mit Hartsilikonimplantaten wurden retrospektiv durch eine Aufarbeitung der Patientenakten und einen Fragebogen untersucht. Die Nachuntersuchungszeit lag im Durchschnitt bei 12,7 Jahren, das längste Follow-up betrug 25 Jahre. Häufige Früh-Komplikationen waren Serome (28%), die gelegentlich prolongiert bzw. rezidiviert auftraten (8%). Implantatinfekte traten nicht auf. In 6% der Fälle wurden initial zu grosse Implantate revidiert und verkleinert. In je 4% wurden Implantate revidiert und refixiert oder entfernt. Über vorübergehende Sensibilitätsstörung berichteten 19% der Patienten. Trotz partiell-submuskulärer Einbringung gaben 27% der Patienten sichtbare und bis 54% bzw. 38% tastbare Implantatränder in Ruhe bzw. Bewegung an. Dennoch empfanden 84% der Patienten das Implantat als eine psychische Hilfe. Die subjektive Zufriedenheit wurde von 84% der Patienten mit gut, von 12% mit befriedigend und von 4% mit ungenügend angegeben, d.h. 96% der Patienten bewerteten das klinische Ergebnis als gut oder befriedigend. Bei der Korrektur der Trichterbrust ohne kardiopulmonale Störungen ist das Ziel der Operation ein optischer Ausgleich des knöchernen Defekts. Die Beseitigung der psychosozialen Folgen der Deformität ist das wesentliche Erfolgskriterium. Da bei der Trichterbrustkorrektur mit Hartsilikonimplantaten im Gegensatz zu thoraxchirurgischen Verfahren die Integrität und Stabilität des Thorax nicht beeinträchtigt wird, hat sie sich bei der funktionell asymptomatischen Trichterbrust zur Methode der Wahl entwickelt. Die Methode wird seit den 70er Jahren angewandt und seither konsequent verbessert. Sie stellt eine simple und schnelle Möglichkeit mit guten Erfahrungswerten und klinischen Ergebnissen zur Korrektur der Trichterbrust dar. Sie führte auch in der Langzeitbeurteilung bei 96% der Patienten zu einem guten oder befriedigenden klinischen Resultat. Es traten keine schweren Komplikationen auf.
Im Rahmen des Projektes SPURT (Spurenstofftransport in der Tropopausenregion) als Teil des deutschen Atmosphärenforschungsprogramms AFO 2000 wurden bei 8 Messkampagnen mit insgesamt 36 Flügen innerhalb eines Beobachtungszeitraums von zwei Jahren (Nov. 2001 bis Juli 2003) Spurengasmessungen in dem Breitenbereich zwischen 35°N und 75°N durchgeführt. Für die Messungen der Spurengase N2O, F12, SF6, H2 und CO wurde der vollautomatisierte in-situ GC (Gaschromatograph) GhOST II (Gas Chromatograph for the Observation of Stratospheric Tracers) entwickelt und eingesetzt. Das Ziel dieser Messungen war die Untersuchung der jahreszeitlichen Variabilität der Spurengase in der oberen Troposphäre und untersten Stratosphäre (UT/LMS: Upper Troposphere/Lowermost Stratosphere), um die Transport- und Austauschprozesse in der Tropopausenregion besser zu verstehen. Zur Untersuchung von Transport und Mischung in der UT/LMS wurden die Rückwärtstrajektorien entlang der Flugpfade, die Verteilungen der Tracer N2O, F12, SF6, CO und CO2 (MPI für Chemie in Mainz), die Tracer/Tracer-Korrelationen N2O/F12, N2O/O3 F12/O3 und SF6/O3 und die Verteilungen des aus SF6-Messungen berechnete mittlere Alters der Luft herangezogen. Zusätzlich wurden die simultanen Messungen der beiden Alterstracer CO2 und SF6 genutzt, um die Propagation der Amplitude des troposphärischen CO2-Jahresgangs in die LMS zu bestimmen und daraus mit Hilfe eines empirischen Altersspektrums den Eintrag und die mittlere Transportzeit aus der Troposphäre in die unterste Stratosphäre zu quantifizieren. Grundsätzlich muss die LMS in zwei Bereiche eingeteilt werden – die Übergangsschicht („tropopause following layer“) bis etwa 20-30 K über der potentiellen Temperatur der lokalen Tropopause [Hoor et al., 2004] und die freie LMS oberhalb dieser Schicht. Als wesentliche Unterscheidungsmerkmale beider Bereiche wird die mittlere Transportzeit des Eintrags troposphärischer Luft identifiziert. Aus Trajektorienuntersuchungen und Tracerverteilungen (Kap. 3.4) kann gezeigt werden, dass der Transport in die Übergangsschicht und die Mischungsprozesse in diesem Bereich auf der Zeitskala der mesoskaligen troposphärischen Prozesse ablaufen. Im Gegensatz dazu werden aus der Massenbilanz (Kap. 5.3) mittlere Transportzeiten aus der Troposphäre in die freie LMS von einigen Wochen bis zu mehreren Monaten abgeleitet. Außerdem konnte nachgewiesen werden, dass der troposphärische Eintrag in der freien LMS fast ausschließlich auf quasihorizontale isentrope Einmischung aus den Tropen über die Transportbarriere des Subtropenjets zurückzuführen ist. Nur im Sommer und Herbst konnte auch oberhalb der Übergangsschicht für einzelne Messungen ein Einfluss aus der extratropischen Troposphäre beobachtet werden. Die in dieser Arbeit untersuchten Tracerverteilungen und -korrelationen (Kap. 4) und die Verteilung des mittleren Alters (Kap.5.2) in der LMS zeigen einen Jahresgang mit einem maximalen troposphärischen Einfluss im Oktober und einem maximalen stratosphärischen Einfluss im April. Diese saisonale Charakteristik in der freien LMS kann durch die saisonalen Änderungen des Verhältnisses von Abwärtstransport aus der Overworld und quasihorizontalem Transport aus den Tropen und durch die mit den jeweiligen Transportprozessen assoziierte mittlere Transportzeiten erklärt werden, die aus Massenbilanzrechnungen bestimmt wurden. Es wird gezeigt, dass der überwiegende Eintrag von troposphärischer Luft in die LMS im Sommer und Herbst stattfindet, wobei im Mittel die kürzesten mittleren Transitzeiten (unter 0.3 Jahre) für den August und die längsten Transitzeiten (über 0.6 Jahre) für den Mai berechnet werden. Aus den Ergebnissen wird gefolgert, dass ein ausgeprägter isentroper Austauschprozess über den Subtropenjet im Sommer bis in den Herbst hinein der dominierende troposphärische Einfluss in der LMS bis in den Mai ist. Der Vergleich zwischen SPURT und anderen in der UT/LMS im Zeitraum von 1992 bis 1998 durchgeführten Messkampagnen zeigt einen systematischen Unterschied in den N2O/O3-Korrelationen. Die Zunahme von O3 relativ zu N2O in der LMS ist um etwa 6.5 ppb O3 pro 1 ppb N2O bzw. etwa 40% größer als die Zunahme bei jahreszeitlich vergleichbaren früheren Kampagnen. Durch eine weitergehende Analyse der Messungen, z.B. durch den Vergleich der N2O-Verteilungen in der LMS bei verschiedenen Messkampagnen, und zusätzlichen Informationen aus Satelliten- und Ballonmessungen wird abgeleitet, dass diese Änderung der N2O/O3-Korrelationen im Wesentlichen auf einen im Zeitraum von SPURT stärkeren quasihorizontalen Transport aus den Tropen in die Extratropen im Bereich des so genannten „tropical controlled transition layer“ [Rosenlof et al., 1997] zwischen 16-21 km (bzw. Θ ≈ 380-450 K) zurückzuführen ist. In Kooperation mit B. Bregman wurden mit dem Chemie-Transport-Modell TM5 des KNMI die Verteilungen von SF6 und CO2 in der Troposphäre und Stratosphäre, unter den Zielsetzungen Evaluation des Modelltransports und Erweiterung des Datensatzes von SPURT auf globalen Maßstab, für den Zeitraum 1.1.2000 bis 31.12.2002 modelliert. Dabei konnte gezeigt werden, dass bei Modellstudien zur Evaluation des Transports mit Hilfe von Alterstracern nicht nur troposphärisch monoton steigende Tracer wie SF6 sondern auch saisonal variable Tracer wie CO2 verwendet werden müssen. Bei dem Vergleich der Modellergebnisse des TM5 mit ER2- und SPURTMessungen zeigt sich, dass das Modell zum jetzigen Zeitpunkt in der Lage ist, das mittlere Alter in der unteren Stratosphäre und die SF6- und CO2-Verteilungen in der LMS qualitativ richtig wiederzugeben. Das mittlere Alter in der unteren Stratosphäre wird um etwa 0.5 bis 1 Jahr in den Tropen über- und in den Extratropen unterschätzt. Die vertikalen Gradienten im Modell für SF6 und CO2 in der LMS sind, insbesondere im Winter und Frühjahr, zu gering. Die Amplitude des CO2-Jahresganges in der oberen Troposphäre und in der LMS wird durch das Modell unterschätzt, während der saisonale Verlauf des Jahresganges richtig wiedergegeben wird. Im Moment wird vermutet, dass eine zu starke isentrope Mischung zwischen Tropen und Extratropen und/oder ein zu geringer Aufwärtstransport in der extratropischen Troposphäre im Sommer und Herbst die Ursachen für die beobachteten Abweichungen zwischen Modell und Messung sind.
Die in den hier durchgeführten Versuchen gewonnenen Ergebnisse und Messwerte lassen eine Verwendung eines Flusssäure-Phosphorsäure-Gemisches nicht nur wegen der toxischen Wirkung auf den menschlichen Organismus zum jetzigen Zeitpunkt und beim jetzigen Stand der Forschung für die Adhäsive Scotchbond 1, Syntac Sprint und Prime & Bond NT nicht sinnvoll erscheinen. Die Konditionierungsergebnisse des Säuregemisches erreichten nicht die gewünschte Qualität. Die resultierenden Haftwerte der abgescherten Kompositzylinder lagen alle unter denen von MAY (2000) bei herkömmlicher Phosphorsäurekonditionierung gemessenen Werten. Bei entsprechender Weiterentwicklung dieses Gemisches soll eine spätere Anwendung jedoch nicht ausgeschlossen werden. Die Applikation von Flusssäure in praxi sollte derzeit auf die Konditionierung von Keramikflächen beschränkt bleiben. Aqua dest. und Ringerlösung sind beide als Spülmedium für eine Dentinliquorflusssimulation grundsätzlich geeignet und einem Versuchsaufbau ohne Dentinliquorflusssimulation auf jeden Fall vorzuziehen. Da die Wirkung der einzelnen Bestandteile noch nicht abschließend geklärt ist, Ringerlösung von ihrer Zusammensetzung jedoch dem Dentinliquor ähnlicher, ist sie dem Aqua dest. vorzuziehen. Die Versuche von SIEPE und die hier durchgeführten Versuche ließen keine Korrelation des Ausmaßes der Scherhaftfestigkeit zu der verwendeten Spüllösung erkennen. Es ist wichtig, diese Fragestellung durch weitere Untersuchungen zu lösen, um möglichst bald einen für weitere wissenschaftliche Studien einheitlichen Standard zu definieren und somit die Vergleichbarkeit erzielter Versuchergebnisse zu fördern.
Heparine werden seit Jahrzehnten als Medikamente zur Thromboseprophylaxe und Antikoagulation eingesetzt. Die heparin-induzierte Thrombozytopenie (HIT) stellt eine seltene, jedoch lebensbedrohliche Nebenwirkung einer Heparintherapie dar. Es werden zwei verschiedene Formen unterschieden. Die harmlose, nicht immunologische Form der HIT (HIT Typ I) und die seltene, oft lebensbedrohliche, immunologisch bedingte HIT Typ II. Sie ist gekennzeichnet durch eine Immunreaktion, die durch ein Neoantigen (Komplex aus dem von extern applizierten Heparin und dem autologen, aus den α-Granula der Thrombozyten freigesetzten Plättchenfaktor 4) eine Antikörperbildung induziert. Prädisponierte Patienten bilden Antikörper gegen den Heparin-PF4-Komplex, vornehmlich der Klasse IgG. Es entstehen makromolekulare Immunkomplexe, die über ihr Fc-Fragment durch Antikörperadsorption eine Aktivierung der Thrombozyten und Endothelzellen über den FcγIIa-Rezeptor bewirken und im Verlauf zu einer Thrombozytenaggregation mit gleichzeitigem Auftreten von Thrombozytopenien in Verbindung mit Thrombosen führen können. Das eigentlich zur Antikoagulation eingesetzte Heparin wirkt daher paradoxerweise bei der HIT-Typ II prokoagulatorisch. Es kommt zu Thrombozytopenien, die klassischerweise fünf bis 14 Tage nach Beginn einer Heparintherapie auftreten. Die Thrombozytopenien können begleitet sein von thromboembolischen Ereignissen, die eine hohe Rate an Defektheilungen oder gar ein Versterben bedingen können. Die Inzidenz einer HIT Typ II wird kollektivabhängig und nach Art des eingesetzten Heparins in der Literatur mit 0,3 – 2,7 % angegeben. Zur Diagnostik bei Verdacht auf eine heparin-induzierte Thrombozytopenie werden verschiedene kommerziell erhältliche Testsysteme eingesetzt. Diese immunologischen und funktionellen Labortests weisen Antigen-Antikörper-Komplexe direkt oder indirekt nach. Daten bezüglich der Inzidenz einer heparin-induzierten Thrombozytopenie in einem gefäßchirurgischen Kollektiv waren zu Beginn unserer Studie in der Literatur nicht verfügbar. Wir untersuchten daher fünfzig konsekutive Patienten im Alter von durchschnittlich 64,5 Jahren, die sich im Zeitraum von September 1996 bis November 1997 einer gefäßchirurgischen Operation unterziehen mussten, und die im Rahmen dessen über einen Mindestzeitraum von fünf Tagen eine Heparinbehandlung aus medizinischer Indikation benötigten. Die Thrombozytenzahlen wurden bei den Patienten unter Heparintherapie täglich bestimmt. An definierten Zeitpunkten (Tag 3 – 5, Tag 6 – 8, Tag 9 – 11, Tag 12 – 18, Ende der Heparintherapie) wurden Blutproben gewonnen, um diese mit zwei ELISA-Testmethoden (PF4/H-EIA und GTI-EIA) und einem funktionellen Testverfahren, dem heparin-induzierten Plättchen Aktivierungs Test [HIPA]), auf heparin-induzierte Antikörper zu untersuchen. Zum Ende der Heparintherapie wurde zusätzlich auch eine differenzierte Analyse der Antikörpersubklassen (IgG, IgA und IgM) durchgeführt. Während des stationären Aufenthaltes wurden die Patienten täglich auf thromboembolische Ereignisse körperlich untersucht. Ferner wurden die Patienten zum Ende der Heparintherapie und bei suspektem klinischem Befund mit Hilfe der Farbduplexsonographie bezüglich des Auftretens tiefer Beinvenenthrombosen gescreent. Mit zunehmender Dauer der Heparintherapie stieg die Inzidenz der positiven Testergebisse für heparin-induzierte Antikörper kontinuierlich bis auf ein Maximum am Tag 9 – 11 der Heparintherapie an. 54% der Patienten wurden zum Ende der Heparintherapie in mindestens einem der Teste positiv getestet. Offensichtlich entwickeln viele gefäßchirurgische Patienten unter prolongierter Heparintherpie heparin-induzierte Antikörper ohne klinsche Symptome -im Sinne von Thombozytopenien oder/ und thromboembolischen Ereignissen- zu erleiden. Bei der Mehrheit der Patienten wurden IgA-Antikörper (14 %) und IgM-Antikörper (26 %) am Ende der Heparintherapie bei der Antikörpersubklassenanalyse nachgewiesen, bei gleichzeitig positivem HIPA-Ergebnis allerdings vorwiegend IgG-Antikörper (3/ 3 Patienten). Acht Prozent des untersuchten Kollektivs (4/ 50) fielen durch klinische Komplikationen auf (2 Thrombozytopenien, 3 Reverschlüsse). Bei keinem der Patienten wurde ein Zusammenhang mit der HIT-Antikörperentwicklung gesehen, so dass die klinische Relevanz der mit den unterschiedlichen Testsystemen sehr häufig nachgewiesenen HIT-Antikörper in dem untersuchten Kollektiv fraglich ist. Farbduplexsonographisch ließ sich bei keinem der untersuchten Patienten eine tiefe Beinvenenthrombose nachweisen. Ein großer Prozentsatz von gefäßchirurgischen Patienten entwickelt heparin-induzierte Antikörper, ohne klinische Symptome einer HIT Typ II zu zeigen. Keines der angewandten Testverfahren auf heparin-induzierte Antikörper ist daher prädiktiv in Bezug auf eine klinische Manifestation bei asymptomatischen Patienten. Die diagnostische Spezifität sowohl der immunologischen Antigen-, als auch des funktionellen Aktivierungstests scheint daher bei gefäßchirurgischen Patienten gering zu sein. Die Ergebnisse dieser Doktorarbeit konnten bereits im Jahr 2000 in dem internationalen Journal ´Thrombosis Research´ publiziert werden (2000 Thromb Res 97: 387 – 393). Ebenso wurden Auszüge der vorliegenden Arbeit bereits 1997 als Abstract in Thromb Haemost 77 (Suppl. 1): 562 vorgestellt. Ferner wurden die Ergebnisse als Abstract auf dem ´42. Annual Meeting´ der Gesellschaft Thrombose und Hämostasforschung/ GTH im Februar 1998 (1998 Ann Hematol 77 (Suppl. 1): 58 vorgestellt.
Von Oktober 1990 bis Juli 2000 wurden 66 Patienten mit 83 Keloiden in der Strahlenklinik der Universitätsklinik Frankfurt am Main mit Strontium-90-Kontakttherapie in der frühen postoperativen Phase innerhalb von vier bis fünf Tagen in vier Fraktionen zu je 5 Gy bis zu einer Gesamtdosis von 20 Gy bestrahlt. 41 Patienten mit 53 Keloiden füllten einen Fragebogen aus und konnten nachbeobachtet werden. Davon kamen 24 Patienten mit 31 Keloiden zu einer Nachuntersuchung. Bei der Evaluation der Ergebnisse sollten folgende Hypothesen geprüft werden: Die Bewertung der Therapie durch den Arzt kann von der Bewertung durch den Patienten erheblich differieren. Die Zufriedenheit der Patienten ist nicht ausschließlich vom rezidivfreien Heilungsverlauf abhängig, sondern auch von den Symptomen sowie von Art und Grad der Nebenwirkung. Dazu wurden die Therapieergebnisse objektiv erhoben und mit der subjektiven Patientenbeurteilung verglichen. Quintessenz sind prognostische Faktoren zur Rezidivrate und zur Patientenzufriedenheit sowie Vorschläge für das Erstgespräch mit dem Patienten und die Examination von Keloid und Rezidiv´. Die Symptome der Keloide (kosmetische Beeinträchtigungen und körperliche Beschwerden) sowie die Häufigkeit, Größe, Art und Ausprägung der Therapieergebnisse (Rezidive, rezidivfreie Narben, Nebenwirkungen, Beschwerden) wurden mittels Fragebogen und Nachuntersuchung erhoben. Die Rezidive wurden in Prozent der Fläche der Gesamtnarbe geschätzt. Ein Vollrezidiv wird als größer 80%, ein Teilrezidiv mit 30 bis 80% und ein Randrezidiv als kleiner 30% definiert. Nebenwirkungen (Hyperpigmentierung, Hypopigmentierung, Teleangiektasien, Rötung bzw. Randsaum, Atrophie) wurden entsprechend ihrer Ausprägung (keine, geringe, mäßige, starke) bzw. nach Vorhandensein aufgenommen. 19 Rezidive (36%) traten bei den nachbeobachteten Patienten auf. Davon waren sieben Vollrezidive (13%) und 12 Teil- und Randrezidive (23%). 83% der Patienten hatten nach der Therapie keine oder weniger Beschwerden. Die Rezidivrate läge ohne die Erhebungen im Rahmen dieser Studie anstatt bei 39% bei nur 13%, da nur sieben Rezidive aktenkundig waren. Demnach ist eine Nachbeobachtungszeit von ein bis zwei Jahren zwingend, um eine Vergleichbarkeit von Studien zu gewährleisten. Von den 24 Patienten mit 31 Keloiden, die zur Nachuntersuchung kamen, traten mäßige bis starke Nebenwirkungen in 16% als Hyperpigmentierung, in 35% als Hypopigmentierung, in 39% als Teleangiektasien und in 25% als Rötung auf. Randsäume traten in 42% und Atrophien in 23% der Fälle auf. Das Hauptkriterium einer erfolgreichen Therapie ist laut Schrifttum die Rezidivfreiheit. Definitionen von erfolgreicher rezidivfreier Therapie differieren, weshalb Erfolgsraten´ nicht vergleichbar sind. Die objektive Bewertung der Therapieergebnisse durch den Arzt berücksichtigt die subjektiven Kriterien (körperliche Beschwerden und kosmetische Beeinträchtigung des Patienten) nicht ausreichend. Anhand unserer Ergebnisse wurden signifikante prognostische Faktoren bzgl. der Rezidivrate herausgearbeitet und mit dem Schrifttum verglichen bzw. diskutiert. Prognostisch ungünstige Faktoren für eine Rezidiventwicklung sind familiäre Keloidbelastung, Keloidgrößen von über 2 cm, bereits vorbehandelte Keloide, die Lokalisationen Rumpf bzw. vorderer Thorax, Infektionen und Fremdkörper in der Operationswunde, die Entstehungsursache Verbrennung sowie Behandlung von jungen, noch aktiven Keloiden. Die subjektive Bewertung der Behandlungsergebnisse durch den Patienten hängt von den Symptomen, Art des Rezidivs sowie Art und Ausprägung der Nebenwirkungen ab. Nach unseren Untersuchungen ist mit einer signifikant höheren Patientenzufriedenheit mit der Therapie zu rechnen, wenn die Patienten Ohr- oder Rumpf-Keloide haben, vorher körperliche Beschwerden hatten, die sich verbessert haben oder wenn die Patienten männlich sind. Tendenziell höher ist die Zufriedenheit bei Patienten, die sich vor der Therapie nicht durch das Keloid entstellt fühlten, bei der Entwicklung von Teil- und Randrezidiven anstatt Vollrezidiven und bei geringer Ausprägung der Nebenwirkungen. Von den 41 nachbeobachteten Patienten waren 61% mit der Therapie und 51% mit dem kosmetischen Ergebnis der Therapie sehr bis mäßig zufrieden. Subjektive und objektive Beurteilung der Therapieergebnisse entsprechen einander nicht, da die unzufriedenen Patienten nicht mit den Patienten, die ein Rezidiv haben, identisch sind, obwohl dies aufgrund ähnlicher prozentualer Anteile (unzufriedene Patienten: 39%, Rezidivrate: 36%) zu vermuten wäre. Zwischenzeitlich wurde das Therapieschema an der Strahlenklinik der Uniklinik Frankfurt auf vier Fraktionen zu je 4 Gy bei einer Gesamtdosis von 16 Gy geändert. Teilweise werden jetzt zusätzlich Beschleunigerelektronen als Strahlenquelle in der Keloidtherapie genutzt. Interessant wäre zukünftig eine vergleichende Studie zur Rezidivhäufigkeit, dem Auftreten von Nebenwirkungen und der Zufriedenheit der Patienten. Die vielschichtige Keloidproblematik erfordert einen multidisziplinären Therapieansatz, um objektiv und subjektiv gute Ergebnisse zu erzielen. Die Vorschläge für das Erstgespräch...´ sind auf andere Therapien, z. B. dermatologische Erkrankungen, übertragbar.
Tumorerkrankungen, insbesondere solche im metastasierenden Stadium, erfordern effiziente Therapien. Krebstherapien wie Bestrahlung oder Chemotherapie wirken über die Induktion von Apoptose. Resistenz gegen diese Behandlungsansätze geht einher mit der Blockierung relevanter apoptotischer Signalwege. Dennoch haben Tumorzellen nicht grundsätzlich die Fähigkeit verloren, apoptotischen Zelltod zu sterben, d. h. mit einem geeigneten Stimulus kann in jeder Tumorzelle Apoptose induziert werden. In dieser Arbeit wurden Proteine entwickelt, die Enzyme apoptotischer Signalkaskaden selektiv in Tumorzellen einschleusen. Um Spezifität für transformierte Zellen zu erlangen, wurden diese Proteine mit Zellbindungsdomänen gekoppelt, die an tumorassoziierte Antigene binden. Als Zielstrukturen auf der Oberfläche von Krebszellen dienten die Rezeptoren der ErbB Familie „epidermal growth factor receptor“ (EGFR) und ErbB2. Überexpression dieser Rezeptoren wird auf einer Vielzahl von Tumoren epithelialen Ursprungs beobachtet und ist ursächlich beteiligt an der malignen Transformation. Als Apoptoseinduktoren wurden die Serinprotease Granzym B (GrB) sowie das Protein „apoptosis inducing factor“ (AIF) eingesetzt. GrB induziert Apoptose durch direkte Aktivierung von Caspasen und Spaltung zentraler Caspasen-Substrate. Damit greift die Protease am unteren Effektorende apoptotischer Signalwege ein und umgeht so die meisten Resistenzmechanismen transformierter Zellen. Um GrB in Tumorzellen einzuschleusen, wurde die Protease mit dem ErbB2 spezifischen Antikörperfragment scFv(FRP5) gekoppelt. Zunächst wurde eine biotinylierte Variante der Protease (bGrB) über die hochaffine Streptavidin/ Biotin Interaktion mit einem Fusionsprotein komplexiert, das aus dem scFv(FRP5) und Streptavidin besteht (SA-5). Komplexe aus enzymatisch aktivem bGrB und SA-5 wiesen selektive cytotoxische Aktivität gegenüber ErbB2 exprimierenden Zellen auf, die allerdings von der Präsenz des endosomolytischen Reagenz Chloroquin abhing. Dies zeigt die Notwendigkeit einer Translokation vom endosomalen Kompartiment, um internalisiertem GrB Zugang zu seinen cytosolischen Substraten zu ermöglichen. Aufbauend auf diesen Ergebnissen, die grundsätzlich nachweisen, daß das Einbringen von GrB in Tumorzellen ausreichend ist, um in diesen Zellen Apoptose zu induzieren, wurden Fusionsproteine abgeleitet, in denen GrB direkt mit Zellbindungsdomänen fusioniert ist. Neben dem scFv(FRP5) wurde auch der EGFR-Ligand TGFalpha eingesetzt. Fusionsproteine bestehend aus reifem GrB und scFv(FRP5) (GrB-5) bzw. TGFalpha (GrB-T) wurden in der Hefe Pichia pastoris exprimiert und mit hohen Ausbeuten gereinigt. GrB-5 und GrB-T zeigten enzymatische Aktivität und wiesen Affinität zu ErbB2 bzw. EGFR auf. In Gegenwart von Chloroquin zeigten GrB-5 und GrB-T selektive cytotoxische Aktivität gegenüber Zellen, die den jeweiligen Zielrezeptor exprimieren. Die IC50 Werte der Proteine lagen im pico- bis nanomolaren Bereich und sind damit vergleichbar mit denen rekombinanter Immun- bzw. Wachstumsfaktortoxine, die Exotoxin A (ETA) aus Pseudomonas aeruginosa als Effektor nutzen. Induktion von Apoptose erfolgte durch GrB-5 und GrB-T allerdings deutlich schneller (3 h) als durch ETA Fusionsproteine (72 h), da GrB im Gegensatz zu ETA direkt in apoptotische Signalkaskaden eingreift. Um die weitere Charakterisierung von GrB-5 und GrB-T zu erleichtern, wurden in der vorliegenden Arbeit Möglichkeiten für eine Optimierung der Expression dieser Fusionsproteine in Hefe untersucht. Dazu wurde eine Strategie entwickelt, die auf der Beobachtung beruht, daß die Löslichkeit und Stabilität von Proteinen durch Fusion mit solchen Domänen erhöht werden kann, die selbst eine hohe Löslichkeit und Stabilität besitzen. Ein Protein mit diesen Eigenschaften ist das Maltose Bindungsprotein (MBP) aus E. coli. In dieser Arbeit wurde MBP bei der Expression rekombinanter Proteine in P. pastoris eingesetzt, um die Ausbeute löslicher Proteine zu steigern. Es wurde eine Strategie entwickelt, die es erlaubt, MBP posttranslational in vivo vom Fusionspartner zu trennen. Hierzu wurde eine Erkennungssequenz der Protease Furin (furS) zwischen MBP und Fusionspartner eingefügt. Zunächst wurde untersucht, ob GrB als MBP Fusionsprotein in enzymatisch aktiver Form exprimiert werden kann, was eine Grundvoraussetzung für die Expression tumorspezifischer GrB Fusionsproteine in diesem System darstellt. Die Ausbeute von GrB konnte durch diese Strategie erheblich gesteigert werden. Daneben war eine vollständige Prozessierung der Fusionsproteine innerhalb der Furin-Erkennungssequenz nachweisbar. Als MBP Fusionsprotein exprimiertes GrB wies allerdings keine enzymatische Aktivität auf. Weitere Untersuchungen zeigten, daß das terminale Serin der furS-Sequenz, das nach Spaltung durch Furin am N-Terminus von GrB zurückbleibt, die enzymatische Aktivität der Serinprotease inhibiert. Im Rahmen dieser Arbeit wurde daher nicht weiter versucht, die Ausbeute an tumorspezifischen GrB Fusionsproteinen durch Fusion mit löslichen Proteindomänen zu erhöhen. Für Proteine, die ein N-terminales Serin tolerieren, stellt das hier entwickelte System allerdings eine neuartige Strategie dar, um die Ausbeute in P. pastoris um ein Vielfaches zu steigern. Dies wurde anhand von rekombinantem ErbB2 als Modellprotein bestätigt. Als alternativer Effektor in tumorspezifischen Fusionsproteinen wurde AIF als caspasenunabhängig agierendes proapoptotisches Signalmolekül eingesetzt. In apoptotischen Zellen bewirkt die Freisetzung von AIF aus dem mitochondrialen Intermembranraum die nachfolgende Translokation des Proteins in den Zellkern, woraufhin DNA-Fragmentierung induziert wird. Zum Einschleusen von AIF in Tumorzellen wurde das Flavoprotein mit dem scFv(FRP5) fusioniert (5-AIF). Um eine cytosolische Translokation von AIF zu erreichen, wurde ein Konstrukt abgeleitet, das zusätzlich die Translokationsdomäne von Exotoxin A enthält (5-E-AIF). Diese Domäne ist beim Wildtyp-Toxin notwendig für dessen retrograden Transport vom Endosom über den Golgi Apparat und das ER in das Cytosol. Innerhalb der Translokationsdomäne findet zudem eine Prozessierung durch die endosomale Protease Furin statt. AIF Fusionsproteine wurden in E. coli exprimiert, gereinigt und renaturiert. Die Proteine wiesen Affinität für ErbB2 auf und interagierten mit DNA, eine Eigenschaft, die essentiell für die proapoptotische Aktivität von AIF ist. 5-E-AIF zeigte gegenüber ErbB2 exprimierenden Zellen cytotoxische Aktivität, die vergleichbar mit der des Immuntoxins scFv(FRP5)-ETA war. Diese Aktivität war allerdings nur in Gegenwart von Chloroquin gegeben. Das Protein 5-AIF, in dem die Translokationsdomäne fehlt, zeigte auch in Kombination mit Chloroquin keine Cytotoxizität. Eine mögliche Folgerung hieraus ist, daß die N-terminale Antikörperdomäne der Fusionsproteine die proapoptotische Aktivität der AIF Domäne blockiert. 5-E-A wird sehr wahrscheinlich durch die endosomale Protease Furin „aktiviert“, die den scFv(FRP5) durch proteolytische Spaltung innerhalb der ETA-Domäne entfernt haben könnte. Für die eigentliche Translokation reicht der ETA-Anteil allerdings nicht aus, wahrscheinlich, weil in dem hier abgeleiteten Konstrukt ein für die Funktionsweise des Wildtyp-Toxins essentielles ER Retentionssignal fehlte. Die Ergebnisse dieser Arbeit zeigen, daß durch Einsatz apoptotischer Signalmoleküle in tumorzellspezifischen Fusionsproteinen hohe und selektive cytotoxische Aktivitäten erzielt werden können. Eine weitere Entwicklung dieser Proteine als mögliche Tumortherapeutika erscheint daher sinnvoll.
The melibiose permease (MelB) of E.coli functions as a secondary-active symporter by using the electrochemical H+, Na+, or Li+ gradient to accumulate, e.g., melibiose [review in Pourcher et al. 1990a]. The global and primary objective of this thesis was to apply pre-steady state methods for the investigation of reaction rates of individual steps in the cycle of MelB. Especially the melibiose binding induced transition was investigated by the solid-supported membrane (SSM) technique [Seifert et al. 1993] in combination with a rapid solution exchange system [Pintchovius and Fendler 1999] and with the Stopped-flow technique [Roughton 1934]. To approach this goal, either wild-type or mutated MelB were purified and reconstituted into liposomes as described [Pourcher et al. 1995]. Although the orientation of the proteins is a critical factor for the activity of MelB, it was, so far, unknown. To determine the orientation of the proteins in the liposomes, single Cys mutants R139C and R141C [Abdel-Dayem et al. 2003] were selectively labeled with 3-(N-maleimidylpropionyl)biocytin (MPB) and analyzed by SDS-PAGE and Western Blot. The assay indicated that most of the proteins are inside-out (ISO) oriented permitting to relate the pre-steady state electrical and fluorescence signals to the reverse transport activity of MelB. The melibiose induced electrical signal was investigated in wild-type MelB with the SSM technique. The transporter was activated by a substrate concentration jump, and transient currents were measured. When the transporter was preincubated with Na+ at saturating concentrations, a charge translocation in the protein upon melibiose binding could still be observed. This result demonstrates that binding of the uncharged substrate melibiose triggers a charge displacement in the protein. Further analysis showed that the charge displacement is neither related to extra Na+ binding to the transporter, nor to the displacement of already bound Na+ within MelB. Electrogenic melibiose binding is explained by a conformational change with concomitant displacement of charged amino acid side chains and/or a reorientation of helix dipoles. A kinetic model is suggested, in which Na+ and melibiose binding are distinct electrogenic processes associated with approximately the same charge displacement. Melibiose binding is fast in the presence of Na+ (k > 50 s-1). Furthermore, two previously identified transport deficient mutants of loop 4-5, R141C and E142C [Abdel-Dayem et al. 2002, Séry 2002], were purified and extensively studied with the SSM. Whereas the electrical signals from control cysteine-less mutant showed a bi-exponential time course of decay, those from R141C or E142C consisted of only a single fast exponential component, and the slow decaying component associated with substrate translocation was missing. The electrical signals evoked by a melibiose concentration jump in the presence of Na+ were much smaller than the corresponding signals in C-less MelB. Furthermore, R141C lost the stimulating effect of melibiose on Na+ binding. Steady-state Trp fluorescence spectroscopy revealed impaired conformational changes after melibiose binding in the mutants and fluorescence resonance energy transfer (FRET) measurements indicated that the mutants still show cooperative modification of their sugar binding sites by Na+. These data suggest that loop 4-5 contributes to the coordinated interactions between the ion- and sugar binding site and participates in conformational changes after melibiose binding that are essential for the subsequent obligatory coupled translocation of substrates. By using the Stopped-flow technique, three different approaches were followed. First, the intrinsic Trp fluorescence of MelB, known to increase upon melibiose binding [Mus-Veteau et al. 1995], revealed a signal with a T 1 of ~15 ms in C-less. This time constant is of the same order of magnitude as that determined with the SSM method suggesting that Trp fluorescence and electrical signal are related processes. Conformation for this assumption came from the fact that the activation energies Ea for both processes are similar (around 45 KJ/mol). Second, by using the fluorescent sugar analog Dns2-S-Gal, which monitors events close to the sugar binding site [Maehrel et al. 1998], a signal with a T 1 of ~18 ms was recorded upon Na+ addition. Finally, the fluorescent dye MIANS was used to selectively label the single Cys mutant E365C of loop 10-11. Stopped-flow measurements revealed a melibiose-induced fluorescent signal with a T 1 of 45 ms. Since electrical measurements with the MIANS-labeled E365C excluded the possibility that the label is responsible for the slower kinetics, the conformational change detected by the MIANS fluorescence was assigned to a slow transition in the cycle of MelB after melibiose binding. Ea was determined to be 96 KJ/mol corroborating, thus, the hypothesis of a different process. In conclusion, it was possible to correlate the electrical and fluorescence signals to partial reactions of the transport cycle and to determine their rate constants. According to this new model, the melibiose-induced signal detected with the Trp and electrical measurements corresponds to a step preceding the carriers’ reorientation (3 <-> 3*, k ~ 65s-1), and the melibiose-induced signal detected with the MIANS fluorescence to the reorientation itself (3* <-> 4, k ~ 20s-1).
Das Hormon Erythropoetin (EPO) ist ein hitzestabiles Glykoprotein, welches als wesentlicher Wachstumsfaktor an der Erythropoese beteiligt ist. EPO wird sauerstoffabhängig in Leber und Niere synthetisiert. Da EPO in Zellen nicht gespeichert wird, ist seine Sekretionsrate durch die Syntheserate bestimmt. Unter Hypoxie wird über einen hypoxieinduzierbaren Faktor (HIF-1) die Transkription des EPO-Gens angeregt. Mycophenolat Mofetil (MMF) wird erfolgreich bei transplantierten Patienten als Immunsuppressivum eingesetzt. MMF ist ein nichtkompetitiver, reversibler Hemmer der Inosinmonophosphatdehydrogenase (IMPDH), die essentiell für die de novo Purinsynthese in Lymphozyten ist. MMF soll selektiv antiproliferativ auf Lymphozyten wirken, ohne einen unspezifischen knochenmarkdepressiven Effekt zu haben. Trotzdem wurden bei bis zu 15% der nierentransplantierten und nahezu der Hälfte aller herztransplantierten Patienten unter immunsuppressiver Therapie mit MMF Anämien beschrieben. Die Genese dieser Anämien ist noch unklar und könnte durch eine reduzierte EPO-Produktion unter MMF bedingt sein. In dieser Untersuchung wird deshalb der Effekt von MMF auf die EPO-Freisetzung aus HepG2-Zellen in vitro analysiert. HepG2 und Hep3B Zellen sind ein etabliertes Zellkulturmodell zur Untersuchung der Regulierung hypoxieabhängiger EPO-Sekretion. MMF vermindert zeit- und konzentrationsabhängig die mittels ELISA gemessene EPO-Konzentration im Zellüberstand von HepG2-Zellen – im Mittel etwa auf die Hälfte des Ausgangswertes (p < 0, 001). Dieser Effekt ist signifikant ab einer Konzentration von 0,1 µM MMF und maximal bei 5 µM MMF. Eine signifikante Inhibition der EPO-Sekretion war erst nach 48stündiger Inkubation mit MMF nachweisbar. Unspezifische Effekte auf Proliferation und Proteinsynthese sowie zytotoxische Effekte wurden mittels verschiedener unabhängiger Methoden weitgehend ausgeschlossen. Der Effekt von MMF auf die EPO-Sekretion konnte durch Zugabe von Guanosin aufgehoben werden, was für eine kausale Rolle der IMPDH in diesem Zusammenhang spricht. Analog zu der sezernierten EPO-Menge verminderte sich auch die Menge der gebildeten EPO-mRNA unter MMF. Zudem ist die Aktivität von HIF-1 unter MMF gemindert. Im Gegensatz zu MMF zeigen andere Immunsuppressiva wie der Purinsynthesehemmer Azathioprin und die Calcineurininhibitoren Cyclosporin A und Tacrolimus keinen spezifischen Effekt auf die EPO-Freisetzung von HepG2-Zellen. Die Ergebnisse weisen darauf hin, daß die Minderung der EPO-Sekretion im Zellkulturmodell ein Erklärungsansatz für die beobachteten Anämien unter MMF sein könnte. Eine Therapie der Anämie mittels EPO-Substitution erscheint daher sinnvoll.
Das Herz des Menschen wurde in der Geschichte lange Zeit als zentrales Organ des Körpers angesehen. Noch heute nimmt es vom emotionalen Aspekt gesehen, eine bedeutende Stellung ein. Herzerkrankungen im Kindesalter werden daher von Patienten und Angehörigen als ernsthafte Bedrohung erlebt. Acht von tausend Kindern werden mit einem Herzfehler geboren, fast 3700 Herzoperationen wurden im Jahr 2004 in der Bundesrepublik Deutschland an Kindern und Jugendlichen bis 17 Jahren durchgeführt. Aufgrund verbesserter Diagnose- und Operationsmöglichkeiten erleben heute über 90% der Kinder mit Herzfehler das Erwachsenenalter. Dieser Verbesserung der Lebensqualität und –dauer folgte eine zunehmende wissenschaftliche Betrachtung der Probleme nach Korrektur eines Herzfehlers. Neben den direkten Folgen der Erkrankung und der Operation, wurden auch die langfristigen Folgen eines operativen Eingriffes für die autonome Regulationsfähigkeit des Herzens untersucht. Ein bedeutendes Hilfsmittel hierfür stellt die Analyse, der durch das vegetative Nervensystem beeinflussten Herzfrequenzvariabilität (HRV) dar. Ein operativer Eingriff am Herzen zerstört autonome Nervenfasern und schränkt die Einflüsse des parasympathischen und sympathischen Anteiles des vegetativen Nervensystems auf das Herz ein. Die Messungen der HRV werden heute auch im Sport zur Trainingssteuerung eingesetzt. Mit ihr lassen sich Belastungseffekte, sowie regenerative Aspekte messen. In zwei Studien wurden Veränderungen der Anpassungsfähigkeit nach operierten Herzfehlern einerseits und Reaktionen des Herzens auf sportliche Belastung und Regeneration andererseits, im Rahmen dieser Dissertation analysiert. Im ersten Teil der Arbeit wurden, im Sinne einer Querschnittstudie, die Veränderungen der HRV bei Kindern und Jugendlichen im Alter zwischen 8 Monaten und 18 Jahren nach operativer Korrektur einer Transposition der großen Arterien (TGA, n = 11), eines Vorhofseptumdefektes (ASD, 13), eines Ventrikelseptumdefektes (VSD, 17), einer Fallot'schen Tetralogie (TOF, 13), eines kompletten Atrioventrikularkanales (CAVC, 5) und nach abgeschlossener Fontan-Zirkulation (totale cavopulmonale Connection, TCPC, 11) untersucht. Die Ergebnisse wurden mit denen einer geschlechts- und altersangepassten Kontrollgruppe (16) verglichen. Die Kurzzeit-HRVRegistrierungen erfolgten im Schlaf mittels Lifecard CF compact Flashcard Holter (Fa. Reynolds). Ein Schwerpunkt bei dieser Untersuchung stellte die Differenzierung zwischen Veränderungen der parasympathischen und der sympathischen Aktivität, mit Hilfe der Spektralanalyse, bei unterschiedlichen Herzfehlern dar. Hierzu wurden die Zeitbereichsparameter „mittlerer Abstand zweier R-Zacken“ (mRR), Standardabweichung (SD) und die „Quadratwurzel des quadrierten Mittelwertes der Summe aller Differenzen zwischen aufeinander folgenden RR-Intervallen“ (rMSSD), sowie die Frequenzbereichsparameter low-frequency (LF) als teilweises Pendant zur sympathischen Aktivität, high-frequency (HF) als Korrelat des parasympathischen Anteiles und total power (TP), ermittelt. Aus letzteren wurden die Quotienten der sympathovagalen Balance (LF/HF) und die normierten Frequenzbereiche (HF/TP und LF/TP) errechnet. Es konnte gezeigt werden, dass die SD (als Parameter der globalen Herzfrequenzvariabilität) bei großer interindividueller Streubreite in allen Patientengruppen gegenüber der Kontrollgruppe reduziert war. Die stärkste Reduktion im Median fand sich dabei in den Gruppen TGA und TCPC, für letztere war auch die größte Streubreite charakteristisch. In allen Patientengruppen, bis auf TGA, fand sich in der LF/HF eine Verschiebung zur sympathischen Aktivität. In einer zweiten Studie wurde bei 20 Patienten der jährlich stattfindenden Skifreizeiten für herzkranke Kinder und Jugendliche (Pädiatrische Kardiologie des Universitätsklinikums Frankfurt und Kinderherzstiftung in Herzstiftung e.V.) ein Orthostasetest zur Evaluierung der Reaktion auf Kreislaufbelastung, im Sinne einer Längsschnittstudie, zu Beginn und am Ende der einwöchigen Freizeit durchgeführt. Im Zusammenhang mit dem Ergebnis einer in der vorhergehenden Nacht, ohne störende Umwelteinflüsse, aufgezeichneten Messung, kann die adaptive Leistung des Herzens auf Kreislaufstress und die Veränderungen aufgrund sportlich-regenerativer Einflüsse während der Skiwoche bestimmt werden. Die Messungen erfolgten analog der in Studie I durchgeführten Methodik. Bei ca. 70% der Kinder zeigte sich eine Verstärkung der nächtlichen TP und eine Zunahme der HF im entsprechenden Teil des Orthostasetests. Bei 10% war es zu einer Abnahme dieser Parameter gekommen, 20% der Kinder zeigten uneinheitliche Resultate der zwei Messungen. Eine knappe Mehrheit der Kinder zeigte einen Anstieg der LF unter Orthostase. Die Ergebnisse der ersten Studie haben gezeigt, dass die Kurzzeitmessung der Herzfrequenzvariabilität in der Lage ist, Veränderungen der autonomen Regulation bei Kindern und Jugendlichen nach Herzoperation darzustellen. Dabei konnte gezeigt werden, dass Eingriffe mit Eröffnung des Vorhof- oder Kammermyokards hauptsächliche eine Reduktion der parasympathischen Aktivität, Switch-Operationen nach TGA mit Durchtrennung der großen Gefäße und Vorhoferöffnung hingegen eine gleichmäßige Reduktion beider Anteile des vegetativen Nervensystems hervorrufen. Die vorwiegende Reduktion parasympathischer Anteile der Herzfrequenzvariabilität bei verschiedenen Herzfehlern, wird in mehreren Studien beschrieben. Häufig beziehen sich diese jedoch nur auf wenige Herzfehler und ein direkter Vergleich der verschiedenen Ergebnisse dieser Studien ist durch unterschiedliche methodische Ansätze nur eingeschränkt möglich. Der Effekt einer gleichmäßigen Reduktion der Herzfrequenzvariabilität bei Patienten mit TGA wurde bisher nicht erwähnt. In der zweiten Studie konnte gezeigt werden, dass sich Veränderungen der Herzfrequenzvariabilität herzkranker Kinder und Jugendlicher während einer einwöchigen Skifreizeit darstellen lassen. Die Mehrzahl der Kinder und Jugendlichen verbesserten ihre Fähigkeit zur Bewältigung von Kreislaufstress, indem sie nach dem Übergang vom Stehen zu liegender Position eine höhere vagale Aktivität aufbauen konnten. Dieses Ergebnis wurde durch eine deutlich verstärkte nächtliche Gesamtvariabilität bestätigt. Veränderungen, die in Übereinstimmung mit der Literatur eine Verbesserung des kardialen Risikos erwarten lassen. Es ist anzunehmen, dass die Ursache für diese Verbesserung in einem multifaktoriellen Geschehen aus körperlicher Aktivität, klimatischen Einflüssen, sowie einem veränderten sozialen Umfeld zu sehen ist. Drei der Kinder zeigten reduzierte Werte am Ende der Woche, welche auf eine verstärkte Stressbelastung schließen lassen. Die Wertigkeit des kontrovers diskutierten Parameters LF bleibt auch in dieser Studie unklar, obgleich ein Trend zu einer schnelleren Adaptation des Kreislaufs beim Übergang vom Liegen zum Stehen ermittelt werden konnte. Insgesamt bestätigen die Ergebnisse der Studie II die Richtigkeit der Durchführung auch provokanter Sportarten mit herzkranken Kindern unter adäquater kardiologischsportmedizinischer Betreuung.
Im Rahmen der vorliegenden Untersuchung sollte ermittelt werden, ob Zahnpasten und Mundspüllösungen abrasive und/oder korrosive Effekte auf Bestandteile festsitzender kieferorthopädischer Apparaturen (Bänder und Brackets) ausüben, und ob diese Effekte – wenn vorhanden – eine klinische Relevanz aufweisen. Insbesondere ging es dabei um die Fragestellung, ob durch die Anwendung der getesteten Mundhygieneprodukte die Oberflächenbeschaffenheit der genannten Bestandteile einer festsitzenden kieferorthopädischen Apparatur im Sinne einer Aufrauung verändert werden würde. Zu diesem Zweck wurden 4 unterschiedliche Zahnpasten und 2 Mundspüllösungen in 2 Versuchsreihen getestet: Im ersten Versuch wurden Molarenbänder für 35 Tage in Testlösungen eingelegt und anschließend auf Veränderungen der Oberflächenbeschaffenheit untersucht. Dies erfolgte per Rasterelektronenmikroskop und Rauigkeitsmessung. Etwaige Substanzverluste sollten mit Hilfe von Gewichtsbestimmung und chemischer Analyse (TXRF-Analyse) der Testlösungen nachgewiesen werden. Im zweiten Versuch wurden Molarenbänder und Brackets in eine Putzmaschine eingespannt und für einen Zeitraum, der einer Behandlungsdauer von 3 Jahren entsprach, die tägliche Reinigung mit Zahnbürste und Zahnpasta-Wassergemisch simuliert. Mundspüllösungen kamen hierbei nicht zum Einsatz. Die Prüfkörper wurden anschließend rasterelektronenmikroskopisch untersucht und einer Rauigkeitsmessung unterzogen. Insgesamt konnte in den durchgeführten Versuchen kein negativer Einfluss der getesteten Mundhygienemittel auf kieferorthopädische Bänder bzw. Brackets im Sinne einer Aufrauung der Materialoberflächen durch korrosive oder abrasive Prozesse festgestellt werden. Die rasterelektronenmikroskopischen Aufnahmen zeigten dahingehend keinerlei sichtbare Veränderungen. Bei den Rauigkeitsmessungen war dagegen sogar ein eher positiver Einfluss – zumindest durch Zahnpastaeinwirkung – zu verzeichnen: Im Putzversuch war bei allen Bändern, bei denen Zahnpasten zum Einsatz kamen, eine Verringerung des Mittenrauwerts Ra zu erkennen, die in einer gewissen Korrelation mit dem RDA-Wert stand. Eine Erhöhung von Ra war nur bei Probe 5 (Zahnbürste ohne Zahnpasta) festzustellen. Dies spricht für einen Politureffekt der Zahnpasten, was im Sinne der Fragestellung als positiv zu bewerten ist (verminderte Plaqueanlagerung, geringere Friktion). Ein ähnlicher Effekt dürfte aufgrund der vergleichbaren Werkstoffeigenschaften auch bei metallischen Brackets zu erwarten sein. Die Oberflächenrauigkeit im Slotbereich und damit die Friktion müssten daher durch die Einwirkung von Zahnpasten ebenfalls verringert werden, so dass auch hier ein positiver Einfluss der Zahnpastenanwendung angenommen werden kann. Im Korrosionstest ermöglichten die Werte der Rauigkeitsmessungen keine definitive Aussage über einen eventuellen korrosiven Einfluss der getesteten Produkte. Dies lag daran, dass zum einen im Rahmen der Versuchsbedingungen keine exakte Reproduktion der Messpunkte möglich war, zum anderen die gemessenen Werte größtenteils innerhalb der Bandbreite fabrikneuer Bänder lagen. Eine leichte Tendenz hin zu einer Homogenisierung der Oberfläche im Sinne eines chemischen „Polishing“ kann jedoch bei 2 der 6 Proben vermutet werden. Die gravimetrische Messung sowie die Ergebnisse der TXRF-Analyse zeigen, dass es allein bei der Meridol-Mundspüllösung zu Korrosionsvorgängen gekommen ist. Ein Substanzverlust von >180 μg und der Nachweis der Legierungsbestandteile Eisen, Chrom und Nickel in der Testlösung lassen diese Aussage zu. Diese Werte sind jedoch nicht von klinischer Relevanz, da die tägliche Aufnahme von Chrom- und Nickelionen durch Nahrung, Trinkwasser und Atemluft weitaus höher ist. Untersuchungen haben ergeben, dass allein durch die Nahrung täglich je über 100 μg Chrom und Nickel aufgenommen werden [61, 64, 71]. Der Anteil, der durch Korrosion von festsitzenden kieferorthopädischen Apparaturen hinzukommen könnte, wäre dagegen verschwindend gering. Man muss beachten, dass die Versuchsbedingungen im Korrosionstest nicht denen beim täglichen Gebrauch dieser Mundhygieneprodukte entsprachen. Die Kontaktzeit der Apparatur bei sachgemäßer Anwendung der Meridol-Mundspüllösung würde bei zweimaligem täglichen Gebrauch von je 30 Sekunden in 3 Jahren ungefähr 18 Stunden betragen (2 x 30 sec x 365 Tage x 3 Jahre), während sie im Korrosionstest bei 35 Tagen lag (=840 Stunden). Eine gleichmäßige Korrosionsrate vorausgesetzt, würde dies bedeuten, dass das getestete Band in 3 Jahren statt 180 μg nur ca. 3,9 μg an Substanz verlieren würde, entsprechend einem Verlust von 0,0036 μg pro Tag. Selbst bei einer kompletten Multiband-Apparatur an 28 Zähnen würden diese Werte gegenüber der täglichen Schwermetallionenaufnahme durch Nahrung und Umwelt nicht ins Gewicht fallen. Es bleibt festzustellen, dass durch den sachgerechten täglichen Gebrauch der getesteten Mundhygieneprodukte keinerlei negativer Einfluss auf die Funktionalität der Apparaturen und auch keine gesundheitliche Gefährdung durch freigesetzte Metallpartikel befürchtet werden muss. So ist weiterhin mit Nachdruck zu fordern, dass Patienten mit festsitzenden Apparaturen nach jeder Mahlzeit eine gründliche Zahnreinigung durchführen, um das Risiko der Entstehung von Entkalkungen, bzw. kariösen Läsionen und Parodontopathien zu minimieren. Diese Schäden stellen nach wie vor die häufigsten Nebenwirkungen bei einer Behandlung mit festsitzenden Apparaturen dar und sind durch eine gute Mundhygiene vermeidbar. Die beobachteten Veränderungen bei der eingangs erwähnten Patientin (S.14, Abb.1-4) können somit nicht auf die verwendeten Mundhygienemittel zurückgeführt werden. Hier scheinen andere Faktoren, wie bspw. eine nicht ausreichende oder falsche Mundhygiene ursächlich gewesen zu sein. Zusätzlich können aber auch die Zusammensetzung des Speichels, dessen pH-Wert und Fließrate, sowie die Bakterienflora der Mundhöhle und spezielle Ernährungsgewohnheiten der Patientin als Kofaktoren eine Rolle gespielt haben. Die Klärung dieser Fragestellungen würde weitergehende Untersuchungen erfordern.
In der Literatur des 16. bis 18. Jahrhunderts finden sich sechs für eine medizinhistorische Analyse geeignete Darstellungen von operativen Eingriffen am Magen: 1521 wurde eine Magenfistel nach perforierender Stichverletzung des Magens operativ versorgt. Die Magenwunde wurde durch 4 Nähte verschlossen, die Laparotomiewunde ebenfalls vernäht. 1602 erfolgte die Entfernung eines verschluckten Messers nach gedeckter Perforation der Messerspitze in die Bauchdecke („der böhmische Messerschlucker“; Operateur: Meister Florian Matthis in Prag). Von dem Chirurgen wurde eine Inzision der Haut über der in der Bauchdecke tastbaren Messerspitze durchgeführt. 1635 wurde ein verschlucktes Messers durch Laparotomie und Gastrotomie operativ entfernt („der preußische Messerschlucker“; Operateur: Chirurg Daniel Schwabe in Königsberg/Pr.). Die Magenwunde wurde nicht genäht, es wurden nur Hautnähte angelegt. 1678 wurde eine Magenfistel nach abdomineller Schußverletzung durch ein „blechernes“ Röhrchen versorgt, das als Drainage nach außen funktionierte (Operateur: Chirurg Matthäus Gottfried Purmann [1649-1711] in Stralsund). 1692 erfolgte eine schrittweise Extraktion (über 6 Wochen) eines verschluckten Messers, das sekundär in die Bauchdecken gedeckt perforiert war („der Hallische Messerschlucker“; Operateur: Dr. med. Wolfgang Wesener in Halle). Es wurde eine Inzision des Bauchdeckenabszesses durchgeführt. 1720 wurde ein verschlucktes Messer mit einer Zange durch Laparotomie und Gastrotomie entfernt („die ermländische Messerschluckerin“; Operateure: Dr. med. Heinrich Bernhard Hübner und der Chirurg Johann Horch bei Rastenburg/Pr.). In allen publizierten Fallberichten überlebten die operierten Patienten den Eingriff. Mit Ausnahme der ältesten Operation [1521] wurden alle Berichte von den Operateuren bzw. von an der Operation direkt beteiligten Ärzten verfaßt. Die Eingriffe wurden zunächst von Handwerkschirurgen [1635, 1678], später [1692, 1720] auch von studierten Ärzten (medici) durchgeführt. Die Indikation zur Operation wurde aber immer von den akademisch ausgebildeten „Medici“ gestellt. Als Nahtmaterial wurde bei den geschilderten Operationen „Seide“ verwendet [1643,1692]. Als Instrumente werden neben „Messer“ zur Inzision der Bauchdecken bzw. des Magens, „Zangen“ [1635, 1720] und „krumme Nadeln“ [1635] erwähnt. In einem Fall wurden sogar Haltefäden zur Fixierung des Magens vor der Gastrotomie angelegt [1635]. Der Zugangsweg zur Bauchhöhle durch die einzelnen Schichten der Bauchwand wurde anatomisch begründet durchgeführt [1635, 1678, 1720]. Spezielle Angaben zur perioperativen Schmerzbehandlung werden nicht gemacht, es wurden aber verschiedene alkoholhaltige Heilpflanzenextrakte („innerlich und äußerlich Artzneyen“) angewendet [1692]. Warum wurden die Eingriffe am Magen erst Ende des 19. Jahrhunderts häufiger durchgeführt, obwohl das operative Können, das anatomische Verständnis und das dazu notwendige Instrumentarium bereits seit dem 17. Jahrhundert vorhanden gewesen sind und in mindestens sechs Einzelfällen auch erfolgreich eingesetzt wurde? Im Zeitalter der Humoralpathologie, die bis in das 19. Jahrhundert hinein die vorherrschende Krankheitstheorie in Mitteleuropa gewesen ist, hatte eine chirurgische Behandlung von „inneren“ Magenerkrankungen noch keine theoretische Begründung. Krankheiten infolge Säfteungleichgewichte lassen sich nicht operativ behandeln. Die Chirurgie beschränkte sich als „Wundarznei“ daher vorwiegend auf die Versorgung von Wunden und von Verletzungen. Dazu gehörten auch Magenverletzungen von außen (perforierende Stichverletzungen, Schußverletzungen) oder von innen (gedeckte Perforation durch das verschluckte Messer). Erst die Durchsetzung eines lokalistischen, organbezogenen Denkens („Organpathologie“, „Zellularpathologie“) in der Medizin war die entscheidende theoretische Voraussetzung für eine Chirurgie von inneren Erkrankungen. Hinzu kamen in der zweiten Hälfte des 19. Jahrhunderts ein vermehrtes Wissen über Schmerzbekämpfung (Narkose mit Chloroform oder Äther) und Antisepsis (Asepsis), die das Risiko von Wundinfektionen und Peritonitis deutlich herabsetzten.
Experimente zum radiativen Elektroneneinfang (REC, Radiative Electron Capture), der Zeitumkehrung der Photoionisation, wie er in Stößen hochgeladener, relativistischer Schwerionen mit leichten Gasatomen auftritt, ermöglicht einen einzigartigen Zugang zum Studium der Photonen-Materie-Wechselwirkung im Bereich extrem starker Coulombfeldern. So ist die REC-Strahlung im relativistischen Bereich zum einen geprägt durch das Auftreten von höheren elektrischen und magnetischen Multipolordnungen und zum anderen durch starke Retardierungseffekte. In Folge dessen wurde der REC-Prozeß in den vergangen Jahren sehr detailliert untersucht, wobei sich die experimentelle und theoretische Forschung auf die Emissionscharakteristik der REC-Photonen konzentrierte, wie z.B. auf Untersuchungen von Winkelverteilungen und Linienprofilen. Mittlerweile kann der REC-Prozeß als ein - selbst für die schwersten Ionen - wohlverstandener Effekt angesehen werden. Allerdings entzog sich den Experimenten bislang eine zur Beschreibung der Photonenmission wesentlich Größe, näamlich die Polarisation der Strahlung. Die lineare Polarisation der REC-Strahlung, wie sie in Stößen zwischen leichten Atomen und den schwersten, hochgeladenen Ionen vorhergesagt wird, war der Gegenstand der vorliegende Arbeit, in der es erstmals gelang, die diese für den konkreten Fall des Einfangs in die K-Schale von nackten Uranionen nachzuweisen und im Detail zu untersuchen. Die hierzu notwendigen experimentellen Untersuchungen erfolgten am Speicherring ESR der GSI-Darmstadt für das Stoßsystem U92+ -> N2 und für Projektilenergien, die im Bereich zwischen 98 und 400 MeV/u lagen. Besonders hervorzuheben ist der Einsatz eines segmentierten Germaniumdetektors, der speziell für den Nachweis linear polarisierter Strahlung im Energiebereich oberhalb 100 keV entwickelte wurde. Die lineare Polarisation der Strahlung wurde hierbei durch eine Analyse der Comptonstreuung innerhalb des Detektors gewonnen. Die durch eine präzise Analyse der Comptonstreuverteilungen gewonnenen Daten zeigen eine ausgeprägte lineare Polarisierung der REC-Strahlung in der Streuebene, die zudem eine starke Abhängigkeit als Funktion der Stoßenergie und des Beobachtungwinkels aufweist. Der detaillierte Vergleich mit nicht-relativistischen und relativistischen Vorhersagen ermöglichte darüberhinaus den Nachweis für das Auftreten starker relativistischer Effekte, die sich allerdings depolarisierend auswirken. Das Experiment wurde am internen Target des ESR-Speicherrings durchgeführt, wobei der Photonennachweis mittels mehrerer Ge(i)-Detektoren erfolgte, die die Ionen-Target-Wechselwirkungszone unter Beobachtungswinkeln zwischen nahe Null und 150 Grad einsahen. Alle Photonendetektoren wurden in Koinizidenz mit einem Teilchendetektor betrieben, um so die volle Charakteristik des REC-Prozesses zu erfassen, also den Einfang eines Targetelektrons in die nackten Uranionen (U92+) unter Emission eines Photons. Für den Polarisationsnachweis entscheidend war der Einsatz eines Germanium-Pixel-Detektors, der abwechselnd unter den Winkeln von 60 und 90 Grad betrieben wurde. Dieser Detektor verfügt über eine 4x4 Pixelmatrix (Pixelgröße: 7x7 mm), wobei die elektronische Information jedes Pixels (Energiesignale und schnelle Zeitsignale) separat registriert und aufgezeichnet wurde. Hierdurch war es möglich Ereignisse, die koinzident in zwei Pixeln erfolgten, zu detektieren und zu analysieren. Dies ist die eigentliche Voraussetzung für den Nachweis der linearen Polarisation bei hohen Photonenenergien, bei dem die Abhängigkeit des differenziellen Wirkungsquerschnitts für Comptonstreuung von der linearen Polarisation der einfallenden Photonen ausgenutzt wird (siehe Klein-Nishina Formel Eq. 2.7). Der Nachweis der Comptonstreuung erfolgt hierbei durch die Detektion des Compton-Rückstoßelektrons (deltaE) und des gestreuten Comptonphotons (hw'), die jeweils separat, aber koinzident in zwei unterschiedlichen Segmenten des Detektors nachgewiesen werden. Hier sei betont, dass für Germanium bereits ab Photonenenergien von ca. 160 keV die Absorption der Strahlung durch den Compton-Effekt über die Photoabsorption dominiert und somit das Ausnutzen des Compton-Effekts prinzipiell eine sehr effektive Technik ist. Der Auswertung der Datenfkam wesentlich zugute, dass der Germanium-Detektor über eine im Vergleich zu Szintillations- oder Gaszählern gute Energieauflösung von ca. 1.8 keV bei 122 keV verfügt. Somit kann durch Bilden der Summenenergie hw = hw' + deltaE für koinzidente Ereignisse die Energie des einfallenden Photons (hw) rekonstruieren werden und als zwingende Bedingung dafür herangezogen werden, dass es sich bei dem Ereignis im Detektor um ein Compton-Event gehandelt hat. Für den Fall linearer Polarisation ist eine wesentliche Aussage der Klein-Nishina-Formel, dass die maximale Intensität für die Compton gestreuten Photonen senkrecht zur Polarisationsebene zu erwarten ist. Tatsächlich zeigen bereits die während des Experiments aufgenommenen Rohdaten für den Fall der untersuchten REC-Strahlung, die durch den Einfang in die K-Schale des Projektils entsteht, dass es sich hierbei um eine stark polarisierte Strahlung handelt, wobei eine erhöhte Intensität für Comptonstreuung senkrecht zur Stoßebene (für den REC-Prozeß definiert durch die Ionenstrahlachse und den Impuls des REC-Photons) festgestellt wurde (vgl. Fig. 7.3). Zur genauen qualitativen Analyse der Meßdaten wurden alle möglichen Pixelkombinationen der (4x4) Detektorgeometrie ausgewertet, wobei jedoch koinzidente Ereignisse benachbarter Segmente ausgeschlossen wurden, um den hier vorhandenenen Einfluß elektronischer Übersprecher zu eliminieren. Zudem erfolgte die Analyse der Daten unter Berücksichtigung verschiedenster Effekte, die einen Einfluß auf die Nachweiseffizienzen für die Compton gestreuten Photonen haben könnten. An prominenter Stelle ist hier die Korrektur zu nennen, die durch die Detektordicke von 1,5 cm und der Pixelgröße von 7x7 cm2 hervorgerufen wird. Zu betonen ist hier, dass für die Auswertung nur relative Effizienzen eine Rolle spielen und so der Einfluß systematischer Fehler, hervorgerufen durch Effizienzkorrekturen, stark reduziert werden konnte (für eine so gewonnene, vollständige Compton-Streuverteilung sei auf Abbildung 9.1 verwiesen, in der die Intensitätsverteilung für Compton-Streuung dargestellt ist). Es sei auch hervorgehoben, dass der Nachweis der Polarisation durch Messungen von vollständigen Compton-Intensitätverteilung im Detektor erfolgte, was das hier diskutierte Experiment wesentlich von konventionellen Polarisationsexperimenten für harte Röntgen- und gamma-Strahlung unterscheidet. Üblicherweise wird in diesen Experimenten die Comptonstreuung ausschließlich in der Reaktionsebene und senkrecht dazu nachgewiesen. Generell weisen die in der vorliegenden Arbeit gewonnen Compton-Streuverteilungen für den K-REC-Prozeß ein ausgeprägtes Maxium senkrecht zur Reaktionsebene auf und bestätigen somit den bereits aus den Rohdaten abgeleiteten Befund, dass die Polarisationsebene der KREC Strahlung in der Reaktionsebene des Stosses liegt. In der Tat kann dieser Befund für alle Energien und Beobachtungswinkel bestätigt werden, die in dem hier diskutierten Experiment verwendet wurden. Hier sei zudem darauf hingewiesen, dass es durch die Erfassung der vollständigen Compton-Streuverteilung möglich war, die Orientierung der Polarisationsebene in Bezug auf die Stoßebene mit hoher Präzision zu erfassen. So konnte z.B. bei der Stossenergie von 400 MeV/u und dem Winkel von 90 Grad, die Orientierung der Comptonstreuverteilung in Bezug auf die Stoßebene zu ph=90 Grad bestimmt werden. Dieser Befund könnte für die Planung zukünftiger Experimente zum Nachweis polarisierter Ionenstrahlen entscheidend sein, da eine Abweichung von der ph = 90 Grad Symmetrie nur durch das Vorhandensein polarisierter Teilchen erklärt werden kann. Dieser Effekt, der in neuesten theoretischen Behandlungen im Detail untersucht wurde, stellt gleichsam einen neuen Zugang zur Bestimmung des Polarisationsgrads der Projektile dar. Hierdurch wird die Stärke der hier angewandten Technik verdeutlicht, die auf dem Einsatz eines ortsempfindlichen Germanium-Pixel- Detektors beruht. Die Bestimmung des genauen Polarisationsgrades für die K-REC-Strahlung erfolgte durch eine X2-Anpassung der Klein-Nishina-Formel an die experimentellen Daten. Die hieraus resultierenden Daten zeigen für alle Strahlenergien und Beobachtungsgwinkel eine starke Polarisation von etwa 80%, wobei die experimentelle Unsicherheit im 10% Bereich liegt. Letztere ist im wesentlichen auf die statistische Genauigkeit zurückzuführen. Die Daten wurden zudem eingehend mit theoretischen Vorhersagen verglichen. Die Theorie stützt sich auf eine vollständige relativistische Beschreibung des REC-Prozesses unter Verwendung exakter Wellenfunktionen für das Kontinuum und den 1s Zustand in wasserstoffartigem Uran. Typischer weise mußten bei den Rechnungen sowohl elektrische wie auch magnetische Multipolterme bis hin zu L=20 verwendet werden, um Konvergenz zu erreichen. Der Vergleich zeigt eine hervorragende Übereinstimmung zwischen Experiment und Theorie. Zudem verdeutlicht der Vergleich mit der ebenfalls diskutierten Vorhersage der nicht-relativistischen Dipolnäherung die Bedeutung relativistischer Effekte (vor allem das Auftreten höherer elektrischer und magnetischer Multipole), die für die Emission der REC-Strahlung bei hohen, relativistischen Energien und hohem Z charakteristisch sind. Offensichtlich wirken sich diese Effekte stark depolarisierend aus. Dass in der Tat eine Zunahme der depolarisierenden Effekte mit einer Zunahme der Strahlenergie verbunden ist, wird auch durch die Daten dokumentiert, die für den Beobachtungswinkel von 60 Grad als Funktion des Projektilenergie untersucht wurden. Die in der vorliegenden Arbeit gewonnenen Resultate für die Polarisation der REC-Strahlung ebenso wie die neuartige Experimenttechnik, die hierbei zum Einsatz kam, lassen für die nahe Zukunft eine Serie von weiteren Polarisations-Experimenten erwarten. Hierbei könnte der REC-Strahlung und deren Polarisation als Mittel zur Diagnostik und zum Nachweis des Polarisationsgrades gespeicherter Ionenstrahlen eine Schlüsselrolle zukommen. Als Detektorsysteme werden hierzu zwei-dimensionale Germanium- und Silizium-Streifen-Detektoren zum Einsatz kommen bzw. Kombinationen aus zweidimensionalen Silizium- und Germanium-Detektoren, sogenannte Compton-Teleskope. Diese Compton-Polarimeter, die gegenwärtig für neue Experimentvorhaben am ESR-Speicherring entwickelt werden, verfügen über eine wesentlich verbesserte Ortsauflösung (z.B. 1x1 mm2) und somit über eine wesentlich gesteigerte Nachweiseffizienz für die Comptonstreuung (ein bis zwei Größenordnungen). Hierdurch sollte es möglich sein, den für Polarisationexerperimente zugänglichen Energiebereich wesentlich auszudehnen, sodass selbst die charakteristische Strahlung der Schwerionen (ca. 50 bis 100 keV) für solche Experimente zugänglich wird.
Als Voraussetzung für die experimentellen Arbeiten wurde am Mineralogischen Institut in Frankfurt eine Hochdruckpresse mit einer Multi-Anvil-Apparatur vom Walker-Typ aufgebaut und kalibriert. Diese Arbeiten nahmen einen beträchtlichen Teil der Promotionszeit ein. In einer Reihe von Hochdruck-Experimenten wurde dann die maximale Löslichkeit von Aluminium und den Seltenerd-Elementen Lanthan, Gadolinium und Lutetium in den Phasen des CaSiO3-Systems im Druckbereich zwischen 2.0 und 13.0 GPa untersucht. Unsere Experimente ergaben eine Zunahme der maximalen Löslichkeit mit steigendem Druck, von Wollastonit über Ca-Walstromit, Larnit + Si-Titanit bis Ca-Perowskit. Ca-Perowskit zeigt extrem hohe SEE-Konzentrationen mit einem Maximum bei den mittleren SEE. In den anderen Phasen nimmt die Löslichkeit mit zunehmender Kompatibilität der SEE zu. Innerhalb der Stabilitätsfelder zeigte sich keine signifikante Druck- oder Temperatur-Abhängigkeit der maximalen Löslichkeit. Anhand der Mikrosonden-Analysen konnte gezeigt werden, dass der Einbau von Al und SEE in Ca-Walstromit nicht über eine gekoppelte Substitution erfolgt, sondern wahrscheinlich über eine Defektstruktur. Dies deckt sich mit unseren TEM-Untersuchungen an diesen synthetischen Produkten, die eine hohe Dichte an planaren Baufehlern mit leicht erhöhten SEE-Konzentrationen ergaben. In allen Ca-Silikat-Phasen lag die maximale Löslichkeit der Seltenen Erden höher als die Konzentration in natürlichen Proben. Damit steht fest, dass die in Einschlüssen gemessenen SEE-Gehalte „primär“ sind und sich nicht durch etwaige Entmischungen im Zuge einer Anpassung der Kristallstruktur an die veränderten P,T-Bedingungen verändert haben. Entmischungen in Form einer SEE-reichen Phase würden eine an LSEE extrem angereicherte Quelle voraussetzen. Ein Vergleich unserer Subsolidus-Experimente mit CaSiO3-Einschlüssen in Diamanten aus Guinea zeigt, dass einige mit bis zu 0.13 Gew.% Al2O3 an Aluminium gesättigt sind. Diese Tatsache ist besonders interessant bei der Interpretation Alhaltiger Einschlussphasen. Neben absoluten Spurenelement-Konzentrationen sind Verteilungskoeffizienten äußerst wertvolle Hilfsmittel bei der Bewertung natürlicher Proben. Die in der Literatur bestehenden Datensätze wurden mit unseren Kristall/Schmelz-Verteilungskoeffizienten bzw. Verteilungskoeffizienten zwischen Ca-Silikatphasen erweitert. Verteilungskoeffizienten der Seltenerd-Elemente zwischen Ca-Walstromit und Karbonat sind um eine Größenordnung höher als Ca-Walstromit/Schmelz-Verteilungskoeffizienten und zeigen eine größere Steigung zwischen den MSEE und den SSEE (Lu/Gd). Die Seltenen Erden verhalten sich sowohl in Larnit als auch in Si-Titanit inkompatibel, wobei DX/L La für Larnit etwa 0.1 und für CaSi2O5 etwa 0.002 ist, d.h. auch, dass die LSEE im Vergleich zu Si-Titanit bevorzugt in Larnit eingebaut werden. Al verhält sich in Si-Titanit Zusammenfassung 147 kompatibel (DX/LAl=4) und in Larnit leicht inkompatibel. Diese Ergebnisse decken sich mit Analysen an natürlichen Proben. Die SEE-Verteilungskoeffizienten zwischen Ca-Perowskit und Schmelze liegen mit Ausnahme von La über eins und zeigen in Übereinstimmung mit Literaturdaten ein Maximum bei Gd. Für Granat konnte gezeigt werden, dass der Einbau der SEE und Si in MgO-haltigen Kristallen in Abhängigkeit von Druck und Startzusammensetzung über eine Ca SEE2 Mg2 Si3O12- Komponente bzw. über eine Ca3 MgSi Si3O12-Komponente mit 6-fach koordiniertem Silizium erfolgt. In zahlreichen Experimenten kristallisierte eine neue Ca-SEE-Silikat-Phase mit Feldspat-Stöchiometrie. Dabei handelt es sich offenbar um ein Mischkristallsystem mit einem Endglied, in das vorwiegend die leichten SEE eingebaut werden und in einem zweiten mit vorwiegend schweren SEE. Ab einem Druck von etwa 10.0 GPa trennt ein Solvus die beiden Endglieder voneinander. In der Literatur ist bisher nur ein CaLa2Si2O8-Endglied beschrieben worden. In einigen Experimenten mit P und Li wurde zusätzlich untersucht, ob diese Elemente zur Rekonstruktion der Bildungsbedingungen von Diamanten verwendet werden können. Dabei zeigte sich, dass die max. Löslichkeit von Li in CaSiO3 näher an den natürlichen Probenzusammensetzungen liegt und damit möglicherweise Potential für die Rekonstruktion von Bildungsbedingungen hat. In einem weiteren Teil dieser Arbeit wurde die Kinetik retrograder Reaktionen im CaSiO3-System untersucht. Die für die In-Situ-Experimente mit Synchrotron-Strahlung notwendigen Versuchsaufbauten wurden von uns entwickelt und die entsprechenden Entwicklungsschritte und technischen Probleme ausführlich beschrieben. Anhand von Entlastungsexperimenten wurden die Disproportionierung von Ca-Perowskit zu Larnit + Si-Titanit und die Rekombination zu Ca-Walstromit bei unterschiedlichen Temperaturen und unter dem Einfluss von Wasser untersucht. Aufgrund der wenigen verwertbaren Daten, die uns vorliegen, konnten zwar keine Aktivierungsenergien berechnet werden, es sind aber aufgrund unser Beobachtungen folgende Feststellungen zu treffen: Die Reaktion von Ca-Perowskit zu Larnit + Si-Titanit erfolgt bei gleicher Temperatur offenbar um Größenordnungen schneller als die sich bei niedrigen Drucken anschließende Rekombination zu Ca-Walstromit. Dies deckt sich mit Beobachtungen an natürlichen Proben, bei denen Larnit und Si-Titanit teilweise unvollständig zu Ca-Walstromit reagierten. Dadurch erscheint es eher unwahrscheinlich, dass amorphes CaSiO3 in Diamanten ein direktes Umwandlungsprodukt von Ca-Perowskit ist. Aber auch für die in der Literatur beschriebene Amorphisierung von Ca-Walstromit-Einschlüssen (Stachel 2000) noch innerhalb des umgebenden Diamanten ließ sich durch unsere In-Situ-Entlastungsexperimente nicht stützen. Eine Amorphisierung von Ca-Walstromit beobachteten wir nur bei einer Untersuchung am TEM, wo die Phase sehr instabil war und selbst in einem Kryohalter rasch unter dem Einfluss der Elektronenstrahls amorphisierte. Die Beugungs-Spektren, die nach einer Druckentlastung im Ca-Walstromit-Stabilitätsfeld aufgenommen wurden, unterschieden sich trotz der CaSiO3-Chemie der neu gebildeten Phase deutlich von unseren Ca-Walstromit-Referenz-Spektren, so dass die Umwandlung möglicherweise über eine metastabile Zwischenstufe erfolgt. Vor dem Hintergrund von unterschiedlichen, in der Literatur beschriebenen Strukturtypen von Ca-Walstromit wäre eine systematische Untersuchung der Struktur innerhalb des gesamten Stabilitätsfeldes wichtig.
The development of a drug product, beginning with the synthesis of the drug substance through approval for marketing, may take up to 15 years and a total amount of investment of up to half a billion Euro. After the discovery of a potential drug substance, many different investigations have to be performed: e.g. characterization of the physical-chemical properties, the pharmacological and toxicological profile and, especially relevant for this work, the development of the first dosage forms. After achieving these steps, first investigations in human studies can be carried out. After a positive assessment of the benefit to risk ratio, further investigations, such as food effects on the pharmacokinetics, multiple dosing studies and further studies on patients can be implemented. After successfully completing this second part the new drug product can be approved. With broader clinical experience it often becomes apparent that changes in relevant aspects of the formulation of the registered drug product e.g. excipients, concentration of the drug substance or excipient versus drug substance ratio, are necessary to optimise the therapy. This often leads to additional clinical investigations and a new registration, a procedure which is time and cost intensive. A possible way to reduce the financial and time investments, is to establish an appropriate in vivo- in vitro correlation (IVIVC). If it is possible to predict the in vivo performance of a drug product adequately with in vitro methods (dissolutions tests), it will no longer be necessary to perform additional clinical investigations. In this work, IVIVCs were investigated for three different drug substances and several different types of formulations.... ...Results of this work clearly show that successful IVIVCs can be achieved for the fasted state using biorelevant dissolution media. A prerequisite of achieving a good IVIVC is the availability of in vivo data of a reference product (i.v., oral solution or IR) tested within the same group of volunteers as the product of interest. Only with this procedure, one can obtain adequate IVIVCs for drug substances with high inter-individual variability of the plasma concentrations and with high first-pass metabolism. This work also shows that predictions of the in vivo behavior of a modified release dosage form after administration with a high fat meal are more difficult to obtain. This is mainly related to an absence of a medium, which could mimic the situation of the fed stomach adequately. Ensure plus®, which was chosen in this work, failed to simulate the fed stomach adequately in several cases; it suppressed the release of rosiglitazone from lipid formulations and led to rapid disruption of the HPMC-matrix of the 5-ISMN Geomatrix formulations. Future work should be directed towards optimization of the test media in the BioDis apparatus. This work clearly shows the inability of Ensure plus® to predict the in vivo performance of a drug under fed state conditions and indicates that alternative media must be developed. It is known that the pH of the stomach rises up to six after the intake of a meal. During the following hours the pH decreases until reaching the baseline value of approximately 1.8. One possibility of simulating the fed state stomach more precisely will be to divide the overall residence time into 4 different parts: 1. half a hour at pH 6 2. half a hour at pH 4 3. one hour at pH 3 4. two hours at pH 1.8 Another option is not only to modify the pH of the medium, but also to change its composition. During the decomposition of the food contents, the composition of the gastric juice changes, the ionic strength, the buffer capacity and the osmolarity rises, while the pH value decreases. A third possibility will be the addition of enzymes, mainly pepsin, lipases and amylases. Again, the quantity of the enzymes differs during the residence time of the food in the stomach. Highest quantities are expected in the first two hours after food intake and decreases in the remaining two hours. Another issue of this work was an assessment of the two dissolution apparatus, Paddle and BioDis. In general, the choice of the dissolution apparatus should be done primarily with respect to the solubility behavior of the drug substance. For high soluble drugs the USP apparatus II, Paddle, is sufficient (e.g. diltiazem or 5-ISMN). In cases of a poorly soluble drug (rosiglitazone), where the release strongly depends on the medium used, the USP apparatus III (BioDis) is favored, due to the advantage of simulating the GI-tract with a gradient of different dissolution media, each simulating one part of the GI-tract. In summary, the results of this work indicate that it is acurrently possible to predict fasted state behavior of a variety of controlled release products using in vitro tests. Prognoses was also made in terms of predicting food effects on the behavior of controlled release products, although it is clear that the media compositions will have to be revised to establish releiable predictive methods for the fed state.
Since its recognition as an endothelium-derived relaxing factor, the control and consequences of nitric oxide (NO) production have been investigated intensely. We know now that NO is not simply a vasodilator or regulator of smooth muscle tone but is a potent anti-platelet agent, neuromodulator and regulator of gene expression. NO is synthesized from the amino acid Larginine by a family of enzymes termed NO synthases (NOS). The ‘endothelial’ (eNOS or NOS III) and ‘neuronal’ (nNOS, NOS I or bNOS) NOS isoforms, which were named after the tissues in which they were first identified, are expressed constitutively and are generally regulated by Ca2+/calmodulin (CaM). Endothelium-derived NO is thought to be responsible for maintaining the vasculature in an anti-atherosclerotic state and a decrease in the bioavailability of NO (a state generally referred to as endothelial dysfunction) results in “proatherosclerotic” alterations in vascular gene expression. Recently it has become clear that the activity of eNOS is largely determined by its association with regulatory proteins as well as by the phosphorylation of the enzyme on serine, threonine and possibly tyrosine residues. Moreover, the enzyme can be “uncoupled” i.e. transformed from a NO generating to a superoxide (O2-)-generating enzyme, which would be expected to attenuate vasodilator responses and enhance vascular inflammation. The aim of this thesis was to study the consequences of phosphorylation on specific serine, threonine and tyrosine residues on the activity and intracellular localisation of eNOS and in particular to determine whether a phospho-switch for eNOS uncoupling exists. eNOS is phosphorylated under basal conditions and its serine phosphorylation can be enhanced following cell stimulation with hemodynamic stimuli such as cyclic stretch and fluid shear stress as well as by hormonal stimuli such as histamine and bradykinin. Our group has previously demonstrated the importance of Ser1177 in the activation of eNOS and here I set out to determine the relative importance of phosphorylation on Ser633 and Ser114. By generating point mutants in which serine was replaced by either alanine (nonphosphorylatable mutants) or aspartate (phosphomimetic mutants) it was observed that the activity of the S633D and S114A eNOS mutants exhibited an 2-fold increase over the activity of the wild-type enzyme or either of the S633/634A or S114D eNOS mutants as determined by monitoring the conversion of L-arginine to L-citrulline. eNOS is basally phosphorylated on Thr495 and stimulation of endothelial cells with Ca2+-elevating agonists generally results in the transient dephosphorylation of this residue. The latter is essential to allow the binding of calmodulin to the enzyme and is the actually initiating step in the generation of NO. Correspondingly, the T495A eNOS mutant can be activated at lower Ca2+ and calmodulin concentrations than the T495D mutant. However, some eNOS mutants (T494A/S1177D and T495A) showed an enhanced ability to generate O2- in a NOS inhibitor-sensitive manner suggesting that the phosphorylation of the enzyme may also play a role in the uncoupling process. To determine the physiological relevance of eNOS dephosphorylation on Thr495 we assessed the consequences of treating cells with oxidised low-density lipoprotein (ox-LDL) on eNOS phosphorylation as well as on the eNOS-dependent generation of NO and O2-. Oxidised LDL concentration- and time-dependently decreased phosphorylation of eNOS on Thr495 and led to a concomitant decrease in cellular levels of cyclic GMP and an enhanced production of O2 - compared to cells treated with native LDL. Alterations in the activity of protein kinase C (PKC) were related to the change in eNOS Thr495 phosphorylation. There was not only the basal activity of PKCα inhibited by ox-LDL but the PKC activator phorbol-12-myristate-13-acetate also failed to elicit the phosphorylation of Thr495 in ox-LDL-treated endothelial cells. The dephosphorylation of eNOS on Thr495 in response to the addition of ox-LDL was not associated with an increase in the binding of calmodulin to eNOS, an association usually necessary for the activation of eNOS. Moreover, following treatment with ox-LDL for 24 hours eNOS was no longer detected at the plasma membrane but was redistributed to the cytosol indicating that ox-LDL may disrupt the eNOS signalling complex or signalosome. To date the role played by the tyrosine phosphorylation of eNOS in the regulation of its activity or intracellular association is controversial. However, during the preparation of this thesis we have been able to demonstrate a link between the tyrosine phosphorylation of eNO and the activation of the tyrosine kinases Src and PYK2. The application of fluid shear stress to endothelial cells resulted in the activation of Src and PYK2 as well as in the association of PYK2 with eNOS. Co-expression of eNOS and PYK2 led to the putative identification of Tyr657 as a potential modulatory site. Mutating eNOS at Tyr657 to Asp or Glu resulted in the localisation of the mutant eNOS predominantly in the cytoskeleton and also in a complete inactivation of the enzyme. The Y657F mutants, on the other hand, did not demonstrate any marked alteration in the activity when compared with the wild-type eNOS. However, the In conclusion, the results describe in this thesis indicate that eNOS is regulated by phosphorylation at multiple sites. Depending on the phosphorylation site involved phosphorylation can inhibit or activate NO production or even uncouple the enzyme so that it generates O2-. While the phosphor-status of eNOS on Ser114 and Ser633 influenced NO release they did not contribute to O2 - production and the dephosphorylation of Thr495 seems sufficient to uncouple eNOS. Cell treatment with ox-LDL, which is known to increase eNOS-derived O2- output was correlated with a dephosphorylation of Thr495 as well as a decrease in the activity of the kinase that phosphorylates this site i.e., PKCα. The phosphorylation status of all the eNOS serine and threonine residues studied however did not influence the ability of the enzyme to dimerise, indicating that contrary to previously published reports the eNOS dimer is highly stable in endothelial cells. The tyrosine phosphorylation of eNOS was not initially expected to play a determinant role in the regulation but rather to facilitate the docking of associated regulatory proteins. However, Tyr657 seems to play a critical role in the generation of NO as its mutation resulted in the generation of a completely inactive enzyme as well as in an apparent intracellular mislocalisation of the protein. The physiological relevance of these findings remain to be further elucidated.
Während seiner mittlerweile über 30jährigen Auseinandersetzung mit dem Porträt gelangte Vollrad Kutscher zu der Erkenntnis, dass es unmöglich ist, in unserer Zeit ein gültiges Bild von sich selbst und in der Folge von anderen zu erstellen. Dass Kutscher dennoch immer wieder Porträts herstellt, zeigt einen Widerspruch auf, der sich leitmotivisch durch die Arbeiten zieht und in ihnen selbst formal manifestiert ist. ...
Qualitatives Denken : John Deweys Erfahrungsbegriff zwischen Erkenntnislehre und Kunsttheorie
(2005)
Inhalt: Vorwort S. 4 Einleitung: John Deweys Radikalität. Eine Erinnerung S. 10 Erstes Kapitel: Implosionen des Empirismus 1.1 Rorty als Apologet und Kritiker Deweys S. 42 1.2 Darwin als Anstoß der Philosophie S. 58 1.3 Die Naturalisierung der menschlichen Intelligenz S. 64 1.4 Brandoms Pragmatismus: Phänomenalismus in Bezug auf Wahrheit S. 75 1.5 Peirce und Dewey als Antipoden? S. 85 Zweites Kapitel: Der Mythos des Gegebenen 2.1 Sellars’ Attacke gegen den Empirismus S. 93 2.2 Inferentialismus und Handlungstheorie S. 101 2.3 Common Sense als Kritik S. 105 Drittes Kapitel: Nach dem Ende der Gewißheit 3.1 Der Dualismus von Theorie und Praxis S. 112 3.2 Raum der Gründe und Raum der Handlungen S. 116 3.3 Qualitatives Denken S. 127 Viertes Kapitel: McDowell und Dewey über Erfahrung und Natur Zur Rehabilitierung des Erfahrungsbegriffs S. 145 4.1 Kohärenz und Kausalität in Davidsons Kritik des Empirismus S. 151 4.2 Die Konstruktion der zweiten Natur S. 160 4.3 Physiologie des Verstehens: Deweys Kritik am Behaviorismus S. 168 Fünftes Kapitel: Erfahrung als Kunst 5.1 Erfahrungen und eine Erfahrung S. 185 5.2 Die kommunikative Dimension expressiven S. 198 Verhaltens 5.3 Hermeneutische Aspekte einer expressiven Theorie der Erfahrung S. 212 Literaturnachweis S. 233 Lebenslauf S. 240 Erklärung S. 242
Die vorliegende Studie richtet ihr Augenmerk auf die Diagnostik bzw. den Nachweis der Masern-Immunität. Es werden zwei anerkannte Testmethoden miteinander verglichen. Dabei geht es um den Masern-Virus-Neutralisationstest (NT) als „Goldstandard“ der Diagnostik und den Anti-Masern-Virus-IgG-Enzymimmunoassay (EIA). Eine Korrelationsuntersuchung wurde anhand von 199 Proben eines ausgewählten Patientenkollektivs und von 437 Plasmapoolproben durchgeführt. Dabei wiesen beide Kollektive deutliche Unterschiede bezüglich der Korrelation zwischen Masern-Virus-Neutralisationstest und Anti-Masern-Virus-IgG-Enzymimmunoassay auf. Die 199 Patientenseren zeigten einen höheren Korrelationskoeffizient von rho=0,86 als die Daten der insgesamt 437 Plasmapoolproben rho=0,56. Obwohl die Ergebnisse der beiden Testverfahren positiv miteinander korrelieren, ist eine eindeutige Zuordnung der Werte nicht möglich. Nach Errechnung der Inter-Rater-Reliabilität, die eine gute Übereinstimmung bei den Daten des Patientenkollektivs aufwies, wird deutlich dass eine Unterscheidung zwischen qualitativer und quantitativer Auswertung sinnvoll ist. Außerdem wurde zusätzlich noch eine computergestützte epidemiologische Untersuchung von insgesamt 1.717 Masern-IgG Befunden des Instituts für Medizinische Virologie Frankfurt aus dem Zeitraum vom 01.01.2001 bis zum 30.11.2004 durchgeführt. Die Ergebnisse des Enzymimmunoassays wurden zur Ermittlung der altersspezifischen durchschnittlichen Anti-Masern-Virus-IgG-Titer, der Masern-Antikörper-Prävalenz sowie der Gesamtschutzraten herangezogen und spiegeln die Masern-Immunität im Raum Rhein-Main wider.
Bei dieser Arbeit handelt es sich um eine retrospektive, klinische Studie, die die Bedeutung prognostischer Faktoren beim Morbus Hodgkin behandelt. Das Patientenkollekiv umfasst 136 Patienten, die an Morbus Hodgkin erkrankt sind. Mittels der bisher verwendeten und damals etablierten Risikofaktoren und der Stadienklassifikation nach Ann Arbor erfolgte eine prognostische Einteilung, anhand deren das jeweilige Chemotherapieprotokoll festgelegt worden ist. Zunächst wurden die Patienten anhand ihrer Risikofaktoren in zwei Gruppen untergliedert, die prognostisch günstigere, EBOEP I-Gruppe und die prognostisch ungünstigere EBOEP II-Gruppe. Nach Einführung des EEP-Protokolls wurde eine dritte Patientengruppe gebildet, die sich, genau wie die EBOEP I-Gruppe, in einem günstigen Stadium befand und nun nach dem EEP-Schema behandelt wurde. Der Vergleich der prognostischen Einteilung nach den Risikofaktoren mit dem neu entwickelten prognostischen Index nach Hasenclever et. al führte zu einem überraschenden Resultat. Nach der alten Einteilung anhand der Risikofaktoren zeigen beide EBOEP-Gruppen nahezu gleiche Ergebnisse mit 2,16 und 2,59 Risikofaktoren pro Patient für EBOEP I und EBEOP II. Die EEP-Patienten haben ein günstigeres Ergebnis mit 1,17 Risikofaktoren pro Patient. Verwendet man den neuen geprüften Prognostischen Index zur Einteilung derselben Patienten, erhält man andere Werte. Hierbei zeigen die Patienten der EBOEP I- und der EEP-Gruppe ähnliche prognostische Eigenschaften mit einem prognostischen Index pro Patient mit 1,48 bzw. 1,43 für die jeweiligen Gruppen. Betrachtet man sich nun das rezidivfreie Überleben nach 5 Jahren erkennt man deutlich schlechtere Ergebnisse der EEP- im Gegensatz zur EBOEP I-Gruppe. Auch die Resultate der Überlebenswahrscheinlichkeit nach 5 Jahren ist für das EEP-Patientenkollektiv ungünstiger. Dies bedeutet, dass die vermeintlich prognostisch günstigere Patientengruppe schlechtere posttherapeutische Ergebnisse zeigt. Der Grund dafür liegt darin, dass anhand der Einteilung nach den alten Risikofaktoren eine günstige Prognose erwartet worden ist und die Patienten eine weniger intensive Chemotherapie erhielten. Nach dem neuen prognostischen Index jedoch zeigten die Patienten der EEP-und der EBOEP I-Gruppe kaum Unterschiede. Die Bedeutung prognostischer Faktoren liegt darin, eine adäquate prognostische Einteilung treffen zu können, um die entsprechenden, der Krankheit angepassten, Therapiekonzepte anzuwenden. Weniger intensive Chemotherapien, die die Gefahren einer Zytostatika - bedingten Leukämie oder das Auftreten von Zweittumoren reduzieren, sind allerdings erstrebenswert für die Patientenkollektive mit einer gesicherten günstigen Prognose, die auch mit dieser geringer dosierten Therapie zuverlässig geheilt werden können.
Ziel: Ziel der vorliegenden klinisch-experimentellen in vitro Studie war es, die Scherhaftfestigkeit von Kompositproben an humanem Dentin, vermittelt durch zwei selbstkonditionierende Adhäsive, unter simuliertem Dentinliquorfluß zu überprüfen. Material und Methode: Die Scherhaftfestigkeitstests wurden mit insgesamt 60 humanen kariesfreien Molaren durchgeführt. Das Dentin wurde parallel zur Okklusalfläche freigelegt und aus einem Zahn jeweils eine 800 mikrom dicke Dentinscheibe geschnitten. Nach dem Polieren (600 grit SiC) wurden die Dentinadhäsive und der Kunststoff unter simuliertem Dentinliquorfluß (60 cm H2O) auf die Dentinscheiben aufgebracht. Getestet wurden die Dentinadhäsive Clearfil SE Bond (SE) und Adect (AD). In Gruppe 1 wurden beide Adhäsive laut Herstellerangaben aufgetragen, in Gruppe 2 wurde zusätzlich vorher mit Phosphorsäure geätzt. Die Proben wurden anschließend einem Thermocycling ausgesetzt (5°C/ 55°C,5000x) und die Scherhaftfestigkeitswerte mit einer Vorschubgeschwindigkeit von 5 mm/min ermittelt. Ergebnisse: Es ergaben sich keine statistisch signifikanten Unterschiede in der Scherhaftfestigkeit in den einzelnen Präparategruppen. Die Mittelwerte für SE und AD nach Anwendung laut Herstellerangaben lagen bei 7 bzw. 6 MPa und unterschieden sich nicht signifikant. Mit vorheriger Phosphorsäureätzung beliefen sich die Werte bei SE auf 6 MPa und bei AD auf 6,8 MPa. Schlussfolgerung: In der vorliegenden Untersuchung konnte gezeigt werden, daß mit SE und AD vergleichbare Verbundfestigkeitswerte erreicht werden können. Eine zusätzliche Phosphorsäureätzung des Dentins veränderte die Haftfestigkeit nicht signifikant.
Das Ziel der vorliegenden Untersuchung war die Analyse der Eignung von vier unterschiedlichen topischen Anästhesiemethoden für die Kleinschnittkataraktchirurgie. Hierzu wurden 100 Patienten (41 Frauen, 59 Männer, Durchschnittsalter: 67,3 Jahre) randomisiert vier gleich großen Gruppen zugewiesen: A: Ophtocain®-Tropfen + intrakamerale Anästhesie mit 1ml unkonserviertem Lidocain 1%, B: Ophtocain®-Tropfen, C: Xylocain®-Gel 2% + intrakamerale Anästhesie mit 1 ml unkonserviertem Lidocain 1%, D: Xylocain®-Gel 2%. Die vier Gruppen unterschieden sich nicht statistisch signifikant bezüglich Bulbuslänge, Vorderkammerlänge, Dioptrien, Operationsdauer und Phakointensität (d.h. Geräteleistung * Zeit). An Hand der perioperativen Überwachung des systolischen und diastolischen Blutdrucks sowie der Pulsfrequenz zeigten sich keine Unterschiede zwischen den vier Gruppen. Bei der Auswertung der subjektiven Eindrücke der Patienten mittels einer zehnstufigen visuellen Analogskala traten bei insgesamt fünf Patienten aus allen vier Gruppen Missempfindungen oder Schmerzen des Grades 2 oder mehr auf. Es bestanden keine statistisch signifikanten Unterschiede zwischen den Gruppen. Die bivariate Analyse zeigte einen signifikanten Zusammenhang zwischen Bulbuslänge, Schmerzen und Anästhesiemethode: Nur bei Patienten mit einer Bulbuslänge über 25 mm senkte die zusätzliche intrakamerale Anästhesie das Schmerzrisiko. Die multiple logistische Regression zeigte, dass eine höhere Phakointensität die Wahrscheinlichkeit eines intraoperativen Druckempfindens senkt. In allen vier Anästhesiegruppen traten bei der Mehrheit der Patienten transiente Epithelödeme auf. Auffällig war, dass Descemet-Falten ausschließlich bei drei Patienten der Gruppe A (Tropf- und intrakamerale Anästhesie) auftraten. Die Kleinschnittkataraktchirurgie unter topischer Anästhesie mit/ohne intrakamerale Anästhesie stellt für kooperative Patienten eine sichere und effektive Alternative zu herkömmlichen Anästhesieverfahren dar, die dem erfahrenen Operateur vorbehalten sein sollte. Die Verwendung gelförmiger Zubereitungen ist der Tropfanästhesie gleichwertig, bietet allerdings zusätzlich den Vorteil einer besseren Gleitfähigkeit und eines verringerten Risikos der Corneaaustrocknung.
Verschiedene Studien haben sich mit dem Spontanverlauf intrakranieller Aneurysmen beschäftigt mit dem Ziel, Risikofaktoren für eine Ruptur für die Nutzen-Risiko-Abwägung der primärpräventiven Aneurysmabehandlung zu identifizieren. Beachtung fand dabei in erster Linie die Größe und Lokalisation der Aneurysmen. Die Analyse der Aneurysmamorphologie spielte bei den Untersuchungen bisher eine untergeordnete Rolle, war sie doch mit der digitalen Subtraktionsangiographie nur unzureichend zu beurteilen. Durch die Entwicklung der 3D-Rotationsangiographie Ende der neunziger Jahre wurde die Form von Aneurysmen detailgenau erfaßbar. Im klinischen Alltag wird Aneurysmen mit unregelmäßiger Morphologie von den beurteilenden Neuroradiologen und Neurochirurgen ein erhöhtes Rupturrisiko zugeschrieben. Mit dem Ziel diese subjektive Einschätzung mittels einer systematische Formanalyse zu überprüfen, untersuchten wir im Rahmen einer prospektiven Pilotstudie die Form rupturierter (46) und nichtrupturierter (45) intrakranieller Aneurysmen an 70 konsekutiven Patienten. Neben der subjektiven Beurteilung durch zwei erfahrene Neuroradiologen unternahmen wir den Versuch, meßbare morphologische Daten zu erheben. Dazu verwendeten wir ein digitales, auf der Fourier-Analyse basierendes Bildanalysesystem. Die Darstellung der Aneurysmen erfolgte mit Hilfe der 3D-Rotationsangiographie. In der 3D-Darstellung fand sich eine Unregelmäßigkeit der Oberfläche bei 78% der rupturierten und bei 42% der nichtrupturierten Aneurysmen (p<0,05). Die quantitative Formanalyse zeigte bei rupturierten Aneurysmen einen kleineren Rundheitsfaktor (p<0,02) und höhere Werte der Fourieramplituden 2, 3 und 7 (p<0,025) als bei nichtrupturierten Aneurysmen. Diese Kriterien deuten auf eine unregelmäßigere Form rupturierter Aneurysmen hin. Unsere Formanalyse ergab signifikante Unterschiede zwischen rupturierten und nichtrupturierten Aneurysmen. Die Fourier-Analyse erwies sich dabei als hilfreiche Methode, um diese Formunterschiede quantitativ zu dokumentieren. Die Ergebnisse dieser Pilotstudie müssen jedoch anhand von Untersuchungen mit größerer Fallzahl sowie einer multiplanaren quantitativen Formanalyse überprüft werden.
Die Theorie der Quantenelektrodynamik (QED) starker Felder sagt vorher, dass sich unter dem Einfluss sehr starker elektromagnetischer Felder der Vakuumzustand verändert. Überschreitet das äußere (im einfachsten Fall elektrostatische) Feld eine gewisse kritische Stärke, dann kommt es zur spontanen Erzeugung von Elektron-Positron-Paaren und im Gefolge zur Ausbildung eines geladenen Vakuums. Charakteristisch dafür sind gebundene Elektronenzustände mit einer Bindungsenergie von mehr als der doppelten Ruhenergie. Dieser Effekt wurde bisher meist für sphärisch symmetrische Systeme untersucht, insbesondere für das Coulombpotential eines schweren Kerns. In der vorliegenden Arbeit wird erkundet, wie sich das überkritische Phänomen beim Übergang von sphärischer zu zylindrischer Geometrie verhält. Dazu werden die Lösungen der Dirac-Gleichung für Elektronen im elektrostatischen Potential eines langen dünnen geladenen Zylinders ("geladener String") berechnen und darauf aufbauend das überkritische Phänomen untersucht. Da das logarithmische Potential eines unendlich langen Strings unbegrenzt anwächst, sollten alle Elektronzustände überkritisch sein (Möglichkeit des Tunnelns durch den Teilchen-Antiteilchen-Gap). Die Zentralladung sollte sich dann mit einer entgegengesetzt geladenen Hülle aus Vakuumelektronen umgeben und damit neutralisieren. Um diese Phänomene quantitativ zu beschreiben untersuchen wir die Lösungen der Poisson-Gleichung und der der Dirac-Gleichung in Zylindersymmetrie. Zunächst wird eine Reihenentwicklung für das elektrostatische Potential in der Mittelebene eines homogen geladenen Zylinders von endlicher Länge und endlichem Radius hergeleitet. Anschließend benutzen wir den Tetraden- (Vierbein-) Formalismus zur Separation der Dirac-Gleichung in Zylinderkoordinaten. Die resultierende entkoppelte radiale Dirac-Gleichung wird in eine Schrödinger-artige Form transformiert. Die gebundenen Zustände werden mit der Methode der uniformen Approximation, einer Variante der WKB-Näherung, berechnet und ihre Abhängigkeit von den Parametern Stringlänge, Stringradius und Potentialstärke wird studiert. Die Näherungsmethode wird auch benutzt, um den überkritischen Fall zu untersuchen, bei dem sich die gebundenen Zustände in Resonanzen im Antiteilchen-Kontinuum verwandeln. Der zugehörige Tunnelprozess wird studiert und die Resonanz-Lebensdauer abgeschätzt. Schließlich wird das Problem der Vakuumladung und Selbstabschirmung angegangen. Die Vakuumladung wird durch Aufsummation der Ladungsdichten aller überkritischen (quasi-)gebundenen Zustände berechnet. Die Vakuumladung tritt als Quellterm in der Poisson-Gleichung für das elektrostatische Potential auf, welches wiederum die Wellenfunktionen bestimmt. Auf die volle selbstkonsistente Lösung dieses Problems wird verzichtet. Wir zeigen jedoch dass die Vakuumladung wie erwartet gross genug ist, um eine Totalabschirmung des geladenen Strings zu bewirken.
Atherosklerotische Stenosen der Karotiden sind eine häufige Erkrankung mit variablem Verlauf und stellen durch ihre potentielle Emboligenität einen wichtigen Risikofaktor für zerebrale Ischämien dar. Klinische und paraklinische Parameter helfen, das individuelle Schlaganfallrisiko bei Patienten mit hochgradigen ACI-Stenosen einzuschätzen, das unmittelbar nach einem thrombembolischen Ereignis besonders hoch ist. Als histomorphologisches Korrelat dieser "Vulnerabilität" wird die Ruptur der fibrotischen Deckplatte der Plaque propagiert, die häufiger bei symptomatischen Patienten nachzuweisen ist. Sie korreliert mit der Infiltration der Gefäßwand durch aktivierte Leukozyten, die über molekulare und zelluläre Interaktionen die Zell- und Bindegewebskomposition der Plaque verändern können. Die strukturelle Integrität atherosklerotischer Läsionen beruht auf der extrazellulären Vernetzung von kollagenem Bindegewebe, das überwiegend von phänotypisch veränderten glatten Gefäßmuskelzellen produziert wird. Eine Hypothese besagt, dass die im Rahmen der Inflammation stattfindende Zunahme proapoptotischer Mediatoren über eine Ausdünnung der zellulären und bindegewebigen Strukturen zu einem Verlust an mechanischer Stabilität führt und somit eine symptomatische Ruptur begünstigt. Da der Nachweis einer Ruptur mit Exponierung des thrombogenen nekrotischen Kerns allerdings nur in einem Teil der symptomatischen Plaques und umgekehrt auch in einem Teil der asymptomatischen nachgewiesen werden kann, ist aber bislang unklar, ob o.g. Abläufe in der humanen Karotis-Atherosklerose tatsächlich mit einer klinischen Relevanz einhergehen. In der vorliegenden Arbeit wurde daher das Auftreten der Apoptose von glatten Gefäßmuskelzellen (mittels DNA in situ end labeling Technik, TUNEL-Färbung) in 38 prospektiv gesammelten Endarterektomie-Präparaten hochgradiger Karotisstenosen quantitativ erfasst und statistisch in Beziehung gesetzt zu Parametern der Plaque-Instabilität, klinisch definiert durch kürzliche (< 60 Tage zurückliegende) ischämische Ereignisse (n=19) und histopathologisch definiert über den Nachweis einer Plaque-Ruptur (n=14). Außerdem wurde eine morphometrische Analyse der einzelnen Plaque-Komponenten durchgeführt und deren Ergebnisse zu den zellulären und klinischen Parametern in Beziehung gesetzt. Die Morphometrie ergab keine signifikanten Unterschiede zwischen symptomatischen vs. asymptomatischen und rupturierten vs. unrupturierten Plaques was die Größe der fibrotischen Deckplatte, die durchschnittliche Dicke (Kern-Lumen-Distanz) und die dünnsten bzw. dicksten Stellen der Deckplatte anbelangt. Anzahl und Konzentration apoptotischer glatter Muskelzellen war deutlich (p<0,001) erhöht in symptomatischen, klinisch instabilen, Karotisplaques. Allerdings waren die Apoptose-Raten in Präparaten, die eine Plaque-Ruptur aufwiesen, nicht signifikant erhöht. Darüber hinaus fand sich kein Hinweis darauf, dass erhöhte Apoptose-Raten zu einem quantifizierbaren Verlust glatter Gefäßmuskelzellen in der fibrotischen Deckplatte führen. Auf dem Boden dieser Ergebnisse kann gefolgert werden, dass erhöhten Apoptose-Raten glatter Gefäßmuskelzellen in der humanen Atherosklerose offenbar eine tragende Bedeutung bei der Entwicklung thrombembolischer Ereignisse zukommt. Allerdings wird die Annahme, dass erhöhte Apoptose-Raten über einen Verlust an glatten Gefäßmuskelzellen Einfluss auf die morphometrischen Eigenschaften der fibrotischen Deckplatte atherosklerotischer Karotis-Läsionen nehmen und zu deren Ausdünnung führen durch die vorliegende Untersuchung nicht gestützt. Vielmehr scheint es plausibel, dass die Apoptose glatter Muskelzellen im Rahmen inflammatorischer Prozesse Einfluss auf die Komposition der Karotisplaque nimmt und so über eine Desintegration der zellulären und bindegewebigen Bestandteile zu reduzierter mechanischer Widerstandskraft und Rupturneigung führt.
Amblyopia is a developmental disorder of the visual system that leads to reduced vision in one or both eyes. People suffering from amblyopia show different perceptual deficits like reduced contrast sensitivity, reduced or no stereopsis, spatial uncertainty, and spatial and temporal distortions when viewing with the amblyopic eye. In the following thesis, different psychophysical methods are used to investigate anomalous perception of amblyopic participants in detail with the main focus on the perception of temporal instability. In the qualitative experimental paradigms it is shown that temporal instability is mainly perceived by strabismic and strabismic-anisometropic amblyopes. The temporal deficits occur only at spatial frequencies higher than 1.6 c/deg, and are perceived in addition to the spatial distortions. Illusory colours sometimes accompany the temporal distortions. There seems to be a relationship between crossed hand and eye dominance and the perception of temporal instability. In the quantitative experiments it is shown that temporal instability in amblyopic perception has a negative impact on the performance in psychophysical tasks. Amblyopes perceiving temporal instability show enhanced spatial uncertainty and spatial distortions for different types of stimulus presentation (auditive vs. visual) when compared to amblyopes without temporal instability. This might be due to deficits in auditive-visual mapping. These deficits in auditory-to-visual mapping suggest an impairment of the dorsal “where” pathway. Thus, it might be that amblyopes with temporal distortions have deficits in the dorsal pathway that come up in addition to the known deficits of the ventral “what” pathway and are related to the perception of temporal instability. The different results of the experiments found in this thesis seem to confirm this hypothesis. Studies using functional imaging techniques might be appropriate for a further investigation of amblyopic deficits involving the dorsal pathway.
Qualitätsmanagement in der Arztpraxis : Begleitung eines Managementprojekts im Ärztenetz MQLD
(2005)
Im Jahr 2000 wird im MQLD (Medizinisches Qualitätsnetz Langen-Dreieich), einem Ärztenetz in Südhessen, das Modellprojekt "Personalentwicklung und Mitarbeiterschulung" auf der Basis der DIN EN ISO 9001:2000 entwickelt, das Arbeitsbereiche wie Praxismanagement, Patientenservice und Kommunikation mit den Patienten durch themenbezogene Trainingseinheiten, aufbauend auf den Ergebnissen einer fragebogenbasierten Patienten- und Mitarbeiterbefragung, verbessern soll. Das Projekt wird von der Kassenärztlichen Vereinigung (KV) Hessen mitfinanziert und von der Firma Medizin-QM durchgeführt. Es ist als "dynamisches Modell" konzipiert und damit vergleichbar mit anderen QM-Systemen (QM = Qualitätsmanagement) wie EPA (Europäisches Praxisassessment) oder dem System der Berlin-Chemie. Ziel der vorliegenden Untersuchung ist es, das QM-Projekt als Beginn einer dynamischen Entwicklung darzustellen, die Ergebnisse der einzelnen Schritte zu diskutieren und die Bedeutung des Projekts für das Umfeld von QM in der ambulanten Krankenversorgung zu erörtern. • Der Projektplan dient als Grundlage. Er definiert grundlegende Fragen zu Bearbeitungsobjekt, Projektzielen, Zusammenhang zwischen Projekt und Qualitätspolitik der Einrichtung, Evaluation, Verantwortlichkeit, Kooperation, Zeitplan, Logistik, Ablauf, Dokumentation und Integration der Ergebnisse in den Alltag. Die Kontinuitätseinführung von QM fehlt im Plan des MQLD-Projekts. Dadurch bleiben Projektziele wie die systematische Verbesserung der Netzkommunikation und die kontinuierliche Steigerung der Mitarbeiterleistung unerreicht. • Ein Projekt muss an die gegebene Infrastruktur angepasst werden. Das MQLDProjekt erreicht dies durch die Erstellung des Praxisprofils und zum Teil mittels der oben angeführten Ergebnisse der Ärzte-, Mitarbeiter- und Patienten-Befragung. • Eine Teilnahmequote von 17% der Praxen (9 von 53) ist zu gering. Die Quote kann in zukünftigen Projekten erhöht werden durch die Setzung positiver Teilnahmeanreize wie zum Beispiel Bonitätsregelungen, durch die Überzeugung, dass QM zur Verringerung des Arbeitsaufwands führt und durch optimale Information potentieller Projektteilnehmer. • Die Teilnahmequote der Mitarbeiter liegt mit 66% (31 von 47) im akzeptablen Bereich. Sie korreliert eng mit der Motivationsfähigkeit des Arztes. QM muss als Unternehmenskultur gelebt und Führungsaufgabe werden. • Die Zahl der teilnehmenden Patienten liegt mit 528 (verteilt auf acht Praxen) im unteren Akzeptanzbereich einer Stichprobengröße. In mindestens zwei Praxen ist die Patientenzahl mit 29 beziehungsweise 36 aber deutlich zu gering. Die Auswahl einer ausreichend großen und möglichst repräsentativen Patientenstichprobe von mindestens 50 bis 100 Patienten aus jeder Praxis und die Verteilung der Fragebögen müssen in Zukunft systematisch erfolgen, das heißt beispielsweise durch ein fortlaufende Ausgabe der Bögen inklusive eines frankierten Rückumschlags im Rahmen eines persönlichen Gesprächs. • Aufgrund besserer Vergleichbarkeit der Ergebnisse, insgesamt geringeren Zeit- und Organisationsaufwands, besserer Standardisierungsmöglichkeiten und wegen der Möglichkeit der Bearbeitung größerer Zahlen sind Fragebögen als quantitative Erhebungsinstrumente qualitativen Erhebungsinstrumenten wie beispielsweise Focus-Group-Discussions vorzuziehen. Die mangelhafte Erfassung unterrepräsentierter Gruppen, die Informationsfilterung und Praxisferne durch schriftliche Meinungsäußerung und die zeitlich verzögerte Rückmeldung müssen dafür in Kauf genommen werden. Fragebögen müssen dabei valide, reliabel, diskriminierungsfähig und einheitlich sein. Die eingesetzten Bögen erfüllen diesen Anspruch nicht. So ist auch der anzustrebende Vergleich der Ergebnisse mit externen Daten (Querschnittstudie) nicht möglich. • Mitarbeiterbeteiligung in Form von Befragung, Beurteilung und Schulung mit Fokussierung auf die Schwerpunkte Weiterbildung und Organisation der Arbeit ist essentiell für eine erfolgreiche Personalführung und führt zu qualitätsbewußten Mitarbeitern. Sie ist eines der Schlüsselelemente des modernen QM. Die Beurteilungsfähigkeit der Ärzte muss vor einer Mitarbeiterbeurteilung sichergestellt werden. • Eine Patientenbefragung ist als Teil des QM-Schlüsselelements ´Kunden´- Orientierung ein essentieller Bestandteil eines Projekts. • Die Schulungsveranstaltungen werden an die spezifischen Gegebenheiten und an die Befragungsergebnisse angepasst. Geschult werden die Bereiche Praxismanagement, Patientenservice und Marketing, Kommunikation mit den Patienten, Personalbeurteilung und -entwicklung und Netzkommunikation. • Die Durchführung der Schulungsveranstaltungen wird von den Teilnehmern für ausreichend bis mangelhaft befunden. Die angekündigten Lehrmethoden werden nicht eingesetzt. Die didaktische Qualität der Ausbilder ist daher sicherzustellen. • Im Vergleich mit anderen QM-Systemen zeigen sich Kompatibilitäten von Grundkonzepten, Themenschwerpunkten und einzelnen Bausteinen. Validierung und Zertifizierung des MQLD-Projekts sind jedoch unzureichend. Abschließend ist zu betonen, dass es sich beim QM-Projekt des MQLD um ein Modell handelt, das für die künftige QM-Arbeit in der Arztpraxis weiterentwickelt und optimiert werden muss. Es stellt lediglich die Basis der Entwicklung weiterer QM-Projekte dar.