Refine
Year of publication
- 2002 (172) (remove)
Document Type
- Doctoral Thesis (172) (remove)
Language
- German (172) (remove)
Has Fulltext
- yes (172)
Is part of the Bibliography
- no (172)
Keywords
- Gaschromatographie (3)
- Genexpression (3)
- Authentizität (2)
- Gephyrin (2)
- Halbleiteroberfläche (2)
- Ionenkanal (2)
- Kontamination (2)
- Abmahnung (1)
- Abweichendes Verhalten (1)
- Allosterischer Effektor (1)
Institute
- Medizin (41)
- Biochemie und Chemie (37)
- Biowissenschaften (27)
- Pharmazie (20)
- Physik (15)
- Geowissenschaften (8)
- Informatik (4)
- Geschichtswissenschaften (3)
- Psychologie (3)
- Geographie (2)
Für verschiedene gentherapeutische Ansätze zur Behandlung der HIV-Infektion oder anderer erworbener oder angeborener Krankheiten wie z. B. der angeborenen Immunschwäche SCID ist ein hocheffizienter Gentransfer in CD4-positive T- Lymphozyten erforderlich. In der vorliegenden Arbeit wurden daher geeignete retrovirale Pseudotypvektoren weiterentwickelt. Unter Einsatz von Markergenen wurden Methoden der Transduktion primärer humaner Lymphozyten optimiert. Schließlich wurden verschiedene potentielle therapeutische anti-HIV-Gene durch retroviralen Gentransfer in humane T-Zelllinien übertragen und hinsichtlich der Hemmung der in-vitro Replikation verschiedener HIV-Stämme verglichen. Zunächst wurden stabile Verpackungszelllinien zur Herstellung von [MLV(HIV-1)]- und [MLV(GaLV)]-Pseudotypvektoren entwickelt, die ein für die Analyse der Transduktionseffizienz geeignetes Markergen übertragen. [MLV(HIV-1)]-Vektoren konnten mit Titern bis zu 2 x 10 hoch 5 i.E. / ml hergestellt werden. Die Optimierung der Kultivierung primärer humaner T-Lymphozyten vor dem ex- vivo Gentransfer ergab, dass eine 24-stündige PHA/IL-2 Stimulation mit anschließender 48-stündiger Kultivierung in IL-2 Medium optimal für die Transduktion primärer CD4-positiver T-Lymphozyten unter weitgehender Erhaltung des Expressionsmusters der Chemokinrezeptoren CXCR4 und CCR5 ist. Bei längerer Stimulation mit PHA und IL-2 verändert sich sowohl das CD4/CD8-Verhältnis als auch die CCR5-Expression gegenüber nativem Blut signifikant. Die Analyse der Expression des übertragenen Markergens und anderen Oberflächenmarkern der Zellen nach der Transduktion zeigte eine strikte Abhängigkeit der Transduktion der [MLV(HIV-1)]-Vektoren vom HIV-Rezeptor CD4, während herkömmliche [MLV(GaLV)]-Vektoren sowohl CD4-positive als auch CD4-negative Zellen transduzierten. Die Effizienz von [MLV(HIV-1CXCR4)]- Vektoren für CD4-positive Zellen war signifikant höher als die der [MLV(GaLV)]-Vektoren, während die Transduktionseffizienz der [MLV(HIV-1CCR5)]-Vektoren aufgrund der geringen Anzahl CCR5-positiver CD4-T-Zellen am niedrigsten war. Zwei Tage nach der Transduktion wurde eine reduzierte Korezeptorexpression in den Zellen nachgewiesen. Gründe hierfür könnten die Internalisierung der Korezeptoren nach der Transduktion oder eine durch die Kultivierung der Zellen bedingte Änderung der Expression sein. Nach weiterer Optimierung des retroviralen Gentransferprotokolls, u.a. durch Verwendung autologen Plasmas, konnten schließlich bei einmaliger Transduktion mit einer m.o.i. von 5 mit den [MLV(HIV-1CXCR4)]-Vektoren Transduktionsraten von bis zu 80 % erreicht werden. Zum Vergleich der Wirkung potentieller anti-HIV-Gene, die mit den neuen Vektoren in der Gentherapie des Immunschwächesyndroms AIDS eingesetzt werden könnten, wurden fünf verschiedene HIV-Inhibitoren (zwei intrazellulär exprimierte Antikörperfragmente (scFv) gegen HIV-1 Integrase und Reverse Transkriptase, zwei Ribozyme, die die HIV-1 RNA in der 5´-LTR oder im Pol- Leserahmen spezifisch spalten, sowie Interleukin-16) in den gleichen Transfervektor kloniert und durch retroviralen Gentransfer in die T-Zelllinie SupT1 übertragen. In Infektionsversuchen mit zwei unterschiedlichen HIV-1 Stämmen vermittelte jedoch keiner der potentiellen Inhibitoren eine signifikante Resistenz gegenüber HIV-1. Erst nach Sortierung der Kulturen auf starke Expression der übertragenen Gene konnte in den sortierten Zellen eine geringe Hemmwirkung des 5´-LTR-spezifischen Ribozyms auf die in-vitro Replikation des Stammes HIV-1IIIB, nicht jedoch auf die des Stammes HIV-1NL4-3 gezeigt werden. Die Signifikanz dieser Beobachtung muß über den Vergleich der Hemmwirkung weiterer Inhibitorgene geklärt werden.
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
Orotracheale Keimverschleppung während der Umintubation und bei verschiedenen Tracheotomietechniken
(2002)
Langzeitbeatmete Patienten sind häufig von nosokomialen Pneumonien betroffen. Für diese Patienten stehen zur Optimierung des Airwaymanagement verschiedene Techniken zur Verfügung. In der vorliegenden Studie wurden diese Techniken (nasale Umintubation, konventionelle Tracheotomie und perkutane Tracheotomie einschließlich GWDF, PDT und TLT) auf eine Keimverschleppung aus den oberen in die unteren Atemwege untersucht. Bei insgesamt 200 Patienten erfolgte ein mikrobiologisches Monitoring durch Gewinnung von Rachen- und Trachealabstrichen am Morgen des Eingriffs und am darauffolgenden Tag. Abweichend hiervon wurde in der Gruppe der nasotracheal umintubierten Patienten statt eines Rachenabstrich ein Nasenabstrich gewonnen. Die Proben wurden mikrobiologisch hinsichtlich eines Wachstums von Bakterien bzw. Pilzen untersucht. Zur Differenzierung wurden bei jedem Isolat die biochemischen Eigenschaften und das antibiotische Resistenzverhalten erhoben. Die Eingriffe wurden im Mittel am 3. Tag (Umintubation), 8. Tag (konventionelle Tracheotomie und GWDF), 9. Tag (TLT) und 10. Tag (PDT) des Aufenthalts auf der Intensivstation durchgefiihrt. Bei 155 von 200 Patienten (77,5 %) gelang ein positiver Erregernachweis im Rachen- bzw. Nasenabstrich, bei 143 von 200 Patienten (71,5%) ein positiver Erregernachweis im Trachealsekret. Die am häufigsten isolierten Erreger waren S. aureus, Acinetobacter sp., Pseudomonas sp., Stenotrophomonas maltophilia und Candida sp.. Bezogen auf alle Erregernachweise (n = 859) funden sich in 165 Fällen grampositive Erreger (19,2 %), in 403 Fällen granmegative Erreger (46,9 %) und in den restlichen 291 Fällen Pilze (33,8 %). In der Gruppe der nasotracheal umintubierten Patienten kam es bei 10 von 40 Patienten (25,0 %) zu einem positiven postinterventionellen Nachweis eines Erregers im Trachealsekret, der vor der Intervention nur im Nasenabstrich nachgewiesen wurde. In den restlichen Gruppen erfolgte dieser postinterventionelle Erregernachweis im Trachealsekret bei je 6 von 40 Patienten (15 %) in den Gruppen PDT und TLT, sowie bei je 7 von 40 Patienten (17,5 %) in den Gruppen konventionelle Tracheotomie und GWDF. Die von uns ermittelte Inzidenz von Keimbesiedlungen der oberen Atemwege (77,5 %) und der unteren Atemwege (71,5 %) entspricht der allgemeinen Inzidenz bei beatmeten Intensivpatienten. Der hohe Anteil von gramnegativen Erregern (46,9 %) ist Ausdruck eines Wechsel des Erregerspektrums in den gramnegativen Bereich bei schwerstkranken Patienten auf Intensivstationen. Die TLT scheint aufgrund einer im Vergleich zu den anderen Verfahren nicht erhöhten Inzidenz einer Keimverschleppung aus den oberen in die unteren Atemwege als infektionsepidemiologisch risikoarme Technik. Die nasotracheale Umintubation weist im Vergleich zu den anderen Verfahren eine höhere, aber statistisch nicht signifikante Inzidenz von Keimverschleppungen auf. Die Nase stellt aufgrund ihrer Keimbesiedlung ein wesentliches Erregerreservoir dar, das im Zusammenhang mit der nasotrachealen Umintubation hinsichtlich nosokomialer Pneumonien eine Rolle spielen könnte.
Die Osseointegration in der dentalen Implantologie wurde anhand einer Literaturübersicht dargestellt und ausgewertet. Die Literaturübersicht beinhaltet Verlaufsstudien, in vitro und in vivo Studien, die ultrastrukturelle, biomechanische und biochemische Untersuchungen und deren Resultate aufzeigen. Im 1. Kapitel wurden die Kriterien zur Beurteilung des Implantaterfolges dargestellt. Es lässt sich feststellen, dass nicht nur ein Implantatverlust als Misserfolg zu bewerten ist, sondern auch klinische und röntgenologische Erfolgskriterien eine Rolle spielen. Die Mobilität, der Knochenabbau, Entzündungsreaktionen, Schädigungen von anatomischen Strukturen und die Funktionstüchtigkeit des Implantates werden mitbewertet. Im 2. Kapitel wurden die Voraussetzungen für die Erzielung der Osseointegration aufgezeigt. Zu diesen gehören die Physiologie der Knochenheilung, die Implantatwerkstoffe, das operative Vorgehen und die Einheilungsphase. Der Vorgang der Knochenheilung, speziell der primären Frakturheilung, wird der Implantateinheilung gleichgesetzt. Dies bedeutet, dass ein ausreichender belastungsfreier Zeitraum für die Implantateinheilung einzuhalten ist. Bei den Implantatwerkstoffen wurden die Metalle und die Keramiken verglichen. Der Implantatwerkstoff der Wahl ist aufgrund seiner mechanischen und biokompatiblen Eigenschaften das Titan. Andere Materialien, wie z.B. Tantal und Hydroxylapatit, haben sich als problematisch erwiesen. Beim operativen Vorgehen haben sich die Aspekte der atraumatischen, aseptischen und standardisierten Operationsbedingungen als vorteilhaft erwiesen. Der Einfluss der Knochenqualität und des Implantatdesigns auf die erreichbare Primärstabilität wurde dargestellt. Bei der Einheilphase wurde eine Übersicht über die bis dato gültigen Einheilzeiten gegeben. Die Vorgänge während der Implantateinheilung wurden unter Bezug auf die ultrastrukturellen Aspekte dargestellt. Der Einfluss von osteogenetischen Faktoren wurde speziell aufgezeigt. Die Implantateinheilung ist als komplexer Vorgang zu verstehen, bei dem die Wechselwirkung der verschiedenen Faktoren eine wichtige Rolle spielt. Die Morphologie des Interface wurde anhand von Studien diskutiert. Unterschiede in der Morphologie sind in Abhängigkeit von den Implantatwerkstoffen, der Remodelingphase und den verschiedenen Versuchstieren zu finden. Im 3. Kapitel wurden die Voraussetzungen für den Erhalt der Osseointegration besprochen. Zu diesen gehören die Knochenbelastung, die Konstruktionsprinzipien dentaler Implantate, die prothetischen Konzepte und Implantat-Systembeispiele. Bei der Knochenbelastung wurden die Aspekte der okklusalen Überbelastung, der axialen bzw. nicht-axialen Krafteinleitung, Zahn-Implantat- und rein implantat-getragene Rekonstruktionen und materialabhängige Faktoren der Suprakonstruktion berücksichtigt. Hierbei stellte sich heraus, dass Überbelastungen vermieden werden sollten. Die Art der Krafteinleitung sowie die Verbindung von Implantaten mit der natürlichen Bezahnung haben keinen negativen Einfluss auf die Osseointegration. Rekonstruktionen auf Kuststoffbasis werden als problematisch dargestellt. Bei den Konstruktionsprinzipien wurden die Bereiche des enossalen Teils, die Implantatdimension, die Implantatform, der Durchtritt durch die Weichgewebe und die Position der Implantatoberkante dargestellt. Die Unterschiede in den Konstruktionsprinzipien der dentalen Implantate sind heutzutage gering und sind in der Strukturierung der Oberflächen, der Positionierung der Implantatoberkante und im Durchtritt durch die Weichgewebe zu finden. Die Bedeutung der Weichgewebsmanschette beim Osseointegrationsvorgang wurde hervorgehoben. Die Vorteile von konischen Schraubenimplantaten im Vergleich zu Zylinderimplantaten werden aufgezeigt. Ein wurde ein Überblick über die etablierten Okklusionskonzepte und prothetischen Konzepte gegeben. Eine Abhängigkeit von der Ausgangssituation im natürlichen Restgebiss wurde festgestellt, so dass das Konzept sich nach dieser richten muss. Bei den Systembeispielen wurden sechs Implantattypen dargestellt: das Brånemark-System, das Astra-System, das Ankylos-System, das Frialit 2, das ITI- und das 3i-System. Im 4. Kapitel wurden weitere Einflüsse auf die Osseointegration diskutiert. Dazu gehören die Knochenqualität, die Regenerationsfähigkeit des Knochens, neue OP-Verfahren, "neue" Oberflächen und deren Wirkung auf die zelluläre Umgebung, die fraktionierte Lasteinleitung und die Früh- und Sofortbelastung. Die Beurteilung der Knochensituation, d.h. das Erkennen von Veränderungen, die Evaluation der Knochendichte und die Regenerationsfähigkeit des Knochens wurden als prächirurgische Aspekte besprochen. Neue Op-Verfahren wie die Knochen -kondensation und -verdrängung wurden als Möglichkeit vorgestellt, die eine Implantatversorgung auch in schwierigen anatomischen Verhältnissen erlaubt. Der Einfluss der Implantatoberfläche auf den Knochen-Implantatkontakt, die Verankerungsfestigkeit und die Zellaktivität wurde dargestellt. Bei den Implantatoberflächen ist erkennbar, dass eine Vergrößerung der Gesamtoberfläche durch Mikro und -Makrostruktur angestrebt wird. Eine optimale Primärstabilität durch einen besseren Verzahnungseffekt wird dadurch möglich. Die Prinzipien der fraktionierten Lasteinleitung und des progressive bone loadings, sowie die Früh- und Sofortbelastung wurden vorgestellt. Eine Verkürzung der Einheilphase und somit eine Frühbelastung ist unter optimierten Bedingungen möglich. Ein sich anschließendes Knochentraining verbessert die vorgefundene Knochensituation und somit die Prognose der Implantattherapie. Zusammenfassend lässt sich feststellen, dass eine Osseointegration unter Einhaltung von standardisierten Operationsbedingungen mit jedem der hier vorgestellten Implantattypen erzielbar ist. Beim Erhalt der Osseointegration spielen die Unterschiede bei den Implantattypen und die Belastung über die prothetische Versorgung eine wichtige Rolle.
Auf der Basis komplexer Paaruntersuchungen mit dem erweiterten Gießen-Test (pro Partner sieben Auswertungsbögen) werden zwölf Paare beschrieben und analysiert, die in einer Beziehungskrise die Psychosoziale Ambulanz der Frankfurter Universitätsklinik aufsuchten, um Beratungsgespräche und gegebenenfalls therapeutische Hilfe in Anspruch zu nehmen. Der Erweiterung der Testanwendung auf die Erfassung der Einfühlungsbilder beider Partner (eingefühltes Selbst- und Beziehungsbild sowie eingefühltes Partnerbild, Moeller 1979, siehe 3. Methodik) lag unter anderem die Vermutung zugrunde, dass die — immer auch von der Durchlässigkeit des Partners abhängige — Einfühlungsfähigkeit Aufschluss über den Grad der Beziehungsintensität sowie der Kommunikation des Paares zu geben vermag. Anders formuliert: gravierende Einfühlungsdefizite können möglicherweise auf eine Beziehungsstörung hinweisen, die - wie auch immer bedingt - mit einem zu geringen Austausch über die inneren Befindlichkeiten zusammenhängt. Dabei ist zu berücksichtigen, dass die untersuchten Paare ausnahmslos aufgrund einer Beziehungskrise um professionelle Hilfe nachsuchten, sodass mit globalen oder selektiven Einfühlungsdefiziten zu rechnen ist, aber unter Umständen auch mit einer brüchig gewordenen kollusiven emotionalen Abwehr (Dicks, 1969, S. 68 ff.) die sich in einer — auf den ersten Blick — hohen wechselseitigen Rollenbestätigung niederschlagen wird (siehe 2. Einführung). Die vorliegende Studie demonstriert, welche Aussagen aus den direkten Profilvergleichen hergeleitet werden können, zu denen systematisch auch die Beziehungsbilder einbezogen werden, welche die inneren Veränderungen der Partner in der Beziehung spiegeln. Im Anschluss an jeden Profilvergleich wird gezeigt, inwieweit - ausgehend von je spezifischen Auffälligkeiten - intensive Analysen von Paarbeziehungen anhand der Konzentrierten Paardokumentation durchgeführt werden können (siehe 4.1 Profilvergleiche und dynamische Interpretationen). Damit wird das diagnostische Potenzial des erweiterten Gießen-Tests ausgelotet, indem von einfachen über intra-individuelle und inter-individuelle Vergleiche hin zu komplexen neuen Formen von Gegenüberstellungen geprüft wird, ob und wie die Konzentrierte Beziehungsdokumentation in einer diagnostischen Gesamtschau eine im Aufwand zu vertretende empirische Kontrolle des therapeutischen Prozesses ermöglicht. Weiter soll untersucht werden, inwieweit sie im Rahmen der Erstuntersuchung zu einer Verbesserung und Erweiterung der Paardiagnostik dient. Sie soll damit einen Beitrag zum besseren Verständnis der zwischenmenschlichen Beziehung, der „Dyadologie“ (Moeller 2002) leisten, die das intuitive Wissen um Liebesbeziehungen in Wissenschaft verwandelt, die „Scientification of Love“ (Odent, 1999).
Das R( )-Enantiomer der rac-a-Liponsäure ist als Coenzym wichtiger Multienzymkomplexe (Pyruvatund a-Ketoglutarat-Dehydrogenase) essentiell für die Zell- und Stoffwechselfunktion. Gerade in den wichtigen Prozessen der Zelle, die Substrate für die Atmungskette bereitstellen (Glykolyse, Citratcyclus), spielt die R( )-a-Liponsäure eine entscheidende Rolle. Zusätzlich besitzt dieser Wirkstoff die Eigenschaft als Chelatkomplex-Bildner, Radikalfänger und Antioxidans zu wirken, und er kann damit den Organismus vor "oxidativem Stress" schützen. Klinische und präklinische Studien geben Hinweise, daß R( )-a- Liponsäure einen positiven Effekt auf die Insulinsensitivität, die Insulin stimulierte Glukoseaufnahme und die Glukoseoxidation hat, weiterhin die Glukoneogenese hemmt und damit eine positive Wirkung auf den Krankheitsverlauf des Typ II - Diabetes hat. Das Ziel dieser Arbeit war es, die in der Literatur beschriebenen lang anhaltenden Wirkungen (Pharmakodynamik) der R( )-a-Liponsäure (12 - 24 h nach Gabe des Wirkstoffes) mit meßbaren Konzentrationen dieser Substanz im Organismus in Zusammenhang zu bringen, um erste Ansätze für die Korrelation zwischen Pharmakokinetik und Pharmakodynamik, also für die Konzentrations-(Dosis)- Wirkungsbeziehung, zu geben. Außerdem sollte geklärt werden, weshalb die Mehrfachgabe zu einer deutlichen Absenkung der nach Einfachgabe wirksamen Dosis führte. Eine wichtige Grundlage dazu ist die genaue Kenntnis der Pharmakokinetik der Wirksubstanz und ihrer wichtigsten Stoffwechselprodukte. Bisher ist nur die Pharmakokinetik der R( )- und S(-)-a-Liponsäure nach Gabe der razemischen a-Liponsäure untersucht worden. Da noch keine Erkenntnisse über die Pharmakokinetik der Metaboliten oder der R( )-a-Liponsäure nach Gabe des reinen R-Enantiomers bestanden, lag der Schwerpunkt der Arbeit auf den Untersuchungen der Pharmakokinetik des R( )- Enantiomers und der Metaboliten nach Gabe von R( )-a-Liponsäure als Trometamolsalz (Dexlipotam) und rac-a-Liponsäure am Tier (Einfach- und Mehrfachgabe) und am Menschen (Einfachgabe). Untersuchungsmodell Ratte: Erster Ausgangspunkt der kinetischen Untersuchungen war das zentrale Kompartiment, abgebildet durch den Blutkreislauf. Die resultierende Plasmakonzentrations-Zeitkurve nach oraler (p.o.), intravenöser (i.v.) oder intraperitonealer (i.p.) Gabe von Dexlipotam konnte mathematisch, basierend auf einem Zwei-Kompartiment-Modell, beschrieben werden. Charakteristisch für die Pharmakokinetik der R( )-a-Liponsäure war die kurze terminale Halbwertszeit (0,6 - 1,6 h) und die hohe, mit dem hepatischen Blutfluß vergleichbare, totale Plasma-Clearance. Diese Eigenschaften führten zu einem schnellen Absinken der Plasmakonzentration auf Werte unterhalb der Nachweisgrenze (6 h nach Gabe des Wirkstoffes). Mit Hilfe der Mikrodialyse wurde nach 1-stündiger Infusion von Dexlipotam die freie ungebundene R( )-a-Liponsäure-Konzentration im Interstitium des Muskels bestimmt. Der zeitliche Verlauf der Gewebekonzentration konnte basierend auf der physiologischen Grundlage eines peripheren Kompartiments (Zwei-Kompartiment-Modell) beschrieben werden. Es zeigte sich, daß nur der freie ungebundene Anteil der im Plasma vorliegenden Konzentration (20 %) für die Distribution in das Gewebe zur Verfügung steht. Die ermittelten Halbwertszeiten der Muttersubstanz im Plasma und im Muskel lagen in vergleichbarer Größenordnung und gaben keinen Hinweis auf eine unterschiedliche Kinetik im Plasma und im Gewebe. Sowohl nach p.o. als auch nach einmal täglicher i.v. Mehrfachgabe über 3 - 4 Wochen konnte keine Anreicherung im Plasma bestimmt werden. Dieser Befund erklärte somit nicht die nach Mehrfachgabe erforderliche Dosisreduktion. Die in weiteren Untersuchungen bestimmten Gewebekonzentrationen in der Leber, in der Niere, im Muskel und im Herzen, die sich aus dem freien ungebundenen und dem reversibel gebundenen Anteil der extrazellulären und intrazellulären Konzentration zusammensetzten, zeigten einen zur Plasmakinetik korrespondierenden Zeitverlauf. Nur einzelne spezifische Geweberegionen zeigten nach p.o. (Aorta) und nach i.v. (Nerven) Mehrfachgabe eine Anreicherung des Wirkstoffes. In in-vitro Testmodellen wurde weiterhin die Pharmakokinetik auf zelluläre Ebene untersucht. Es zeigte sich, daß Hepatozyten in der Lage sind, R( )-a-Liponsäure aufzunehmen und die durch b-Oxidation entstandenen Metaboliten Bisnorliponsäure (BNLA) und Tetranorliponsäure (TNLA) zu bilden und aus der Zelle heraus zu transportieren. Im Hinblick auf die Konzentrations-Wirkungsbeziehung rückten die Metaboliten Tetranorliponsäure und Bisnorliponsäure in das Interesse, da diese Stoffwechselprodukte wie die Muttersubstanz über einen aktiven Dithiolan-Ring verfügen, der möglicherweise das für die Wirkung verantwortliche Strukturelement darstellt. Im Interstitium des Muskels wurde der Metabolit TNLA in vergleichbaren Konzentrationen wie die Muttersubstanz gemessen, der Metabolit BNLA war dort nur in Spuren meßbar. Im Plasma hingegen waren die maximalen TNLA-Konzentrationen um den Faktor 3 geringer als die Muttersubstanz- Konzentrationen. Der Metabolit BNLA war im Plasma nur in geringem Ausmaß, um den Faktor 15 geringer als die Muttersubstanz, meßbar. Untersuchungsmodell Mensch: Im Menschen wurden die Metaboliten TNLA, BNLA, 6,8-Bis(methylmercapto)octansäure (BMOA), 4,6- Bis(methylmercapto)hexansäure (BMHA) und 2,4-Bis(methylmercapto)butansäure (BMBA) im Plasma und im Urin pharmakokinetisch untersucht. Die Metaboliten BMOA, TNLA und BNLA zeigten Halbwertszeiten in vergleichbarer Größenordnung wie die Muttersubstanz (0,5 - 0,9 h). Für die Metaboliten BMBA und BMHA wurden höhere terminale Halbwertszeiten (2 h) ermittelt. Aufgrund der insgesamt kurzen Halbwertszeiten konnte eine Kumulation der Metaboliten nach Mehrfachgabe ausgeschlossen werden. Mit Hilfe eines pharmakokinetischen Modells (Zwei-Kompartiment-Modell) war es möglich, die Bildung der Stoffwechselprodukte BNLA, TNLA, BMOA, BMHA und BMBA im Plasma zeitlich simultan zu beschreiben. Dadurch konnte der Metabolisierungsweg der a-Liponsäure im Organismus genauer erklärt und die resultierenden Konzentrationen der Metaboliten auf Basis der Muttersubstanz-Konzentrationen errechnet werden. Es war nicht möglich, die gemessenen Konzentrationen, weder von der Muttersubstanz noch von den möglichen wirksamen Metaboliten, in den verschiedenen Kompartimenten (Blutkreislauf, Gewebe oder Zelle) mit der lang anhaltenden Wirkung in einen zeitlichen Zusammenhang zu bringen. Weitere Untersuchungen mit empfindlicheren Meßmethoden und weitergehende zusätzliche Konzentrationsbestimmungen in den Kompartimenten in der Zelle (z.B. Mitochondrien) sind erforderlich, um die Korrelation zwischen der Pharmakokinetik und der Pharmakodynamik der R( )-a-Liponsäure oder möglicher wirksamer Metaboliten zu beschreiben.
Das Angiotensin konvertierende Enzym (ACE) ist als eine der zentralen Komponenten des ReninAngiotensin-Systems entscheidend an der Regulation der vaskulären Funktion und Homöostase sowie an der Regulation des Flüssigkeits- und Elektrolythaushaltes beteiligt. Dabei katalysiert die Zinkmetallopeptidase ACE vor allem die Bildung des vasokonstriktorisch wirkenden Angiotensins II und die Degradation des vasodilatorisch wirkenden Bradykinins. Die Hemmung des ACE zur antihypertensiven Therapie ist klinisch weit verbreitet, wobei die zahlreichen protektiven Eigenschaften der eingesetzten, hochpotenten ACE-lnhibitoren nicht allein durch die Beeinflussung des Metabolismus der zwei beschriebenen vasoaktiven Peptide zu erklären sind. Vielmehr wird seit einiger Zeit angenommen, dass ACE beispielsweise durch eine Interaktion mit dem Bradykinin-B2-Rezeptor aktiv an der Regulation intrazellulärer Signaltransduktionsprozesse beteiligt ist. Da ACE als plasmamembranäres Ektoenzym in seiner kurzen cytoplasmatischen Sequenz fünf potentiell phosphorylierbare Serinreste besitzt, deren posttranslationale Modifikation durch Phosphorylierung möglicherweise intrazelluläre Signaltransduktionskaskaden beeinflussen könnte, wurde die potentielle Phosphorylierung von ACE sowie die Assoziation von ACE mit intrazellulären Proteinen analysiert. Mittels 32P-Markierung humaner Endothelzellen und ACE-überexprimierender Schweineaortenendothelzellen konnte erstmals die Phosphorylierung des ACE gezeigt werden, sowie unter Verwendung spezifischer Kinaseinhibitoren und anhand von in vitro Phosphorylierungsexperimenten die Proteinkinase CK2 als ACE-phosphorylierende Kinase identifiziert werden. Dies wurde zudem durch die Assoziation der CK2 sowohl mit ACE, als auch mit einem dem cytoplasmatischen Anteil von ACE entsprechenden Peptid bestätigt. Drei der intrazellulären Serinreste des ACE liegen innerhalb Konsensusse1uenzen bekannter Proteinkinasen, wobei nach Punktmutation der Serinreste Ser1253, Ser1263 oder Ser1270, entsprechend in Konsensussequenzmotiven für die PKC, PKA oder CK2 lokalisiert, der Ser1270-Rest als Hauptphosphorylierungsstelle des ACE identifiziert werden konnte. Die Reduktion der ACE-Phosphorylierung nach Mutation des Ser1270 zu Alanin sowie nach Hemmung der CK2 durch Einsatz des spezifischen lnhibitors 5,6-Dichloro-1-ß-D-ribofuranosylbenzimidazol (DRB) resultierte in einer verstärkten proteolytischen Spaltung des ACE, weiche extrazellulär in der juxtamembranär gelegenen "Stalk"-Region des Enzyms erfolgt, so dass vermehrt sekretiertes lösliches ACE in den Zellkulturüberständen der untersuchten Zellen zu finden war. Neben der CK2 fanden sich auch die schwere Kette nicht-muskulären Myosins (NMMHC), ß-Aktin, Annexin 2, die c-Jun NH2-terminalen Kinase (JNk) und die Proteinphosphatase PP1 assoziiert mit ACE oder einem dem intrazellulären Anteil von ACE entsprechenden Peptid. Da die an ACE gebundenen Proteine mehr oder minder in die Regulation intrazellulärer Signaltransduktionskakaden involviert sind, wurde überprüft, inwiefern die Aktivität oder Phosphorylierung dieser Proteine durch die Hemmung des ACE beeinflusst werden kann. Die Behandlung P-markierter Endothelzellen mit dem ACE-lnhibitor Ramiprilat resultierte deutlich nicht nur in einer transient gesteigerten Phosphorylierung des ACE selbst, sondern auch in einer verstärkten Phosphorylierung des ACE-gebundenen NMMHC. Dabei werden beide Proteine durch die ACE-assoziierte CK2 phosphoryliert, deren Aktivität deutlich nach Hemmung des ACE zunahm. Die Identität des ACE als aktives Signaltransduktionsmoleküi wurde zudem sehr überzeugend durch die Messung der JNK-Aktivität bestätigt, da die Stimulation mit Ramiprilat nur in Wildtyp-ACE exprimierenden Endothelzelien in einer Aktivierun dieser Kinase resultierte, wohingegen nach Mutation der ACE-Phosphorylierungsstelle (Ser1270) keine durch Ramiprilat gesteigerte JNK-Aktivität zu verzeichnen war. Ebenso führte neben der Hemmung des ACE die Stimulation mit dem ACE-Substrat Bradykinin zur lnitiation der beschriebenen Prozesse. Die durch ACE-lnhibitoren induzierte Signaltransduktion scheint auch an der Potenzierung und Reaktivierung der durch Bradykinin vermittelten Zellaktivierung beteiligt zu sein, da nur in ACE-exprimierenden Zellen die Hemmung der CK2 in einer verminderten Bradykinin-induzierten Endothelzellaktivierung resultierte und der ACE-lnhibitor diese Reduktion vollständig umkehrte. Die Entdeckung der posttranslationalen Modifikation des ACE durch Phosphorylierung zur Regulation der Sekretion des Enzyms sowie zur lnitiation intrazellulärer Signalkaskaden eröffnet eine neue molekulare Basis für das Verständnis und die Charakterisierung der zahlreichen protektiven Eigenschaften der ACE-lnhibitoren. Zudem liefert die Identifizierung des ACE als aktives Signaitransduktionsmolekül mit der Fähigkeit zum "Outside-In-Signaling" möglicherweise neue Ansatzpunkte für die Entwicklung antihypertensiver Therapien.
Aerosolpartikel sind in der Atmosphäre insbesondere für die Strahlungsübertragung und die Wolkenbildung von wichtiger Bedeutung. Aufgrund ihrer kurzen Lebensdauer, der Variabilität ihrer Quellen und Senken und ihrer Einbindung in den atmosphärischen Wasserkreislauf sind Partikel in allen ihren Eigenschaften sehr veränderlich. Die Zusammenhänge dieser Variabilität mit den meteorologischen Bedingungen und ihre Auswirkungen in der meteorologischen Anwendung sind bisher nur ungenügend durch Meßdaten belegt, so daß die Ergebnisse von Modellen, in denen die meteorologischen Wirkungen von Partikeln berücksichtigt werden (z.B. Klimamodelle), mit großen Unsicherheiten behaftet sind. Ziel dieser Arbeit war es, auf der Grundlage von Messungen einen Beitrag zur Charakterisierung der bodennahen troposphärischen Aerosolpartikel zu leisten. Im Hinblick auf die meteorologischen Anwendungen wurden die chemische Zusammensetzung und die Masse der Partikel in Abhängigkeit von ihrer Größe gemessen, da sie wesentliche Einflußgrößen für die Strahlungswirkung von Partikeln und die Wasserdampfkondensation in der Atmosphäre sind. Auf der Basis eines Datensatzes der physikalisch-chemischen Partikeleigenschaften und meteorologischer Meßgrößen wurde zunächst die Abhängigkeit der Partikeleigenschaften und ihrer Variabilität von den meteorologischen Umgebungsbedingungen analysiert sowie die Bedeutung der Variabilität der Partikeleigenschaften in der meteorologischen Anwendung untersucht. Dazu wurden Absorptionskoeffizienten der Partikel und Erwärmungsraten durch Absorption solarer Strahlung durch Partikel sowie das Wachstum der Partikel mit der relativen Feuchte in Abhängigkeit von ihrer chemischen Zusammensetzung berechnet. Die Messungen fanden während fünf drei- bis achtwöchiger Meßkampagnen 1991, 1993 und 1994 in Melpitz bei Torgau (Sachsen) und 1993 und 1994 auf dem Hohen Peißenberg (Oberbayern) statt. Mit einem Berner-Impaktor wurden die Partikel gesammelt. Es wurden die Konzentrationen der Gesamtmasse der Partikel sowie der Ionen in Abhängigkeit von ihrer Größe bestimmt. Die Rußkonzentrationen wurden mit einem Aethalometer gemessen. Parallel zu den Partikelmessungen fanden Messungen von Temperatur, relativer Feuchte, Windgeschwindigkeit, Windrichtung, Globalstrahlung und diffuser Himmelsstrahlung statt. Die Messungen liefern folgende Ergebnisse: Bei allen Messungen waren Nitrat, Sulfat und Ammonium die Hauptkomponenten der kleinen Partikel, und die Massenkonzentrationen der kleinen Partikel (0,04 µm < aed < 1,72 µm) waren wesentlich größer als die der großen Partikel (1,72 µm < aed < 21µm). Die Partikel sind also überwiegend anthropogener Herkunft. Die großen Partikel enthielten zusätzlich Natrium und Kalzium, lediglich bei einzelnen Messungen in Melpitz wurde auch Chlorid als Hinweis auf Seesalzpartikel gefunden. Die Massenkonzentrationen aller Partikelbestandteile waren in Melpitz in der Regel etwas größer als auf dem Hohen Peißenberg, da die Partikelkonzentrationen mit zunehmender Höhe abnehmen und da Melpitz näher an Ballungsräumen liegt als der Hohe Peißenberg. Die Unterschiede zwischen den verschiedenen Meßkampagnen an einem Ort sind jedoch größer als die zwischen den beiden Orten. Die Variabilität sowohl der Massenkonzentrationen der Partikelbestandteile als auch der Gesamtmasse liegt im Bereich von zwei Größenordnungen und ist damit wesentlich größer als die Unterschiede zwischen den Meßkampagnen. Der mittlere Anteil der löslichen Masse an der Gesamtmasse beträgt für die kleinen Partikel 57 %, für die großen 30 %. Dieser Anteil variiert sehr stark (10-100 % bzw. 5-80 %). Ruß hat einen mittleren Anteil von 5 % an der Gesamtmasse (1-18 %). Wesentliche Parameter, die zu Veränderungen der Partikeleigenschaften führen, sind: - Luftmassen unterschiedlicher Herkunft und Geschichte - Veränderungen der Mächtigkeit und Struktur der atmosphärischen Grenzschicht - Emissionen lokaler Quellen - lokale meteorologische Parameter (Temperatur, Windrichtung, -geschwindigkeit) Die unterschiedliche Häufigkeit und Ausprägung dieser Einflußfaktoren führt zu Unterschieden zwischen den Ergebnissen der einzelnen Meßkampagnen. Die einzelnen Faktoren sind nicht voneinander unabhängig, da durch die großräumige Wettersituation und die Luftmassen die Ausprägung der lokalen Parameter bestimmt wird. Um eine Zusammenfassung von Messungen unter vergleichbaren meteorologischen Bedingungen zu erreichen, wurde eine Klassifikation der Daten auf der Basis von Rückwärtstrajektorien vorgenommen. Es wurden fünf Klassen unterschieden: vier Klassen umfassen Richtungssektoren mit jeweils 90 ° um die Haupthimmelsrichtungen (Nord, Ost, Süd, West), einer fünften (X) werden kurze Trajektorien zugeordnet. Dieser Ansatz wurde gewählt, weil ähnliche Luftmassen und damit meteorologische Bedingungen hinsichtlich Temperatur, Feuchte, Stabilität und Luftbeimengungen meistens durch ähnliche Trajektorien gekennzeichnet sind, die eine Aussage über die Herkunft und den Weg der Luft ermöglichen, die wiederum für die Ausprägung der Partikeleigenschaften maßgeblich sind. Eine weitere Unterteilung nach Tageszeiten (morgens, mittags, abends) wurde vorgenommen, da einige Meßgrößen deutliche Tagesgänge zeigten. Die Ergebnisse lassen sich wie folgt zusammenfassen: Die Klassifikation der meteorologischen Meßgrößen liefert sowohl im Hinblick auf die Charakterisitika der Trajektorienklassen (Herkunft der Luft) als auch für die Tagesgänge meteorologisch sinnvolle Ergebnisse. Die Lage der Stationen in einer Ebene und auf einem Berg führt zu einer unterschiedlichen Ausprägung von Tagesgängen der Temperatur und der Windgeschwindigkeit besonders während stabiler Hochdruckwetterlagen. Es zeigt sich, daß bedingt durch die Entwicklung der Grenzschicht auf dem Hohen Peißenberg vor allem bei Hochdruckwetterlagen im Tagesverlauf in zwei verschiedenen Atmosphärenschichten gemessen wird. Die starke Streuung der lokalen Windrichtungen innerhalb einer Trajektorienklasse führt dazu, daß der Einfluß lokaler bzw. regionaler Quellen durch die Klassifikation nur bedingt erfaßt wird, und liefert einen Hinweis auf die lokale Wetterlage. Die Klassifikation der Partikelmeßdaten liefert meteorologisch sinnvolle Ergebnisse, da die Konzentrationsunterschiede zwischen den einzelnen Klassen mit der Wetterlage und dem Einfluß regionaler Quellen zu begründen waren. Die Absolutwerte ließen sich allerdings nicht vergleichen, und es wurden im Detail meßkampagnenspezifische Begründungen gefunden. Es ergab sich jedoch für alle Meßkampagnen die Unterteilung in Klassen mit antizyklonalen Wetterlagen und kontinentaler Luft mit hohen Konzentrationen (Klassen Ost, Süd, West) und zyklonalen Wetterlagen und maritimer Luft mit geringeren Konzentrationen (Klassen Nord, West). Abweichungen von dieser Einteilung waren vor allem mit der geographischen Lage der Meßorte zu begründen. Ausgeprägte Tagesgänge mit Maxima bei den Morgenmessungen ergaben sich nur für Nitrat, bei einigen Messungen auch für Chlorid in den kleinen Partikeln durch temperaturabhängige Gleichgewichtsreaktionen instabiler Partikelkomponenten mit der Gasphase sowie für Ruß durch die Anreicherung von Emissionen lokaler Quellen bei geringer Grenzschichthöhe. Während sich die mittleren absoluten Konzentrationen in den einzelnen Klassen erheblich unterscheiden, ist die mittlere relative chemische Zusammensetzung der Partikel in allen Klassen ähnlich; die Variabilität der Anteile ist aber ebenfalls sehr groß. Mit Ausnahme der Advektion von Seesalzpartikeln sowie der temperaturbedingten Verschiebung der Anteile von Nitrat und Sulfat, lassen sich Unterschiede zwischen den Klassen nicht mit den durch die Klassifikation erfaßten Einflußfaktoren oder geographischen Besonderheiten begründen. Durch die Klassifikation nimmt die Variabilität sowohl der meteorologischen Meßgrößen als auch der Partikeleigenschaften ab. Für die meteorologischen Meßgrößen verringert sich die Variabilität durch die Klassifikation nach Trajektorien weniger als durch die nach Tageszeiten, für die Konzentrationen der Partikelbestandteile und der Masse führt hingegen die Klassifikation nach Trajektorien zu einer größeren Verminderung der Variabilität als die nach Tageszeiten. Die Anwendung beider Klassifikationskriterien führt zu einer Abnahme der Variabilität um im Mittel 55 % für die meteorologischen Meßgrößen und um 50 % bzw. 25 % für die Konzentrationen der Bestandteile und der Masse der kleinen bzw. der großen Partikel. Die Variabilität der Werte in einer Klasse bleibt jedoch auch nach Klassifikation größer als Unterschiede zwischen den Klassen. Sie wird vor allem durch die spezifische meteorologische Situation bedingt. Um die Auswirkungen der Variabilität der Partikeleigenschaften in meteorologischen Anwendungen abschätzen zu können, wurden aus den Meßdaten der Absorptionskoeffizient der Partikel und die daraus resultierenden Erwärmungsraten sowie das Partikelwachstum mit der relativen Feuchte berechnet und wie die Meßdaten klassifiziert. Die Ergebnisse lassen sich folgendermaßen zusammenfassen: Für die Absorptionskoeffizienten der trockenen Partikel wurden Werte zwischen 0,1·10-6/m und 97·10-6/m berechnet. Für die beiden Meßkampagnen im Herbst (Melpitz 1993 und 1994) ergaben sich etwa um den Faktor 2 größere mittlere Absorptionskoeffizienten als für die Meßkampagnen im Sommer, die maximalen Absorptionskoeffizienten waren in Melpitz aufgrund der starken lokalen Quellen um den Faktor 2-3 größer als auf dem Hohen Peißenberg. Für die maximalen Erwärmungsraten wurden Werte zwischen 0,003 und 0,128 K/h, für die Gesamterwärmung über die Tageslichtperiode zwischen 0,02 K und 0,81 K berechnet. Die Partikel liefern in Abhängigkeit von den Umgebungsbedingungen selbst während Meßkampagnen an zwei ländlichen Orten in Mitteleuropa einen vernachlässigbar geringen bis deutlichen Beitrag zum Strahlungsantrieb. In Melpitz waren sowohl die maximalen Erwärmungsraten als auch die Gesamterwärmung im Mittel um den Faktor 1,5 geringer als auf dem Hohen Peißenberg, da die maximalen Absorptionskoeffizienten zu einer Zeit bestimmt wurden, als das Strahlungsangebot noch gering war, während auf dem Hohen Peißenberg die Maxima von Absorptionskoeffizient und Strahlungsangebot zeitlich näher zusammenliegen. Die Klassifikation nach Rückwärtstrajektorien ergab deutliche Unterschiede (Faktor 3-5) zwischen den einzelnen Klassen, da in Klassen mit den höchsten Rußkonzentrationen auch das Strahlungsangebot am höchsten war und in Klassen mit niedrigen Rußkonzentrationen meistens starke Bewölkung vorherrschte. Zwischen maximaler Erwärmungsrate und Gesamterwärmung über die Tageslichtperiode wird ein linearer Zusammenhang gefunden, der sich aber aufgrund der verschiedenen Tagesgänge des Absorptionskoeffizienten für die Meßkampagnen in Melpitz und auf dem Hohen Peißenberg unterscheidet. Sowohl für den exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung als auch für das Partikelwachstum bei fester relativer Feuchte ergeben sich im Mittel nur geringe Unterschiede zwischen kleinen und großen Partikeln sowie einzelnen Klassen durch die chemische Zusammensetzung des wasserlöslichen Anteils der Partikel. Unterschiede sind vielmehr durch den Anteil der wasserlöslichen Masse an der Gesamtmasse bedingt. Es ergibt sich ein linearer Zusammenhang zwischen dem exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung und dem Anteil der wasserlöslichen Masse an der Gesamtmasse der Partikel. Die Unterschiede zwischen den einzelnen Klassen lassen sich nicht auf einzelne meteorologische oder geographische Einflußfaktoren zurückführen. Sowohl für die Absorption solarer Strahlung als auch für das Wachstum der Partikel mit der relativen Feuchte ist die Variabilität der abgeleiteten Größen geringer als die der Ausgangsgrößen, sie ist aber immer noch mindestens so groß wie die Unterschiede zwischen den einzelnen Klassen. Zusammenfassend läßt sich festhalten, daß in dieser Arbeit ein Datensatz aus Messungen von meteorologischen Parametern und Partikeleigenschaften zusammengestellt wurde, der zusammen mit der Klassifikationsmethode nach Rückwärtstrajektorien und Tageszeiten eine Untersuchung der Zusammenhänge zwischen der Variabilität der Meßgrößen und den meteorologischen Bedingungen ermöglicht und eine Abschätzung der Auswirkungen der Variabilität der Partikeleigenschaften, insbesondere der chemischen Zusammensetzung, in meteorologischen Anwendungen zuläßt. Der Klassifikationsansatz nach Rückwärtstrajektorien ist prinzipiell geeignet, um die Abhängigkeit der Partikeleigenschaften von den meteorologischen Bedingungen zu beschreiben. Es ist jedoch nicht möglich, einen Einflußfaktor als den wichtigsten hervorzuheben oder sogar quantitative Beziehungen zwischen Partikeleigenschaften und meteorologischen Parametern herzustellen. Die Herkunft der Luft liefert einen Hinweis auf die zu erwartenden meteorologischen Bedingungen und Partikeleigenschaften, die lokale meteorologische Situation bestimmt jedoch die genaue Ausprägung der Meßgrößen. Eine Berücksichtigung des Einflusses der lokalen Wetterlage sowie lokaler bzw. regionaler Quellen könnte durch die Einbeziehung der Windrichtung vorgenommen werden. Auf der Basis längerer Meßreihen sollte überprüft werden, ob die Unterteilung in fünf Trajektorienklassen modifiziert werden muß. Der große Einfluß der spezifischen Wetterlage auf die Meßergebnisse führt dazu, daß die Ergebnisse von Meßkampagnen weder für einen längeren Zeitraum noch für ein größeres Gebiet repräsentativ sein können. Ebenso ist die Verwendung von Mittelwerten über längere Zeiträume ist nicht sinnvoll, da die Variabilität der Meßgrößen während eines Tages sowie von Tag zu Tag sehr groß ist. Aufgrund der komplexen Zusammenhänge zwischen Partikeleigenschaften und meteorologischen Bedingungen erscheint es unbedingt nötig, längere Meßreihen aller wichtigen Aerosoleigenschaften durchzuführen, damit statistisch belastbare Daten über eine hinreichend große Zahl von Messungen unter verschiedensten meteorologischen Bedingungen zu allen Jahreszeiten vorliegen, die Aussagen über Zusammenhänge mit Witterungsbedingungen, Tagesgänge, Jahresgänge aber auch die Vertikalverteilung der Partikeleigenschaften zulassen. Dabei ist es wichtig, alle interessierenden Größen gleichzeitig zu messen, da nur dann eine Untersuchung des Einflusses der Variabilität verschiedener Parameter auf die für die Anwendung wichtigen Größen möglich ist.
Die Vorteile von konuskronengestütztem Zahnersatz für den Patienten sind bekannt: Hoher Trage- und Kaukomfort, bequeme Handhabung, einfache Mundhygiene, Selbstreinigungseffekt durch den Speichel, sekundäre Verblockung durch die Suprakonstruktion, axiale Belastung der Pfeilerzähne, Kombinationsfähigkeit von Implantaten mit natürlichen Pfeilern und prospektive Erweiterungsfähigkeit. Bisher jedoch verhinderten die aufwändige Herstellung und die Problematik der Passungspräzision eine breite Anwendung dieser Art von Zahnersatz. Insbesondere für eine günstige Langzeitprognose von Implantaten wird absolute Spannungsfreiheit der Suprastruktur gefordert. In vielen Ländern z. B. auch in den USA, in denen die entsprechende zahntechnische Infrastruktur fehlt, können doppelkronengestützte Prothesen nicht hergestellt werden. Mit der Methode der definitiven intraoralen Fügung von Gerüstkomponenten können diese Anforderungen an die Passungspräzision problemlos erfüllt werden. Gleichzeitig wird die zahntechnische Fertigung vereinfacht und damit Zeitaufwand und Kosten geringer. Durch diese vereinfachte Herstellung und die Kostenreduzierung wird doppelkronengestützter Zahnersatz für eine größere Patientenklientel verfügbar. Ziel der Studie war, das neuartige Behandlungsvorgehen methodisch zu optimieren und die Verweildauer und die klinischen Auswirkungen von intraoral gefügtem doppelkronenverankerten Zahnersatz zu evaluieren. Im Zeitraum von 1992 bis 1998 wurden 61 Patienten mit 64 Prothesen, deren Gerüste an insgesamt 238 Fügestellen definitiv intraoral geklebt wurden, versorgt. Nach der Fertigstellung wurden die Daten des Zahnersatzes (Anzahl, Art und Verteilung der Pfeiler, Werkstoffkombination, Design und Vorbehandlung der Fügestellen und Zeitpunkt der Klebung) dokumentiert. 51 dieser Patienten mit 53 Prothesen und insgesamt 209 Fügestellen konnten halbjährlich kontrolliert werden. Die Nachuntersuchung umfasste eine klinische Untersuchung, eine lichtmikroskopische Kontrolle und eine Evaluation der Patientenmeinung mittels Fragebogen. Eine Klebestelle versagte bereits nach 14 Monaten unter Risiko: Der Klebespalt war aufgrund mangelnder Kongruenz von Patrize und Matrize zu breit, was die Stabilität der Klebung massiv reduzierte. Alle anderen Prothesen wiesen nach durchschnittlich 38,93 Monaten (Min = 18, Max = 85 Monate) eine spannungs- und schaukelfreie Passung auf. Die Klebestellen zeigten auch bei lichtmikroskopischer Untersuchung keine Läsionen, die auf ein Nachlassen der Klebung hindeuten. Freiliegendes Klebekomposit an einer Prothese musste wegen Auswaschungen nachgefüllt werden. Die REM-Aufnahmen einer im Mundmilieu durchgeführten Klebung zeigen den innigen Verbund des Klebekomposits mit den metallischen Prothesenkomponenten. 90 % der befragten Patienten gaben einen schaukelfreien Sitz ihrer Prothese an, lediglich 4 % beklagten Probleme beim Herausnehmen der Prothese. Mit "gut" bzw. "sehr gut" bezeichneten 84 % der Patienten den Tragekomfort der Prothese; 90 % der Patienten bezeichneten den Halt ihrer Prothese mit "zufrieden" bis "sehr gut". Die intraorale Fügung ist eine robuste, fehlertolerante Methode, die eine hochpräzise Passung gewährleistet. Obwohl keine Ausschlusskriterien zur Auswahl der Patienten bestanden, wurde eine außerordentlich hohe Zuverlässigkeit der Methode von 99,58 % erreicht. Aufgrund der starren Lagerung des Zahnersatzes können die kinetikbedingten Folgen wie z. B. Zahnlockerungen, Unterfütterungen, Bruchreparaturen und Schraubenlockerungen bei Implantaten auf ein Minimum reduziert werden. Durch die intraorale Fügung wird eine Prophylaxe oraler Strukturen erreicht, und die Folgebehandlungen und damit auch –kosten reduziert. Zudem erhält der Patient einen Zahnersatz, der einerseits sehr hohen Trageund Kaukomfort bietet und andererseits eine einfache Mundhygiene gewährleistet. Durch die klinische Bewährung können alle Nachteile einer Lötung, insbesondere die Gefahr der Allergisierung durch Korrosionsprodukte, umgangen werden. Zusammen mit der Silikatisierung/Silanisierung mittels dem Rocatec®-Verfahren haben sich die Reparatur-Möglichkeiten von verblendetem Zahnersatz erweitert, da keine Wärmebehandlung mehr notwendig ist. Das intraorale Fügeverfahren bildet die Grundlage für zukunftsweisende Entwicklungen: Mit präfabrizierten Implantatabutments kann die laborseitige Herstellung von Primärkronen und Matrizen ersetzt und damit der Zahnersatz kostengünstiger hergestellt werden. Das metallische Prothesengerüst kann unter erhöhtem Platzbedarf durch Glasfaserverbund-Werkstoff ersetzt werden, was die Herstellung von nahezu metallfreiem doppelkronengestütztem Zahnersatz für entsprechend sensibilisierte Patienten ermöglicht.
In dieser retrospektiven Studie wurde die Ergebnisqualität des Rettungsdienstbereiches Frankfurt am Main bei präklinischen Reanimationen untersucht. Das untersuchte System versorgt etwa 650.000 Einwohner auf einer Fläche von 248,36 km 2 . In ei nem gestaffelten System waren 12 Rettungs (RTW) und 4 Notarztwagen (NAW) rund um die Uhr an der Notfallrettung beteiligt. Weitere W und KTW waren zu bestimmten Tageszeiten im Einsatz. Im Erfassungszeitraum wurden insgesamt 506 Reanimationen registriert, an dem der Rettungsdienst beteiligt war, von denen 447 die Einschlusskriterien (kardial bedingter Herzkreislaufstillstand, Alter >= 15 Jahre) erfüllten. 160 Patienten wurden nach Herzkreislaufstillstand (35,8%) in ein Krankenhaus transportiert, 112 Patienten (25,1%) hatten dabei nachweislich einen Spontankreislauf. 35 Patienten (7,8% von n=447) wurden aus dem Krankenhaus entlassen. Der primäre Reanimationserfolg war signifikant abhängig vom Alter der Patienten, dem EKG-Befund bei Reanimationsbeginn, dem Notfallort und der Tageszeit. Signifikant in Bezug auf das sekundäre Überleben erwiesen sich nur der initiale EKG-Befund und der Notfallort. Patienten mit Kammerflimmern und Patienten, die in der Öffentlichkeit einen Herzkreislaufstillstand erlitten, hatten eine signifikant höhere Überlebenschance. Das Geschlecht der Patienten und der Beginn einer Reanimation durch Anwesende hatten keinen signifikanten Einfluss auf primärem und sekundärem Reanimationserfolg. Die Zeit bis zum Eintreffen des ersten Rettungsmittels betrug im Median 6 Minuten. Ein Notarzt traf im Median nach 10 Minuten ein. Die Frankfurter Erfolge sind im Vergleich zur Literatur bezogen auf den sekundären Reanimationserfolg signifikant niedriger. Mögliche Gründe dafür sind: . der hohe Anteil von Patienten mit Asystolie . keine Frühdefibrillation durch RTW im Studienzeitraum . geringer Anteil von Anwesendenreanimationen . Infrastruktur der Großstadt Frankfurt Folgende Veränderungen könnten Schwachstellen ausgleichen und die Effektivität des Rettungssystems verbessern: - Umstellung von stationärem Notarztsystem (NAW) auf Rendezvoussystem (NEF) - Frühdefibrillation mit AED - ''First responder" - ''Public access defibrillation" - strengere Indikationsstellung zur Reanimation - bessere und intensivierte Breitenausbildung in Wiederbelebungsmaßnahmen - Anleitung zur Telefonreanimation durch Rettungsleitstelle