Refine
Year of publication
- 2002 (190) (remove)
Document Type
- Doctoral Thesis (190) (remove)
Has Fulltext
- yes (190) (remove)
Is part of the Bibliography
- no (190) (remove)
Keywords
- Gaschromatographie (3)
- Genexpression (3)
- Authentizität (2)
- Gephyrin (2)
- Halbleiteroberfläche (2)
- Ionenkanal (2)
- Kontamination (2)
- Abmahnung (1)
- Abweichendes Verhalten (1)
- Allosterischer Effektor (1)
Institute
- Medizin (43)
- Biochemie und Chemie (41)
- Biowissenschaften (30)
- Pharmazie (23)
- Physik (17)
- Geowissenschaften (9)
- Informatik (4)
- Geschichtswissenschaften (3)
- Gesellschaftswissenschaften (3)
- Psychologie (3)
Termiten (Insecta: Isoptera) sind soziale Insekten und ein wichtiger Bestandteil der Fauna terrestrischer Ökosysteme der Tropen. Dort stellen sie bis zu 25 Prozent der Bodenfauna und sind als Ökosystem-Ingenieure eine sogenannte Keystone-Gruppe (Abe & Higashi, 1997). Untersuchungen zur Rolle in Stoffkreisläufen wurden bisher hauptsächlich in den Savannen Afrikas oder Asiens durchgeführt. Bis heute sind auffallend wenig Daten aus tropischen Wälden vorhanden. Die vorliegende Arbeit beschäftigte sich mit mehreren Teilaspekten der Termitenökologie in einem amazonischen Festlandregenwald. Die Atmungsaktivität von 24 Termitenarten wurde mittels Infra-Rot-Gas-Absorptions-Messungen (IRGA-Messungen) bestimmt. Hierbei wurde nach Kasten (Arbeiter und Soldaten) differenziert. Das Verhältnis von Körpermasse und CO2-Produktion folgt einem ubiquitären biologischen Gesetz, nach dem die Metabolismusrate mit zunehmender Köpergröße abnimmt. Die untersuchten Termiten konnten in vier verschiedene Nahrungsgilden eingeteilt werden: Holzfresser, OM-Fresser (OM=organisches Material), Interfacefresser und Spezialisten. In Übereinstimmung mit der taxonomischen und funktionellen Einteilung konnte gezeigt werden, dass Holzfresser mit 0,87 g [CO2 g Biomasse -1] signifikant mehr CO2 als OM-Fresser (0,47 g [CO2 g Biomasse -1]) und Spezialisten (0,42 g [CO2 g Biomasse -1]) produzieren. In einem weiteren Teil der Arbeit wurden verschiedene Einflüsse unterschiedlicher Waldsysteme auf die Termitenaktivität untersucht. Die Präsenz von Termiten an Köderfallen wurde dazu in drei verschiedenen Waldsystemen (Primärwald, Sekundärwald und verschiedene agroforstwirtschaftliche Anbausysteme) für den Zeitraum eines Jahres beobachtet. Es konnte gezeigt werden, dass die Termitenaktivität mit dem Komplexitätsgrad der untersuchten Systeme und der Bodenfeuchte korreliert. Die meisten mit Termiten besetzten Fallen fanden sich im Primärwald. Es war außerdem möglich den Nachweis zu liefern, dass der Vegetationstyp forstwirtschaftlich genutzter Flächen die Termitenaktivität beeinflusst. In vier verschiedenen agroforstwirtschaftlichen Polykulturen wurden sowohl in der Trocken- als auch in der Regenzeit mehr besetzte Köderfallen gezählt als in Monokulturen der untersuchten amazonischen Nutz-Baumarten (Citrus sinensis, Theobroma grandiflorum, Hevea brasilensis, Bactris gasipaes und Cocos nucifera). Darüber hinaus konnte gezeigt werden, dass Termiten auf Feuchtigkeitsunterschiede im Boden reagieren indem sie zu feuchte (> 28% volum. Wassergehalt) oder zu trockene Standorte (< 23% volum. Wassergehalt) meiden. Auf der Basis der ermittelten Atmungsdaten wurde die Rolle der Termiten im lokalen und globalen Kohlenstoffkreislauf mit Hilfe von Modellen spezifiziert. Erstmalig konnten hierbei die Daten der neotropischen Termiten in ökologische Modelle integriert werden. Zum einen ergab die Modellierung der CO2-Produktion der untersuchten Arten aus Teil A mit dem Makrofaunamodell NEOMITES, dass Termiten in einem tropischem Regenwald in der Lage sind, bis zu 28 Prozent des Bodenkohlenstoffes zu mobilisieren. Zum anderen wurde mit einem im Rahmen dieser Arbeit entwickelten Modell die Nettomenge der Treibhausgase Kohlendioxid und Methan die durch Termiten produziert wird, berechnet. Demnach tragen Termiten tropischer Regenwälder zwischen 0,52 und 2,75 Prozent zur globalen jährlichen Nettoproduktion des Kohlendioxids bei und liegen damit über dem bisher vermuteten Anteil von 0,22-1,56 Prozent. In bezug auf Methan liegen die Ergebnisse der globalen jährlichen Nettoproduktion im Bereich bisheriger Schätzungen (zwischen drei und 19 Prozent). Die durchgeführten Untersuchungen konnten zeigen, dass Termiten auf Bodenqualitätsmerkmale wie Feuchtigkeit reagieren und somit als Monitororganismus bei der nachhaltigen Nutzung tropischer Böden eingesetzt werden können. Durch die Ermittlung der Atmungswerte und der darauf basierenden Modellierung konnte ihre zentralen Rolle im Kohlenstoffkreislauf der Böden tropischer Regenwälder demonstriert werden. Die Modellvorhersagen ihres Beitrags zur Nettoproduktion von Kohlendioxid und Methan zeigen, dass Termiten tropischer Regenwälder keine primäre Quelle des atmosphärischem Kohlendioxids und Methans darstellen. Allerdings liegt ihr Beitrag - insbesondere im Fall von Kohlendioxid - über den bisherigen Annahmen.
Dihydrocodein wird im wesentlichen zu Dihydrocodein-6-O-43-ß-glucuronid (DHC6G), Dihydromorphin (DHM), Dihydromorpbin-3-O-ß-D-glucuronid (DHM3G), Dihydromorphin-6-O-ß-D-glucuronid (DHM6G) und Nordihydrocodein (NDHC) biotransformiert. In Analogie zu Codein wird vermutet, dass die Metaboliten DHM und DHM6G pharmkologisch deutlich aktiver als die Muttersubstanz sind und somit zur Wirkung von DHC wesentlich beitragen können, auch wenn sie nur in geringen Mengen gebildet werden. Da die O-Demethylierung von Dihydrocodein zu Dihydromorphin durch das polymorphe Cytochrom P450-Enzym CYP2D6 katalysiert wird, sind in EM (schnelle Metabolisierer) und PM (langsame Metabolisierer, weisen kein funktionelles CYP2D6-Enzym auf) unterschiedliche Metabolitenprofile zu beobachten. In etwa 5-10% der Kaukasier, die PM für CYP2D6 sind, könnte sich somit ein Therapiemisserfolg nach Gabe von therapeutisch empfohlenen Standarddosen an DHC einstellen. Es war daher Ziel der vorliegenden Arbeit, die Bedeutung der Biotransformation für die Wirkung von Dihydrocodein beim Menschen zu untersuchen. Im Rahmen dieser Untersuchung wurden Affinitätsprofile an Hirnmembranpräparationen und Affinitäts- und Aktivitätsprofile an humanen Neuroblastomzellen für DHC und seine Metaboliten erstellt. Des weiteren wurden pharmakokinetische und pharmakodynamische Parameter (und deren Zusammenhang) von Dihydrocodein und seinen Metaboliten beim gesunden Menschen unter Berücksichtigung des CYP2D6-Phänotyps mit Hilfe einer Pilot-Probandenstudie bestimmt. Zuletzt wurden die Ergebnisse der Affinitäts- und Aktivitätsversuche mit den Ergebnissen der Probandenstudie unter Berücksichtigung der verfügbaren Literaturdaten in Zusammenhang gebracht. Di in vitro-Untersuchungen zeigten, dass alls Prüfsubstanzen mit Ausnahme des unwirksamen DHM3G vorwiegend u-selektive Agonisten waren und dass das prinzipielle Verhältnis der Affinitäten bzw. Aktivitäten der einzelnen aktiven Prüfsubstanzen zueinander in allen Untersuchungen annähernd gleich war. Auf Grundlage dieser Daten konnte folgender Grundsatz formuliert werden; Die Affinitäten/Aktivitäten von DHM und DHM6G waren etwa um den Faktor 100 größer als die von DHC, während die anderen Metaboliten (mit Ausnahme des unwirksamen DHM3G) vergleichbare Affinitäten/Aktivitäten besaßen. Die im Rahmen der Probandenstudie ermittelten pharmakokinetischen Werte bestätigten verfügbare Literaturdaten, insbesondere dass CYP2D6 wesentlich für die Bildung von DHM war. So konnten weder DHM, DHM3G noch DHM6G in Plasma und Urin von PM detektiert werden. Die pharmakodynamischep Untersuchungen mittels Pupillometrie zeigten einen signifikanten Unterschied im ursprünglichen Pupillendurchmesser an den Zeitpunkten 1 bis 6 Stunden zwischen Placebo einerseits und EM bzw. PM andererseits. Damit konnte zunächst eine eigene in vivo-Wirkung von DHC beim Menschen nachgewiesen werden. Jedoch ergab sich kein signifikanter Unterschied zwischen EM und PM. Im zweiten pharmakodynamischen Modell (Schmerzmodell) konnten bezüglich der Parameter R-III-Reflexschwelle und VAS-EC30 keine Unterschiede sowohl zwischen EM und PM als auch zwischen Placebo und EM bzw. PM festgestellt werden, so dass 60 mg DHC keine analgetische Wirkung hatte oder das Modell für die Ermittlung der analgetischen Potenz von 60 mg DHC ungeeignet war. Einschränkend muss jedoch hier erwähnt werden, dass die Studie aufgrund der kleinen Fallzahl nur Pilotcharakter aufwies. Die Ergebnisse der vorliegenden Arbeit in Zusammenhang mit den verfügbaren Literaturdaten lassen die Schlussfolgerung zu, dass die pharmakologisch wesentlich aktiveren Metaboliten DHM und DHM6G nicht oder nur geringfügig zur Wirkung von DHC nach oraler Einzelgabe von 60 mg DHC beitragen. Gründe hierfür könnten die geringe Bildung von DHM und seinen Metaboliten (ca. 9%) und/oder durch Verteilung und Ausscheidung bedingte niedrige Konzentrationen am Rezeptor in vivo sein. Somit scheint die Biotransformation keine Bedeutung für die Wirkung von DHC zu haben. Entsprechend sind keine Unterschiede in der Therapie von EM und PM mit niedrigen therapierelevanten DHC-Dosen zu erwarten.
Flußlandschaften galten lange Zeit als nur bedingt besiedelbar aufgrund unkalkulierbarer Hochwasser- und Gesundheitsgefahren. Überdies stellten sie Hemmnisse für Verkehr und Kommunikation dar. Es waren vornehmlich ingenieurtechnische Errungenschaften, die den Nutzwert der Flußlandschaften erschlossen (Hey 1997). Durch Hochwasserschutzkonzepte, Wasserkraftwerke und Flußregulierungen wurden u.a. eine geregelte Trinkwasserversor- gung gewährleistet, die Schiffbarkeit verbessert sowie die landwirtschaftliche und gewerbliche Nutzung der fruchtbaren und flachen Auenbereiche ermöglicht. Das fluviale System und dessen nutzbare Ressourcen stehen weiterhin unter einem steigenden ökonomischen Druck. Zusätzlich wird der erwartete Klimawandel der nächsten Jahrzehnte die Stoffflüsse der fluvialen Systeme einerseits direkt und andererseits, mittels veränderter Landnutzungsmuster, indirekt verändern. Die Beispiele aus der jüngeren Erdgeschichte belegen, wie empfindlich fluviale Systeme auf Änderungen der externen Steuergrößen reagieren (s. Kap. 2.2., 2.3.). Die ingenieurtechnischen Planungen berücksichtigen i.d.R. zeitliche Größenskalen von ±100 Jahren, jedoch werden die erwarteten Änderungen der Klimaelemente das Ausmaß der Klimafluktuationen der letzten beiden Jahrhunderte übertreffen (z.B. Houghton et al. 2001). Zudem sind die Reaktionen des fluvialen Systems auf Änderungen externer Steuergrößen als physiographisch spezifisch, nicht- deterministisch und nicht-linear einzustufen, was sich in der räumlich und zeitlich veränderten Reaktion fluvialer Stofftransporthaushalte widerspiegelt (Kap. 2.2.). Zum einen erschwert das die technische Planbarkeit der nutzbaren Ressourcen des fluvialen Systems, zum anderen wächst mit der intensiveren Nutzung das wirtschaftliche Gefähr- dungspotential durch natürliche oder quasi-natürliche fluvialmorphologische Prozesse. Der wohlüberlegte Umgang mit den Ressourcen des fluvialen Systems hängt somit zu einem gewissen Grad von der kurz- bis mittelfristigen Vorhersagbarkeit der Sensibilität ab, die dessen funktionale und räumliche Komponenten gegenüber externen Impulsen aufweisen. Beispiele für variable Reaktionen lassen sich aus der Untersuchung des fluvialen Wandels in der Vergangenheit gewinnen. So zeigen die Ergebnisse der fluvialmorphologischen Forschung in der Hessischen Senke eine räumlich und zeitlich differenzierte Veränderlichkeit der fluvialen Reaktion gegenüber Klimaänderungen. In der Fluvialmorphologie haben sich in jüngerer Zeit Forschungsansätze etabliert, die komplexe und räumlich disparate Rückkopplungsmechanismen zwischen Prozeß und Form in den Mittelpunkt der fluvialen Entwicklung rücken (z.B. Schumm 1977, Philipps 1992b, Lane
Der erste Teil dieser Promotionsarbeit umfasste die Etablierung und Validierung eines in vitro Testsystems zur Auffindung von Substanzen, die selektiv die Interaktion der mitogenen Signalmoleküle Ras und Raf inhibieren können. Die Deregulation der Ras-Signalkaskade spielt in einer Vielzahl maligner Transformationen eine bedeutende Rolle. Daher besteht in der pharmazeutischen Forschung großes Interesse an der Auffindung von Inhibitoren, die in der Lage sind, solche proliferativen Signale zu unterbinden und möglicherweise Ras- vermittelte Malignität einzudämmen. Das im Rahmen dieser Promotionsarbeit entwickelte Testsystem zur Detektion von Inhibitoren der Ras-Raf-Proteininteraktion basiert auf der intracistronischen ß-Galaktosidase Komplementation. Hierbei werden zwei sich nicht komplementierende Deletionsmutanten der ß-Galaktosidase, deren Affinität zueinander sehr niedrig ist, mit interagierenden Proteinpaaren fusioniert, wodurch es zur Ausbildung eines aktiven Enzymkomplexes kommen kann, dessen Aktivität sich über die Umwandlung eines fluorogenen Substrats nachweisen lässt. Bei Expression der interagierenden Fusionsproteine im E.coli Stamm ER2507 zeigte sich in intakten Zellen eine spezifische Komplementation der Interaktionspartner. Eine in vitro Komplementation der Fusionsproteine konnte trotz nativer Aufreinigung nicht beobachtet werden, da die Proteine im zellfreien System unter den gegebenen Versuchsbedingungen nur sehr schwach miteinander interagierten. Das zelluläre Testsystem ließe sich in dieser Form für die Wirkstoffsuche nach Inhibitoren der Ras-Raf-Proteininteraktion einsetzen. Die Evaluierung und Validierung muss aber für jedes interagierende Proteinpaar gesondert erfolgen. Der zweite Teil dieser Promotionsarbeit umfasste die Entwicklung und Charakterisierung zellulärer Systeme zur Validierung von PKB/Akt als Zielstruktur für die Entwicklung neuartiger anti-tumoraler Strategien. PKB/Akt wird in der Literatur als zentraler Mediator von zellulären Überlebenssignalen beschrieben. Zudem weisen verschiedene Tumore eine konstitutive Aktivierung und/oder eine Überexpression von PKB/Akt auf, was möglicherweise mit dem Auftreten von Chemoresistenz korreliert. Im Rahmen dieser Promotionsarbeit konnte durch die Etablierung eines geeigneten zellulären Modells die Bedeutung von PKB/Akt bei der Verhinderung des Auftretens von Anoikis herausgestellt werden. Darüber hinaus gelang es erstmals, einen kausalen Zusammenhang zwischen konstitutiver Aktivierung von PKB/Akt und der Vermittlung von Chemoresistenz in vitro als auch in vivo darzulegen. Bei der molekularen Untersuchung der PKB/Akt- vermittelten Desensitivierung von Lungenkarzinomzellen gegenüber Zytostatika zeigte sich, dass PKB/Akt Chemoresistenz durch breit gefächerte Eingriffe in die apoptotischen Hauptsignalwege über eine Vielzahl von Mechanismen wie beispielsweise die verstärkte Phosphorylierung der Initiator-Caspase 9, die erhöhte Expression des anti-apoptotischen Proteins Bcl-xL oder die verlangsamte Induktion von p53 vermittelt. Die selektive Inhibition der Kinaseaktivität von PKB/Akt stellt somit einen interessanten Ansatz für neuartige therapeutische Strategien dar, die darauf abzielen, Tumorzellen, die Chemoresistenz aufgrund einer hohen intrinsischen Aktivität von PKB/Akt aufweisen, durch Applikation eines PKB/Akt-Inhibitors gegenüber Standard-Chemotherapeutika zu resensitivieren und auf diese Weise eine Vielzahl von chemoresistenten Tumoren einer Therapie zugänglich zu machen.
Diese Zusammenfassung ist in zwei Abschnitte gegliedert. Im Abschnitt 6.1. wird die physiologische Bedeutung der Glutamatrezeptoren (GluR) und ihr biologischer Hintergrund kurz erklärt. Am Ende dieses Abschnitts wird der Stand der Strukturanalyse des GluR-B Ionenkanals zu Beginn des Projektes zusammengefasst. Im nachfolgenden Abschnitt 6.2. sind die wesentlichen Ergebnisse der hier vorgelegten Arbeit zusammengefasst. 6.1. Die Bedeutung von Glutamatrezeptoren - Stand der Strukturanalyse zum Beginn dieser Arbeit Die Kommunikation zwischen Nervenzellen erfolgt vorwiegend an hochspezialisierten Kontaktstellen den chemischen Synapsen. Der enge Raum zwischen sendender und empfangender Nervenzelle wird auch als synaptischer Spalt bezeichnet. Der Prozess der synaptischen Übertragung beruht auf der präsynaptischen Freisetzung von chemischen Botenstoffen, sogenannten Neurotransmittern in den synaptischen Spalt. Die Aminosäure L- Glutamat (Glu) ist der wichtigste erregende Neurotransmitter im menschlichen Gehirn und Rückenmark. Dementsprechend bedeutend ist die Rolle der ionotropen Glutamatrezeptoren (iGluRs), die sie bei der elektrochemischen Erregungsübertragung am synaptischen Spalt spielen (Seeburg, 1993), (Hollmann and Heinemann, 1994), (Dingledine et al., 1999). Die Freisetzung von Neurotransmittern wird durch ein elektrisches Signal (Aktionspotential) ausgelöst, das sich entlang der Nervenfaser, dem Axon, bis zur Nervenendigung, der Synapse, fortpflanzt. Nach der Freisetzung diffundieren die Neurotransmitter durch den synaptischen Spalt und binden an sogenannte Rezeptoren. Ionotrope Glutamatrezeptoren sind Ionenkanäle, die in die Membran der nachgeschalteten (postsynaptischen) Nervenzelle eingebaut sind. Sie zählen deshalb zu den Membranproteinen. Als ligandgesteuerte kationenselektive Ionenkanäle machen Glutamatrezeptoren (GluRs) die postsynaptische Membran nach Aktivierung durch Ligandbindung für bestimmte Kationen durchlässig. Der Einstrom von Ionen bewirkt eine Änderung des Membranpotentials. Die Stärke der synaptischen Übertragung ist lebenslang modulierbar; die sogennante synaptische Plastizität wird als eine entscheidende Grundlage für die Erklärung von Lernen und Gedächtnis angesehen. Drei synthetische Agonisten aktivieren die GluRs selektiv und wurden deshalb für die Klassifizierung der ionotropen Glutamatrezeptoren herangezogen. Bei den Agonisten handelt es sich um -Amino-3-hydroxy-5-methyl-4-isoxazol-4-propionat (AMPA), Kainat and N- Methyl-D-Aspartat (NMDA). Die ersten beiden Subtypen werden auch als non-NMDA- Rezeptoren zusammengefasst. Die Aktivierung und Desensitivierung der non-NMDA Rezeptoren ist schneller als die der NMDA-Rezeptoren. Aus molekularbiologischer Sicht (siehe Kapitel 1.3.2.) zeigen die drei Klassen der ionotropen Glutamatrezeptoren eine beträchliche Diversität. So gibt es vier verschiedene Unterheiten vom AMPA-Subtyp, nämlich GluR-A, GluR-B, GluR-C und GluR-B. In dieser Arbeit steht die Strukturanalyse eines aus GluR-B Untereinheiten bestehenden AMPA-Rezeptors im Vordergrund. (Die weitere Unterteilung der NMDA- und Kainatrezeptoren kann dem Kapitel 1.3.2. auf Seite 6 entnommen werden.) Bestimmte Abschnitte der Aminosäurensequenz von Glutamatrezeptoren sind durch hydrophobe Bereiche gekennzeichnet ((M1-M4) in Abbildung 6.1.A (A.)). Das durch verschiedene Untersuchungen etablierte Modell der Glutamatrezeptor-Topologie zeigt 3 Transmembrandomänen (M1, M3 und M4) und eine Membranschleife (M2) (Hollmann et al., 1994), (Kuner et al., 1996). Der Aminoterminus ist extrazellulär, der Carboxyterminus hingegen intrazellulär. Daraus ergibt sich die in Abbildung 6.1.A (B.) abgebildete Topologie (Paas, 1998). S1 und S2 kennzeichnen die Ligandbindungsdomäne. Glutamatrezeptoren (GluR) sind Oligomere, die sich mit grosser Wahrscheinlichkeit aus vier Untereinheiten (Rosenmund et al., 1998), (Ayalon and Stern-Bach, 2001) zusammensetzen (siehe Kapitel 1.3.3.). Die Zusammenlagerung verschiedener Untereinheiten zu einem funktionellen Kanal setzt voraus, dass die Untereinheiten zum gleichen Subtyp gehören, d.h. AMPA Untereinheiten können nur mit anderen AMPA Untereinheiten einen Ionenkanal bilden. Das gleiche gilt für die Zusammensetzung von NMDA und Kainat-Rezeptoren. Das Modell eines tetrameren Glutamatrezeptors ist im Bild C. der Abbildung 6.1.A zu sehen. Die Bestimmung der Quartärstruktur eines vollständigen Glutamatrezeptors ist bislang nicht veröffentlicht. Die strukturelle Analyse von Proteinen erfordert die Isolierung von reinem und funktionellem Protein. Im Vergleich zu den meisten löslichen Proteinen erfordert die Isolierung von Membranproteinen oft besonderer Optimierung. Falls das Vorkommen des Proteins in natürlichem Gewebe gering ist, so kann die strukturelle Analyse durch rekombinante Expression in einem geeigneten Wirtsorganismus zugänglich gemacht werden. Die Isolierung von Milligramm-Mengen eines rekombinanten homomeren GluR-B Rezeptors aus dem entsprechenden Baculovirusexpressionssystem (Keinänen et al., 1994) wurde in unserem Labor etabliert (Safferling et al., 2001) und wurde im ersten Jahr dieses Projektes fortgeführt. Durch zonale Ultrazentrifugation konnte gezeigt werden, dass die molekulare Masse des GluR-B Proteinkomplexes ca. 495 kD beträgt. Dieser Wert liegt in der Nähe des theoretischen Molekulargewichts eines tetrameren Ionenkanals, dessen Molmasse sich aus vier GluR-B Untereinheiten (104 kD) und einer Detergenzmizelle von ca. 63-97 kD zusammensetzt (Safferling et al., 2001). Die elektronenmikroskopische Analyse des Proteinkomplexes von W. Tichelaar aus unserer Gruppe erfolgte 1999 durch Negativfärbung. Für die Strukturanalyse mit Hilfe der Software IMAGIC wurden 10 000 Proteinteilchen selektiert. Das Ergebnis der Bildrekonstruktion ist in der folgenden Abbildung 6.1.B gezeigt. Die projezierten Dimensionen des Models entsprechen einem Molekül mit den Dimensionen 17 nm × 11 nm × 14 nm. Das Model zeigt keine ausgezeichnete Symmetrie, die auf die Stöchiometrie des GluR hinweisen könnte. Das Molekül zeigt mit Färbemittel gefüllte Vertiefungen und innere Strukturen, die vielleicht an der Ionenleitung beteiligt sind. 6.2. Funktionelle und strukturelle Charakterisierung des GluR-B Ionenkanals In der Fortsetzung des oben beschriebenen Projektes wurden für die rekombinante Expression desselben Rezeptors (GluR-B homomer) stabil transformierte Insektenzellen eingesetzt. Dazu wurde die für die GluR-B Untereinheit kodierende und in Plasmiden enthaltene DNA in Insektenzellen transformiert (siehe APPENDIX A.2.2.). Im Vergleich zu dieser auf Dauerhaftigkeit angelegten Integration der Rezeptor DNA wird die Proteinexpression beim Baculovirusexpressionssystem durch Infektion mit rekombinanten Baculoviren initiiert. Der Vergleich zeigte, dass die mit Baculoviren erzielten Ausbeuten bei GluR-B etwa doppelt so hoch waren als bei stabil transformierten Zellen. Allerdings fallen bei stabil transformierten Zellen die eventuellen Nachteile der viralen Belastung auf die zellulären Sekretionsprozesse weg. Im Verlauf der elektronenmikroskopischen Analyse von baculoviral erzeugtem GluR-B Protein hat sich gezeigt, dass Proteine viralen Ursprungs unter Umständen selbst doppelt aufgereinigte GluR-B Proben verunreinigen können (siehe APPENDIX A.2.1.). Dieser Punkt ist bei einer Einzelbildverarbeitung von grosser Relevanz, falls die virusspezifischen Proteinverunreinigungen eine ähnliche Grösse haben wie das eigentliche Zielprotein. Das Hauptziel dieser Arbeit war es, das Potenzial stabil transformierter Insektenzellen für die Expression von homomeren GluR-B Ionenkanälen zu bewerten und dabei die Stöchiometrie der Untereinheiten in diesem Ionenkanal aufzuklären. Zu diesem Zweck wurden biochemische und elektronenmikrosopische Techniken eingesetzt. Zur Isolierung des GluR-B Ionenkanals aus stabil transformierten Insektenzellen wurde das bestehende Aufreinigungsprotokoll für die Affinitätchromatographie an immobilisierten Metallionen (IMAC) (Safferling et al., 2001) optimiert, indem das Chargenverfahren durch das Durchflussverfahren ersetzt wurde (zur genaueren Erklärung der Optimierung siehe RESULTS 4.1.2.). Abbildung 6.C zeigt ein silbergefärbtes Gel mit den Eluaten der IMAC und Eluaten der abschliessenden Affinitätschromatographie mit immobilisiertem M1-Antikörper. Die auf den Bahnen 5-8 aufgetragen GluR-B Proben wurden auch für die Einzelteilchenanalyse mittels Elektronenmikroskopie verwendet. Die Ligandbindungsaktivität von GluR-B wurde durch Filterbindungsexperimente mit dem Radioliganden [3H]-AMPA vor und nach der Isolierung aus den Membranfragmenten bestimmt. Die KD-Werte sind für beide Proben ähnlich gross. Der Bmax-Werte ist für die aufgereinigte Probe wie erwartet sehr viel (mehr als 200×) höher. Die Ergebnisse der Ligandbindungsexperimente sind im Kapitel 4.2.1 tabellarisch zusammengefasst. Die oligomere Struktur des isolierten Ionenkanals wurde durch Quervernetzungsexperimente (Cross-linking) und Einzelteilchenanalyse von negativ gefärbten Proteinmolekülen bewertet. Die Quervernetzungsexerimente selbst erbrachten kein eindeutiges Ergebnis im Hinblick auf oligomere Struktur des komplett zusammengesetzten Rezeptors. Kontrollexperimente mit dem Lysat vom Rattenhippocampus zeigten, dass mit DTSSP ein geeigneter Cross-Linker verwendet wurde (siehe RESULTS 4.3.2.). Neben einem aus 4 Banden bestehenden Muster (siehe RESULTS 4.3.1.) lieferten die Quervernetzungsexperimente mit isoliertem GluR-B aber einen deutlichen Hinweis auf die Stabilität von dimeren GluR-B Strukturen, die im Einklang mit einer jüngst veröffentlichten Arbeit stehen (Ayalon and Stern-Bach, 2001). Diese Veröffentlichung liefert zusätzliche (Armstrong et al., 1998) Hinweise auf die Bedeutung von Dimeren in der Glutamatrezeptorstruktur und postuliert, dass sich ein kompletter Glutamaterezeptor aus einem Dimer-Paar zusmmensetzt, wobei die Dimere zuerst gebildet werden. Die nachfolgende Abbildung 6.2.B zeigt negativ gefärbte GluR-B Ionenkanäle bei einer 46000× Vergrösserung. Die Aufnahme stammt von einem Philips EM 400 Elektronenmikroskop. Für die 3D Rekonstruktion wurden 500 der in Abbildung 6.2.B gezeigten Rezeptormoleküle ausgewählt. Dieser relativ kleine Datensatz besteht aus GluR-B Ionenkanälen deren Präservierung in Uranylacetat als besonderes vielversprechend eingeschätzt wurde. Dieser positive Effekt wurde auf die Verwendung frisch von einer Wasseroberfläche aufgefischter Kohlefilme zurückgeführt (siehe RESULTS 4.4.3.3.). Während der Klassifizierung dieses Datensatzes fiel auf, dass die beim Band-Pass-Filtern für die niedrigen Frequenzen gesetzten Cut-offs einen deutlichen Einfluss auf die erste Klassifizierung der unterschiedlichen zweidimensionalen Ansichten des Proteinkomplexes haben (siehe RESULTS 4.4.3.4.). Aus diesem Grund wurde der gleiche Datensatz mit 5 verschiedenen low-frequency cut-offs (LFCO) gefiltert (siehe Table 4.4.3.4.) und getrennt klassifiziert. Von den 5 resultierenden Klassifikationen wurden 3 (LFCO 0,005, 0,03 und 0,05) für die weiterführende 3D Rekonstruktion ausgewählt. Die Evaluierung der resultiernden 3D Modelle ergab, dass der mit einem LFCO von 0,03 gefilterte Datensatz eine Klassifikationen erlaubte, die zu einem 3D Modell (Modell GluR-BII/a siehe RESULTS Figure 4.4.3.4.H) führte, das im Vergleich zu den beiden anderen Rekonstruktionen konsistenter war. Am stärksten spricht für dieses Modell die Übereinstimmung der Input-Projektionen mit den Reprojektionen der 3D Rekonstruktion (siehe siehe RESULTS Figure 4.4.3.4.H). Zur Verfeinerung des Modells GluR-BII/a wurden die beiden Projektionen mit der höchsten Standardabweichung vom Klassendurchschnitt (class average) eliminiert. Die verbleibenden 11 Projektionen bildeten die Input-Projektionen für die Berechung eines verfeinerten Modells, GluR-BII/b, das auf einer neuen Zuordnung der Euler-Winkel beruht. Das Ergebnis dieser Berechung ist in der nachfolgenden Abbildung gezeigt. Das Modell in Abbildung 6.2.C zeigt einen zentralen Kanal und hat die Dimensionen 18 nm × 14 nm × 11 nm. Die Stöchiometrie der Untereinheiten ist aus dem Modell, das mit grosser Wahrscheinlichkeit einen komplett zusammengesetzten GluR darstellt, nicht ablesbar. Ebensowenig zeigt das Modell eine eindeutig vierzählige oder fünfzählige Symmetrie. Allerdings ist die erkennbare zweizählige Symmetrie im Einklang mit dem vorgeschlagenen Pair-of-Dimer Modell (Ayalon and Stern-Bach, 2001), das auf eine teramere Struktur des oligomeren Ionenkanals schliessen lässt. Die Ergebnisse dieser Arbeit zeigen, dass stabil transifzierte Insektenzellen eine durchaus geeignete Quelle für GluR-B Ionenkanäle sind. Nachteilig sind die geringen Ausbeuten. Allerdings kann durch weitere Selektion der Zellen die GluR Expression noch gesteigert werden (siehe APPENDIX A.2.2.). Bei höheren GluR-B Ausbeuten könnte zukünftig auch die Detektion des Rezeptors in vitrifizierten Proben in Verbindung mit Kryo-Elektronen- mikroskopie und auch die 2D-Kristallisation gelingen. Die während dieses Projekts gemachten Kristallisationsexperimente (siehe APPENDIX A.3.) und Kryo-Experimente mit GluR-B Protein aus dem Baculovirusexpressionssystem (siehe RESULTS 4.4.1. und 4.4.2.) ergaben negative Ergebnisse. Das Potential der Kryo-Methode konnte allerdings in Kontrollexperimenten mit Tabak-Mosaik-Virus (TMV) gezeigt werden. Kryo-Daten von GluR-B würden die Berechnung eines genaueren Strukurmodells erlauben. Die Reprojektionen des hier besprochenen Strukturmodells GluR-BII/b aus der Abbildung 6.2.C könnten als Referenzen für das Alignment der vitrifizierten GluR Ionenkanäle dienen. Für das langfristige Ziel der Rekonstituition des Rezeptors in Liposomen sollte die Delipidierung des Membranproteins während der Aufreinigung möglichst reduziert werden. Hier erscheinen zwei Ansätze sinnvoll. Die Aufreinigung des Proteins in einem Schritt durch die Erweiterung des tags am Carboxyterminus von nur 6 auf 10 Histidin-Reste. Ausserdem gibt es Hinweise, dass die Anwesenheit von Lipiden während der Aufreinigung für seine Rekonstituierbarkeit förderlich ist (Huganir and Racker, 1982).
In der vorliegenden Arbeit wurden drei experimentelle Ansätze gewählt, um kardiale Ionenkanäle zu charakterisieren, die möglicherweise einen Einfluss auf das atriale Aktionspotential haben könnten und die somit potentielle neue Ziel-Gene für die Entwicklung neuer Antiarrhythmika darstellen könnten. Ein Schwerpunkt dieser Arbeit war die pharmakologische Untersuchung der Rolle des Schwellungsaktivierten Chloridkanals I Cl,swell für das atriale Aktionspotential. In einer weiteren Studie wurde eine neue regulatorische Untereinheit des hKv4.3-Kanals identifiziert sowie deren physiologische Bedeutung für die Aktivität des transienten Kalium-Auswärtsstroms I to1 charakterisiert. Schließlich wurde ein neuer Kaliumkanal, TASK-4, kloniert, der im humanen Herzen ausschließlich im Atrium vorkommt und deshalb einen Einfluss auf die Erregbarkeit des Herzvorhofs ausüben könnte. Unter mehreren Ethacrynsäure-Derivaten konnte mit DCPIB ein neuer potenter Blocker des I Cl,swell identifiziert werden. Nachfolgende Patch-Clamp und Zwei-Mikroelektroden Spannungsklemmen-Analysen verschiedener nativer und heterolog exprimierter Anionen und Kationenkanäle zeigten, dass DCPIB spezifisch den I Cl,swell Strom hemmt. Dies war eine Voraussetzung, um die Funktion des I Cl,swell beim atrialen Aktionspotential während osmotischer Zellschwellung zu untersuchen. Die Schwellung atrialer Kardiomyozyten führte zur Aktivierung des I Cl,swell und als Folge davon zu einer starken Verkürzung der Aktionspotentialdauer. Diese war durch DCPIB vollständig hemmbar. Unter basalen Bedingungen hatte DCPIB keinen Effekt auf das Aktionspotential. Diese Ergebnisse lassen den Schluss zu, dass die Aktivierung des I Cl,swell unter pathologischen Bedingungen, die mit einer kardialen Zellschwellung einhergehen, eine ursächliche Rolle beim Auftreten von Arrhythmien spielen kann. Viele frühere Untersuchungen über die Rolle des I Cl,swell bei Arrhythmien erfolgten am Rattenherzen. Unter Verwendung von DCPIB konnten wir aber zeigen, dass die in atrialen und ventrikulären Myozyten von normalen und von hypertrophierten Rattenherzen beschriebenen Chloridströme nicht durch den I Cl,swell hervorgerufen werden. Das Fehlen des I Cl,swell im Rattenherzen stellt damit diese früheren Ergebnisse in Frage. Eine weitere Leitfähigkeit, die im menschlichen Herzen zur Repolarisation der kardialen Membranen während dem Aktionspotential beiträgt, ist der 'Plateau-Strom" I Kp , der in seinen kinetischen Eigenschaften TWIK oder TASK-artigen Kaliumkanälen ähnelt. Als erster Schritt bei der Identifizierung der molekularen Identität dieses Kaliumkanals wurde in dieser Arbeit mit TASK-4 ein neues Mitglied der Säuresensitiven Tandem-von-zwei-Poren-Kaliumkanälen kloniert. Die heterologe Expression des TASK-4 in Xenopus-Oozyten erzeugte Kaliumströme, die eine starke Auswärts-Rektifizierung zeigten, die jedoch bei Erhöhung der extrazellulären Kaliumkonzentration verloren ging. Die TASK-4-Ströme waren abhängig vom extrazellulären pH-Wert, wobei die pH-Sensitivität im Vergleich zu den anderen TASK-Kanälen zu mehr alkalischen Werten verschoben war. Außerdem zeigten die TASK-4-Ströme die für TASK- Kanäle typischen pharmakologischen Eigenschaften. Aufgrund des Vorkommens von TASK-4 im Atrium und dem Atrioventrikular-Knoten des menschlichen Herzens stellt dieser Kaliumkanal einen neuen potentiellen Angriffspunkt für die Entwicklung eines Vorhof spezifischen Antiarrhythmikums dar. Im Gegensatz zu dem I Kp Strom ist der Ca 2 unabhängige transiente Kalium-Auswärtsstrom I to1 des Herzens für die initiale Phase der Repolarisation während des Aktionspotentials verantwortlich. In vielen Regionen des Herzens trägt die Untereinheit des hKv4.3 Kaliumkanals zum I to1 Strom bei. In dieser Arbeit wurde mit hKChIP2 erstmals eine regulatorische Untereinheit des I to1 identifiziert. Northern-Blot-Analysen haben gezeigt, dass das hKChIP2-Gen ausschließlich im humanen Herzen exprimiert ist, wobei es im Atrium und Ventrikel des adulten humanen Herzens, aber nicht im fötalen Herzen, vorkommt. Weiterhin konnten wir eine neue kurze Spleiß-Variante des hKChIP2-Gens (hKCNIP2) isolieren und durch PCR-Analyse nachweisen, dass diese im menschlichen Herzen die Hauptform des hKChIP2 darstellt. Die Koexpression des hKv4.3 mit beiden hKChIP2-Isoformen in Xenopus - Oozyten bewirkte eine Zunahme der Stromamplitude, eine Verschiebung der Spannung der halbmaximalen Inaktivierung und eine stark beschleunigte Erholung von der Inaktivierung der hKv4.3-Kanäle, die in Anwesenheit von hKChIP2 deutlich mehr dem nativen I to1 Kanal des humanen Epikards ähnelten. Unsere Ergebnisse sprechen sehr stark dafür, dass hKChIP2 eine physiologisch wichtige regulatorische Untereinheit des hKv4.3 ist, die auch zur Heterogenität der I to1 Ströme im humanen Herzen beiträgt. Da der I to1 Kanal an der Entstehung und dem Fortschreiten verschiedener Herzkrankheiten wie den Arrhythmien und der Herzinsuffizienz beteiligt ist, stellt hKChIP2 ein neues Ziel-Gen für die Entwicklung neuer zukünftiger Klasse III-Antiarrhythmika dar. Die in Kooperation mit der Universität Istanbul durchgeführte Aufklärung der Exon-Intron-Organisation des hKCNIP2-Gens liefert zudem die Grundlage für ein zukünftiges systematisches Screening nach Mutationen im hKChIP2-Gen in Familien mit vererbbaren Arrhythmien.
Die vorgelegte Arbeit beschäftigte sich zunächst mit der Synthese von neuen 3'- und basenmodifizierten Nukleotiden und deren Markierung mit Fluoresceinisithiocyanat. Der zweite Teil dieser Arbeit befasst sich mit der Überprüfung der synthetisierten Verbindungen auf ihre Eignung als Terminatoren für die enzymatische DNA-Sequenzierung. Die Synthese des neuen Thioamidtriphosphats 3'- [[6-Amino- 1 -thioxohexyl) amino] -3'-konnte in 10 Schritten ausgehend vom Thymidin erfolgreich durchgeführt werden. Zunächst erfolgte die Umsetzung zum 3'-Amino-5'-O-(4,4'-dimethoxytrityl)-3'-desoxythymidin, an dessen 3'-Aminofunktion ein Aminocapronsäurelinker angekuppelt wurde. Der Schlüsselschritt der Synthese war die Beschwefelung der so generierten 3'-Amidfunktion mittels Lawesson's Reagenz. Dabei konnte durch Optimierung der Synthesebedingungen die Ausbeute der Beschwefelungsreaktion um 30 % gesteigert werden. Das Thioamid 3' -Desoxy-5 '-0- (4,4'-dimethoxytrityl) -3'- {{6-{[(9H-fluoren-9-ylmethoxy)-carbonyl] -amino}-1-thioxohexyl}amino}thymidin wurde zum Triphosphat umgesetzt und anschliessend FITC markiert. Für die Synthese des N2-modifizierten 2-Pentylamin-2',3'-didesoxyguanosin-5'-triphosphats 43 wurden Synthesewege beschritten. Schliesslich führte der Trick des Ausnutzens von Desmethylwyosin als Schutzgruppe zum Erfolg. Ausgehend vom 2'-Desoxyguanosin konnte die Synthese der unmarkierte Verbindung 2-Valeriansäurenitril-2'3'-didesoxyguanosin-5'-triphosphat 41 in 8 Schritten und die des Triphosphats 2-Pentylamin-2'3'-didesoxyguanosin-5'-triphosphat 43 und dessen FITCMarkierung in 12 Schritten erfolgreich durchgeführt werden. Die 5'-entschützte Verbindung 2-Valeriansäurenitril-2'3'-didesoxyguanosin wurde erfolgreich zum Triphosphat umgesetzt. Die Verbindung 5'-0- (tert-Butyldimethylsilyl)-2-Valeriansäurenitril-2'3'-didesoxyguanosin wurde Azid überführt. Das anschliessend synthetisierte Triphosphat 2-Pentylazid-2',3-didesoxyguanosin-5'-triphosphat 42 wurde reduziert und über die entstandene freie Aminofunktion mit FITC markiert. Alle neuen Triphosphate konnten durch optimierte Aufreinigungsbedingungen in hochreinem, salzreien Zustand isoliert werden. Vor dem Einsatz als Terminatoren für die DNA-Sequenzierung wurden alle Triphosphate als Na-Salze gefällt. Die synthetisierten Thioamidtriphosphate sind im Laufe dieser Arbeit als neue Verbindungen synthetisiert und veröffentlicht worden. Die hergestellten N2 - modifizierten Didesoxyguanosintriphosphate sind bisher nicht beschrieben und neue Vertreter ihrer Verbindungsklasse. Im zweiten Teil dieser Arbeit wurden die neuen, modifizierten Triphosphate 39, 40, 41, 43 und 44 auf ihre Eignung als Terminatoren für die Sanger-DANN-Sequenzierung getestet. Dabei wurden fünf verschiedene Polymerasen eingesetzt: Die thermostabilen Polymerasen AmpliTaq, Taq(exo-), Vent(exo-), Bst und die nicht thermostabile T7 Polymerase. Die besten Ergebnisse konnten mit der T7 Polymerase erreicht werden. Alle getesteten Terminatoren wurden als Terminatoren von der T7 Polymerase akzeptiert. Die entsprechenden Sanger-Abbruchfragmente konnten mittels des Cy5-markierten Primers detektiert werden. Die Verbindung 39 wurde auch von der AmpliTaq und der Taq(exo-) Polymerase akzeptiert. Die Terminatoren 41 und 43 wurden von der Taq(exo-) Polymerase eingebaut. Entsprechende Abbruchfragmente konnten in schwacher Konzentration detektiert werden. Mit der Bst- und der Vent(exo-)-Polymerase konnten keine positiven Ergebnisse erzielt werden. Mit Sicherheit können alle getesteten Triphosphate als Substrate zumindest für die positiv getesteten Polymerasen T7, AmpliTaq und Taq(exo-) bezeichnet werden. In Zukunft sollten mit beiden FITC-markierten Nukleotiden Sequenzierversuche mit einem geeigneten Laser durchgeführt werden, um Klarheit darüber zu bekommen, ob der Farbstoff nach dem enzymatischen Einbau am Terminator verbleibt und zur Dye-TerminatorSequenzierung eingesetzt werden kann. Ausserdem ist mit der Synthese des N2 -modifizierten ddG's die Grundlage für ein Sequenziersystem mit den bereits existierenden modifizierten ddA- und ddC-Terminatoren geschaffen.
Das Ziel von Gentherapie ist die Behandlung bzw. Heilung einer Erkrankung durch das Einbringen eines oder mehrerer Gene. Dazu werden Gentransfervektoren benötigt, die effizient therapeutische Gene in die zu behandelnden Zellen einbringen. Für eine systemische Applikation müssen Gentransfervektoren die Eigenschaft besitzen, ausschließlich die erkrankten Zellen zu transduzieren. Der Tropismus retroviraler Vektoren wird durch das Envelopeprotein (Env) festgelegt. Maus Leukämie Virus (MLV) basierende Kapsidpartikel können mit dem Envelopeprotein des humanen Immundefizienzvirus Typ-1 (HIV-1) pseudotypisiert werden. Diese MLV/HIV-1 Pseudotypvektoren besitzen einen Tropismus für humane CD4 positive T-Helferzellen. Diese Vektoren sind geeigneten Kandidaten für die gen-therapeutische Behandlung der HIV-lnfektion und von kutanen T-Zell Lymphomen, einer lymphproliferativen Erkrankung von CD4 Zellen. Im ersten Teil dieser Arbeit wurden MLV/HIV Pseudotypvektoren exprimierende Verpackungszelllinien mit Hüllproteinen verschiedener Subtypen etabliert und charakterisiert. Die verwendeten Subtypen waren das T-trophe HIV-1 Isolat BH10, das T-trophe HIV-2 Isolat ISY und das dualotrophe SHIV Isolat 89.6P. Dabei zeigte sich eine Abhängigkeit der Vektortiter vom Subtyp. Die höchsten Titer wurden mit der MLV/HIV-1 Pseudotypvektoren exprimierenden Verpackungszelllinie FLY-HIV-87 erhalten und lagen in Abhängigkeit vom retroviralen Vektor zwischen 1 x 10 hoch 5 und 1 x 10 hoch 6 IU/ml. Die Transduktionsspezifität entsprach dem Korezeptorgebrauch des HIV-Subtyps. Da für die geplanten in vivo Experimente höhere Titer notwendig waren, wurden verschiedene Methoden zur Anreicherung MLV/HIV-1 pseudotypisierter Vektoren zunächst getestet, sowie die Beste dieser Methoden für die Konzentrierung der Partikel optimiert. Im zweiten Teil dieser Arbeit wurde an zwei Mausmodellen die in vivo Applikation MLV/HIV-1 pseudotypisierter Vektoren untersucht. An transgenen hCD4 Mäusen wurde der Gentransfer nach systemischer Applikation von MLV/HIV-1 LacZ Pseudotypvektoren untersucht. In den transduzierten Mäusen konnte Gentransfer in Lymphknoten und Thymus beobachtet werden. Durch subkutane Implantation der humanen kutanen T-Zell Lymphomzellen MyLa in Nacktmäuse wurde ein Tiermodell Modell für humane kutane T-Zell Lymphome etabliert. Die intratumorale Applikation von MLV/HIV-1 Partikeln, deren Vektorgenom für das grüne Fluoreszenzprotein (EGFP) kodiert ergab, daß es zum effektiven und spezifischen Gentransfer in die CD4 positiven MyLa Zellen kam. In dem anschließend durchgeführte Therapieversuch mit Herpes Simplex Virus Thymidinkinase kodierenden Vektoren und darauf folgender systemischer Ganciclovir Behandlung konnte eine Verlangsamung des Tumorwachstums erzielt werden Die Ergebnisse der vorliegenden Arbeit haben gezeigt, daß MLV/HIV-1 Pseudotypvektoren für den spezifischen und effizienten Transfer von Genen in primäre humane CD4 T-Helferzellen geeignet sind und daß sowohl die systemische als auch die intratumorale Applikation dieser Vektoren möglich ist.
In der vorliegenden Arbeit wurden 10 Typen der Gehölzvegetation und 14 Typen der Krautvegetation für das Untersuchungsgebiet Atakora vorgestellt. Dabei konnten nur Sonderstandorte, wie Galeriewälder und Lateritkrusten, klar abgetrennt werden. Viele Arten besitzen keine eindeutigen ökologischen Präferenzen, was sich gut mit der Einschätzung der lokalen Bevölkerung deckt, die für den Großteil der Arten angaben, dass diese wüchsen wo sie wollten. Dabei fällt auf, dass sich die Typen (vor allem in Gehölzschicht aber auch in Krautschicht) in den einzelnen Dörfern oft nur in Teilen entsprechen. Gründe dafür konnten nur teilweise in den unterschiedlichen ökologischen Gegebenheiten und unterschiedlichen Nutzungspräferenzen einzelner wichtiger Trennarten gegeben werden. Selten findet sich ein hundertprozentiges Zusammentreffen eines Gehölztyps mit einem Krauttyp. Damit bestätigt sich die Annahme unterschiedlicher Entwicklungsbedingungen und teilweise unabhängiger Entwicklung dieser beiden Elemente in der westafrikanischen Savanne. Gesellschaften, in denen eine Krautschicht mit einer Gehölzschicht eng korreliert sind, konnten nur für landwirtschaftlich nicht genutzte Sonderstandorten wie Galeriewälder und Lateritkrusten gebildet werden. Zudem zeigt sich, dass die Vegetation in der dichter besiedelten Ebene klarer strukturiert ist, als in der Bergregion. Dies trifft vor allem auf die Gehölzvegetation zu. Dennoch sind erstaunlich viele Gehölzarten auch in der intensiver genutzten Ebene anzutreffen, was für große Regenerationsfähigkeit und die Anpassung der hauptsächlichen Savannengehölze an das menschliche Wirken spricht. Die geringere Zahl an Gehölzarten in der Ebene ist hauptsächlich Resultat der wesentlich stärker degradierten Galeriewälder. In den Berggebieten sind zudem mehr Gehölzschichttypen und mehr krautige Arten angetroffen worden. Hier zeigt sich, dass Berggebiete auch in dieser Untersuchungsregion als Refugium für Vegetationsformationen und Arten gelten können. Die Nutzung von Wildpflanzen für verschiedene Zwecke wurde dokumentiert. Dabei konnte gezeigt werden, dass Präferenzen für diverse Nutzungen auf ethnischen, teilweise auch auf persönlichen Präferenzen, sowie auf der Verfügbarkeit der Pflanzen basieren. Dabei zeigte sich, dass die Präferenzen von Arten als Bau- und Brennholz eher auf der Verfügbarkeit basieren, während die Präferenzen für Medizinalpflanzen eher auf ethnischnen Vorstellungen von Wirksamkeit und teilweise auch auf kollektiven Erfahrungen basieren. Es erwies sich, dass die traditionelle Nutzung von Wildpflanzen als Brenn- und Bauholz und zu zusätzlichen Ernährung in dem Untersuchungsgebiet einen geringen Einfluß auf die Biodiversität hat, solange diese Pflanzen nicht kommerzialisiert werden. Es gibt genügend Pflanzenarten, die leicht zu finden sind und gute Eigenschaften für die eingesetzten Zwecke aufweisen, so dass man meist auf die jeweiligen in einem Dorfgebiet häufig anzutreffenden Arten ausweichen kann. Für diese geringe Auswirkung der traditionellen Nutzung von Gehölzpflanzen auf die Biodiversität sprechen auch die Aussagen der Bevölkerung über die geringere Verfügbarkeit von Gehölzpflanzen zu bestimmten Nutzungen. Dabei ergab sich eine Reihung von Nennungen, die von weniger Bauholz über weniger Brennholz zu weniger Gehölzpflanzen für die traditionelle Medizin abnahmen. Zudem wurde in allen Befragungen verneint, dass eine Art aus dem Dorfgebiet verschwunden wäre. Daraus läßt sich schließen, dass ein Großteil der wichtigen Gehölzpflanzen in dem Untersuchungsgebiet noch vorhanden ist, aber auf Grund der intensivierten Landwirtschaft nicht mehr in der Lage ist, sich zu richtigen Bäumen zu entwickeln. Da sich dadurch einige Gehölzpflanzen nur noch vegetativ vermehren können, kann eine genetische Verarmung von Populationen bestimmter Arten angenommen werden. Dies wäre ein interessanter Ansatzpunkt für zukünftige Forschungen. Ein negativer Einfluß auf die Biodiversität durch traditionelle Nutzungen ist bei der Nutzung von Gehölzpflanzen für die traditionellen Medizin größer, vor allem wenn Wurzeln verwendet werden. Dennoch lässt sich erkennen, dass der Einfluß der traditionellen Nutzungen von Wildpflanzen im Vergleich zu der landwirtschaftlichen Nutzung der Flächen einen marginalen Effekt auf die Vegetation hat. Im Rahmen der ethnobotanischen Befragungen wurden Pflanzennamen, Umweltwahrnehmung und die Vorstellungen von Krankheit der Bétamaribè und Wama dokumentiert. Diese weisen im Gegensatz zu den Vorstellungen anderer afrikanischer Völker kaum Differenzen auf. Die Vorstellungen von Krankheit sind dabei von einem starken Wandel betroffen, da man sich immer stärker auf westliche Konzepte und Medikamente verläßt. Ein positiver Effekt hiervon auf die Phytodiversität ist jedoch nicht zu erwarten, da die Medikamentkosten eine Intensivierung der Landwirtschaft erfordern. Über 240 traditionelle Heilrezepte wurden gesammelt. Die wichtigste Rolle spielen dabei Gehölzpflanzen. Dabei zeigt sich, dass sich die Präferenzen zwischen den einzelnen Dörfern stärker unterscheiden als bei der Nutzung von Pflanzen zu Brenn- und Bauholzzwecken. Auch erweisen sich große Unterschiede zu Verwendungen von Medizinalpflanzen in anderen Untersuchungsgebieten. Dies liegt an unterschiedlichen Vorstellungen und Erfahrungen zur Wirksamkeit von Pflanzen vor allem bei Krankheiten, die auch von alleine wieder vergehen wie Magen-Darm-Erkrankungen. Das Wissen über Heilpflanzen ist in der Ebene geringer ausgeprägt, als in den beiden Bergdörfern. Gründe hierfür können jedoch nicht alleine in den geringeren pflanzlichen Ressourcen gesehen werden. Ein Wandel in der Landwirtschaft bezieht sich hauptsächlich auf die Anbauprodukte. Während traditionelle angepaßte Cerealien seltener angebaut werden, baut man viele Produkte für den Verkauf an. Die herausragende Stellung darunter nimmt die anspruchsvolle und arbeitsintensive Baumwolle ein. Die Auszahlungsmodalitäten der halbstaatlichen Baumwollgesellschaft kommen dabei den bäuerlichen Bedürfnissen am ehesten entgegen. Um den finanziellen Ansprüchen der Verwandtschaft zu entgehen werden kurzfristige Strategien zur Geldbeschaffung angenommen. Es zeigt sich also, dass die Ursachen von Degradation eher in dem Kulturwandel und einer zunehmenden Abhängigkeit der Bauern von Bareinkünften zu sehen ist als in der oft pauschal genannten Überbevölkerung. Zukünftige Forschungen über Biodiversität und Vegetationswandel sollten auch den Kulturwandel stärker berücksichtigen. Die Degradation zeigt sich in dem Untersuchungsgebiet mehr in der Verarmung der Böden als in einem Rückgang der Biodiversität. Obwohl schon historische Vegetationsbeschreibungen von einer starken Beeinträchtigung der vermuteten natürlichen Wälder sprechen, ist nicht davon auszugehen, dass sich die Vegetation in dem Untersuchungsgebiet die letzten 50 Jahre stark verändert hat. Das in nördlicheren Gebieten von der lokalen Bevölkerung beobachtete Verschwinden von Arten wird kategorisch verneint. Bei den genannten zurückgehenden Arten handelt es sich hauptsächlich um wichtige Nutzarten. Da hierzu historische Daten fehlen, kann es sich auch um selektive Wahrnehmung der Bauern handeln. Dennoch ist anzunehmen, dass sich in Zukunft die Degradationsphänomene verschlimmern werden. Da die Bargeldbedürfnisse der Bauern nicht mehr zurückzuschrauben sind und zudem die Experimentiefreudigkeit in der recht unsicheren Umweltsituation gering ist, muss auf bestehende Produkte zurückgegriffen werden, um sowohl diese Bargeldbedürfnisse zu befriedigen, als auch die Umwelt zu schonen. Eine Chance hierfür könnte eine Vermarktung von Fonio, wie bereits in Mali geschehen, darstellen. Dieses anspruchslose, noch auf sehr ausgelaugten Böden wachsende und zudem sehr nahrhafte und wohlschmeckende Getreide sollte wieder vermehrt angebaut werden und auf lange Sicht die anspruchsvolle und Boden auslaugende Baumwolle ersetzten. Dies ist jedoch nur möglich, wenn Fonio über internationale Strukturen auch in Europa und Amerika vermarktet wird. Eine weitere finanziell nicht ausgeschöpfte Ressource bieten die Mangobäume. In der Hochzeit der Mangoernte werden die Bäume vielfach nicht mehr abgeerntet, weil die Preise für die Früchte stark sinken. Die Früchte fallen dann meist Flughunden und Vögeln zum Opfer. Wie das Beispiel Burkina Faso zeigt, könnten diese Früchte getrocknet, zu Marmelade oder Saft verarbeitet werden und selbst in Europa in dieser haltbaren Form verkauft werden. Leider sind bislang die entsprechenden Initiativen und Strukturen dazu in Benin noch nicht geschaffen. Eine weitere, wenn auch langfristigere Möglichkeit wäre die Ersetzung der Baumwollfelder durch Cashjew-Pflanzungen. Diese werden von der Bevölkerung immer mehr angenommen. Dabei könnten neue Gehölzresourcen geschaffen und die Bodenfruchtbarkeit erhöht werden. Einige Initiativen von kleinen NGO's, die das Pflanzen von Bäumen befürworten, finden großen Anklang. Es muß nur eine Möglichkeit gefunden werden, solche Produkte auch international zu kommerzialisieren, um die Böden stark belastende und zudem arbeitsaufwendige Baumwolle zu ersetzten. Zudem sind Initiativen von einzelnen Dörfern in der Atakoraregion, Teile des Dorfgebietes unter Schutz zu stellen und damit Ressourcen und Wissen vor allem für die traditionelle Medizin zu sichern, ermutigend. Es zeigt, dass die lokale Bevölkerung Bedrohungen ihrer Umwelt ernst nimmt und versucht mit Hilfe von NGO's Gegenmaßnahmen zu schaffen. In diesem Hinblick wäre es wichtig, dass sich zukünftige Forschungen mehr den pharmazeutischen Inhaltsstoffen von Heilpflanzen widmen, so wie dies in Südamerika bereits geschieht. Dabei sollten jedoch die Rechte der autochtonen Bevölkerung gewahrt werden. Zudem wäre es wichtig, mehr über die Ökologie einzelner Gehölzpflanzen unter Berücksichtigung der jeweiligen Nutzungsverhältnisse zu kennen. Hierbei wäre es auch interessant über die Naturverjüngung ausgewählter Arten zu arbeiten. Zudem sollten Forscher, die über Degradationsprobleme arbeiten, vor allem in angewandten Bereichen, mehr auf die Erfahrungen der lokalen Bevölkerung hören und weniger scheinbar offensichtliche und populäre Theorien wie Überbevölkerung strapazieren. Dabei sollten auch vermehrt historische Quellen zu Rate gezogen werden, da es scheint, dass die westafrikanische Savanne nicht so degradiert ist, wie es oft behauptet wird und noch große Potentiale besitzt, wenn diese richtig genutzt werden. Abschließend sei bemerkt, dass, wenn man Berichte aus anderen afrikanischen Regionen hört und sieht, der Norden Benins als "Insel der Glückseeligen" betrachtet werden kann. Die politische Lage ist stabil, die Bevölkerung aufgeschlossen und freundlich, es gibt kaum Kriminalität, große Krankheitsepedemien sind in den letzten Jahren ausgeblieben, Hunger wird selten erlitten und auch die Umweltdegradation hält sich in Grenzen. Möge die hier vorliegende Arbeit dazu beitragen, diese Region und die Bétamaribè ein wenig mehr ins Bewußtsein der Öffentlichkeit bringen und ein wenig dazu beitragen, dass die Situation der Region und ihrer Bevölkerung sich nicht verschlechtert.
Der weltweiten Ausbreitung des humanen Immundefizienzvirus versucht man neben der Entwicklung eines präventiven HIV-Impfstoffes auch durch die Verbesserung der chemotherapeutischen Behandlung HIV-Infizierter entgegen zu wirken. Die hochwirksame antiretrovirale Kombinationsstherapie (HAART) hat neben der Anzahl der opportunistischen Infektionen und AIDS-bedingten Todesfälle auch die Viruslast in vielen HIV-Infizierten über einen langen Zeitraum unterhalb der Detektionsgrenze senken können. Es sind daher neben den klassischen Verlaufsmarkern wie der Viruslast und der Anzahl der CD4 T-Zellen neue Surrogatmarker zur Beurteilung der Effizienz der antiretroviralen Therapie notwendig. Der Einfluss der Viruslast auf den CD8 T-Zellaktivierungsstatus während der antiretroviralen Therapie zeigte sich durch den Vergleich von HAART-Respondern und den durch eine hohe Viruslast infolge eines Therapie-Versagens gekennzeichneten HAART-Non-Respondern. Die Beobachtung einer signifikant erhöhten Anzahl an basal, d.h. ohne vorangegangene in vitro Stimulation, aktivierten CD8 CD69 T-Zellen bei HAART-Non-Respondern (p = 0,0049) konnte die Rolle des T-Zell-Aktivierungsstatus als Marker der verbleibenden Viruslast unter HAART nachweisen. Um das Potential der von CD8 T-Zellen sezernierten HIVsupprimierenden ß-Chemokinen und IL-16 als HAART-begleitende Surrogatmarker zu untersuchen, wurde die Expression von MIP-1a, MIP-1ß und RANTES sowie des Lymphokins IL-16 im Serum und im Zellkulturüberstand aktivierter CD8 T-Zellen untersucht. Für HAART-Non-Responder konnte im Zellkulturüberstand von in vitro stimulierten CD8 TZellen eine signifikante Erhöhung der IL-16-Expression (p = 0,0077) und eine erhöhte Expression von MIP-1a im Vergleich zu HAART-Respondern gezeigt werden. Darüber hinaus wurde eine signifikant erhöhte MIP-1ß-Serumkonzentration bei HAART-Non- Respondern (p = 0,0175) nachgewiesen, die mit einer erhöhten Anzahl aktivierter CD8 CD69 T-Zellen assoziiert war. Im Rahmen dieser Untersuchungen konnte somit gezeigt werden, dass neben MIP-1a, vor allem das ß-Chemokin MIP-1ß und das Lymphokin IL-16 vielversprechende Surrogatmarker zur Beurteilung der Effizienz der antiretroviralen Therapie darstellen, die als sensitive therapiebegleitende Marker die rechtzeitige therapeutische Intervention vor einem signifikanten Anstieg der Viruslast ermöglichen könnten. Da trotz der intensiven Entwicklung und Verbesserung antiretroviral wirkender Therapeutika die vollständige Elimination des HI-Virus bislang nicht möglich ist, wurde in den vergangenen Jahren konzentriert an der Entwicklung neuer Impfstoffstrategien gearbeitet. Eine durch einen Impfstoff induzierte protektive Immunantwort gegen HIV sollte vor allem gegen Strukturproteine, sowie gegen die regulatorischen Proteine Tat und Rev gerichtet sein. Mit einem MLV-abgeleiteten Transfervektor für die SHIV-Gene tat, rev und env wurde in dieser Arbeit das immunogene Potential zur Induktion einer humoralen und zellulären Immunantwort im Rhesusaffen-Tiermodell untersucht. Durch die Etablierung einer stabilen Verpackungszellinie für den Transfervektor pMgDenv/tat/rev/Dlngfr konnte der effiziente Gentransfer in CD4 T-Zellen mittels [MLV(SHIV)]-Pseudotypvektoren gezeigt werden. Durch Optimierung der Transduktionsbedingungen konnte ein Transduktionstiter von 1-2 x 107 i.E./ml in primäre Rhesus-Lymphozyten erreicht werden. Um das immunogene Potential dieser HIV-Antigen-exprimierenden Zellen in vivo zu untersuchen, wurden in einer Immunisierungsstudie 0,7 - 3,4 x 107 Transfergen-positive PBMC in 3 aufeinander folgenden Transplantationen in einen Rhesusaffen reinfundiert. Die transplantierten Zellen waren nach der 3. Applikation bis zu 7 Tage nach Transplantation in vivo mittels PCR detektierbar. Eine HIV-gp120-spezifische Antikörperantwort konnte fünf Wochen nach der ersten bzw. zwei Wochen nach der letzten Immunisierung nachgewiesen werden. In einem ELIspot-Assay konnte erfolgreich die Induktion einer HIV-1-Env- und Rev-spezifischen CTL-Antwort in den nach 7,5 bzw. 10 Wochen nach der letzten Immunisierung entnommenen PBMCs nachgewiesen werden. Interessanterweise zeigten Sequenzanalysen, dass die induzierte CTL-Aktivität gegen die für einen effizienten Schutz bedeutenden Determinanten des HIV-1- Hüllproteins, gegen die variable Domäne des gp120 als auch gegen die CD4- Bindungsregion gerichtet war. In dieser Immunisierungsstudie war es somit erstmals möglich, durch die Transplantation autologer HIV-Antigen-exprimierender CD4 T-Zellen eine spezifische humorale wie auch zelluläre Immunantwort in vivo zu induzieren.
Das R( )-Enantiomer der rac-a-Liponsäure ist als Coenzym wichtiger Multienzymkomplexe (Pyruvatund a-Ketoglutarat-Dehydrogenase) essentiell für die Zell- und Stoffwechselfunktion. Gerade in den wichtigen Prozessen der Zelle, die Substrate für die Atmungskette bereitstellen (Glykolyse, Citratcyclus), spielt die R( )-a-Liponsäure eine entscheidende Rolle. Zusätzlich besitzt dieser Wirkstoff die Eigenschaft als Chelatkomplex-Bildner, Radikalfänger und Antioxidans zu wirken, und er kann damit den Organismus vor "oxidativem Stress" schützen. Klinische und präklinische Studien geben Hinweise, daß R( )-a- Liponsäure einen positiven Effekt auf die Insulinsensitivität, die Insulin stimulierte Glukoseaufnahme und die Glukoseoxidation hat, weiterhin die Glukoneogenese hemmt und damit eine positive Wirkung auf den Krankheitsverlauf des Typ II - Diabetes hat. Das Ziel dieser Arbeit war es, die in der Literatur beschriebenen lang anhaltenden Wirkungen (Pharmakodynamik) der R( )-a-Liponsäure (12 - 24 h nach Gabe des Wirkstoffes) mit meßbaren Konzentrationen dieser Substanz im Organismus in Zusammenhang zu bringen, um erste Ansätze für die Korrelation zwischen Pharmakokinetik und Pharmakodynamik, also für die Konzentrations-(Dosis)- Wirkungsbeziehung, zu geben. Außerdem sollte geklärt werden, weshalb die Mehrfachgabe zu einer deutlichen Absenkung der nach Einfachgabe wirksamen Dosis führte. Eine wichtige Grundlage dazu ist die genaue Kenntnis der Pharmakokinetik der Wirksubstanz und ihrer wichtigsten Stoffwechselprodukte. Bisher ist nur die Pharmakokinetik der R( )- und S(-)-a-Liponsäure nach Gabe der razemischen a-Liponsäure untersucht worden. Da noch keine Erkenntnisse über die Pharmakokinetik der Metaboliten oder der R( )-a-Liponsäure nach Gabe des reinen R-Enantiomers bestanden, lag der Schwerpunkt der Arbeit auf den Untersuchungen der Pharmakokinetik des R( )- Enantiomers und der Metaboliten nach Gabe von R( )-a-Liponsäure als Trometamolsalz (Dexlipotam) und rac-a-Liponsäure am Tier (Einfach- und Mehrfachgabe) und am Menschen (Einfachgabe). Untersuchungsmodell Ratte: Erster Ausgangspunkt der kinetischen Untersuchungen war das zentrale Kompartiment, abgebildet durch den Blutkreislauf. Die resultierende Plasmakonzentrations-Zeitkurve nach oraler (p.o.), intravenöser (i.v.) oder intraperitonealer (i.p.) Gabe von Dexlipotam konnte mathematisch, basierend auf einem Zwei-Kompartiment-Modell, beschrieben werden. Charakteristisch für die Pharmakokinetik der R( )-a-Liponsäure war die kurze terminale Halbwertszeit (0,6 - 1,6 h) und die hohe, mit dem hepatischen Blutfluß vergleichbare, totale Plasma-Clearance. Diese Eigenschaften führten zu einem schnellen Absinken der Plasmakonzentration auf Werte unterhalb der Nachweisgrenze (6 h nach Gabe des Wirkstoffes). Mit Hilfe der Mikrodialyse wurde nach 1-stündiger Infusion von Dexlipotam die freie ungebundene R( )-a-Liponsäure-Konzentration im Interstitium des Muskels bestimmt. Der zeitliche Verlauf der Gewebekonzentration konnte basierend auf der physiologischen Grundlage eines peripheren Kompartiments (Zwei-Kompartiment-Modell) beschrieben werden. Es zeigte sich, daß nur der freie ungebundene Anteil der im Plasma vorliegenden Konzentration (20 %) für die Distribution in das Gewebe zur Verfügung steht. Die ermittelten Halbwertszeiten der Muttersubstanz im Plasma und im Muskel lagen in vergleichbarer Größenordnung und gaben keinen Hinweis auf eine unterschiedliche Kinetik im Plasma und im Gewebe. Sowohl nach p.o. als auch nach einmal täglicher i.v. Mehrfachgabe über 3 - 4 Wochen konnte keine Anreicherung im Plasma bestimmt werden. Dieser Befund erklärte somit nicht die nach Mehrfachgabe erforderliche Dosisreduktion. Die in weiteren Untersuchungen bestimmten Gewebekonzentrationen in der Leber, in der Niere, im Muskel und im Herzen, die sich aus dem freien ungebundenen und dem reversibel gebundenen Anteil der extrazellulären und intrazellulären Konzentration zusammensetzten, zeigten einen zur Plasmakinetik korrespondierenden Zeitverlauf. Nur einzelne spezifische Geweberegionen zeigten nach p.o. (Aorta) und nach i.v. (Nerven) Mehrfachgabe eine Anreicherung des Wirkstoffes. In in-vitro Testmodellen wurde weiterhin die Pharmakokinetik auf zelluläre Ebene untersucht. Es zeigte sich, daß Hepatozyten in der Lage sind, R( )-a-Liponsäure aufzunehmen und die durch b-Oxidation entstandenen Metaboliten Bisnorliponsäure (BNLA) und Tetranorliponsäure (TNLA) zu bilden und aus der Zelle heraus zu transportieren. Im Hinblick auf die Konzentrations-Wirkungsbeziehung rückten die Metaboliten Tetranorliponsäure und Bisnorliponsäure in das Interesse, da diese Stoffwechselprodukte wie die Muttersubstanz über einen aktiven Dithiolan-Ring verfügen, der möglicherweise das für die Wirkung verantwortliche Strukturelement darstellt. Im Interstitium des Muskels wurde der Metabolit TNLA in vergleichbaren Konzentrationen wie die Muttersubstanz gemessen, der Metabolit BNLA war dort nur in Spuren meßbar. Im Plasma hingegen waren die maximalen TNLA-Konzentrationen um den Faktor 3 geringer als die Muttersubstanz- Konzentrationen. Der Metabolit BNLA war im Plasma nur in geringem Ausmaß, um den Faktor 15 geringer als die Muttersubstanz, meßbar. Untersuchungsmodell Mensch: Im Menschen wurden die Metaboliten TNLA, BNLA, 6,8-Bis(methylmercapto)octansäure (BMOA), 4,6- Bis(methylmercapto)hexansäure (BMHA) und 2,4-Bis(methylmercapto)butansäure (BMBA) im Plasma und im Urin pharmakokinetisch untersucht. Die Metaboliten BMOA, TNLA und BNLA zeigten Halbwertszeiten in vergleichbarer Größenordnung wie die Muttersubstanz (0,5 - 0,9 h). Für die Metaboliten BMBA und BMHA wurden höhere terminale Halbwertszeiten (2 h) ermittelt. Aufgrund der insgesamt kurzen Halbwertszeiten konnte eine Kumulation der Metaboliten nach Mehrfachgabe ausgeschlossen werden. Mit Hilfe eines pharmakokinetischen Modells (Zwei-Kompartiment-Modell) war es möglich, die Bildung der Stoffwechselprodukte BNLA, TNLA, BMOA, BMHA und BMBA im Plasma zeitlich simultan zu beschreiben. Dadurch konnte der Metabolisierungsweg der a-Liponsäure im Organismus genauer erklärt und die resultierenden Konzentrationen der Metaboliten auf Basis der Muttersubstanz-Konzentrationen errechnet werden. Es war nicht möglich, die gemessenen Konzentrationen, weder von der Muttersubstanz noch von den möglichen wirksamen Metaboliten, in den verschiedenen Kompartimenten (Blutkreislauf, Gewebe oder Zelle) mit der lang anhaltenden Wirkung in einen zeitlichen Zusammenhang zu bringen. Weitere Untersuchungen mit empfindlicheren Meßmethoden und weitergehende zusätzliche Konzentrationsbestimmungen in den Kompartimenten in der Zelle (z.B. Mitochondrien) sind erforderlich, um die Korrelation zwischen der Pharmakokinetik und der Pharmakodynamik der R( )-a-Liponsäure oder möglicher wirksamer Metaboliten zu beschreiben.
Die auf dem ACDM-Modell beruhenden numerischen Simulationen der gravitativen Strukturbildung sind auf Skalen M >> 10 hoch 10 M sehr erfolgreich, insbesondere konvergieren die Verfahren hinsichtlich des vorhergesagten Masseanteils der Halos an der Gesamtmasse von Galaxien. Jedoch konvergieren die Simulationen nicht bezüglich der lokalen Überdichten von CDM in den Halos, vielmehr setzt sich gravitative Strukturbildung auf immer kleinere Skalen fort. Numerisch kann keine Massen-Schwelle berechnet werden, unterhalb derer keine CDM-Strukturen mehr gravitativ gebildet werden. Die Kenntnis der lokalen Überdichten in den CDM-Wolken und die Verteilung der CDM-Wolken ist jedoch für Experimente zum direkten und indirekten Nachweis von CDM-Teilchen essentiell. Aus den lokalen Überdichten folgen für Experimente zum direkten Nachweis die einfallende Stromdichten der CDM-Teilchen und für Experimente zum indirekten Nachweis die Stromdichte der Annihilationsprodukte. Außerdem können die lokalen Überdichten als Gravitationslinsen wirken. In dieser Arbeit werden Massen Schwellen analytisch berechnet, unterhalb derer akustische Störungen in CDM nicht mehr zur gravitativen Strukturbildung beitragen können. Das Massen-Spektrum von lokalen Überdichten ist nach unten durch zwei unterschiedliche Mechanismen beschränkt: (1) Während der kinetischen Entkopplung formieren sich Nichtgleichgewichtsprozesse, die sich kollektiv als Reihungsphänomene konstituieren. Im lineare Regime sind dies die Volumenviskosität, die Scherungsviskosität und die Wärmeleitung. Die dissipativen Prozesse deponieren Energie und Impuls der akustischen Störungen in die Ebene senkrecht zur Ausbreitungsrichtung der Störungen und schmieren diese so aus. (II) Nach dem kinetischen Entkopplungsprozeß strömt CDM frei auf Geodäten. Dies ermöglicht einen Strom von Teilchen von überdichten in unterdichte Regionen, so daß die Amplituden der lokalen Überdichten weiter gedämpft werden. Die lokalen Transportkoeffizienten in (1) werden durch einen legitimen Vergleich von hydrodynamischer und kinetischer Beschreibung schwach dissipativer Prozesse gewonnen. Dissipative Prozesse induzieren eine Dämpfungsmasse Mc ungefähr gleich 10 hoch minus 9 M in SUSY-CDM und beschränken damit das Spektrum akustischer Störungen in SUSY-CDM. Freies Strömen (II) von CDM-Teilchen auf Geodäten induziert eine weitere Dämpfungsmasse M fs ungefähr gleich 10 hoch minus 6 M in SUSY-CDM, wobei das berechnete M d als Anfangswert dient. Die berechneten Schwellen liefern konsistente Schranken für numerische Simulationen, die weit unterhalb des momentanen numerischen Auflösungsvermögens liegen. Weiterhin folgt aus den Schwellen die Masse der ersten rein gravitativ gebundenen CDM-Wolken. Aus diesen bilden sich im Rahmen der hierarchischen Strukturbildung größere Substrukturen bis hin zu den heute vorhandenen CDM-Halos.
Die Peritonitis bezeichnet eine durch Bakterien oder chemische Noxen ausgelöste Entzündung des Peritoneums. Entwickelt sich aus der lokalisierten Entzündung der Bauchhöhle durch Abstrom bakterieller Bestandteile in die systemische Zirkulation eine generalisierte Sepsis mit multiplem Organversagen, beträgt die Letalität trotz chirurgischer Herdsanierung, intensivmedizinischer Betreuung und potenter Antibiotikatherapie 20-50%. Eine entscheidende Rolle in der Abwehr der Peritonitis tragen polymorphkernige Leukozyten. PMNL werden bei einer Infektion der Abdominalhöhle durch chemotaktile Botenstoffe zum Fokus gelockt und tragen durch Phagozytose der Bakterien und Sauerstoffradikalproduktion entscheidend zur Elimination der Mikroorganismen bei. Viele Untersuchungen weisen jedoch auch darauf hin, daß überschießend aktivierte zirkulierende PMNL für die Pathologie des septischen multiplen Organversagens mitverantwortlich sind. Die vorliegende Studie dient der Charakterisierung der Sauerstoffradikalproduktion emigrierter und zirkulierender PMNL bei Patienten mit sekundärer Peritonitis. Hierfür wurde mit Hilfe der luzigenin- bzw. luminolverstärkten Chemilumineszenz die extra- sowie intrazelluläre Sauerstoffradikalproduktion polymorphkerniger Leukozyten bestimmt. Dabei wurde die Sauerstoffradikalproduktion von Patienten mit unkompliziertem Verlauf einer Peritonitis mit der der Peritonitispatienten mit systemischen Komplikationen (septischer Schock, multiples Organversagen) verglichen. Acht Patienten nach abdominalchirurgischer Operation ohne Infektion dienten als Kontrollen. Eine Aktivierung der extrazellulären und intrazellulären Sauerstoffradikalproduktion polymorphkerniger Leukozyten war durch rezeptorabhängige und rezeptor-unabhängige Stimuli möglich. Bei Patienten nach abdominalchirurgischer Operation ohne Infektion war die Sauerstoffradikalproduktion der in die Bauchhöhle emigrierten PMNL höher als die zirkulierender PMNL. Auch bei Patienten mit einer unkomplizierten Peritonitis war die Sauerstoffradikalproduktion der intraabdominalen Granulozyten stärker aktivierbar als die der zPMNL. Im Gegensatz hierzu war jedoch bei Peritonitispatienten mit systemischen Komplikationen die extrazelluläre sowie auch die intrazelluläre Sauerstoffradikal-produktion emigrierter, intraabdominaler PMNL reduziert. Die stimulierte Sauerstoff-radikalproduktion zirkulierender PMNL war bei Patienten mit schwerer Peritonitis hochgradig aktivierbar und übertraf die der emigrierten PMNL. Die hohe Sauerstoffradikalproduktion zirkulierender PMNL bei Patienten mit kompliziertem Verlauf einer Peritonitis verbunden mit einer erniedrigten Sauerstoffradikalproduktion emigrierter polymorphkerniger Leukozyten sprechen für eine überaus starke systemische Aktivierung der Leukozyten. Dagegen scheint die lokale Abwehr im Rahmen einer schweren Peritonitis supprimiert. Die bei der vorliegenden Untersuchung erfaßten hohen intraabdominalen Zytokinkonzen-trationen könnten für eine Deaktivierung emigrierter Leukozyten verantwortlich sein. Zudem könnte die systemische Hyperinflammation polymorphkerniger Leukozyten mit einer vorzeitigen Einleitung der Apoptose und konsekutiver lokaler Immunparalyse verbunden sein. Wenig ist bis heute über die Modulierbarkeit emigrierter, intraabdominaler polymorphkerniger Leukozyten durch antiinflammatorische Substanzen bekannt. Daher wurde in der vorliegenden Untersuchung die Suppression der Sauerstoff-radikalproduktion emigrierter polymorphkerniger Leukozyten durch verschiedene antiinflammatorische Substanzen erprobt. Der Einfluß dieser Substanzen auf die Phagozytoseaktivität emigrierter PMNL wurde mit Hilfe der Durchflußzytometrie evaluiert. Chloramin, Buflomedilhydrochlorid und Pentoxiphyllin konnten die Sauerstoffradikal-produktion der emigrierten polymorphkernigen Leukozyten supprimieren, ohne die Phagozytosekapazität der Leukozyten zu beeinträchtigen.
Ziel der vorliegenden Studie war es , drei moderne Ni-Ti- Instrumentensysteme hinsichtlich ihrer Aufbereitungsfähigkeiten an stark gekrümmten Kanälen (Kriterium nach Schneider et al, 1971) zu vergleichen. 60 gekrümmte Kanäle extrahierter humaner Molaren des Oberkiefers wurden, nach Vorverteilung der Krümmungswinkel, randomisiert in die drei Testgruppen verteilt. Der Versuchsaufbau entsprach einer modifizierten Bramante-Methode. Jeder Kanal wurde dabei, von der apikalen Region ausgehend, in mindestens 5 Querschnitte zersägt. Nach Repositionierung im Testbehältnis wurden alle Kanäle mit Hilfe des EndoSteppers® von einem Behandler aufbereitet. Prä- und postoperative Bilder der Kanalquerschnittsflächen wurden digitalisiert und mit Hilfe einer Bildverarbeitungs-software (Image 2000) vermessen. Die Flächenveränderungen, die Aufbereitungs-zeiten, sowie die Arbeitslängenverluste und die Frakturhäufigkeit wurden erfasst und mittels One-Way-ANOVA, dem Kruskal-Wallis-Test und dem Duncan-Test statistisch ausgewertet. Die mittlere Arbeitszeit war bei RaCe TM signifikant geringer als bei FlexMaster®. Die signifikant höchsten Abträge an der Kanalwand wurden bei RaCe TM, im Vergleich zu den beiden anderen Testgruppen, verzeichnet. Arbeitslängenverluste waren bei allen Instrumentensystemen zu verzeichnen, wobei FlexMaster® einen signifikant geringeren Mittelwert im Vergleich zu RaCe TM aufwies. 17 Instrumente frakturierten, wobei mit 11 Brüchen bei RaCe TM die größte Zahl zu vermerken war. FlexMaster®-Instrumente frakturierten nicht. Klinische Relevanz: Im Zuge dieser Studie konnte festgestellt werden, dass sich FlexMaster®-Instrumente aufgrund einer näher an der ursprünglichen Kanalform liegenden Aufbereitung in Verbindung mit dem EndoStepper® besonders zur Aufbereitung von stark gekrümmten Wurzelkanälen eignen. Von der Benutzung der RaCe TM-Instrumente ist, zumindest in Verbindung mit der hier verwendeten EndoStepper®-Software, aufgrund des hohen Frakturrisikos abzuraten.
Für diese Arbeit wurden anhand zweier relativ kleiner Kollektive von 35 DAT-Patienten und 12 gesunden Non-DAT-Kontrollpersonen (Rechtshänder) 18F-FDG-PET-Bilddatensätze des Gehirns angefertigt und standardisiert mit dem halbautomatischen Regionalisierungsverfahren RegWindow hinsichtlich der Stoffwechselraten in interessierenden Hirnregionen nach HERHOLZ et al. (1990) in der Überarbeitung nach HALBER et al. (1995) für das PC-Programm RegWindow analysiert und ausgewertet. Für die Non-DAT-Kontrollgruppe läßt sich ein signifikanter Zusammenhang zwischen den mit RegWindow und Metabolischer Index ermittelten Metabolic Ratios bestätigen. Die Metabolic Ratios stimmen bezüglich den Literaturangaben der beiden Referenzstudien nach HALBER (1995) und HERHOLZ et al. (1990) sehr gut überein. Mit der Non-DAT-Kontrollgruppe ist auf einem Signifikanzniveau von P=0,95 eine direkte Proportionalität zwischen dem Alter und dem daraus resultierend erniedrigten Metabolic Ratios abzuleiten. Jeweils zehn Lebensjahre führen zu einer Minderung des Metabolic Ratios um 2 Prozent. Für das in dieser Arbeit untersuchte DAT-Gesamtkollektiv wird eine lineare Abhängigkeit des Metabolic Ratios vom MMST-Score des psychometrischen Tests mit hoher Signifikanz nachgewiesen. Die Abhängigkeit liefert eine eindeutige 1:1 Korrelation: Eine Minderung des Score-Wertes um eins hat im Mittel eine Minderung des Metabolischen Ratios um 1 Prozent zur Folge und umgekehrt. Aus den Ergebnissen dieser Arbeit läßt sich ein Cut-off-Wert von 1,075 zur Trennung des Non-DAT- vom DAT-Kollektiv berechnen. Dieser ermöglicht eine vollständige Trennung beider Kollektive bei einer Sensitivität und Spezifität von 100 Prozent. Die Ergebnisse der Stoffwechselratenanalyse bestätigen eine signifikante Stoffwechselratenminderung in drei von den vier nach HALBER (1995) und HERHOLZ et al. (1990) typischerweise betroffenen (affected) Hirnregionen. In der Reihenfolge vom höchsten zum niedrigeren Einfluß der DAT auf die Stoffwechselminderungen ergibt sich die Rangfolge Gyrus angularis, gefolgt von Gyrus temporalis inferior, Gyrus supramarginalis und Gyrus temporalis medius. Als typischerweise nicht betroffene (non-affected) Regionen konnten die Gyri praecentralis und postcentralis sowie Cuneus bestätigt werden. Als eindeutig non-affected kann zusätzlich der Thalamus klassifiziert werden. Für einige nicht klassifizierte Hirnregionen werden ebenfalls signifikante Stoffwechselratenminderungen nachgewiesen, deren Aufnahme als typischerweise betroffene Hirnareale in den Algorithmus für RegWindow zur Berechnung des Metabolic Ratios vorgeschlagen wird. Diese lauten: Lobulus parietalis inferior, Praecuneus, Hippocampus, Lobulus parietalis superior und Gyrus frontalis superior. Internationale Arbeitsgruppen (siehe Kapitel 4.4.1) konnten für diese Hirnregionen im PET Stoffwechselratenminderungen bestätigen sowie in anderen bildgebenden Diagnoseverfahren Atrophien und Perfusionsdefizite ebenfalls nachweisen. Für die Gyri angularis, temporalis inferior und medius, supramarginalis und den Lobulus parietalis inferior konnte ein unilateraler Befall mit Stoffwechselratenminderung im Anfangsstadium der DAT nachgewiesen werden.
Die hier durchgeführten Untersuchungen an Staphylococcus aureus ATCC 6538 unter Verwendung von Silbernitrat als Desinfektionsmittel auf Standard-CSA sowie Agar-Agar mit Kalliumtelluritzusatz hatten das Ziel, den Einfluss von Silbernitrat-Ionen auf den Keim zu untersuchen. Hier galt es nicht nur die Schädigung von Silbernitrat-Ionen auf Staphylokokken zu untersuchen, sondern zusätzlich zu prüfen, ob eine Reduzierung der Pathogenität der Keime nach vorheriger Desinfektion stattfindet. Die Empfindlichkeit der geschädigten Bakterien gegenüber Tellurit, wie in diesen Untersuchungen verwendet, löste das früher verwendete Mäusepathogenitätsmodell ab. Die Ergebnisse zeigten deutlich, dass die Keimzahl zum einen durch eine erhöhte Konzentration des Silbernitrats, zum anderen durch eine verlängerte Einwirkzeit reduziert wurde. Weiterhin ist ersichtlich, dass eine Minderung der Pathogenität nach Desinfektion eintrat. Der mit Tellurit versetzte CSA-Agar hemmte das Wachstum stärker als bei den Platten ohne Zusatz. Dies zeigt eine erhöhte Empfindlichkeit der Keime gegenüber Tellurit. Eine weitere Virulenzminderung trat mit zunehmender Telluritkonzentration auf. Dies lässt die Schlussfolgerung zu, dass Kalliumtellurit eine Wachstumshemmung auf das Bakterium Staphylococcus aureus bewirkt. Da sich in den Kontrollansätzen ohne Desinfektionsmittel die Keimzahl ebenfalls mit zunehmender Telluritkonzentration reduzierte, bestätigt dies, dass die Eignung von Hemmstoffen - im vorliegendem Fall Kalliumtellurit - nur in einem engen Konzentrationsbereich für die Erfassung geschädigter Keime geeignet ist.
Fettsäuren haben vielfältige Funktionen im Organismus. Sie sind der wichtigste Energieträger des menschlichen Körpers. Fettsäuren sind Bestandteil menschlicher Membranen und Ausgangspunkt für die Biosynthese biologisch aktiver Substanzen. Der Abbau der Fettsäuren und deren energetische Verwertung geschieht im Mitochondrium, dem Ort der ß-Oxidation. Hierfür werden die Fettsäuren mit Hilfe des aus 3 Enzymen bestehenden Carnitin- Palmitoyltransferase-Systems aus dem Cytosol in das Mitochondrium transportiert. Dazu werden langkettige Fettsäuren durch die Acyl-CoA-Synthetase aktiviert und - an Carnitin gebunden - in das Innere der Mitochondrien geschleust. Die Carnitin-Palmitoyltransferase 1 (CPT 1) ist an der Innenseite der äußeren Mitochondrienmembran gebunden und katalysiert die Kopplung von L-Carnitin an die aktivierte Fettsäure unter Freisetzung von Coenzym A. Das so enstandene Acyl-Carnitin passiert mit Hilfe der Carnitin- Acylcarnitin-Translokase (CAC) die innere Mitochondrienmembran. An der Innenseite der mitochondrialen Innenmembran überträgt die Carnitin-Palmitoyltransferase 2 (CPT 2) den Fettsäurerest des Acyl-Carnitins auf Coenzym A, wobei Acyl-CoA und freies Carnitin entsteht. Nun schließt sich der Abbau der Fettsäuren, die ß-Oxidation an. Ziel dieser Arbeit war die Untersuchung der Carnitin-Palmitoyltransferase 1 in Entzündungszuständen und die Klärung der Frage, ob Stickstoffmonoxid (NO) einen Einfluss auf die Regulation der CPT 1 hat. Darüberhinaus wurde die Wirkung von PPAR-a (peroxisome proliferator-activated receptor-a) auf die induzierbare NO-Synthase (iNOS) und damit die Generierung von NO untersucht. Die Experimente wurden an Ratten-Mesangiumzellen durchgeführt. Interleukin 1ß stimuliert die Expression der CPT 1 auf mRNA und Protein-Ebene. In Kombination mit Palmitat und Carnitin konnte die Expression der CPT 1 signifikant gesteigert werden. Es konnte gezeigt werden, dass NO ein potenter Stimulator der Carnitin-Palmitoyltransferase 1 ist. Mesangiumzellen, die mit NO und IL-1ß kombiniert stimuliert wurden, zeigten bereits nach 2 Stunden eine Reduktion der Expression auf das Niveau der unstimulierten Kontrolle. IL-1ß und L-NG-Monomethyl- Arginin (L-NMMA), ein spezifischer Inhibitor der induzierbaren NO-Synthase erhöhen die CPT-1 Expression. In einem Tiermodell des hämorrhagischen Schocks wurde die CPT 1 mRNA Expression signifikant reprimiert, die Gabe eines iNOS-Inhibitors konnte diese Herunterregulierung wieder aufheben. Stickstoffmonoxid spielt eine sehr wichtige Rolle bei Entzündungsreaktionen. Die induzierbare NO-Synthase ist das verantwortliche Enzym für die Produktion von großen Mengen NO. Die NO-Synthase (NOS) katalysiert die Umsetzung von L-Arginin unter Sauerstoffverbrauch in Citrullin unter Entstehung von NO. Der Mechanismus , der für einen verzögerten Beginn der Transkription von vier Stunden mit darauf folgender mehr als 24-stündiger immenser mRNA Synthese. nach einer Zytokinstimulation verantwortlich ist, ist noch nicht verstanden. Der Untersuchung dieser verzögerten und anhaltenden iNOS Expression lag die Hypothese zugrunde, dass die Zytokin-induzierte iNOS Transkription zuerst durch NFkB und C/EBP Transkriptionsfaktoren ausgelöst und anschließend durch andere Mediatoren verlängert und verstärkt wird. Zur Identifizierung möglicher regulatorischer Elemente wurden 4,5 kb der 5' flankierenden Region des iNOS Promotors aufwärts des Transkriptionsstarts kloniert. Mittels Analyse der DNase 1 hypersensitiven Bereiche der 5'Region des iNOS Gens konnten zwei hypersensitive Stellen identifiziert werden (DHS1: 1300bp; DHS2: 3000bp). Beide Stellen enthalten putative PPAR-Bindestellen. Zur weiteren Untersuchung wurde die Wirkung des PPAR-a auf die iNOS analysiert. Dabei konnte gezeigt werden, dass der PPAR-a Agonist Wy 14643 in Kombination mit IL-1ß in der Lage ist sowohl Aktivität, Protein als auch die mRNA der iNOS zu steigern. Transfektionsexperimente mit deletierten und mutierten iNOS Promotorfragmenten zeigten, dass DHS1 das für die Stimulation verantwortliche DNA Fragment enthält. Mittels Elektrophoretic-Mobility-Shift-Assay konnte gezeigt werden, dass der PPAR-a Agonist Wy 14643 die Bindung des PPA-Rezeptors an DHS1 verstärkt.
Ziel dieser Arbeit war die Klärung des pathogenen Mechanismus einer Mutation im kardialen Myosinbindungsprotein C Gen. Diese Mutation (eine G-Insertion), die zu einer intern deletierten mRNA mit vorzeitigem Stop Codon führt, wurde im Rahmen einer HCM- Familienanalyse identifiziert. Ein C-terminal verkürztes MyBP-C war jedoch im Herzgewebe eines Patienten nicht nachweisbar (Moolman et al., 2000). Es stellte sich die Frage, ob die Krankheit in dieser Familie auf einen "dominant-negativen" Effekt von sehr wenigen veränderten Proteinen oder auf einen Mangel an normalem MyBP-C (Haploinsuffizienz) zurückzuführen ist. Zur Überprüfung einer möglichen Suppression des mutierten Allels auf mRNA Ebene wurde eine semiquantitative RT-PCR-Analyse myokardialer RNA durchgeführt. Dabei wurde festgestellt, dass die nicht-mutierte mRNA in einem vierfachen Überschuß gegenüber der mutierten mRNA im Patienten-Herzgewebe vorliegt. In Modellversuchen wurde sodann die Expression der intern deletierten mRNA in transient transfizierten Zellen untersucht. Hierfür wurden drei MyBP-C cDNAs verwendet: (1) die vollständige Wildtyp cDNA (WT), (2) eine intern deletierte cDNA, die mit dem vorzeitigen Stop-Codon endet (MTI) und (3) eine cDNA, die sich nur durch die interne Deletion von der WT-Sequenz unterscheidet (MTII). Aufgrund einer Leserahmenverschiebung enthält die cDNA MTII (wie die mutierte Patienten-mRNA) zusätzlich zum nativen Stop-Codon ein vorzeitiges Terminationscodon. In COS-1 Zellen führten alle drei cDNAs zur Synthese der erwarteten Genprodukte. In neonatalen Kardiozyten wurde nur das verkürzte Protein vom Typ MTI eindeutig exprimiert. Die cDNA MTII führte nicht, bzw. nur in sehr geringem Ausmaß zur Synthese eines verkürzten MyBP-C (Western Blot). Die Analyse immunfluoreszent markierter Kardiozyten für das c-myc/MyBP-C-Fusionsprotein und für Titin ergab folgende "steady state" Expressionen: WT>MTI>>MTII. In der Mehrzahl der Zellen, die MTI oder MTII exprimierten, lagen die Rumpfproteine diffus im Cytoplasma vor, ohne eine erkennbare Veränderung der endogenen Sarkomerstruktur hervorzurufen. Ein relativ geringer Anteil von Zellen zeigte eine korrekte, sarkomere Inkorporation der verkürzten Proteine. Aufgrund der unterschiedlichen "steady state" Konzentration von MTI und MTII in Kardiozyten und aufgrund der Expressionsunterschiede in den verschiedenen Zelltypen wurde ein zelltypspezifischer und intron-unabhängiger Mechanismus vermutet, der die Suppression der Nonsense-mRNA (MTII) und damit eine Reduktion der Synthese des verkürzten MyBP-C bewirkt. Dieser Effekt wurde auf den Einfluß von Sequenzen zurückgeführt, die sich in der reifen mRNA 3' vom vorzeitigen Stop-Codon befinden. Zur Eingrenzung dieser Sequenzen wurde der Bereich zwischen dem vorzeitigen und dem nativen Stop-Codon in überlappende Fragmente unterteilt und an das Stop-Codon der cDNA MTI angefügt. Die transiente Expression dieser cDNA-Konstrukte (MTI-DSE I, II, III, I/II) führte in Kardiozyten ebenfalls zu einer reduzierten Synthese des verkürzten MyBP-C. Die erhaltenen Ergebnisse, d.h. sowohl die reduzierte Transkriptmenge des mutierten MyBP-C Allels im Patienten- Herzgewebe als auch die geringe Akkumulation verkürzter MyBP-C Proteine in transient transfizierten Kardiozyten erklären den pathogenen Mechanismus der untersuchten MyBP-C Mutation nicht vollständig. Jedoch unterstützen sie die Vermutung, dass die Abwesenheit des verkürzten MyBP-C auf einer Suppression der MyBP-C Nonsense-mRNA basiert und bekräftigen die Vorstellung, dass die HCM in der untersuchten Familie mit einem Mangel an Myosinbindungsprotein C im Myokard assoziiert ist (Haploinsuffizienz). Ein "dominant- negativer" Effekt einer sehr geringen Menge von veränderten Molekülen auf die Struktur oder auf die regulatorische Funktion der kardialen Sarkomere kann allerdings nicht völlig ausgeschlossen werden.
Orotracheale Keimverschleppung während der Umintubation und bei verschiedenen Tracheotomietechniken
(2002)
Langzeitbeatmete Patienten sind häufig von nosokomialen Pneumonien betroffen. Für diese Patienten stehen zur Optimierung des Airwaymanagement verschiedene Techniken zur Verfügung. In der vorliegenden Studie wurden diese Techniken (nasale Umintubation, konventionelle Tracheotomie und perkutane Tracheotomie einschließlich GWDF, PDT und TLT) auf eine Keimverschleppung aus den oberen in die unteren Atemwege untersucht. Bei insgesamt 200 Patienten erfolgte ein mikrobiologisches Monitoring durch Gewinnung von Rachen- und Trachealabstrichen am Morgen des Eingriffs und am darauffolgenden Tag. Abweichend hiervon wurde in der Gruppe der nasotracheal umintubierten Patienten statt eines Rachenabstrich ein Nasenabstrich gewonnen. Die Proben wurden mikrobiologisch hinsichtlich eines Wachstums von Bakterien bzw. Pilzen untersucht. Zur Differenzierung wurden bei jedem Isolat die biochemischen Eigenschaften und das antibiotische Resistenzverhalten erhoben. Die Eingriffe wurden im Mittel am 3. Tag (Umintubation), 8. Tag (konventionelle Tracheotomie und GWDF), 9. Tag (TLT) und 10. Tag (PDT) des Aufenthalts auf der Intensivstation durchgefiihrt. Bei 155 von 200 Patienten (77,5 %) gelang ein positiver Erregernachweis im Rachen- bzw. Nasenabstrich, bei 143 von 200 Patienten (71,5%) ein positiver Erregernachweis im Trachealsekret. Die am häufigsten isolierten Erreger waren S. aureus, Acinetobacter sp., Pseudomonas sp., Stenotrophomonas maltophilia und Candida sp.. Bezogen auf alle Erregernachweise (n = 859) funden sich in 165 Fällen grampositive Erreger (19,2 %), in 403 Fällen granmegative Erreger (46,9 %) und in den restlichen 291 Fällen Pilze (33,8 %). In der Gruppe der nasotracheal umintubierten Patienten kam es bei 10 von 40 Patienten (25,0 %) zu einem positiven postinterventionellen Nachweis eines Erregers im Trachealsekret, der vor der Intervention nur im Nasenabstrich nachgewiesen wurde. In den restlichen Gruppen erfolgte dieser postinterventionelle Erregernachweis im Trachealsekret bei je 6 von 40 Patienten (15 %) in den Gruppen PDT und TLT, sowie bei je 7 von 40 Patienten (17,5 %) in den Gruppen konventionelle Tracheotomie und GWDF. Die von uns ermittelte Inzidenz von Keimbesiedlungen der oberen Atemwege (77,5 %) und der unteren Atemwege (71,5 %) entspricht der allgemeinen Inzidenz bei beatmeten Intensivpatienten. Der hohe Anteil von gramnegativen Erregern (46,9 %) ist Ausdruck eines Wechsel des Erregerspektrums in den gramnegativen Bereich bei schwerstkranken Patienten auf Intensivstationen. Die TLT scheint aufgrund einer im Vergleich zu den anderen Verfahren nicht erhöhten Inzidenz einer Keimverschleppung aus den oberen in die unteren Atemwege als infektionsepidemiologisch risikoarme Technik. Die nasotracheale Umintubation weist im Vergleich zu den anderen Verfahren eine höhere, aber statistisch nicht signifikante Inzidenz von Keimverschleppungen auf. Die Nase stellt aufgrund ihrer Keimbesiedlung ein wesentliches Erregerreservoir dar, das im Zusammenhang mit der nasotrachealen Umintubation hinsichtlich nosokomialer Pneumonien eine Rolle spielen könnte.
Lipidartige Formulierungen zur Verbesserung der Bioverfügbarkeit schwer löslicher Arzneistoffe
(2002)
In dieser Arbeit wurde anhand der zwei schwerwasserlöslichen Modellsubstanzen EMD 57033 und Danazol untersucht, inwieweit sich (schwerpunktmäßig halbfeste) lipidartige Hilfsstoffe zur Verbesserung der Wirkstofffreigabe aus der Arzneiform eignen, um dadurch eine im Vergleich mit einer Standardrezeptur erhöhte Bioverfügbarkeit zu erhalten.
Für viele pädiatrische Patienten mit Leukämie ist die Durchführung einer Hoch-Dosis- Chemotherapie mit anschließender Stammzelltransplantation oft die einzige Möglichkeit die Heilungsrate zu verbessern. Die Eliminierung der residualen leukämischen Blasten basiert einerseits auf der Konditionierung mit hoch-aggressiver Chemotherapie. Andererseits ist sie auf immunologische Reaktionen zwischen immunkompetenten Zellen, die entweder in dem Transplantat enthalten sind, oder aus diesem neu entstehen und den verbliebenen leukämischen Blasten zurückzuführen. Diese immunologische Interaktion wird auch als Graftversus- Leukämie-Reaktion (GVL) bezeichnet und hauptsächlich von T-und NK-Zellen vermittelt. Trotz zunächst erfolgreicher allogener Transplantation erleidet ein beträchtlicher Anteil der Patienten ein Rezidiv. Während ein offenes Rezidiv oft nicht mehr behandelbar ist, können Patienten mit drohendem Rezidiv oder minimaler Resterkrankung (MRD) durch Infusion immunkompetenter Zellen des Spenders, sogenannte Donor-Lymphozyten-Infusionen (DLI), teilweise erfolgreich behandelt werden. Die Behandlung mit DLI ist limitiert durch die Graft-versus-host-disease (GVHD), eine mit zum Teil schweren Komplikationen verbundene Reaktion, die potentiell tödlich verlaufen kann. Die gentechnische Veränderung der alloreaktiven Zellen mit einem Suizidgen ermöglicht eine kontrollierte, spezifische Eliminierung dieser Zellen im Falle einer GVHD Entwicklung. Im Rahmen dieser Arbeit wurden zwei verschiedene retrovirale Selektions/Suizid- Fusionsvektoren für die Transduktion von Spender T-Zellen im Kontext einer DLI entwickelt. Beide Selektions/Suizid-Fusionselemente wurden in einem für die Transduktion in T-Zellen optimierten retroviralen Vektor generiert. Die Selektionsmarker waren so gewählt, dass eine Anreicherung der Transgen-positiven Zellen über eine immunomagnetische Selektion möglich war. Ein Vektor kodierte für ein Fusionsmolekül aus dem zytoplasmatisch trunkierten humanen CD34-Oberflächenmarker (tCD34) und der Zellzyklus-abhängigen GCV-hypersensitiven HSVtk39 (Herpes-simplex Virus I Thymidin Kinase) Mutante. Durch GCV-Applikation konnte in den transduzierten, tCD34/HSV-tk39 exprimierenden Zellen spezifisch die Apoptose induziert werden. Der zweite Vektor wurde so konstruiert, dass ein Fusionsprotein aus dem humanen DLNGFR-Oberflächenmarker und der Zellzyklus-unabhängigen death-effector-domain (DED) des humanen FADD (Fas-associated-protein with death domain) Moleküls entstand. Über zwei zwischengeschaltete FKBP (FK506-binding protein) Domänen wurden die beiden Elemente miteinander fusioniert. In DLNGFR/Fv'Fv/DED-exprimierenden Zellen konnte die Apoptose durch die Applikation eines spezifisch an die beiden FKBP-Domänen bindenden synthetischen Substrats (AP20187), das die Dimerisierung des DED-Moleküls induzierte, ausgelöst werden. Durchflusszytometrische Analysen von transduzierten und selektierten humanen primären TZellen zeigten, dass beide Fusions-Transgene korrekt in den Zielzellen exprimiert wurden. Die spezifische Induktion der Apoptose durch Aktivierung des jeweiligen Suizidmoleküls wurde in Funktionalitätstestungen nachgewiesen. Beide Fusionsmoleküle vermittelten eine effiziente Eliminierung der transduzierten Zellen (90 %-98 %). In vergleichenden Analysen wurde gezeigt, dass die beiden Suizidmechanismen einer unterschiedlichen Kinetik unterlagen. Während die DED-induzierte Apoptose sehr schnell auf die Applikation des Suizidaktivators folgte, vermittelte der HSV-tk39 Mechanismus eine deutlich langsamere aber etwas effizientere Eliminierung der Zellen. Erste Untersuchungen einer Kombination beider Fusionsmoleküle deuten auf einen additiven/synergistischen Effekt hin, der zu einer schnellen und effizienten Eliminierung der Zellen führt (>=99 %). Zur Zeit stellt die Strategie der Suizidgen-transduzierten T-Zellen die am vielversprechendste Methode zur Kontrolle einer GVHD-Reaktion dar. Die hier entwickelten Vektoren ermöglichen eine effiziente, kontrollierte Eliminierung der Zellen und bieten Potential zur Weiterentwicklung einer optimierten Strategie.
In NE-Burkina Fasos wurden die Boden- und Reliefgenese (Erkundung des oberflächennahen Untergrunds, OSL-Datierungen) und die aktuelle Geomorphodynamik (Beregnungs- und Infiltrationsversuche, Luftbildauswertungen) der sahelischen Altdünenlandschaft und der angrenzenden endorheischen Becken untersucht. Zentrale Fragestellungen sind (1) die Altersstellung des häufig als erg récent bezeichneten Sekundärdünenreliefs auf dem Dünentop der spätpleistozänen Dünenzüge, (2) die jüngere Relief- und Bodenentwicklung vor dem Hintergrund der langen Nutzungsgeschichte (Hirsefeldbau und Viehzucht), und (3) die qualitative und quantitative Erfassung der aktuellen, denudativen und linearerosiven Prozesse, vorwiegend auf den Altdünen, in Abhängigkeit von Substrat, Oberflächenzustand und Nutzung. Die Akkumulation der Sekundärdünen fand während der spätpleistozänen ariden Periode (Ogolien) statt (19,6±1,1 ka und 23,8±1,6 ka v. H). Gleiches gilt für die äolischen Liegendsedimente der Nordabdachungen der Dünenzüge (21,9±2,1 ka und 23,2±2,1 ka v. H.). Unter Einbeziehung früherer Untersuchungen (ALBERT et al. 1997) ergibt sich daraus, dass sowohl die Dünenzüge an sich als auch ihr asymmetrisches Relief im N-S-Profil bereits während des Ogolien angelegt wurden. Die holozäne Landschaftsentwicklung ist durch Bodenbildung in den Altdünen und durch die fluvial-limnische Sedimentation in den endorheischen Becken (Mares) gekennzeichnet. Der häufig in der Literatur genannte aride Einschnitt um 8,2 ka v. H. kann weder absolutchronologisch noch paläopedologisch nachgewiesen werden. Vielmehr deutet die Verbreitung der Cambic bis Luvic-Chromic Arenosols, über dichtem Untergrund auch Gleyic Arenosols auf standörtlich unterschiedliche Bodenbildungsintensitäten und -prozesse in Abhängigkeit von Wasserhaushalt und geomorphodynamischer Beeinflussung hin. Die jüngere Landschaftsgeschichte ist zunehmend durch Landnutzung beeinflusst. Zwar konnte mit OSL-Altern von 4,5±0,2 ka und 4,7±0,8 ka v. H. lokal Sedimentumlagerung im Zusammenhang mit Later Stone Age-Aktivitäten nachgewiesen werden, für anthropogen induzierte Bodenerosion in größerem Umfang fehlen indessen die Hinweise. Der Wandel zur Kulturlandschaft setzte mit der eisenzeitlichen Siedlungsperiode ein. Kennzeichnend für diese, von der Zeitenwende bis zum 15. Jh. dauernden Epoche, ist der Nachweis des verbreiteten Hirseanbaus auf den Altdünen. Degradierte Böden auf den ehemaligen Feldern und mehrschichtige Kolluvien unterhalb, flächenhafte Bodendegradation in der Umgebung der alten Siedlungen sowie zunehmender Sedimenteintrag in die Mares sind die wichtigsten Indizien des 'human impact' dieser Epoche. Der Bezug zwischen der Nutzungsgeschichte und den korrelaten Sedimenten konnte im Einzelfall absolutzeitlich hergestellt werden (1064-979 cal. BP 14C). Aktuelle Bodendegradation findet in der Sahelzone sowohl fluvialerosiv als auch äolisch statt. Die fluvialerosive Bodenerosion überwiegt dabei flächenmäßig - auf den Glacis durch alle Prozesse des flächenhaften bis linearen Abtrags sowie auf den Altdünen überall dort, wo Bodenkrusten Oberflächenabfluss ermöglichen. Die feldbaulich genutzten Altdünenbereiche auf der Südseite der Dünenzüge und entlang der Nordhänge mit ihren pedogenetisch verfestigten Sanden und verkrusteten Oberflächen weisen stark reduzierte Infiltrationsraten auf und produzieren mit runoff-Koeffizienten von 21-94 % verstärkt Oberflächenabfluss. Neben flächenhafter Denudation tritt hier, überwiegend in Verbindung mit Trittbelastung, gehäuft Rinnen- und Gully-Erosion auf. Aufgrund der Verfestigung bieten diese Böden der äolischen Dynamik kaum Angriffsflächen. Einzig die kaum konsolidierten Sekundärdünen auf dem Dünentop sind die Landschaftseinheit mit dominierender Bodenerosion durch äolische Prozesse.
Untersucht wurde die spätpleistozäne und holozäne Diatomeenflora aus drei Teilgebieten der westlichen Ostsee, dem Kattegat, der Kieler Bucht und der Pommerschen Bucht. Die Ergebnisse bestätigen die hervorragende Eignung der Diatomeen als Indikatororganismen in der Paläoökologie. Anhand der Mikroflora war es möglich, die wechselhafte Geschichte der verschiedenen Ostsee-Teilgebiete detailliert nachzuvollziehen. Es konnten Lage und Ausdehnung der Paläogewässer während der verschiedenen Stadien der Ostsee-Entwicklung sowie verschiedene abiotische Faktoren der Paläoumwelt - Salinität, pH-Wert, Trophie, Temperatur und Wassertiefe - rekonstruiert werden. Zur Rekonstruktion von Salinität, Trophie und pH-Wert kamen erstmals verschiedene Indikationssysteme - der Halobienindex nach ZIEMANN (1971), das Trophie-Indikationssystem nach HOFMANN (1994) und die pH-Rekonstruktion nach ARZET (1987) - zur Anwendung. Kattegat Der Schwerpunkt der Untersuchung lag auf dem südwestlich der Insel Anholt gelegenen Teil des Kattegats. In den 22 Kernprofilen konnten insgesamt 596 Diatomeentaxa registriert werden. In den Ablagerungen des Spätglazials waren im gesamten Untersuchungsgebiet keine silifizierten Mikrofossilien nachweisbar. Die anhand der seismoakustischen Untersuchungen aufgestellte Gliederung der holozänen Sedimente in die Abschnitte Holozän 1 (H1), Holozän 2 (H2) und Holozän 3 (H3) konnte durch die Analyse der Diatomeenfloren bestätigt werden. Die Ablagerungen des Sedimentabschnitts H1 entstanden während einer Transgressionsphase. Das in Alleröd und Jüngerer Dryas trockengefallene Untersuchungsgebiet wurde zu Beginn des Präboreals vollständig transgrediert. Durch das Auftreten halobionter Diatomeentaxa konnte der Beginn der Transgression im Untersuchungsgebiet auf den Anfang des Präboreals und ein Alter von 10.200 Jahren BP datiert werden. Für die Hauptphase der Transgression wurde ein Alter von rund 9.700 bis 9.300 Jahren BP ermittelt. In Übereinstimmung mit den seismoakustischen Befunden und den Ergebnissen der Makrofossil-Analyse konnte der Sedimentabschnitt H2 als Ablagerung aus dem Mündungsgebiet eines Fließgewässers identifiziert und auf ein Alter von rund 9.300 bis 8.300 Jahren BP datiert werden; wahrscheinlich entwässerte der Ancylus-See zumindest zeitweilig über den großen Belt in diesen Abschnitt des Paläokattegats. Die Diatomeenflora indiziert eine überwiegend durch den Einstrom von Süßwasser beeinflusste Paläoumwelt und ein alkalisches und eutrophes Milieu. Das charakteristische Merkmal der Thanathozönosen ist der hohe Anteil an allochthonen Schalen. Die Analyse der autökologischen Präferenzen zeigt, dass durchschnittlich 30 % der Taxa ursprünglich aus anderen Gewässertypen stammen. Mithilfe der Diatomeenflora konnte der Sedimentabschnitt H2 in drei Abschnitte untergliedert werden. Der Abschnitt H2a wurde während der Bildung einer Landzunge abgelagert, die die Mündung des Fließgewässers vom Paläokattegat trennte. Die Thanathozönosen indizieren die zunehmende Beeinflussung durch den Einstrom von Süßwasser. Der Abschnitt H2b wurde vor rund 8.800 Jahren BP deponiert, während die Landzunge ihre größte Ausdehnung und Isolationskraft erreichte. Die Diatomeenflora indiziert die maximale Beeinflussung durch den Zustrom von Süßwasser. Im Sedimentabschnitt H2c indizieren die Thanathozönosen die Verlagerung der Landzunge infolge küstendynamischer Prozesse und eine zunehmende Beeinflussung durch Meerwasser. Der Sedimentabschnitt H3, der während einer erneuten Transgression vor ca. 8.300 Jahren BP deponiert wurde, ist in weiten Bereichen vollständig frei von silifizierten Mikrofossilien. Eine autochthone, aus überwiegend halobionten Taxa zusammengesetzte Diatomeenflora ließ sich lediglich in einem der Kernprofile nachweisen. Das charakteristische Taxon der Transgressionsfloren in den Sedimentabschnitten H1 und H3 ist Paralia sulcata. Typisch sind des Weiteren Actinoptychus senarius, Cymatosira belgica, Dimeregramma minor, Ehrenbergia granulosa und Plagiogramma staurophorum. Kieler Bucht Aus der Kieler Bucht stand ein Kernprofil zur Verfügung. In diesem Profil konnten insgesamt 344 Diatomeentaxa nachgewiesen werden. Die brackischen Ablagerungen entstanden in der Mastogloia-Phase und konnten mithilfe der Diatomeenflora in zwei Abschnitte - Mastogloia 1 (M1) und Mastogloia 2 (M2) - untergliedert werden. Der Sedimentabschnitt M1 wurde deponiert, während das Milieu des Paläogewässers durch sporadische Ingressionen über den Großen Belt beeinflusst wurde. Die Diatomeenflora indiziert einen Paläosalzgehalt von maximal 9 Promille, ein eutrophes und alkalisches Paläomilieu und eine geringe Wassertiefe. Die Veränderungen im Artgefüge der Thanathozönosen innerhalb des Sedimentabschnitts M2 belegen einen kontinuierlichen Anstieg der Salinität um mindestens 8 Promille und das Auftreten starker Strömungen. Die Sedimentation erfolgte während des Übergangs vom brackigen Mastogloia-Stadium zur marinen Littorina-Phase. Mithilfe der Diatomeenflora konnte nachgewiesen werden, dass sich in dem Paläogewässer der Kieler Bucht frühestens vor 7.100 Jahren BP marine Verhältnisse etablierten. Die Flora indiziert einen Anstieg des Paläosalzgehalts auf mindestens 17 und maximal 30 Promille. In Übereinstimmung mit den Ergebnissen der Sedimentanalyse konnten die Ablagerungen der Littorina-Phase anhand der Diatomeenflora in zwei Subzonen - Littorina 1 (L1) und Littorina 2 (L2) - untergliedert werden. Während das Artgefüge in dem Abschnitt L1 auf große Strömungsgeschwindigkeiten während der Sedimentation hinweist, belegt die Flora in dem Abschnitt L2 eine deutliche Abnahme der Strömungsintensität. Pommersche Bucht In den neun Kernprofilen aus der Pommerschen Bucht konnten insgesamt 265 Diatomeentaxa identifiziert werden. In Übereinstimmung mit den Ergebnissen der geologischen Untersuchungen zeigt die Diatomeenflora, dass sich der südliche Abschnitt der Pommerschen Bucht nach dem Rückzug des Eisschildes bis in das Atlantikum hinein unabhängig vom nördlichen Teil entwickelte; erst während der Littorina-Phase wurde auch der südliche Abschnitt transgrediert. Mithilfe der Diatomeenflora wurde belegt, dass sich im Spätglazial vor ca. 12.000 Jahren BP im Süden der Pommerschen Bucht ein alkalischer, meso- bis schwach eutropher Süßwassersee etablierte. Die Thanathozönosen indizieren erhebliche Milieuunterschiede zwischen diesem See und dem Baltischen Eisstausee, der zeitweise den nördlichen Abschnitt der Pommerschen Bucht bedeckte. Im frühen Holozän entwickelte sich im südlichen Abschnitt der Pommerschen Bucht an gleicher Position wie im Spätglazial wiederum ein Süßwassersee, während der nördliche Abschnitt der Pommerschen Bucht vom Ancylus-See bedeckt war. Die Diatomeenfloren belegen, dass sich die Umweltbedingungen in beiden Paläogewässern ähnelten; sowohl im Norden als auch im Süden lag ein alkalisches und überwiegend eutrophes Milieu vor. Der Beginn der Mastogloia-Phase ist durch einen drastischen Wechsel im Artgefüge der Diatomeenflora gekennzeichnet; Taxa mit höherer Salinitätstoleranz, z. B. Epithemia turgida und Diploneis didyma, ersetzten die rein oligohalobe Ancylus-Flora. Die Veränderungen indizieren einen schwachen aber deutlichen Anstieg der Salinität im Norden der Pommerschen Bucht. Das charakteristische Taxon der Littorina-Phase ist die polyhalobe Planktonart Thalassionema nitzschioides. Es indiziert einen Anstieg des Paläosalzgehalts auf mindestens 13 Promille. Des Weiteren belegen die Diatomeen den stetig steigenden Wasserspiegel zu Beginn der Littorina-Phase. Chrysophyceen-Zysten, Chaetoceros-Sporen und die Skelette des Silicoflagellaten Distephanus speculum stellen in der Pommerschen Bucht wichtige Leitfossilien dar. Während Chrysophyceen-Zysten typisch für die Sedimente der Mastogloia-Phase sind, haben Chaetoceros-Sporen und Distephanus speculum charakteristischerweise ihren Verbreitungsschwerpunkt in den Ablagerungen des Littorina-Meers.
Lipophile, sedimentgebundene Substanzen sind für endobenthische Tiere in hohem Maße bioverfügbar und können von diesen aufgenommen und angereichert werden. Für benthivore Fische besteht damit das Risiko, diese Chemikalien mit der Nahrung aufzunehmen. Die Aufkonzentrierung sedimentgebundener Chemikalien über zwei oder mehr trophische Ebenen (Biomagnifikation) kann somit durch die Bestimmung der Biokonzentration von Chemikalien in Fischen nach der OECD-Richtlinie 305 (OECD 1996) nicht adäquat erfasst werden. Zur standardisierten Bestimmung der Bioakkumulation und Biomagnifikation wurde eine einfache, zwei trophische Stufen umfassende Labornahrungskette etabliert. Diese bestand aus dem endobenthischen Oligochaeten Tubifex tubifex (MÜLLER) als Beute und dem Dreistachligen Stichling (Gasterosteus aculeatus LINNÉ) als Prädator. Die Experimente wurden mit 14C-markiertem Hexachlorbenzol und Terbutryn in dotiertem künstlichem Sediment und rekonstituiertem Wasser durchgeführt. Um den Einfluss einzelner Expositionspfade an der Gesamtanreicherung der Modellchemikalien zu quantifizieren, wurden die Fische gegenüber dotiertem Wasser bzw. dotiertem Sediment (Biokonzentrationsszenario), vorexponierten Würmern (Biomagnifikationsszenario) und Kombinationen dieser Aufnahmepfade (Bioakkumulationsszenario) exponiert. Sedimentgebundenes HCB wurde im Bioakkumulationsszenario sowohl in den Tubificiden (BAFWurm/Sediment (FG/FG) = 7,8) als auch in den Fischen (AFFisch/Wasser (FG/FG) = 52500; AFFisch/Sediment (FG/FG) = 47; AFFisch/Wurm (FG/FG) = 3,2) deutlich angereichert. Da die Gewebekonzentration von HCB im Räuber, auch auf Basis lipidnormierter Konzentrationen, die Konzentration in seiner Beute überstieg (AFFisch/Wurm (lipidnormiert) = 1,3), kann von einer Aufkonzentrierung der Chemikalie entlang der Labornahrungskette ausgegangen werden (Biomagnifikation). Es konnte gezeigt werden, dass die Exposition gegenüber der Kombination sämtlicher Aufnahmepfade zu deutlich höherer Anreicherung in den Fischen führte als im Falle einzelner Expositionspfade. Ein Vergleich der Ergebnisse der einzelnen Expositionsszenarien erlaubt den Schluss, dass HCB von den Fischen im Bioakkumulationsszenario zu ungefähr gleichen Teilen über das Wasser (45%) und über die Nahrung (41%) aufgenommen wurde, während die Anwesenheit kontaminierten Sediments nur mit 14% zur Gesamtanreicherung beitrug. 14C-Terbutryn wurde im Bioakkumulationsszenario - auf Basis der Gesamtradioaktivität - sowohl in den Tubificiden (AF Wurm/Sediment (FG/FG) = 4,4) als auch in den Fischen (AFFisch/Wasser (FG/FG) = 323; AFFisch/Sediment (FG/FG) = 10; AFFisch/Wurm (FG/FG) = 1,4) angereichert. Allerdings wurde Terbutryn in den Stichlingen zum überwiegenden Teil zu einem polareren Metaboliten transformiert (84%). Daher müssen zur Abschätzung der Anreicherung von Terbutryn die auf den Gehalt an Ursubstanz korrigierten Gewebekonzentrationen und Anreicherungsfaktoren betrachtet werden. Hierbei wird deutlich, dass Terbutryn nicht entlang der Labornahrungskette aufkonzentriert wurde (AFFisch/Wurm = 0,09). Ein Vergleich der Ergebnisse der einzelnen Expositionsszenarien zeigt, dass der Hauptaufnahmepfad von 14C-Terbutryn in Stichlingen das umgebende Wasser ist, während die Anwesenheit kontaminierten Sediments und die Aufnahme über die Nahrung eine untergeordnete Rolle spielen. Da die Messung der Bioakkumulation und Biomagnifikation von sedimentassoziierten Substanzen sehr aufwendig ist, werden zur Abschätzung ihres Risikopotentials vermehrt mathematische Modelle entwickelt und eingesetzt, die eine Chemikalienanreicherung in Nahrungsketten vorhersagen sollen. Im Rahmen der vorliegenden Arbeit wurden die Vorhersagen dreier Modelle mit den experimentell ermittelten Daten verglichen. Hierdurch sollte sowohl die Eignung des entwickelten Testsystems als auch der verwendeten Modelle als nützliche Instrumente des environmental risk assessment überprüft werden. Die Vorhersagen der drei Modelle bei Applikation auf die Daten der Labornahrungskette stimmen gut mit den experimentell bestimmten Konzentrationen von HCB und Terbutryn in den Tubificiden und Fischen überein. Für HCB sagen alle drei Modelle eine Biomagnifikation in der Labornahrungskette vorher. Die Modelle unterschätzen die gemessenen Konzentrationen in den Fischen mit einem Faktor von 1,1 - 1,7 nur geringfügig. Die Konzentration in den Tubificiden wird vom Gobas/Morrison-Modell sehr präzise vorhergesagt (Unterschätzung um Faktor 1,1), während sie im Campfens/Mackay-Modell (Faktor 2,1) und Gobas-Modell (Faktor 6,3) deutlicher unterschätzt wird. Speziell die dem Campfens/Mackay- und Gobas-Modell zugrunde liegenden Annahmen zur Anreicherung in benthischen Organismen erwiesen sich für HCB und Tubificiden als unzureichend zu sein, da die Modelle hierbei nur die Aufnahme aus dem Porenwasser berücksichtigen. Für Terbutryn sind die Modellvorhersagen sehr viel ungenauer als für HCB, da vor allem die starke Metabolisierung von Terbutryn in den Stichlingen unterschätzt wird. Dies resultiert in einer Überschätzung der Terbutryn-Konzentration in den Fischen (Faktor 5,8 - 6,4). Allerdings bleiben zwei Punkte festzuhalten: 1) Die Modelle sagen keine Biomagnifikation von Terbutryn in der Labornahrungskette vorher. 2) Die Modellvorhersagen bestärken die Annahme, dass die Anreicherung von Terbutryn in den Fischen dominiert ist von der Aufnahme aus dem umgebenden Wasser über die respiratorische Oberfläche. Die analysierten Modelle können bei entsprechender Weiterentwicklung als nützliche Instrumente für eine erste Abschätzung des Risikos der Bioakkumulation sedimentgebundener, hoch lipophiler Substanzen in aquatischen Nahrungsketten im Rahmen der Risikoabschätzung (environmental risk assessment) dienen. Zum gegenwärtigen Entwicklungsstand ist die Labornahrungskette jedoch den Modellen vorzuziehen, da sie die konservativeren Daten liefert. Für eine abschließende Beurteilung der vorgestellten Methoden bedarf es allerdings einer Verbreiterung der Datenbasis.
Die Mismatch-Reparatur (MMR) ist ein hochkonserviertes Kontroll- und Korrektursystem für die Erbinformation. Ihre Hauptaufgabe liegt in der Behebung von Kopierfehlern unmittelbar nach der Replikation (postreplikative Reparatur). Mutationen in Genen der Mismatch-Reparatur (vor allem in hMLH1 und hMSH2) führen beim Menschen zum "Erblichen nicht-polypösen kolorektalen Karzinom", HNPCC (Hereditary non-polyposis colorectal cancer). Diese Erbkrankheit geht mit einem gesteigerten Risiko einher, an verschiedenen Karzinomen, vor allem des Kolons, zu erkranken. Obwohl zumindest in Escherichia coli alle an der Mismatch-Reparatur beteiligten Proteine bekannt sind, ist ihr biochemischer Mechanismus nach wie vor ungeklärt. Es existieren drei verschiedene Modellvorstellungen zum Reparaturablauf: das Translocation model, das Sliding clamp model und das DNA bending model. Um einer Klärung des Reparaturmechanismus näherzukommen, sollten in dieser Arbeit die Bindungen der humanen Mismatch-Reparaturproteine an DNA und ihre Interaktionen untereinander näher untersucht werden. Im Zentrum stand dabei die Interaktion der heterodimeren ATPase hMutSa (hMSH2-hMSH6) mit den ebenfalls heterodimeren ATPasen hMutLa (hMLH1-hPMS2) und hMutLß (hMLH1-hPMS1). Die Hauptfunktion von hMutSa ist bekannt: das Dimer ist in der Lage, DNA-Paarungsfehler zu erkennen und an sie zu binden. Die Funktion von hMutLa liegt wahrscheinlich in der Weiterleitung des Signals "Fehler erkannt" von hMutSa an die Reparaturmaschinerie. Somit kommt der Interaktion von hMutSa mit hMutLa eine wesentliche Bedeutung in der Initiation der Reparatur zu. Die Funktion von hMutLß ist noch unbekannt. Zur Analyse der hMutSa-hMutL-Interaktion wurde eine neue Methodik entwickelt, bei der DNA-Substrate an magnetische Partikel gebunden, diese mit Proteinlösungen inkubiert und die gebundenen Proteine anschließend mit Salzlösungen eluiert wurden. Hierdurch konnten die Bindungsstärken anhand der Salzresistenz differenziert werden und die Bindungsreaktionen nach ATP-Zugabe bei verschiedenen DNA-Substraten verfolgt werden. Es konnte gezeigt werden, daß hMutSa zwar nicht quantitativ mehr, aber fester an DNA-Paarungsfehler band als an fehlerfreie DNA-Oligoduplices. Die Bindung reagierte empfindlich auf die Zugabe von ATP: auf Homoduplex-DNA bewirkte ATP unter geeigneten Bedingungen einen vollständigen Bindungsverlust von hMutSa, während es an Heteroduplex-DNA auch in Gegenwart des Nukleotidtriphosphates gebunden blieb. Eine weitere Wirkung von ATP bestand darin, daß hMutSa hMutLa und hMutLß rekrutierte. Dies geschah allerdings nur, wenn ausreichend lange DNA-Substrate (>= 81 Basenpaare) verwendet wurden. Für hMutLa konnte außerdem eine eigene DNA-Bindungsfähigkeit, und zwar vorzugsweise an Einzelstrang-DNA, nachgewiesen werden. Beide Ergebnisse zusammen genommen legen nahe, daß hMutSa und hMutLa nur interagieren können, wenn beide gleichzeitig an DNA gebunden sind. Obwohl nach bisherigen Erkenntnissen hMutLa, aber nicht hMutLß die Mismatch-Reparatur unterstützen kann, interagierte hMutLß ebensogut mit hMutSa. Dies läßt im Zusammenhang mit weiteren Ergebnissen vermuten, daß hMutLß eine modulierende Funktion in der MMR besitzen könnte. Alternativ könnte die hMutSa-hMutLß-Interaktion bei noch nicht charakterisierten anderen Prozessen von Bedeutung sein. Die weitere Untersuchung der Interaktion ergab, daß diese wahrscheinlich nicht von der ATP-Hydrolyse abhängt, sondern allein durch die Bindung des Nukleotidtriphosphates zustande kommt. Darüber hinaus spielen die ATPasen von hMutLa keine Rolle bei der Interaktion, da das Protein auch dann noch die Bindung einging, wenn seine Nukleotidbindungsstellen gezielt mutiert worden waren. Die Untersuchung zeigte außerdem, daß nur die hMutL-Untereinheiten hMLH1 und (in geringem Ausmaß) hPMS1 ATP-abhängig mit hMutSa interagierten, während hPMS2 alleine keine Bindung zeigte. Die sich daran anschließende Untersuchung von Fragmenten des hMLH1-Proteins erlaubte die Eingrenzung der Interaktionszone. hMutLa kontaktiert hMutSa demzufolge mit einem Proteinbereich, der innerhalb des N-Terminus von hMLH1 liegt. Zusammenfassend wird aufgrund der vorliegenden Ergebnisse für das DNA bending model der Mismatch-Reparatur plädiert. Dessen Reparaturablauf wird abschließend unter Berücksichtigung der vorliegenden Daten geschildert. In einem separaten Kapitel der Arbeit wird über die Identifizierung und Charakterisierung einer neuen Spleißmutation des humanen PTEN-Gens berichtet. Diese Mutation wurde bei einer Patientin mit dem Cowden-Syndrom, einem weiteren erblichen Krebssyndrom, nachgewiesen.
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
Der STAR Level-3 Trigger
(2002)
Schwerionen-Collider-Experimente, wie das STAR-Experiment am RHIC (BNL) oder das geplante ALICE-Experiment am LHC (CERN) untersuchen Schwerionenkollisionen bei Schwerpunktsenergien von Wurzel aus SNN = 200 GeV (RHIC), bzw. Wurzel aus sNN = 5, 5 TeV (ALICE). In diesen Kollisionen werden mehrere tausend geladene Teilchen produziert, die in STAR und ALICE in großvolumigen TPCs gemessen werden. Das Datenvolumen erreicht dabei bis zu 10 MB (STAR) und 60 MB (ALICE) pro Ereignis. Aufgrund der hohen Luminosität der Collider könnten die Experimente zentrale Schwerionenkollisionen mit einer Rate bis zu 100 Hz bzw. 200 Hz (ALICE) untersuchen. Die dabei entstehenden Datenraten im Bereich mehrerer GB/s sind mit heutiger Technologie jedoch nicht mehr einfach zu speichern. Deshalb kann nur ein Bruchteil der zur Verfügung stehenden Ereignisse aufgezeichnet werden. Aufgrund der exponentiellen Entwicklung der CPU-Leistung wird es jedoch möglich, die Rekonstruktion von Ereignissen während der Datennahme in Echtzeit durchzuführen. Basierend auf den rekonstruierten Spuren in den Detektoren kann die Entscheidung getroffen werden, ob ein Ereignis gespeichert werden soll. Dies bedeutet, dass die begrenzte Speicherbandbreite gezielt mit Ereignissen, die eine interessierende physikalische Observable beinhalten, angereichert werden kann. Ein solches System zur Ereignisselektion wird als Level-3-Trigger oder allgemeiner als High Level Trigger bezeichnet. Am STAR-Experiment wurde erstmals in einem Schwerionenexperiment solch ein Level-3-Triggersystem aufgebaut. Es besteht aus 432 i960-CPUs, auf speziell gefertigten Receiver Boards für die paralelle Clusterrekonstruktion in der STARTPC. 52 Standard-Computer mit ALPHA- bzw. Pentium-CPUs rekonstruieren die Spuren geladener Teilchen und tre.en eine Triggerentscheidung. Dieses System ermöglicht die Echtzeit-Rekonstruktion zentraler Au-plus-Au-Kollisionen mit anschliessender Analyse durch einen Trigger-Algorithmus mit einer Rate von 40-50 Hz. Die Qualität, die mit dieser schnellen Analyse erreicht wird, kann mit der Qualität der STAR-Offline-Rekonstruktion verglichen werden. Der Level-3-Clusterfinder erreicht in Bezug auf Ortsauflösung und Rekonstruktionseffizienz dieselbe Qualität wie der Offline-Clusterfinder. Der Level-3-Trackfinder erreicht bei Rekonstruktionseffizienz und Impulsauflösung 10-20% schlechtere Werte als der Offline- Trackfinder. Die Anwendung eines Level-3-Triggers besteht in der Messung von seltenen Observablen ("rare Probes"), die ohne eine Anreicherung nicht, oder nur schwer, meßbar wären. In den Jahren 2000 und 2001 wurden erste Triggeranwendungen für das STARLevel- 3-System erprobt. In ultraperipheren Au-plus-Au-Kollisionen wurden po-Kandidaten schon im Jahr 2000 selektiert. Während der Strahlzeit des Jahres 2001 wurde das Level-3-System erstmals zum Triggern in zentralen Au-plus-Au-Kollisionen eingesetzt. Die Triggeralgorithmen beinhalteten einen Õ-Trigger, einen 3He-Trigger und einen Algorithmus zur Anreicherung von Spuren hohen Impulses in der Akzeptanz des RICH-Detektors. Das STAR Level-3-System ist in der Lage zehnmal mehr Ereignisse zu analysieren, als gespeichert werden können. Aufgrund der begrenzten Luminosität des RHIC-Beschleunigers, konnten die Level-3 Trigger erst zum Ende der Strahlzeit eingesetzt werden. Den genannten Algorithmen standen zusätzlich zu den 3 · 10 hoch 6 gespeicherten zentralen Ereignissen, 6 · 10 hoch 5 zentrale Ereignisse zur Analyse zur Verfügung. Mit diesem begrenzten Anreicherungsfaktor von 20% blieb das System hinter seinen Möglichkeiten zurück. Es konnte jedoch gezeigt werden, dass das STAR Level-3-System in der erwarteten Qualität und Stabilität funktioniert.
For palaeotropical regions, only a few anecdotal reports had been published on the existence of 'ant-gardens' before this study started. As opposed to this, 'ant-house epiphytes' (i.e. domatiabearing epiphytes) were reported to be highly abundant in Southeast Asia and were presumed to be a second type of ant-epiphyte interaction. In the much better studied neotropical regions the situation seemed to be the reverse: Many reports on AGs in contrast to very few reports on anthouse epiphytes. In this study, I have presented extensive data which may help towards a better understanding of the 'Southeast Asian part' of this 'ant-epiphyte puzzle'. In Peninsular Malaysia, Borneo, Java, and Southern Thailand, a great variety of formerly unknown AG systems were discovered. 18 ant species (from 5 genera, 4 subfamilies) were identified as true AG ants, i.e. these ants actively retrieved seeds of certain epiphyte species into their carton nests. Another 49 ant species inhabited AGs as secondary, opportunistic settlers. On the epiphyte side, 84 plant species were found growing on AGs, 51 (19 genera, 12 families) of which were probably true AG epiphytes, i.e. ants retrieved the seeds to their arboreal carton nests, on which the epiphytes were then cultivated. Most of the epiphyte flora of lowland forests in Peninsular Malaysia (except for ferns, orchids and facultative epiphytes) seemed to be totally dependent on ants for their establishment in the canopy. Together with the high number of opportunistic AG inhabitants (ants, epiphytes, and many arthropod guests), these facts suggest that AGs function as pioneers in the canopy of Southeast Asian rain forests. Moreover, AG-associations might even have accounted for the unusual species richness in the epiphyte genera Dischidia, Hoya (Asclepiadaceae), Myrmecodia, and Hydnophytum (Rubiaceae). The definition of the term ant-garden only describes the basic interactions. In the ant-garden associations investigated in this study, interactions going beyond these basic ones varied depending on ant and epiphyte species. Ant-gardens initiated by Diacamma spKfmA111 were regarded as the 'most primitive' type, because this ponerine was totally dependent on preformed cavities for nest establishment, did not tend any trophobionts, and was the least selective in its seed-retrieving behavior. On the other end of the scale, Crematogaster spKfmA18 and Camponotus spKfmA9 were rated as 'most advanced' because both lived in free (i.e. cavityindependent) AGs, tended trophobionts underneath their nests, were associated with a couple of other organisms, and were highly selective in their seed-retrieving behavior. Moreover, Camponotus spKfmA9 occurred preferentially with one single epiphyte species, Hoya elliptica (Asclepiadaceae), and Crematogaster spKfmA18 was specialized on some species of giant bamboo as phorophyte. Philidris spKfmA160, which occupied a medium position in relation to the other AGs was particularly interesting for several reasons. This ant species was mainly associated with ant- house epiphytes and occurred in the heath forests of Borneo. However, the major part of the colonies, including the queen, was located underneath carton structures near the surface of the host tree and not inside the domatia of the associated plants. Moreover, very young Philidris spKfmA160 colonies had only small seedlings growing on their carton nests. The ant workers actively retrieved the seeds of their epiphyte partners into the nests. These results indicate that associations with ant-house epiphytes must be regarded as a special case of ant-gardens. I therefore suggest using the term 'ant-house' only to describe the epiphytes, but not to describe the association, and to include this type of association in the group of AGs. Strict species-specificity never occurred, but some epiphytes showed great preference for growing on the nests of certain ant species, while others occurred over a wider range. Vice versa, most ant species had several epiphytes growing on their nests, while others were mostly found with one or very few epiphyte species. These patterns were shown to be the effect of different factors, including common microclimatic preferences of ants and epiphytes, interspecific competition of epiphytes, and selective seed retrieval of AG ants. The main behavioral trait responsible for the establishment of AGs was the selectivity shown by the ants in the epiphyte seeds they carried. However, details of the mechanisms, i.e. what characteristics of the seeds are important and what motivates the ants to retrieve them, varied widely. In many cases, seed compounds located on the surface triggered carrying behavior. Detailed experimental investigations combined with literature data from the two other known 'myrmecochory systems', terricolous myrmecochores and neotropical AGs, suggested that myrmecochory is frequently triggered by a two-stage system. One relatively unspecific compound (or a combination of such compounds) constitutes the basic attractiveness for a number of ant species. Other seed characteristics (elaiosomes, mechanical properties, other surface-compounds) modulate this basic signal, accounting for species-specific preferences of ants towards certain plant species. A comparison of AGs in Southeast Asia and the neotropics shows that the numbers of AG ant and epiphyte species in each case are almost equal. Southeast Asian AG epiphytes might even turn out to outnumber the neotropical ones. Thus, not only was it possible to break down the distinction between ant-house and AG associations, but also to show that AGs in Southeast Asia are present in such high diversity and abundance as to diminish the apparent contrast between the two biogeographical regions yet further. These data help to solve at least the Southeast Asian part of the 'ant-epiphyte puzzle'.
Die Physik beschäftigt sich seit jeher mit der Frage nach dem Aufbau und der Struktur der Materie. Die Antworten änderten sich im Laufe der Zeit, der gegenwärtige Stand der Erkenntnis ist im sogenannten Standardmodell zusammengefasst. Dort werden die Elementarteilchen in Leptonen und Quarks unterteilt, die Wechselwirkungen zwischen ihnen beschreibt man durch vier fundamentale Kräfte: die Gravitation, die elektromagnetischen Kraft, die schwache und die starke Kernkraft. Gemäß dem Standardmodell sind Nukleonen, also Protonen und Neutronen, aus Quarks aufgebaut. Das Proton ist beispielsweise ein gebundener Zustand aus zwei up und einem down Quark. Die Nukelonen bilden ihrerseits die Atomkerne, welche die Systematik der Elemente bestimmen. Quarks treten in sechs verschiedenen Arten (flavours) auf: up, down, strange, charm, bottom und top. Freie Quarks konnten bislang nicht nachgewiesen werden, sie werden nur als Quark-Antiquark Paar (Meson) oder als Kombination aus drei Quarks (Baryon) beobachtet. Mesonen und Baryonen werden unter dem Begriff Hadronen zusammengefaßt. Die starke Kernkraft beruht letztlich auf der Wechselwirkung zwischen Quarks, diese wird durch die Quantenchromodynamik (QCD) beschrieben. Ähnlich der Glashow- Salam-Weinberg Theorie (GSW), die die elektromagnetische und die schwache Kernkraft beschreibt, ist die Quantenchromodynamik durch Austauschteilchen charakterisiert. Im Fall der GSW wurden die Photonen bzw. W± oder Z-Teilchen als Austauschteilchen identifiziert, in der QCD fungieren Gluonen als Austauschteilchen. Photonen vermitteln die elektromagnetische Kraft zwischen allen Teilchen, die elektrische Ladung tragen. Analog wirkt die Kraft, die durch den Austausch von Gluonen beschrieben wird, zwischen Teilchen, die eine Farbladung tragen. Anders als das neutrale Photon trägt das Gluon selbst Farbe und wechselwirkt daher mit anderen Teilchen, die Farbe tragen. Dieser Umstand zeigt bereits, dass in der QCD ganz andere Phänomene zu erwarten sind als in der GSW. Die Tatsache, dass Quarks nur in gebundenen Zuständen vorliegen, erschwert die direkte Beobachtung der Wechselwirkung zwischen ihnen. Ein indirekter Weg, um die Wirkungweise diese Kraft zu untersuchen, liegt in der Erzeugung hoher Kernmateriedichten und hoher Kerntemperaturen. Die Idee besteht darin, das Phasendiagramm von Kernmaterie experimentell zu bestimmen (Abbildung 1.3) und dann auf die zugrundeliegende Kraft zu schließen. Unter anderem führen die Kräfte, die zwischen den Einzelteilchen des Mediums herrschen, zu charakteristischen Phasenübergängen. Im Fall der Kernmaterie hofft man insbesondere, den Übergang von gebundenen Zuständen in eine Quark-Gluon-Plasma Phase (QGP), in der sich Quarks und Gluonen frei bewegen, zu beobachten. Zwei prominente Beispiele demonstrieren, warum die Eigenschaften dieses Materiezustandes - und ob er überhaupt existiert - auch für andere Teilgebiete der Physik von großem Interesse sind. Zum einen geht man davon aus, dass in der Frühphase des Universums, 10-12 s nach dem Urknall, die Energiedichte so hoch war, dass die Materie in einem Plasmazustand vorlag. In diesem Bild führt die Expansion des Raumes zu einer Abkühlung des Plasmas und schließlich zum Ausfrieren in Hadronen. Zum anderen zeigen viele Modellstudien, dass im Innern von Neutronensternen mit extremen Dichten zu rechnen ist. Unter Umständen werden Energiedichten erreicht, die hoch genung sind, um einen Phasenübergang in ein Quark Gluon Plasma zu erzwingen. Die Beschreibung dieser astronomischen Objekte setzt somit auch die Kenntnis der Kräfte zwischen den Quarks voraus. Der einzige Weg, dichte Kernmaterie im Labor zu erzeugen, stellen Schwerionenreaktionen dar. Wenn zwei ultrarelativistische schwere Kerne zentral kollidieren, entsteht für kurze Zeit eine Region hoher Energiedichte (Abbildung 1.1). QCD-Gitter-Rechnungen deuten darauf hin, dass die Dichte, die man in Schwerionreaktion gegenwärtig erreicht, hoch genung ist, um einen Übergang der Kernmaterie in eine Plasma-Phase zu erzwingen. Aufgrund des hohen Drucks expandiert die verdichtete, heiße Kernmaterie in longitudinaler (entlang des Strahls) und transversaler (senkrecht zum Strahl) Richtung und die Dichte nimmt ab. Vorausgesetzt am Anfang der Reaktion wurde ein Quark-Gluon-Plasma erzeugt, dann friert diese Phase in Hadronen aus (chemisches Ausfrieren), wenn Dichte und Temperatur einen kritischen Wert unterschreiten. Die erzeugten Hadronen wechselwirken zunächst noch elastisch miteinander, d.h. die Impulse der Teilchen ändern sich, die Identität der Teilchen bleibt jedoch erhalten. Schließlich enden auch diese Wechselwirkungen (thermisches Ausfrieren), und die Teilchen verlassen die Reaktionszone (Abbildung 1.4). Der Ablauf einer solchen Schwerionenreaktion dauert einige 10-23s und ihre räumliche Ausdehnung liegt in der Größenordnung von 10-15m, damit ist die Reaktion selbst nicht beobachtbar. Nur der Endzustand, also die Identitäten und Impluse der emittierten Teilchen, kann bestimmt werden. Um den Ablauf der Reaktion zu rekonstruieren, ist man daher auf Modellrechnungen angewiesen. Aufgrund dieser Modellrechnungen wurden einige Observablen vorgeschlagen, die einen Phasenübergang kennzeichnen. Neben anderen Signaturen führt ein Phasenübergang wahrscheinlich zu einer verlängerten Emissionsdauer. Dieser Effekt kann möglicherweise durch die Analyse von Zwei-Teilchen-Korrelationen sichtbar gemacht werden. Ganz allgemein stellt die Untersuchung von Teilchenkorrelationen die einzige Möglichkeit dar, die raum-zeitlichen Strukturen während des thermischen Ausfrierens experimentell zu bestimmen. Korrelationen zwischen Teilchen, die von einer hinreichend kleinen Quelle emittiert werden, haben verschiedene Ursachen. Betrachtet man beispielsweise die Häufigkeitsverteilung der Impulsdifferenz zwischen zwei elektrisch gleich geladenen Teilchen, so stellt man fest, dass Paare mit geringer Impulsdifferenz weniger häufig vorkommen, als man anhand der Ein-Teilchen Impulsverteilung vorhersagen würde. Dieser Effekt ist auf die Abstoßung zwischen zwei elektrisch gleich geladenen Teilchen zurückzuführen, die mit kleiner Impulsdifferenz emittiert wurden. Eine weniger offensichtliche Korrelation wird durch den Quantencharakter identischer Teilchen verursacht. Zwei identische Bosonen, die im Phasenraum nahe beieinander liegen, können gemäß den Prinzipien der Quantentheorie nicht unterschieden werden. Die Wellenfunktion, die diesen Zwei-Teilchen-Zustand beschreibt, muß beim Vertauschen der Teilchen erhalten bleiben. Diese Forderung führt zu einem Interferenzterm in der Zwei-Teilchen Intensitätsverteilung. Diese Verteilung ist proportional zur Wahrscheinlichkeit, ein Teilchenpaar mit der Impulsdifferenz q zu messen. Berechnet man die Impulsdifferenzverteilung von Pionenpaaren und berücksichtig nur quanten- statistische Effekte, so findet man, dass Paare mit geringem Impulsunterschied bis zu zweimal häufiger vorkommen, als man aufgrund einfacher statistischer Überlegungen erwarten würde. Um diesen Effekt experimentell sichtbar zu machen, konstruiert man die Korrelationsfunktion, die die gemessene Impulsdifferenzverteilung in Relation zu einer Untergrundverteilung setzt. Experimentell gewinnt man diese Referenzverteilung, indem Paare aus Spuren aus verschiedenen Ereignissen gebildet werden. Die Referenzverteilung entspricht damit der Verteilung, die man messen würde, wenn die Teilchen nicht der Quantenstatistik unterlägen. Die Korrelationsfunktion wird im allgemeinen durch eine Gauß-Funktion angenähert. Das Inverse der Standardabweichung dieser Funktion wird nach den Pionieren der Intensitätsinterferometrie R. Hanbury Brown und R. Twiss als HBT-Radius bezeichnet. Teilchen interferieren nur dann, wenn sie im Phasenraum nahe beieinander liegen, das heißt sowohl die Impulsdifferenz als auch der räumliche Abstand muß hinreichend klein sein. Diese Bedingung kann genutzt werden, um von der gemessenen Korrelationsfunktion, die nur auf den Impulskomponenten basiert, auf die räumliche Verteilung der Teilchenproduktion zu schließen. Eine detaillierte Betrachtung erlaubt sogar, aufgrund der gemessenen Korrelationsfunktion quantitative Aussagen über die räumlichen Aspekte der Teilchenquelle zu machen. Beispielsweise können im Rahmen eines Modells die Stärke der transversalen Expansion oder die Emissionsdauer in Relation zu den HBT-Radien gesetzt werden. In Kapitel 2 sind die Grundlagen der Teilcheninterferometrie ausführlicher dargestellt. Der eigentliche Gegenstand dieser Arbeit ist experimentelle Analyse der Zwei- Teilchen-Korrelationen in einer Schwerionenreaktion. Dazu wird zunächst in Kapitel 3 das STAR Experiment am RHIC vorgestellt, in dem die Daten aufgezeichnet wurden, die Grundlage dieser Analyse sind. Am RHIC-Beschleuniger am BNL in den USA werden AuAu Kollisionen bis zu einer Schwerpunktsenergie von Wurzel aus SNN=200 GeV erzeugt. Figur 3.1 zeigt den Beschleuniger-Ring und die vier Experimente Brahms, Phenix, Phobos und STAR. Der hier analysierte Datensatz wurde bei der Datennahme im Jahr 2000 aufgezeichnet. Zu dieser Zeit wurde am RHIC eine Schwerpunktsenergie von Wurzel aus SNN=130 GeV erreicht. Bei einer zentralen AuAu Kollision werden mehrere Tausend Teilchen produziert. Der STAR Detektor ist dafür konzipiert, hadronische Teilchen kleiner Rapidität (d.h. großer Winkel zur Strahlachse) zu messen, innerhalb der Akzeptanz werden etwa 80% der produzierten geladenen Teilchen nachgewiesen. Der schematische Aufbau des STAR Detektorsystems ist in Figur 3.2 dargestellt. Der zentrale Detektor ist eine TPC (Zeit-Projektions-Kammer). Dieser Detektor basiert darauf, dass geladene Teilchen beim Durchgang durch ein Messgas eine Spur von Ionen hinterlassen. Ein starkes elektrisches Feld driftet die Elektronen, die bei den Ionisationsprozessen freigesetzt wurden, zu einer Ausleseebene. Der Punkt, an dem die Elektronen auf der Ausleseebene ein Signal erzeugen, entspricht der Projektion des Ionisationpunktes auf die Ausleseebene. Die dritte Komponente, die den Raumpunkt der Ionisation festlegt, ist durch die Driftzeit bei bekannter Driftgeschwindigkeit gegeben. So erscheint eine Teilchenspur als eine Kette von Ionisationspunkten im Detektorgas. Ein magnetisches Feld parallel zur Strahlachse führt zu einer Ablenkung der geladenen Teilchen. Die Krümmung der Spur ist dabei umgekehrt proportional zum transversalen Impuls. Abbildung 3.6 zeigt ein typisches Ereignis mit etwa 105 Ionisationspunkten und den entsprechenden Teilchenspuren. Der spezifische Energieverlust eines Teilchens beim Durchgang durch das Messgas hängt von seinem Impuls und seiner Masse ab. Die Stärke des auf der Ausleseebene induzierten Signals erlaubt den spezifischen Energieverlust zu bestimmen. Da der Impuls durch die Krümmung der Spur bekannt ist, kann so die Masse und damit die Identität des Teilchens bestimmt werden (siehe Abbildung 3.7). In Kapitel 4 wird der Datensatz beschrieben, der als Grundlage für diese Analyse dient. Während der Datennahme werden die digitalisierten Daten der TPC auf ein Speichermedium geschrieben. Der erste Schritt bei der Rekonstruktion der Ereignisse besteht darin, die Ionisationspunkte zu lokalisieren. Dies leistet der Clusterfinder- Algorithmus, der in Kapitel 4.1.1 beschrieben ist. Die Spurpunkte werden dann durch den Tracking-Algorithmus zu Teilchenspuren verbunden. Die erreichte Effizienz, Akzeptanz und Impulsauflösung der Rekonstruktion sind in Kapitel 4.1.2 zusammengefaßt. Die Zwei-Teilchen-Korrelationen werden nur für zentrale Kollisionen betrachtet, das sind Ereignisse mit kleinem Stoßparameter. Die Multipliztät der gemessenen Spuren ist in erster Näherung ein Maß für die Zentralität des Ereignisses. Für diese Analyse werden nur die 12% zentralsten Ereignisse zugelassen. Die Selektion der Ereignisse ist in Kapitel 4.2 beschrieben. Die Auswahl der Spuren, die in der Analyse verwendet werden, ist in Kapitel 4.3 beschrieben. Es werden nur Spuren zugelassen, deren Impulse in einem Bereich hinreichend hoher Akzeptanz und Effizienz liegen. Außerdem werden die Spuren ausgewählt, die mit hoher Wahrscheinlichkeit von Pionen stammen. Eine weitere Auswahl wird auf der Paarebene getroffen. Die Korrelationsfunktion wird in einzelnen Intervallen transversalen Paarimpulses kt und Paarrapidität Yðð gebildet. Damit kann die Abhängigkeit der HBT-Radien von diesen Größen dargestellt werden. Zwei weitere Auswahlkriterien sollen die Qualität der Spurpaare garantieren. Zum einen werden solche Paare verworfen, die im Detektor zu nahe beieinander liegen. Für die HBT-Analyse sind Paare mit geringem Impulsunterschied entscheidend, ein geringer Impulsunterschied heißt notwendigerweise, dass die Spuren räumlich nicht sehr weit getrennt sind. Wenn die Spuren aber zu nahe liegen, können sie vom Detektor und von der Rekonstruktionskette nicht mehr aufgelöst werden. Damit verliert man einen Teil der Paare in der Signalverteilung, nicht aber in der Untergrundverteilung, da in diesem Fall die endliche Zwei-Spur-Auflösung keine Rolle spielt. Um die Korrelationsfunktion nicht durch einen Detektoreffekt zu verfälschen, entfernt man die Paare, die im Detektor nahe beieinander liegen, sowohl in der Signal- als auch in der Untergrundverteilung. Ein weiteres Problem stellen "gebrochene" Spuren dar. In einigen Fällen wird eine Teilchenspur von der Rekonstruktionskette nicht als Ganzes erkannt, vielmehr werden zwei Spurstücke im Dektor gefunden. Da diese Spurstücke vom selben Teilchen stammen, haben sie eine sehr geringe Impulsdifferenz. Diese Paare können anhand ihrer Topologie im Detekor erkannt werden. Wie im Fall der begrenzten Zwei-Spur-Auflösung werden sie sowohl für die Signal- als auch für die Untergrundverteilung nicht zugelassen. In Kapitel 5 werden schließlich die Ergebnisse der Korrelationsanalyse dargestellt. Die Korrelationsfunktion wird in verschiedenen Parametrisierungen betrachtet. In der einfachsten Form betrachtet man nur den Betrag des Impulsdifferenzvektors. Dieser Ansatz bedeutet aber, dass der entsprechende HBT-Radius alle Raum-Zeit Komponenten mischt und damit nur wenig Aussagekraft bezüglich der Quellfunktion besitzt. Eine differenzierte Analyse in drei unabhängigen Komponenten ermöglichen die Pratt-Bertsch (PB) und die Yano-Koonin-Podgoretskii (YKP) Parametrisierung. Die beiden Parametrisierungen unterscheiden sich in der Zerlegung des Impulsdifferenzvektors in drei unabhängige Komponenten. Im ersten Fall bezeichnet man die Komponenten als qout, qlong und qside, im zweiten Fall als qpara, qperp und q0 (Kapitel 2.7 und 2.8). Die entsprechenden Korrelationsfunktionen sind in Gleichung 2.31 bzw. 2.34 gegeben. Die jeweiligen HBT-Radien Rout, Rlong und Rside bzw. Rpara, Rperp und R0 können in Relation zu den Parametern der Quellfunktion (Gleichung 2.43) gesetzt werden. Die beiden Parametrisierungen liefern im Prinzip die gleiche Information und die beiden Sätze von HBT-Radien können in Beziehung zueinander gesetzt werden (Gleichung 2.41). Beispielsweise entspricht der HBT-Radius R0 in der YKP-Parametrisierung in erster Näherung der Emissionsdauer, während in der PB- Parametrisierung diese Größe Verhältnis von Rout zu Rside abhängt. Zusätzlich zu den Radien enthält die YKP-Parametrisierung einen Parameter ß, der erlaubt, die longitudinale Geschwindigkeit des betrachteten Quellelementes zu bestimmen. Die Abbildungen 5.7 bis 5.10 zeigen die HBT-Radien beider Parametrisierungen in Abhänigigkeit vom transversalen Paarimpuls kt und von der Paarrapidität Yðð. Die Größe der gemessenen Radien bewegt sich zwischen 3 und 7 fm. Nur der Radius R0 verschwindet in den meisten kt-Yðð Intervallen. Die anderen Radien nehmen mit steigendem kt ab und sind unabhängig von Yðð . Abbildung 5.11 demonstriert, dass die beiden Parametrisierungen -dort wo sie vergleichbar sind- konsistente Ergebnisse liefern. Eine Diskussion der Ergebnisse schließt sich in Kapitel 6 an. Die Abhänigigkeit des Parameters ß von Yðð zeigt eine starke longitudinale Expansion an. Ein ähnliches Verhalten wurde bei niedrigeren Schwerpunktsenergien beobachtet, wo man allerdings eine schwächere longitudinale Expansion erwarten würde. Die Lebensdauer der Quelle, also die Zeit vom anfänglichen Überlapp der Kerne bis zum thermischen Ausfrieren, bestimmt die kt-Abhänigigkeit des Parameters Rlong. Dieser Zusammenhang wurde von Mahklin und Sinyukow formuliert, eine Anpassung der entsprechenden Funktion an die gemessene kt Abhänigigkeit von Rlong ergibt eine Lebensdauer von etwa 8 fm/c bei einer Ausfriertemperatur von etwa 126 MeV. Entsprechende Messungen bei niedrigeren Kollisionsenergien lieferten ähnliche Resultate. Die kt-Abhängigkeit des Parameters Rside ist mit der Stärke der transversalen Expansion gemäß Gleichung 6.3 verknüpft. Da die Relation nicht eindeutig ist, muß entweder eine feste Ausfriertemperatur angenommen werden oder es werden gleichzeitig Einteilchenspektren betrachtet, um die Mehrdeutigkeit zu eliminieren. Eine vorläufige Abschätzung ergibt eine mittlere transversale Expansions- geschwindigkteit von v ungefähr gleich 0.6 und einen gemetrischen Radius von RG ungefähr gleich 7.4 fm . Auch diese Ergebnisse sind vergleichbar mit entsprechenden Resultaten bei niedrigeren Kollisionsenergien. Ein weiterer Parameter der Quellfunktion ist die Emissionsdauer. Die Pionen werden nicht zu einem festen Zeitpunkt emittiert, man geht vielmehr davon aus, dass die Zeitpunkte der letzten elastischen Wechselwirkung in der Quelle gaußförmig verteilt sind. Den Mittelwert dieser Verteilung bezeichnet man als Lebensdauer der Quelle, die Breite als Emissionsdauer. Entsprechend Gleichung 6.4 bzw. 6.5 ist die Emissionsdauer mit dem Radius R0 bzw. dem Verhältnis Rout zu Rside verbunden. Wie in Abbildung 5.8 ersichtlich verschwindet der Parameter R0 , außer im kleinsten kt Intervall. Dies entspricht in der PB-Parametrisierung der Tatsache, dass das Verhältnis Rout zu Rside bei hohen kt kleiner als eins ist. Diese Resultate sind nicht vereinbar mit herkömmlichen Modellen. Insbesondere weil eine verlängerte Emissionsdauer als Signatur für die Bildung eines Quark-Gluon-Plasmas vorgeschlagen wurde, wird dieses Ergebnis derzeit intensiv diskutiert. Die Ergebnisse dieser Analyse sind sowohl mit bereits publizierten Daten der STAR Kollaboration als auch mit Resultaten von anderen RHIC Experimenten verträglich (siehe Abbildung 6.8). In Abbildung 6.9 ist die Abhängigkeit der HBT-Radien von kt bei verschiedenen Schwerpunktsenergien dargestellt. Im Gegensatz zu vielen anderen Observablen ändern sich die HBT Radien nur geringfügig. Da man erwartet, dass die Reaktion bei hohen Energien vollkommen anders abläuft, würde man auch davon ausgehen, dass sich die Ausfrierbedingungen ändern. Dass dies nicht in den Zwei-Teilchen- Korrelationen sichtbar wird, deutet darauf hin, dass die Näherungen die notwendig sind, um die gemessenen Radien mit Modellparametern zu verbinden, nicht gültig sind. Die Systematik der HBT Parameter als Funktion der Schwerpunktsenergie enthält damit keinen direkten Hinweis, dass die kritische Energiedichte überschritten wurde, ab der die Kernmaterie in einer Plasmaphase vorliegt. Andererseits werden weder die verschwindende Emissionsdauer noch die Tatsache, dass die anderen HBT-Parameter sich nur wenig mit der Schwerpunktsenergie ändern, als Argument dafür gewertet, dass die kritische Energiedichte nicht überschritten wurde. Die Frage, ob ein Quark- Gluon-Plasma im Labor erzeugt und analysiert werden kann, bleibt damit offen. Das thermische Ausfrieren einer Pionenquelle scheint hingegen anders zu verlaufen, als bisher angenommen wurde. Systematische Studien der Korrelationsfunktion in AA Kollisionen am RHIC in Kombination mit Fortschritten im theoretischen Verständnis der Teilcheninterferometrie in Schwerionenreaktion werden in Zukunft hoffentlich erlauben, die gemessenen Radien in ein konsistentes Bild einzuordnen. In zukünftigen Experimenten am LHC werden noch weit höhere Dichten erreicht als bisher, damit sollten sich auch die Ausfrierbedingungen stark verändern. Es wird sich dann zeigen, ob die Teilcheninterferometrie das geeignete Instrument ist, um die Quellfunktion einer Schwerionenreaktion zu messen.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
Die Lösung unbekannter Strukturen aus Pulverbeugungsdaten ist keineswegs eine Routineanwendung, und es steht noch einiges an Arbeit an, um die vorhandenen Methoden so weit zu automatisieren, daß sie von Nichtspezialisten, auch solchen mit kristallographischen Kenntnissen, direkt verwendet werden können. In dieser Arbeit konnte überzeugend dargelegt werden, daß die Anwendung des älteren Verfahrens der Fragmentsuche eine sehr gute Möglichkeit bietet, den Schwierigkeiten der Strukturlösung aus Pulverdaten erfolgreich zu begegnen. Durch graduelle Steigerung des Schwierigkeitsgrads bzw. der Komplexität der Strukturlösung von der anfänglichen Verwendung simulierter Pulverbeugungsdaten bekannter Strukturen über die Messung von Pulverbeugungsdiagrammen bekannter Strukturen bis hin zur Lösung unbekannter Strukturen konnte die sinnvolle Anwendbarkeit des Fragmentsuchprogramms PATSEE zweifelsfrei belegt werden. Die in den einzelnen Stadien der Untersuchungen diskutierten Einflüsse, wie die benötigte minimale Fragmentgröße oder die Fragmentqualität, lieferten entscheidende Hinweise für das Aufstellen einer einfachen Strategie zur Strukturlösung aus Pulverdaten mit PATSEE. So konnte gezeigt werden, daß für einen sinnvollen Strukturlösungsversuch in der Regel mehr als 50% des relativen Streubeitrags aller Atome in der asymmetrischen Einheit benötigt werden und daß sich diese Grenze nur durch die Verwendung qualitativ hochwertiger Pulverbeugungsdaten, wie sie an modernen Synchrotronringen erhalten werden können, durchbrechen läßt. Auch die Variation eines Torsionsfreiheitsgrads im Zuge der Rotationssuche kann entscheidende Vorteile verschaffen, wenn zwei für sich genommen zu kleine starre Bereiche miteinander kombiniert werden. Außerdem konnte die prinzipielle Verwendbarkeit sowohl mittels Kraftfeldmethoden berechneter als auch experimentell bestimmter Fragmente, wie sie in der CSD in großer Zahl bereitstehen, bestätigt werden. Die in PATSEE verwendete Vielzahl an Gütekriterien zur Beurteilung einer Lösung konnte auch im Falle von Pulverdaten im wesentlichen überzeugen. Zwar ist die Diskriminierung zwischen richtigen und falschen Lösungen bei weitem nicht so eindeutig in bezug auf alle Gütekriterien, aber zumindest wird eine sehr gute Bewertung hinsichtlich von CFOM - dem Gütekriterium, nach dem die Lösungen sortiert werden - und den beiden R-Werten RE(1) und RE(2) erreicht. Als etwas problematisch hat sich die Rotationssuche erwiesen, die nur auf der Beurteilung eines einzigen Gütekriteriums beruht. Da aber gerade der Rotationssuche als erstem Schritt der Fragmentsuche eine wichtige Bedeutung zukommt, ist der Anwender zu großer Sorgfalt bei deren Durchführung verpflichtet. Eine Grenze für Strukturlösungsversuche mit PATSEE stellen derzeit Strukturen mit mehreren Molekülen in der asymmetrischen Einheit dar. Da im einfachsten Fall (Z'= 2) bereits ein komplettes Molekül als Suchfragment einen relativen Streubeitrag von unter 50% aufweist, wird eine erfolgreiche Orientierung und Positionierung mit PATSEE nur noch für hervorragende Datensätze möglich sein. Für noch schwierigere Fälle (Z'> 2) oder für Verbindungen, bei denen nicht das gesamte Molekülgerüst als Suchfragment verwendet werden kann, bestehen dann praktisch keine Aussichten mehr auf eine erfolgreiche Strukturlösung mit PATSEE. Basierend auf diesen Ergebnissen, konnten PATSEE-Parameter empfohlen werden, die sowohl für große Fragmente als auch für den Grenzbereich der minimal benötigten Fragmentgröße gute Erfolgsaussichten für die Strukturlösung gewährleisteten. Dabei wichen die empfohlenen Parameter nur in geringem Maße von den für Einkristalldaten optimierten Werten ab. Anhand zweier unbekannter Strukturen konnte die empfohlene Strategie verifiziert werden. Zusätzlich wurde für eine der beiden Strukturen eine Einkristallstrukturbestimmung vorgenommen, welche die aus Pulverdaten gelöste Struktur bestätigte. Auch wenn einerseits die prinzipielle Anwendbarkeit der Fragmentsuche mit PATSEE auf Pulverbeugungsdaten bewiesen werden konnte und andererseits eine allgemeine Strategie zur Vorgehensweise geliefert wurde, sind doch noch nicht alle interessanten Fragestellungen geklärt. Hier sind zum einen die unbefriedigenden Möglichkeiten bei Strukturen mit mehreren Molekülen in der asymmetrischen Einheit zu nennen. Eine sinnvolle Erweiterung der Zahl simultan suchbarer Fragmente in PATSEE könnte diesen Schwachpunkt beheben. Zugleich könnte mit dieser Erweiterung die Anwendbarkeit auf flexiblere Molekülgeometrien ausgedehnt werden, so daß im Endeffekt eine Steigerung der einsetzbaren Fragmentgröße erreicht wird. Diese Erweiterung sollte bei der enormen Rechenleistung moderner Computersysteme kein unüberwindliches Hindernis darstellen, so daß die benötigte Zeit für einen PATSEE-Lauf mit mehreren zu suchenden Fragmenten auf maximal einige wenige Stunden ansteigen würde. Alternativ wäre zu überlegen, ob nicht das Aufheben der strikten Trennung von Rotationssuche und Translationssuche, also eine 6-dimensionale Fragmentsuche, die bisweilen zu beobachtenden Probleme der Rotationssuche beheben würde. Auch bei dieser Änderung der Vorgehensweise in PATSEE könnten moderne Computer sinnvoll eingesetzt werden. Vorteilhaft für die Strukturlösung wäre hier die Kombination der sehr erfolgreichen Diskriminierung der Gütekriterien bei der Translationssuche mit der bisher kritischen Bestimmung der Orientierung. Eine zweite Fragestellung, die im Rahmen dieser Arbeit nicht geklärt werden konnte, betrifft die Anwendbarkeit auf makromolekulare Verbindungen, die über eine große interne Regelmäßigkeit verfügen, wie beispielsweise kleinere Peptide mit alpha-helikaler Struktur oder einer beta-Faltblattstruktur. Verschiedene Testreihen an derartigen Verbindungen belegen die prinzipielle Machbarkeit, und außerdem konnte bereits in mindestens einem ähnlich gelagerten Fall [17] gezeigt werden, daß derartige Strukturlösungsversuche bei sehr großen Verbindungen durchführbar sind. Insbesondere wegen der erheblichen Schwierigkeiten bei der Kristallisation derartiger Verbindungen und dem großen wissenschaftlichen Interesse an ihrer Struktur könnten erfolgversprechende Ansätze zur Strukturlösung aus Pulverdaten einen wichtigen Beitrag in der Pharmazie, der Pharmakologie, der Biologie und nicht zuletzt in der Medizin leisten.
Die vorliegende Vergleichsstudie untersucht 28 schizoaffektive Patienten (ICD F25) gegenüber 38 bipolar-depressiven Patienten (ICD F31) und 43 Patienten einer orthopädisch erkrankten Kontrollgruppe. Die motivierende Fragestellung war, ob sich durch ein standardisiertes Testverfahren wie den Gießen-Test Merkmale eruieren lassen, die für die Selbst-Objekt-Beziehungen schizoaffektiver Patienten charakteristisch sind. Die soziodemografischen Daten wurden anhand eines halbstandardisierten Interviews erfasst. Der Interviewleitfaden gliedert sich in die Bereiche sozialer, beruflicher und familiärer Status, Krankheitsdaten, Fragen zu Kindheit und Familie sowie Fragen zur aktuellen sozialen Situation. Zur Erfassung der depressiven Symptomatik wurden die Patienten mit der Hamilton-Depressions-Skala zur Fremdbeurteilung überprüft. Mittels Gießen-Test wurde neben der Selbstbeurteilung (aktuelles Selbstbild, Idealbild und normatives Bild) auch die individuelle Fremdbeurteilung der primären Bezugspersonen sowie der gegengeschlechtlichen Partner der jeweiligen Patientengruppe untersucht. Fragekomplex 1: Wie sind Selbstbild und Selbstwertigkeit von schizoaffektiven und bipolar-depressiven Patienten beschaffen? Hypothese: Bei schizoaffektiven und bipolar-depressiven Patienten bestehen signifikante Unterschiede zwischen den drei Selbstbildern, wohingegen bei der Kontrollgruppe orthopädischer Patienten seltener von signifikanten Unterschieden ausgegangen wird. Die hier gewonnenen Ergebnisse zum Selbstbild zeigen, dass zwischen den drei Selbstbildern schizoaffektiver und bipolar-depressiver Patienten häufiger signifikante Unterschiede bestehen als bei der Kontrollgruppe. Hiermit konnte die Hypothese zum Fragenkomplex 1 bestätigt werden. Fragenkomplex 2: Welche Beziehung besteht zwischen dem Selbstbild der Patienten und dem Bild, das sie von ihren Eltern haben? Hypothese: Bei schizoaffektiven Patienten und bei bipolar-depressiven Patienten ist die Distanz zwischen Selbstbild und Mutterbild geringer als bei der somatischen Kontrollgruppe. Die Distanz zwischen Selbstbild und Vaterbild schizoaffektiver und bipolar-depressiver Patienten wird größer erwartet als bei der Kontrollgruppe. Ein signifikanter Unterschied zwischen schizoaffektiven und bipolar-depressiven Patienten wird nicht erwartet. Auffällig ergibt sich aus der vorliegenden Untersuchung das signifikant von der Norm abweichende depressive Selbstbild beider Gruppen in Zusammenhang mit einer ebenfalls depressiv erlebten Mutter. Des Weiteren fällt auf, dass sich die Differenz zwischen Selbstbild und Vaterbild einmal wider Erwarten signifikant zwischen Schizoaffektiven und Bipolar-Depressiven unterscheidet. Ansonsten konnten die Hypothesen zum Fragenkomplex 2 bestätigt werden. Fragenkomplex 3: Unterscheiden sich die interpersonellen Beziehungen von Patienten mit schizoaffektiver Psychose von denjenigen mit bipolar-depressiver Psychose? Hypothese: Es wird erwartet, dass in den Partnerschaften schizoaffektiver und bipolar-depressiver Patienten die Tendenz zu komplementären Beziehungsmustern im Vergleich zur Kontrollgruppe überwiegen. Signifikante Unterschiede der Selbst- und Fremdbilder von schizoaffektiven und bipolar-depressiven Patienten werden nicht erwartet. In dieser Studie weisen Partnerschaften schizoaffektiver Patienten eher auf eine Tendenz zu komplementären Beziehungsmustern hin als Partnerschaften bipolar-depressiver Patienten. Sowohl für Schizoaffektive als auch für Bipolar-Depressive findet sich bei der vorliegenden Untersuchung eine weitgehende Übereinstimmung zwischen dem Selbstbild des Patienten und dem Bild, das der Partner vom Patienten hat. Wider Erwarten gab es jedoch wenige signifikante Unterschiede zwischen Selbst- und Fremdbildern von schizoaffektiven und bipolar-depressiven Patienten. Die Hypothese zum Fragenkomplex 3 konnte dennoch zum größten Teil bestätigt werden. Die Antwort auf die Frage, ob sich für schizoaffektive Patienten charakteristische Selbst-Objekt-Beziehungsmuster heraus arbeiten lassen, muss nach der hier durchgeführten Untersuchung zunächst offen bleiben. Angesichts der prognostischen Bedeutung psychosozialer Variablen im Langzeitverlauf schizophrener und affektiver Störungen (vgl. Kröber, 1993) empfiehlt sich die Durchführung einer Mehr-Zeitpunkte-Untersuchung an einer größeren Stichprobe schizoaffektiv Erkrankter.
Die Messung des T-Wellen-Alternans ist eine neue, vielversprechende Methode zur Erfassung von Patienten mit einem erhöhten Risiko für arrhythmische Ereignisse. Die gute Testeffizienz ist für unterschiedliche kardiale Krankheiten belegt; ebenfalls wurde die Überlegenheit des TWA gegenüber anderen gängigen Parameter zur Risikostratifizierung erwiesen. Schwachpunkte dieses Verfahrens sind der relativ hohe Anteil an falsch positiv Getesteten und die häufig scheiternden Messungen. Nach unserem Wissen haben wir mit dieser Studie anhand eines Patienten- kollektivs mit Myokardinfarkt erstmalig erwiesen, dass das Ergebnis einer TWA- Untersuchung unabhängig ist von dem Alter und dem Geschlecht des Patienten, sowie von verschiedenen Parameter des erlittenen Herzinfarktes, wie der Höhe der CK, der Lokalisation, der Art der Erstintervention und dem Perfusionsstatus. Im Gegensatz zu anderen Studien konnten wir keinen Einfluss der Medikation, insbesondere der antiarrhythmischen, auf den Ausgang des Alternans-Testes feststellen. Schließlich zeigt die vorliegende Untersuchung erstmalig, dass das Wiederholen der Messung zu einem späteren Zeitpunkt, nämlich nach sechs Wochen und nach einem Jahr, zu 80 % das gleiche Ergebnis liefert, und zwar unabhängig von Änderungen in der Medikation, weiteren Maßnahmen zur Reperfusion und erneuten kardialen Ereignissen. Das Ergebnis positiv zeigt sich dabei etwas weniger stabil als das Ergebnis negativ. Insgesamt kann gefolgert werden, dass die Methode eine gute Reproduzierbarkeit aufweist und bei der Mehrzahl der Patienten auch im Langzeitverlauf stabile Ergebnisse liefert.
Die Tatsache der Entwicklung des Staates in der Frühen Neuzeit in einem langsamen Übergang vom mittelalterlichen Personenverbandsstaat zum institutionellen Flächenstaat, ist von mehreren Wissenschaftlern zum Gegenstand ihrer Forschungen gewählt und es sind von ihnen allgemeine Essentials herausgearbeitet worden. ...
Ziel der Arbeit war es, neue Techniken zur Erschließung und Selektion von Web- basierten Suchservern zu entwickeln und zu evaluieren, um hieraus eine integrierte Architektur für nicht-kooperative Suchserver im WWW abzuleiten. Dabei konnte gezeigt werden, daß die im Sichtbaren Web vorhandene Informationsmenge dazu geeignet ist, um eine effektive Erschließung des Unsichtbaren Webs zu unterstützen. Existierende Strategien für verteiltes Information Retrieval setzen eine explizite Kooperation von Seiten der Suchserver voraus. Insbesondere Verfahren zur Selektion von Suchservern basieren auf der Auswertung von umfangreichen Termlisten bzw. Termhäufigkeiten, um eine Auswahl der potentiell relevantesten Suchserver zu einer gegebenen Suchanfrage vornehmen zu können (z. B. CORI [26] und GlOSS [54]). Allerdings werden derartige Informationen von realen Suchservern des WWW in der Regel nicht zu Verfügung gestellt. Die meisten Web-basierten Suchserver verhalten sich nicht kooperativ gegenüber hierauf aufsetzenden Metasuchsystemen, was die Übertragbarkeit der Selektionsverfahren auf das WWW erheblich erschwert. Außerdem erfolgt die Evaluierung der Selektionsstrategien in der Regel in Experimentumgebungen, die sich aus mehr oder weniger homogenen, künstlich partitionierten Dokumentkollektionen zusammensetzen und somit das Unsichtbare Web und dessen inhärente Heterogenität nur unzureichend simulieren. Dabei bleiben Daten unberücksichtigt, die sich aus der Einbettung von Suchservern in die Hyperlinkstruktur des WWW ergeben. So bietet z. B. die systematische Auswertung von Backlink-Seiten also jener Seiten die einen Hyperlink auf die Start- oder Suchseite eines Suchservers enthalten die Möglichkeit, die im WWW kollektiv geleistete Indexierungsarbeit zu nutzen, um die Erschließung von Suchservern effektiv zu unterstützen. Eine einheitliche Systematik zur Beschreibung von Suchservern Zunächst ist es notwendig alle Informationen, die über einen Suchserver erreichbar sind, in ein allgemeingültiges Beschreibungsmodell zu integrieren. Dies stellt eine Grundvorraussetzung dar, um die einheitliche Intepretierbarkeit der Daten zu gewährleisten, und somit die Vergleichbarkeit von heterogenen Suchservern und den Aufbau komplexer Metasuchsysteme zu erlauben. Ein solche Beschreibung soll auch qualitative Merkmale enthalten, aus denen sich Aussagen über die Reputation einer Ressource ableiten lassen. Existierende Beschreibungen von Suchservern bzw. Dokumentkollektionen wie STARTS-CS [53] oder RSLP-CD [93] realisieren wenn überhaupt nur Teilaspekte hiervon. Ein wichtiger Beitrag dieser Arbeit besteht somit in der Identifizierung und Klassifizierung von suchserverbeschreibenden Metadaten und hierauf aufbauend der Spezifikation eines als Frankfurt Core bezeichneten Metadatensatzes für web-basierte Suchserver, der die genannten Forderungen erfüllt. Der Frankfurt Core berücksichtigt Metadaten, deren Erzeugung eine explizite Kooperation von Seiten der Suchserver voraussetzt, als auch Metadaten, die sich automatisiert z. B. durch linkbasierte Analyseverfahren aus dem sichtbaren Teil des WWW generieren lassen. Integration von Wissensdarstellungen in Suchserver-Beschreibungen Ein wichtige Forderung an Suchserver-Beschreibungen besteht in der zusätzlichen Integration von wissens- bzw. ontologiebasierten Darstellungen. Anhand einer in Description Logic spezifizierten Taxonomie von Suchkonzepten wurde in der Arbeit exemplarisch eine Vorgehensweise aufgezeigt, wie die Integration von Wissensdarstellungen in eine Frankfurt Core Beschreibung praktisch umgesetzt werden kann. Dabei wurde eine Methode entwickelt, um unter Auswertung einer Suchkonzept-Taxonomie Anfragen an heterogene Suchschnittstellen verschiedener Suchserver zu generieren, ohne die Aussagekraft von kollektionsspezifischen Suchfeldern einzuschränken. Durch die Taxonomie wird die einheitliche Verwendung von syntaktisch und semantisch divergierenden Suchfeldern verschiedener Suchserver sowie deren einheitliche Verwendung auf der integrierten Suchschnittstelle eines Metasuchsystems sichergestellt. Damit kann diese Arbeit auch in Zusammenhang mit den Aktivitäten des Semantischen Webs betrachtet werden. Die Abstützung auf Description Logic zur Wissensrepräsentation sowie die Verwendung von RDF zur Spezifikation des Frankfurt Core verhält sich konform zu aktuellen Aktivitäten im Bereich Semantisches Web, wie beispielsweise der Ontology Inference Layer (OIL) [24]. Darüber hinaus konnte durch die Integration der Suchkonzept-Taxonomie in den Arbeitsablauf einer Metasuchmaschine, bereits eine konkrete Anwendung demonstriert werden. Entwicklung neuartiger Verfahren zur Erschließung von Suchservern Für einzelne Felder des Frankfurt Core wurden im Rahmen dieser Arbeit Strategien entwickelt, die aufzeigen, wie sich durch die systematische Auswertung von Backlink- Seiten Suchserver-beschreibende Metadaten automatisiert generieren lassen. Dabei konnte gezeigt werden, daß der Prozeß der automatisierten Erschließung von Suchservern durch die strukturelle und inhaltliche Analyse von Hyperlinks sinnvoll unterstützt werden kann. Zwar hat sich ein HITS-basiertes Clustering-Verfahren als wenig praktikabel erwiesen, um eine effiziente Erschließung von Suchservern zu unterstützen, dafür aber ein hyperlinkbasiertes Kategorisierungsverfahren. Das Verfahren erlaubt eine Zuordnung von Kategorien zu Suchservern und kommt ohne zusätzliche Volltextinformationen aus. Dabei wird das WWW als globale Wissenbasis verwendet: die Zuordnung von Kategorienbezeichnern zu Web-Ressourcen basiert ausschließlich auf der Auswertung von globalen Term- und Linkhäufigkeiten wie sie unter Verwendung einer generellen Suchmaschine ermittelt werden können. Der Grad der Ähnlichkeit zwischen einer Kategorie und einer Ressource wird durch die Häufigkeit bestimmt, mit der ein Kategoriebezeichner und ein Backlink auf die Ressource im WWW kozitiert werden. Durch eine Reihe von Experimenten konnte gezeigt werden, daß der Anteil korrekt kategorisierter Dokumente an Verfahren heranreicht, die auf Lerntechniken basieren. Das dargestellte Verfahren läßt sich leicht implementieren und ist nicht auf eine aufwendige Lernphase angewiesen, da die zu kategorisierenden Ressourcen nur durch ihren URL repräsentiert werden. Somit erscheint das Verfahren geeignet, um existierende Kategorisierungsverfahren für Web-Ressourcen zu ergänzen. Ein Verfahren zur Selektion von Suchservern Ein gewichtiges Problem, durch welches sich die Selektion von Suchservern im WWW erheblich erschwert, besteht in der Diskrepanz zwischen der freien Anfrageformulierung auf Benutzerseite und nur spärlich ausgezeichneten Suchserver-Beschreibungen auf Seiten des Metasuchsystems. Da auf der Basis der geringen Datenmenge eine Zuordnung der potentiell relevantesten Suchserver zu einer Suchanfrage kaum vorgenommen werden kann, wird oft auf zusätzliches Kontextwissen zurückgegriffen, um z. B. ein Anfragerweiterung durch verwandte Begriffe vornehmen zu können (siehe z. B. QPilot [110]). Eine solche Vorgehensweise erhöht allerdings nur die Wahrscheinlichkeit für Treffer von Anfragetermen in den Suchserver-Beschreibungen und liefert noch keine ausreichende Sicherheit. Deshalb wurde in der Arbeit ein Selektionsverfahren entwickelt, das sich auf die Auswertung von Ko-Zitierungs- und Dokumenthäufigkeiten von Termen in großen Dokumentsammlungen abstützt. Das Verfahren berechnet ein Gewicht zwischen einem Anfrageterm und einem Suchserver auf der Basis von einigen wenigen Deskriptortermen, wie sie z. B. aus der FC-Beschreibung eines Suchservers extrahiert werden können. Dies hat den Vorteil, daß die Suchbegriffe nicht explizit in den einzelnen Suchserver-Beschreibungen vorkommen müssen, um eine geeignete Selektion vornehmen zu können. Um die Anwendbarkeit des Verfahrens in einer realistischen Web-Umgebung zu demonstrieren, wurde eine geeignete Experimentumgebung von spezialisierten Suchservern aus dem WWW zusammengestellt. Durch anschließende Experimente konnte die Tauglichkeit des entwickelten Verfahrens aufgezeigt werden, indem es mit einem Verfahren verglichen wurde, das auf Probe-Anfragen basiert. Das heißt, daß eine erfolgreiche Selektion durchgeführt werden kann, ohne daß man explizit auf das Vorhandensein von lokalen Informationen angewiesen ist, die erst aufwendig durch das Versenden von Probe-Anfragen ¨uber die Web-Schnittstelle des Suchservers extrahiert werden müssten. Herleitung einer integrierten Architektur Um das Zusammenspiel der erarbeiteten Strategien und Techniken zur Erschließung, Beschreibung und Selektion in einer integrierten Architektur umzusetzen, wurde die Metasuchmaschine QUEST entwickelt und prototypisch implementiert. QUEST erweitert die Architektur einer traditionellen Metasuchmaschinenarchitektur, um Komponenten, die eine praktische Umsetzung der Konzepte und Techniken darstellen, die im Rahmen dieser Arbeit entwickelt wurden. QUEST bildet einen tragfähigen Ansatz zur Kombination von wissensbasierten Darstellungen auf der einen und eher heuristisch orientierten Methoden zur automatischen Metadatengenerierung auf der anderen Seite. Dabei stellt der Frankfurt Core das zentrale Bindeglied dar, um die einheitliche Behandlung der verfügbaren Daten zu gewährleisten.
More than 70 years ago, the effects of extracellular adenosine 5'-triphosphate (ATP), a newly identified and purified biomolecule at that time (Fiske and Subbarow, 1925; Lohmann, 1929) were observed by Drury and Szent-Györgyi (1929). Since then, many pharmacological studies were carried out with extracellular adenine nucleotides in various intact organ systems, isolated tissues, and purified cell preparations. Yet it was not until 1972 that Burnstock introduced the concept of "purinergic nerves" and suggested that ATP might fulfil the criteria generally regarded as necessary for establishing a substance as a neurotransmitter, summarised by Eccles (1964):
• synthesis and storage of transmitter in nerve terminals
Strips of guinea-pig taenia coli (GPTC) were shown to take up large amounts of tritium-labelled adenosine when incubated with tritium-labelled adenosine, adenosine 5'-monophosphate (AMP), adenosine 5'-diphosphate (ADP) and ATP. The nucleoside was rapidly converted into and retained largely as [ 3 H]-ATP (Su et al., 1971).
• release of transmitter during nerve stimulation
Spontaneous relaxation of GPTC as well as relaxations induced by nerve stimulation or nicotine, respectively, in the presence of compounds which block adrenergic and cholinergic responses were accompanied by a remarkable increase in release of tritium-labelled material from taenia coli incubated in [ 3 H]-adenosine (Su et al., 1971).
• postjunctional responses to exogenous transmitters that mimic responses to nerve stimulation
Burnstock et al. (1966) characterised ATP and ADP as the most potent inhibitory purine compounds in the gut and observed that the effects of ATP mimic more closely the inhibitory response of the taenia to non-adrenergic nerve-stimulation than to adrenergic nerve stimulation (Burnstock et al., 1970).
enzymes that inactivate the transmitter and/or uptake systems for the transmitter or its breakdown products
When ATP was added to a perfusion fluid recycled through the vasculature of the stomach, very little ATP remained, but the perfusate contained substantially increased amounts of adenosine and inosine, as well as some ADP and AMP (Burnstock et al., 1970).
• drugs that can produce parallel blocking of potentiating effects on the responses of both exogenous transmitter and nerve stimulation
Tachyphylaxis to ATP produced in the rabbit ileum resulted in a consistent depression of responses to non-adrenergic inhibitory nerve stimulation, whereas responses to adrenergic nerve stimulation remained unaffected (Burnstock et al., 1970). Lower concentrations of quinidine reduced and finally abolished relaxation of GPTC induced by noradrenaline (NA) and by adrenergic nerve stimulation. Using higher concentrations of the compound, relaxant responses of GPTC to ATP as well as to non-adrenergic inhibitory nerve stimulation were abolished (Burnstock et al., 1970). ...
In der vorliegenden Arbeit wurde die mögliche Regulation verschiedener Ionenkanalgene bei Herz-Kreislauf-Erkrankungen mit Hilfe von Northern Blots, der semiquantitativen RT-PCR- Technik und zum Teil durch elektrophysiologische Untersuchungen analysiert. Ziel war es, solche Gene zu identifizieren, deren mRNA-Spiegel hochreguliert oder herunterreguliert waren, da diese möglicherweise eine wichtige Rolle bei den kardiovaskulären Erkrankungen spielen könnten. Diese Untersuchungen sollten zu einem besseren Verständnis der renalen und kardialen Funktion dieser Ionenkanäle und der Pathogenese der untersuchten Krankheiten beitragen, aber auch helfen, neue Kandidatengene für diese Krankheiten zu identifizieren. Es wurden insgesamt fünf Tiermodelle mit Hypertonie, kardialer Hypertrophie, Herzinsuffizienz, Niereninsuffizienz und Vorhofflimmern untersucht. Ein Schwerpunkt dieser Untersuchungen waren die CLC-Chloridkanäle, deren kardiovaskuläre Funktionen noch wenig untersucht sind. Die Genprofile der Chloridkanäle CLC-2, CLC-3, CLC-4, CLC-5, CLC-6 und CLC-7 sowie CLC-K1 und CLC-K2 wurden in den Herzen und Nieren der folgenden Tiermodelle analysiert: (1) In spontan hypertensiven Ratten (SHR) und (2) in SH-stroke-prone-Ratten, die eine genetisch bedingte Hypertonie und Herzhypertrophie entwickeln. (3) In salz-sensitiven Dahl-Ratten, die Hypertonie und Herzhypertrophie erst nach einer salzhaltigen Diät, und (4) in Aortic-Banding-Ratten, die nach einem operativen Eingriff Bluthochdruck und kardiale Hypertrophie entwickeln. (5) Schließlich wurde noch ein Rattenmodell untersucht, in dem durch die Ligatur der Koronararterie ein Herzinfarkt induziert wurde, der letztlich zur Herzinsuffizienz führte. In keinem dieser Tiermodelle wurde jedoch eine auffällige Veränderung in der mRNA-Expression der acht untersuchten CLC-Chloridkanäle in den erkrankten Tieren im Vergleich zu den Kontrolltieren beobachtet. Die CLC-Chloridkanäle wurden ferner in einem Niereninsuffizienz-Modell untersucht, bei dem in Ratten durch Abklemmen der renalen Arterien und Venen ein akutes Nierenversagen und letztlich eine Niereninsuffizienz hervorgerufen wurde. In diesem Tiermodell war bereits eine Herunterregulation vieler anderer Ionenkanäle und Transporter beschrieben worden. In zwei unabhängigen Tierstudien wurde eine unterschiedlich starke Abnahme der mRNA-Expression für die einzelnen CLC-Chloridkanäle beobachtet. In einer weiteren Studie konnte die Behandlung von niereninsuffizienten Ratten mit einem bei Niereninsuffizienz wirksamen Inhibitor des NHE-3-Transports das Ausmaß der Reduktion einzelner CLC-Gene abschwächen. Weitere Studien mit höheren Dosen oder potenteren Substanzen sind notwendig, um diese vorläufigen Befunde zu bestätigen. Ein weiterer Schwerpunkt der vorliegenden Arbeit war die Charakterisierung der kardialen Ionenkanaldichten bei einem neuen Kaninchenmodell für Vorhofflimmern, die in Zusammenarbeit mit der Universitätsklinik Tübingen durchgeführt wurde. Das Vorhofflimmern ist eine sehr häufige Herzerkrankung bei älteren Menschen, und anhand dieses Tiermodells sollten vor allem frühe Prozesse des elektrischen Remodelings, das für das Auftreten und die Aufrechterhaltung des Vorhofflimmerns von Bedeutung ist, untersucht werden. Mit Hilfe der semiquantitativen RT-PCR-Analyse konnte in diesem Tiermodell erstmals eine Reduktion der mRNA für die Kaliumkanalgene Kv1.4, Kv4.3 und Kv1.5 sowie für die Kalziumkanalgene alpha1, CaB2a, CaB2b und CaB3 im frühem Stadium des Vorhofflimmerns nachgewiesen werden. Diese Befunde konnten die Resultate von Patch-Clamp-Messungen erklären, die gleichzeitig an der Universität Tübingen an isolierten Vorhofzellen durchgeführt wurden. In diesen Studien wurde in Übereinstimmung mit den erzielten mRNA-Daten eine Abnahme des Ito-Kaliumstromes und des ICa,L-Kalziumstromes nachgewiesen. Mit diesen Untersuchungen konnten frühere Resultate, die auch an Patienten mit chronischem Vorhofflimmern erhoben wurden, bestätigt werden. Die gefundene Regulation zeigt, dass diese Ionenkanalgene eine wichtige Rolle bei dem frühen elektrischen Remodeling spielen und dass das Rapid-Pacing- Kaninchenmodell ein geeignetes Tiermodell für das Vorhofflimmern beim Menschen ist.
Das Angiotensin konvertierende Enzym (ACE) ist als eine der zentralen Komponenten des ReninAngiotensin-Systems entscheidend an der Regulation der vaskulären Funktion und Homöostase sowie an der Regulation des Flüssigkeits- und Elektrolythaushaltes beteiligt. Dabei katalysiert die Zinkmetallopeptidase ACE vor allem die Bildung des vasokonstriktorisch wirkenden Angiotensins II und die Degradation des vasodilatorisch wirkenden Bradykinins. Die Hemmung des ACE zur antihypertensiven Therapie ist klinisch weit verbreitet, wobei die zahlreichen protektiven Eigenschaften der eingesetzten, hochpotenten ACE-lnhibitoren nicht allein durch die Beeinflussung des Metabolismus der zwei beschriebenen vasoaktiven Peptide zu erklären sind. Vielmehr wird seit einiger Zeit angenommen, dass ACE beispielsweise durch eine Interaktion mit dem Bradykinin-B2-Rezeptor aktiv an der Regulation intrazellulärer Signaltransduktionsprozesse beteiligt ist. Da ACE als plasmamembranäres Ektoenzym in seiner kurzen cytoplasmatischen Sequenz fünf potentiell phosphorylierbare Serinreste besitzt, deren posttranslationale Modifikation durch Phosphorylierung möglicherweise intrazelluläre Signaltransduktionskaskaden beeinflussen könnte, wurde die potentielle Phosphorylierung von ACE sowie die Assoziation von ACE mit intrazellulären Proteinen analysiert. Mittels 32P-Markierung humaner Endothelzellen und ACE-überexprimierender Schweineaortenendothelzellen konnte erstmals die Phosphorylierung des ACE gezeigt werden, sowie unter Verwendung spezifischer Kinaseinhibitoren und anhand von in vitro Phosphorylierungsexperimenten die Proteinkinase CK2 als ACE-phosphorylierende Kinase identifiziert werden. Dies wurde zudem durch die Assoziation der CK2 sowohl mit ACE, als auch mit einem dem cytoplasmatischen Anteil von ACE entsprechenden Peptid bestätigt. Drei der intrazellulären Serinreste des ACE liegen innerhalb Konsensusse1uenzen bekannter Proteinkinasen, wobei nach Punktmutation der Serinreste Ser1253, Ser1263 oder Ser1270, entsprechend in Konsensussequenzmotiven für die PKC, PKA oder CK2 lokalisiert, der Ser1270-Rest als Hauptphosphorylierungsstelle des ACE identifiziert werden konnte. Die Reduktion der ACE-Phosphorylierung nach Mutation des Ser1270 zu Alanin sowie nach Hemmung der CK2 durch Einsatz des spezifischen lnhibitors 5,6-Dichloro-1-ß-D-ribofuranosylbenzimidazol (DRB) resultierte in einer verstärkten proteolytischen Spaltung des ACE, weiche extrazellulär in der juxtamembranär gelegenen "Stalk"-Region des Enzyms erfolgt, so dass vermehrt sekretiertes lösliches ACE in den Zellkulturüberständen der untersuchten Zellen zu finden war. Neben der CK2 fanden sich auch die schwere Kette nicht-muskulären Myosins (NMMHC), ß-Aktin, Annexin 2, die c-Jun NH2-terminalen Kinase (JNk) und die Proteinphosphatase PP1 assoziiert mit ACE oder einem dem intrazellulären Anteil von ACE entsprechenden Peptid. Da die an ACE gebundenen Proteine mehr oder minder in die Regulation intrazellulärer Signaltransduktionskakaden involviert sind, wurde überprüft, inwiefern die Aktivität oder Phosphorylierung dieser Proteine durch die Hemmung des ACE beeinflusst werden kann. Die Behandlung P-markierter Endothelzellen mit dem ACE-lnhibitor Ramiprilat resultierte deutlich nicht nur in einer transient gesteigerten Phosphorylierung des ACE selbst, sondern auch in einer verstärkten Phosphorylierung des ACE-gebundenen NMMHC. Dabei werden beide Proteine durch die ACE-assoziierte CK2 phosphoryliert, deren Aktivität deutlich nach Hemmung des ACE zunahm. Die Identität des ACE als aktives Signaltransduktionsmoleküi wurde zudem sehr überzeugend durch die Messung der JNK-Aktivität bestätigt, da die Stimulation mit Ramiprilat nur in Wildtyp-ACE exprimierenden Endothelzelien in einer Aktivierun dieser Kinase resultierte, wohingegen nach Mutation der ACE-Phosphorylierungsstelle (Ser1270) keine durch Ramiprilat gesteigerte JNK-Aktivität zu verzeichnen war. Ebenso führte neben der Hemmung des ACE die Stimulation mit dem ACE-Substrat Bradykinin zur lnitiation der beschriebenen Prozesse. Die durch ACE-lnhibitoren induzierte Signaltransduktion scheint auch an der Potenzierung und Reaktivierung der durch Bradykinin vermittelten Zellaktivierung beteiligt zu sein, da nur in ACE-exprimierenden Zellen die Hemmung der CK2 in einer verminderten Bradykinin-induzierten Endothelzellaktivierung resultierte und der ACE-lnhibitor diese Reduktion vollständig umkehrte. Die Entdeckung der posttranslationalen Modifikation des ACE durch Phosphorylierung zur Regulation der Sekretion des Enzyms sowie zur lnitiation intrazellulärer Signalkaskaden eröffnet eine neue molekulare Basis für das Verständnis und die Charakterisierung der zahlreichen protektiven Eigenschaften der ACE-lnhibitoren. Zudem liefert die Identifizierung des ACE als aktives Signaitransduktionsmolekül mit der Fähigkeit zum "Outside-In-Signaling" möglicherweise neue Ansatzpunkte für die Entwicklung antihypertensiver Therapien.
Mikroentladungen bei hohem Druck und mit Gasfluss stellen eine vielseitig nutzbare Quelle für Ionen und kalte metastabile Atome dar. In dieser Arbeit werden grundlegende Untersuchungen an dieser neuen Hochdruckentladung zur Erzeugung von metastabilen Atomen und einfachgeladenen Ionen vorgestellt. Der innovative Ansatz ist die Nutzung mikrostrukturierter Elektroden (MSE) zur Erzeugung von nichtthermischen Entladungen mit Gleichspannung. Die spezielle porenförmige Geometrie erlaubt die Erzeugung von Entladungen bei einem Druck > 1000 hPa. Die Mikroentladung produziert metastabile Atome und Ionen in einem lokalisierten Volumen durch Stöße mit energiereichen Elektronen, wobei das Neutralgas in der Entladung im Vergleich zu den Elektronen kalt ist. Außerdem kann die Entladung mit erzwungenem Gasfluss durch die Pore betrieben werden, so dass die Plasmabestandteile (neutrale/angeregte Atome, Radikale, Ionen, etc.) extrahiert werden. Mit dieser neuen Methode kann bei der adiabatischen Expansion des Gases ins Vakuum ein gerichteter Gasstrahl, mit geringer interner Temperatur, im Bereich von einigen K erzeugt werden. Die Verweildauer des Gases in der Mikropore ist < 0,1 µs, so dass auch Zustände mit kurzer Lebensdauer extrahiert werden können. Die MSE lässt sich aufgrund der kleinen Abstände im µm Bereich als Mehrschichtsystem, aus zwei metallischen Elektroden, die durch einen Isolator getrennt sind, realisieren. Dieses Grundmaterial wird mit einzelnen oder einer Vielzahl von Poren mit typischerweise 100 µm Durchmesser versehen. Mit Hilfe dieser Mikrostrukturen lassen sich stabile, nicht filamentre, homogene Entladungen mit Gleichspannung in allen Gasen als auch Gasgemischen in einem weiten Druckbereich von 600 hPa bis 4000 hPa erzeugen. Die Druckverhältnisse in der Pore lassen sich durch den Gasfluss zwischen einigen ml/min bis l/min variieren. Die Verweildauer des Gases in der Pore kann durch den Gasfluss gesteuert werden. Zur Diagnose werden die Bestandteile des Plasmas mit dem Gasstrom extrahiert und expandieren adiabatisch ins Vakuum. Der Einfluss von Vordruck, Gasfluss, Entladestrom und Gaszusammensetzung auf die Eigenschaften des Plasma-Jets konnte auf diese Weise bestimmt werden. Durch die Kühlung der Mikroentladung konnte die interne Temperatur des Targets nochmals gesenkt und die Geschwindigkeit gezielt reduziert werden. Die Messung des Geschwindigkeitsprofils, die Zusammensetzung, etc. geben einen indirekten Einblick in die komplexen Prozesse der Mikroentladung, die mit konventionellen Analysemethoden nur schwer zugnglich sind. Die gemessenen Eigenschaften der MSE- unterstützten Hochdruckentladung sind vergleichbar mit klassischen Glimmentladungen, jedoch ist die Anregungs- und Ionisationswahrscheinlichkeit aufgrund der Geometrie größer. Unter definierten Rahmenbedingungen erlaubt diese neue Technik die Erzeugung eines gerichteten Plasma-Jets bestehend aus kalten metastabilen Atomen, Ionen, etc. Basierend auf diesem Prinzip wurde eine Quelle für metastabile Heliumatome aufgebaut und mit verschiedenen Methoden analysiert. Der 23S1- Zustand wird aufgrund seiner atomaren Struktur effektiv durch die energiereichen Elektronen in der Entladung angeregt. Die Gasströmung bestimmt den Druck und die Verweildauer im aktiven Volumen. Die Untersuchungen haben gezeigt, dass mit diesem Aufbau kalte, metastabile Atomstrahlen mit einer Intensität von 6 mal 10 hoch 13 (s mal sr) hoch minus 1 und Geschwindigkeiten von 900-1800 m/s erzeugt werden können. Bei den gemessenen Dichten in der Pore von 6 mal 10 hoch 12 (cm) hoch minus 3 ist die Ausbeute durch das Quenching der metastabilen Atome beschränkt. Die Eigenschaften dieses exotischen Atomstrahls sind hinsichtlich der absoluten Geschwindigkeit und der Geschwindigkeitsverteilung identisch mit einem konventionellen Überschall-Gasstrahl. Die Qualität des Strahls, aufgrund seiner geringen internen Temperatur von einigen K, erlaubt die Trennung und Fokussierung des gewünschten Zustandes. In Kombination mit der Separationseinheit wurde die Mikroplasmaquelle zur Erzeugung eines metastabilen 2 3 S 1-Heliumtargets mit polarisiertem Elektronenspin verwendet. Bei der Separation wird durch den außermittigen Einschuss in den permanentmagnetischen Hexapol eine hervorragende räumliche Trennung der verschiedenen Zustände erreicht und die Ausdehnung des Targets im Fokus auf 1 mm hoch 2 reduziert. Die erreichte Targetdichte für den spinpolarisierten 2 3 S 1-Zustand liegt im Fokus bei 10 hoch 6 cm hoch -2. Die Charakterisierung des Strahlverlaufs als auch die Time-of-Flight-Messungen zeigen, dass es sich bei der MSE unterstützten Hochdruckentladung um eine nichtthermische Entladung mit vergleichbaren Eigenschaften wie Niederdruckglimmentladung handelt, d.h. neutrale/angeregte Atome und Elektronen sind nicht im Temperaturgleichgewicht. Die Gastemperatur wird somit in der Mikroentladung nicht erhöht. Die Messungen mit Düsentemperatur von 80 K haben dies ausnahmslos bestätigt. Mit dieser Quelle lassen sich auch feine Ionenstrahlen bei hohem Druck erzeugen. Bei erzwungener Gasströmung durch die Entladung werden die Ionen aus dem Bereich der Entladung extrahiert und können zur Diagnose der Hochdruckentladung ins Vakuum überführt werden. Die Ionenausbeute wurde für verschiedene Gase und Gasgemische in Abhängigkeit von Gasfluss, Entladestrom, Extraktionsspannung untersucht. Die Elektronenenergie reicht ausschließlich zur Produktion von einfachgeladenen Ionen bzw. Molekülen aus. Der Anteil an Metallionen zeigt deutlich, dass die Geometrie die Erzeugung von Sekundärelektronen an der Kathode unterstützt. Die Wechselwirkung der Ionen mit dem Überschall-Gasstrahl im Bereich zwischen Düse und Skimmer führt zu einer starken Energieverbreiterung. Dies kann jedoch durch eine modifizierte Extraktionsgeometrie reduziert werden, hierbei ist insbesondere auf die Raumladung im Bereich zwischen Düse und Skimmer zu achten. Die vorgestellten Messungen haben exemplarisch für Helium gezeigt, dass gerichtete, kalte, metastabile Atomstrahlen mit ausreichender Intensität für atomphysikalische Experimente erzeugt werden können. Auf Basis der grundlegenden Erkenntnisse lässt sich das spinpolarisierte Target im nächsten Schritt hinsichtlich der erreichten Ausbeute optimieren. Dazu ist es notwendig, die Bedingungen in der Expansionskammer zu verbessern, so dass die Plasmaquelle mit höherem Vordruck betrieben werden kann. In diesem Zusammenhang sollte auch der Abstand Düse Skimmer verringert und die Separationseinheit auf diese modifizierten Rahmenbedingungen angepasst werden. Durch diese Modifikation kann die Targetdichte für spinpolarisiertes, metastabiles Helium nochmals gesteigert werden. Mit der erreichten Targetdichte sind die grundlegenden Voraussetzungen für atomphysikalische Messungen an einem spinpolarisierten Target geschaffen. Durch Anpassung der Separationseinheit ist es prinzipiell auch möglich, andere exotische metastabile Targets mit polarisiertem Elektronenspin zu erzeugen.
Der lentivirale Gentransfer in humane blutbildende Stammzellen ist in Hinblick auf eine kurative Gentherapie von angeborenen und erworbenen Erkrankungen des hämatopoetischen Systems und er Krebstherapie von Bedeutung. Die Fähigkeit, sowohl zu proliferieren als auch in alle hämatopoetische Linien zu differenzieren, macht die pluripotenten CD34 - Stammzellen zu einem idealen Ziel für die dauerhafte Präsenz von Transgenen. Der Erfolg einer Gentherapie ist nicht nur abhängig von der Effizienz des Transfers des therapeutischen Gens in hämatopoetischen Stammzellen, sondern auch von der dauerhafte Expression des Transgens. Ein Modell zur Entwicklung einer somatischen ex vivo Gentherapie in hämatopoetischen Stammzellen ist die chronische Granulomatose (CGD). Die Krankheit beruht auf der genetisch bedingten Fehlfunktion der NADPH-Oxidase und ist mit wiederkehrenden, schweren und lebenslang auftretenden Infektionen verbunden. Eindringende Mikroorganismen wie Pilze und Bakterien werden aufgenommen, können jedoch in den phagozytierenden Vakuolen nicht abgetötet werden, da keine Sauerstoffradikale, Wasserstoffperoxid oder Folgeprodukte gebildet werden. Eine somatische Gentherapie, die eine autologe Knochenmarktransplantation mit genetisch modifizierten Zellen vorsieht, könnte CGD-Patienten die Möglichkeit einer kurativen Therapie eröffnen. Als Grundlage für die Entwicklung einer lentiviralen Gentherapie wurden zunächst lentivirale Vektoren konstruiert und mit diesen die Bedingungen der transienten Transfektion im Hinblick auf einen hohen Virustiter optimiert. Diese Vektoren wurden auf Basis des humanen Immundefizienzvirus (HIV) konstruiert und waren alle aufgrund von Deletionen in 3´ LTR selbst-inaktivierend. Das bedeutet, daß nach der reversen Transkription kein viraler Promotor mehr enthalten war, und damit die Transgen-Expression über einen internen Promotor initiiert wurde. Der pSIN-GFP Vektor enthielt grünes Fluoreszenzprotein (GFP) als Markergen und einen internen Cytomegalievirus(CMV)-Promotor. Durch Austausch der Promotor- /"Enhancer"-Sequenzen in der 5´LTR entstand der pCGWS Vektor, der unabhängig vom Tat- Transaktivator war. Die Expressionsrate konnte durch Insertion des posttranskriptionell regulatorisch wirkende Element (WPRE), das hinter das Transgene kloniert wurde, erhöht werden. Der pCIGWS Vektor wurde durch Einfügen einer multiple Klonierungsstelle und eine interne ribosomale Eintrittsstelle (IRES) zwischen dem internen Promotor und dem Transgen generiert. Dieser Vektor erlaubte jedoch nicht, wie gewünscht, die gleichzeitige Detektion der Expression eines Transgens und des Markerproteins. Die im Rahmen der Optimierung der Transfektionsbedingungen wurden unterschiedliche Verhältnisse der zur Virusproduktion notwendigen drei Plasmide zueinander ausgetestet. Die beobachteten Schwankungen des Virustiters waren bei den gewählten Verhältnissen nicht signifikant. Mit der Erhöhung der DNA-Menge an Hüllprotein Plasmid konnte auch in diesem Versuch eine vermehrte Bildung von Synzytien beobachtet werden, die sich negativ auf den Titer auswirkte. Die Behandlung der Transfektionsansätze mit Natriumbutyrat (NaBut) ergab eine deutliche Steigerung des Virustiters, wobei die Steigerung nicht mit dem Titer, der ohne NaBut erreicht wurde, korrelierte. Im Experiment zur Untersuchung des Einflusses von verschiedenen Kulturmedien auf den Titer, wurden für die verwendeten Medien keine großen Unterschiede festgestellt. Bei den Experimenten zur Konzentrierung von infektiösen Viruspartikeln haben sich Ultrazentrifugation, "Low Speed"-Zentrifugation und Anionenaustauschchromatographie als Methoden bewährt. Mit diesen Verfahren konnten konzentrierte Viruslösungen generiert werden, die sehr hohe Transduktionseffizienzen auf Zellinien zeigten. Mit den angereicherten Viruspartikellösungen konnten auch CD34 -Stammzellen erfolgreich transduziert werden. Im Hinblick auf Angaben aus der Literatur konnten vergleichbare Transduktionseffizienzen erzielt werden, wobei hier fast ausschließlich ultrazentrifugierter Virusüberstand verwendet wurde. Mit der Etablierung des chromatographischen Verfahrens zur Anreicherung von Viren konnte ein alternatives System aufgezeigt werden. Am Modell der X-chromosomal gebundenen chronischen Granulomatose (X-CGD) konnte durch lentiviralen Transfer eines therapeutischen Gens (gp91phox) die funktionelle Rekonstitution der NADPH-Oxidase nachgewiesen werden. Dazu wurden lentivirale Vektoren konstruiert, die gp91phox als therapeutisches Gen enthielten. In molekularbiologischen Untersuchungen konnte zum einen die Integration des Transgens und zum anderen eine hohen Expression des gp91phox-Proteins gezeigt werden. In der durchflußzytometrische Untersuchung konnte für weniger als die Hälfte Zellen einer Modellzellinie (X-CGD PLB-985-Zellen) eine Transduktion nachgewiesen werden. In den funktionellen Untersuchungen wurde eine Rekonstitution der NADPH-Oxidase Aktivität von 80% und mehr im Vergleich zu PLB-985-Wildtypzellen detektiert. Die hohe funktionelle Rekonstitution bei geringer Transduktionseffizienz war auf eine hohe Expression aufgrund von Mehrfachintegration des Transgens zurückzuführen. Die Untersuchungen mit den lentiviralen gp91phox-Vektoren haben gezeigt, daß diese gute Voraussetzungen für die Entwicklung einer somatischen Gentherapie für CGD-Patienten mitbringen. Studien mit CD34 -Zellen und Stammzellen von X-CGD Patienten sind im weiteren notwendig, um die therapeutische Relevanz zu belegen. Neben der Fortentwicklung des Vektors muß auch die Methodik zur Generierung und Anreicherung der viralen Partikel, sowie das Transduktionsprotokoll der Stammzellen weiter optimiert werden.
Die Protoonkogene Ras und Raf spielen eine wichtige Rolle bei der Übertragung eines extrazellulären Signals in den Zellkern. Die direkte Interaktion zwischen GTP-gebundenem, aktiviertem Ras und der Proteinkinase Raf führt zur Aktivierung der Ras/Raf/MEK/ERK-Kaskade, die eine entscheidende, regulatorische Rolle bei onkogenen, mitogenen und entwicklungsabhängigen Signalwegen besitzt. Die Beeinflussung der Kaskade stellt daher einen interessanten Ansatz für die Arzneistoffentwicklung dar. Trotz der bekannten Proteinstrukturen von Ras und Raf sind bisher nur wenige Stoffe gefunden worden, die die Interaktion direkt beeinflussen. In der vorliegenden Arbeit wurde daher ein Testsystem auf der Basis des Hefe-Zwei-Hybrid-System etabliert, mit dessen Hilfe Effektoren der Ras/Raf-Wechselwirkung schnell und einfach identifiziert werden können. Das erste Ziel der Arbeit war die Etablierung einer Testmethode in 96-well-Microtiterplatten, die einen schnellen Durchsatz verschiedener Proben erlaubt. Insgesamt wurden in der vorliegenden Arbeit 469 Reinsubstanzen und Pflanzenextrakte in verschiedenen Konzentrationen getestet. Durch die Verwendung geeigneter Kontroll-Hefestämme konnte außerdem eine Aussage über die Spezifität der Substanzinteraktion getroffen werden. Bei einigen Ras/Raf-aktivierenden Substanzen konnten über die Testung systematischer Substanzreihen Struktur-Wirkungsbeziehungen aufgestellt werden. Cycloalkylidencarbonsäuren wurden als erste potente Ras/Raf-Aktivatoren identifiziert, deren wahrscheinlicher Interaktionsbereich durch die Expression verkürzter Raf-Mutanten auf den Bereich von AS 131-194 von Raf eingeschränkt werden konnte. Sie stabilisieren nicht nur die Bindung von mutiertem, sondern auch von Wildtyp-Ras an Raf. In einem zweiten, unabhängigen Säugerzell-Testsystem, das auf der Aktivierung der Ras/Raf/MEK/ERK-Kaskade und dem anschließendem Nachweis des phosphorylierten MEK-Proteins beruht, lieferten die aktiven Verbindungen erste Hinweise auf eine Aktivierung der Signalkaskade. Mögliche Optimierungen der beiden verwendeten Testsystem, sowie Alternativen, weitergehende Experimente und Einsatzgebiete von Ras/Raf-Effektoren werden abschließend diskutiert.
In der vorliegenden Untersuchung wurden Populationen der Gattung Corbicula im Rhein mit Individuen aus der Mosel, der Weser sowie aus Frankreich, Spanien, Nordamerika und dem Nahen und Fernen Osten sowohl mit genetischen als auch morphologischen Methoden untersucht. Aus diesen Daten sollte ermittelt werden, wie viele Taxa bei der rezenten Besiedelung Europas auftraten und welche Migrationsrouten hierbei nachgewiesen werden konnten. Es konnte gezeigt werden, dass im Rhein zwei hybridisierende genetische Linien auftraten, wobei keine Rückkreuzung mit den Eltern nachgewiesen werden konnte. Die Hybride waren morphologisch nicht zu unterscheiden. Hinweise auf einen unterschiedlichen Chromosomensatz dieser Linien bzw. eine Polyploidie konnte nicht gefunden werden. In der Rhone wurde eine weitere Linie entdeckt. Eine der genetischen Linien im Rhein konnte im Vergleich zu Individuen aus Fernost als C. fluminea identifiziert werden. Die Herkunft der beiden Linien aus Rhein und Rhone blieb unklar, da sie nicht Individuen aus Israel oder Nordamerika zugeordnet werden konnten. Eine Polytomie der MP- und ML-Analysen war nicht auf einen zu geringen Datensatz zurückzuführen, vielmehr konnte gezeigt werden, dass Corbicula im Pleistozän eine Radiation durchief. Schalenmorphologisch konnten die genetischen Linien aus dem Rhein nicht durchgehend den zwei auftretenden Morphen zugeordnet werden. Gleichzeitig schienen diese Individuen die Extreme einer weltweiten Variabilität der Schalenform darzustellen. Ein morphologischer Vergleich von Schalen aus der Sammlung Senckenberg zeigte keine Unterschiede zwischen Individuen, die als C. fluminalis und C. fluminea bezeichnet waren. Vielmehr scheint die Schalenform nicht genügend conchologischen Merkmale zu besitzen, um die genetischen Linien zu unterscheiden. Die Besiedelung Europas durch die Körbchenmuschel erfolgte mehrfach unabhängig in verschiedenen Flusssystemen Südwest- und Mitteleuropas Anfang der 1980er Jahre. Auf- grund der hier nachgewiesenen Isolationswirkung von Stauwehren der Bundeswasserstrassen auf Makroinvertebraten und der Ergebnisse der DAF-Fingerprints von Corbicula- Populationen wurde die Mosel vermutlich von Frankreich aus besiedelt.
Das Genom des Archaeons Halobacterium salinarum kodiert vier Proteine der SMC Protein Superfamilie. Zwei Proteine bilden dabei eine neue Gruppe und werden "SMC-artige Proteine von H. salinarum" (Sph1 und Sph2) genannt. Eine Transkriptanalyse ergab, dass sph1 und das 114 bp stromabwärts gelegene hp24 Gen ausschließlich in exponentiell wachsenden Zellen transkribiert werden. In Zellen der stationären Wachstumsphase ist keines der beiden Transkripte nachweisbar. Die Funktion von Sph1 wurde durch Versuche mit Überproduktions- und Depletionsstämmen von H. salinarum untersucht. Die konditionale Überproduktion von Sph1 inhibiert die weitere Zellteilung und führt zu einer Längenzunahme der Zellen. Erstmals wurde durch ein antisense-mRNA-System in einem Archaeon ein Protein, Sph1, depletiert. Die Depletion führt ebenfalls zur Inhibition der weiteren Zellteilungsereignisse. Beide Phänotypen zeigen, dass Sph1 eine essentielle Rolle im Verlauf des Zellzyklusses einnimmt. Um Zellzyklus spezifische Ereignisse zu analysieren wurde eine Synchronisationsprozedur für H. salinarum entwickelt. Dazu wurde der Effekt von sechs eukaryalen Zellzyklusinhibitoren auf den Zellzyklus von H. salinarum untersucht. Bei geeigneter Konzentration verursacht der effizienten DNA Polymerase Inhibitor Aphidicolin eine schnelle und reversible Zellzyklusblockade, während andere zelluläre Prozesse nicht beeinflusst werden. Durch Ermittlung der Zelldichte, der mittleren Zelllänge und des Anteils an Septum bildenden Zellen wurde festgestellt, dass nach Entfernen des Inhibitors ca. 70 % der in der Kultur vorhandenen Zellen den Zellzyklus synchron durchlaufen. Diese Prozedur erlaubt erstmals die Untersuchung der Zellzyklus abhängigen Regulation der Transkription, Proteinakkumulation sowie der intrazellulären DNA-Lokalisation in einem Archaeon. Transkriptionsstudien mit synchron wachsenden H. salinarum-Kulturen ergaben, dass das sph1 Transkript eindeutig Zellzyklus abhängig reguliert ist. Die maximale Transkriptmenge ist dabei zum Zeitpunkt der Septumbildung nachweisbar. Die Expression des hp24 Gens beginnt etwa eine Stunde vor der Expression des sph1 Gens. Bevor die sph1 Transkriptmenge ihr Maximum erreicht, nimmt die hp24 Expression wieder ab. Das cdcH Gen, das für ein Protein der Cdc48 Familie kodiert, ist wie das sph1 Gen um den Zeitpunkt der Septumbildung stark induziert, während ein ftsZ Allel nicht in Zellzyklus abhängiger Weise reguliert ist. Die Transkriptionsmuster zeigen, dass die Transkription verschiedener Gene im Verlauf des haloarchaealen Zellzyklusses präzise reguliert wird. Die Sph1 Proteinmenge ist ebenfalls während des Zellzyklusses reguliert; sie ist erhöht, wenn die Segregation der neuen Chromosomen nahezu abgeschlossen ist. Folglich hat Sph1 vermutlich eine Funktion in der späten Phase der Replikation, z.B. in der DNA-Reparatur wie auch die eukaryalen Rad18 Proteine. Im Gegensatz zum sph1 Transkript ist das Protein während des gesamten Zellzyklusses in H. salinarum nachweisbar. Es ist daher nicht auszuschließen, dass Sph1 eine weitere Funktion ausübt, die eine Präsenz während des gesamten Zellzyklusses benötigt. Ein Färbeprotokoll mit einem DNA spezifischen Fluoreszenzfarbstoff wurde entwickelt, um die intrazelluläre Lokalisation des Nukleoids in H. salinarum zu bestimmen und seine differenzierte Positionierung im Verlauf des Zellzyklusses in synchronisierten Zellen zu verfolgen. Synchronisierte Kulturen wurden mit Fluoreszenzmikroskopie untersucht. Es zeigte sich, dass das haloarchaeale Nukleoid nach einer anfänglichen Verteilung auf die gesamte Zelle in der Zellteilungsebene kondensiert. Im weiteren Verlauf wird die DNA zügig an die 1/4 und 3/4 Positionen transportiert. Alle DNA-Strukturen wurden auch in unbehandelten Zellen beobachtet, so dass Synchronisationsartefakte ausgeschlossen werden können. Diese Daten beweisen, dass die DNA in Haloarchaea aktiv zu spezifischen intrazellulären Regionen transportiert wird und legen nahe, dass die Replikation in der Zellteilungsebene erfolgt, wie es in den letzten Jahren für einige bakterielle Arten nachgewiesen wurde. Die Untersuchungen bilden die Grundlage für weitere Untersuchungen molekularer Details des archaealen Zellzyklusses.
Die Chemie und der Strahlungshaushalt der Erdatmosphäre werden durch die nur in relativ geringen Konzentrationen vorhandenen Spurengase und Aerosolpartikel beherrscht. Mit den zunehmenden anthropogenen Emissionen von atmosphärischen Spurengasen, verursacht durch die wachsende Weltbevölkerung und die zunehmende Industrialisierung, wurde in den letzten Dekaden ein globaler Wandel bei der Zusammensetzung der Erdatmosphäre festgestellt: Konzentrationen von atmosphärischen Spurenstoffen verändern sich nicht mehr auf vergleichsweise langsamen geologischen Zeitskalen, sondern mit viel höheren Geschwindigkeiten, in einzelnen Fällen von bis zu einem Prozent pro Jahr. Die wohl bekanntesten Folgen dieser Veränderungen sind die globale Erwärmung durch die ansteigenden Emissionen von Treibhausgasen und der mit dem antarktischen 'Ozonloch" entdeckte drastische Ozonverlust in der Stratosphäre durch anthropogene Fluor-Chlor-Kohlenwasserstoffe (FCKW). Die Verteilung der für Ozonchemie und Klima relevanten Spurengase in der Atmosphäre hängt dabei nicht nur von der Verteilung ihrer Quellen und Senken ab, sondern wird maßgeblich durch verschiedene Transportprozesse beeinflußt. Der Austausch zwischen der mit anthropogenen Emissionen belasteten Troposphäre und den höheren Atmosphärenschichten Stratosphäre und Mesosphäre spielt dabei eine zentrale Rolle. Im Rahmen der Dissertation wurde zum besseren Verständnis von Stratosphären-Troposphären-Austauschprozessen die Verteilung von langlebigen Spurengasen in den beiden atmosphärischen Kompartimenten Troposphäre und Stratosphäre untersucht. Dazu wurde bei einer Meßkampagne im Sommer 1998 im Rahmen des von der Europäischen Union geförderten Forschungsprojektes STREAM 98 der flugzeuggetragene Gaschromatograph GhOST (Gas chromatograph for the Observation of Stratospheric Tracers) an Bord einer Cessna Citation II der TU Delft in Höhen bis 13 km eingesetzt. Dabei konnten bei zwanzig Meß- und Transferflügen über Kanada, dem Atlantik und Westeuropa umfangreiche Messungen der langlebigen Spurengase N20, F11 und F12 in der oberen Troposphäre und der Untersten Stratosphäre durchgeführt werden. Unter Flugbedingungen wurde mit GhOST während der Kampagne eine Reproduzierbarkeit (1 o) von besser als 0,6 % und eine absolute Genauigkeit von besser als 2 % für alle nachgewiesenen Spurengase erreicht. Diese hohe Meßpräzision konnte durch zahlreiche Vergleichsmessungen mit anderen Meßgeräten und Meßverfahren - im Flugbetrieb und im Labor sichergestellt werden; die Linearität des Geräts wurde zudem mit Hilfe einer barometrisch hergestellten Verdünnungsreihe untersucht. Die mit GhOST bei STREAM 98 gewonnenen Meßwerte wurden zusammen mit Messungen und Modelldaten der am Projekt beteiligten Arbeitsgruppen zur Untersuchung von Spurengasverteilungen und Stratosphären-Troposphären-Austauschprozessen herangezogen. Untersucht wurden dabei unter anderem die Verteilung und Variabilität von N20, F11 und F12 in der Troposphäre und in der Untersten Stratosphäre der mittleren Breiten, Austausch- und Mischungsprozesse in der Tropopausenregion und die Variabilität von Tracer/Tracer-Korrelationen in der Untersten Stratosphäre. Aufbauend auf den Erfahrungen bei STREAM 98 wurde für das vom BMBF geförderte Projekt SPURT im Rahmen dieser Doktorarbeit der in-situ-Gaschromatograph GhOST II entwickelt. Unter Beibehaltung der gaschromatographischen Komponenten von GhOST wurden zur Messung der Spurengase SF6 und CO zwei zusätzliche Detektoren integriert und zahlreiche technische Verbesserungen durchgeführt. Für die vollautomatische rechnergestützte Elektronik zur Steuerung des neuen Gerätes wurden zusammen mit der institutseigenen Elektronikwerkstatt verschiedene Baugruppen zur Signalführung und -verarbeitung, zur Temperaturmessung und zur Ansteuerung von Leistungskomponenten entwickelt. Während einer Testkampagne im April 2001 wurde GhOST II erfolgreich mechanisch und elektrisch auf einem Learjet 35A integriert und kam bei zwei Meßflügen der Meßkampagne SPURT 1 im November 2001 zum Einsatz.
In dieser Arbeit wurde das Potential des rekombinant in E. coli hergestellten und unter Hochsalzbedingungen in-vitro assemblierten, murinen VP1-Kapsoids als Antisense-Oligonukleotid-Transfersystem in humane Brustkrebszellen untersucht. Die verwendeten Antisense-Oligonukleotide sind gegen den in 25-30 % aller Brustkrebsfälle überexprimierten Wachstumsfaktorrezeptor Pl85erbB-2 gerichtet, der zu einer verschlechterten Prognose in Bezug auf die Gesamtüberlebenswahrscheinlichkeit und das Wiederauftreten des Carcinoms führt. Die Charakterisierung der VP1-Kapsoide als Oligonukleotid-Transfersystem wurde zum einen in Bezug auf den Zelltransfer des Trägers und die mit ihm transportierten Antisense-Oligonukleotide durchgeführt. Zum anderen erfolgte die Überprüfung der resultierenden Antisense-Wirkung der Oligonukleotide sowohl in einem unspezifischen Proliferations- als auch in einem Antisense-Assay, das zwischen sequenzspezifischen und sequenzunspezifischen Oligonukleotid-Wirkungen differenzieren kann. Für die VP1-Kapsoide wurde in den untersuchten humanen Brustkrebszelllinien eine identische Lokalisierung detektiert wie sie für die murinen Targetzellen beschrieben ist. Es kommt zu einer cytosolischen Anreicherung mit perinukleären. vesikulären Strukturen ohne nachweisbare nukleäre Lokalisierung. Die durch VP1-Kapsoide transportierten Oligonukleotide dissoziieren intrazellulär in einem Zeitraum von 3 h nahezu vollständig vom Transfersystem und reichem sich cytosolisch und nukleär an. Zur Testung der biologischen Aktivität der Antisense-Oligonukleotide wurden liposomaltransportierte Oligonukleotide verwendet, da die Beladungsrate der VP1-Kapsoide unter Mediumbedingungen zu gering ist. Im Proliferationsassay wird die Oligonukleotid-Wirkung anhand der resultierenden Proteinreduktion charakterisiert. Die geringe Spezifität dieses Assays wurde durch die Einführung von einer Kontrollzelllinie und Kontroll-Oligonukleotid-Modifikationen verbessert. Die im Proliferationsassay mit Antisense-Oligonukleotiden detektierten Oligonukleotid-Wirkungen beweisen noch nicht, ob eine sequenzspezifische Antisense-Wirkung vorliegt. Deshalb wurde die Sequenzspezifität der verwendeten Antisense-Sequenzen zusätzlich im Antisense-Assay bestätigt. Die etablierten Testsysteme stellen alle Optionen zur umfassenden Charakterisierung eines innovativen Transfersystems zur Verfügung. Die Transfer-Assays untersuchen den verbesserten Zelltransfer des Trägers gegenüber freien Oligonukleotiden und alternativen Trägern. Das Proliferationsassay ermöglicht ein Vorscreening auf Antisense-Wirkungen und reduziert somit die Probenanzahl für das letztendlich notwendige Antisense-Assay.
Aerosolpartikel sind in der Atmosphäre insbesondere für die Strahlungsübertragung und die Wolkenbildung von wichtiger Bedeutung. Aufgrund ihrer kurzen Lebensdauer, der Variabilität ihrer Quellen und Senken und ihrer Einbindung in den atmosphärischen Wasserkreislauf sind Partikel in allen ihren Eigenschaften sehr veränderlich. Die Zusammenhänge dieser Variabilität mit den meteorologischen Bedingungen und ihre Auswirkungen in der meteorologischen Anwendung sind bisher nur ungenügend durch Meßdaten belegt, so daß die Ergebnisse von Modellen, in denen die meteorologischen Wirkungen von Partikeln berücksichtigt werden (z.B. Klimamodelle), mit großen Unsicherheiten behaftet sind. Ziel dieser Arbeit war es, auf der Grundlage von Messungen einen Beitrag zur Charakterisierung der bodennahen troposphärischen Aerosolpartikel zu leisten. Im Hinblick auf die meteorologischen Anwendungen wurden die chemische Zusammensetzung und die Masse der Partikel in Abhängigkeit von ihrer Größe gemessen, da sie wesentliche Einflußgrößen für die Strahlungswirkung von Partikeln und die Wasserdampfkondensation in der Atmosphäre sind. Auf der Basis eines Datensatzes der physikalisch-chemischen Partikeleigenschaften und meteorologischer Meßgrößen wurde zunächst die Abhängigkeit der Partikeleigenschaften und ihrer Variabilität von den meteorologischen Umgebungsbedingungen analysiert sowie die Bedeutung der Variabilität der Partikeleigenschaften in der meteorologischen Anwendung untersucht. Dazu wurden Absorptionskoeffizienten der Partikel und Erwärmungsraten durch Absorption solarer Strahlung durch Partikel sowie das Wachstum der Partikel mit der relativen Feuchte in Abhängigkeit von ihrer chemischen Zusammensetzung berechnet. Die Messungen fanden während fünf drei- bis achtwöchiger Meßkampagnen 1991, 1993 und 1994 in Melpitz bei Torgau (Sachsen) und 1993 und 1994 auf dem Hohen Peißenberg (Oberbayern) statt. Mit einem Berner-Impaktor wurden die Partikel gesammelt. Es wurden die Konzentrationen der Gesamtmasse der Partikel sowie der Ionen in Abhängigkeit von ihrer Größe bestimmt. Die Rußkonzentrationen wurden mit einem Aethalometer gemessen. Parallel zu den Partikelmessungen fanden Messungen von Temperatur, relativer Feuchte, Windgeschwindigkeit, Windrichtung, Globalstrahlung und diffuser Himmelsstrahlung statt. Die Messungen liefern folgende Ergebnisse: Bei allen Messungen waren Nitrat, Sulfat und Ammonium die Hauptkomponenten der kleinen Partikel, und die Massenkonzentrationen der kleinen Partikel (0,04 µm < aed < 1,72 µm) waren wesentlich größer als die der großen Partikel (1,72 µm < aed < 21µm). Die Partikel sind also überwiegend anthropogener Herkunft. Die großen Partikel enthielten zusätzlich Natrium und Kalzium, lediglich bei einzelnen Messungen in Melpitz wurde auch Chlorid als Hinweis auf Seesalzpartikel gefunden. Die Massenkonzentrationen aller Partikelbestandteile waren in Melpitz in der Regel etwas größer als auf dem Hohen Peißenberg, da die Partikelkonzentrationen mit zunehmender Höhe abnehmen und da Melpitz näher an Ballungsräumen liegt als der Hohe Peißenberg. Die Unterschiede zwischen den verschiedenen Meßkampagnen an einem Ort sind jedoch größer als die zwischen den beiden Orten. Die Variabilität sowohl der Massenkonzentrationen der Partikelbestandteile als auch der Gesamtmasse liegt im Bereich von zwei Größenordnungen und ist damit wesentlich größer als die Unterschiede zwischen den Meßkampagnen. Der mittlere Anteil der löslichen Masse an der Gesamtmasse beträgt für die kleinen Partikel 57 %, für die großen 30 %. Dieser Anteil variiert sehr stark (10-100 % bzw. 5-80 %). Ruß hat einen mittleren Anteil von 5 % an der Gesamtmasse (1-18 %). Wesentliche Parameter, die zu Veränderungen der Partikeleigenschaften führen, sind: - Luftmassen unterschiedlicher Herkunft und Geschichte - Veränderungen der Mächtigkeit und Struktur der atmosphärischen Grenzschicht - Emissionen lokaler Quellen - lokale meteorologische Parameter (Temperatur, Windrichtung, -geschwindigkeit) Die unterschiedliche Häufigkeit und Ausprägung dieser Einflußfaktoren führt zu Unterschieden zwischen den Ergebnissen der einzelnen Meßkampagnen. Die einzelnen Faktoren sind nicht voneinander unabhängig, da durch die großräumige Wettersituation und die Luftmassen die Ausprägung der lokalen Parameter bestimmt wird. Um eine Zusammenfassung von Messungen unter vergleichbaren meteorologischen Bedingungen zu erreichen, wurde eine Klassifikation der Daten auf der Basis von Rückwärtstrajektorien vorgenommen. Es wurden fünf Klassen unterschieden: vier Klassen umfassen Richtungssektoren mit jeweils 90 ° um die Haupthimmelsrichtungen (Nord, Ost, Süd, West), einer fünften (X) werden kurze Trajektorien zugeordnet. Dieser Ansatz wurde gewählt, weil ähnliche Luftmassen und damit meteorologische Bedingungen hinsichtlich Temperatur, Feuchte, Stabilität und Luftbeimengungen meistens durch ähnliche Trajektorien gekennzeichnet sind, die eine Aussage über die Herkunft und den Weg der Luft ermöglichen, die wiederum für die Ausprägung der Partikeleigenschaften maßgeblich sind. Eine weitere Unterteilung nach Tageszeiten (morgens, mittags, abends) wurde vorgenommen, da einige Meßgrößen deutliche Tagesgänge zeigten. Die Ergebnisse lassen sich wie folgt zusammenfassen: Die Klassifikation der meteorologischen Meßgrößen liefert sowohl im Hinblick auf die Charakterisitika der Trajektorienklassen (Herkunft der Luft) als auch für die Tagesgänge meteorologisch sinnvolle Ergebnisse. Die Lage der Stationen in einer Ebene und auf einem Berg führt zu einer unterschiedlichen Ausprägung von Tagesgängen der Temperatur und der Windgeschwindigkeit besonders während stabiler Hochdruckwetterlagen. Es zeigt sich, daß bedingt durch die Entwicklung der Grenzschicht auf dem Hohen Peißenberg vor allem bei Hochdruckwetterlagen im Tagesverlauf in zwei verschiedenen Atmosphärenschichten gemessen wird. Die starke Streuung der lokalen Windrichtungen innerhalb einer Trajektorienklasse führt dazu, daß der Einfluß lokaler bzw. regionaler Quellen durch die Klassifikation nur bedingt erfaßt wird, und liefert einen Hinweis auf die lokale Wetterlage. Die Klassifikation der Partikelmeßdaten liefert meteorologisch sinnvolle Ergebnisse, da die Konzentrationsunterschiede zwischen den einzelnen Klassen mit der Wetterlage und dem Einfluß regionaler Quellen zu begründen waren. Die Absolutwerte ließen sich allerdings nicht vergleichen, und es wurden im Detail meßkampagnenspezifische Begründungen gefunden. Es ergab sich jedoch für alle Meßkampagnen die Unterteilung in Klassen mit antizyklonalen Wetterlagen und kontinentaler Luft mit hohen Konzentrationen (Klassen Ost, Süd, West) und zyklonalen Wetterlagen und maritimer Luft mit geringeren Konzentrationen (Klassen Nord, West). Abweichungen von dieser Einteilung waren vor allem mit der geographischen Lage der Meßorte zu begründen. Ausgeprägte Tagesgänge mit Maxima bei den Morgenmessungen ergaben sich nur für Nitrat, bei einigen Messungen auch für Chlorid in den kleinen Partikeln durch temperaturabhängige Gleichgewichtsreaktionen instabiler Partikelkomponenten mit der Gasphase sowie für Ruß durch die Anreicherung von Emissionen lokaler Quellen bei geringer Grenzschichthöhe. Während sich die mittleren absoluten Konzentrationen in den einzelnen Klassen erheblich unterscheiden, ist die mittlere relative chemische Zusammensetzung der Partikel in allen Klassen ähnlich; die Variabilität der Anteile ist aber ebenfalls sehr groß. Mit Ausnahme der Advektion von Seesalzpartikeln sowie der temperaturbedingten Verschiebung der Anteile von Nitrat und Sulfat, lassen sich Unterschiede zwischen den Klassen nicht mit den durch die Klassifikation erfaßten Einflußfaktoren oder geographischen Besonderheiten begründen. Durch die Klassifikation nimmt die Variabilität sowohl der meteorologischen Meßgrößen als auch der Partikeleigenschaften ab. Für die meteorologischen Meßgrößen verringert sich die Variabilität durch die Klassifikation nach Trajektorien weniger als durch die nach Tageszeiten, für die Konzentrationen der Partikelbestandteile und der Masse führt hingegen die Klassifikation nach Trajektorien zu einer größeren Verminderung der Variabilität als die nach Tageszeiten. Die Anwendung beider Klassifikationskriterien führt zu einer Abnahme der Variabilität um im Mittel 55 % für die meteorologischen Meßgrößen und um 50 % bzw. 25 % für die Konzentrationen der Bestandteile und der Masse der kleinen bzw. der großen Partikel. Die Variabilität der Werte in einer Klasse bleibt jedoch auch nach Klassifikation größer als Unterschiede zwischen den Klassen. Sie wird vor allem durch die spezifische meteorologische Situation bedingt. Um die Auswirkungen der Variabilität der Partikeleigenschaften in meteorologischen Anwendungen abschätzen zu können, wurden aus den Meßdaten der Absorptionskoeffizient der Partikel und die daraus resultierenden Erwärmungsraten sowie das Partikelwachstum mit der relativen Feuchte berechnet und wie die Meßdaten klassifiziert. Die Ergebnisse lassen sich folgendermaßen zusammenfassen: Für die Absorptionskoeffizienten der trockenen Partikel wurden Werte zwischen 0,1·10-6/m und 97·10-6/m berechnet. Für die beiden Meßkampagnen im Herbst (Melpitz 1993 und 1994) ergaben sich etwa um den Faktor 2 größere mittlere Absorptionskoeffizienten als für die Meßkampagnen im Sommer, die maximalen Absorptionskoeffizienten waren in Melpitz aufgrund der starken lokalen Quellen um den Faktor 2-3 größer als auf dem Hohen Peißenberg. Für die maximalen Erwärmungsraten wurden Werte zwischen 0,003 und 0,128 K/h, für die Gesamterwärmung über die Tageslichtperiode zwischen 0,02 K und 0,81 K berechnet. Die Partikel liefern in Abhängigkeit von den Umgebungsbedingungen selbst während Meßkampagnen an zwei ländlichen Orten in Mitteleuropa einen vernachlässigbar geringen bis deutlichen Beitrag zum Strahlungsantrieb. In Melpitz waren sowohl die maximalen Erwärmungsraten als auch die Gesamterwärmung im Mittel um den Faktor 1,5 geringer als auf dem Hohen Peißenberg, da die maximalen Absorptionskoeffizienten zu einer Zeit bestimmt wurden, als das Strahlungsangebot noch gering war, während auf dem Hohen Peißenberg die Maxima von Absorptionskoeffizient und Strahlungsangebot zeitlich näher zusammenliegen. Die Klassifikation nach Rückwärtstrajektorien ergab deutliche Unterschiede (Faktor 3-5) zwischen den einzelnen Klassen, da in Klassen mit den höchsten Rußkonzentrationen auch das Strahlungsangebot am höchsten war und in Klassen mit niedrigen Rußkonzentrationen meistens starke Bewölkung vorherrschte. Zwischen maximaler Erwärmungsrate und Gesamterwärmung über die Tageslichtperiode wird ein linearer Zusammenhang gefunden, der sich aber aufgrund der verschiedenen Tagesgänge des Absorptionskoeffizienten für die Meßkampagnen in Melpitz und auf dem Hohen Peißenberg unterscheidet. Sowohl für den exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung als auch für das Partikelwachstum bei fester relativer Feuchte ergeben sich im Mittel nur geringe Unterschiede zwischen kleinen und großen Partikeln sowie einzelnen Klassen durch die chemische Zusammensetzung des wasserlöslichen Anteils der Partikel. Unterschiede sind vielmehr durch den Anteil der wasserlöslichen Masse an der Gesamtmasse bedingt. Es ergibt sich ein linearer Zusammenhang zwischen dem exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung und dem Anteil der wasserlöslichen Masse an der Gesamtmasse der Partikel. Die Unterschiede zwischen den einzelnen Klassen lassen sich nicht auf einzelne meteorologische oder geographische Einflußfaktoren zurückführen. Sowohl für die Absorption solarer Strahlung als auch für das Wachstum der Partikel mit der relativen Feuchte ist die Variabilität der abgeleiteten Größen geringer als die der Ausgangsgrößen, sie ist aber immer noch mindestens so groß wie die Unterschiede zwischen den einzelnen Klassen. Zusammenfassend läßt sich festhalten, daß in dieser Arbeit ein Datensatz aus Messungen von meteorologischen Parametern und Partikeleigenschaften zusammengestellt wurde, der zusammen mit der Klassifikationsmethode nach Rückwärtstrajektorien und Tageszeiten eine Untersuchung der Zusammenhänge zwischen der Variabilität der Meßgrößen und den meteorologischen Bedingungen ermöglicht und eine Abschätzung der Auswirkungen der Variabilität der Partikeleigenschaften, insbesondere der chemischen Zusammensetzung, in meteorologischen Anwendungen zuläßt. Der Klassifikationsansatz nach Rückwärtstrajektorien ist prinzipiell geeignet, um die Abhängigkeit der Partikeleigenschaften von den meteorologischen Bedingungen zu beschreiben. Es ist jedoch nicht möglich, einen Einflußfaktor als den wichtigsten hervorzuheben oder sogar quantitative Beziehungen zwischen Partikeleigenschaften und meteorologischen Parametern herzustellen. Die Herkunft der Luft liefert einen Hinweis auf die zu erwartenden meteorologischen Bedingungen und Partikeleigenschaften, die lokale meteorologische Situation bestimmt jedoch die genaue Ausprägung der Meßgrößen. Eine Berücksichtigung des Einflusses der lokalen Wetterlage sowie lokaler bzw. regionaler Quellen könnte durch die Einbeziehung der Windrichtung vorgenommen werden. Auf der Basis längerer Meßreihen sollte überprüft werden, ob die Unterteilung in fünf Trajektorienklassen modifiziert werden muß. Der große Einfluß der spezifischen Wetterlage auf die Meßergebnisse führt dazu, daß die Ergebnisse von Meßkampagnen weder für einen längeren Zeitraum noch für ein größeres Gebiet repräsentativ sein können. Ebenso ist die Verwendung von Mittelwerten über längere Zeiträume ist nicht sinnvoll, da die Variabilität der Meßgrößen während eines Tages sowie von Tag zu Tag sehr groß ist. Aufgrund der komplexen Zusammenhänge zwischen Partikeleigenschaften und meteorologischen Bedingungen erscheint es unbedingt nötig, längere Meßreihen aller wichtigen Aerosoleigenschaften durchzuführen, damit statistisch belastbare Daten über eine hinreichend große Zahl von Messungen unter verschiedensten meteorologischen Bedingungen zu allen Jahreszeiten vorliegen, die Aussagen über Zusammenhänge mit Witterungsbedingungen, Tagesgänge, Jahresgänge aber auch die Vertikalverteilung der Partikeleigenschaften zulassen. Dabei ist es wichtig, alle interessierenden Größen gleichzeitig zu messen, da nur dann eine Untersuchung des Einflusses der Variabilität verschiedener Parameter auf die für die Anwendung wichtigen Größen möglich ist.
Untersuchungen zum technischen und teilchenoptischen Design kompakter Speicherringe für Ionen
(2002)
Die vorliegende Arbeit befasst sich mit der Berechnung und dem Bau von elektrostatischen Speicherringen. Eine solche Maschine kann als eine Kreuzung zwischen elektrostatischen Fallen und "klassischen" magnetischen Ringen angesehen werden. Kompakte Bauform, gute Zugänglichkeit der Elemente und vergleichsweise niedrigen Kosten werden mit hoher Flexibilität in Bezug auf mögliche Experimente kombiniert. Im 1. Kapitel werden zunächst die Unterschiede der Bewegung von Ionen in elektrostatischen und magnetischen Speicherringen untersucht. Die Massenunabhängigkeit der Teilchenbewegung bei gegebener Energie und Ladung in rein elektrostatischen Feldern erlaubt es, unterschiedlichste Ionen im Prinzip in direkter Folge in einen elektrostatischen Ring einzuschießen, ohne dass die Felder der optischen Elemente verändern werden müssen. Die Felder in den für einen Speicherring notwendigen Strahlführungskomponenten werden berechnet, die zugehörigen Bewegungsgleichungen aufgestellt und in linearer Näherung gelöst. Dabei werden zunächst die Bahnen einzelner Teilchen untersucht und dann das Strahlverhalten insgesamt durch Übergang auf einen Matrizenformalismus beschrieben. Die aus dieser Darstellung resultierenden Trajektorien stellen eine starke Vereinfachung dar. Die Untersuchung der realen Teilchenbewegung mit Einfluss von Randfeldern, Positionierungsfehlern und die Berechnung der dreidimensionalen Feldverteilung ist Gegenstand des 2. Kapitels. Ein kritischer Punkt bei der Bewegung von Teilchen in Ringbeschleunigern sind durch Feldfehler induzierten Resonanzerscheinungen. Zur Diskussion der verschiedenen möglichen Resonanzen werden im 3. Kapitel die Effekte durch zusätzliche Dipol- und Quadrupolfelder analysiert, dargestellt und schließlich anhand eines Resonanzdiagramms erläutert. In den geplanten Speicherring werden Ionen in einem einzigen Bunch, mit einer Ausdehnung von rund dem halben Ringumfang, injiziert. Ihre Lebensdauer hängt wesentlich von dem erzielbaren Vakuumenddruck ab. Die vorgesehenen Getterpumpen weisen eine sehr hohe Pumpleistung für die meisten Gase auf. Ihre Wirkungsweise wird im 4. Kapitel beschrieben und praktische Aspekte ihrer Handhabung diskutiert. Für den Betrieb eines Speicherrings ist es notwendig, die Parameter des umlaufenden Strahls zu jeder Zeit zu kennen und gegebenenfalls modifizieren zu können. Zentrales Element des Kontroll- und Diagnosesystems sind Strahlpositionsmonitore. In elektrostatischen Pickup-Elektroden induziert der Strahl beim Durchgang Spannungen über die eine Positionsbestimmung möglich ist. Die Wirkungsweise dieser Sonden wird in der zweiten Hälfte des 4. Kapitels diskutiert und Methoden zur Signalaufbereitung und -analyse beschrieben. Die allgemeinen Ergebnisse der Überlegungen zu elektrostatischen Speicherringen aus den ersten Kapiteln werden schließlich auf spezielle Fälle übertragen. Im Rahmen dieser Arbeit wurden verschiedene Entwürfe für einen elektrostatischen Speicherring angefertigt und ein Viertelringsegment zu Testzwecken entworfen und aufgebaut. Die Ergebnisse sind Inhalt des abschließenden 5. Kapitels. Mit den in dieser Arbeit vorgestellten Methoden ist es möglich, elektrostatische Speicherringe detailliert zu berechnen und an die experimentellen Rahmenbedingungen anzupassen. Sämtliche Rechnungen wurden im Hinblick auf den geplanten Bau eines Rings für Teilchen mit Energien bis 50 keV durchgeführt.
Weltweit stellen primäre und sekundäre metastatische Leberneoplasien die häufigste Todesursache onkologischer Patienten dar. Die Kontrolle eines Leberbefalls ist ein für das Überleben und die Lebensqualität dieser Patienten wichtiger Aspekt. Die chirurgische Leberresektion stellt z.Z. die einzige potentiell kurative Behandlung dar. In vielen Fällen jedoch ist eine Resektion nicht möglich. Bei diesen Patienten mit nicht resektablen Lebertumoren muß das Ziel eine maximal mögliche Kontrolle dieser Läsionen bei guter Lebensqualität sein. Hier kommen dann hauptsächlich chemotherapeutische sowie verschiedene lokoregionäre Therapiestrategien zur Anwendung. Diese Arbeit widmet sich der Untersuchung eines neu entwickelten Verfahrens im Rahmen einer prospektiven, offenen, multizentrischen Phase-II-Studie. Die hier zu untersuchende direkte selektive intratumorale Chemotherapie bietet die Möglichkeit höhere lokale Chemotherapeutikakonzentrationen bei geringerer systemischer Toxizität zu erreichen. Hierbei wird ein Cisplatin-haltiges lokal applizierbares Gel (Matrix Parmaceutical Inc., Fremont, CA) unter CT-Steuerung direkt in die Lebertumore injiziert. Adrenalin als vasokonstriktorisches Adjuvans erhöht desweiteren die langanhaltende Konzentrationssteigerung vor Ort gegenüber der systemischen Applikation. Im Rahmen dieser Studie wurden 17 Patienten mit nicht resektablen Lebermalignomen behandelt, hiervon 9 Patienten mit primärem HCC und 8 mit kolorektalen Lebermetastasen. Es handelte sich, besonders bei den Patienten mit kolorektalen Lebermetastasen, um unter Therapie progredientes oder rezidivierendes Tumorleiden. Die Behandlung bestand aus mehrfachen Gelapplikationen in etwa wöchentlichem Abstand. Zur Therapiekontrolle wurden vor und zu bestimmten Zeitpunkten nach den Behandlungen kontrastverstärkte Spiral-CT-Untersuchungen zur volumetrischen Messung von Tumor und Nekrose durchgeführt. Die Behandlung mit dem injizierbaren IntraDose® Gel wurde von den Patienten insgesamt gut toleriert und ist auch ambulant möglich. Zeichen einer Cisplatin-induzierten Toxizität traten nicht auf. In zwei Fällen zeigte sich jedoch eine weitere Verschlechterung der Leberfunktion, wenn diese initial bereits eingeschränkt war. Die Ergebnisse unserer Untersuchung unterschieden sich für die beiden Patientengruppen. Die Entwicklungen von Tumor- und Nekrosevolumen und die sich hieraus ergebenden Ansprechraten für die Patienten mit HCC deutlich vielversprechender. 75% der Patienten mit HCC zeigten ein Ansprechen auf die Therapie, hiervon wiesen 25% eine komplette, 50% eine partielle Remission auf; jeweils 12,5% zeigten einen Status idem bzw. eine Progression der behandelten Tumoren. Bei den Patienten mit kolorektalen Lebermetastasen ließ sich eine Ansprechrate von 28,6% (partielle Remission) erzielen, 71,4% der Patienten jedoch zeigten einen Tumorprogreß. Die ermittelten Überlebensdaten weisen auf einen möglichen Vorteil gegenüber nicht oder nur symptomatisch behandelten Patienten hin. Dieser Vorteil ist bei den Patienten mit den kolorektalen Metastasen stärker ausgeprägt als bei den Patienten mit HCC. Mit dem direkt intratumoral zu applizierenden IntraDose® Gel bietet sich eine minimal invasive, ambulant durchführbare Behandlungsoption für maligne nicht resektable Lebertumoren. Eine Wirksamkeit zur Behandlung maligner Lebertumoren bei guter Verträglichkeit konnte durch die vorgestellte Studie nachgewiesen werden. Hierbei waren die Ergebnisse bei den behandelten hepatozellulären Karzinomen besser als bei den kolorektalen Lebermetastasen. Die Ergebnisse, sollten in weiteren Studien mit größeren Patientenkollektiven überprüft werden, erst dann können mögliche Indikationen für die vorgestellte Therapie gefunden werden. Entsprechende Studien sind in Planung.
Die Leber spielt eine zentrale Rolle in der Entwicklung des Multiorganversagens nach Ischämie, Schock und Trauma. Hierbei nehmen die Veränderungen der Makrophagenaktivität, der Hepatozytenfunktion und der Mikrozirkulation eine besondere Stellung ein. Bisherige Untersuchungen zu dieser Thematik erfolgten meist mit Hilfe von in-vitro Methoden oder mittels der Intravitalmikroskopie. Ziel der vorliegenden Studie war, frühe Leberveränderungen nach hämorrhagischem Schock mit Hilfe der kontrastmittelverstärkten Magnetresonanztomographie zu erfassen. Im Kleintierexperiment wurde dazu die Makrophagenaktivität und die Gallesekretion der Leber 3 bzw. 24 Stunden nach hämorrhagischem Schock untersucht und mit den Ergebnissen der Intravitalmikroskopie bzw. der Gallesekretionmessung über den D. Choledochus verglichen. Zur Versuchsdurchführung wurden weibliche Sprague-Dawley Ratten mit 50 mg/kg Kg Pentobarbital narkotisiert. Zur kontinuierlichen Messung von Herzfrequenz, mittlerem arteriellen Blutdruck und zur Blutentnahme wurde den Tieren ein arterieller Katheter in die A. femoralis eingebracht. Über diesen erfolgte die Schockinduktion durch fraktionierte Blutentnahmen bis auf Werte von 40 ±5 mmHg. Diese hypotone Kreislaufsituation wurde über einen Zeitraum von 90 Minuten durch intermittierende Blutentnahmen konstant gehalten. Im Anschluß folgte eine dreistündige Reperfusionsphase mit Reinfusion von 60% des Shed-Blutes und Ringer-Laktat Lösung nach einem standardisierten Schema. Die randomisierte Aufteilung der Tiere erfolgte in 8 Gruppen: Zum einen wurden an zwei Sham und Schockgruppen kernspintomographische Untersuchungen im Anschluß an die Reperfusionsphase nach 3 bzw. 24 Stunden durchgeführt. Die Untersuchung erfolgte an einem Kleintierkernspintomographen mit einer 2,4T Magnetfeldspule (Bruker, Biospec, Germany). Mit Hilfe von ENDOREM (15µmol/kg KG i.v.) als Kontrastmittel wurde die Makrophagenaktivität der Leber untersucht, wobei Veränderungen der Signalintensität und Relaxationszeit in T2-gewichtetem Gewebe gemessen wurden. Gd-EOB-DTPA (200µmol/kg KG i.v.) diente zur kernspintomographischen Darstellung der Gallesekretion durch Signalintensitätsmessung in T1-gewichtetem Gewebe. Die Untersuchungssequenzen folgten dabei einem festgelegten Zeitablauf. Im Anschluß an die MRT wurden die Tiere laparotomiert und der linke Leberlappen auf einem speziellen Plexiglastisch zur intravitalmikroskopischen Untersuchung horizontal ausgelagert. Nach i.v. Gabe des Leukozytenfluoreszenzfarbstoffes Acridine Orange (1 µmol/kg KG) begann die Epifluoreszenzmikroskopie. Pro Versuchstier wurden fünf Lobuli für jeweils 30 Sekunden und fünf Zentralvenen als Standbilder aufgezeichnet. Diese Untersuchung diente der Auswertung der Leukozyten-Endothel-Interaktion und der Beurteilung der Mikrozirkulationsveränderungen nach hämorrhagischem Schock. In einer weiteren Versuchsreihe wurde an zwei Sham und Schockgruppen die Makrophagenaktivität mit Hilfe der Intravitalmikroskopie und die Gallesekretion durch quantitative Messung bestimmt. Hierzu wurden die Tiere 3 bzw. 24 Stunden postischämisch laparotomiert und ein spezieller Kunststoffkatheter in den D. Choledochus eingebracht. Über diesen wurde die Galle für eine Stunde abgeleitet und das Volumen bestimmt. Anschließend wurde wie in den vorherigen Gruppen, der linke Leberlappen zur Intravitalmikroskopie ausgelagert. Zur Darstellung der Makrophagenaktivität wurden Latexpartikel (3x108 Beads/kg KG) über einen Schwanzvenenzugang injiziert und fünf Lobuli nach 12 Minuten als Standbilder aufgezeichnet. Die Auswertung der makrohämodynamischen und klinischchemischen Parametern zeigte keine signifikanten Unterschiede, so daß von vergleichbaren Versuchsbedingungen ausgegangen werden kann. Hingegen zeigte die postischämische intravitalmikroskopische Auswertung nach dreistündiger Reperfusion eine signifikante Erhöhung der Makrophagenaktivität im periportalen und perizentralen Bereich gegenüber der Schockgruppe, wobei die Kernspintomographie im Gegensatz dazu nach Applikation von ENDOREM keine signifikanten Unterschiede bezüglich Signalintensität und T2-Relaxationszeit aufzeigte. 24 Stunden postischämisch konnten weder mittels Kernspintomographie noch mittels der Intravitalmikroskopie Veränderungen der Makrophagenaktivität nachgewiesen werden. Demgegenüber zeigte sich in der Schockgruppe mit Hilfe der MRT nach 24 Stunden eine signifikant verminderte Ausscheidung von Gd-EOB-DTPA, die mit Hilfe der quantitativen Gallesekretionsmessung über den D. Choledochus ebenfalls dargestellt werden konnte. Die Untersuchung der Mikrohämodynamik zeigte postischämisch eine signifikante Zunahme der temporären sowie der dauerhaft adhärenten Leukozyten im Reperfusionsverlauf. Ebenso wurde 24 Stunden nach Reperfusionsbeginn eine signifikante Verengung der Sinusoiddurchmesser, eine Abnahme des volumetrischen Blutflusses und eine Verminderung der Leukozytengeschwindigkeit gemessen. Die Ergebnisse dieser Studie zeigen, daß mit Hilfe der kontrastmittelverstärkten, nichtinvasiven Magnetresonanztomographie Funktionsstörungen der Hepatozyten nach hämorrhagischem Schock dargestellt werden können. Demgegenüber zeigte die Makrophagenaktivität kernspintomographisch keine Veränderungen im Vergleich zur Kontrollgruppe. Obschon sublobuläre Veränderungen nicht erfaßt werden können, ermöglicht die non-invasive Magnetresonanztomographie klinisch anwendbare Verlaufsuntersuchungen. Mit der weiteren Entwicklung spezifischer Kontrastmittel und Verbesserung der technischen Ausstattung kann diese klinisch etablierte Untersuchungstechnik weiter ausgedehnt werden.
In dieser retrospektiven Studie wurde die Ergebnisqualität des Rettungsdienstbereiches Frankfurt am Main bei präklinischen Reanimationen untersucht. Das untersuchte System versorgt etwa 650.000 Einwohner auf einer Fläche von 248,36 km 2 . In ei nem gestaffelten System waren 12 Rettungs (RTW) und 4 Notarztwagen (NAW) rund um die Uhr an der Notfallrettung beteiligt. Weitere W und KTW waren zu bestimmten Tageszeiten im Einsatz. Im Erfassungszeitraum wurden insgesamt 506 Reanimationen registriert, an dem der Rettungsdienst beteiligt war, von denen 447 die Einschlusskriterien (kardial bedingter Herzkreislaufstillstand, Alter >= 15 Jahre) erfüllten. 160 Patienten wurden nach Herzkreislaufstillstand (35,8%) in ein Krankenhaus transportiert, 112 Patienten (25,1%) hatten dabei nachweislich einen Spontankreislauf. 35 Patienten (7,8% von n=447) wurden aus dem Krankenhaus entlassen. Der primäre Reanimationserfolg war signifikant abhängig vom Alter der Patienten, dem EKG-Befund bei Reanimationsbeginn, dem Notfallort und der Tageszeit. Signifikant in Bezug auf das sekundäre Überleben erwiesen sich nur der initiale EKG-Befund und der Notfallort. Patienten mit Kammerflimmern und Patienten, die in der Öffentlichkeit einen Herzkreislaufstillstand erlitten, hatten eine signifikant höhere Überlebenschance. Das Geschlecht der Patienten und der Beginn einer Reanimation durch Anwesende hatten keinen signifikanten Einfluss auf primärem und sekundärem Reanimationserfolg. Die Zeit bis zum Eintreffen des ersten Rettungsmittels betrug im Median 6 Minuten. Ein Notarzt traf im Median nach 10 Minuten ein. Die Frankfurter Erfolge sind im Vergleich zur Literatur bezogen auf den sekundären Reanimationserfolg signifikant niedriger. Mögliche Gründe dafür sind: . der hohe Anteil von Patienten mit Asystolie . keine Frühdefibrillation durch RTW im Studienzeitraum . geringer Anteil von Anwesendenreanimationen . Infrastruktur der Großstadt Frankfurt Folgende Veränderungen könnten Schwachstellen ausgleichen und die Effektivität des Rettungssystems verbessern: - Umstellung von stationärem Notarztsystem (NAW) auf Rendezvoussystem (NEF) - Frühdefibrillation mit AED - ''First responder" - ''Public access defibrillation" - strengere Indikationsstellung zur Reanimation - bessere und intensivierte Breitenausbildung in Wiederbelebungsmaßnahmen - Anleitung zur Telefonreanimation durch Rettungsleitstelle
Proliferative Erkrankungen der Brust gehören zu den häufigsten Erkrankungen der Frau. Viele der Risiko- und Einflussfaktoren auf Brusterkrankungen stehen in engem Zusammenhang zu der endogenen oder exogenen Östrogenexposition. Da Steroidhormone eine proliferationsfördernde Wirkung auf das Epithel der Brustdrüse besitzen, wird ihnen eine Schlüsselfunktion bei der Pathogenese des Mammakarzinoms aber auch der benignen Brusterkrankungen zugeschrieben. Der Nachweis eines derartigen Zusammenhanges ist schwierig, da punktuelle Östrogenspiegelmessungen nicht die Langzeitexposition einer Frau darstellen und eine lange Latenzzeit zwischen Initiation und Erkrankungsmanifestation angenommen wird. Da Östrogen über eine vermehrte Produktion von ossären Wachstumsfaktoren und Zytokinen sowie über die direkte Stimulation von Osteoblasten auch eine anabole Wirkung am Knochen entfaltet, wurde die Bestimmung der Knochendichte als Indikator einer kumulativen Östrogenexposition postuliert. Während eine limitierte Zahl kontrollierter Studien, mit teilweise erheblichen methodischen Unterschieden bei der Bestimmung der Knochendichte, für Mammakarzinome sowohl erhöhte als auch erniedrigte Werte nachweisen konnten, finden sich bisher keine Untersuchungen über die Zusammenhänge zwischen Östrogen, Knochendichte und benignen Brusterkrankungen. Die vorliegende Fall-Kontroll-Studie untersucht daher an einem Kollektiv von 229 Frauen den Zusammenhang zwischen proliferativen Brustveränderungen und der Knochendichte, unter besonderer Berücksichtigung benigner Veränderungen. Eingeschlossen wurden 84 Frauen mit neu diagnostiziertem, histologisch gesichertem Mammakarzinom sowie 96 Frauen mit benigner Brusterkrankung. Als Kontrollgruppe dienten 49 Frauen ohne Erkrankungen der Brust. Die Knochendichtemessung wurde bei allen Probandinnen mittels Quantitativer Ultraschall-Osteodensitometrie (QUS) am Os calcaneus durchgeführt. Ermittelt wurden die Messparameter BUA (Breitband-Ultraschall-Abschwächung), SOS (Schalleitungsgeschwindigkeit) und SI (Stiffness-Index), welche die physikalischen Eigenschaften des Knochens, insbesondere seine Mineraldichte bestimmen. Weiterhin wurden mögliche Einfluss- und Risikofaktoren für die Entstehung proliferativer Brusterkrankungen (Alter, Gewicht, Menarchenalter, Menopausenalter, Gesamtstillzeit, Geburtenzahl, Östrogenexpositionszeit, Hormonersatz-therapie sowie familiäre Brustkrebsbelastung) mittels Fragebogen für alle Patientinnen erhoben. In unserer Studie wiesen die Karzinompatientinnen nach Altersadjustierung in allen Messparametern eine erhöhte Knochendichte im Vergleich zu den Patientinnen mit benignen Brusterkrankungen und den Kontrollen auf. Der Vergleich zwischen benignen Brusterkrankungen und den Kontrollen ergab hingegen keine Gruppenunterschiede bezüglich der Knochendichte. Um die Bedeutung weiterer östrogenabhängiger und -unabhängiger Faktoren zu untersuchen, führten wir Korrelationsanalysen zwischen unseren Messergebnissen und den erhobenen Risikofaktoren durch. Dabei konnte für die Parameter Alter, Menarchenalter, Hormonersatztherapie sowie die familiäre Karzinombelastung ein signifikanter Einfluss auf die Knochendichte nachgewiesen werden, wobei sich diesbezüglich keine Unterschiede zwischen den Karzinompatientinnen und den Patientinnen mit benignen Brusterkrankungen ergaben. Ein Erklärungsmodell für die Entstehung von benignen Brusterkrankungen ohne messbare Veränderung der Knochendichte könnte in der für diese Entität beschriebenen Imbalance zwischen relativ vermehrtem Östrogen bei vermindertem, proliferationshemmendem Gestagen bestehen. Weiter sind alternative und östrogenunabhängige Parameter mit Einfluss auf die Gewebe der Brust und des Knochens (z.B. Insulin-like-growth-factor I) zu diskutieren und bei zukünftigen Studien zu berücksichtigen. Die verwendete Methode der Quantitativen Ultraschall-Osteodensitometrie erreicht nach den Ergebnissen dieser Studie eine ausreichende Präzision und Reproduzierbarkeit und erscheint, nicht zuletzt aufgrund ihrer sehr geringen Kosten- und Patientenbelastung, für die Bearbeitung ähnlicher Fragestellungen empfehlenswert.
Die Messung von heteronuklearen 15N-Relaxationszeiten (Longitudinale, transversale sowie heteronukleare NOE) bei verschiedenen Magnetfeldstärken (500, 600 und 800 MHz 1H Larmorfrequenz) ergeben Informationen über interne dynamische Prozesse in Biomolekülen. Diese verschiedenen Relaxationsraten sind voneinander abhängig und über die spektrale Leistungsdichtefunktion miteinander gekoppelt. Die mikrodynamischen Parameter des NH-Peptidrückgratvektors (der Ordnungsparameter S2 und die effektive interne Korrelationszeit te) sowie der Beitrag des konformationellen Austausches zur transversalen Relaxationsrate der Austauschparameter Rex wurden für einige Proteine errechnet und angepaßt. Das Human ILBP gehört zur Familie der intrazellulären Lipidbindungsproteine (LBP), die in der Lage sind, Fett- und Gallensäuren spezifisch zu binden und in Cytosol zu transportieren. Viele verschiedene Typen von LBPs sind bis heute identifiziert worden. Diese Proteine enthalten 127 - 135 Aminosäurereste und werden nach dem Gewebe benannt, aus dem sie isoliert wurden. Human-ILBP enthält 127 Aminosäurereste und besteht haupsächlich aus 10 antiparallelen beta-Faltblattsträngen, die eine beta-Fassstruktur mit einer großen Bindungstasche bilden, und zwei alpha-Helices. ILBP hat die Tendenz, Gallensäuren oder Fettsäuren zu binden. Diese geringe Tendenz zur liganden Spezifität ist entweder in der Struktur oder in seiner Dynamik begründet. Aus diesem Grund kann die Untersuchung der Dynamik des Human ILBP (apo- und holo-Form) in zwei Zeitfenstern zum besseren Verständnis der Funktion führen. Für die nicht-terminalen Peptidrückgratgruppen wurde ein S2-Parameter> 0,8 mit einen Durchschnitt von 0,88 beobachtet, was auf eine niedrige Mobilität im ganzen Protein in einem Nano- zu Picosekunden-Zeitfenster deutet, wobei eine Korrelationszeit von tc = 6.25 ns für ILBP (apo-form) und tc = 6.10 ns für ILBP (holo-Form) beobachtet wurde. Apo- und holo-Form (mit Taurocholat als Ligand) zeigen eine ähnliche Dynamik in diesem Zeitfenster. Überdurchschnittliche S2-Werte der alpha-Helix I deuten eine geringe Flexibilität des Peptidrückgrats an, während alpha-Helix II als Teil der Portalregion eine höhere Beweglichkeit zeigt. Austauschparameter Rex wurden hauptsächlich in den Regionen der Ligandenbindung nachgewiesen. Die hier beschriebenen Eigenschaften unterscheiden sich von denen des H-FABP und des E-FABP. Offensichtlich unterscheiden sich verschiedene Mitglieder der LBP-Familie wie ILBP (Human oder Schwein), H-FABP und E-FABP in der Funktion und Dynamik des Peptidrückgrats. In der vorliegenden Arbeit wurden die transversalen 15N CSA/DD-kreuzkorrelierten Kreuzrelaxationsraten bestimmt. Für die Bestimmung der Anisotropie des chemischen Verschiebungstensors wurde des Verhältnis zwischen den Auto- und Kreuzrelaxationsraten in Abhängigkeit von der magnetischen Feldstärke genutzt, wobei es möglich war, die Orientierung und Größe des CSA-Tensors einzelner Aminosäurereste zu bestimmen. Bei dieser Methode (wie auch in vielen anderen Studien gezeigt) wurde keine Korrelation zwischen der Sekundärstruktur des Proteins und den 15N CSA-Werten festgestellt. Zum Vergleich der CSA-Konstanten der ILBP-Spezies wurden die entsprechenden Parameter der RNaseT1 gemessen. Alle Daten wurden im Hinblick auf strukturelle Details kritisch diskutiert.
Mechanismus der funktionell relevanten Kopplung von Kontaktallergenen in dendritischen Zellen
(2002)
Über die Signaltransduktion in Langerhanszellen, den antigenpräsentierenden Zellen der Epidermis, ist bisher nur wenig bekannt. Mit ein Grund dafür ist die schlechte Verfügbarkeit reiner Langerhanszellen aufgrund ihrer geringen Zahl und der schwierigen Präparation, die häufig schon zur Voraktivierung dieser Zellen führt. Humane unreife und reife dendritische Zellen erwiesen sich als geeignete Modellzellpopulation für kutane antigenpräsentierende Zellen. Mit Hilfe dieser Modellzellen wurde die Beteiligung von zentralen Signaltransduktionswegen nach Interaktion mit dem Kontaktallergen TNCB untersucht. 1. Zum ersten Mal wird gezeigt, dass TNCB in den ersten 10 Minuten nach der Haptenisierung bei dendritischen Zellen intrazellulär lokalisiert ist. Die Stimulation von DC mit dem starken Kontaktallergen TNCB führte zu einer Aktivierung der ERK1/2 MAP Kinase. Dieses Ergebnis entspricht der Vorstellung, dass starke Kontaktallergene in subtoxischen Konzentrationen zellulären Streß bei MAP Kinasen auslösen und somit zu einer für die Kontaktallergie typischen Antigenpräsentation führen. 2. Die Tyrosinphosphorylierung wurde bereits in vorausgegangenen Arbeiten (Kuhn, 1998; Brand, 2002) als Charakteristikum für haptenbehandelte Monozyten und humane dendritische Zellen herausgestellt. Diese Ergebnisse konnten mit humanen unreifen und reifen DC weitergeführt werden. Proteinbiochemisch ergab das Kontaktallergen TNCB ein spezifisches und reproduzierbares Muster hyperphosphorylierter Proteinbanden. Der gemessene Anstieg an Phosphotyrosin beruhte auf der gesteigerten Aktivität von Protein Tyrosin-Kinasen. 3. In weiteren Untersuchungen wurden Proteine massenspektrometrisch analysiert, die tyrosinphosphoryliert waren und gleichzeitig TNCB gebunden hatten. Es wurden drei Proteine identifiziert: Gewebstransglutaminase bei 74-80kD, Thyroidhormon Bindeprotein bei 58kD und Aktin bei 38kD. Nach Literaturrecherchen war die Transglutaminase am vielversprechendsten und wurde auf ihre Aktivität innerhalb der Kontaktallergen-induzierten Signaltransduktionskaskade hin untersucht. Drei strukturell verschiedene Stoffe, das Kontaktallergen TNCB, die Retinsäure (RA) und ein Phorbolester (PMA) induzierten eine starke, proteinbiochemisch meßbare Tyrosinphosphorylierung der ERK1/2 MAP Kinase. Aus der Literatur war die RA für eine Aktivierung der tTG bekannt (Antonyak et al., 2002) und PMA als Stimulator der ERK1/2 MAP Kinase (Chen et al., 2002; Lee et al., 2002) - aus diesem Grund wurden sie als Positivkontrolle mitgeführt. 4. Mittels Immunpräzipitation wurde der Nachweis, dass TNCB an die tTG bindet, erbracht. Dies war der erste Indikator für eine Bedeutung der tTG als Zielstruktur für ein Kontaktallergen. 5. TNCB, RA und PMA lösen eine gesteigerte Transamidierungsaktivität der tTG aus, die essentiell zur Induktion der ERK-Phosphorylierung ist. Dies wurde durch einen Transamidierungs Aktivitäts Assay bestimmt (Zhang et al., 1998), einem Nachweis der tTG Aktivität mittels Inkorporation von biotinylierten Polyaminen in lokale Proteine. 6. Sowohl die tTG Aktivität als auch die ERK-Phosphorylierung nach TNCB Stimulation konnten durch den spezifischen Inhibitor der Transamidierungsaktivität der tTG MDC gehemmt werden. Dies war ein zweiter Hinweis, dass die enzymatische Aktivität der tTG eine große Rolle spielt. Das gleichzeitige Ausbleiben der Transamidierung und der ERK-Phosphorylierung deutet auf den deutlichen Einfluß der tTG auf den Signaltransduktionsweg der ERK1/2 MAP Kinase hin. Analysen mit anderen starken Kontaktallergenen, wie z.B. Thiomersal und Chlormethylisothiazolon/ Methylisothiazolon bieten zukünftige Forschungsansätze zur weiteren Charakterisierung der funktionellen Bedeutung der tTG und des ERKWeges. Interessant wären auch Untersuchungen zur Hochregulation der tTGExpression in DC von 24-72 Stunden nach einer Inkubation mit TNCB, RA und PMA. Auch sind weitere Untersuchungen zur Signaltransduktionskaskade im Hinblick auf die erforderlichen, nachgeschalteten Elemente interessant, wie z.B. der von der tTG aktivierten Protein B Kinase AKT (Antonyak et al., 2002) sowie beteiligter Kinasen des ERK-Weges.
Die vorliegende Arbeit beleuchtete ein bisher in der Finanzwissenschaft weitgehend unbeachtetes Thema.: die Ausgaben für staatliches Personal. Der Fokus lag dabei auf den von den acht westdeutschen Flächenländern getätigten Ausgaben. Ziel war es, Gemeinsamkeiten und Unterschiede in der Entwicklung, der Höhe und der Struktur der Personalausgaben über einen Zeitraum von 26 Jahren, von 1970 bis 1996, herauszuarbeiten. Weiterhin wurden die insbesondere seit Mitte der neunziger Jahre verstärkten Aktivitäten der Länder zur Begrenzung bzw. dem effizienteren Einsatz der Personalausgaben untersucht. ...
Gegenstand dieser Arbeit war die Analyse der Komplexität von Kosten- und Erlösrechnungssystemen und ihrer Auswirkung auf die Auswahl geeigneter Instrumente für die EDV-gestützte Realisierung dieser Systeme, wobei insbesondere auf die bisherigen Ansätze der Datenbank- und Wissensuntersrutzung der Kosten- und Erlösrechnung eingegangen werden sollte. Das zweite Kapitel befaßt sich mit einer Analyse der Komplexität der in Deutschland am weitesten verbreiteten Kosten- und Erlösrechnungssysteme. Die Untersuchung der grundlegenden Gestaltungsmerkmale von Kosten- und Erlösrechnungssystemen auf ihre Komplexitätsrelevanz zeigte, daß einige Merkmale die Komplexität sehr stark beeinflussen, andere dagegen kaum, darunter auch in der betriebswirtschaftlichen Diskussion so wesentliche wie der verwendete Kostenbegriff. Den größten Einfluß auf die Komplexität von Kosten- und Erlösrechnungssystemen besitzen die Kosten- und Erlösstrukturierung sowie die Verarbeitungsarten, -methoden und -inhalte. Ein Vergleich der Grenzplankostenrechnung nach Kn.GER und FLAUT, stellvertretend Im überwiegend zweckmonistische Kostenrechnungssysteme, und der Einzelkostenrechnung nach RIEBEL als zweckpluralistischem Kosten- und Erlösrechnungssystem bezüglich der komplexitätsrelevanten Merkmale ergab eindeutige Unterschiede zwischen diesen Systemen. Während die Grenzplankostenrechnung polynomiale Platz- und Funktionskomplexitäten niedriger Grade (überwiegend quadratisch und nur im Rahmen der innerbetrieblichen Leistungsverrechnung kubisch) aufweist, treten in der Einzelkostenrechnung an mehreren entscheidenden Stellen exponentielle Komplexitäten auf. Die Analyse der Komplexität dieser beiden Kosten- und Erlösrechnungssystemen zeigt einen eindeutigen Zusammenhang zwischen vielseitiger Auswertbarkeit und der Komplexität eines Systems auf, der bei einer Beurteilung von Kosten- und Erlösrechnungssystemen berücksichtigt werden muß. Für die Gestaltung von Kosten- und Erlösrechnungssystemen bedeutet dies eine grundsätzliche Wahlmöglichkeit zwischen Systemen begrenzter Auswertbarkeit und niedriger Komplexität sowie Systemen mit größerer Auswertungsvielfalt, aber deutlich höherer Komplexität. Die Komplexität von Kosten- und Erlösrechnungssystemen ist jedoch nicht als eine Folge der Auswahl eines Rechnungssystems zu betrachten, sondern resultiert letztlich aus der Komplexität einer Unternehmung und ihrer Umwelt, die unterschiedlich detailliert abgebildet werden können. Da diese Komplexitäten in Zukunft eher noch zunehmen werden, ist grundSätzlich mit einem Trend zu universelleren und komplexeren Systemen zu rechnen. Die Erweiterung der Grenzplankostenrechnung hin zu größerer Komplexität sowie die Entwicklung neuerer Ansätze wie der Prozeßkostenrechnung bestätigen beide diesen Trend. Für die weitere Untersuchung wird vorausgesetzt, daß die Grenzplankostenrechnung und die Einzelkostenrechnung die entgegengesetzten Enden eines Komplexitätsspektrums von Kosten- und Erlösrechnungssystemen bilden und daher auch das Spektrum der Anforderungen an die Instrumente zu ihrer EDV-Implementierung begrenzen. Unter einer Anzahl von neueren Entwicklungen in der EDV wurden daher zwei Konzepte ausgewählt, die zur Behandlung verschiedener Aspekte der Komplexität geeignet sind: Datenbanksysteme zur Behandlung der Platzkomplexität und Wissenssysteme zur Behandlung der Funktionskomplexität. Im folgenden werden die Erfahrungen, die bei der Realisierung von Datenbank- und Wissenssystemen für die Kosten- und Erlösrechnung gemacht wurden, unter dem Gesichtspunkt der Komplexität von Kosten- und Erlösrechnungssystemen bewertet. Bei der Betrachtung von Datenbanksystemen ist zu berücksichtigen, daß sich im Laufe der Zeit zwei unterschiedliche Anwendungstypen herauskristallisiert haben: konventionelle Datenbankanwendungen, die den herkömmlichen Paradigmen von Datenbanksystemen entsprechen, und neuere Datenbankanwendungen, die z.T. wesentlich höhere Anforderungen stellen und so die Entwicklung neuer Datenbanksysteme erforderlich machten. Beide Systeme der Kosten- und Erlösrechnung eignen sich grundSätzlich als Datenbankanwendungen, d.h. sie rechtfertigen den Einsatz von Datenbanksystemen zur Verwaltung ihrer Datenmengen. Während die Grenzplankostenrechnung aber den konventionellen Datenbankanwendungen zuzurechnen ist, weist die Einzelkostenrechnung bereits wesentliche Merkmale neuerer Datenbankanwendungen auf. Im Gegensatz zu Datenbanksystemen sind die Anforderungen an Wissenssysteme und ihre Eigenschaften sehr unpräzise, z.T. sogar widersprüchlich formuliert. Auf der Basis der gängigen Eigenschaftskataloge erscheint die Kosten- und Erlösrechnung nicht als typische Wissenssystemanwendung. Trotzdem wurden bereits mehrere Wissenssysteme für Kosten- und Erlösrechnungsprobleme (Abweichungsanalyse, Betriebsergebnisanalyse, Bestimmung von Preisuntergrenzen, konstruktionsbegleitende Kalkulation und Teilprobleme der Prozeßkostenrechnung) realisiert, von denen jedes einige der Eignungskriterien für Wissenssystemanwendungen erfüllt. Die behandelten Beispiele für Wissenssysteme im Rahmen der Kosten- und Erlösrechnung basieren überwiegend auf der Grenzplankostenrechnung. Es ist daher anzunehmen, daß die Einzelkostenrechnung auf Grund ihrer höheren Komplexität weitere Anwendungsprobleme für Wissenssysteme enthält. Insgesamt sind jedoch die Unterschiede zwischen der Grenzplankostenrechnung und der Einzelkostenrechnung im Hinblick auf den Einsatz von Wissenssystemen wesentlich weniger ausgeprägt als dies für den Einsatz von Datenbanksystemen der Fall war. Nachdem beide Systeme der Kosten- und Erlösrechnung sowohl als Datenbankanwendungen geeignet sind als auch Anwendungsprobleme für Wissenssysteme aufweisen, ist auch die Verbindung von Wissenssystemen und Datenbanksystemen in Betracht zu ziehen. Daher wurde im Anschluß die jeweiligen Vor- und Nachteile von Datenbank- und Wissenssysteme gegenübergestellt. Die Vorteile von Datenbanksystemen liegen auf den maschinennäheren Ebenen, auf denen die Vorkehrungen für Datenschutz, Datensicherung, reibungslosen Mehrbenutzerbetrieb sowie die effiziente Ausführung der Operationen geschaffen werden. Die Vorteile von Wissenssystemen liegen in der größeren Mächtigkeit der Problemlösungskomponente, der Wissenserweiterungskomponente und der Erklärungskomponente. Ein neueres Beispiel für eine Zusammenarbeit von Datenbank- und Wissenssystemen ist die Auswertung eines speziell für derartige Zwecke angelegten Data Warehouse durch das Data Mining sowie andere Analysesysteme. Ein Data Warehouse stimmt in wesentlichen Merkmalen mit der Grundrechnung der Einzelkostenrechnung überein und zeigt, daß eine Grundrechnung auf der Basis heutiger EDV -Systeme realisierbar ist. Zur Auswertung einer Datenbank dieser Größe sind spezielle Analysesysteme notwendig. Für standardisierte Auswertungen eines Data Warehouse wurden OLAP-Systeme entwickelt, deren Operationen Verallgemeinerungen mehrdimensionaler Deckungsbeitragsrechnungen sind. Bei nicht standardisierbaren Auswertungen empfiehlt sich dagegen der Einsatz von Wissenssystemen, für den das Data Mining ein Beispiel liefert. Diese Kombination von Datenbanksystem, konventionellen und Kl-Auswertungen erscheint für eine Verwendung in der Kosten- und Erlösrechnung bestens geeignet. Das vierte Kapitel befaßt sich mit Ansätzen zur Strukturierung von Daten- und Wissensbasen, die bei Datenbanksystemen als Datenmodelle, bei Wissenssystemen als Wissensrepräsentationstechniken bezeichnet werden. Dabei wurde der Unterteilung des dritten Kapitels gefolgt und zwischen konventionellen und neueren Datenmodellen sowie Wissensrepräsentationstechniken unterschieden. Die Betrachtung des Relationenmodells als Vertreters der konventionellen Datenmodelle ergab, daß es für die Grenzplankostenrechnung völlig ausreicht. Die Erfahrungen mit der Realisierung einer Grundrechnung auf der Basis des Relationenmodells haben dagegen gezeigt, daß seine syntaktischen und semantischen Mängel zu weitgehenden Vereinfachungen beim Schemaentwurf zwingen, die wiederum die Operationen der Auswertungsrechnungen unnötig komplizieren. Aus der Vielzahl semantischer und objektorientierter Datenmodelle, die für neuere Datenbankanwendungen entwickelt wurden, hat sich trotz Unterschieden in Details eine Anzahl von Konzepten herauskristallisiert, die den meisten dieser DatenmodelIe gemeinsam sind. Mit Hilfe dieser Konzepte sind die Probleme, die bei der Verwendung des Relationenmodelis auftraten, vermeidbar. Im Grunde sind daher fast alle semantischen und objektorientierten Entwurfsmodelle zur ModelIierung einer Grundrechnung geeignet. Wichtig ist jedoch,daß die Grundrechnung auch mit einem Datenbanksystem realisiert wird, dem eines dieser Datenmodelle zugrunde liegt, da bei einer Transformation auf ein relationales Datenmodell wesentliche Entwurfsüberlegungen - und damit der größte Teil des Vorteils,den semantische und objektorientierte Entwurfsmodelle bieten -, verloren gehen. Zur Realisierung einer Grundrechnung erscheinen objektrelationale Datenbanksysteme am besten geeignet, da sie einerseits objektorientierte Konzepte mit mächtigen und komfortablen Anfragesprachen verbinden und andererseits aufwärtskompatibel zu den weitverbreiteten relationalen Datenbanksystemen sind. Da sich die objektorientierten Datenmodelle als für die Modellierung einer Grundrechnung geeignet erwiesen haben, wurden unter dem Gesichtspunkt der Verbindung von Datenbank- und Wissenssystemen nur objektorientierte Wissensrepräsentationstechniken in Betracht gezogen. Zwischen semantischen und objektorientierten Datenmodellen einerseits und objektorientierten Wissensrepräsentationstechniken, vor allem semantischen Netzen und Frames, andererseits bestehen weitgehende Übereinstimmungen. Daher können z.B. framebasierte Wissenssysteme direkt auf objektorientierten Datenbanksystemen realisiert werden. Inzwischen werden aber auch objektorientierte Programmiersprachen wie C++ oder Smalltalk zur Implementierung von Wissenssystemen verwendet, von denen die objektorientierte Sprache C++ am geeignetsten erscheint, da die meisten objektorientierten und objektrelationalen Datenbanksysteme eine C++-Schnittstelle aufweisen. Abschließend ist daher festzustellen, daß das Paradigma der Objektorientierung, das in Entwurfssprachen, Datenmodellen, Wissensrepräsentationstechniken und Programmiersprachen wesentliche Einflüsse ausgeübt hat, für die Realisierung der datenbankgestützten Grundrechnung eines zweckpluralistischen Kosten- und Erlösrechnungssystems wie der Einzelkostenrechnung sowie darauf aufbauender Auswertungsrechnungen, die z.T. als Wissenssysteme realisiert werden, wesentliche Vorteile besitzt. Über die adäquatere ModelIierung der Strukturen hinaus entsteht durch den Einsatz objektorientierter Techniken zum Entwurf und zur Implementierung aller System teile ein möglichst homogenes System, das nicht zusätzlich zu der inhärenten Komplexität noch weitere Probleme durch ungeeignete Darstellungskonzepte oder schlechte Abstimmung schafft.
Die Tricks und Schliche, mit denen Immobilienmakler arbeiten, um potentielle Interessenten über das Medium der Anzeigenwerbung zur Kontaktaufnahme zu bestimmen, sind äußerst vielfältig. Hierzu zählen zunächst die typischen Aufschneidereien, mit denen trickreich über die wirtschaftliche Bedeutung des Immobilienmaklers, seine Qualifikation und/oder Leistungsfähigkeit getäuscht wird; ferner Strategien, mittels derer die Maklereigenschaft des Inserenten verschleiert werden soll (sog. "maklerbezogene Irreführung"). Die Irreführungsgefahr ist in diesem Bereich besonders groß, weil eine Verifizierung der Werbeaussage für den Interessenten - wenn überhaupt - erst im Zuge einer ersten Kontaktaufnahme möglich ist. Entsprechendes gilt für Werbepraktiken, mit denen gezielt versucht wird, über vertragseingehungsrelevante Objektinformationen zu täuschen (sog. "objektbezogene Irreführung') Besonders auffällig ist in diesem Zusammenhang, daß Immobilienmakler - insbesondere was den Bereich der Preis- und Größenangaben angeht - häufig unzulässige Werbeangaben verwenden, die nicht nur besonders leicht zu überprüfen sind, sondern zudem auch völlig ungeeignet, etwaige Wettbewerbsvorteile auszulösen ("BagateUverstäße ~'). Überdies sind Werbestrategien auszumachen, mit denen - werbepsychologisch geschickt - versucht wird, potentielle Interessenten anzulocken, oder über gefühlsbetonte Appelle auf ihre Entscheidungsfreiheit absatzorientiert Einfluß zu nehmen. ... Ein Ende des "Absahnens durch Abmahnen" ist noch immer nicht in Sicht. Ungeachtet der Gesetzesänderungen in den Jahren 1986, 1994 und 2000 sind allein im Bereich der Immobilienwerbung derzeit ca. 15 Abmahn- und Gebührenvereine sowie weitere 17 (Schein-) Gewerbetreibende namentlich bekannt, die das Verfolgen von Wettbewerbsverstößen aktiv als Erwerbsquelle (Rechtsverfolgungskosten und Vertragsstrafen) betreiben; und die "Dunkelziffer" dürfte weitaus höher liegen! Genutzt, oder besser gesagt, ausgenutzt wird zu diesem Zweck in besonderem Maße das Abmahnverfahren, was insofern nicht weiter verwundert, als hier eine Darlegung der potentiellen Klagebefugnis ebenso wenig erforderlich, wie eine (gerichtliche) Prüfung - insbesondere auch was den Mißbrauchstatbestand angeht - vorgesehen ist. Besonders bemerkenswert ist in diesem Zusammenhang, daß sich die mißbräuchlichen Abmahnpraktiken fast ausschließlich gegen Bagatellverstöße (z.B. "ca.-Angaben", "Sonder- Afa", "Wfl/Nfl", etc.) richten, mithin gegen solche Wettbewerbsverstöße, die den Immobilienmaklern häufig in Unkenntnis oder aus bloßer Nachlässigkeit unterlaufen, den Schutzzweck des Wettbewerbsrechts nicht wirklich tangieren und (3) im Anzeigenteil leicht aufzuspüren und wegen ihrer Häufigkeit und Gleichartigkeit einfach zu verfolgen sind. ...
In der vorliegenden Arbeit wurde der Einfluß der Variation des Oxidationspotentials und der Elektronenkonfiguration ( * gegen n *) auf die zur Löschung von angeregten Triplettzuständen durch O2 führenden Prozesse untersucht. Bei ausreichender Triplettenergie werden neben dem Grundzustand des ursprünglich angeregten Sensibilisators in Konkurrenz O2(1 g ) und O2(1 g) Singulettsauerstoff sowie O2(3 g -) Grundzustandssauerstoff gebildet. Frühere Untersuchungen in diesem Arbeitskreis hatten gezeigt, daß es für * Triplettzustände zwei Desaktivierungskanäle gibt, die beide zu O2(1 g ), O2(1 g) und O2(3 g -) führen. Der eine geht von den bei der Löschung zunächst gebildeten 1,3(T1 3 ) Encounter Komplexen ohne Charge Transfer Stabilisierung aus (nCT). Diese befinden sich in einem vollständig eingestellten spinstatistischen Gleichgewicht, aus dem durch innere Konversion in niedrigere Komplexzustände die Desaktivierung erfolgt. Ein gemeinsames Energielückengesetzt f( E) und damit letztlich die Triplettenergie des Sensibilisators bestimmt die Größe der Geschwindigkeitskonstanten der zu O2(1 g ), O2(1 g) und O2(3 g -) führenden Prozesse in diesem nCT Kanal. Für Sensibilisatoren mit hohem Oxidationspotential und vernachlässigbaren Charge Transfer Wechselwirkungen ist dies der einzige Desaktivierungsprozeß. Mit zunehmender Charge Transfer Wechselwirkung, also mit abnehmendem Oxidationspotential und/oder zunehmender Triplettenergie, wird ein zweiter Desaktivierungskanal geöffnet, der über 1,3(T1 3 ) Komplexe mit Charge Transfer Stabilisierung (pCT) also über Exciplexe führt. Die Exciplexbildung ist der geschwindigkeitsbestimmende Schritt im pCT Kanal. Zur Verbreitung der Datenbasis den T1( *) Sensibilisatoren wurde in dieser Arbeit eine Reihe von mit elektronenziehenden bzw. elektronenschiebenden Gruppen substituierten Fluorenen studiert, bei denen im wesentlichen nur das Oxidationspotential variiert, während die Triplettenergien weitgehend konstant bleiben. Die mit den Fluorenen erhaltener Ergebnisse bestätigen das bisher erarbeitet Zweikanal-Desaktivierungsmodell. Insbesondere wird auch das spinstatistische Gewicht von 1:3 für die Bildung von Singulett zu Triplettsauerstoff im Exciplex Kanal gefunden, das nur mit einem relativ langsamen 1(T1 3 ) 3(T1 3 ) isc Gleichgewicht konsistent ist. Dieses Ergebnis widerspricht der früheren Annahme, wonach ein effizientes isc Gleichgewicht nur zwischen 1,3(T1 3 ) Exciplexen, nicht aber zwischen 1,3(T1 3 ) Encounter Komplexen existieren soll. In der vorliegenden Arbeit wird ein Modell für die 1(T1 3 ) 3(T1 3 ) angeregten Komplexe vorgeschlagen, das in einfacher Weise erklärt, warum das isc zwischen Encounter Komplexen von Sensibilisator und O2 schneller ist, als das zwischen den entsprechenden Exciplexen. Die weitere Analyse der Fluoren Daten zeigt, daß neben dem Oxidationspotential und der Triplettenergie des Sensibilisators auch dessen Struktur die Geschwindigkeitskonstanten beeinflussen kann, allerdings weitaus schwächer als die beiden ersten Einflußgrößen. Mit den Messungen der Geschwindigkeitskonstanten kT 1 , kT 1 und für kT 3 der zu O2(1 g ), O2(1 g) und O2(3 g -) führenden Prozesse für die unterschiedlich substituierten Benzophenonderivate wurde erstmals eine quantitative Untersuchung der Löschung von n * angeregten Triplettzuständen durch O2 durchgeführt. Obwohl für die Benzophenone eine stärkere Variation des Oxidationspotentials bei nahezu konstanter Triplettenergie erreicht werden konnte, wurde im Vergleich zu den * Triplettsensibilisatoren eine wesentlich schwächere Variation von kT 1 , kT 1 und für kT 3 beobachtet. Gleichzeitig liegen die Werte von kT 1 , kT 1 und für kT 3 der Benzophenone mit vernachlässigbarer Charge Transfer Wechselwirkung weit von der für * Triplettsensibilisatoren gefundenen Energielückenbeziehung f( E). Offenbar gilt für n * Triplettsensibilisatoren eine andere Energielückenbeziehung f( E), die viel schwächer von E abhängt. Es konnte gezeigt werden, daß die schwächere Überschußenergieabhängigkeit mit der unterschiedlichen Struktur der 1,3(T1.3 ) Komplexe zusammenhängt. Für 1,3(T1(n *) 3 ) ist eine Vierzentren Struktur, bei der die beiden Sauerstoffatome des O2 Moleküls parallel und benachbart zu den beiden Atomen der angeregten Carbonyl Gruppe liegen, sehr wahrscheinlich. Bei der Desaktivierung der Carbonyleinheit ändern sich die Bindungslängen der Vierzentrenstruktur stark, was einem Übergang zwischen versetzten Potentialkurven mit schwacher Energieabhängigkeit der Franck-Condon Faktoren entspricht. Für 1,3(T1( *) 3 ) Komplexe ist eine supra-supra Struktur anzunehmen, bei der die beiden Sauerstoffatome des O2 Moleküls mit gegenüberliegenden Kohlenstoffatomen eines angeregten aromatischen Rings wechselwirken. Bei der Desaktivierung des aromatischen Rings ändern sich die Bindungslängen nur wenig, so daß man von einem Übergang zwischen übereinander liegenden Potentialkurven mit stärkerer Energieabhängigkeit der Franck-Condon Faktoren sprechen kann. Dies ist der eigentliche Grund für die verschiedenen Energielückenbeziehungen f( E) und f( E) bei der Löschung von * und n * Triplettsensibilsatoren durch O2. Die Variation des Oxidationspotentials und damit der Stärke der Charge Transfer Wechselwirkungen in den 1,3(T1 3 ) Komplexen wird durch unterschiedliche Substitution von aromatischen Ringen mit elektronenziehenden oder elektronenschiebenden Gruppen bewirkt. Da die aromatischen Ringe bei den n * Triplettsensibilisatoren im Gegensatz zu den * Triplettsensibilisatoren nicht Bestandteil des elektronisch angeregten Zentrum sind, fallen die Charge Transfer Effekte bei den n * Triplettsensibilisatoren deutlich schwächer aus als bei den * Triplettsensibilisatoren. Damit konnte in der vorliegende Arbeit erstmals eine konsistente Begründung für das unterschiedliche Verhalten von n * und * Triplettsensibilisatoren bei der Löschung durch O2 gegeben werden.
Die rechtzeitige Diagnose und Behandlung kindlicher Katarakte ist von großer Wichtigkeit. Ein Hindernis in der visuellen Achse während der Periode sensorischer Vulnerabilität führt zur Amblyopie, insbesondere wenn diese innerhalb der ersten 3 Lebensmonate stattfindet.Wir untersuchten inwiefern sich das Wachstum der Augen je nach verschiedenen Kataraktformen verhält. In unserer Studie wurden retrospektiv die Krankenakten von 44 Patienten mit 58 erkrankten Augen ausgewertet, die im Zeitraum von 1992-1996 an der Augenklinik des Frankfurter Universitätsklinikums, Abteilung für Kinderaugenheilkunde, operiert wurden. Das Alter zum Zeitpunkt der Operation reichte in der Gruppe der 29 (50,0%) kongenitalen Katarakte von 1 Woche bis 10 Jahren, mit einem Durchschnitt von 2 Jahren und 5 Monaten. Die 16 (27,6%) Augen mit entwicklungsbedingter Katarakt waren in einem Alter zwischen 3 und 14 Jahren, mit einem Durchschnittsalter von 6 Jahren und 11 Monaten operiert worden, während das Alter zum Zeitpunkt der Operation bei den 13 (22,4%) traumatischen Katarakten von 3 Jahren und 4 Monaten bis 9 Jahren reichte, mit im Mittel 6 Jahren und 3 Monaten. Die Bulbuslängen veränderten sich in einem mittlerem Beobachtungszeitraum von 3 Jahren und 1 Monat bei den kongenitalen Katarakten um durchschnittlich 2,34 mm von 19,80 auf 22,14 mm, in der Gruppe der entwicklungsbedingten Katarakte um durchschnittlich 0,86 mm von 22,33 auf 23,19 mm und bei den Augen mit traumatischer Katarakt um durchschnittlich 1,53 mm von 21,95 auf 23,48 mm. Unsere mit dem U-Test nach Mann und Whitney durchgeführten Vergleiche ergaben, bis auf zwei Ausnahmen, keine signifikanten Unterschiede zwischen dem Bulbuslängenwachstum in den verschiedenen Alters- und Ursachengruppen. Als wichtig erwies sich jedoch das signifikant unterschiedliche Bulbuslängenwachstum von 1,52 mm im Vergleich der 18 Augen mit schlechter Sehschärfe (Augen mit einem Visus von 0,2 und darunter) zu den 34 Augen mit guter Sehschärfe (Augen mit einem Visus von 5,0 und darüber). Augen mit schlechter Sehschärfe zeigten ein signifikant höheres Längenwachstum als Augen mit guter Sehschärfe. Bei dem Vergleich der 14 kongenital beidseitig aphaken Augen zu den 13 entwicklungsbedingt beidseitig pseudophaken Augen zeigte sich ein signifikant höheres Wachstum von Augen mit kongenitaler Katarakt. Einschränkend auf dieses Ergebnis wirkt, dass die entwicklungsbedingte Katarakt in einem Alter entstanden ist, als die Phase mit dem größten Wachstumsschub der Augen schon vorüber war. Dadurch nimmt sie weniger Einfluß auf die Längenentwicklung des Auges als eine kongenitale Katarakt. Das Alter zum Zeitpunkt der Operation scheint der wichtigste Faktor für die Längenentwicklung des Augen zu sein. Eine kongenitale Katarakt mit ihrem frühen Operationszeitpunkt hat großen Einfluß auf die Längenentwicklung des Auges. Kongenital einseitig aphake Augen zeigten allgemein im Vergleich zu anderen Gruppen nach der Geburt und Operation häufig das größte Bulbuslängenwachstum. Die Früherkennung und frühest mögliche Behandlung einer kindlichen Katarakt sowie die Amblyopienachbehandlung sind neben einer erfolgreichen Operation für das Erreichen einer guten Sehschärfe von größter Bedeutung.
Um die Privatsphäre der Kinder und deren Eltern zu schützen, wurden die Fotos der Kinder aus dieser PDF-Datei entfernt. Interessierte Eltern oder Fachleute können die vollständige Arbeit als PDF-Datei (11 MB) zum Download bei http://www.leona-ev.de/piper/ oder chrispiper@freenet.de anfordern. Chromosomenstörungen gehören mit einer Häufigkeit von 1,8/1000 Neugeborene zu den häufigeren angeborenen Störungen. Die Mehrzahl der betroffenen Kinder stirbt bereits intrauterin in der Frühschwangerschaft, weil schon Nidation bzw. die frühe Embryonalentwicklung durch die Chromosomenstörung verhindert werden. Etwa 50% aller Spontanaborte sind durch eine Chromosomenstörung verursacht. Einige Chromosomenstörungen wie z.B. komplette Trisomie 14 oder 16 führen immer zu einem Abort, so daß keine die normale Schwangerschaft überlebenden Patienten bekannt sind. Bei den Trisomien 13 und 18 enden 95% der Schwangerschaften mit einem Abort, bei der häufigeren Trisomie 21 sterben 80% der Patienten intrauterin. Von den lebendgeborenen Kindern mit Chromosomenaberrationen sterben wiederum viele schon im ersten Lebensjahr, zumeist aufgrund schwerer Fehlbildungen, insbesondere Herzfehlern und Nierenfehlbildungen. Während der Phänotyp der häufigeren Chromosomenstörungen gut bekannt ist, gibt es bis auf die Trisomie 21 nur wenige Untersuchungen zu ihrem Verlauf. Systematische Daten zur psychomotorischen Entwicklung der Patienten, zu Komplikationen, zu möglichen Therapien sowie zur Effektivität der Therapien fehlen völlig. So wird auch heute noch in vielen Arztbriefen davon ausgegangen, daß Kinder mit Trisomie 13 oder 18 innerhalb der ersten Lebensmonate versterben und deshalb werden Therapien - wenn überhaupt - nur verzögert oder partiell eingeleitet. Darüber hinaus wird den Eltern durch die Prognose eines schnellen und frühen Todes ein Verlauf suggeriert, der im Einzelfall eben nicht eintreten muß. Die Beziehung zum Patienten, die Erwartungen an den Patienten sowie der Umgang mit dem Patienten, die gesamte Lebensplanung einer Familie und viele Dinge mehr werden dadurch in eine nicht gerechtfertigte Richtung gelenkt. Bei einigen Patienten führte falsche Voraussage eines „baldigen frühen Todes“ soweit, daß die Eltern und die Umgebung ständig darauf wartete, daß der Patient stirbt und die Diagnose von Eltern und Ärzten bezweifelt wurde als das Kind die ersten Lebensjahre überlebte. Mehrfach wurden deshalb Chromosomenanalysen wiederholt, um die Diagnose zu überprüfen. Gerade in unserer Zeit, in der die Intensivmedizin und die operativen Techniken auch Patienten mit komplexen Fehlbildungen ein Überleben ermöglichen, gibt es deshalb immer mehr Patienten mit Chromosomenstörungen, die ein höheres Lebensalter erreichen. Daraus folgt unmittelbar, daß mehr Daten über ältere Patienten mit Chromosomenstörungen gewonnen werden müssen, um bessere und individuellere Therapien zu entwickeln.
Zielsetzung der ultrarelativistischen Schwerionenphysik ist es, hoch verdichtete und stark erhitzte Kernmaterie (gemeint ist hierbei nicht nur die Materie der Atomkerne, sondern allgemein stark wechselwirkende Materie) im Labor zu erzeugen und deren Eigenschaften zu untersuchen. Gitter-QCD Rechnungen sagen bei einer kritischen Energiedichte von 1-2 GeV/fm3 einen Übergang der hadronischen Materie in eine partonische Phase, dem Quark-Gluon-Plasma, voraus. Neben anderen Observablen wurde die Seltsamkeitsproduktion als mögliche Signatur für den Materiezustand quasifreier Quarks und Gluonen vorgeschlagen. Im Vergleich zu elementaren Nukleon-Nukleon-Reaktionen beobachtet man in Schwerionenkollisionen generell eine Überhöhung der Seltsamkeitsproduktion. Inwieweit dieser Unterschied bei allen Schwerpunktenergie auf rein hadronische Phänomene zurückgeführt werden kann, oder ob partonische Gleichgewichtseffekte eine wesentliche Rolle spielen, ist derzeit eines der wichtigen Themen der Schwerionenphysik. Antworten auf diese Fragen erhofft man sich aus der Untersuchung der Energieabhängigkeit der Erzeugung seltsamer Hadronen. Die NA49 Kollaboration hat deshalb am CERN-SPS ein Energie-Scan Programm aufgelegt, in dem zentrale Blei-Blei-Kollisionen bei 40, 80 und 158 A·GeV untersucht wurden. In dieser Arbeit wird die Produktion von Lambda und Antilambda Hyperonen bei den drei verschiedenen Strahlenergien untersucht. Lambda Hyperonen, die 30-60% der produzierten s-Quarks enthalten, erlauben neben der Seltsamkeitsproduktion gleichzeitig auch den durch die kollidierenden Kerne erzeugten Effekt der Baryonendichte zu studieren. Das NA49 Experiment führt präzise Messungen des hadronischen Endzustands über einen weiten Akzeptanzbereich durch. Die geladenen Sekundärteilchen werden in vier hochauflösenden Spurdriftkammern gemessen. Neutrale seltsame Teilchen (Lambda, Antilambda und K0s) werden anhand ihrer Zerfallstopologie identifiziert. Die untersuchten Lambda Hyperonen werden über drei Rapiditätseinheiten um den Bereich zentraler Rapidität und mit Transversalimpulsen von 0,4 und 2,5 GeV/c gemessen. Die Temperaturparameter der Lambda und Antilambda Transversalimpulsverteilungen bei zentraler Rapidität sind für die drei Energien im Rahmen der Fehler gleich. Als Funktion der Schwerpunktenergie beobachtet man einen Anstieg des Lambda-Temperaturparameters, was durch eine Erhöhung des kollektiven transversalen Flusses erklärt werden kann. Erste Ergebnisse zur Proton-Produktion zeigen einen ähnlichen Trend. Die Rapiditätsverteilungen der Lambda sind breiter als die der Antilambda-Hyperonen. Die Lambda Rapiditätsverteilung verbreitert sich mit ansteigender Schwerpunktenergie von einer bei zentraler Rapidität konzentrierten Verteilung bei 40 A·GeV zu einem flachen Verlauf bei 158 A·GeV. Die Lambdas enthalten Beiträge der extrem kurzlebigen Sigma 0, die elektromagnetisch in ein Lambda und ein Photon zerfallen. Die in der Analyse selektierten Lambda und Antilambda sind aufgrund der gewählten Qualitätskriterien nahezu frei von Beiträgen mehrfachseltsamer Baryonen. Der systematische Fehler der Spektren konnte zu 9% abgeschätzt werden. Die Korrekturen und die Analyseprozedur wurden durch die Extraktion des K0s Mesons bei 158 A·GeV und den Vergleich dieser Ergebnisse mit denen der geladenen Kaonen überprüft. Man stellt eine gute Übereinstimmung fest. Zusammen mit Ergebnissen bei niedrigeren Energien läßt sich die Anregungsfunktion der Lambda und AntiLambda Hyperonen studieren. Während die Lambda Multiplizität bei mittlerer Rapidität nach dem Anstieg bei niedrigen Energien im SPS-Energiebereich leicht abfällt bzw. die totale Multiplizität saturiert, beobachtet man für die AntiLambda einen stetigen Anstieg als Funktion der Schwerpunktenergie. Das <Lambda>/<Pi>-Verhältnis in Kern-Kern-Kollisionen zeigt einen steilen Anstieg im AGS-Energiebereich mit anschließendem Maximum und einem Abfall bei SPS-Energien. Dagegen beobachtet man in Nukleon-Nukleon-Reaktionen eine Saturation dieses Verhältnisses bei etwa der höchsten AGS-Energie. Die Normierung auf die Pionen dient dem Vergleich der Produktionsraten in Kern-Kern-Stößen mit denen der elementaren Systeme und ist unabhängig von der Anzahl der beteiligten Nukleonen. Das Maximum des Lambda/Pi Verhältnisses liegt zwischen 10 und 40 A·GeV, wie es von statistischen Modellen vorhergesagt wird. Die Energieabhängigkeit des Lambda/Pi-Verhältnisses läßt sich dementsprechend gut mit dem Statistischen Modell von Cleymans, Redlich et al. beschreiben. Der generelle Trend des Lambda/Pi Verhältnisses wird von den mikroskopischen Modellen (UrQMD, HSD, RQMD) richtig wiedergegeben, wobei jedoch die Datenpunkte (besonders für 40 A·GeV) unterschätzt werden. Die Vorhersagen des UrQMD- und HSD-Modells für die Lambda Rapiditätsverteilung zeigen sehr gute Übereinstimmung mit den Daten. Die Diskrepanz im Lambda/Pi Verhältnis ist somit auf die überschätzte Pion-Produktion zurückzuführen. Die AntiLambda Produktion wird von dem UrQMD- und RQMD-Modell um mehr als einen Faktor zwei unterschätzt. Die Lambda und Antilambda Produktionsraten für alle drei Energien und die totale K0s Multiplizität bei 158 A·GeV fügen sich in einer statistischen Modellanalyse von Becattini in die Systematik der anderen Teilchen ein. Der Seltsamkeits-Saturationsfaktor gamma s zeigt keine große Änderung als Funktion der Energie. Das AntiLambda/Lambda Verhältnis bei mittlerer Rapidität, das den Paarproduktionsprozess widerspiegelt, steigt rapide von AGS- bis RHIC-Energien an. Der gleiche Trend ist für das ¯p/p Verhältnis beobachtbar. Das AntiLambda/¯p Verhältnis erlaubt das Zusammenspiel der Produktions und Annihilationsprozesse zu studieren. Im SPS-Energiebereich steigt dieses Verhältnis mit abnehmender Schwerpunktenergie leicht an. Die Ergebnisse der vorliegenden Arbeit wurden auf der Strange-Quark-Matter Konferenz 2001 [1] und der Quark-Matter Konferenz 2002 [2] vorgestellt und diskutiert.
Die Autorin behandelt am Beispiel Brasilien das universelle Thema der Gewalt gegen Frauen in einem international vergleichenden und interkulturell kommunikativen Zusammenhang. Wichtiges Anliegen ihrer Fallstudie zur Gewalt gegen Frauen ist deutlich zu machen, dass die kontextbedingt aktive Bewegung der Frauen wider Gewalt in Brasilien sich nicht nur von Aktionen und Diskursen aus dem internationalen Bereich inspiriert hat, sondern einen beachtenswerten eigenen Beitrag leistet, von dem auch andere Frauenbewegungen lernen könnten. Voraussetzung hierzu ist allerdings, dass in allen diesen Gesellschaften, denen innerhalb der stratifizierten globalen Zusammenhänge unterschiedlicher Status zugewiesen wird, ein interkulturell kommunikativer Lernprozess stattfindet. In der Einleitung zu dieser Studie wird auf die spezifische Problematik des Themas hingewiesen, die Untersuchungsmethode und die eigene Argumentationsweise vorgestellt, die eng mit der Motivation zur Behandlung des Themas verwoben ist. Im ersten Kapitel wird die Gewalt gegen Frauen als zugleich universales wie auch partikulares Problem diskutiert, und dementsprechend die divergierenden Definitionen der Gewalt gegen Frauen, die vielfältigen Ansätze zum Verständnis von Frauen aus verschiedenen Gesellschaften und schließlich die Vielfalt der Erfahrungen von Frauen gegenüber Gewalt im Licht der interkulturellen Kommunikation vorgestellt und kritisch analysiert. Im zweiten Kapitel werden die diskursiv analytischen Interpretationen der Gewalt gegen Frauen im Licht der interkulturellen Kommunikation behandelt. Die Autorin knüpft an das diskursive Modell der Bedürfnisinterpretation von Nancy Fraser an und wendet es als methodischer Ansatz zur Interpretation der Gewalt gegen Frauen an. Sie weist auf die gesellschaftspolitischen und kulturellen Grenzen dieses Modells (auf die nördliche Hemisphäre beschränkt) hin und versucht es im Lichte des Ansatzes von Patrick Dias zu interkulturellem Lernen im Kontext der international ungleichen Machtstrukturen kritisch weiterzuentwickeln. Das dritte Kapitel analysiert die relevanten gesellschaftlichen Bedingungen mit ihren diskursiven Konstruktionen zum Verständnis von Frauen und deren Stellung im spezifischen Kontext Brasiliens. Das vierte Kapitel stellt die brasilianische Frauenbewegung wider Gewalt gegen Frauen in ihren historischen Zusammenhängen dar: von ihren Anfängen über deren Strategien in den Achtzigern bis im ausgehenden zwanzigsten Jahrhundert hinein; und es schließt mit den Diskussionen im 21. Jahrhundert ab, die verstärkt unter der Metapher der Cidadania (Aufbau der Zivilgesellschaft) steht. Kapitel fünf fasst die Ergebnisse der Untersuchung zusammen und führt den in der Studie angewandten diskursiv analytischen Ansatz im Rahmen der interkulturell immer noch bestehenden herrschaftlichen Kommunikationsstruktur mit einem Plädoyer für ein interkulturelles Lernen, das die globalen Ungleichheiten nicht verkennt, weiter.
Einleitung und Zielsetzung: In der vorliegenden Arbeit sollte der Nachweis von TSH-Rezeptorantikörpern mittels eines Bindungsassays und JP26- Zellen erbracht werden. TSH-Rezeptorantikörper (TRAK) werden in Seren von vielen Patienten mit einer Autoimmunthyreoiditis entdeckt. Der in dieser Arbeit ausgewählte Radioimmunassay verwendet chinesische Hamster Ovarienzellen (CHO-Zellen), die humanen TSH-Rezeptoren exprimieren. Der Bindungsassay basiert auf dem Prinzip der Verdrängung von radioaktiv markiertem bovinem-TSH (Tracer) durch vorhandene TSH-Rezeptorantikörper im Patientenserum. Dabei ist es nicht entscheidend, ob es sich um funktionsblockierende oder funktionsstimulierende TRAK handelt. Der verwendete Bindungsassay gilt als einer der sensitivsten, kompetitiven Bindungsassays für die Detektion von TRAK und kann deshalb ein relevanter Verlaufsmarker bei Patienten mit Morbus Basedow und Hashimoto sein. Material und Methode: Die JP26-Zellen wurden ausgewählt, weil sie sich mit einer Anzahl von 2.000 TSH-Rezeptoren an ihrer Oberfläche gut mit der TSH-Rezeptordichte humaner Thyreozyten vergleichen lassen. Die verwendeten Patientenseren wurden unterteilt in 5 Gruppen: Gruppe 1: Morbus Basedow (n = 85), Gruppe 2: Kontrollgruppe (n = 76), Gruppe 3: Hashimoto-Thyreoiditis (n = 29), Gruppe 4: Andere Autoimmunerkrankungen (n = 14), Gruppe 5: Nicht-autoimmune Schilddrüsenerkrankungen (n = 38). Die Morbus Basedow-Gruppe wurde zusätzlich untergliedert in floride und länger als 9 Monate behandelte Gruppen sowie in TRAK positive und TRAK negative Gruppen: Gruppe 1A: floride und positive TRAK, Gruppe 1B: floride und negative TRAK, Gruppe 1C: behandelt und positive TRAK, Gruppe 1D: behandelt und negative TRAK. Die kultivierten JP26-Zellen wurden mit einer Zellanzahl von 300.000 Zellen / Well zusammen mit IMDM-Medium in 24-Lochplatten aufgeteilt. Am nächsten Tag wurden die in 5 %iger CO2-Atmosphäre bei 37°C inkubierten Lochplatten mit PBS gewaschen. Danach wurde 150 ml modifizierter KRB-Puffer, 50 ml Serum und 50 ml 125 I-bTSH in jede Vertiefung pipettiert. Die bestückten Lochplatten wurden diesmal bei 4°C über 24 Stunden inkubiert. Anschließend wurden die JP26-Zellen mit 0,5 ml 4 °C kalten KRB-Puffers gewaschen und mit 0,5 ml 1 N Natronlauge (NaOH) gelöst. Die verbliebene Radioaktivität wurde zuletzt im gamma-Counter gemessen. Ergebnisse: Gruppe 1: 31 %, Gruppe 2: 5 %, Gruppe 3: 17 %, Gruppe 4: 0 %, Gruppe 5: 16 %. Gruppe 1A: 80 %, Gruppe 1B: 0 %, Gruppe 1C: 36 %, Gruppe 1D: 14 %. Schlußfolgerung: Die Sensitivität der TRAK-Nachweise in der MB-Gruppe war entgegen aller Erwartungen niedriger als im Routinelabor. Dies lag vermutlich auch an einer sehr hohen Affinität des verwendeten bovinen-TSH-Tracers für TSH-Rezeptoren. Es fanden sich jedoch bemerkenswerte Ergebnisse in der Gruppe der Hashimoto- Thyreoiditis und der nicht-autoimmunen Schilddrüsenerkrankungen. In beiden Gruppen konnten in mehreren Seren ( 17 bzw. 16 % ) positive TRAK-Werte nachgewiesen werden. Daraus läßt sich schließen, daß die in vorliegender Arbeit angewendete Untersuchungsmethode eine höhere Sensitivität zum Nachweis von TRAK bei Hashimoto- Thyreoiditis besitzt. Gewichtige und neueste Studien, sowie Ergebnisse von Untersuchungen der gleichen Arbeitsgruppe, die sich mit zwei unterschiedlichen Assays zur Unterscheidung funktionsblockierender und funktionsstimulierender TRAK befaßt haben, stützen diese Aussage. Letztlich liegt der Schluß nahe, daß es sich bei den in diesen beiden Gruppen nachgewiesenen TSH-Rezeptorantikörpern, um überwiegend funktionsblockierende TRAK handelt. Dagegen erscheint zum TRAK-Nachweis, insbesondere funktionsstimulierender TRAK bei Morbus Basedow Patienten, die Anwendung einer auf kompetitiver Hemmung beruhende Untersuchungs-methode nur unzureichend sensitiv. Das in vorliegender Arbeit angewendete Verfahren eignet sich offenbar vergleichsweise besser zur Detektion funktionsblockierenden TRAK.
Mithilfe der klinischen Routinemethode, TRAK-Assay®, wurden bei Patienten TSH-Rezeptor-Antikörpern (TRAK) nachgewiesen, um die Diagnose M. Basedow zu erhärten oder auszuschließen. Diese Methode ist aber nur in der Lage die Gesamtheit aller TRAK zu erfassen. In dieser Studie wurde eine andere Methode, der cAMP-Assay verwendet, bei welchem Chinesische Hamster Ovarien (CHO)-Zellen eingesetzt wurden, die auf ihrer Oberfläche stabil exprimierte humane TSH-Rezeptoren besitzen, und welcher in der Lage ist, zwischen dem Vorhandensein von funktionsstimulierenden und funktionsblockierenden Antikörpern zu unterscheiden. Die Differenzierung zwischen diesen verschiedenen Antikörper-Typen kann wichtige Hinweise dafür liefern, warum das klinische Bild bei vielen Erkrankten nicht mit dem Vorhandensein oder der Höhe der TRAK korreliert und Anhaltspunkte über die Prognose über den weiteren Verlauf der Erkrankung geben. Große Patientenkollektive von insgesamt mehr als 300 Patienten wurden auf das Vorhandensein von TRAK im Serum untersucht, getrennt nach TRAK mit stimulierender und blockierender Funktion. Neben Patienten mit M. Basedow wurden in diese Studie auch Patienten einbezogen, welche an Hashimoto-Thyreoiditis, an einer anderen Autoimmunerkrankung, an nicht-autoimmunen Schilddrüsenerkrankungen oder an Thyreoiditis de Quervain erkrankt waren. Bei Patienten mit M. Basedow wurde außerdem der Einfluß der thyreostatischen Behandlungsdauer auf das Auftreten von TRAK mit stimulierender und blockierender Funktion untersucht. Material und Methode Es wurde die CHO- Zelllinie JP 26 verwendet. Die Zellen wurden kultiviert mit IMDM- Medium, 100 U/ml Penicillin, 100 U/ml Streptomycin, 5% FCS in einer 5%igen CO2-Atmosphäre bei 37°C. Für den cAMP-Assay wurden die Zellen in 96-Well-Platten angezüchtet. 24 Stunden später wurden die CHO-Zellen, nach Entfernung des Kulturmediums, zur Ermittlung funktionsstimulierender TRAK, mit 60 µl hypotonem KRB- Puffer, 20 µl IMBX (Isobutylmethylxanthine) und 20 µl Patientenserum für zwei Stunden inkubiert. Zur Ermittlung funktionsblockierender TRAK wurden 40 µl KRB, 20 µl IMBX, 20 µl Patientenserum und 20 µl TSH (Konz. 0,5 mU/ml) verwendet. Die cAMP-Konzentration wurde mittels eines kompetitiven Radioimmunoassays (BIOTRAK® cAMP) und eines Gamma-Counters gemessen. Ergebnisse Mit dieser Methode läßt sich zeigen, dass nicht nur bei Patienten mit M. Basedow signifikant hohe Titer mit funktionsstimulierenden und funktionsblockierenden Antikörpern vorhanden sind. Funktionsstimulierende TRAK wurden bei 25,7% der Hashimoto-Thyreoiditis-Patienten, bei 5,56% der Patienten mit schilddrüsenunabhängigen Autoimmunerkrankungen (M. Addison, Diabetes mellitus Typ 1) und bei 17,4% der Patienten mit nicht-autoimmunen Schilddrüsenerkrankungen detektiert. Funktionsblockierende TRAK waren in signifikanter Höhe bei 19,15% der Patienten mit Hashimoto-Thyreoiditis, bei 27,78% mit schilddrüsenunabhängigen Autoimmunerkrankungen und bei 50% mit nicht-autoimmunen Schilddrüsenerkrankungen aufzufinden. Die Gruppe der Thyroiditis-de Quervain-Patienten zeigte keine signifikanten Unterschiede im Vorkommen von Antikörpern zur Kontrollgruppe. In der Gruppe der M. Basedow-Patienten konnten bei 52,1% funktionsstimulierende Antikörper entdeckt werden. Bei den Patienten, welche weniger als vier Wochen thyreostatisch behandelt wurden, konnten in ca. 10% mehr Antikörper-positive Fälle detektiert werden, als bei Patienten mit einer Behandlungsdauer von mehr als neun Monaten. Nur 9,62% der M. Basedow-Patienten hatten laut cAMP-Assay TRAK mit blockierender Funktion. Diese verteilen sich ausschließlich auf Patienten, welche seit mindestens neun Monaten in thyreostatischer Behandlung waren. Der hier verwendete cAMP ist ein geeignetes Verfahren zur Differenzierung unterschiedlicher TRAK-Typen, was mit dem herkömmlichen TRAK-Assay® nicht möglich ist. In dieser Studie konnte gezeigt werden, dass Antikörper gegen den TSH-Rezeptor nicht nur bei Patienten mit M. Basedow vorkommen, sondern auch bei Patienten anderer Schilddrüsen- und Autoimmunerkrankungen. Es wird außerdem deutlich, dass eine thyreostatische Behandlung mit einer Dauer über neun Monaten bei M. Basedow-Patienten zum gehäuften Auftreten von funktionsblockierenden Antikörpern führt.
Ressourcennutzung und Sammelverhalten verschiedener Unterarten der Honigbiene Apis mellifera L.
(2002)
1998, 1999 und 2000 wurde der Polleneintrag am Südostrand des Taunus jeweils in den Zeiträumen Juni/Juli bis August/September von 20 (1998, 1999) bzw. 18 (2000) Honigbienenvölkern der europäischen Unterarten Apis mellifera mellifera, Apis mellifera carnica und Apis mellifera igustica sowie der südafrikanischen Unterart Apis mellifera capensis mittels Pollenfallen am Flugloch der Bienenstöcke auf 5 Standplätzen erfasst. Die Auswertung des Polleneintrags und dessen Vergleich zwischen den Unterarten erfolgte auf verschiedenen Ebenen. Zum einen wurden Ordinationsverfahren innerhalb der multivariaten Statistik zur Gesamtanalyse aller Pollenproben angewandt, die der graphischen Darstellung der Pollenspektren der Unterarten und der Ermittlung des Einflusses verschiedener Variablen auf den Polleneintrag dienten. Zum anderen bildete der Unterartenvergleich anhand verschiedener Parameter und berechneter lndices die Grundlage für die Analyse des Polleneintrags. In 647 Pollenproben mit einem Gesamtgewicht von 4008,3 g wurden 214 verschiedene Pollentypen und in geringen Mengen sieben weitere Nicht-Pollen-Bestandteile nachgewiesen. Die Pollentypen mit den höchsten Anteilen am Gesamteintrag waren Zea mays, Brassicaceae, Castanea sativa, Asteraceae Form T, Rosaceae, Plantago spec. und Hedera helix. 90% des Gesamteintrags stammten von 12% der insgesamt nachgewiesenen Pollentypen. Sowohl die untersuchten europäischen Unterarten als auch die südafrikanische Unterart wiesen ein einheitliches Sammelverhalten auf. Sie zeigten die Art-typischen Eigenschaften der Honigbiene, wie polylektische, generalistische und opportunistische Sammelweise sowie die Konzentration auf wenige ergiebige Pollenquellen. Die gesamten Pollenspektren stimmten zwischen den Unterarten weitgehend überein. Aus dem Vergleich der eingetragenen Pollenmenge, der Anzahl verschiedener Pollentypen, Diversität und Evenness sowie der Dominanzstruktur des Polleneintrags pro Pollenprobe konnte keine unterschiedlichen Sammelstrategie der Unterarten abgeleitet werden. Vor dem Hintergrund der Gemeinsamkeiten in Sammelverhalten und Ressourcennutzung wurden bei einer sehr detaillierten Betrachtung des Polleneintrags der vier untersuchten Unterarten der Honigbiene unter den Bedingungen eines diversen Pollenangebots Unterschiede im Eintrag zwischen den Unterarten von einzelnen Pollen- und Blütentypen festgestellt. Die geringen Unterschiede bewirkten einen geschätzten Anteil der Unterart an der Variabilität des Polleneintrags zwischen 1,4% und 4,5%, wobei sich die europäischen Unterarten entsprechend ihrer verwandtschaftlichen Beziehungen absetzten. Ein Zusammenhang der Vegetation und dem Polleneintrag in den Ursprungsgebieten der Unterarten mit dem Mehreintrag spezifischer Pollentypen im Untersuchungsgebiet ließ sich nicht herstellen. Schlussfolgerungen aus den Ergebnissen sind, dass das Sammelverhalten und die Ressourcennutzung kein Kriterium für die Bewertung verschiedener Unterarten der Honigbiene, insbesondere der in Mitteleuropa autochthonen Unterart Apis mellifera mellifera und der aus Südosteuropa eingeführten Unterart Apis mellifera carnica, darstellen. Für eine Beurteilung von Konkurrenz gegenüber anderen blütenbesuchenden Insekten und von Bestäubungsleistungen ist damit das generelle Sammelverhalten der Art Apis mellifera entscheidend.
In bestimmten methanogenen Archaea wurde vor einigen Jahren eine metallfreie Hydrogenase gefunden, die den reversiblen und stereoselektiven Transfer eines Hydridions von Wasserstoff auf die an den C1-Carrier Tetrahydroniethanopterin (H4MPT) gebundene Methenyl-Gruppe katalysiert. Damit stellt dieses Enzym den ersten und einzigen rein organischen Hydrogenierungskatalysator dar, den man in der Natur kennt. Ziel der vorgelegten Arbeit war die kristallographische Bestimmung der Enzymstruktur. Versuche zur Strukturlösung des in aktiver Form aus M. marburgensis isolierten Enzyms durch mehrfachen isomorphen Ersatz, über die anomale Dispersion an nicht-isomorphen Quecksilberderivaten und die des Selens an mit Selenomethionin markiertem Enzym verliefen nicht erfolgreich. Ursächlich hierfür war die perfekte meroedrische Zwillingsbildung der Kristalle. Für die beiden heterolog produzierten, inaktiven Apoenzyme aus den Hyperthermophilen M. jannaschii und M. kandleri wurden in dieser Arbeit effektive Expressions- und Reinigungsprotokolle entwickelt. Für das Enzym aus M. jannaschii wurden Mikrokristalle erhalten, die lediglich ein Proteolysefragment von etwa der halben Masse des Vollängenproteins enthalten. Kristalle des Enzyms aus M. kandleri konnten durch serielles Microseeding so weit verbessert werden, daß die Durchführung eines MAD-Experiment möglich wurde. Erst unter Verwendung vor kurzem entwickelter direkter Methoden (Shake-and-Bake) gelang die Strukturlösung bei einer Auflösung von 2.8 Å. Die Monomere bilden ein sehr eng assoziiertes Homodimer; zwei dieser Dimere sind zu einem locker assoziierten Tetramer verbunden. Jedes Monomer besitzt zwei Domänen. Die N-terminale Domäne von etwa 255 Resten besitzt eine Faltung, wie sie für Dinukleotid-bindende Enzyme typisch ist, mit einem zentralen, verdrehten achtsträngigen beta-Faltblatt. Die C-terminale Domäne von etwa 100 Resten besitzt dagegen weitgehend alpha-helikale Struktur und ist für die außerordentlich enge Assoziation des Homodimers verantwortlich. Beide Domänen sind durch eine gestreckte, flexible Verbindung verknüpft. Im Dimer entstehen dadurch zwei tiefe Spalten, die von Anteilen der N-terminalen Domäne eines und der C-terminalen Domäne des jeweils anderen Monomers begrenzt werden. Das aktive Zentrum liegt wahrscheinlich in dieser Spalte, wobei postuliert wird, daß der fest gebundene Cofaktor eher mit der größeren N-terminalen Domäne assoziiert ist und das Substrat zwischen den Domänen bindet. An der Bindung dürfte die C-terminale Domäne und möglicherweise auch direkt der Cofaktor beteiligt sein. Die Struktur zeichnet sich durch außergewöhnlich hohe Tenmperaturfaktoren ans. Für das Enzym aus M. marburgensis konnte eine Lösung durch molekularen Ersatz erhalten werden. Da der für die Katalyse benötigte, noch unbekannte Cofaktor nicht in der Struktur enthalten ist, ist eine weitergehende Diskussion des enzymatischen Mechanismus noch nicht möglich. Die Verfügbarkeit eines ersten Strukturmodells der metallfreien Hydrogenase stallt aber bereits einen entscheidenden Schritt auf dem Weg zum Verständnis dieses ungewöhnlichen Hydrogenierungskatalysators dar.
Die primäre Funktion der Haut ist die Abgrenzung des Körpers gegenüber der Umwelt, wodurch der Organismus vor destruktiven Einwirkungen (Xenobiotika, Mikroorganismen, UV-Licht) geschützt wird. Neben wichtigen sensorischen Funktionen ist die Haut außerdem beteiligt an der Regulation von Körpertemperatur sowie Wasserhaushalt und dient als wichtiges Sozialorgan. Da die Verletzung der Haut demnach schwerste Folgen für den Organismus hat, ist die Wundheilung ein essentieller Prozeß zur Aufrechterhaltung der Unversehrtheit der Haut. Der Prozeß der Wund heilung läßt sich in vier Phasen unterteilen (Koagulation, Entzündungsphase, Proliferationsphase, Remodellierungsphase), die zeitlich und räumlich überlappen (Moulin, 1995; Singer and Clark, 1999). ...
Das Photosystem II (PSII) und die F1Fo-ATP-Synthase, zwei Membranproteinkomplexen der Energieumwandlung, wurden im Rahmen dieser Dissertation bearbeitet. Mittels zweidimensionaler (2D) Kristallisation und elektronenkristallographischen Methoden sollte die dreidimensionale (3D) Struktur aufgeklärt werden. PSII katalysiert den ersten Schritt der Lichtreaktion der Photosynthese. Es ist für das Einfangen von Lichtquanten, die Anregung von Elektronen, die Freisetzung von Sauerstoff aus Wasser verantwortlich. Über 25 Untereinheiten sind an diesem Prozess in den Thylakoidmembranen der Chloroplasten beteiligt. Ziel des ersten Projekts war die Verbesserung der 8 Å-Struktur des CP47-RC-Subkomplexes durch neue oder bessere 2D-Kristalle. Die Aufreinigung aus Spinat lieferte reproduzierbar eine gute Ausbeute an aktivem PSII. Das solubilisierte PSII enthielt genug endogenes Lipid, um es ohne den Zusatz von weiterem Lipid direkt durch Mikrodialyse zu rekonstituieren. Während der Rekonstitution verlor der PSII-Komplex CP43 und andere Untereinheiten, wahrscheinlich durch das Detergenz begünstigt, und ergab hoch geordnete Membranen aus CP47-RC. Die besten vesikulären 2D-Kristalle hatten eine tubuläre Morphologie und waren bis zu 1 µm breit und 3 µm lang. Elektronenmikroskopische Bilder unter Cryo-Bedingungen von ihnen aufgenommen zeigten nach der Bildverarbeitung Daten bis 6 Å. Durch Erhöhung der Zinkazetatkonzentration im Dialysepuffer konnten dünne 3D-Kristalle gezüchtet werden, die aus 2D-Kristallstapeln bestanden. Obwohl Elektronenbeugungsmuster Reflexe bis 4,5 Å aufwiesen, konnte auf Grund der unbekannten und veränderlichen Anzahl von Schichten keine 3D-Struktur erstellt werden. Weitere Versuche die Qualität der 2D-Kristalle von CP47-RC zu verbessern waren nicht erfolgreich. Durch die kürzliche Veröffentlichung der Röntgenkristallstruktur des dimeren PSII-Komplexes aus Synechococcus elongatus wurden weitere Untersuchungen eingestellt. Im letzten Schritt der Energieumwandlungskette bildet die F1Fo-ATP-Synthase unter Ausnutzung eines elektrochemischen Gradienten schließlich ATP, die universelle Energieeinheit der Zelle. Die Struktur und Funktion des löslichen, katalytischen F1-Teils sind seit einigen Jahren im Detail bekannt. Im Gegensatz zeichnet sich die Struktur des membranintegrierten, Ionen-translozierenden Fo-Teiles aus den Untereinheiten ab2cx erst langsam ab. Der c-Ring besteht in Hefe aus 10 und in Spinatchloroplasten aus 14 Untereinheiten. Ziel des zweiten Projekts war die Aufklärung der 3D-Struktur des sehr stabilen, undecameren c-Rings aus dem Bakterium Ilyobacter tartaricus, welches Na als Kopplungsion nutzt. Große, tubuläre 2D-Kristalle mit einer Einheitszelle von 89,7 x 91,7 Å und p1-Symmetrie bildeten sich nach der Rekonstitution von gereinigten c-Ringen mit dem Lipid Palmitoyl-Oleoyl-Phosphatidylcholin, nachdem das Detergenz durch Mikrodialyse entzogen wurde. Bilder von in Trehalose eingebetteten 2D-Kristallen wurden im Elektronenmikroskop JEOL 3000 SFF bei 4 K aufgenommen. Ein 3D-Datensatz, bestehend aus 58 Bilder bis zu einem Kippwinkel von 45°, ermöglichte die Berechnung einer 3D-Dichtekarte mit einer Auflösung von 4 Å in der Membranebene und 15 Å senkrecht dazu. Die elffach symmetrisierte Karte eines c-Rings zeigt einen taillierten Zylinder mit einer Höhe von 70 Å und einem äußeren Durchmesser von 50 Å, der aus zwei konzentrischen Ringen von transmembranen (-Helices besteht. Ein C-(-Modell der c-Untereinheit, die eine helikale "hair pin" bildet, konnte in die Dichte eingepaßt werden. Die inneren Helices sind nur 6,5 Å (Zentrum-zu-Zentrum-Abstand) von einander entfernt um eine zentrale Öffnung von 17 Å Durchmesser angeordnet. Die dichte Helixpackung wird durch ein konserviertes Motiv aus vier Glycinresten ermöglicht. Jede innere Helix ist mit einer äußeren, C-terminalen Helix über einen kurzen, wohl geordneten Loop auf der cytoplasmatischen Seite verbunden. Die äußere Helix weist in der Nähe der Ionenbindungsstelle einen Knick auf, der gleichzeitig in der Mitte der Membran liegt, wo sich die äußeren und inneren Helices am nächsten kommen. Dadurch wird es möglich, dass die Ionenbindungsstelle aus den Resten von zwei äußeren (Glu65, Ser66) und einer inneren Helix (Pro28) geformt wird. Zur Unterstützung der Ein-Kanal-Modell der Ionentranslokation konnte ein Zugang von der Ionenbindungsstelle zum Cytoplasma durch polare Reste in der c-Untereinheit vorgeschlagen werden. Des Weiteren kann spekuliert werden, dass drei Ionenbrücken zwischen den c-Untereinheiten für die hohe Temperaturstabilität des Oligomers von I. tartaricus verantwortlich sind. Die Vorstellung dieses 3D-Modells des c-Rings ist ein erster Schritt hin zum Verständnis der Kopplung der Ionentranslokation an die Rotation der F1Fo-ATP-Synthase. Wenn die Struktur der a-Untereinheit gelöst worden ist, wird hoffentlich auch der Mechanismus des kleinsten, biologischen Rotationsmotors entschlüsselt werden.
Wolinella succinogenes reduziert Fumarat mit H2 oder Formiat als Elektronendonor. Der Elektronentransport wird von der membranständigen Hydrogenase oder Formiat-Dehydrogenase und der Fumarat-Reduktase katalysiert. Redoxmediator zwischen beiden Enzymen ist Menachinon. Der Elektronentransport ist mit der Erzeugung eines elektro-chemischen Protonenpotentials (Dp) gekoppelt. Ziel dieser Arbeit war, den Mechanismus der Dp-Entstehung durch Rekonstitution der gekoppelten Fumarat-Atmung in Liposomen aufzuklären. Aus Wolinella succinogenes isolierte Hydrogenase und Fumarat-Reduktase wurden in Liposomen eingebaut, die Menachinon enthielten. Die resultierenden Proteoliposomen kataly-sierten die Reduktion von Fumarat mit H2. Die Wechselzahl der Enzyme im Elektronentrans-port von H2 zu Fumarat war etwa 10 % von der in Bakterien. In den Proteoliposomen waren sowohl Hydrogenase als auch Fumarat-Reduktase ausschließlich nach außen orientiert. Elektronenmikroskopische Aufnahmen zeigten, dass die Proteoliposomen sphärische Vesikel mit einem mittleren Außendurchmesser von 88 nm waren. Die Proteoliposomen enthielten statistisch 8,4 Hydrogenasemoleküle und 72 Fumarat-Reduktasemoleküle. Alle aktiven Enzymmoleküle waren in der Proteoliposomenmembran zufällig verteilt eingebaut und nahmen am Elektronentransport von H2 zu Fumarat teil. Der aus dem Protonenpermeabilitätskoeffizienten (PH = 8,1·10-3 cm·s-1) berechnete unspezifische Protonenfluß über die Proteoliposomenmembran war etwa 20mal langsamer als der durch den Elektronentransport von H2 zu Fumarat katalysierte Protonenfluß. Während der Fumarat-Reduktion mit H2 entstand ein elektrisches Protonenpotential über der Proteoliposomenmembran (Dø = -0,19 V; innen negativ), das die gleiche Richtung und Größe hatte wie das Dø während der Fumarat-Atmung in Zellen von W. succinogenes. Der H /e--Quotient für die Fumarat-Reduktion mit H2 war in Proteoliposomen in Gegenwart von Valinomycin und externem K etwa 1. Das gleiche Dø und der gleiche H /e--Quotient waren mit der Reduktion von 2,3-Dimethyl-1,4-naphthochinon (DMN) durch H2 verbunden, wenn die Proteoliposomen Menachinon und Hydrogenase mit oder ohne Fumarat-Reduktase enthielten. Proteoliposomen, die Menachinon und Fumarat-Reduktase mit oder ohne Hydrogenase enthielten, katalysierten die Reduktion von Fumarat durch DMNH2, die aber nicht mit der Entstehung von Dp gekoppelt war. Proteoliposomen, die Formiat-Dehydrogenase, Menachinon und Fumarat-Reduktase enthielten, katalysierten die Reduktion von Fumarat oder DMN durch Formiat. Beide Reaktionen erzeugten über der Proteoliposomenmembran ein Dø von -0,13 V (innen negativ). Der H /e--Quotient der Formiat-Oxidation durch Menachinon oder DMN war nahezu 1. Die Entstehung von Dø war von der Art des in die Proteoliposomen eingebauten Chinons abhängig. Während der Reduktion von DMN durch H2 entstand ein Dø, wenn die Proteoliposomenmembran Menachinon, Vitamin K2 oder das aus W. succinogenes isolierte Methylmenachinon enthielt. Proteoliposomen ohne Chinon oder mit Vitamin K1 erzeugten kein Dø während der DMN-Reduktion mit H2. Die Fumarat-Atmung mit H2 war nur in Gegenwart von Menachinon oder Vitamin K2 mit der Entstehung von Dø gekoppelt. In dieser Arbeit wurde erstmals die gekoppelte Fumarat-Atmung mit aus W. succinongenes isolierten Elektronentransportenzymen in Lipsomen rekonstituiert. Die Ergebnisse bestätigen die Hypothese, dass das durch die Fumarat-Atmung erzeugt Dp ausschließlich durch die Menachinon-Reduktion mit H2 oder Formiat entsteht, während die Menachinol-Oxidation mit Fumarat ein elektroneutraler Prozeß ist.
Endogene Retroviren des Schweines (PERV), die vertikal auf die Nachkommen vererbt werden, stellen ein potentielles Infektionsrisiko bei der Transplantation porziner Zellen, Gewebe oder solider Organe auf den Menschen (Xenotransplantation) dar. Bislang sind zwei PERV- Klassen des C-Typs bekannt, die in-vitro humane Zellen produktiv infizieren können. Voraussetzung einer produktiven Infektion ist neben dem Rezeptor-vermittelten Eindringen des Virus in die Wirtszellen die transkriptionelle Aktivität des retroviralen Promotors (LTR), welcher die zweite Determinante des Wirtstropismus darstellt. Mittels eines Luciferase Reportergen Assays wurde die Aktivität verschiedener PERV LTRs in humanen und anderen Säugerzellen im Vergleich zu bekanntermaßen starken Promotoren untersucht. Dabei zeigten LTRs, welche in der die Transkription regulierenden Region U3 eine aus 39-bp Repeats bestehende Repeatbox trugen, in nahezu allen getesteten Zellinien eine außerordentlich starke Promotoraktiviät. Diese wurde insbesondere durch die Repeatbox vermittelt und korrelierte direkt mit der Anzahl der 39-bp Repeats. Wie weiterführende Untersuchungen zeigten, konnte die Aktivität heterologer und Repeat-loser homologer Promotoren durch eine 4-fach 39-bp Repeatbox unabhängig von deren Lage und Orientierung über weite Distanzen hinweg signifikant erhöht werden. Die Repeatbox stellt damit einen klassischen Enhancer dar. Als die Transkription regulierende zelluläre Komponente konnte der ubiquitäre, in der Evolution konservierte Transkriptionsfaktors NF-Y identifiziert werden, dessen Bindung an Sequenzabschnitte des 39-bp Repeats nachgewiesen wurde. Weitere cis-aktive Elemente konnten in der U3 Region stromaufwärts der Repeatbox sowie in der R Region lokalisiert werden. Im Verlauf einer seriellen Passagierung in infizierten humanen Zellen erfolgte eine rasche Adaptation der Repeatzahl und damit der transkriptionellen Aktivität an den neuen Wirt. Wie die Ergebnisse einer neu etablierten quantitativen Real- Time PCR zeigten, korrelierte die Anzahl der von einer infizierten Zelle freigesetzten Viruspartikel direkt mit der Aktivität der LTR. Durch Adaptation der LTR Aktivität kann somit eine maximale, für die Wirtszelle verträgliche Virusproduktion erfolgen. Ausgehend von den beschriebenen Eigenschaften der PERV LTR ergeben sich für die Xenotransplantation spezifische Risiken, die Infektion des möglichen Transplantatempfängers vorausgesetzt. Diese betreffen durch mögliche Aktivierung von Protoonkogen oder Disruption zellulärer Gene den Empfänger selbst, durch die mögliche Rekombination von PERV mit humanen endogenen Sequenzen oder anderen exogenen Erregern und der Ausbildung potentiell hochpathogener Formen aber auch sein soziales Umfeld. Wie in-vitro Studien mit zwei routinemäßig in der Transplantationsmedizin eingesetzten Immunsuppressiva belegen, werden diese Risiken durch deren unvermeidlichen Einsatz im Falle einer Xenotransplantation nicht potenziert. Ausgehend von der starken transkriptionellen Aktivität Repeat-tragenden LTRs könnten diese geeignete Werkzeuge für molekularbiologische Anwendungen darstellen, bei denen, wie im Falle des Gentransfers oder der Gentherapie, starke Promotoren benötigt werden. In einem zweiten Projekt der vorliegenden Arbeit sollte untersucht werden, ob die Expression des humanen endogenen Retrovirus HERV-K in einem transgenen Mausmodell Auswirkungen auf den Phänotyp der Tiere hat. HERV-K kodiert im Gegensatz zu den meisten anderen HERV-Familien für komplette virale Proteine, deren Bedeutung für den menschlichen Organismus jedoch weitgehend unbekannt sind. Zur Etablierung transgener Tiere waren zwei verschiedene Transgen-Konstrukte verwendet worden, von denen eines die komplette provirale Sequenz exklusive der LTRs beinhaltete, das andere lediglich das env-Gen. Für beide Konstrukte war die Etablierung homozygot transgener Tiere gelungen, der Nachweis der RNA Expression konnte jedoch nur bei jenen Linien erfolgen, die das komplette virale Genom trugen. Immuno Blot-Analysen und indirekte Immunfluoreszenz belegten die Expression viraler Proteine in verschiedenen Organen juveniler und adulter Tiere dieser Linien. Die transgenen Mäuse zeigten einen normalen Phänotyp und einen normalen Lebenszyklus mit einer unveränderten Reproduktionsrate. Eine auftretende Tumorgenese konnte stets auf das hohe Alter der betroffenen Tiere zurückgeführt werden, histologische oder anatomische Auffälligkeiten traten nicht auf. Ausgehend von diesen Beobachtungen in einem Tiermodell kann der Schluß gezogen werden, daß die HERV-K Expression im humanen Organismus keine große Bedeutung hat.
In der vorliegenden Dissertation wurden Antikörperfragmente, um sie zu oligomerisieren, an alpha-Helixbündel rekombinant fusioniert und die Fusionsproteine sowie deren Produktion untersucht. Dabei wurde durch Fusion eines Fv-Antikörperfragmentes an das trimere alpha-Helixbündel "Coil-Ser" das Fusionsprotein "Fv7E2-CS" entwickelt. Wegen der Fusion an Coil-Ser liegt das Ev-Fragment selbst in trimerem Zustand vor und kann auch sein Antigen, eine Cytochrom-c-Oxidase aus Paracoccus denitri/icans, binden und dadurch trimersieren. Antikörper gehören zur Immunabwehr der Wirbeltiere und sind Proteine, die in den Organismus eingedrungene, fremde Moleküle als "Antigene" spezifisch binden. Im momentan stark expandierenden Forschungsgebiet des "Antikörper-Designs" werden Antikörper und ihre Fragmente modifiziert, was besonders für die Entwicklung medizinischer Diagnostiken und Therapien vielversprechend ist. Eines der vielen Ziele ist die Steigerung der Bindungsaffinitäten, was unter anderem über die Vervielfältigung der natürlichen Bindestellen innerhalb eines künstlichen Antikörpermoleküls erreicht werden kann. Weiterhin möchte man Bindestellen gegen unterschiedliche Antigene in einem einzigen Antikörpermolekül vereinen, um dem Antikörper komplexere Funktionsfähigkeiten zu verleihen. Beide Ziele können durch Oligomerisierung der bindenden Antikörperfragmente verwirklicht werden. Zur künstlichen Oligomerisierung von Antikörperfragmenten wurde, neben anderen Strategien, die rekombinante Fusion an alpha-Helixbündel bereits einige Male erfolgreich angewandt. alpha-Helixbündel bestehen aus zwei bis etwa acht alpha-helikalen, längsseitig miteinander oligomerisierenden Peptidketten und können auch in natürlichen Proteinen als Oligomerisierungseinheiten fungieren. In der vorliegenden Dissertation wurden drei Fv-Antikörperfragmente und ein SchwerkettenAntikörperfragment mit drei verschiedenen alpha-Helixbündeln in unterschiedlichen Kombinationen rekombinant fusioniert und anschließend ihre Produktion und Funktion untersucht. Als Helixbündel zum Einsatz kamen das heterotetramere alpha-Helixbündel des neuronalen "SNARE"-Komplexes, die homo- als auch mit "Fos" heterodimerisierende Helix des AP-1-Transkriptionsfaktors ".Jun" und das synthetische, antiparallel homotrimerisierende Peptid "Coil-Ser". Die Expressionsprodukte vieler Fusionen konnten in Zellaufschlüssen mit Western Blots gefunden werden, nur einige aber ließen sich mit Affinitäts-Chromatographie in geringen Mengen (<0,1 mg/L Kultur) anreichern. Andere Produkte, bzw. bei einigen Fv-Fragmenten die Untereinheiten mit Peptid, waren durch die Fusion in ihrer Produktion deutlich gestört bis gar nicht vorhanden. Alle drei an Coil-Ser fusionierten Ev-Fragmente ließen sich in Mengen bis 0,5 mg/L Kultur anreichern. In der Gelfiltration zeigten sie sich mit vollständig assoziierten Untereinheiten, als auch mit vergrößerter, apparenter Molmasse im Vergleich zu den Fv-Fragmenten ohne fusioniertes Peptid. Von zweien der Coil-Ser-Fv-Fragmente konnte Antigenbindung beobachtet werden und davon bei Fv7E2-CS die Entstehung eines Fv-Antigen-Komplexes mit einer gegenüber dem ursprünglichen Antigen-Komplex sehr stark vergrößerten apparenten Molmasse. Mit analytischer Ultrazentrifugation wurde die Oligomerisierungsfähigkeit von Fv7E2-CS näher untersucht und für das ungebundene Fv-Fragment sowie für seinen Antigen-Komplex eine Massenkomponente mit im Vergleich zum jeweiligen Monomer dreifacher Molmasse gefunden. Für die Probe des Fv7E2-CS alleine wurde dabei ein Anteil an Komponenten trimerer Größenordnung von gut 95% ermittelt, also nahezu Homogenität, und in der Probe des Antigen-Komplexes zu 35 - 50 % Komponenten trimerer, sonst monomerer Größenordnung. Die Ursache für den niedrigeren Anteil an trimeren Komponenten in der Probe des Komplexes könnte hauptsächlich das hier vorhandene Detergenz sein, welches für das als Antigen fungierende Membranprotein Cytochrom-c-Oxidase nötig ist. Denn schon für das Fv7E2-CS alleine wurde in Kontrollen mit Detergenz eine Verringerung des Anteils an trimerer Komponente bzw. seiner mittleren Molmasse festgestellt. Das Fv-Fragment Fv7E2 ohne Peptid als auch dessen Antigen-Komplex zeigten in der Ultrazentrifuge keine bzw. nur unbedeutende Anteile an trimeren Massenkomponenten. Die Experimente deuten somit daraufhin, daß durch die Fusion des trimerisierenden Peptides Coil-Ser an Fv7E2 sowohl die Trimerisierung des Fv-Fragmentes, als auch bei Bindung des Antigens dessen Trimerisierung bewirkt wird. Das alpha-Helixbündel Coil-Ser ist folglich potentiell in der Lage, als Oligomerisierungseinheit für Fv-Antikörperfragmente eingesetzt zu werden. Wegen der aus Röntgenstrukturanalysen bekannten und für in Lösung prognostizierten Antiparallelität der Peptide im Coil-Ser-Bündel werden für die drei Fv-Fragmente bzw. die drei Bindestellen im Coil-Ser-Fusionsprotein einander entgegen-gesetzte Orientierungen vermutet, was für spätere Anwendungen von Bedeutung ist.
An der chemischen Synapse des Nervensystems führt ein präsynaptisches Aktionspotential zur Freisetzung eines Neurotransmitters, der über den synaptischen Spalt diffundiert und an die Rezeptoren der postsynaptischen Membran bindet. Die ionotropen Rezeptoren sind an dieser Membran zu Clustern aggregiert. Entstehung und Dynamik dieser Rezeptoraggregate sind für Funktion und Plastizität der Synapse essentiell. Für die Aggregation der inhibitorischen Glyzin- und der meisten Subtypen der GABAA-Rezeptoren ist das periphere Membranprotein Gephyrin notwendig. Es ist ein Schlüsselfaktor für die Genese und Aufrechterhaltung der glyzinergen postsynaptischen Membran. Dabei bindet es direkt an den GlyR und verbindet diesen über die Bindung von Mikrotubulie an das Zytoskelett. Auch andere Bindungspartner wurden nachgewiesen. Gephyrin ist in einer zweiten Funktion in die Synthese des Molybdän-Cofaktors involviert und weist Sequnezhomologien zu Proteinen anderer Spezies auf, die in diesen Syntheseweg eingebunden sind. Gephyrin ist ubiquitär exprimiert und wird alternativ gespleißt. Möglicherweise existieren verschiedene Varianten mit unterschiedlichen Funktionen. Die Untersuchung der Domänen und Bindungseigenschaften Gephyrins ist daher für das weitere Verständnis über Aufbau und Funktion der Synapse unerlässlich. In dieser Arbeit wurde ein Testsystem etabliert, mit dem sowohl heterolog exprimiertes als auch natives Gephyrin über die hoch-affine Bindung an den GlyR aufgereinigt werden konnte. Mit diesem System konnten erstmals unterschiedliche Varianten Gephyrins nachgewiesen werden. In verschiedenen Organen der adulten Ratte wurden dabei Gephyrinmoleküle mit Molekulargewichten zwischen 52 und den bekannten 93 kDA identifiziert. Auch Bestandteile des GlyR-Komplexes lassen sich mit dieser Methode anreichern. So wurde gezeigt, daß Gephyrin und Collybistin in einem trimeren Komplex mit dem GlyR vorliegen können. Hiermit ist es künftig möglich, in einem proteomischen Ansatz weitere aus dem GlyR-Konmplex anzureichern und zu identifizieren. Mit dem gleichen System wurde auch die Bindungsregion Gephyrins für den GlyR gefunden. Diese diskontinuierliche Bindungsstelle wird aus einer a-Helix der Aminosäuren 164 bis 184, sowie aus hydrophoben Resten gebildet, die von Aminosäure 15 bis 163 unregelmäßig über den gesamten N-Terminus Gephyrins verteilt sind. Zur Bindung an den GlyR werden beide Elemente benötigt. Das kleinste GlyR-bindende Gephyrinfragment erstreckt sich somit über die Aminosäuren 1-184. Mit einem Kosedimentationsassay wurde die Bindung Gephyrins an Mikrotubuli untersucht. Es stellte sich heraus, daß die vermutete Bindungsstelle nicht zur Bindung an Mikrotubuli benötigt wird. Vielmehr ist der C-terminale Abschnitt Gephyrins hierzu ausreichend. Um Regionen Gephyrins zu finden, die die Autoaggregation vermitteln, wurden Bindungsstudien mit dem Zwei-Hybrid-System und ein heterologes Expressionssystem in Zellkulturen durchgeführt. Es wurde gezeigt, daß sowohl die N- als auch der C-terminal gelegene Bereich in der Lage sind, mit Gephyrin zu aggregieren. Im C-Terminus wurde die Domäne auf 62 Aminosäuren eingegrenzt. Zur Erfüllung der verschiedenen Funktionen Gephyrins sind die hierfür notwendigen Domänen offensichtlich in modularer Art organisiert. So lässt sich durch alternatives Spleißen eine Variante exprimieren, die den speziellen Erfordernissen der Zelle gerecht wird. In dieser Arbeit wurden mehrere Domänen und Regionen Gephyrins eingegrenzt, deren Aufgaben von der GlyR-Bindung über die Autoaggregation zur Bildung glyzinerger Proteinkomplexe und der Verknüpfung mit dem Zytoskelett reichen. Somit konnte ein Beitrag zum weiteren Verständnis über die glyzinerge Synapse geleistet werden.
The light-harvesting chlorophyll a/b protein complex (LHC-II) is the major collector of solar energy in all plants and it binds about half of the chlorophyll in green plants. LHCII is a trimer in the photosynthetic membrane; each monomer consists of 232 amino acids, binds and orients a minimum of 12 chlorophyll molecules and three caroteinoids (two luteins and one neoxanthin) for light-harvesting and energy transfer. Although, the structure of LHC-II has been determined at 3.4 Å resolution by electron microscopy of two-dimensional crystals (Kühlbrandt et al., 1994), this is not sufficient to allow a complete understanding of the mechanism of energy transfer from LHC-II to the reaction centre, since the effective resolution in the z dimension is 4.9 Å. In fact, the chemical difference between Chl a and Chl b, which has a formyl group instead of the methyl group at the 7-position in the chlorin ring, is too small to be detected at this level of resolution. In addition, the orientation of the chlorophyll tetrapyrroles have not been determined unambiguously. This information is essential for a detailed understanding of the energy transfer within the complex and to the reaction centres of photosystem II and I (PSII and PSI). X-ray crystallography of three dimensional (3D) crystals may yield a more complete structure at high resolution. 3D crystals have been grown from LHC-II isolated from pea leaves using a standard purification procedure (Burke et al., 1978). The thylakoid membranes are solubilised in Triton X-100 and further purified by sucrose gradient ultra centrifugation. The LHC-II fraction is salt precipitated and pellets resuspended at the chlorophyll a/b ratio 2.8 mg/ml in 0.9 % Nonyl-glucoside. Crystals are currently obtained by vapour diffusion in hanging drops. These crystals are thin hexagonal plates, have a fairly large unit cell and diffract quite weakly. The high level of the background is due both to the detergent, necessary for protein solubilisation, and lipids, required for the trimer and crystals formation. However, three data sets, each from one single crystal have been collected up to 3.2 Å resolution over a rotation range of 135°. The crystals were exposed to a very highly collimated and brilliant beam (ID-14 EH1 at ESRF, Grenoble, France) and were kept under a stream of cold nitrogen to prevent radiation damage. Data were successfully integrated using the program XDS by Kabsch (1993). The crystals were found to belong to the space group P6 22 3 and have unit cell dimensions of a=128.45, b=128.45, c=135.32, a= ß=90º, ?=120. The solution of the phase problem was tackled by molecular replacement using, as a search model, the LHC-II structure solved by electron cryo-microscopy studies of twodimensional crystals (Kühlbrandt et al. 1994). Three different programs were tested: the most used AMoRe (Navaza et al., 1994) and the brute force based program Brute (Fujinaga
Die vorliegende Arbeit zur Theorie, Praxis und fremdsprachlichen Didaktik der Fachsprache der Chemie geht auf meine unterrichtspraktische Tätigkeit auf dem Gebiet Deutsch als Fremdsprache in fachsprachlich ausgerichteten Kursen der Dublin City University zurück, In der täglichen Praxis des Unterrichtens wurde mir zunehmend deutlich, dass neben den vielen Aspekten, die in der Fachsprachenforschung und in der Erforschung der fremdsprachlichen Fachsprachenvermittlung wohl dokumentiert sind, andere, wie Eva Hund es formuliert, in einen toten Winkel der Fachsprachenbetrachtung geraten sind, Dies betrifft sowohl den philosophischen Hintergrund, als auch semiotische und linguistische Fragen. Der erste, theoretische Teil der Arbeit dient dazu, diese Fragestellungen, soweit dies im Rahmen einer Arbeit wie der vorliegenden möglich und nötig ist, aufzuspannen und auf pragmatische Weise, also wiederum im Rahmen der Möglichkeiten und Notwendigkeiten, zu lösen. Im zweiten Teil der Arbeit werden vier Grundbegriffe der Chemie als Anhaltspunkte verwendet, um anhand von Texten, die im vorgegebenen Rahmen für die fremdsprachliche Ausbildung von Chemikern von größter Relevanz sind, sprachliche, textuelle, diskursive und kulturelle Strukturen in deutschsprachigen Chemietexten offen zu legen, die für Studierende mit der Ausgangssprache Englisch Unerwartetes, Überraschendes, Schwieriges, gerade deshalb aber auch Herausforderndes, Aufregendes, Neues bergen. Dies ist der Ausgangspunkt für den dritten Teil der Arbeit, in dem der Versuch unternommen wird, die Tiefenschichtungen eines an der Entwicklung der Gesamtpersönlichkeit der Studierenden orientierten und interessierten Unterrichtens in der Fremdsprache zu zeigen, wo es nicht nur um den Erwerb eines möglichst funktionalen und utilitären Fachsprachenwissens geht, sondern darum, die durch die Fremdsprachlichkeit eröffneten Möglichkeiten der Distanzierung und Perspektivierung zu nutzen. Im Folgenden werden die Inhalte der drei Teile ein wenig genauer erläutert. Der erste Teil der Arbeit nimmt sich des philosophischen, semiotischen und linguistischen Hintergrunds für die Beschäftigung mit der Chemie in ihrer Erscheinungsform als zu erlernende fremdsprachliche Fachsprache an. Zunächst werden die Positionen des wissenschaftlichen Realismus und Relativismus betrachtet. Dies ist insofern wichtig, als hier der Grund für das Verhältnis von Sprache und Welt oder, anders ausgedrückt, für das Verhältnis von Inhalt und Sprache gelegt wird, oder, in einer weiteren Ausformung, für das Verhältnis zwischen dem Denken und der Wirklichkeit. Die Intensität, mit der etwa in der (muttersprachlichen) Chemiedidaktik die Debatte darum geführt wird, wann, wie und unter welchen Umständen die Modellvorstellung in den Unterricht eingeführt werden soll, vermittelt einen Geschmack von der Bedeutsamkeit diesen Themenfeldes. Für diese Arbeit wird die Spannung zwischen Realismus und Relativismus insofern aufgelöst, als Elemente von beiden verwendet und dem Konzept der Lehrbarkeit untergeordnet werden. In einem zweiten Schritt wird in diesem Teil der Arbeit mit Hilfe des Bühlerschen Zeichenmodells (und einer Erweiterung durch Roman Jakobson) demonstriert, dass, im Gegensatz zu häufig wiederholten Vorstellungen von der Fachsprache als ausschließlich in Sachzusammenhängen verharrender Ausdrucksweise, was der Bühlerschen Referenzfunktion des Zeichens entspräche, auch das Verhältnis zwischen Sender und Zeichen (Ausdrucks- bzw. emotive Funktion) und zwischen Zeichen und Empfänger (appellative Funktion) nicht nur zwangsläufig in der Fachsprache verankert sind, sondern auch eine wichtige Rolle in ihr spielen. Diese Zusammenhänge haben sich u.a. auch deshalb im toten Winkel der Forschung verloren, weil die Forschungstätigkeit sich bisher vor allem auf die sogenannte Theoriesprache der Chemie ausgerichtet hat, während die Textsorten der Wissensvermittlung auf der tertiären Bildungsebene (Lehrbuch, Laborhandbuch, Vorlesungsskripten) weitgehend unerforscht geblieben sind. Dies wird in diesem Teil der Arbeit insbesondere anhand der Unsicherheit der Kategorisierung der Lehrtexte in gängigen fachsprachlichen Textsortenanlysen verdeutlicht. Ein weiteres Ergebnis der Beschäftigung mit Texten der Wissensvermittlung ist die Tatsache, dass die wissenschaftliche Allgemeinsprache (Terminologie in einemweiteren Sinne, im Gegensatz zur chemischen Nomenklatur) ins Zentrum der Aufmerksamkeit rückt. Damit rücken auch in der Fachsprachenforschung, insbesondere auf dem Feld der Naturwissenschaften, ansonsten weniger beachtete Elemente (wie die Verben), Ausdrucks weisen (wie Metaphern), Sichtweisen (Zweisprachigkeit der deutschen Chemieterminologie) und Verhaltensweisen (im kulturellen Zusammenhang) in den Vordergrund. Der erste Teil der Arbeit schließt mit einem Vergleich der englischen und der deutschen Fachsprache der Chemie ab, welcher der Tatsache, dass sich der hier zu Grund gelegte Unterricht der deutschen Fachsprache der Chemie in einer homogen englischsprachigen Umgebung abspielt, Rechnung trägt. Im zweiten Teil der Arbeit wird zunächst der Grundlagentext für die ihn ihm erfolgenden Analysen eingeführt. Es ist das zweibändige Praktikum in Allgemeiner Chemie, herausgegeben von Hanns Fischer, das für die Zwecke dieser Arbeit aus mehreren Gründen besonders gut geeignet scheint. Im weiteren Verlauf des zweiten Kapitels werden vier Grundbegriffe der Chemie besprochen, mit deren Hilfe weite Gebiete der Chemie erfasst werden können, ohne die Übersichtlichkeit zu verlieren. Bei der Besprechung dieser Begriffe werden anhand gelegentlicher Fallstudien aus studentischen Arbeiten die Schwierigkeiten verdeutlicht, mit denen sich nichtmuttersprachliche Leser von wissensvermittelnden Texten konfrontiert sehen. In diesen Fallstudien werden studentischen Annotationen (zu einem Universitätsskript) und studentische Übersetzungen als Fenster zum Fremdsprachenverständnis benutzt.1 Der erste der Begriffe ist Stoff (in Verbindung damit die Aggregatzustände), an dem verdeutlicht wird, wie unterschiedlich auch grundlegendste Begriffe der Chemie definiert werden können. Dies mündet in eine Diskussion des Definitionsbegriffs in der fremdsprachlichen Fachsprachendidaktik ein, und erfasst auch kulturelle Aspekte, insofern hier die Zweisprachigkeit der deutschen Chemiesprache ein Synonymenpaar zur Verfügung stellt, das jedoch bei genauerem Hinsehen Zwischentöne ermöglicht, die im englischen Gegenstück nichtverwirklicht werden können. Der zweite der Begriffe ist Atom (mit den verwandten Begriffen Ion und Molekül). Anhand dieser Begriffe werden die Teilchen vor Stellungen der Chemie aufgerollt und zugleich die mit ihnen assoziierten Modelle. Hier wird an Beispielen aus der Praxis der Chemiesprache deutlich, wie sehr die Sprache, mit welcher der Modellcharakter der Teilchenvorstellungen vermittelt wird, mit metaphemhaften Ausdrucksweisen durchsetzt ist. Der nächste Begriff ist Reaktion, in dem vom objekthaften Stoff und Atom zum Prozesshaften übergeleitet wird. In diesem Abschnitt wird die beim Stoffbegriff schon angesprochene Zweisprachigkeit der deutschen Chemiesprache anhand des Begriffspaars Reaktion - Umsetzung nocheinmal aufgegriffen, diesmal aber mit den damit verbundenen Lemschwierigkeiten für Studierende verbunden, Im Zusammenhang mit dem Grundbegriff Reaktion wird die chemietypische Komplementarität von Formel und Text genauer betrachtet. Der vierte und letzte Grundbegriff im praktischen Teil der Arbeit ist der Begriff Labor, in dem eine deutliche Zweiteilung unterschiedliche Aspekte der Fachsprachenvermittlung unterstreicht. Einerseits wird in einer ausführlichen Fallstudie zu studentischen Annotationen in einem typischen deutschen Universitätsskript gezeigt, auf welche Art eine solcher für das Studium essentieller Text (fremdsprachlich erfasst wird. Hier wird anhand einer einfachen statistischen Übersicht deutlich, welch eine wichtige Rolle im Verständnis dieser Textsorte die Verben spielen. Dieser Punkt erfährt anhand einer Analyse zu den Verben, die im Zusammenhang mit der Manipulation von Flüssigkeiten (offensichtlich eine der häufigsten mit dem Labor assoziierten Tätigkeiten) verwendet werden, aus einer anderen Perspektive Bestärkung. Insgesamt zeigt sich im Verlauf des zweiten Teils der Arbeit ein Fortschreiten von der theoretisch ausgerichteten Chemie (über den allumfassenden Stoffbegriff) hin zum praktischen, handwerklichen Aspekt des Chemie-Treibens (im Labor). Der dritte, didaktische Teil der Arbeit beginnt mit einer ausführlichen Begründung für die Zweckmäßigkeit aber auch bildungsmäßigen Sinnhafltigkeit eines fremdsprachlichen Fachsprachenunterrichts auf der tertiären Bildungsebene gegen eine Ansicht, dass für einen solchen Unterricht weder ein Bedarf noch ein Bedürfnis bestehe. Nach einer kurzen Einführung in die Rahmenbedingungen des fachsprachlichen Unterrichts im hier vorliegenden Zusammenhang wird die Brücke zum ersten Teil der Arbeit geschlagen, und es werden, anhand dreier Kompetenzen, die auf das Bühlersche Zeichenmodell zurückreflektieren, Vorschläge für den fachsprachlichen Fremdsprachenunterricht unterbreitet. Diese drei Kompetenzen sind namentlich die Fachkompetenz, die Sozialkompetenz und die Ich-Kompetenz, Ziel dieses dritten Teils ist es, die an der Dublin City University von Françoise Blin, Christine Appel und mir selbst entwickelten Module unter dem Titel German (French/Spanish) for Science and Technology, die für alle vier Studienjahre vorliegen, inhaltlich und fachlich zu unterfüttem.
Kontinuierlich hohe Stickstofffrachten der Elbe und weiterer Nordseezuflüsse haben die Internationale Nordseeschutzkonferenz (INK) Ende der 80er Jahre dazu veranlasst, eine 50%ige Reduzierung der N-Einträge in die Nordsee innerhalb von 10 Jahren zu beschließen. Diese Reduzierung wurde in diesem Zeitraum nicht erreicht. Für Oberflächengewässer wurde im Jahr 2001 zur Umsetzung der EU-Wasserrahmenrichtlinie in Bundesdeutsches Recht von der Länderarbeitsgemeinschaft Wasser (LAWA) in Zusammenarbeit mit dem Umweltbundesamt (UBA 2001d) eine Güteklassifikation für Nährstoffe erstellt, die einen Wert von 3 mg/l N für Oberflächengewässer festgelegt. Am Beispiel der mittleren Mulde, die kontinuierlich hohe Stickstoffkonzentrationen von durchschnittlich 6 mg N /l aufweist, wird deutlich, dass eine Reduzierung der N-Einträge zur Erzielung der geforderten Gewässergüte unabdingbar ist. Sowohl für die Meere als auch für die Oberflächengewässer ist eine Halbierung der N-Einträge eine umweltpolitische Notwendigkeit. Im Rahmen des Projektes „Gebietswasserhaushalt und Stoffhaushalt in der Lößregion des Elbegebietes als Grundlage für die Durchsetzung einer nachhaltigen Landnutzung“ wurden deshalb die Wasser- und Stickstoffflüsse im Einzugsgebiet der mittleren Mulde (2700 km²) flächendifferenziert erfasst, um die N-Eintragpfade zu quantifizieren und Maßnahmen zur Minderung der N-Frachten abzuleiten. ...
Ziel dieser Arbeit ist die Herstellung und Charakterisierung von Zn-Mg-SE-Legierungen (SE = Y, Ho, Er, Dy, Tb, Gd), um Informationen über Struktur, Stabilisierung und physikalische Eigenschaften der quasikristallinen Phasen dieses Systems zu erhalten. Die Quasikristalle dieses Systems unterscheiden sich von Quasikristallen anderer Legierungen, die meist Al als Hauptkomponente enthalten. Es konnten bis zu 275 mm3 große Einkristalle der flächenzentriert ikosaedrischen Phase in den Systemen Zn-Mg-Y und Zn-Mg-Ho gezüchtet werden. Außerdem wurden MgZn2- und hexagonale A-Zn70Mg14Y16-Einkristalle hergestellt, deren Existenzbereiche im Phasendiagramm benachbart zu dem der ikosaedrischen Phase liegen. Um polykristalline Proben herzustellen, die unterschiedliche quasikristalline oder verwandte Strukturen als Hauptphase enthalten, wurden verschiedene Herstellungsverfahren getestet und verwendet. So konnte zum Beispiel erstmalig eine Probe hergestellt werden, die dekagonales ZnMgY als Hauptphase enthält. Zudem wurde eine neue kubische (R-Phase) bzw. hexagonale (M-Phase) und eine neue hochgeordnete primitiv ikosaedrische Phase im System Zn-Mg-Er entdeckt, synthetisiert und charakterisiert. Bei Untersuchungen dieser selbst gefertigten Proben konnten Erkenntnisse über magnetische Eigenschaften, elastische Konstanten, optische Leitfähigkeit, Leerstellenverteilung, Oberflächenbeschaffenheit, Diffusionsmechanismen und die Erstarrungsgeschichte der flächenzentriert ikosaedrischen Zn-Mg-SE-Quasikristalle gewonnen werden. Durch vergleichende Messungen an kristallinen Zn-Mg-SE-Legierungen lassen sich die für Quasikristalle spezifischen Effekte identifizieren. Die im Rahmen dieser Arbeit hergestellten und charakterisierten Proben sind aktuell Gegenstand weiterer Untersuchungen. Mit Hilfe von Beugungsexperimenten konnte gezeigt werden, dass die kubische R-Phase strukturell nahe mit der ikosaedrischen Phase im System Zn-Mg-SE verwandt ist. Die R- Phase ist bei Raumtemperatur nicht stabil und bildet die rhomboedrische M-Phase. Es konnte ein Strukturmodell für die R-Phase entwickelt werden, in dem keine ikosaedrischen Cluster als Strukturelement verwirklicht sind. Auch in der hexagonalen A-Phase konnten solche Strukturelemente nicht gefunden werden. Die Resultate dieser Arbeit legen nahe, dass die Struktur der Zn-Mg-SE-Quasikristalle, im Gegensatz zu Quasikristallen anderer Systeme, nicht auf großen ikosaedrischen Clustern basiert. Damit ist gezeigt, dass große ikosaedrische Cluster zur Bildung von Quasikristallen nicht notwendig sind. Messungen an den Proben zeigen, dass sich dadurch auch einige der physikalischen Eigenschaften, zum Beispiel die optische Leitfähigkeit, von Quasikristallen mit Clustern unterscheiden. Keine Unterschiede konnten beim Diffusionsverhalten und bei mechanischen Eigenschaften festgestellt werden. Hier gleichen die Zn-Mg-SE-Quasikristalle anderen strukturell komplexen Legierungen oder Quasikristallen anderer Legierungssysteme.
Die lösliche Guanylyl Zyklase (sGC) ist das Schlüsselenzym, das die Stickstoffmonoxid (NO)-induzierte Vasodilatation über eine Erhöhung des intrazellulären zyklischen 3´5´-Guanosinmonophosphats (cGMP) vermittelt. Obwohl die sGC oft als "Haushalts"-Gen bezeichnet wurde, dessen Aktivität nur akut durch die verfügbare NO-Menge reguliert wird, zeigen einige neuere Befunde, dass eine Regulation auch auf Ebene der Gen-Expression stattfindet. Z.B. wurde in zwei Rattenmodellen, der Nitrat-Toleranz (Mülsch et al., 2001) bzw. des chronischen Herzversagens (Bauersachs et al., 1999), eine zwei- bis dreifache Induktion der sGC-Expression beobachtet. Bei der Nitrat-Toleranz wurde zudem ein Anstieg der Endothelin- 1 (ET-1)-Expression beobachtet (Münzel et al., 1995). In dieser Arbeit wurde deshalb untersucht, ob ET- 1 einen Einfluss auf die sGC-Expression und die sGC/cGMP vermittelte Relaxation von Rattengefäßen hat. Um den möglichen Einfluss von ET-1 auf die Transkription der sGC zu untersuchen sollten die Promotoren der beiden Untereinheiten (UE) a1 und ß1 der Ratte kloniert werden. Dazu wurde zuerst eine Bestimmung der Transkriptionsstarts für beide UE durchgeführt. Es konnte gezeigt werde, dass die Sequenz der bis dahin bekannten 5´ Untranslatierten Region (5´ UTR) der a1-UE (Nakane et al., 1990) nicht korrekt war. Die ersten 213 bp dieser Sequenz konnten nicht gefunden werden. Für die ß1-UE konnte der 5´ UTR um 30 bp, im Vergleich zu der von Nakane (1990) publizierten Sequenz, verlängert werden. Letztlich konnten mit Hilfe einer PCR-Technik 2864 bp (a1) und 1287 bp (ß1) in 5´ Richtung des Transkriptionsstarts kloniert und sequenziert werden. Beide Promotoren zeigten eine basale Aktivität, die sich mit zunehmender Verkürzung der Bereiche in Richtung Transkriptionsstart erhöhte. Die basale Aktivität der beiden UE-Prornotoren zeigte, dass die Gene der beiden UE nicht in Tandemorganisation, wie im Medakafisch (Mikami et aI., 1999) vorliegen, sondern ähnlich wie bei der Maus (Sharina et al., 2000) beide UE unabhängig voneinander reguliert werden. Beide Promotoren ließen sich durch eine 6 stündige Stimulation mit ET-1 [10nM] um das ca. 1,6 bis l,9fache aktivieren. Bei Verkürzung des a1-Promotors wurde zudem festgestellt, dass das kürzeste Fragment sich nicht mehr durch ET-1 stimulieren ließ. In den 146 bp, die diesem Konstrukt fehlten, befinden sich mögliche Bindestellen für die Transkriptionsfaktoren PEA3, NF-Il6 und E2A. In kultivierten glatten Gefäßmuskelzellen der Ratte konnte mit Hilfe der RT-PCR gezeigt werden, dass ET-I (10 nM, 6 Std.) die Expression beider UE auf mRNA-Ebene um das ca. dreifache erhöht. Zudem konnte für die ß1-UE mit Hilfe der Real-Time-PCR (TaqManTM) und für die ET-Rezeptortypen spezifische Antagonisten gezeigt werden, dass dieser ET-1 Effekt über den ETA-Rezeptor vermittelt wird. Bei isometrischen Kontraktionsmessungen an Endothel-freien Rattengefäßen konnte gezeigt werden, dass eine 4 stündige Vorstimulation mit 10 nM ET-1 die für eine 50%ige Relaxation der Gefäße nötige Konzentration des NO-Donors Natriumnitropussuid (SNP) um ca. eine Zehnerpotenz verringert. ET-1 erzeugt also eine deutliche Sensitivierung der Gefäße gegenüber NO. Durch Versuche mit einem stabilem cGMP-Analogon (8-Bromo-cGMP) konnte zudem gezeigt werden, dass nachfolgenden Elemente der NO/cGMP Signalkette nicht durch die ET-1 Stimulation beeinflusst wurden. Auch Teile der Signalkette, die die cAMP-induzierte Relaxation vermitteln, wurden nicht durch ET-1 beeinflusst. Schließlich konnte in in-vitro Versuchen gezeigt werden, dass ET-1 sowohl in Endothel-freien Rattenaorten und Koronargefäßen des Schweins, als auch in kultivierten, glatten Rattengefäßmuskelzellen eine signifikante Steigerung der spezifischen NO-induzierten sGC-Aktivität bewirkt. Die in dieser Arbeit gezeigte Steigerung der Promotoraktivität, der mRNA-Mengen und der enzymatischen Aktivität der sGC durch ET-1 deutet auf einen biologischen Rückkoppelungsmechanismus hin. Dieser würde einer übermässigen Vasokontraktion und den mitogenen Effekten von ET-l bei einer Überexpression entgegen wirken und wäre somit ein wichtiges Element der Feineinstellung der ET-1 Wirkung.
Ausgangspunkt dieser Doktorarbeit ist die dominant erbliche hypertrophische Kardiomyopathie, eine Herzkrankheit, die mit Funktionseinschränkungen des Myokards und einem relativ hohen Risiko für einen plötzliche Herztod assoziiert ist. Als Ursachen wurden ca. 160 Mutationen in bisher zehn verschiedenen Genen nachgewiesen, die - mit einer möglichen Ausnahme - für Proteine des kardialen Sarkomers kodieren. Am häufigsten betroffen sind das ventrikelspezifische -Myosin (schwere Kette) sowie das kardiale Myosin-Bindungsprotein C. Ein in Bad Nauheim initiiertes Projekt hat zum Ziel, die Wirkungen einer Mikrodeletion im - Myosingen (Deletion des Codons 927, E927) auf die Struktur und Arbeitsweise des Herzens in transgenen Mäusen zu untersuchen. Es ist bei diesem Projekt beabsichtigt, die Expression des mutierten Myosin-Transgens so zu steuern, dass es nicht unkontrolliert dauernd (konstitutiv), sondern zeitlich kontrolliert (induzierbar) im Herzen exprimiert wird. Als Induktionssystem der Wahl ist dabei das bakterielle Tetrazyklinrepressor-System vorgesehen. Dieses besteht aus dem Repressor tetR, einer DNA- Repressor-Bindungssequenz tetO und einem von außen zugeführten Induktor (Tetrazyklin, tet, oder Doxyzyklin, DOX, einem tet-Derivat). Da dieses Regulationssystem vor dem aufwändigen Einsatz an transgenen Mäusen zunächst in vitro an Zellkulturen zu testen war, wurden für die transiente Transfektion von Zellen in Kultur zwei Plasmide (mit jeweils zwei verschiedenen Promotoren, also insgesamt vier Plasmide) hergestellt. Ein Plasmid enthielt den Repressor und das zweite die tetO-Sequenz mit einem nachgeschalteten Reportergen (lacZ für -Galactosidase). Die beiden Promotoren waren der ubiquitäre virale CMV-Promotor (hCMV-Promotor) einerseits und der herz- und mäusespezifische -Myosin-Promotor (-MHC Promotor) andererseits. Getestet wurde die Regulierbarkeit des Reportergens in transient transfizierten COS1-Zellen, L6 Myoblasten sowie an neonatalen Kardiozyten von Ratten. Für die Kotransfektion von jeweils einem Paar der Plasmide (mit dem tetR-Gen, bzw. dem tetO/lacZ-Gen) wurde ein modifiziertes und in dieser Arbeit optimiertes ballistisches System (Gene Gun von BioRad) benutzt. Die Versuchsanordnung bestand aus Anzüchtung der Zellen, Transfektion, Induktion und Nachweis des Reporterenzyms. Mit dem hCMV-Promotor wurde in allen drei getesteten Zelltypen eine von DOX abhängige Expression der -Galaktosidase nachgewiesen. Mit dem -MHC Promotor, der wegen seiner Herzspezifität nur an kardialen Rattenmyozyten getestet werden konnte, waren in der Standardversuchsanordnung (nach DOX Induktion) nur sehr geringe Mengen an - Galaktosidase nachweisbar. Um die Regulierbarkeit des lacZ-Gens eindeutig zu demonstrieren, wurden als Stimulatoren des -MHC Promotors die Hormone Trijodthyronin, Insulin und Dexamethason einzeln und in Kombination verwendet. Die höchste Stimulierung (ca. 5-fach) wurde mit einer Kombination aller drei Hormone erreicht. In dieser Anordnung wurde damit gezeigt, dass das binäre tetR/tetO-System in vitro nach Induktion auch mit dem -MHC Promotor funktioniert. Mit diesem Resultat war - im Prinzip - der Weg für Experimente mit transgenen Mäusen vorgegeben. In Transgen-Linien mit Einzeltransgenen (entweder mit dem tetR-Gen oder dem lacZ-Gen, beide unter Kontrolle des -MHC Promotors, letzteres zusätzlich mit der tetO- Sequenz für den Repressor) wurde die herzspezifische Expression der -Galaktosidase eindeutig nachgewiesen, nicht jedoch die des tet-Repressors. Die Gründe dafür können gegenwärtig nur vermutet werden. Die Zahl der Genkopien könnte unzureichend gewesen sein. Da es sich um ein bakterielles Gen handelt, könnte auch eine ungünstige Codon-Verwendung einer effizienten Expression entgegenstehen. Zur Klärung dieser Umstände sind weitere Versuche (die nicht mehr Gegenstand dieser Doktorarbeit sind) inzwischen initiiert worden. Das hier in Zellkultur getestete Regelsystem wird als tetON-System charakterisiert, bei dem das Transgen, dessen Expression kontrolliert werden soll (jetzt das Gen für -Galktosidase, später ein mutiertes ventrikelspezifisches Myosingen), erst nach Zugabe des Induktors (Doxyzyklin, bei Mäusen im Trinkwasser) aktiviert wird. Damit unterscheidet sich dieses System von vielfach benutzten tetOFF-Systemen. Diese bestehen aus einem hybriden Protein, das aus zwei verschiedenen Struktur/Funktionsdomänen besteht: der tet-Bindungsdomäne des bakteriellen tet-Repressors und einem viralen ubiquitären Transkriptionsaktivator (das Hybridprotein hat die Bezeichnung tTA). Die zu regulierenden Zielgene enthalten die tetO- Sequenz. Bindung von tet an tTA führt zur Dissoziation des tTA/tetO-Komplexes und damit zur Deaktivierung des Zielgens. Entzug von tet erlaubt die Bindung von tTA an den Promotor des Zielgens und ermöglicht damit dessen Transkription. Dieses System, dessen Funktionalität an Modellversuchen nachgewiesen wurde, hat gleichwohl Nachteile. Diese sind erstens auf eine gewisse Toxizität des Transkriptionsaktivators tTA und zweitens auf negative Wirkungen in Verbindung mit der Dauerzufuhr von Tetrazyklin (zur Unterdrückung der Expression des Zielgens) zurückzuführen. Da ein in der Literatur auch beschriebenes tTA-basiertes tetON- System als nicht ausreichend berichtet wird, erscheint der Aufwand für die Herstellung eines einfachen (nicht-viralen) und ggf. genetisch modifizierten tetON-Systems für die Anwendung an Mäusen sinnvoll und notwendig.
Die Begegnung mit dem Fremden : europäische Einflüsse auf die indigene Kunst Nordwestamerikas
(2002)
Für die indigene Bevölkerung der Nordwestküste Nordamerikas bedeutete die Ankunft des fremden, weißen Mannes eine unfassbare Neuigkeit, die erst in das autochthone Weltbild eingeordnet werden musste. Die anfänglich als übernatürlich eingestuften Wesen konfrontierten die Einheimischen mit einer fremden Lebensweise. Während des 18. und 19. Jahrhunderts hatten in diesem Kulturareal Kontakte mit Forschungsreisenden, Handelsleuten, Missionaren, Siedlern, Regierungsbeauftragten, Wissenschaftlern und Touristen Veränderungen in allen Lebensbereichen bewirkt. Von diesem Kulturwandel gingen Einflüsse aus, die sich auch auf die Kunst der indigenen Bevölkerung Nordamerikas auswirkten.
Schon in der frühen Kontaktperiode experimentierten indigene Künstler mit neuen Materialien, Stilelementen sowie europäischen Werkzeugen und fanden neue Absatzmärkte für ihre Produkte. Die Nachfrage der Fremden nach "Souvenirs" führte zur Ausbildung einer eigenen Gattung von Objekten, die für den Handel bestimmt waren und sich auch an europäischen Gebrauchsgütern orientierten. Die Objekte, die sich heute in zahlreichen Ländern befinden, zeugen von den regen Beziehungen zwischen der Nordwestküste Nordamerikas und Europa.
Im Rahmen der vorliegenden Arbeit soll am Beispiel der nördlichen Gruppen dieses Areals, vor allem der Tlingit und Haida, die Aufnahme des euro-amerikanischen Einflusses durch das indigene Kunstschaffen aufgezeigt und untersucht werden. Dabei soll vor Augen geführt werden, welche euro-amerikanischen künstlerischen Techniken, Materialien und Stilelemente adaptiert und in die indigene Kunst integriert wurden. Dieser Fremdeinfluss lässt sich an Kunstgattungen wie der Holzschnitzkunst, Textilkunst, Schmuckproduktion und Schamanenkunst nachweisen.
Primäres Anliegen der vorliegenden Arbeit ist, anhand ausgewählter Beispiele generelle Tendenzen und Entwicklungen innerhalb dieser Kunstbereiche aufzuzeigen. Im Rahmen dieser Untersuchungen soll eruiert werden: wie dem Fremden begegnet wurde, was die indigene Bevölkerung als fremd erlebte und welche Strategien sie im Umgang mit dem Fremden entwickelte. Des Weiteren soll aufgrund der komplexen Sozialorganisation dieser Gruppen sowohl geschlechterspezifisch als auch zwischen säkularer und Schamanenkunst differenziert werden. Außerdem soll der Versuch unternommen werden, die besondere Entwicklung dieser Fremdeinflüsse bei den verschiedenen ethnischen Gruppen nachzuvollziehen.
Ein zweiter Aspekt dieser Arbeit befasst sich mit dem Bild des Fremden im Spiegel des indigenen Künstlers. Ebenso wie europäische Reisende die indigene Bevölkerung in Reisetagebüchern und Gemälden festhielten, wurden umgekehrt auch Europäer von indigenen Künstlern bildlich dargestellt. Hierbei handelt es sich vor allem um Darstellungen von Seeleuten, Missionaren, Regierungsbeamten und Frauen. Aber auch das Umfeld des Fremden, d.h. vor allem seine materiellen Güter, wurden nachgebildet. Es stellt sich hier die Frage, in welchen Kunstbereichen, wie und warum der Fremde abgebildet wurde.
Ein weiterer Schwerpunkt der Untersuchung gilt der Auseinandersetzung mit der Frage, wie und wann das Zusammentreffen von europäischen und indigenen Einflüssen zur Entwicklung einer Handelskunst bzw. neuen Märkten führte. Hierbei gilt das Interesse den Marktformen und den am Prozess beteiligten Gruppen bzw. "vested interest groups". In der vorliegenden Arbeit wird auch untersucht, in welchem Rahmen kommerzielle Transaktionen mit Fremden stattfanden. Des Weiteren wird beleuchtet, wie die Kommerzialisierung von Nordwestküstenkunst und die neu entstandene Nachfrage das indigene Kunstschaffen beeinflussten.
Die Forschungsergebnisse ermöglichen zunächst eine Aussage über die Art der Objekte, die europäische Einflüsse aufgenommen haben und zeigen die Lebensbereiche, in denen diese Gegenstände auftreten. Darüber hinaus soll ermittelt werden, welche Kulturelemente - als Ergebnis eine Prozesses der selektiven Adaption - übernommen wurden. Die Resultate dieser Analyse sollen es möglich machen, eine Entwicklung von der Rezeption europäischer Einflüsse bis zur Ausbildung einer Handelskunst bzw. Sammlerkunst aufzuzeigen.
Neben der Untersuchung dieser Fragen ist jedoch das Hauptinteresse der vorliegenden Arbeit, eine in Europa kaum bekannte und außergewöhnliche Kultur bzw. bislang nicht oder nur partiell publizierte Sammlungen aus deutschen und estnischen Museen, die wissenschaftlich und kulturell von unschätzbaren Wert sind, der Öffentlichkeit zu präsentieren.
Bei einer HIV-1-Infektion ist die Krankheitsprogression zum Vollbild AIDS mit dem Auftreten von Virusvarianten assoziiert, die den Chemokinrezeptor CXCR4 zum Zelleintritt verwenden. Dagegen nutzen SIV ein breites Korezeptorspektrum, vor allem CCR5. Im Verlauf einer SIV-Infektion findet kein Korezeptorwechsel von CCR5 zu CXCR4 statt. In dieser Arbeit wurde der Einfluß einer solchen Änderung der Korezeptornutzung auf die SIVagm-Infektion in-vitro und auf den Verlauf der apathogenen SIV-Infektion in-vivo nach Infektion von Schweinsaffen untersucht. Um die Korezeptorspezifität eines SIV zu CXCR4 zu verändern, wurde das in AGM und Schweinsaffen apathogene SIVagm3mc verwendet, das als Korezeptoren zum Zelleintritt CCR5, BOB und BONZO nutzt. Die potentielle Korezeptorbindungsstelle, der zu HIV-1 homologe V3-Loop des Oberflächen-Hüllproteins gp130-SU des SIVagm3mc wurde durch den V3-Loop des CD4 / CXCR4-tropen HIV-1-Klons BH10 ersetzt. Das resultierende SIVagm3-X4mc erwies sich als replikationskompetent und verwendete zum Zelleintritt ausschließlich CD4 / CXCR4. Die Replikation wurde durch den natürlichen Liganden des CXCR4, SDF-1a, dosisabhängig gehemmt. Überraschenderweise besaß SIVagm3-X4mc die Eigenschaft, in-vitro nicht nur in IL2 / PHA-stimulierten sondern auch in unstimulierten PBMC von Schweinsaffen und AGM replizieren. Nach Infektion von je zwei Schweinsaffen (Macaca nemestrina) mit SIVagm3mc bzw. SIVagm3-X4mc konnte bis zu 14 Monate nach Inokulation keine Krankheitsentwicklung und kein Abfall der absoluten Anzahl der CD4 -T-Lymphozyten beobachtet werden. Die Virusbelastung der Tiere war vergleichbar und die Korezeptornutzung blieb auch nach in-vivo Replikation erhalten. Interessanterweise konnte SIVagm3-X4mc, nicht aber das Wildtypvirus SIVagm3mc, durch Sera von SIVagm3mc und SIVagm3-X4mc infizierten Schweinsaffen neutralisiert werden. HIV-1-spezifische Antikörper konnten in Sera eines mit SIVagm3-X4mc infizierten Tieren nachgewiesen werden. Diese Studie beschreibt zum ersten Mal den erfolgreichen Austausch eines V3-Loops bei SIV. Das resultierende SIVagm3-X4mc, das wie beabsichtigt CD4 / CXCR4-positive Zellen infizierte, war im Gegensatz zum Ausgangsvirus in der Lage, in nicht-stimulierten PBMC zu replizieren und zeigte Sensitivität gegenüber neutralisierenden Antikörpern, die in SIVagm3mc- und SIVagm3-X4mc-infizierten Schweinsaffen induziert wurden.
Natürliche Enantioselektivität und Isotopendiskriminierung - Schlüssel zur Echtheit ätherischer Öle
(2002)
Als Grundlage für die Beurteilung der Echtheit ätherischer Öle können zwei biochemische Prinzipien Enantioselektivität und Isotopendiskriminierung während der Biosynthese herangezogen werden. In der vorliegenden Arbeit wurde die enantioselektive Kapillargaschromatographie sowie die online-Kopplung der Gaschromatographie mit der Isotopenmas- senspektrometrie zur Authentizitätsbewertung verschiedener ätherischer Öle eingesetzt. Die Bestimmung von Enantiomerenverhältnissen mittels Multidimensionaler Gaschromatographie-Massenspektrometrie (MDGC-MS) sowie von 13C/12C-Isotopenverhältnissen mittels GC-C-IRMS (Gaschromatographie-Combustion- Isotopenmassenspektrometrie) sind etablierte Methoden, die in der Authentizitätsbewertung von Aroma- und Duftstoffen eingesetzt werden. Dagegen ist die Bestimmung von 2H/1H-Isotopenverhältnissen mittels GC-P-IRMS (Gaschromatographie-Pyrolyse-Isotopenmassenspektrometrie) eine relativ neue Methode. In der vorliegenden Arbeit wurden Strategien zur Bestimmung von zuverlässigen 2H/1H-Isotopenverhältnissen mittels GC-P-IRMS entwickelt. Die Kalibrierung des Referenzgases mit Hilfe von internationalen Standards kann nur mittels eines Elemental Analyzers (EA-IRMS) erfolgen, da für die Gaschromatographie geeignete Standards nicht zur Verfügung stehen. Daher ist insbesondere der Vergleich von Isotopenverhältnissen von Standardsubstanzen, die mittels TC/EA-IRMS und GC- P-IRMS bestimmt wurden, von Bedeutung. Es konnte gezeigt werden, dass eine Konditionierung (Einbringen einer Kohlenstoffschicht) des Pyrolysereaktors im GC- P-IRMS-System notwendig ist, um für die untersuchten Aromastoffe mittels GC-P- IRMS zum Elemental Analyzer vergleichbare Ergebnisse zu erzielen. Von zwei verschiedenen getesteten Methoden zur Konditionierung des Pyrolysereaktors war die Konditionierung durch Einleiten von Methan in den Pyrolysereaktor die geeignetere und effektivere Methode. Weiterhin wurden der Einfluss des Trägergasflusses des Gaschromatographen auf die bestimmten Isotopenwerte sowie der lineare Bereich der Methode untersucht. Es konnte erstmalig gezeigt werden, dass die mittels GC-P-IRMS bestimmten Isotopenverhältnisse von verschiedenen Parametern abhängig sind. Richtige Ergebnisse zu erzielen setzt folgende Konditionen voraus: Konditionierung des Pyrolysereaktors, optimaler Trägergasfluss sowie Mindestmenge des Analyten (> 0,3 µg on column). Die neuen Möglichkeiten, die die online-Bestimmung von 2H/1H-Isotopenverhältnissen in der Authentizitätsbewertung von Lavendelölen, Anis- und Fenchelölen sowie Kümmelölen bietet, wurden erstmalig untersucht. Darüber hinaus wurden die enantioselektive Kapillargaschromatographie und die Bestimmung von 13C/12C-Isotopenverhältnissen mittels GC-C-IRMS eingesetzt. Es konnte gezeigt werden, dass sich die Bereiche der 2HV-SMOW-Werte von Linalool und Linalylacetat aus authentischen Lavendelölen deutlich vom Bereich der Isotopenverhältnisse kommerziell erhältlicher, synthetischer Analoga unterscheiden und somit eine Verfälschung von Lavendelölen mit synthetischem Linalool und/oder Linalylacetat nachweisbar ist. Mit dieser Methode konnten diverse Handelsöle eindeutig als verfälscht beurteilt werden. Über die Bestimmung der Enantiomerenverhältnisse von Linalool und Linalylacetat dieser Öle konnte die Aussage bestätigt werden (hohe Reinheit zugunsten des (R)-Enantiomeren in genuinen Lavendelölen). Anhand der unterschiedlichen 13C/12C-Isotopenverhältnisse ist eine Unterscheidung zwischen synthetischem und Linalylacetat aus Lavendel möglich. Die 13CV-PDB-Werte von synthetischem und natürlichem Linalool aus Lavendelölen liegen im gleichen Bereich und sind somit zur analytischen Differenzierung natürlich/naturidentisch nicht geeignet. Mittels GC-C(P)-IRMS Analyse von trans-Anethol aus Fenchel- und Anisölen wurden die authentischen Bereiche der 13C/12C- und 2H/1H-Isotopenverhältnisse ermittelt. Es konnte gezeigt werden, dass sich einige der synthetischen trans-Anethol- Muster nur aufgrund eines der beiden bestimmten Isotopenverhältnisse von dem authentischen Bereich abgrenzen lassen. Somit konnte gezeigt werden, dass die integrale Betrachtungsweise der 13CV-PDB-Werte und der 2HV-SMOW-Werte biogener Stoffe für die Authentizitätsbewertung von großer Bedeutung ist. Zur Authentizitätsbewertung von Kümmelölen wurden die Enantiomerenverhältnisse, die 13C/12C- und die 2H/1H-Isotopenverhältnisse der Hauptkomponenten Limonen und Carvon bestimmt. Aufgrund der 2HV-SMOW-Werte von Limonen lassen sich keine Unterscheidungen zwischen kommerziell erhältlichen Limonen und Limonen aus Kümmelölen treffen. Dagegen können die 13CV-PDB-Werte von Limonen zur Authentizitätsbewertung von Kümmelölen herangezogen werden. Die dargestellten Ergebnisse zeigen, dass die Bestimmung von 2H/1H- Isotopenverhältnissen mittels GC-P-IRMS neue Möglichkeiten in der Echtheitsbewertung ätherischer Öle bietet. Insbesondere die integrale Betrachtung von 2HV- SMOW- und 13CV-PDB-Werten ( 2H/ 13C-Korrelation) wird eine Authentizitätsbewertung künftig noch wesentlich differenzierter möglich machen. Weitere Perspektiven wird die Bestimmung von 18O/16O-Isotopenverhältnissen bieten. Die Authentizitätsbewertung anhand der Multielement-Analyse mittels GC- IRMS eröffnet gerade für achirale Aromastoffe Perspektiven, stellt aber auch eine Ergänzung zur enantioselektiven Analytik dar.
Vanille ein tropisches Orchideengewächs liefert eines der bedeutendsten Aromen weltweit. Die stetig wachsende Nachfrage und das hohe Preisniveau sind allerdings häufig die Ursache für Verfälschung von Vanilleextrakten und -aromen. Ziel der Arbeit war es daher, die Methoden zur Echtheitsbewertung von Vanille weiter zu entwickeln. Daneben sollten Untersuchungen im Hinblick auf aromaaktive Minorkomponenten durchgeführt werden. Als Basisdaten für die Authentizität von Vanille dienen häufig Verhältniszahlen, die aus den Gehalten der Hauptinhaltsstoffe Vanillin, 4-Hydroxybenzaldehyd, Vanillinsäure und 4-Hydroxybenzoesäure gebildet werden. Um diese Verhältniszahlen zuverlässig bestimmen zu können, wurden eine hochdruckflüssigkeits-chromatographische (HPLC) und zum ersten Mal eine gas-chromatographische (GC) Methode entwickelt. Unter Verwendung von internen Standards konnte mit beiden Methoden eine zuverlässige Quantifizierung erzielt werden. Die ermittelten Werte erwiesen sich als unabhängig von der Analysenmethode, von Erntejahrgang und Herkunft der Schoten. Weiterhin konnte gezeigt werden, dass die bisher zur Bewertung herangezogenen Richtwerte im Vergleich mit den im Rahmen dieser Arbeit ermittelten Werte durchweg zu enge Spannbreiten aufweisen. Die neu bestimmten Daten zur quantitativen Zusammensetzung von Vanilleschoten stellen daher wertvolle Basiskriterien für eine Echtheitsbewertung von Vanille dar. Für eine weitergehende, noch zuverlässigere Authentizitätsbewertung wurden die 13C/12C-Verhältnisse von Vanillin und der zweiten Hauptkomponente 4- Hydroxybenzaldehyd ermittelt. Als grundlegende Voraussetzung für die Bestimmung korrekter Isotopenwerte wurde zum einen die Gerätekonfiguration optimiert, um eine vollständige Verbrennung zu gewährleisten, zum anderen wurde der Einfluss der Schotenaufarbeitung untersucht. Durch Korrelation der Delta13CV-PDB-Werte der beiden Komponenten konnten klare Authentizitätbereiche festgelegt werden. Insbesondere durch die integrale Betrachtungsweise beider Kriterien Verhältniszahlen und Isotopenwerte konnte die Authentizitätsbewertung von Vanille erheblich verbessert werden. Neben den Hauptkomponenten kommen in der Vanille aber auch eine große Zahl von aromaaktiven Minorkomponenten vor. Im Rahmen dieser Arbeit sollten daher auch Untersuchungen zu einigen dieser Minorkomponenten durchgeführt werden. Dabei ermöglichte es der Einsatz der neuen, hochempfindlichen Methode der Stir Bar Sorptive Extraction, eine enantioselektive Analyse von - Nonalacton und verschiedenen Monoterpenen durchzuführen. -Nonalacton konnte dabei in allen untersuchten Proben mit einem nahezu racemischen Enantiomerenverhältnis nachgewiesen werden. Die Enantiomerenreinheit und die Schwankungen der Enantiomerenverhältnisse für die untersuchten Monoterpene waren stark variierend. Es konnte dabei aber weder eine Herkunfts- noch eine Jahrgangsabhängigkeit festgestellt werden. Die sehr geruchsaktive Substanz Guajacol wurde in Schoten der Gattungen V. planifolia und V. tahitensis semiquantitativ untersucht. Es konnte aber auch hier keine Abhängigkeit von der Herkunft der Schoten festgestellt werden. Um weitere geruchsaktive Minorkomponenten zu identifizieren, wurde ein Headspace- Extrakt von Vanilleschoten mittels Gaschromatographie-Olfaktometrie untersucht. Es konnten dabei die beiden Substanzen Kreosol und 4- Hydroxybenzylamin identifiziert werden. Letztgenanntes war bisher als natürlicher Aromastoff nicht bekannt. Obwohl beide Komponenten nur im ppb- Bereich vorkommen, leisten sie dennoch eine Beitrag zum Gesamtaroma von Vanille. Insgesamt konnten im Rahmen dieser Arbeit neue Wege im Hinblick auf die Analytik und Authentizitätsbewertung von Vanille aufgezeigt werden.
Es wurden 1000 von der Polizei in und um Frankfurt am Main in der Praxis ermittelte AAK-Messwerte und die entsprechenden BAK, die im Zentrum der Rechtsmedizin der Johann Wolfgang Goethe-Universität in Frankfurt am Main bestimmt wurden, einer statistischen Auswertung unterzogen. In die Auswertung sind alle aus den Untersuchungsunterlagen entnehmbaren Parameter, wie Geburtsdatum der Probanden, Geschlecht, Datum und Uhrzeit der AA-Entnahme, AAK, Datum und Uhrzeit der Tat, zuständiges Polizeirevier, AAK-Messgerät, BAK, Datum und Uhrzeit der Blutentnahme, eingeflossen. Die statistische Auswertung hat ergeben, dass die durchschnittliche Differenz aller AAK- und BAK-Werte bei -0,02 Promille liegt, mit einer Standardabweichung von ±0,35 Promille bei einer maximalen Differenz von -1,13 Promille nach unten und +2,81 Promille nach oben. Die Standardabweichung von ±0,35 Promille wurde als Grenzwert zur Überprüfung der Korrelation der wahrscheinlichen BAK zum Zeitpunkt der AAK-Bestimmung gewählt. Trotz der großen Spanne des Grenzbereichs von 0,7 Promille wurden nur 77,9% der AAK-BAK-Paare als korrelierend ermittelt. Bei Festlegen individueller Grenzwerte, gebildet aus der minimalen bzw. der maximalen BAK zum Zeitpunkt der AAK-Bestimmung, erwiesen sich nur noch 34,7% der Wertepaare als korrelierend. Der durchschnittliche BAK-AAK-Quotient betrug 1:2181, mit einer Standardabweichung von ±1:473. Die Quotientenspanne lag zwischen 1:0 und 1:4480. Als einziger, eindeutig nachzuweisender Faktor für die Beeinflussung der AAK-Messwerte galt die tatsächliche Höhe der BAK. Je höher die Probanden-BAK war, umso größer waren die AAK-Abweichungen von der BAK. Erwähnenswert ist, dass die AAK-Messgeräte der Firma Dräger (Alcotest® 7310 und 7410), auf Redox-Halbleiter-Gassensoren aufbauend, die indirekte BAK im Durchschnitt zu hoch, während die Brennstoffzellen-Geräte LMB S-D3 der Firma LMB Laborservice GmbH die indirekte BAK im Durchschnitt zu niedrig angaben. Die Untersuchung der Wertepaare aus AAK und minimaler BAK zum Zeitpunkt der AAKBestimmung im Vergleich zu den vom Gesetzgeber vorgegebenen Promille-Stufen für ein bestimmtes Strafmaß (0,3 Promille, 0,5 Promille, 0,8 Promille, 1,1 Promille, 1,6 Promille, 2,0 Promille, 3,0 Promille) hat ergeben, dass bei dem vorliegenden Datenmaterial 203 Probanden eine zu niedrige und 239 Probanden eine zu hohe Strafe erhalten hätten, wenn die AAK als alleiniges Maß verwendet worden wäre. Diese Fehleinschätzung wäre eingetreten, weil die AAK der Probanden über bzw. unter den oben genannten Grenzwerten lag und sich ihre BAK umgekehrt unter bzw. über denselben Werten befand. Es lässt sich feststellen, dass eine Berechnung der BAK aus dem Ethanolgehalt der Atemluft nicht möglich ist, weil viele Faktoren die AAK-Messung beeinflussen, die bisher unberücksichtigt blieben und auch von modernen, hochpräzisen AAK-Messgeräten schwerlich erfasst werden können. Daher gilt die Empfehlung, die AAK-Messung nur als Vorprobe und zum Screening zu verwenden. Bei juristischen Begutachtungen sollte nur die BAK verwendet werden, weil diese als einziger Wert präzise und beweissicher ist und außerdem über den Trunkenheitszustand eindeutig informiert. Betroffene sollten auf jeden Fall auf einer BAK-Untersuchung bestehen und die AAK als Messwert in Frage stellen.
Die Kombination aus proteolytischer Spaltung, massenspektrometrischer Analyse und Datenbanksuche ist eine etablierte Methode zur Identifizierung von Proteinen. Ist die Identität eines Proteins geklärt, dann stellt sich im Anschluß daran häufig die Frage nach den posttranslationalen Modifikationen des Proteins. Auch hierfür ist die Massenspektrometrie eine prädestinierte und häufig angewandte Methode. Eine der wichtigsten posttranslationalen Modifikationen eukaryotischer Proteine ist die Phosphorylierung an Ser-, Thr- und Tyr-Resten. In der vorliegenden Arbeit ist die Weiterentwicklung und Anwendung zweier massenspektrornetrischer Methoden zur Analyse der Proteinphosphorylierung beschrieben: i) der Neutralverlust-Scan zur selektiven Detektion von Ser/Thr-phosphorylierten Peptiden, und ii) die Metallaffinitätschromatographie zur selektiven Anreicherung von Phosphopeptiden. Bei der Optimierung der Analytik der Proteinphosphorylierung mittels Neutralverlust-Scan hatte sich am Beispiel der katalytischen Untereinheit der Proteinkinase A gezeigt, dass die Verwendung einer Protease mit geringer Spaltungsspezifität (Elastase) wesentliche Vorteile gegenüber einer Protease mit hoher Spaltungsspezifität (Trypsin) besitzt. Die kleineren Elastase-generierten Phosphopeptide zeigen im Vergleich zu den Trypsin-generierten Phosphopeptiden eine effektivere Phosphorsäure-Abspaltung und lassen sich im Neutralverlust-Scan mit deutlich besserer Empfindlichkeit detektieren. in weiterer Vorteil der Elastase ist in ihrer Eigenschaft partiell überlappende Peptide zu generieren begründet. Die Metallaffinitätschrornatographie wurde eingesetzt, um die Elastase-generierten Phosphopeptide selektiv anzureichern. Es konnte gezeigt werden, dass die Metallaffinitätschromatographie eine geeignete Methode ist, um die Komplexität des Elastase-generierten Peptidgemischs drastisch zu reduzieren, so dass eine automatische Fragmentionen-Analyse aller angereicherten Peptide mittels nanoESl möglich ist. Die Leistungsfähigkeit der Kombination aus Elastase-Verdau, Metallaffinitätschromatographie und Q-TOF- Tandem-MS wurde am Beispiel des Transkriptionsinitiationsfaktors IA unter Beweis gestellt, wo mit Hilfe dieser Analysen-Strategie drei bislang unbekannte in-vivo-Phosphorylierungsstellen nachgewiesen werden konnten. Neben der Proteinphosphorylierung wurden in dieser Arbeit auch eine Reihe anderer kovalenter Modifikationen untersucht. Bei der Analyse der katalytischen Untereinheit der Proteinkinase A konnten neben einer bislang unbekannten fünften Phosphorylierungsstelle an Ser259 auch die Modifikation von Cys343 durch Glutathion und die N-terminale Modifikation durch Gluconsäure nachgewiesen werden. Mittels Q-TOF-Tandem-MS wurde die in-vivo-Myristoylierung des humanen Proteins GAPR 1 nachgewiesen. Mittels der sog Top-Down-Analyse wurde am Beispiel des Proteins Dynamin A gezeigt, wie mittels dieser Strategie eine vollständige Charakterisierung aller kovalenten Modifikationen eines Proteins erreicht werden kann. Im Falle von Dynamin A konnte die Acetylierung des N-terminalen Methionins nachgewiesen werden. Andere kovalente Modifikationen konnten ausgeschlossen werden. Im letzten Kapitel der vorliegenden Arbeit wird am Beispiel von Dynamin A gezeigt, wie sich die Kombination aus partieller proteolytischer Spaltung, Tandem-MS und Datenbanksuche effektiv zur Charakterisierung der Domänenstruktur von Proteinen einsetzen lässt.
Im Rahmen der vorliegenden Arbeit wird experimentell ein oszillatorischer Hall-Strom nachgewiesen, der sich in einem impulsiv optisch angeregten Halbleiterühergitter ausbildet, sobald sich dieses in einem statischen magnetischen Feld und einem dazu senkrechten statischen elektrischen Feld befindet. Das Übergitter dient dabei als Modellsystem für ein dreidimensionales Material und ermöglicht die Beobachtung eines unter dem Begriff "kohärenter Hall-Effekt" zusammengefassten Bewegungsverhaltens der Ladungsträger, das durch eine charakteristische Frequenzabhängigkeit des oszillatorischen Hall-Stromes von den äußeren Feldern gekennzeichnet ist. Dabei wird in der vorliegenden Arbeit das spezielle Bewegungsverhalten mit Hilfe eines semiklassischen Modells hergeleitet und diskutiert. Die zentrale Aussage des Modells ist die Existenz zweier scharf voneinander abgegrenzter Bewegungsregimes, (die sich durch eine entgegengesetzte Feldabhängigkeit der Oszillationsfrequenz auszeichnen. Am Übergang zwischen diesen beiden Regimes werden alle Oszillationen aufgrund einer gegen Null gehenden Frequenz unterdriickt. Dabei lässt sich im Gegensatz zum Ortsraum der Übergang zwischen den beiden Bewegungsregimes im k-Raum einfach klarmachen. Er wird durch die Überwindung der Mini-Brillouin-Zonengrenze durch das Ladungsträgerwellenpaket markiert und bestimmt, ob die Bewegungsform Bloch-oszillationsartig oder zyklotronartig ist. Der experimentelle Nachweis des kohärenten Hall-Effektes wird durch die Anwendung einer berührungsfreien optoelektronischen Technik ermöglicht, mit deren Hilfe das emittierte elektrische Feld der kohärenten, transienten Hall-Ströme zeitaufgelöst detektiert werden kann. Da diese Technik die Messung frei propagierender Strahlung im THz-Frequenzbereich gestattet, bezeichnet man die Methode als THiz-Emissionsspektroskopie. Im Gegensatz zum klassischen Hall-Effekt stellt sich der kohärente Hall-Effekt als Manifestation der Wellennatur (der Ladungsträger dar, die sich im Festkörper durch eine periodische Dispersionsrelation äußert,. Erst. die kohärente Präparation eines Ladungsträgerensembles ermöglicht dabei (die Beobachtung der mikroskopischen Vorgänge in Form einer transienten Bewegung, die, bedingt durch ultraschnelle Streuprozesse, auf kurzen Zeitskalen von etwa 1 ps dephasiert. Die Kohärenz wird dem System dabei mittels eines kurzen Laserpulses von etwa 100 fs Dauer aufgeprägt, mit dessen Hilfe die Ladungsträger im Übergitter optisch generiert werden. Diese Vorgehensweise ist mit der experimentellen Untersuchung von Bloch-Oszillationen vergleichbar, die ebenfalls erst durch die kohärente Präparation der Ladungsträger messbar werden. Die inkohärente Bewegung der Ladungsträger in einem Kristall unter dem Einfluss eines konstanten elektrischen Feldes wird bekanntermaßen durch das Ohmsche Gesetz beschrieben analog etwa der Beschreibung der IIall-Spannung beim klassischen Hall-Effekt.. Im Rahmen der vorliegenden Arbeit gelingt der erste Nachweis des beschriebenen kohärenten Effektes und damit, der Beleg, dass es auch in dreidimensionalen Halbleitern, hier repräsentiert durch ein Übergitter, möglich ist, kohärente Signaturen des Hall-Effektes zu beobachteten. Im Gegensatz zu speziellen zweidimensionalen Strukturen, wie sie beim integralen und fraktionalen Quanten-Hall-Effekt verwendet werden, ist dies hier aufgrund des größeren Zustandsraumes und der dadurch bedeutenderen Dephasierungsprozesse nur auf sehr kurzen Zeitskalen realisierbar.
Im ersten Abschnitt der Doktorarbeit wurden kurze alpha-helikale Modellpeptide mit Oligosacchariden, die Teile der Core-Region der N-Glycane bilden, N-glycosyliert, um den konformationellen Effekt der N-Glycosylierung auf das Peptidrückgrat zu untersuchen. CD- und NMR-Untersuchungen ergaben, daß die Konformation der N-Glycopeptide durch die Größe der angehängten N-Glycanreste und die Wahl der Aminosäurereste nahe der Glycosylierungsstelle beeinflußbar war. Die signifikantesten konformationellen Änderungen ergaben die N-Glycosylierung mit einem Monosaccharid beziehungsweise einem Pentasaccharid. Die Kombination von organischer Synthese mit biologischen Methoden ermöglicht es heute, neben den 20 natürlichen Aminosäuren, auch unnatürliche Aminosäuren ortsspezifisch in Proteine einzubauen. Dabei wird das Codon für die jeweilige Aminosäure durch Oligonucleotid-Mutagenese durch das Nonsense-Codon UAG ersetzt. Für dieses spezielle Codon wird eine Suppressor-tRNA hergestellt und in vitro chemisch mit der gewünschten unnatürlichen Aminosäure aminoacyliert. Mit dem späteren Ziel einer in vitro-N-Glycoproteinsynthese wurde hier die Darstellung von N-glycosylierten Aminosäuren und der Versuch der Anknüpfung an ein Dinukleotid pdCpA beschrieben. Die für die Aminoacylierung des Dinukleotids geeigneten Zuckeraminosäuren trugen Nterminal die photochemisch abspaltbare NVOC-Schutzgruppe, Acetylgruppen an den Zucker-OH-Funktionen und eine Cyanomethylaktivesterfunktion am C-Terminus. Die Aminoacylierungsreaktionen führten nicht zu dem gewünschten N-Glycosylaminoacyldinukleotid. Insbesondere durch die Wahl anderer Zuckerschutzgruppen sollte dennoch die Acylierung des Dinukleotids pdCpA mit einer N-glycosylierten Aminosäure gelingen. Der dritte Teil der Doktorarbeit beinhaltete die Synthese eines Prionen-N-Glycoproteins über chemische Ligation eines Thioesters mit einem Cystein-Peptid. Die Verknüpfung von Peptidfragmenten erlaubt die selektive Isotopen-Markierung, was die Strukturaufklärung mit Hilfe der NMR-Spektroskopie enorm vereinfacht. Die Funktion der Glycosylierung des Prionenproteins scheint in wenigen Aspekten geklärt zu sein. Unklar ist, ob die N-Glycosylierung auch die Konformation des Prionenproteins verändern kann. Ein kurzes Prionen-N-Glycopeptidfragment SHA PrP172-194 aus der Helix B des Prionenproteins wurde der Strukturanalyse unterzogen, wobei ein Effekt der NGlycosylierung auf die Konformation des Peptidrückgrats verzeichnet werden konnte. Motiviert durch diese Ergebnisse wurden in der Doktorarbeit das Prionenproteinfragment SHA PrP12l-178 als N-terminales Thioesterfragment und das Fragment SHA PrP179-231 als C-terminales Cystein-Peptid mit Festphasenpeptidsynthese dargestellt. Mit diesen wasserlöslichen Proteinfragmenten wurde erfolgreich eine chemische Ligation unter denaturierenden Bedingungen durchgeführt. Da man selektiv Isotopen-markierte Proteine herstellen wollte, war man auf die biochemische Expression des N-terminalen Thioesterfragments SHA PrPl2l-178 angewiesen. Dr. S. Becker (Max-Planck-Institut für Biophysikalische Chemie, Göttingen) gelang die Expression eines unmarkierten Prionen-Inteinfusionsproteins, aus dem durch Thiol-vermittelte Inteinspaltung ein Thioester generiert werden konnte. Auch mit diesem biochemischen Ligationsansatz konnte das Fragment SHA PrP121-23l erhalten werden. Ein N-glycosyliertes Prionenfragment SHA PrP179-231 wurde in der vorliegenden Doktorarbeit ebenfalls dargestellt und steht für Intein-vermittelte Ligationsreaktionen zur Verfügung.
Eintrag organischer Umweltchemikalien aus der Oder in den anaeroben Grundwasserleiter des Oderbruchs
(2002)
In der vorliegenden Arbeit wurde im Rahmen des DFG-Schwerpunktprogrammes 546 ,,Geochemische Prozesse mit Langzeitfolgen im anthropogen beeinflussten Sickerwasser und Grundwasser" der Eintrag organischer Umweltchemikalien aus der Oder in den anaeroben Grundwasserleiter des Oderbruchs untersucht. Ausgewählt wurden verschiedene Vertreter der Stoffklassen Antioxidantien und Phosphorsäureester sowie die beiden Xenoöstrogene Bisphenol A und 4-Nonylphenol, denen eine endokrine (hormonähnliche) Wirkung auf Organismen zugeschrieben wird. Solche Umweltchemikalien werden seit ca. 40 Jahren in großen Mengen für verschiedene Zwecke in Industrie und Privathaushalten eingesetzt oder sie entstehen durch photochemischen oder mikrobiologischen Abbau unter Umweltbedingungen. Die Chemikalien gelangen durch Produktion und Verwendung in die Abwässer und werden durch Direkteinleitungen geklärter Abwässer in die Oberflächengewässer eingetragen. Durch den Prozess der Uferfiltration werden im Oderbruch organische Verbindungen von der Oder ins Grundwasser des angrenzenden Aquifers transportiert. Viele Umweltkontaminanten sind unter aeroben Bedingungen gut biologisch abbaubar. Wie sie sich aber in einer sauerstofffreien Umgebung verhalten, ist bis heute relativ unerforscht. Es ist notwendig, die Prozesse bei der Uferfiltration zu kennen, da heute zunehmend mehr Trinkwasser aus Uferfiltrat gewonnen wird und Umweltchemikalien somit eine potentielle Gefahr für die Trinkwasserversorgung darstellen. Eine zweite Eintragsquelle stellen die Niederschläge dar. Viele organische Verbindungen besitzen die Fähigkeit, aufgrund ihrer physikalischen Paramter von freien Wasser- und Bodenoberflächen oder aus den Produkten, in denen sie enthalten sind, in die Atmosphäre zu verdampfen. Über den Regen gelangen sie schließlich zurück auf die Erde und können so mit dem Sickerwasser bis in tiefere Zonen des Aquifers transportiert werden. Für Vergleichszwecke wurden auch andere Fließgewässer in Deutschland bezüglich der Belastung durch die ausgewählten Umweltchemikalien untersucht. In Ergänzung und Fortsetzung bisheriger Publikationen wurde mit der vorliegenden Arbeit die Konzentrationsentwicklung dieser Stoffe in den Flüssen Rhein, Main, Elbe, Nidda und Schwarzbach dokumentiert. Ein weiterer Schwerpunkt dieser Arbeit lag darin, die Frage nach dem Eintrag dieser Umweltchemikalien in die Flüsse zu beantworten. Dazu wurde Abwasser und Regenwasser auf die Anwesenheit der entsprechenden Verbindungen untersucht. Das Hauptuntersuchungsgebiet stellte die Oder im Grenzbereich Deutschland-Polen sowie der anaerobe Grundwasserleiter des Oderbruchs dar. Dieses Gebiet westlich der Oder im Bundesland Brandenburg wurde ausgewählt, da hier die besondere hydrologische Situation gegeben ist, dass das Flusswasser der Oder mit Geschwindigkeiten von 0,2-5 m/d in den angrenzenden Aquifer infiltriert. Da im Aquifer des Oderbruchs durchweg reduzierende Verhältnisse herrschen, eignet sich dieser in besonderer Weise, das Verhalten organischer Substanzen unter anaeroben Bedingungen zu untersuchen. Hydrogeologisch betrachtet sind im quartären Untergrund des Oderbruchs zwei Hauptgrundwasserleiter ausgebildet. Beide Horizonte werden durch eine undurchlässige Schicht aus Geschiebemergel voneinander getrennt. Gegenstand der vorliegenden Untersuchungen war ausschließlich der obere Hauptgrundwasserleiter, in dem durchweg anaerobe Bedingungen herrschen. Bei einer durchschnittlichen Mächtigkeit von 20-30 m wird der Aquifer im wesentlichen aus holozänen und pleistozänen Sanden und Kiesen aufgebaut. Charakteristisch für das Oderbruch ist der sogenannte ,,Auelehm". Es handelt sich hierbei um flächenhaft verbreitete bindige Deckschichten mit unterschiedlichen Mächtigkeiten. In einigen Bereichen des Oderbruchs fehlen diese undurchlässigen Deckschichten völlig, weshalb das Niederschlagswasser ungehindert in den Aquifer eindringen kann. In anderen Bereichen variiert die Mächtigkeit des Auelehms lokal. Mit zunehmender Entfernung von der Oder nimmt sie stark ab. In Bereichen ab ca. 3000 m Entfernung vom Fluss sind die Auelehmdeckschichten nicht mehr vorhanden, weshalb hier der Eintrag organischer Stoffe mit den Niederschlägen in einen Aquifer begünstigt wird. Im Vorfeld dieser Arbeit hat die Auswertung der zur Schadstoffbelastung der Oder vorliegenden Literatur gezeigt, dass sich die wenigen Untersuchungen vor allem mit dem Auftreten sogenannter persistenter organischer Schadstoffe wie polychlorierte Biphenyle (PCB), Dioxine, Furane und Chlorpestizide beschäftigten. Umweltchemikalien wie Antioxidantien, Phosphorsäureester und Xenoöstrogene, die unter aeroben Bedingungen gut biologisch abgebaut werden, treten oft in den Hintergrund der Betrachtung, da von einer vollständigen Eliminierung dieser Substanzen ausgegangen wird. Diese Industriechemikalien, die Gegenstand dieser Arbeit sind, werden in so hohen Mengen produziert und eingesetzt, dass die Abbaukapazität in Böden und Gewässern häufig überschritten wird. In der vorliegenden Arbeit wurde zunächst eine empfindliche Messmethode zur Bestimmung von mittelpolaren organischen Umweltkontaminanten aus matrixreichen Wasser- und Abwasserproben im unteren Nanogramm/Liter-Bereich entwickelt. Die Analysenmethode basierte auf der Extraktion der Wasserproben mittels Festphasenextraktion (SPE) sowie dem hochempfindlichen Nachweis der Analyten mittels Kapillargaschromatographie/ Massenspektrometrie (GC/MS). Damit konnten zahlreiche Verbindungen mit einem relativ geringen Arbeitsaufwand im Routinebetrieb mit Wiederfindungsraten von 68 bis 95 % in den Wasserproben identifiziert und quantifiziert werden. Die Bestimmungsgrenzen für die einzelnen Verbindungen lagen zwischen 3-53 ng/l. Insgesamt sind in diesem Projekt von März 1999 bis Juli 2001 sechs Beprobungskampagnen im halbjährlichen Rhythmus durchgeführt worden. Zur Beprobung standen die im Rahmen dieses Schwerpunktprogrammes von Mitarbeitern der FU Berlin sowie des ZALF in Müncheberg im Oderbruch installierten Grundwassermessstellen der Transsekten Bahnbrücke und Nieschen zu Verfügung. Im Bereich der Transsekte Bahnbrücke ist der ,,Auelehm" weit verbreitet, allerdings mit lokal variierenden Mächtigkeiten. Mit zunehmender Entfernung von der Oder nimmt die Mächtigkeit dieser Deckschicht ab, bis sie in einer Entfernung von ca. 5000 m überhaupt nicht mehr vorhanden ist. Vereinzelt sind den überwiegend sandig bis kiesigen Sedimentfolgen, die den Aquifer im Bereich der Transsekte Bahnbrücke überwiegend aufbauen, in unmittelbarer Nähe der Oder geringmächtige Tonlagen zwischengeschaltet. Dadurch wird der Aquifer in flussnähe in zwei Teilbereiche gegliedert. Der untere Teilbereich steht im direkten hydraulischen Kontakt zur Oder und wird so maßgeblich durch das Uferfiltrat beeinflusst. Im Hangenden dieses grundwasserleitenden Horizontes folgt ein zweiter Teilbereich, der durch eine stauende Tonschicht an der Basis hydraulisch von der Oder getrennt ist und so überwiegend von infiltrierendem Niederschlagswasser sowie vom Oderwasser bei Überschwemmungen geprägt wird. Im Bereich der Transsekte Nieschen besteht der Grundwasserleiter ausschließlich aus sandig-kiesigen Sedimentfolgen. Außerdem fehlt hier der Auelehm und damit eine den Aquifer schützende Deckschicht. Daher ist im Bereich der Transsekte Nieschen der Einfluss von infiltrierendem Niederschlagswasser auf den Grundwasserchemismus besonders stark ausgeprägt, da dieses ungehindert in den Aquifer eindringen kann. Parallel zu jeder Grundwasserprobennahme wurde an ausgewählten Standorten in Deutschland eine Beprobung verschiedener Oberflächengewässer durchgeführt sowie Dachablaufproben gesammelt. Bei der letzten Beprobungskampagne wurden im Oderbruch eine Niederschlagsprobe sowie zwei Dachablaufproben genommen. Zum gleichen Zeitpunkt wurden Zu- und Abläufe der Kläranlage einer Stahlverarbeitungsfirma sowie dreier kommunaler Kläranlagen in der Umgebung des Oderbruchs beprobt. Sämtliche beprobten Kläranlagen leiten ihre geklärten Abwässer in die Oder. Folgende organische Verbindungen wurden in den Proben identifiziert und in drei Gruppen eingeteilt: Die Gruppe der Antioxidantien mit den Vertretern 3,5-Di-tert.-butyl-4-hydroxytoluol (BHT), 3,5-Di-tert.-butyl-4-hydroxybenzaldehyd (BHT-CHO) und 1,2-Bis(3,5-di-tert.- butyl-4-hydroxy-phenyl)ethan (2-BHT), die Gruppe der Phosphorsäureester mit den Vertretern Tributylphosphat (TBP), Tris(2-chloroethyl)phosphat (TCEP) und Tris(2- butoxyethyl)phosphat (TBEP) sowie die Gruppe der Xenoöstrogene mit den Vertretern 2,2- Bis-(4-hydroxyphenyl)propan (BPA) und 4-Nonylphenol (4-NP). Die organischen Verbindungen BHT, TBP, TCEP, TBEP und BPA sind weltweit eingesetzte, industriell hergestellte Chemikalien. 4-NP ist ein Abbauprodukt nichtionischer Tenside (Nonylphenolpolyethoxylate = NPnEO), die als Detergentien in Waschmitteln eingesetzt werden. Bei der Verbindung BHT-CHO handelt es sich um ein Abbauprodukt des Antioxidationsmittels BHT und bei 2-BHT um ein Dimeres von BHT. Sämtliche organische Umweltchemikalien und Metabolite konnten in kommunalen und industriellen geklärten und ungeklärten Abwässern, im Niederschlag und im Dachablauf, in Oberflächengewässern sowie im Grundwasser nachgewiesen werden. Abwasser: In den kommunalen Zuläufen betrug die mittlere BHT-Konzentration 392 ng/l und in den Abläufen 132 ng/l. Für BHT-CHO lag die mittlere Konzentration in den kommunalen Zuläufen bei 113 ng/l und in den Abläufen bei 70 ng/l. Auch die drei Phosphorsäureester wurden in allen untersuchten kommunalen Zuläufen mit mittleren Konzentrationen von 15404 ng/l für TBP, 986 ng/l für TCEP und 12835 ng/l für TBEP nachgewiesen. Die Durchschnittskonzentration in den Abläufen der drei kommunalen Kläranlagen lag bei 622 ng/l für TBP, 352 ng/l für TCEP und 2955 ng/l für TBEP. Das Xenoöstrogen BPA wurde in den Zuläufen mit durchschnittlich 6579 ng/l und in den Abläufen mit 1656 ng/l bestimmt. Die Verbindung 4-NP trat hingegen nur in den Abläufen der kommunalen Kläranlagen mit durchschnittlich 385 ng/l auf. Die Konzentrationen von BHT, TBP, TCEP und TBEP im Zulauf der betriebseigenen Kläranlage einer Stahlverarbeitungsfirma bei Eisenhüttenstadt waren durchweg geringer als die mittleren Konzentrationen dieser Stoffe in den Zulaufproben der kommunalen Kläranlagen. Diese Industriechemikalien finden vor allem in Haushaltsprodukten Verwendung und werden so hauptsächlich durch die Abwassereinleitungen kommunaler Kläranlagen in die Oberflächengewässer eingetragen. Im Gegensatz dazu wurden im Abwasser der industriellen Kläranlage die höchsten Konzentrationen für die beiden Xenoöstrogene BPA und 4-NP festgestellt, da diese Stoffe bei der Metallverarbeitung als Zusatzstoff bzw. als Reinigungsmittel eingesetzt werden. Sämtliche hier zur Diskussion stehenden Verbindungen, mit Ausnahme von 4-NP, wurden durch den Klärprozess mit Raten von 29,1-96,0 % eliminiert. Die Substanzen TBP und TBEP, die in höheren Konzentrationen von mehreren Mikrogramm/l im ungeklärten Abwasser enthalten waren, wurden effektiver durch den Klärprozess eliminiert, als dies bei Substanzen mit geringeren Konzentrationen wie BHT und TCEP der Fall war. Eine besondere Stellung im Eliminierungsprozess in den Kläranlagen nimmt 4-NP ein. Diese endokrin wirksame Substanz konnte ausschließlich in den Ablaufproben der kommunalen Kläranlagen nachgewiesen werden, was darauf hindeutet, dass sie erst während des Klärprozesses durch biologischen Abbau von NPnEO gebildet wird. Da allerdings kommunale Kläranlagen neben Abwasser auch einen großen Anteil an Oberflächenabfluss und damit Niederschlagswasser aufnehmen, stellt sich an dieser Stelle die Frage, warum 4-NP in den Zulaufproben nicht oberhalb der Nachweisgrenze nachgewiesen werden konnte. Niederschlag- und Dachablauf enthielten immerhin durchschnittlich 942 ng/l 4-NP. Hier besteht weiterhin Klärungsbedarf. Das Auftreten aller Substanzen in sämtlichen Ablaufproben zeigt, dass die Direkteinleitungen geklärter Abwässer in die Flüsse eindeutig eine Eintragsquelle für das gesamte untersuchte Stoffspektrum in die aquatische Umwelt darstellen. Ein weiterer Schadstoffeintrag ist durch die Aufbringung von Klärschlamm auf landwirtschaftliche Nutzflächen gegeben. Aufgrund der hohen Werte der Octanol/Wasserverteilungskoeffizienten (logPOW) der hier untersuchten Verbindungen muss eine Adsorption der Substanzen an Klärschlamm und ein damit verbundener Eintrag ins Grundwasser durch Remobilisierungserscheinungen ebenfalls als Eintragsquelle in Betracht gezogen werden. Generell gingen in den letzten Jahren die Mengen an BHT, die über die Einleitungen geklärter Abwässer in die Oberflächengewässer gelangen, zurück. Vor fast 30 Jahren gelangte in den USA vereinzelt noch ungefähr die 100fache Menge der Substanz über Abwassereinleitungen in die Vorfluter. Für TBP, TCEP und TBEP war im geklärten Abwasser deutscher Kläranlagen in den letzten 20 Jahren ebenfalls eine Konzentrationsabnahme zu beobachten. Der Grund hierfür liegt in der Ausweitung des Kläranlagennetzes sowie in der Verbesserung vorhandener Abwasserreinigungsanlagen (vor allem in den neuen Bundesländern). Dagegen ist die BPA-Konzentration im geklärten Abwasser in der Bundesrepublik Deutschland in den letzten drei Jahren geringfügig gestiegen, was auf die steigenden Produktionszahlen dieser Massenchemikalie zurückgeführt werden kann. Für 4-NP wurde in der BRD in den letzten fünf Jahren ein leichter Konzentrationsrückgang im geklärten Abwasser beobachtet. Dies kann damit in Zusammenhang gebracht werden, dass die deutsche Wasch- und Reinigungsmittelindustrie im Jahr 1986 eine freiwillige Verzichterklärung bezüglich des Einsatzes von NPnEO abgegeben hat. Durch den geringeren Einsatz dieser nichtionischen Tenside in den Produkten gelangen weniger NPnEO mit dem Abwasser in die Kläranlagen. Folglich wird im Verlauf der Abwasserbehandlung auch weniger 4-NP durch biologischen Abbau gebildet. Trotz dieser Verzichterklärung kann 4-NP dennoch bis heute in deutschen Kläranlagenabläufen nachgewiesen werden. Im internationalen Vergleich mit Österreich, Italien, England, Schottland, Schweiz, Kanada und den USA sind die 4-NP-Konzentrationen im geklärten Abwasser in Deutschland allerdings relativ gering. Niederschlag und Dachablauf Alle ausgewählten Verbindungen konnten sowohl in der Niederschlagsprobe aus dem Oderbruch als auch in den Dachablaufproben nachgewiesen werden. Aufgrund ihrer physikalischen Eigenschaften wie Dampfdruck und Henry-Konstante ist die Voraussetzung für einen Eintrag in die Atmosphäre für alle im Rahmen dieser Arbeit untersuchten Substanzen generell gegeben. BHT und BHT-CHO konnten mit durchschnittlich 510 ng/l bzw. 171 ng/l in Niederschlag- und Dachablauf nachgewiesen werden (n=5). Der Maximalwert für BHT lag dabei bei 1797 ng/l in einer Dachablaufprobe und für BHT-CHO bei 474 ng/l in der Niederschlagsprobe. Die mittlere Konzentration der Phosphorsäureester in den untersuchten Niederschlags- und Dachablaufproben lag bei 951 ng/l für TBP, bei 151 ng/l für TCEP und bei 338 ng/l für TBEP. Dabei erreichte TBP ein Maximum von 1344 ng/l, TCEP von 327 ng/l und TBEP von 448 ng/l (die Maximalwerte der Phosphorsäureester wurden jeweils in einer Dachablaufprobe bestimmt). 4-NP wurde mit einer mittleren Konzentration von 942 ng/l im Niederschlag- und Dachablauf gemessen. Das 4-NP- Maximum lag bei 1231 ng/l (Dachablauf). BPA konnte mit durchschnittlich 1251 ng/l in Niederschlag- und Dachablauf nachgewiesen werden. Die maximale BPA-Konzentration lag dabei bei 4085 ng/l in der Niederschlagsprobe aus dem Oderbruch. Die hohen Konzentrationen von BPA im Regen konnten im Rahmen dieser Arbeit nicht erklärt werden. Die Verbindung besitzt einen sehr niedrigen Dampfdruck (0,000005 Pa bei 25°C), der nicht ausreicht, um solch hohe Konzentrationen in der Atmosphäre hervorzurufen. Eine Verunreinigung der Regenwasserproben bei der Probennahme ist hier als Grund für die hohen BPA-Konzentrationen in Betracht zu ziehen und durch die Analyse weiterer Niederschlags- und Dachablaufproben zu überprüfen. Die Substanzen BHT, BHT-CHO, TBP und 4-NP waren im Vergleich zum geklärten Abwasser in höheren Konzentrationen in Niederschlag und Dachablauf enthalten. Diese Stoffe werden somit verstärkt über die Atmosphäre mit den Niederschlägen in die Umwelt eingetragen. Hier besteht Klärungsbedarf bezüglich dessen, dass 4-NP zwar im Regenwasser nicht aber in den Zuläufen der kommunalen Kläranlagen nachgewiesen werden konnte. Die mittleren Regenwasserkonzentrationen von BHT, BHT-CHO, TBP und 4-NP lagen ebenfalls über den mittleren Konzentrationen in Oberflächen- und Grundwasser. Zwei der Dachablaufproben stammten aus dem Rhein-Main Gebiet. In solchen Ballungszentren sind häufig höhere Gehalte an organischen Umweltchemikalien im Regenwasser enthalten als in ländlichen Gebieten, was einen Anstieg der Durchschnittskonzentration in sämtlichen Regenwasserproben zur Folge hat. Hinzu kommt, dass sich Verbindungen wie 4-NP, die einen hohen Dampfdruck aufweisen, relativ gleichmäßig in der Atmosphäre verteilen und so auch in Gebiete gelangen, die nicht durch hohe Schadstoffemissionen gekennzeichnet sind. Dies hat ebenfalls relativ hohe Konzentrationen im Regenwasser zur Folge. Ein dritter Grund für die höheren Konzentrationen im Regenwasser im Vergleich zum Oberflächen- und Grundwasser könnte die Adsorption organischer Umweltchemikalien mit hohen Octanol/ Wasserverteilungskoeffizienten an Sedimentpartikel, Schwebstoffe und/oder organische Substanz in Fluss und Aquifer sein. Die mittleren Konzentrationen der beiden Phosphorsäureester TCEP, TBEP und BPA waren im Vergleich zum geklärten Abwasser der kommunalen Kläranlagen im Regenwasser deutlich niedriger. Der Eintrag über die Atmosphäre ist folglich für diese Verbindungen von geringerer Bedeutung. Am Beispiel des Phosphorsäureester TBEP konnte dennoch demonstriert werden, dass der atmosphärische Eintrag organischer Verbindungen mit relativ geringen Dampfdrücken nicht zu vernachlässigen ist, da solche Substanzen die Tendenz zeigen, an Aerosolpartikel zu adsorbieren und mit dem Aerosol transportiert zu werden. Oberflächenwasser Die untersuchten Umweltchemikalien konnten in fast allen Wasserproben aus den untersuchten Oberflächengewässern mit zum Teil erheblichen Konzentrationsschwankungen nachgewiesen werden. Für BHT lagen die Konzentrationen in den Oberflächengewässern zwischen Werten unterhalb der Nachweisgrenze (<1 ng/l) und 1594 ng/l. Der Metabolit BHT- CHO wies dagegen mit einem Konzentrationsbereich von Werten unterhalb der Nachweisgrenze (<5 ng/l) bis 236 ng/l durchweg geringere Konzentrationen in den Oberflächenwasserproben auf. Der Mittelwert lag für BHT bei 233 ng/l und für BHT-CHO bei 89 ng/l (n = 47). Die Konzentrationen der Phosphorsäureester TBP, TCEP und TBEP in den untersuchten Oberflächenwasserproben schwankten zwischen Gehalten unterhalb der Nachweisgrenzen (<7 ng/l für TBP, <5 ng/l für TCEP und <6 ng/l für TBEP) und 1510 ng/l für TBP. Dabei wiesen TBP und TBEP mit Mittelwerten von 481 bzw. 465 ng/l die höchsten Konzentrationen in den untersuchten Oberflächengewässern auf. Der Mittelwert der Substanz TCEP in allen untersuchten Oberflächenwasserproben lag dagegen nur bei 165 ng/l. Die Konzentrationen der Xenoöstrogene BPA und 4-NP reichten bis maximal 1672 bzw. 1220 ng/l. Die Nachweisgrenze für BPA lag bei 10 ng/l und für 4-NP bei 6 ng/l. 4-NP trug mit einem Mittelwert von 464 ng/l am meisten von allen untersuchten Verbindungen zur Gewässerverunreinigung bei. Der Mittelwert für BPA in den Oberflächengewässern lag bei 351 ng/l. In den hier untersuchten Flüssen in der BRD war die maximale BHT-Konzentration (1594 ng/l) um das 10fache geringer als die maximale BHT-Konzentration, die noch vor 30 Jahren in deutschen Oberflächengewässern gemessen wurde (14000 ng/l). Im Vergleich zu BHT- Gehalten in japanischen (1980) und amerikanischen (1975) Oberflächengewässern lagen die aktuellen BHT-Gehalte in deutschen Flüssen deutlich darunter. Die Konzentrationen für TBP und TCEP in deutschen Oberflächengewässern sind in der Vergangenheit ebenfalls deutlich zurückgegangen. Im internationalen Vergleich liegt die BRD in Bezug auf TBP-Gehalte in Oberflächengewässern mit an der Spitze. In der Elbe konnte für die Substanz TBEP in den letzten 15 Jahren ein leichter Konzentrationsanstieg beobachtet werden. Die TBEP- Konzentration in deutschen Oberflächengewässern ist im Vergleich zu Gehalten in japanischen und amerikanischen Flüssen sowie im Trinkwasser aus Kanada gering. Der BPA- Gehalt im Rhein ist in den letzten 10 Jahren geringfügig angestiegen. Im Vergleich mit Japan und Tschechien liegen die BPA-Konzentrationen in deutschen Flüssen innerhalb von Ballungsgebieten auf einem ähnlich hohen Niveau. Die Konzentrationsentwicklung des Xenoöstrogens 4-NP war seit 1986 in deutschen Oberflächengewässern stark rückläufig, was mit der freiwilligen Verzichterklärung in diesem Jahr zusammenhängt. Trotzdem tritt 4-NP auch heute noch in Konzentrationen im Nanogramm/Liter-Bereich in deutschen Flüssen auf. Die deutschen Werte lagen allerdings deutlich unterhalb der 4-NP-Konzentrationen in Oberflächengewässern der Schweiz, England, den USA und Taiwan.. Grundwasser Das Antioxidans BHT sowie sein Abbauprodukt BHT-CHO konnten in den meisten Grundwasserproben aus dem Oderbruch mit Gehalten bis zu 2156 bzw. 541 ng/l nachge- wiesen werden. Der Mittelwert für BHT im Grundwasser lag bei 353 ng/l und für BHT-CHO bei 105 ng/l (n=76). Die Verbindung 2-BHT wurde ausschließlich im Grundwasser nachgewiesen. Dies zeigt, dass die anaeroben Bedingungen im Aquifer des Oderbruchs zur Bildung des Dimeren von BHT geführt haben. Ob diese Vermutung stimmt, dass 2-BHT tatsächlich aus dem Antioxidans BHT gebildet wird, soll in naher Zukunft anhand mikrobiologischer Abbauversuche von BHT unter anaeroben Bedingungen geklärt werden. Die Gehalte der Phosphorsäureester im Grundwasser bewegten sich in Konzentrationsbereichen bis zu 1605 ng/l (TBP), bis zu 754 ng/l (TCEP) und bis zu 2010 ng/l (TBEP) mit einem Mittelwert für TBP von 276 ng/l, für TCEP von nur 80 ng/l und für TBEP von 289 ng/l. Der Maximalwert für BPA in den Grundwasserproben betrug 4557 ng/l. Der Mittelwert für diese Verbindung im Grundwasser lag bei 630 ng/l. Betrachtet man die BPA- Konzentration in den Grundwasserproben, fällt auf, dass diese sehr starken Schwankung unterliegt, die an dieser Stelle nicht erklärt werden können. Es besteht der Verdacht einer BPA-Kontamination der Grundwasserproben bei der Probennahme, da die beprobten Messstellen im Oderbruch zur Förderung des Grundwassers mit Kunststofflinern ausgestattet wurden, die eventuell BPA als Antioxidans enthalten. In Zukunft sind daher weitere Grundwasseranalysen mit einer verbesserten Probennahmetechnik notwendig, um eine Kontamination mit BPA auszuschließen. In den Grundwasserproben war das Isomerengemisch 4-NP, ebenso wie in den Oberflächenwasserproben, im Mittel mit der höchsten Konzentration vertreten (724 ng/l). Das 4-NP-Maximum lag dabei bei 2542 ng/l. Alle ausgewählten organischen Industriechemikalien konnten in den odernahen Bereichen innerhalb der Transsekte Bahnbrücke sowohl im Grundwasser aus dem Teilbereich des Aquifers, der nur durch infiltrierendes Oderwasser gespeist wird, als auch im Grundwasser aus dem Teilbereich des Aquifers, der überwiegend von infiltrierendem Niederschlagswasser beeinflusst wird, nachgewiesen werden. Die anthropogenen Stoffe gelangen also im Bereich der Transsekte Bahnbrücke sowohl über das Uferfiltrat als auch durch Niederschlagsinfiltration ins Grundwasser. Durch die Uferfiltration spiegelten sich die Konzentrationen der vor wenigen Tagen infiltrierten organischen Verbindungen aus dem Oderwasser direkt im Grundwasser aus odernahen Bereichen wieder. Auch weiter vom Fluss entfernt liegende Aquiferbereiche innerhalb der Transsekte Bahnbrücke wurden noch von infiltriertem Oderwasser beeinflusst. Die jahreszeitlichen Konzentrationsschwankungen demonstrieren hier jedoch die Flusskonzentrationen vor einigen Jahren, da das Oderwasser mehrere Jahre braucht, um in diese Bereiche zu gelangen. Weiterhin ist auch ein Stoffeintrag ins Grundwasser mit dem Oderwasser bei Hochwasserereignissen zu berücksichtigen. Generell nahmen die Konzentrationen der organischen Umweltchemikalien mit zunehmender Entfernung von der Oder ab, was den fehlenden Niederschlagseinfluss im Aquiferbereich der Transsekte Bahnbrücke bedingt durch die schützenden undurchlässigen Deckschichten demonstriert. Im Grundwasser, das aus dem Aquiferbereich in unmittelbarer Nähe der Entwässerungsgräben stammte, war häufig eine Konzentrationsabnahme der organischen Umweltchemikalien zu beobachten. Dies beweist den hydraulischen Zusammenhang zwischen Fluss und Entwässerungsgräben. Das infiltrierte Flusswasser steigt nach der Aquiferpassage in Grabennähe auf, was zu Verdünnungseffekten im Grundwasser verbunden mit einer Konzentrationsabnahme führt. Weiterhin wurden die ausgewählten Stoffe auch in den Grundwasserproben aus dem Aquiferbereich der Transsekte Nieschen nachgewiesen, der durch das Fehlen undurchlässiger Deckschichten gekennzeichnet ist. Da hier aufgrund der Entfernung dieser Transsekte von der Oder der hydraulische Kontakt zum Fluss stark eingeschränkt ist, sind die im Grundwasser auftretenden organischen Umweltchemikalien auf einen Eintrag mit dem infiltrierenden Niederschlagswasser zurückzuführen. Für einen Eintrag der Substanzen mit dem Niederschlagswasser spricht auch die Tatsache, dass die mittleren Konzentrationen der organischen Verbindungen in den Grundwasserproben aus der Transsekte Nieschen im Gegensatz zu denen aus der Transsekte Bahnbrücke trotz eines fehlenden hydraulischen Kontakts zur Oder erhöht waren. Die starken Konzentrationsschwankungen der organischen Umweltchemikalien im Aquiferbereich der Transsekte Nieschen können zum einen auf einen Eintrag dieser Substanzen mit dem Niederschlag zurückgeführt werden. Der Aquifer im Oderbruch ist heterogen ausgebildet, was den Eintrag organischer Stoffe mit den Niederschlägen ins Grundwasser lokal fördert oder hemmt und es dadurch zu unterschiedlichen Konzentrationen kommt. Zum anderen kann angenommen werden, dass die Konzentrationsschwankungen in diesem Aquiferbereich Folge einer Aufkonzentrierung der gelösten organischen Stoffe durch Verdunstung des oberflächennahen Grundwassers waren. Diese Annahme bestätigen die erhöhten Konzentrationen der Stoffe im Grundwasser im November 2000 und im März 2001 im Vergleich zum März 2000. Zu beiden Zeitpunkten waren die Niederschläge gering, was sich im Niedrigwasserstand der Oder wiederspiegelte. Vor allem in niederschlagsarmen Gebieten wie das Oderbruch, kann dieser Prozess der Aufkonzentrierung organischer Stoffe im Grundwasser durch Evaporation von Bedeutung sein. Die Frage, ob letztendlich der Niederschlagseintrag oder der umgekehrte Prozess, die Evaporation des Grundwassers, zu den starken Konzentrationsschwankungen der organischen Umweltchemikalien im Aquiferbereich der Transsekte Nieschen geführt hat, kann an dieser Stelle nicht beantwortet werden. Sicher ist, dass bei fehlenden undurchlässigen Deckschichten ein atmosphärische Eintrag organischer Umweltchemikalien in den Aquifer stattfindet. Auch in den Messstellen, die außerhalb der beiden Transsekten Nieschen und Bahnbrücke ca. 3000 bzw. 5000 m entfernt von der Oder liegen, konnten die organischen Verbindungen zum Teil in erheblichen Konzentrationen nachgewiesen werden. Dies ist zum einen wiederum mit einem Eintrag durch Niederschlagswasser und dem Transport der organischen Umweltchemikalien in größere Tiefen des Aquifers mit dem Sickerwasser zu erklären. Die undurchlässige Auelehmschicht ist in diesem Bereich nicht mehr vorhanden, so dass das Niederschlagswasser ungehindert in den Aquifer infiltrieren kann. Ein Einfluss des Oderfiltrats in dieser Entfernung vom Fluss kann ausgeschlossen werden, da in den mittleren Bereichen des Oderbruchs 50-100 Jahre für einen vollständigen Grundwasseraustausch realistisch sind und die Produktion sämtlicher Industriechemikalien, die Gegenstand dieser Arbeit sind, zu diesen Zeiten ohne Bedeutung war. Eine Remobilisierung der organischen Umweltchemikalien aus Klärschlamm, der im Land Brandenburg noch häufig auf Agrarflächen aufgebracht wird, muss als Eintragsquelle hier ebenfalls in Betracht gezogen werden, da Stoffe mit einem hohen Octanol/ Wasserverteilungskoeffizienten häufig die Tendenz zeigen, an Klärschlamm zu akkumulieren. Der photochemische Abbau des Antioxidationsmittels BHT zu seinem Metabolit BHT-CHO in der Atmosphäre war im Sommer höher als im Herbst und im Frühjahr, wobei der Metabolit selbst ebenfalls Abbauprozessen unterlag. Im Gegensatz dazu spielte der photochemische Abbau von TBP, TCEP, TBEP und 4-NP zu keinen Zeitpunkt eine große Rolle. Solange keine nennenswerten Direkteinleitungen in die Oder zu verzeichnen waren, konnte flussabwärts eine Konzentrationsabnahme für alle organischen Verbindungen festgestellt werden, welche auf aeroben Abbau der Substanzen zurückgeführt werden kann. Im Frühjahr war der Sauerstoffgehalt im Fluss mit 12,05 mg/l aufgrund der geringen Wassertemperatur (6,9 °C) und des Hochwasserereignisses am höchsten. Dies hatte höhere aerobe Abbauraten von BHT zu BHT-CHO zu diesem Zeitpunkt zur Folge. Ob es sich tatsächlich um einen biologischen Abbau der organischen Substanzen handelt oder ob Adsorptionseffekte an Schwebstoffe und Sedimente bei der Eliminierung dieser Stoffe ebenfalls eine Rolle spielen, muss anhand zukünftiger Analysen von Odersedimenten- und Schwebstoffen auf solche Substanzen geklärt werden. Der Abbau unter anaeroben Bedingungen, wie sie im Grundwasserleiter des Oderbruchs durchweg herrschen, spielte dagegen im Bezug auf alle untersuchten Verbindungen keine große Rolle, da diese in allen Tiefen des Aquifers (bis 21 m) noch nachgewiesen werden konnten. Sind sie einmal in das Grundwasser gelangt, werden sie aufgrund ihrer relativ guten Wasserlöslichkeit also leicht mit diesem in tiefere Bereiche transportiert. Sie sind damit relativ mobil. Die organischen Umweltchemikalien werden auch nicht wesentlich durch Adsorption an Sediment und/oder organischer Substanz zurückgehalten und dadurch aus dem Grundwasser eliminiert. Solche Faktoren wie ein schlechter anaerober Abbau, eine gute Wasserlöslichkeit und eine geringe Adsorption an Boden und Sediment einiger Schadstoffe müssen bei der Trinkwasserförderung aus tieferen Aquiferbereichen berücksichtigt werden. Chemikalien mit guten Wasserlöslichkeiten, wie beispielsweise die beiden Phosphorsäureester TCEP und TBEP, zeigten sogar die Tendenz sich besonders in den tieferen Aquiferbereichen anzureichern. Die Ergebnisse dieser Arbeit zeigen auch, dass es selbst in Gebieten wie dem Oderbruch, in denen die Grundwasserneubildung durch Niederschlag eine eher geringe Rolle spielt, durchaus zu einen nicht zu vernachlässigenden Eintrag von Stoffen durch Niederschlagswasser kommt und eine hohe Verdunstungsrate zu einer Aufkonzentrierung führt. Dies bedeutet, dass bei einer Betrachtung von hydrochemischen Prozessen in einem Grundwasserleiter, der hauptsächlich durch Uferfiltrat gespeist wird, keine einfache räumliche Struktur zugrunde gelegt werden kann. Zum lateralem Zustrom des infiltrierenden Flusswassers kommt der vertikale Einfluss des Sickerwassers. Dies muss neben Faktoren wie anaerober Abbau, Adsorption und Verdünnungseffekte bei der Interpretation des Schadstoffeintrags- und Transports im Grundwasser berücksichtigt werden.
Diese Arbeit beschreibt die Identifizierung, Klonierung und Charakterisierung von zwei neuen humanen S1P-Rezeptoren. Damit wird die Familie der S1P-Rezeptoren um einen hochaffinen und einen niedrig affinen Rezeptor erweitert. Die Untersuchungen der Expressionsprofile aller humanen S1P/LPA-Rezeptoren sowohl in Herz-Kreislauf-relevanten Geweben als auch in Endothelzellen und glatten Muskelzellen erfolgten bisher nicht im Sinne der hier dargestellten familienübergreifenden Betrachtung. Zusätzlich wurde in dieser Arbeit erstmalig auch der hS1P5-Rezeptor mit eingeschlossen. Wir konnten zeigen, dass zur Beurteilung der S1P- und LPA-Effekte in den untersuchten Gewebe- und Zellarten neben den bisher bekannten sieben Rezeptoren auch der hS1P5-Rezeptor betrachtet werden muss. Dies ist von entscheidender Bedeutung, da in bisherigen Untersuchungen insbesondere bei der Interpretation der S1P-Wirkungen nur die Rezeptoren S1P1-3 berücksichtigt wurden. In dieser Arbeit wurde außerdem zum ersten Mal eine große Anzahl potentieller Lipidliganden an den S1P-Rezeptoren S1P1-3 und 5 sowie am hGPR63 getestet. Auch wenn hierbei keine neuen Liganden identifiziert werden konnten, grenzen unsere Untersuchungen die Zahl potentieller zusätzlicher Liganden ein. Außerdem konnten wir zeigen, dass Suramin nicht - wie bisher vermutet - ein spezifischer Antagonist des S1P3-Rezeptors ist, sondern auch S1P5-Rezeptor-vermittelte Effekte blockieren kann. Hierdurch kann eine Fehlinterpretation von durch Suramin-hemmbaren Effekten verhindert werden. Ein wichtiger Befund dieser Arbeit, insbesondere für die pharmazeutische Industrie, ist die speziespezifische Expression des S1P5-Rezeptors. Während in der Ratte hauptsächlich eine Verteilung des Rezeptors im ZNS zu beobachten ist, findet sich das humane Homologe hauptsächlich in peripheren und hier insbesondere Herz-Kreislauf-relevanten Geweben. Der Einsatz von Tiermodellen, bei denen es sich in der Regel um Nager handelt, zur Untersuchung der S1P-Effekte muss daher kritisch überdacht werden, da in diesem Fall ein im Menschen potentiell relevanter Rezeptor nicht in den peripheren Geweben der Ratte vorhanden und somit nicht an den S1P-Wirkungen beteiligt ist. Zudem konnten wir auch funktionelle Unterschiede zwischen den beiden Rezeptoren unterschiedlicher Spezies beobachten, was zusätzlich gegen die Verwendung von Tiermodellen zumindest bei Untersuchungen des S1P5-Rezeptors spricht. Neben der erstmaligen Charakterisierung der Signaltransduktionswege des S1P5-Rezeptors konnte im Laufe dieser Arbeiten eine weitere neue Eigenschaft des S1P5-Rezeptors festgestellt werden: Dieser ist in der Lage, ligand-unabhängige Effekte hervorzurufen. Dies ist von Bedeutung, da häufig Rezeptoren, die aufgrund von Mutationen konstitutiv aktiv sind, für die Ausbildung von Krankheiten verantwortlich sind. Wir konnten darüberhinaus zeigen, dass der zweite in dieser Arbeit identifizierte S1P-Rezeptor, der orphan-hGPR63, von relativ hohen Konzentrationen an S1P sowie von doPA angeschaltet wird. Wenngleich die Affinität des hGPR63 zu doPA niedrig ist, ist dies jedoch der erste Rezeptor, der auf dieses Lipid reagiert. Welche physiologische Bedeutung diesem Rezeptor zukommt, ist noch völlig offen, die primäre Expression im Hirn weist jedoch auf eine zumindest partielle zentrale Wirkung hin. Zusätzlich zu den molekularbiologischen Befunden können aus dieser Arbeit wichtige Informationen für das Screenen von GPCRs und hier insbesondere von Lipid-GPCRs abgeleitet werden. Allgemein gilt, dass der Auswahl des richtigen Versuchssytems im Hinblick auf die Fragestellung und das zu untersuchende Protein eine entscheidende Bedeutung zukommt. Während bei Rezeptoren mit einer restriktiven Gewebeverteilung die Suche nach einem geeigneten Zellsystem keine Schwierigkeiten bereitet, stellt dies das Hauptproblem in der Lipidforschung dar. Da es keine Säugerzellen gibt, die nicht auf S1P reagieren, muss jedes Versuchssystem erneut auf Eignung und optimale Zellart untersucht werden. So konnten in transient transfizierten CHO-K1-Zellen hintergrundfreie S1P-Signale im FLIPR-Versuch gemessen werden, während in den MAP-Kinase-Versuchen in CHO-K1-Zellen der hohe endogene Hintergrund das Versuchsfenster auf ein Minimum reduzierte. Während die Messung von LPA-Effekten in CHO-K1-Zellen mit der FLIPR-Technologie aufgrund der endogenen Signale nicht möglich ist, können LPA-Effekte in McARH7777-Zellen ohne störenden Hintergrund gemessen werden. In diesem Zellsystem ist wiederum die Messung von S1P nicht oder nur begrenzt möglich. Auch wenn diese Beispiele spezifisch für Lipidrezeptoren sind, lässt sich doch aus dieser Arbeit die Notwendigkeit ableiten, neben der richtigen Substanz-Bibliothek besonders bei der Suche nach Liganden für orphan-GPCRs das richtige zelluläre System einzusetzen.
The mechanism of peptide transport has been studied on two different ABC transporters of S. cerevisiae. Thereby, the aim of this PhD thesis was to characterise the transporter function on molecular level and shed light on the physiological role of these transporters. The ABC gene YLL048 encodes a novel intracellular transporter translocating peptides from the cytosol to the lumen of the ER. Deletion of the gene resulted in loss of peptide transport activity. The transport activity was fully restored after transformation of the deletion mutant by plasmid-encoded YLL048. Studying the substrate specificity using randomized peptide libraries it was demonstrated that peptides of the size from 6 to 56 amino acids are recognized. So far, no upper limit of the substrate size was obtained. Introduction of D-amino acids in various positions of a nonamer peptide did not impair transport activity. The physiological function of YLL048p is not well understood. The gene product is not essential for cell viability as the deletion mutant did not show any growth phenotype. To examine the possibility that YLL048 encoded protein is part of a quality control of yeast cells involved in the unfolded protein response (UPR), upregulation of YLL048 transcription by heat shock and stress conditions were investigated. We could not observe an influence of stress factors on YLL048 mRNA level. Upregulation of gene expression by the transcription factors Pdr1p and Pdr3p was excluded. The ABC transporter Mdl1p has been identified as peptide transporter of the inner mitochondrial membrane. This protein is required for the export of peptides with the size of 6 to 21 amino acids from the matrix into the intermembrane space. These peptides are generated by m-AAA proteases degrading non-assembled or missfolded membrane proteins. In order to understand the transport mechanism in detail, Mdl1p was expressed in S. cerevisiae and E. coli. Partially enriched protein was reconstituted into liposomes and was active in ATP binding. The association of the NBDs has been described as a central step of the ATPase cycle of ABC transporters, but it is still controversial how both motor domains cooperate and coordinate ATP hydrolysis. To address this question, the Mdl1p-NBD was overexpressed in E. coli and purified to homogeneity. The isolated NBD was active in ATP binding and hydrolysis with a turnover of 0.5 ATP per min and a Km value of 0.2 mM. Isolated NBDs did not show cooperativity in ATPase activity. However, the ATPase activity was observed to be non-linearly dependent on protein concentration suggesting the active form of this enzyme is not a monomer. Very importantly, for the first time an ATP-induced dimer was observed after trapping the NBD by ortho-vanadate or BeFx. The nucleotide composition of the trapped intermediate state was determined and two ADP molecules were simultaneously bound per dimer. An ATP-induced dimer of the ATPase inactive mutant (E559Q) was observed already in the absence of ATPase inhibitor. The E599Q dimer contained two ATP molecules in the absence of Mg2+ at 4°C. Prolonged incubation at 30°C in the presence of Mg2+ induced a stable dimer in which one ATP and ADP molecule were trapped at the same time. Based on these experiments, a new cycle for ATPase activity of ABC transporters was proposed. Binding of ATP to two NBD monomers induces dimerization. Both nucleotides are hydrolysed sequentially. During the hydrolysis cycle the nucleotides cannot be released from the dimer. After hydrolysis of two ATP molecules the domains dissociate and start a new cycle.
In dieser Arbeit erfolgt eine Untersuchung der intrazellulären Transporteigenschaften des Na /Glucose Cotransporters SGLT1 aus dem Kaninchen. Der Transporter wird dazu heterolog in Xenopus laevis Oozyten exprimiert. Die hohe Expressionsdichte erlaubt die Anwendung der "giant excised patch clamp"-Technik in der inside-out Konfiguration. Die Patches mit Durchmessern von 20-30 µm enthalten ca. 2,5 - 5·10 hoch 6 Transportern bei einem durchschnittlichen Strom von 20-40 pA. Der Transport des Substrats Glucose bzw. des hier verwendeten alpha MDG wird angetrieben durch den elektrochemischen Gradienten für das Cosubstrat Na . Bei 0 mV Haltepotential wird zuerst die reine Konzentrationsabhängigkeit des Auswärtstransports durch die Bestimmung der apparenten intrazellulären Affinität für alpha MDG bei verschiedenen festen Na -Konzentrationen untersucht. Es kann eine deutliche Abhängigkeit des KM alpha MDG von der Na -Konzentration festgestellt werden. Eine Erhöhung der intrazellulären Na -Konzentration von 10 mM auf 400 mM führt zu einer ca. 12fachen Abnahme des KM alpha MDG. Experimente mit symmetrischer Na -Verteilung zeigen, dass auch ohne Na -Konzentrations-Gradient Transport stattfinden kann, allerdings mit einer deutlich geringeren Affinität für alpha MDG. Verglichen mit Literaturwerten für die extrazelluläre alpha MDG-Affinität ist die intrazelluläre Affinität 10-15mal geringer ist als die extrazelluläre. Die Untersuchung der Abhängigkeit von der Na -Konzentration bei verschiedenen festen MDG-Konzentrationen zeigt, dass KM Na eine geringe Abhängigkeit von der alpha MDG- Konzentration besitzt. Die 10fache Erhöhung der alpha MDG-Konzentration von 25 mM auf 250 mM führt nur zu einer leichten Erniedrigung des KM Na. Die intrazelluläre Na - Affinität liegt in der gleichen Größenordnung wie die extrazelluläre. Zur Untersuchung der intrazellulären Bindungsreihenfolge werden die gemessenen Abhängigkeiten des KM alpha MDG und des I Max von der Na -Konzentration mit Simulationen für die 3 möglichen Bindungsreihenfolgen (2Na :G), (Na :G:Na ) und (G:2Na ) verglichen. Mit den hier gemachten Annahmen für die intrazellulären Bindungskonstanten für MDG und Na wird die beste Übereinstimmung für die intrazelluläre Bindungsreihenfolge (2Na :G) gefunden. Zur Untersuchung des spannungsabhängigen Verhaltens der Affintitäten für alpha MDG und Na werden Spannungssprünge unter denselben Konzentrationsbedingungen wie vorher durchgeführt. Die Strom-Spannungs-Kennlinien zeigen eine Zunahme der zuckerinduzierten Stromamplituden zu positiven Potentialen hin. Dabei wird weder bei hyperpolarisierenden noch bei depolarisierenden Potentialen eine Sättigung erreicht. Dies läßt den Rückschluss, dass im betrachteten Spannungsbereich ein spannungsabhängiger Schritt im Transportzyklus geschwindigkeitsbestimmend ist. Die apparenten Affinitäten für alpha MDG und Na besitzen eine geringe Spannungsabhängigkeit. Der KM alpha MDG bei annähernd sättigender Na -Konzentration fällt zwischen 40 mV und 40 mV um einen Faktor 4,4. Bei verringerter Na -Konzentration beeinflusst das Membranpotential die MDG-Affinität stärker. Der KM Na fällt unter sättigenden Zuckerbedingungen im gleichen Spannungsbereich auf die Hälfte ab, wobei der Hill-Koeffizient konstant bleibt. Die Erniedrigung der alpha MDG-Konzentration verursacht keine Veränderung des spannungsabhängigen Verlaufs. Die Ergebnisse zeigen, dass SGLT1 ein reversibler Transporter ist, der sowohl Einwärts-, aber auch Auswärtstransport von Glucose generieren kann. Er zeigt dabei eine starke Abhängigkeit von der Na -Konzentration und eine geringe Abhängigkeit vom Membranpotential. Die hier bestimmten Eigenschaften zeigen aber auch, dass unter physiologischen Bedingungen ein Auswärtstransport von Glucose sehr unwahrscheinlich ist. Das Zusammenwirken der Faktoren Richtung des Na -Gradient, geringe Zuckeraffinität, negatives Membranpotential und geringe intrazelluläre Na - Konzentration verhindern den Auswärtstransport. Der physiologische Na -Gradient ist dem Auswärtstransport entgegengerichtet. Die geringe intrazelluläre Na -Konzentration und das negative Membranpotential verursachen eine sehr geringe intrazelluläre Zuckeraffinität von ca. 75 mM alpha MDG, so dass ein merklicher Auswärtstransport nur bei einer hohen Zuckerkonzentration innerhalb der Epithelzellen stattfinden kann. Dies wird jedoch durch basolaterale Glucose-Transporter verhindert. Das negative Membran- potential führt zu einer geringen Aktivität des Auswärtstransports. Die geringe intrazelluläre Na -Konzentration liegt weit unterhalb es KM Na , so dass auch hier die Transporteraktivität gering ist. Die asymmetrische Funktionsweise des SGLT1 gewährleistet, dass der Glucose- Transport nur in eine physiologisch sinnvolle Richtung, nämlich der Aufnahme von Glucose in die Epitheltzellen, stattfindet.
Human epidermal-type fatty acid binding protein (E-FABP) belongs to a family of intracellular non-enzymatic 14-15 kDa lipid binding proteins (LBP) that specifically bind and facilitate the transport of fatty acids, bile acids or retinoids. Their functions have also been associated with fatty acid signalling, cell growth, regulation and differentiation. As a contribution to better understand the structure-function relationship of this protein, the features of its solution structure determined by NMR spectroscopy are reported here. Both unlabeled and 15N-enriched samples of recombinant human E-FABP were used for multidimensional high-resolution NMR. The sequential backbone as well as side-chain resonance assignments have been completed. They are reported here and are also available at the BioMagResBank under the accession number BMRB-5083. The presence of six cysteines in the amino acid sequence of human E-FABP is highly unusual for LBPs. Four of the six cysteines are unique to the E-FABPs: C43, C47, C67 and C87. In the three-dimensional structure of E-FABP, two cysteine pairs (C67/C87 and C120/C127) were identified by X-ray analysis to be close enough to allow disulfide bridge formation, but a S-S bond was actually found only between C120 and C127 [Hohoff et al., 1999]. Since the exclusion of a disulfide bridge between C67 and C87 improved the Rfree factor of the crystallographic model, the existence of a covalent bond between these two side- chains was considered unlikely. This agrees with the NMR data, where SCH resonances have been observed for the cysteine residues C43, C67 (tentative assignment) and C87, thus excluding the possibility of a second disulfide bridge in solution. Based on the NOE and hydrogen exchange data, an ensemble of 20 energy-minimized conformers representing the solution structure of human E-FABP complexed with stearic acid has been obtained. The analysis of homonuclear 2D NOESY and 15N-edited 3D NOESY spectra led to a total of 2926 NOE-derived distance constraints. Furthermore, 37 slow- exchanging backbone amide protons were identified to be part of the hydrogen-bonding network in the >-sheet and subsequently converted into 74 additional distance constraints. Finally, the disulfide bridge between C120 and C127 was defined by 3 upper and 3 lower distance bounds. The structure calculation program DYANA regarded 998 of these constraints as irrelevant, i.e., they did not restrict the distance between two protons. Out of the remaining 2008 non-trivial distance constraints, 371 were intraresidual (i = j), 508 sequential (|i - j| = 1), 233 medium-range (1 < |i - j| £ 4), and 896 long-range (|i - j| > 4) NOEs. The protein mainly consists of 10 antiparallel -strands forming a >-barrel structure with a large internal cavity. The three-dimensional solution structure of human E-FABP has been determined with a root-mean-square deviation of 0.92 ± 0.11 Å and 1.46 ± 0.10 Å for the backbone and heavy atoms, respectively, excluding the terminal residues. Without the portal region (i.e., for residues 4-26, 40-56, 63-75 and 83-134; the portal region apparently represents the only opening in the protein surface through which the fatty acid ligand can enter and exit the internal binding cavity), an average backbone RMSD of 0.85 ± 0.10 Å was obtained, thus reflecting the higher conformational dispersion in the portal region. Superposition with the X-ray structure of human E-FABP (excluding the terminal residues) yielded average backbone RMSD values of 1.00 ± 0.07 Å for the entire residue range and 0.98 ± 0.06 Å without the portal region. This indicates a close similarity of the crystallographic and the solution structures. The structure coordinates have been deposited at the RCSB data bank under PDB ID code 1JJJ. The measurement of 15N relaxation experiments (T1, T2 and heteronuclear NOE) at three different fields (500, 600 and 800 MHz) provided information on the internal dynamics of the protein backbone. Nearly all non-terminal backbone amide groups showed order parameters S2 > 0.8, with an average value of 0.88 ± 0.04, suggesting a uniformly low backbone mobility in the nanosecond-to-picosecond time range throughout the entire protein sequence. Moreover, hydrogen/deuterium exchange experiments indicated a direct correlation between the stability of the hydrogen-bonding network in the >-sheet structure and the conformational exchange (Rex) in the millisecond-to-microsecond time range. The features of E-FABP backbone dynamics elaborated here differ from those of the phylogenetically closely related heart-type FABP and the more distantly related ileal lipid binding protein. The results on protein dynamics obtained in this work allow to conclude that the different LBP family members E-FABP, H-FABP and ILBP are characterized by varying stabilities in the protein backbone structures. Hydrogen/deuterium exchange experiments displayed significant differences in the chemical exchange with the solvent for the backbone amide protons belonging to the hydrogen-bonding network in the >-sheets. The >-barrel structure of H- FABP appears to be the most rigid, with exchange processes presumably slower than the millisecond-to-microsecond time range. ILBP, on the other hand, shows the fastest hydrogen exchange as well as a significant number of exchange parameters (Rex), implying a decreased stability in the >-sheet structure. E-FABP, finally, appears to rank between these two proteins based on the hydrogen/deuterium exchange, with Rex terms in the >-strands indicating millisecond-to-microsecond exchange processes like in ILBP.
Der Ein-Elektron Transporter Adrenodoxin spielt in der Steroidhormonbiosynthese eine entscheidende Rolle. Bislang konnte der Elektronentransportmechanismus zwischen der Adrenodoxin-Reduktase und dem Cytochrom P450 mittels Adrenodoxin nicht eindeutig nachgewiesen werden. Um die molekularen Wechselwirkungen besser verstehen zu können wurden in der vorliegenden Arbeit strukturelle Untersuchungen am Rinderadrenodoxin durchgeführt. Nachdem es bereits 1998 gelang die Struktur des oxidierten Zustands des Adrenodoxins aufzuklären [Müller et al. 1998], sollte die Struktur des reduzierten Zustands Aufschluss über mögliche redoxbedingte konformationelle Änderungen geben. Die Strukturaufklärung mittels NMR erfordert hohe Expressionsausbeuten und effektive Aufreinigungsstrategien des rekombinant hergestellten Proteins. Deshalb wurde zunächst eine Steigerung der Expression von löslichem Adrenodoxin in E.coli angestrebt. In Minimalmedium lieferte die Expression unter Zusatz von 2,5g Glycerin und 1g Glucose optimale Ergebnisse. So konnte nach Optimierung der Aufreinigungsabfolge aus einem Liter M9-Medium bis zu 50 mg homogenes Protein isoliert werden. Nach Optimierung der Expressionsbedingungen und der Aufreinigungsstrategie konnte das Adrenodoxin mit den NMR aktiven Isotopen 15N sowie 13C angereichert werden. Die Reduktion des Adrenodoxins erfolgte durch Zusatz von Natriumdithionit unter strikt anaeroben Bedingungen. Die strukturelle Untersuchung mittels NMR setzt eine Zuordnung der Proteinresonanzen voraus. Diese erfolgte unter Verwendung verschiedener Tripleresonanzexperimente. Eine Zuordnung war aufgrund des stark ausgeprägten Paramagnetismus nur für solche Reste möglich, die sich mindestens 8 Å vom [2Fe-2S]-Cluster des Adrenodoxins entfernt befinden. Trotzdem konnten wichtige Regionen, die sich außerhalb des Einflussbereichs des [2Fe-2S]- Clusters befinden, zugeordnet und mit dem oxidierten Zustand verglichen werden. Aus den 15N-NOESY-HSQC und 13C-NOESY-HSQC-Spektren wurden für den reduzierten Zustand unter Zuhilfenahme des Programms NMR2st 1300 effektiv abstandsbeschränkende NOESignale eindeutig zugeordnet. Nach Minimierung der Zielfunktion wurden im letzten Schritt 50 Strukturen mit dem Strukturkalkulationsprogramm DYANA berechnet. Die 20 Strukturen mit den besten Targetfunkionen wurden als Strukturensemble dargestellt. Für das Proteinrückrat beträgt der RMSD 2,34 Å. Anhand der chemischen Verschiebungsänderungen konnten erste Unterschiede zwischen oxidierten und reduzierten Zustand des Adrenodoxins festgestellt werden. Besonders markant sind diese Veränderungen im Bereich des C-Terminus und des Loops 80-86. Änderungen konnten auch im "Chemical Shift Index" und beim Vergleich der NOE-Konnektivitäten beider Redoxzustände beobachtet werden. Gerade für die Aminosäurereste Asp76 und Asp79, die für die Wechselwirkung zu den Redoxpartnern essentiell sind, konnten Veränderungen im Aufspaltungsmuster der "NOE-Pattern" nachgewiesen werden, was auf konformationelle Änderungen im Bereich der Wechselwirkungsdomäne hindeutet. Der Vergleich der beiden Tertiärstrukturen lieferte weitere Indizien dafür, dass der C-Terminus redoxbedingte konformationelle Änderungen erfährt. Während des Erstellens dieser Arbeit konnte eine US-amerikanische Gruppe durch Zufall die Existenz eines Adrenodoxin (oxidiert) Dimers bei physiologisch relevanten Konzentrationen nachweisen [Pikuleva et al. 2000]. Bei der Dimerisierung spielt der C-Terminus eine entscheidende Rolle. Zwei intermolekulare Wasserstoffbrücken bilden sich zwischen CTerminus und Protein des jeweils anderen Partners aus. Redoxbedingte konformationelle Änderungen im Bereich des C-Terminus sollten die Auflösung des Dimers begünstigen. Um diese Vermutung zu bestätigen wurden Cross-Linking Experimente mit dem reduzierten und oxidierten Zustand des Adrenodoxins durchgeführt. Die Ergebnisse bestätigten die Annahme, dass sich das Adrenodoxin Dimer nach Reduktion auflöst. Außerdem konnte anhand der voll funktionsfähigen C-terminal verkürzten Mutante Adx(4-108) die tragende Rolle des CTerminus bei der Dimerbildung bewiesen werden. Aus den experimentell erhaltenen Daten wurde ein neuer Elektronentransportmechanismus postuliert, der sowohl Adrenodoxin Dimere als auch Adrenodoxin Monomere als Elektronentransporter annimmt [Beilke et al. 2002]. Die streng kontrollierte Steroidhormonbiosynthese wird durch den Einsatz von Adrenodoxin Dimeren beschleunigt und durch die redoxbedingte Auflösung der Dimere optimert. Die redoxbedingte Auflösung eines Dimers ist in der Biochemie einzigartig und kann zum Verständnis molekularer Wechselwirkungen beitragen. Für die gesamte Gruppe der vertebraten Ferredoxine sind aufgrund der Struktur- und Sequenzhomologie ähnliche Ergebnisse zu erwarten. Im zweiten Teil der Arbeit sollte die Ferredoxin-NADP -Reduktase (FNR) für strukturelle Untersuchungen mittels NMR zugänglich gemacht werden. Durch Verwendung von bakteriellen Expressionssystemen, insbesondere dem pQE30-Expressionssystem, konnte der Anteil an löslichem Protein im Vergleich zum Ursprungssystem um den Faktor 12 erhöht werden. Dabei führten möglichst niedrige Expressionstemperaturen und IPTG Konzentrationen zu den höchsten Proteinausbeuten. Ein verbessertes Isolationsverfahren wurde etabliert und ermöglicht die Darstellung von bis zu 90 mg FNR aus einem Liter LB-Medium. Eine Verlängerung der Expressionsdauer, hervorgerufen durch das Wachstum in M9-Medium und in D2O, verringerte den Anteil an vollständig intaktem Protein, weshalb auf eine kostspielige Proteinpräparation in dreifach angereicherten Minimalmedium verzichtet wurde.
Stickstoffmonoxid (NO) ist ein kurzlebiges Gas, welches in biologischen Systemen verschiedene Funktionen übernehmen kann. Abhängig von der Konzentration ist NO ein zweischneidiges Schwert bezüglich seiner biologischen Effekte, da es in hohen Dosen proapoptotisch und in physiologischen Dosen anti-apoptotisch wirkt. Das von der eNOS in Endothelzellen gebildete NO ist ein wichtiger Faktor für die Gefäßrelaxation, ein antiinflammatorisches Molekül, ein zentraler Faktor für die Angiogenese und es inhibiert die Apoptose. Die reversible Modifikationen der Funktion von Zielproteinen durch S-Nitrosylierung ist ein Mechanismus, wie NO seine Effekte mediert. In den letzten Jahren sind eine Vielzahl von Zielproteinen entdeckt worden, deren Funktion durch S-Nitrosylierung modifiziert werden, die deutlich machen, dass S-Nitrosylierung die Funktion eines Signaltransduktionsmechanismus übernimmt. Da in humanen T-Zellen zum erstenmal auch eine Denitrosylierung beobachtet werden konnte, sollten in dieser Arbeit Mechanismen, die der Balance zwischen S-Nitrosylierung und Denitrosylierung zu Grunde liegen, untersucht werden. Dafür wurden zunächst Methoden zum Nachweis der S-Nitrosylierung etabliert. Zum einen zur Quantifizierung der S-Nitrosylierung in Endothelzellen der modifizierte Saville- Griess Assay und der DAN-Assay und zum anderen zur qualitativen Analyse der S-Nitrosylierung die biotin switch method. In dieser Arbeit konnte gezeigt werden, dass durch Stimulation der NO-Freisetzung mittels Applikation von laminarer Schubspannung der Gehalt an S-Nitrosylierung in HUVEC erhöht wird und auch die katalytische Untereinheit der Caspase-3 p17, ein bekanntes Zielprotein, verstärkt S-nitrosyliert wird. In einem in vitro Modell des Alterns konnte gezeigt werden, dass einhergehend mit der Reduktion der Proteinexpression der eNOS auch der Gehalt an S-Nitrosylierung, und damit die Bioverfügbarkeit von NO, reduziert ist. Nach Inkubation mit dem pro-apoptotischen TNFa und dem pro-atherogenen oxLDL konnte eine drastische Zunahme der Apoptosesensitivität von alternden HUVEC gegenüber diesen Stimuli beobachtet werden. Diese Ergebnisse unterstreichen die zentrale Rolle der Bioverfügbarkeit von NO für das Überleben der Endothelzelle. Zusätzlich konnte eine Denitrosylierung nach Inkubation von Endothelzellen mit TNFa oder oxLDL nach 18 h nachgewiesen werden. Durch Analyse mittels der biotin switch method wurde deutlich, dass dabei nicht nur der Gesamtgehalt an S-nitrosylierten Molekülen reduziert wird, sondern auch spezifische Zielproteine in unterschiedlicher Stärke denitrosyliert werden. Diese Daten machen deutlich, dass es sich bei der S-Nitrosylierung um einen differentiell regulierten Signaltransduktionsmechanismus handelt. Basierend auf diesen Ergebnissen wurde eine Strategie zur Identifizierung einer potentiellen Nitrosylase entwickelt, bei dem ein synthetisches, in vitro S-nitrosyliertes Peptid als Substrat verwendet wird. Weiterhin sollten neue Zielproteine für die S-Nitrosylierung identifiziert werden. Tatsächlich konnte ein neues Zielprotein für die S-Nitrosylierung, die Oxidoreduktase Thioredoxin identifiziert werden. Thioredoxin wird ubiquitär in Säugetierzellen exprimiert und ist ein essentieller Faktor für die Aufrechterhaltung des intrazellulären Redox-Status. Mit den Cysteinen an Position 32 und 35 besitzt Thioredoxin eine redox-regulatorische Domäne, die essentiell für seine Funktion als Oxidoreduktase ist. Neben seiner Funktion als Redox- Regulator, kann Thioredoxin Transkriptionsfaktoren wie z.B. NfK-B aktivieren und über die redox-regulatorische Domäne die pro-apoptotische Kinase ASK-1 binden und inhibieren. In dieser Arbeit konnte gezeigt werden, dass Thioredoxin an Cystein 69 S-nitrosyliert wird und dass der Gehalt an S-nitrosylierten Molekülen von der Proteinexpression des Thioredoxin abhängt. Desweiteren ist die S-Nitrosylierung von Thioredoxin in Endothelzellen wichtig für die Entfaltung seiner vollständigen Reduktaseaktivität. Für die zum erstenmal in Endothelzellen gezeigte anti-apoptotische Funktion von Thioredoxin wird sowohl die S-Nitrosylierung an Cystein 69 als auch die redox-regulatorische Domäne benötigt. Durch diese Experimente konnte eine neue wichtige Funktion von Thioredoxin für NOproduzierende Zellen beschrieben werden. Zusammenfassend zeigen die Ergebnisse dieser Arbeit, dass die S-Nitrosylierung in Endothelzellen ein Signaltransduktionsmechanismus ist, der sowohl durch protektive, als auch durch pathophysiologische Stimuli spezifisch reguliert wird. Die weitere Charakterisierung dieser Vorgänge könnte einen tieferen Einblick in die Biologie und Funktion der Endothelzelle geben. Zusätzlich konnte durch das neue Zielprotein Thioredoxin die direkte Verknüpfung von NO mit dem Redox-Status der Zelle und die zentrale Rolle von Thioredoxin für den Gehalt an S-Nitrosylierung in Endothelzellen gezeigt werden. Identifizierung weiterer Regulationsmechanismen für die S-Nitrosylierung könnte ein genaueres Verständnis dieses Wirkmechanismus von NO und somit eine bessere Protektion des Endothelzellmonolayers in den Gefäßen ermöglichen.
P2X receptor subunits assemble in the ER of Xenopus oocytes to homomultimeric or heteromultimeric complexes that appear as ATP-gated cation channels at the cell surface. In this work it was intended to investigate the posttranslational modifications such as N-linked glycosylation and disulfide bond formation that is undergone by P2X1 receptors. In addition, the aim of this study was to examine the expression and the quaternary structure of selected P2X receptor isoforms in Xenopus oocytes. The investigation of the quaternary structure of the metabolically or surface labeled His-P2X2 receptor by BN-PAGE revealed that, while the protein complex is only partially assembling in oocytes, the plasma membrane form of the His-P2X2 receptor assembled into trimeric and even hexameric complex as was shown by the BN-PAGE analysis. Besides this finding, it is shown that the His-P2X5 protein that was purified from metabolically or surface labeled oocytes appeared as one single band corresponding to a trimer when analyzed by BN-PAGE. The present study signified that His-P2X6 alone does not reach a defined assembly status and possibly needs the hetero-polymerisation with other P2X subunits to assemble properly for insertion into the plasma membrane. Another finding of this study is that the P2X1 and P2X2 subunits could exist as heteromultimeric protein complexes in the plasma membrane of cells. Purification of surface expressed His-P2X2 subunit allowed the detection of co-injected P2X1 subunit and vice versa in Xenopus oocytes. Incubation with glutardialdehyde led to the cross-linking of P2X2 and P2X1 subunits to dimers and trimers. BN-PAGE analysis of the P2X2/P2X1 complex isolated under nondenaturing conditions from surface-labeled oocytes yielded one distinct band corresponding to a trimeric complex. The analysis of a C-terminally GFP tagged His-P2X1 fusion protein by confocal fluorescence microscopy revealed small clusters of the protein complexes, approximately 4-6 µm in diameter from a diffuse distribution of the protein in the plasma membranes of Xenopus oocytes. The cross-linking or BN-PAGE analysis of the fusion protein resulted in proteins that migrated quantitatively as trimers when purified in digitonin. The analysis of some chimeric constructs confirmed the results of others, which showed that desensitization can be removed from the P2X1 or P2X3 receptor by providing the N-domain from the P2X2 receptor (Werner et al., 1996) The exchange of this domain did not alter the quaternary structure of the chimeras, which showed to be present as trimers when expressed in oocytes. In addition, glycan minus mutants of His-P2X1 receptor were analyzed to examine whether carbohydrate side chains are important for P2X1 subunit assembly, surface expression, or ligand recognition. SDS-PAGE analysis of glycan minus mutants carrying Q instead of N at five individual NXT/S sequons reveals that 284N remains unused because of a proline in the 4 position. The four other sites (153Asn, 184N, 210N, and 300N) carry N-glycans, but solely 300N acquires complex-type carbohydrates. Like parent P2X1 receptor, glycan minus mutants migrate as homotrimers when resolved by blue native PAGE. Recording of ATP-gated currents revealed that elimination of 153N or 210N diminishes or increases functional expression levels, respectively. In addition, elimination of 210N causes a 3-fold reduction of the potency for ATP. If three or all four N-glycosylation sites are simultaneously eliminated, formation of P2X1 receptors is severely impaired or abolished, respectively. It is concluded that at least one N-glycan per subunit of either position is absolutely required for the formation of P2X1 receptors. The SDS-PAGE analysis of surface-labeled His-P2X2 and His-P2X5 receptors revealed that, while the His-P2X2 subunit acquires three complex-type carbohydrates, in case of His-P2X5 polypeptide, only two of the three N-glycans could obtain complex-type carbohydrates during transit of the Golgi apparatus. Furthermore, it was shown that DTT treatment blocked the appearance of newly made His-P2X1 at the plasma membranes of Xenopus oocytes. Also, it was revealed that the effects of DTT on His-P2X1 biogenesis are fully reversible. Removal of the reducing agent leads to subsequent folding and assembly into His-P2X1 receptor complex, followed by transport to the cell surface. The characterization of cysteine minus mutants by SDS PAGE and BN-PAGE demonstrated that, the cysteine substitution in the first cysteine rich domain (C1 - C6) does not have a major effect on assembly for the mutant receptors. In contrast, the replacement of the four cysteine residues (C7 - C10) from the second cysteine rich domain demonstrate a critical importance of this domain for the functional surface expression of P2X1 receptor. The investigations of several double cysteine mutants revealed that according to a similarity in the sensitivity to ATP, the C1 and C6, as well as C2 and C4 and finally C3 and C5 are pairs forming two disulfide bonds in each P2X1 subunit.
Rezeptortyrosinkinasen der Familie der epidermalen Wachstumsfaktorrezeptoren (EGFR) sind in vielen Krebsarten dereguliert und ursächlich an der malignen Transformation beteiligt. Da die Aktivierung vom Rezeptor ausgehender Signaltransduktionskaskaden auf spezifischen Protein-Protein-Interaktionen basiert, kann durch gezielte Interferenz mit diesen Interaktionen das proliferative Signal ausgeschaltet und das Tumorwachstum angehalten werden. Für diese gezielte Interferenz wurde in der vorliegenden Arbeit das Peptid-Aptamer-System eingesetzt, mittels dem Peptide, die in ein Gerüstprotein inseriert sind, aufgrund ihrer Affinität zu einem Zielprotein selektiert werden können. Drei Peptid-Aptamere (KDI1, KDI3, KDI4), die spezifisch mit dem EGF-Rezeptor interagieren, konnten isoliert werden. lntrazelluläre Expression von Peptid-Aptamer KDI1 oder Einbringung des bakteriell exprimierten Peptid-Aptamers KDI1 mittels einer Proteintransduktionsdomäne führte zu reduzierter EGF-abhängiger Proliferation und Transformation. Durch Interferenz des Aptamers mit dem EGF-Rezeptor war die EGF-induzierte Phosphorylierung von Tyrosin 845, 1068 und 1148, sowie die Aktivierung von p46 Shc und STAT3 reduziert. Daher wurde gefolgert, dass das Peptid-Aptamer die EGF-abhängige Rekrutierung der zytoplasmatischen Kinase c-Src an den Rezeptor inhibiert. Durch Fusion einer zusätzlichen Domäne wie der SOCS-Box-Domäne konnte den Peptid-Aptameren eine zusätzliche inhibitorische Funktion gegeben werden. Hierbei handelt es sich um eine Domäne, die spezifisch Kontakt mit E3-Ubiquitin-Ligasen aufbauen kann. Es konnte gezeigt werden, dass durch Transduktion eines solchen Peptid-Aptamers der Rezeptor spezifisch ubiquitinyliert und damit degradiert wird. Das Peptid-Aptamer-System eignet sich somit dazu, Inhibitoren für vorgegebene Zielmoleküle zu isolieren, die sowohl in der Grundlagenforschung als auch in der Tumortherapie Anwendung finden können.
Das Thema der vorliegenden Promotion war die Aufklärung von Neutralisationsmechanismen auf Lymphozyten und Makrophagen unterschiedlicher primärer HIV-1-Subtypen im Verlauf der Krankheitsprogression. Ausgangspunkt für die Experimente war die Tatsache, dass humane Seren von HIV-1 infizierten Patienten bereits kurz nach der Serokonversion autologe Virusisolate auf Makrophagen, nicht aber auf Lymphozyten neutralisieren können (Ruppach et al., 2000). Bei Neutralisationsexperimenten mit einem dem V3-loop des gp120 komplementären P1 -Peptids (Subtyp B), sollte der Nachweis von neutralisierenden Antikörpern im Serum erbracht werden. Weiterhin sollte gezeigt werden, inwieweit die Neutralisation auf Makrophagen durch V3-Antikörper begründet ist. Nach erfolgter Neutralisation auf Makrophagen mit und ohne P1-Peptidvorinkubation konnte gezeigt werden, dass es zu keinen Veränderungen im Neutralisationsverhalten durch Vorinkubation mit einem V3-Peptid gekommen war. Daraus ließ sich folgern, dass es nicht die V3-Antikörper sind, die eine Neutralisation auf Makrophagen hervorrufen können. Als nächstes wurde das Neutralisationsverhalten eines frühen lsolates (8 Monate nach der Infektion) und einer späten Folgeprobe (27 Monate nach der Infektion) durch autologes Serum auf Lymphozyten und auf Makrophagen verglichen. Dabei konnte gezeigt werden, dass sowohl Ursprungs- wie auch Folgeisolat auf Makrophagen eine große Neutralisationsaktivität aufweisen, die auf Lymphozyten fehlt. Um besser eingrenzen zu können, welche Antikörper bei Neutralisationsreaktionen auf Makrophagen eine Rolle spielen, wurden Neutralisationsexperimente mit Serumimmunglobulinen eines frühen Isolates durchgeführt. Als Ergebnis konnte festgehalten werden, dass autologe IgG' s auf Makrophagen eine Neutralisationsreaktion herbeiführen können. Weiterhin stellte sich die Frage, ob autologe Immunglobuline in der Lage sind, heterologe Virusisolate zu neutralisieren. Dabei zeigte sich, dass im Test unterschiedlicher Subtypen, es zu einer hohen Kreuzneutralisationsaktivität gekommen war. Zusammenfassend konnte im Verlauf der Promotion erfolgreich dargestellt werden, dass die Serumimmunglobuline für die Neutralisation auf Makrophagen verantwortlich sind und, dass diese heterologe Eigenschaften besitzen.